L’instabile scenario globale contemporaneo ci restituisce un panorama bellico in cui l’uso dell’Intelligenza Artificiale è ormai realtà prassica e consolidata. Se da un lato le nuove tecnologie introducono dirompenti opportunità nel settore, esse non sono esenti da preoccupazioni circa rischi, abusi e violazioni di principi umanitari.
Definire gli AWS
Sebbene non vi sia consenso circa la loro definizione, durante il gruppo di lavoro della Convenzione sulle Armi Convenzionali delle Nazioni Unite del 2016 si è definito un Autonomous Weapon System come un “sistema d’arma in grado di svolgere compiti regolati dal diritto internazionale umanitario (IHL) in sostituzione parziale o totale di un essere umano nell’uso della forza, in particolare nel ciclo di individuazione dei bersagli“. Questa definizione evidenzia un elemento caratterizzante questi strumenti ed essenziale per un’analisi sotto il profilo umanitario, ovvero l’interazione uomo-macchina. Gli AWS sono infatti categorizzati sulla base del controllo umano sulla macchina, differenziando armi “Human-in-the-loop” in cui la macchina ha il solo scopo di selezionare il target contro il quale la forza sarà diretta solo ed esclusivamente tramite comando umano; armi “human-on-the-loop” che oltre alla selezione usano la forza con la supervisione umana; e infine le armi “human-out-of-the-loop“, che presentano il minimo livello di controllo e non necessitano di input per colpire il target selezionato. Si evince quindi che le ultime due tipologie risultano rilevanti per un’analisi circa il rispetto del diritto internazionale umanitario nell’utilizzo dei sistemi AWS e in particolar modo all’elemento chiave della previsione e della valutazione che deve soggiacere alla decisione di performare un attacco.
OODA loop: l’evoluzione nell’uso della macchina in battaglia
Analizzare l’evoluzione dell’uso delle macchine a supporto dei processi decisionali attraverso il paradigma “Observe, Orient, Decide, and Act”, suggerisce un incremento nell’integrazione delle nuove tecnologie nel ciclo. Sviluppato dallo stratega militare statunitense John Boyd, il modello è stato ed è tuttora utilizzato per comprendere, prevedere e ottimizzare i processi di decision making a livello strategico. Se nella fase “Observe” l’uso di sensori nella fase di targeting è ormai consolidato e non solleva particolari preoccupazioni dal punto di vista umanitario in regione dell’ancora completo controllo umano, l’automazione dell’esercizio della forza da remoto nella fase “Orient” suggerisce dilemmi etico-legali. Tuttavia il recente e sempre più reale utilizzo di tecnologie autonome nella fase “Decide” desta dubbi e risentimenti dal punto di vista del rispetto dei principi umanitari. Questo perché esse consentono di selezionare il best course of action sulla base delle condizioni fornite come input attraverso pattern algoritmici. Nel caso di sistemi ad apprendimento automatico la questione è ancor più complessa, dal momento che questi garantiscono un’ottimizzazione della performance basata sull’esperienza che consente di rispondere a condizioni incerte e inedite nell’ambiente in cui operano. Queste dinamiche e in particolare l’evoluzione dell’affidamento alle macchine in guerra nelle fasi “Orient” e “Decide” allentano e diluiscono notevolmente il legame essenziale tra la decisione umana e l’uso della forza, il quale rappresenta la base di ogni principio umanitario volto alla limitazione delle conseguenze dei conflitti armati.
AWS e DIU: il dilemma della discrezionalità umana
Le parti di un conflitto sono tenute, secondo le Convenzioni di Ginevra e i suoi Protocolli Aggiuntivi, a rispettare i principi di distinzione, proporzionalità e precauzione laddove esse pianifichino e conducano un attacco armato, al fine di minimizzare le sofferenze inflitte alla popolazione civile. Per ciò che concerne la necessità di distinguere tra civili e belligeranti e tra beni civili e target militari, si evince che attacchi eseguiti con metodi indiscriminati sono proibiti. Questo perché è essenziale che, come prevede il secondo principio cardine del DIU, l’attacco non causi danni eccessivi e sproporzionati rispetto al relativo vantaggio militare atteso. E’ infine necessario che le parti adottino misure preventive atte a verificare che nella conduzione di un attacco venga rispettata la distinzione tra target civili e militari e a garantire che la popolazione civile riceva un effettivo avvertimento in tempi ragionevoli prima dell’operazione. Gli obblighi sopracitati, però, sono indirizzati a belligeranti che discrezionalmente utilizzano armi e implicano l’identificazione della responsabilità in caso di violazioni. Ciò è difficilmente applicabile, invece, a programmi, sistemi e macchine che funzionano sulla base di algoritmi e basi di dati e che prendono decisioni (non esenti da errori, peraltro) secondo pattern preimpostati e scevri delle valutazioni etico-morali proprie dell’essere umano, aumentando la distanza tra decisione umana e applicazione della forza letale.
Il vuoto normativo: limite o opportunità?
I sistemi d’arma autonomi, così come ogni altro tipo di arma specifica, non sono oggetto di alcun trattato di diritto umanitario. Questa apparente carenza giuridica si spiega, in realtà, con l’antica clausola di St. Martens, risalente al 19° secolo ma ancora attuale, secondo cui “nei casi non coperti dai trattati esistenti, i civili e i combattenti rimangono protetti dal diritto umanitario internazionale consuetudinario, dai principi di umanità e dai dettami della coscienza pubblica”. Questo approccio previene il principio libertario per cui “ciò che non è proibito è implicitamente concesso” e crea un obbligo alle Parti, sebbene non imponibile legalmente, circa una valutazione bilanciata dei mezzi utilizzati in guerra laddove essi non siano esplicitamente normati. Similmente, l’art.36 del Protocollo Addizionale della Convenzione di Ginevra del 1977 sancisce ed esplicita l’obbligo dei contraenti circa nel determinare, nello studio, sviluppo, acquisizione o adozione di una nuova arma, mezzo o metodo di guerra, se il suo impiego sarebbe, in alcune o in tutte le circostanze, proibito dal presente protocollo o da qualsiasi altra norma di diritto internazionale applicabile.
Ne consegue che la determinazione circa la legalità o meno di un determinato tipo di arma dipenda dalle sue caratteristiche intrinseche ma anche dagli effetti delle stesse nell’ambiente operativo. Una simile valutazione risulta tuttavia complessa nel caso dei sistemi d’arma autonomi specialmente se ad apprendimento automatico, poiché necessita di un livello di conoscenza del sistema e previsione degli effetti solida e completa. Questo elemento riporta l’attenzione della presente analisi sulla componente del controllo umano, dal momento che la Convenzione su Certe Armi Convenzionali del 1983 afferma che “un controllo umano “significativo” o “efficace”, o “livelli appropriati di giudizio umano” debbano essere mantenuti sui sistemi d’arma e sull’uso della forza”. L’elemento del giudizio umano è dunque essenziale nel ciclo di adozione e implementazione di un’arma al fine del rispetto del DIU. Prevedibilità e affidabilità vanno testate nella fase dello sviluppo tramite verifiche d’impatto e un certo livello di supervisione e aggiustamento va inoltre assicurato nella fase di attivazione e operazione, compresa la possibilità di limitare il campo di azione e disattivare un sistema in caso di errore o possibile compromissione di principi umanitari. Si evince, dunque, che questi standard sono potenzialmente contemplabili e rispettabili nell’ambito dell’adozione e uso effettivo di sistemi d’arma autonomi grazie alle accessibili ed integrabili tecnologie odierne. Tuttavia è necessario che i sistemi in oggetto siano volti a specifiche tasks, ad operare in specifici contesti operativi e in timeframes contenuti al fine di limitare la flessibilità discrezionale, che deve sempre rimanere nelle mani dell’agente umano anche in ragione dell’ipotetica accountability per violazioni degli obblighi internazionali.
Sebbene certe norme sancite dal sistema legale umanitario possano sembrare obsolete e difficilmente adattabili ai contesti di combattimento moderni, la struttura fondante il Diritto Umanitario Internazionale è intrinsecamente flessibile e pragmatica. Essa infatti consente, attraverso gli apparenti “rilassamenti” e “aperture” legali come la St.Martens clause, di adattare i principi universali al perpetuo avanzamento ed evoluzione della società moderna, in una vera ottica “descrittiva” del diritto prima che “prescrittiva”. Come già Clausewitz affermava quasi 200 anni fa, la guerra assomiglia a un gioco di carte in cui non c’è spazio per la certezza. E’ dunque essenziale e irrinunciabile rispondere all’imprevedibilità e all’indeterminatezza con strutture stabili e permanenti, che fungano da fari per navigare nel grande caos della guerra in cui “tutto è molto semplice, ma la cosa più semplice è difficile”.

