La responsabilità umana nell’era della guerra algoritmica
IA, sistemi d’arma e diritto umanitario: tra principi dichiarati e pratiche che sfidano il controllo umano e la responsabilità nella catena di comando

ANSA
L’utilizzo dell’Intelligenza Artificiale (IA) in campo militare pone di fronte a scenari in cui è necessario valutare come l’utilizzo della cosiddetta forza letale, la responsabilità di uccidere, sia riconducibile a responsabilità umane chiaramente identificabili e non possa essere delegata a sistemi automatici. È responsabilità umana, del responsabile del campo di battaglia e dell’intera catena di comando, definire i limiti di applicazione della forza letale, le sue conseguenze sulla popolazione e sui territori, e rispondere della coerenza di tali decisioni con le leggi che regolano il diritto umanitario a livello internazionale e dei singoli paesi.
I. Lo sviluppo continuo e accelerato dell’IA ridefinisce continuamente il confine fra quanto i sistemi basati su di essa siano di supporto alle decisioni dell’uomo o quanto invece lo sostituiscano. Il tema è presente sui tavoli degli organismi internazionali che negli ultimi anni si sono mossi per provare a dare un inquadramento normativo all’intelligenza artificiale.
La questione riveste particolare rilevanza in campo militare dove una decisione sbagliata può comportare la morte di persone, civili e non, o la distruzione di territori. Si capisce, dunque, che l’autorità di prendere decisioni e di assumerne la responsabilità deve essere chiaramente identificata. Il tema ha una tale rilevanza che organismi militari nazionali e sovranazionali hanno prodotto documenti tesi a normare l’utilizzo dell’IA. Lo ha fatto il Regno Unito, ch ha introdotto una visione di implementazione dell'IA nella difesa basata su 4 principi di utilizzo dell'IA (Efficiente, Efficace, Affidabile e Influente) nella Strategia di Intelligenza Artificiale per la Difesa. Ma lo ha fatto anche il Dipartimento della Difesa degli Stati Uniti introducendo 5 principi dell'Uso Etico dell'IA: Responsabilità, Equità, Tracciabilità, Affidabilità e Governabilità.
In ambito NATO è stato definito un quadro etico e operativo che impegna la NATO e i suoi Alleati nello sviluppo e nell'impiego di tecnologie di IA a scopi di difesa e sicurezza. Questi principi sono stati inizialmente stabiliti nella prima Strategia di Intelligenza Artificiale della NATO, adottata dai Ministri della Difesa della NATO nell'ottobre 2021. La visione strategica alla base di questi principi è sfruttare il potenziale trasformativo dell'IA per rafforzare il vantaggio tecnologico della NATO e rafforzare i suoi compiti fondamentali di difesa collettiva, gestione delle crisi e sicurezza cooperativa, mitigandone al contempo i rischi intrinseci. I principi sono dichiarati essere tesi a garantire che le applicazioni di IA siano utilizzate in modo sicuro, responsabile e in conformità con il diritto internazionale e i valori democratici.
L'importanza di questi principi è stata ribadita nella Strategia Revisionata sull'Intelligenza Artificiale della NATO il 10 luglio 2024. Questa revisione riflette l’evoluzione delle capacità dell'IA, inclusa l'IA generativa, e si propone di proteggersi dall'uso malevolo dell'IA da parte di attori statali e non statali, di affrontare potenziali vulnerabilità e garantire la fiducia pubblica nell'applicazione militare dell'IA. In questo quadro, gli Alleati si impegnano a garantire che le applicazioni di IA che implementano nei loro sistemi militari, e che successivamente offrono all'Alleanza a supporto di qualsiasi missione militare della NATO, siano conformi a sei Principi di Uso Responsabile dell'IA (PRU):
- Lawfulness: l'IA è sviluppata e utilizzata in conformità con le leggi nazionali e internazionali, inclusi il diritto umanitario internazionale e le leggi sul rispetto dei diritti umani.
- Responsibility and Accountability: l'IA è sviluppata e utilizzata con livelli appropriati di giudizio e cura; deve essere garantito un criterio di chiara responsabilità umana nel suo utilizzo.
- Explainability and Traceability: l'IA deve essere comprensibile e trasparente, includendo l'uso di metodologie di riesame anche per fonti e procedure.
- Reliability: l'IA ha casi d'uso espliciti e ben definiti. La sicurezza, la protezione e la robustezza di tali capacità sono soggette a test e garanzie all'interno di tali casi d'uso per l'intero ciclo di vita.
- Governability: : L'IA è sviluppata e utilizzata secondo le sue funzioni previste; consente un'interazione uomo-macchina appropriata che consenta la capacità di rilevare e evitare conseguenze indesiderate e la capacità di intraprendere azioni quando l'IA mostra comportamenti indesiderati.
- Bias Mitigation: vengono adottati passi proattivi per minimizzare i pregiudizi indesiderati nello sviluppo e nell'uso dell'IA.
II. La realtà di questi anni, a partire da quanto è avvenuto e sta avvenendo in Palestina, in Iran, in Libano, dimostra che l'utilizzo dell'IA è andato in tutt'altra direzione.
L’utilizzo dell’IA nei sistemi d’arma si riferisce all'uso di tecnologie di intelligenza artificiale per supportare, automatizzare o sostituire il processo decisionale e le operazioni umane nei conflitti armati. Viene utilizzata per accelerare l'analisi a scopo militare di grandi volumi di dati al fine di identificare i bersagli da colpire. Per la sua natura autonoma, l'IA aumenta la velocità delle operazioni a tal punto che l’utilizzo della forza letale non può più passare attraverso la validazione diretta e responsabile dell’uomo.
Sono disponibili in letteratura molti testi che affrontano il tema, anche da punti di vista diversi, e descrivono alcuni di questi sistemi (o, come sarebbe più appropriato definirli, System of Systems), dal progetto MAVEN del US Department of Defense, nato nel 2017 con la partecipazione di Google (poi uscita nel 2018), Palantir, Anduril, Amazon Web Services, Anthropic (uscita nel 2026) e utilizzato dagli Usa per gli attacchi fra l’altro a Siria, Yemen, Iraq e Iran. A quelli utilizzati dall’IDF contro il popolo e la patria Palestinese come The Gospel (utilizzato per identificare gli obiettivi da bombardare) e Lavender (utilizzato per identificare le persone da uccidere). La logica di funzionamento di questa tipologia di sistemi può essere schematizzata in termini generali nei seguenti passi
STEP 1: Generazione della lista di obiettivi (targets) Il sistema analizza le informazioni raccolte sulla popolazione “bersaglio” tramite un sistema di sorveglianza di massa che ha a disposizione fra l’altro le informazioni provenienti da data base istituzionali e non, e i dati relativi a traffico telefonico e ai comportamenti sociali derivati dalle interazioni su rete; quindi, valuta e classifica la probabilità che ciascuna persona sia attiva in campo militare. Il sistema assegna a ogni persona monitorata un punteggio, per esempio da 1 a 100, esprimendo quanto sia probabile che siano militanti.
Il sistema impara a identificare le caratteristiche dei potenziali nemici, caratteristiche che sono state fornite al sistema come dati per il suo addestramento, e poi a localizzare queste stesse caratteristiche — chiamate anche “features” — tra la popolazione generale. Un individuo che presenta diverse caratteristiche incriminanti raggiungerà un punteggio alto e, quindi, automaticamente diventerà un potenziale obiettivo per essere ucciso se il suo punteggio sarà maggiore di una soglia prefissata.
STEP 2: Collegamento degli obiettivi (targets) alle abitazioni familiari Il passo successivo della procedura è identificare dove attaccare i bersagli generati dal sistema. Dal punto di vista dell'intelligence è più facile attaccare le case familiari usando sistemi automatizzati perché sono maggiori i dati disponibili.
STEP 3: Scegliere l’arma Una volta che il sistema ha segnalato un bersaglio per l'assassinio, e il software di tracciamento ha localizzato il bersaglio nella sua abitazione, la fase successiva è scegliere le munizioni con cui bombardarlo. Ad esempio “Guided bombs” o “Dumb bombs”, queste ultime più economiche e che causano maggiori “effetti collaterali” letali rispetto alle prime.
STEP 4: Autorizzazione del numero di vittime civili e calcolo dei danni collaterali Viene fissato il numero di civili (persone non comprese nella lista dei targets dello Step 1) che possono essere uccisi insieme a ciascun bersaglio. Il numero di queste vittime, da qualcuno definite "gradi di danno collaterale", sembra essere stato fissato in alcuni casi di impiego reale di questi sistemi nell’ordine delle decine. Insieme a queste vittime viene inoltre calcolato il numero di vittime causato dal bombardamento negli edifici e abitazioni vicine a quelle del target.
**STEP 5: Bombardare una abitazione familiare **Il sistema di tracciamento avverte che il bersaglio è entrato in casa e viene dato il via all’azione di bombardamento; nel tempo che intercorre tra l’alert dato dal sistema e l’effettuazione del bombardamento può accadere che il target non sia più in casa causando l'uccisione di intere famiglie senza colpire il bersaglio selezionato.
I sistemi non garantiscono una accuratezza del 100% quindi possono essere identificate come obiettivi persone che nulla hanno a che fare con operazioni militari così come è probabile che il numero di persone uccise reale sia molto maggiore di quello stimato nello Step 4 perché le informazioni disponibili per il sistema non sono complete. Si tenga presente che le liste di target possono contenere decine di migliaia di nomi e che le azioni di soppressione delle persone identificate come target possono partire a centinaia in pochi secondi rendendo i sistemi autonomi nella attivazione di azioni letali e non più strumenti di supporto alla decisione.
III. È anche con sistemi di questo tipo che si stanno conducendo le guerre in questi anni. Da quanto riportato nel paragrafo precedente si può vedere come siano molti i temi di mancato rispetto dei principi stabiliti da vari organismi internazionali.
L’utilizzo per un sistema di sorveglianza di massa delle informazioni provenienti da data base istituzionali e non, e i dati relativi a traffico telefonico, ai comportamenti sociali derivati dalle interazioni su rete, immagini, filmati, testi senza che ciò avvenga con un consenso responsabile delle persone coinvolte e senza evidenza di chi stia utilizzando questi dati e per quale scopo, costituisce una violazione di principi che sono stati solo formalmente garantiti da normative quali quelle europee tipo GDPR; quindi viola il PRU NATO di Lawfulness.
L’aumento di velocità delle operazioni, con la produzione di centinaia di scenari di azioni di guerra in pochi secondi, rende evidente che la validazione diretta e responsabile dell’uomo non può esercitarsi e si limita di fatto ad un monitoraggio passivo o un altrettanto passiva azione di “push the button”. Si violano così almeno due dei PRU NATO, Lawfulness e Responsibility and Accountability. Ma anche nei restanti passi del processo non sembra esserci un'interazione uomo-macchina appropriata che consenta la capacità di rilevare e evitare conseguenze indesiderate e la capacità di intraprendere azioni quando l'IA mostra comportamenti indesiderati definita dal PRU NATO Governability.
Sono solo esempi, ma aldilà della violazione dei principi stabiliti da organismi militari sovranazionali è necessario guardare in faccia la realtà di migliaia di persone assassinate, centinaia di migliaia in lotta per sopravvivere fra le macerie, lacerate dai lutti e dalle ferite senza possibilità di curarsi e di nutrirsi, in un territorio reso inabitabile dalle macerie, dai residuati bellici, dalle migliaia di cadaveri sotto le macerie.
IV. Ma si perderebbe il senso dell'analisi se non si riconoscesse il fatto che la decisione di fare la guerra e di come farla non la prende l’Intelligenza Artificiale. La decisione è propria dell'uomo, perché solo l'uomo può essere "colpevole". Una macchina può rompersi o scalibrarsi, ma non può mai essere "responsabile". La responsabilità, con la raccolta e l'utilizzo dei dati e l'orientamento dei sistemi di addestramento dell'IA, è sempre più concentrata in mani non soggette ad alcun controllo. Si è quindi in presenza di violazioni dei principi alla base dei trattati di una alleanza; violazioni da parte di uno o più membri dell’alleanza stessa che, se fra pari, richiederebbero di essere controllate e sanzionate.
I meccanismi di verifica di compliance rispetto ai principi stabiliti, con le conseguenze sanzionatorie, non sono ignoti agli organismi sovranazionali, sono largamente, sistematicamente ed efficacemente in uso sia in ambito UE, su tutti i temi sui quali è intervenuta e gli stati membri ne hanno recepito le regolamentazioni con leggi nazionali, che in ambito militare nazionale e sovranazionale dove tale verifica risulta essere mandatoria fino a livelli di assoluto dettaglio (colori, pesi, dimensioni). Ciò avviene passando da principi a normative e procedure e stabilendo punti di verifica reali ed efficaci nel processo di realizzazione ed uso dei sistemi. E’ questo quanto tra l’altro indica il PRU NATO Reliability.
È chiaro che qui si è in presenza di sistemi che coinvolgono nella loro ideazione, realizzazione e uso un numero rilevante di attori (stakeholders) istituzionali e non, alcuni dei quali si ritengono estranei a qualsiasi forma di controllo esterno; c’è inoltre da tenere presente che per loro natura i sistemi basati su IA autoevolvono nel tempo, missione dopo missione, sono fondati sull’autoapprendimento e quindi i meccanismi di verifica devono essere presenti e adeguati per tutto il ciclo di vita.
V. Siamo a un punto di svolta della storia che ridefinisce diritti e poteri, e quindi prima ancora di arrivare al tema di leggi, procedure e meccanismi si tratta di decidere di voler governare a tutti i livelli in modo efficace e coerente con i principi del diritto umanitario internazionale questi processi per invertire una corsa verso il ripetersi di tempi oscuri non troppo lontani nel tempo che è andata già troppo avanti. Proprio per la conoscenza della storia è utile leggere quanto scritto da Rosa Luxemburg dal carcere nel 1916 con la Prima Guerra Mondiale in corso.
«L’alto grado di sviluppo economico mondiale della produzione capitalistica si evince qui, tanto nella capacità di annientamento raggiunta dagli strumenti di guerra, quanto nell’approssimativo equilibrio del livello conseguito in tutti i paesi belligeranti. L’industria internazionale degli armamenti si rispecchia adesso nell’equilibrio militare che si ristabilisce sempre da capo dopo parziali decisioni e oscillazioni dei piatti della bilancia, prorogando sempre la soluzione definitiva. L’indecisione degli accadimenti militari in guerra fa sì che vengano gettate nel conflitto sempre nuove riserve, tanto le masse popolari dei paesi in conflitto quanto quelle dei paesi neutrali. Negli appetiti e negli antagonismi imperialistici la guerra trova in ogni dove materiale già pronto, ne crea essa stessa di ulteriore che si estende come un incendio nei boschi. Ma quanto più grandi sono queste masse e quanto più numerose le nazioni coinvolte nella guerra mondiale, tanto più se ne prolunga la durata. Tutto questo insieme dà, come risultato della guerra, ancora prima di qualsiasi decisione militare sulla vittoria o la sconfitta, un fenomeno sconosciuto alle guerre passate: il tracollo economico di tutte le nazioni coinvolte e in misura sempre maggiore anche dei paesi che dalla guerra se ne erano tenuti fuori».
La storia non si ripete, ma come scriveva Primo Levi dopo la Seconda Mondiale, il nazismo, il fascismo e i lager
«… possiamo e dobbiamo capire di dove nasce, e stare in guardia. Se comprendere è impossibile, conoscere è necessario, perché ciò che è accaduto può ritornare, le coscienze possono nuovamente essere sedotte ed oscurate: anche le nostre».
Se questo articolo ti è utile, abbonati per sostenere Rinascita e ricevere la rivista cartacea.
Abbonati