L’uso militare è il grande assente nelle discussioni sulla sicurezza dell’AI. Gli sforzi governativi per regolamentare la tecnologia devono considerare il suo impiego sul campo di battaglia.
In un articolo apparso sul Financial Times il 30 aprile 2024, Marietje Schaake, direttore delle politiche internazionali presso il Cyber Policy Center dell’Università di Stanford e consigliere speciale della Commissione europea, ricorda che Regno Unito, Stati Uniti, Giappone e Canada hanno annunciato iniziative in favore della sicurezza dell’AI, mentre la scorsa settimana anche il Dipartimento della Sicurezza Interna degli Stati Uniti ha aggiunto un Consiglio per la Sicurezza e la Protezione dell’AI.
Nonostante questo forte accento sulla sicurezza, fa notare la Schaake, sorprende che nessuno di questi enti voglia governare l’uso militare dell’AI.
Nel frattempo, ricorda, i campi di battaglia stanno già dimostrando il potenziale per evidenti rischi legati alla sicurezza dell’AI.
Israele e il programma Lavender
Secondo una recente indagine condotta dalla rivista israeliana +972, le forze della Difesa israeliana avrebbero utilizzato un programma abilitato all’AI chiamato Lavender per segnalare obiettivi per attacchi di droni. Il sistema combina dati e fonti di intelligence per identificare presunti militanti. Il programma avrebbe identificato decine di migliaia di obiettivi e le bombe cadute su Gaza avrebbero causato un’eccessiva mortalità collaterale e danni. L’IDF nega diversi aspetti del rapporto.
I venture capitalist stanno alimentando il mercato della “deftech”, ovvero della tecnologia difensiva. Le aziende tecnologiche sono ansiose di far parte di questo ultimo boom e troppo rapide nel vendere i benefici dell’AI sul campo di battaglia.
AI Act ed Executive Order di Biden, nessun freno all’uso militare
Si riferisce che Microsoft abbia proposto Dalle-E, uno strumento di IA generativo, all’esercito statunitense, mentre la controversa azienda di riconoscimento facciale Clearview AI si vanta di aver aiutato l’Ucraina a identificare soldati russi con la loro tecnologia. Anduril produce sistemi autonomi e Shield AI sviluppa droni alimentati da AI. Le due aziende hanno raccolto centinaia di milioni di dollari nei loro primi round di investimento.
Ma se è facile puntare il dito contro le aziende private che esaltano l’AI per scopi bellici, sono i governi che si sono lasciato sfuggire il settore della ‘deftech’ dal loro controllo. L’innovativo Regolamento UE, AI Act, non si applica ai sistemi AI che sono “esclusivamente per scopi militari, difensivi o di sicurezza nazionale”.
Anche l’Ordine esecutivo sull’AI della Casa Bianca ha importanti deroghe per l’AI militare (sebbene il dipartimento della difesa abbia linee guida interne). Ad esempio, la sua attuazione “non copre l’AI quando viene utilizzata come componente di un sistema di sicurezza nazionale”. E il Congresso non ha preso alcuna misura per regolamentare gli usi militari della tecnologia. Questo lascia i due principali blocchi democratici del mondo senza nuove regole vincolanti su quali tipi di sistemi AI possono utilizzare i servizi militari e di intelligence. Pertanto, mancano dell’autorità morale per incoraggiare altri paesi a mettere dei limiti al proprio uso dell’AI nelle rispettive forze armate.
Non regolamentare l’AI militare ha un prezzo umano
Nel suo articolo la Schaake si chiede quanto siano significative le discussioni politiche sulla sicurezza dell’AI, se non coprono gli usi militari della tecnologia. Nonostante la mancanza di prove che le armi abilitate all’AI possano rispettare il diritto internazionale sulla distinzione e la proporzionalità, esse vengono vendute in tutto il mondo.
Poiché alcune delle tecnologie sono a doppio uso, i confini tra usi civili e militari si stanno sfumando. La decisione di non regolamentare l’AI militare ha un prezzo umano. Anche se sono sistematicamente imprecisi, questi sistemi spesso godono di una fiducia immotivata nei contesti militari, poiché sono erroneamente visti come imparziali. Sì, l’AI può aiutare a prendere decisioni militari più velocemente, ma può anche essere più incline agli errori e potrebbe fondamentalmente non aderire al diritto umanitario internazionale. Il controllo umano sulle operazioni è fondamentale per attribuire legalmente la responsabilità agli attori.
L’impegno dell’Onu, l’opposizione di Russia, Usa, Regno Unito e Israele
L’Onu ha cercato di colmare il vuoto. Il segretario generale António Guterres ha chiesto per la prima volta un divieto sulle armi autonome nel 2018, descrivendole come “moralmente ripugnanti”. Più di 100 paesi hanno espresso interesse nel negoziare e adottare nuove leggi internazionali per proibire e limitare i sistemi di armi autonome. Ma Russia, Stati Uniti, Regno Unito e Israele si sono opposti a una proposta vincolante, causando il fallimento dei negoziati.
Se le nazioni non agiranno per proteggere i civili dagli usi militari dell’AI, scrive la Schaake, il sistema internazionale basato sulle regole dovrà intervenire. “Il Gruppo consultivo ad alto livello del segretario generale dell’Onu sull’AI (di cui faccio parte)”, scrive, “sarebbe uno dei diversi gruppi ben posizionati per raccomandare la proscrizione degli usi rischiosi dell’AI militare, ma la leadership politica rimane fondamentale per garantire il rispetto delle regole. Assicurarsi che gli standard dei diritti umani e le leggi del conflitto armato continuino a proteggere i civili in una nuova era di guerra è fondamentale. L’uso non regolamentato dell’AI sul campo di battaglia non può continuare”.