normative

Uso dell’AI per scopi bellici: esiste un inaccettabile vuoto normativo



Indirizzo copiato

L’impiego non regolamentato dell’intelligenza artificiale in ambito militare si sta rivelando un errore fatale e una minaccia per la sicurezza internazionale. L’uso delle AI in guerra, le tragedie che ne conseguono e il bisogno di normative rigorose saranno al centro dei dibattiti durante la quarta edizione della Privacy Week a Milano dal 27 al 31 maggio

Pubblicato il 13 mag 2024



AI scopi bellici

L’impiego non regolamentato dell’intelligenza artificiale in ambito bellico si sta rivelando un errore fatale. L’AI, erroneamente considerata uno strumento di precisione militare, sta diventando un mezzo di distruzione indiscriminata, come dimostrano gli attacchi di Israele contro Hamas e i “danni collaterali” su donne e bambini. L’uso delle AI in guerra rappresenta una minaccia per la sicurezza internazionale richiede non solo l’intervento umano, ma anche normative rigorose. Questa problematica sarà al centro dei dibattiti durante la quarta edizione della Privacy Week che si terrà a Milano dal 27 al 31 maggio.

Esiste un vuoto normativo sull’uso dell’AI per scopi bellici

Privacy Week ha diffuso un testo a firma Leila Belhadj Mohamed, Advocacy Officer di Privacy Network e Andrea Baldrati, co-Founder di BSD Legal & Privacy Week in cui si punta il dito contro l’utilizzo dell’AI nelle guerre. “L’Unione Europea e gli Stati Uniti stanno lasciando un vuoto normativo sull’uso dell’intelligenza artificiale per scopi bellici. In questo vuoto si stanno verificando tragedie senza precedenti, sia sul fronte palestinese con le vittime civili, sia sul fronte russo-ucraino in un conflitto che persiste da oltre due anni senza trovare una soluzione”, scrivono.

L’uso dell’AI nelle guerre è considerato una questione etica profonda, finora ignorata dai governi e che richiede un intervento urgente. Secondo gli autori, il rischio legato all’errore sistematico generato dal processo statistico su cui si basa l’intelligenza artificiale può portare a “morte e devastazione, minando il concetto stesso di sicurezza nazionale e democrazia”.

Insomma, l’AI sta diventando un’arma letale in guerra. Nel corso di quest’anno il fenomeno ha raggiunto dimensioni allarmanti. Le notizie sull’uso di questa tecnologia per annientare il nemico, sia sul campo di battaglia che nelle stanze dei bottoni dove si definiscono le strategie, si susseguono in modo preoccupante dai fronti ucraino e palestinese. “Questo mette in luce il lato oscuro dell’AI, una tecnologia che non dovrebbe essere demonizzata ma che non può essere lasciata senza regole nel delicato contesto geopolitico”.

L’uso dell’AI nella striscia di Gaza

Da un’inchiesta del giornale indipendente israeliano +972: dopo l’attacco di Hamas del 7 ottobre 2023, l’utilizzo distruttivo dell’AI da parte di Israele è aumentato.

In particolare, tre algoritmi – The Gospel, Lavender e la sua estensione “Where is daddy?” – sono utilizzati dall’esercito israeliano per identificare ed eliminare i bersagli. “L’utilizzo dell’intelligenza artificiale in questo contesto è spaventoso perché ha portato a un aumento esponenziale delle vittime civili o ‘collaterali'”, secondo il cinico gergo bellico.

Se l’AI diventa una fabbrica di omicidi di massa: il caso della guerra in Palestina

Quando la tecnologia indica che il presunto miliziano è a casa con la sua famiglia – cinicamente chiamato “daddy” – l’esercito può colpirlo con le cosiddette “dumb bomb”, bombe poco intelligenti e particolarmente distruttive. Questa strategia ha portato a un elevato numero di vittime civili: delle 34mila persone uccise finora, un terzo sono donne e bambini.

Armi smart per Zelensky: con quali effetti

Se i software di AI utilizzati dall’esercito israeliano sono prodotti internamente, quelli che stanno aiutando il presidente ucraino Volodymyr Zelensky a resistere agli attacchi russi sono tutti made in Usa. Gli Stati Uniti hanno fornito Clearview per il riconoscimento facciale e l’annientamento di 230mila soldati russi, non solo sul territorio ucraino ma anche in altre operazioni belliche.

AI e scopi bellici: il bug della mancanza di revisione umana

Per i due autori, tutto questo sta avvenendo nell’assordante silenzio dei governi, anzi, con la loro complicità generale. “La risposta più immediata è che non esiste (ancora) una vera regolamentazione dell’AI. Quando esiste, come nel caso dell’AI ACT, non si applica a contesti bellici”. L’Ue lascia agli Stati membri la gestione della sicurezza nazionale per ragioni politiche, quindi non regolamenta i sistemi utilizzati per scopi militari e di difesa. Dobbiamo bilanciare i rischi legati all’intelligenza artificiale e sfruttarne il potenziale.

L’AI ha dei limiti: può presentare informazioni erronee e fuorvianti ma con un aspetto del tutto verosimile. L’AI è in grado, grazie al quantum computing, di effettuare calcoli ad altissima velocità, simulando quasi un pensiero. Tuttavia, l’errore è intrinseco in questo processo statistico. Ci sono contesti – come la guerra – in cui margini di errore relativamente bassi non sono comunque accettabili. Perciò, è necessario mitigare i rischi sia durante il training che successivamente, tramite un monitoraggio costante. La combinazione di AI e quantum scuote dalla base lo stesso concetto di sicurezza, sia interna che esterna, e l’idea che abbiamo di democrazia. “È una questione etica profonda che non può essere nascosta come polvere sotto il tappeto, come finora è stato fatto. E che va affrontata con la massima urgenza e responsabilità”, concludono gli autori.

Articoli correlati

Articolo 1 di 4