analisi

AI in guerra: chi decide limiti e responsabilità



Indirizzo copiato

La disputa tra Anthropic e Pentagono riporta al centro l’uso militare dell’AI: sistemi che analizzano dati, supportano decisioni e accelerano il targeting, senza sostituire l’uomo. Restano aperti limiti giuridici, responsabilità e rischi etici, mentre governi e aziende definiscono regole ancora incomplete e una crescente dipendenza tecnologica e implicazioni psicologiche nei conflitti contemporanei globali odierni armati

Pubblicato il 10 apr 2026



Conflikt,Iran,And,The,United,States,,3d,Rendering
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

La querelle tra Anthropic e il Department of War americano (nuovo nome del Department of Defense coniato dall’amministrazione Trump) ha portato in superficie un argomento che ha radici lunghe e tortuose, rendendo prioritario e centrale nel dibattito pubblico l’uso che si fa delle AI in guerra.

Un tema vasto nel quale sia la posizione di Anthropic sia i 200milioni di dollari del contratto che la legava al Pentagono passano in secondo piano.

Il fatto che le AI vanno in guerra e che gli Stati Uniti non sono l’unica Nazione a servirsene è il centro dell’intera questione che si porta appresso domande le cui risposte sono complicate: come vengono usate? chi le gestisce? con quali dati? qual è il prezzo da pagare? le armi completamente autonome esistono?

Queste domande appaiono molto più centrali nell’interezza del contesto. Gli altri aspetti sono meno importanti, comprese le accuse e le repliche tra Anthropic e il Pentagono, che si consumeranno nelle aule di tribunale.

Le AI e la guerra

Sul piano dialettico e su quello dei contenuti i sostantivi “AI” e “guerra” non aiutano a mettere a fuoco la vera entità del problema che, ancora prima di essere tecnico-tecnologica è di natura politica.

Infatti, la prima grossa domanda da porsi è: “chi decide i limiti delle AI in guerra?” e la risposta coinvolge governi, aziende private e un diritto internazionale che non è ancora pronto per contenere questo scenario.

Il vero merito della questione Anthropic-Pentagono è di avere cristallizzato il fatto che la risposta a questa domanda non è ancora stata data.

Ciò che si è palesato agli occhi di tutti è che un’azienda privata (Anthropic) ha messo al centro l’etica e i diritti fondamentali che ogni Nazione (Stati Uniti d’America inclusi) dovrebbe spendersi per rendere inalienabili.

Come vengono usate le AI in guerra

Le AI sono moltiplicatori di forze e non sostituiscono soldati e armi. Questo è il punto dal quale partire, nonostante il dibattito pubblico soffra delle aberrazioni delle narrazioni fantascientifiche secondo le quali le armi autonome (le Lethal Autonomous Weapons, LAW) escluderebbero del tutto l’intervento dell’uomo, giocando (e non poco) sull’accezione dell’aggettivo “autonomo”.

Sul piano operativo le cose sono molto diverse: le AI per uso militare non sparano, non decidono autonomamente chi colpire, funzionano da sistemi di supporto alla decisione, elaborano enormi quantità di dati in tempo reale, tra le quali immagini satellitari, filmati ripresi da droni, intercettazioni e segnali elettronici, presentandoli poi sotto forma di analisi, priorità e opzioni di azione a un insieme di operatori umani.

È quindi opportuno sottolineare che le AI vanno in guerra ma non fanno la guerra.

Un esempio che può aiutare a comprendere viene dall’Ucraina. Da giugno ai primi giorni di settembre del 2022 le forze armate di Kiev hanno colpito più di 400 obiettivi russi usando i sistemi di attacco a lunga distanza HIMARS.

U.S. Marines with 3rd Battalion, 12th Marine Regiment, 3rd Marine Division, conduct a fire mission with a High Mobility Artillery Rocket System during an Expeditionary Advance Base Operation exercise at the Northern Training Area, Okinawa, Japan, June 18, 2020. This 1st Battalion, 6th Marine Regiment-led exercise also features participation from 3rd Reconnaissance Battalion and HIMARS from 3rd Battalion, 12th Marine Regiment. Training events like this strengthen 3rd Marine Division’s ability to control key terrain in a contested battlespace. (U.S. Marine Corps photo by Cpl. Donovan Massieperez)

Secondo gli analisti tale capacità è da ricondurre, più che alla precisione balistica dei razzi, al software per il targeting che l’Ucraina ha sviluppato con diversi partner, tra i quali Palantir, azienda americana della quale parleremo più avanti e che, tra gli altri, fornisce tecnologie AI al Pentagono e che, al contrario di quanto si crede, è attiva nel supporto agli scenari bellici da prima che scoppiasse il “caso Anthropic”.

Ciò che di norma necessitava giorni per essere compiuto, grazie al supporto delle AI può essere portato a termine in pochi minuti: un vantaggio notevole, considerando che in guerra gli obiettivi nemici possono muoversi, nascondersi e sferrare attacchi prima di subirne.

Tutto ciò, però, riconduce all’assunto di base: le AI vanno in guerra ma non fanno la guerra, supportano gli eserciti ma non li sostituiscono, non prendono decisioni ma aiutano l’uomo a prenderle.

Il ruolo di Palantir

Comprendere il ruolo di Palantir è utile, perché incarna i limiti industriali, etici e politici dell’impiego delle AI in guerra.

Fondata nel 2003, Palantir Technologies Inc. produce software per la data integration e l’analisi dei dati per governi ed eserciti ma, tra i propri clienti, annovera anche aziende private.

Tra i fondatori figurano Peter Thiel e Alex Karp, persone che hanno attirato l’interesse dei media per le rispettive convinzioni. Il primo è vicino a posizioni politiche conservatrici e al presidente degli Stati Uniti Donald Trump, mentre Alex Karp – incline ad ammiccare all’amministrazione Trumo – è noto per il sostegno alla sicurezza nazionale anche a discapito dei principi etici.

Non tutti i prodotti di Palantir sono destinati alle operazioni militari, come dimostra l’adozione delle soluzioni Gotham, Foundry, Apollo e AIP.

I prodotti di Palantir

Gotham è una piattaforma per l’intelligence e la sicurezza. Integra dati eterogenei tra i quali immagini satellitari, database, conversazioni telefoniche e altri ancora per allestire grafi di relazioni tra persone, luoghi o eventi.

Identifica pattern e anomalie e favorisce le operazioni in tempo reale ed è usata tipicamente per scopi militari ma anche per supportare le unità antiterrorismo e le forze dell’ordine.

Foundry è un prodotto rivolto principalmente alle aziende private ed è usato in diversi settori, dall’automotive al farmaceutico e dalle utility alla finanza. Tra i clienti figurano Fiat Chrysler Automobiles (FCA) e Airbus.

Integra i dati aziendali (ERP, CRM, supply chain e IoT) e crea modelli operativi consentendo analisi approfondite e decisioni più consapevoli.

Quindi, se Gotham guarda più alle persone, alle minacce potenziali e agli eventi, Foundry è incentrato su processi e produzione e più affine al business.

AIP (Artificial Intelligence Platform) integra modelli AI e Large language model, collegandoli anche ai dati delle organizzazioni che ne fanno uso. È un supporto per le analisi predittive, le simulazioni operative e per le decisioni in contesti complessi.

L’infrastruttura per il dispiego di Gotham, Foundry e AIP è demandata ad Apollo, che si dimostra utile nel distribuire e aggiornare software e dati in ambienti complessi, compresi gli ambienti militari offline.

Sono quattro prodotti distinti che fanno però parte di un medesimo stack nel quale Gotham e Foundry organizzano e strutturano i dati, Apollo distribuisce e mantiene il sistema e AIP applica modelli AI e modelli decisionali.

Nessuna di queste piattaforme e tecnologie esclude la supervisione e il controllo umano.

Le critiche mosse a Palantir

Palantir è al centro di critiche strutturali a causa tanto delle posizioni dei manager di alto livello quanto dell’uso che i governi fanno dei suoi prodotti.

L’Immigration and Customs Enforcement (ICE), l’agenzia federale americana che controlla l’immigrazione e le dogane, avrebbe usato i prodotti Palantir per identificare le persone da ricercare o da espatriare. Questo ha contribuito a fare dell’azienda un’alleata del controllo di massa.

In aggiunta, il fatto che le agenzie governative americane facciano un uso classificato dei prodotti Palantir, coadiuva l’idea diffusa secondo la quale – in assenza di trasparenza – ci sarebbe molto che viene nascosto all’opinione pubblica.

Il contesto è più ampio e non assolve nessuno: se Palantir agisce contro i più elementari principi etici, è pure vero i governi e le agenzie che se ne servono non ne fanno una questione centrale.

Palantir prospera perché nessuna forza di mercato si oppone davvero alla sua esistenza.

Nel 2025 Palantir, che dà lavoro a circa 4.400 persone, ha fatturato poco meno di 4,5 miliardi di dollari con una crescita del 50% rispetto all’anno precedente grazie anche ai contratti governativi.

È una realtà aziendale che esercita una forte influenza ma non è un colosso capace di competere per fatturato con altri giganti delle AI.

Le AI per la guerra non sono cosa nuova

Nel 2017 l’allora Department of Defense ha varato Project Maven, nato per usare le AI (soprattutto la visione computerizzata) per l’analisi dei video ripresi dai droni e delle immagini satellitari.

Con il passare degli anni il progetto è stato ampliato coinvolgendo piattaforme più performanti, dando così i natali a Maven Smart System che, oltre all’analisi di immagini e video, contempla l’identificazione di oggetti e il supporto al targeting.

Il progetto Maven si è quindi evoluto e oggi, unendo ed esaminando i dati provenienti da diverse fonti, è in grado di distinguere in modo autonomo armi e truppe nemiche, è in grado di suggerire quali mezzi e munizioni hanno la maggiore efficacia a seconda dell’obiettivo da colpire e si interfaccia con i sistemi usati per comandare, controllare e coordinare artiglieria e armi a lungo raggio.

E questo ci fa ritornare al nocciolo della questione: i sistemi AI usati dagli eserciti aiutano l’uomo a comprendere quali armi e munizioni usare, in quale momento e verso quale obiettivo, ma il loro livello di evoluzione non ne fa delle armi autonome letali: non decidono chi uccidere, forniscono assistenza e raccomandano decisioni che, però, rimangono nelle piene facoltà degli operatori umani.

Ed è in questi sistemi che si situa anche Palantir che, mediante AIP, integra modelli AI di terze parti. Ha integrato Claude di Anthropic fino al momento in cui il Pentagono non lo ha messo al bando e ora integra i modelli di OpenAI.

L’annosa questione delle armi autonome

È difficile affrontare l’argomento delle armi autonome perché non esiste ancora una definizione condivisa che le descriva in modo accurato.

Quindi, se con il termine “autonoma” si intende un’arma che, dopo essere azionata, porta a conclusione il proprio compito, allora la risposta è Sì, ne esistono diverse tra droni, ogive e missili di diversa gittata.

Al contrario, se per “autonoma” si intende un’arma che decide quando, come e quale obiettivo attaccare escludendo del tutto l’intervento dell’uomo, allora la risposta è No.

L’autonomia attuale è circoscritta alla sola fase di ingaggio, cioè la scelta del bersaglio dopo che un umano ne ha autorizzato il lancio o l’attivazione.

L’Organizzazione delle Nazioni unite (ONU) e il Stockholm International Peace Research Insitute (SIPRI) sono molto attenti e sensibili all’argomento che monitorano con ciclicità ribadendo in modo altrettanto periodico che l’ autonomia totale non esiste ancora:esistono armi autonome ma non esistono armi che, da sole, decidono di uccidere. (Le AI vanno in guerra ma non fanno la guerra).

Il termine robot killer, che talvolta viene utilizzato da associazioni per i diritti umani e anche da media attendibili, è una formula narrativa che sostituisce locuzioni meno spendibili quali “sistemi d’arma autonoma con selezione dei bersagli basata su parametri sensoriali” e, non di meno, mantiene vigili governi, istituzioni e l’opinione pubblica, solleticando una scossa emotiva che riconduce a Terminator o a RoboCop ma che, come i due cyborg, sono personaggi di fantasia.

Un cortocircuito cognitivo alimentato da scorciatoie retoriche che non giova a nessuno.

Il peso psicologico di una guerra gestita dalle AI

Il peso psicologico, così come il costo emotivo e politico di una guerra gestita dalle AI è un tema dibattuto soltanto di sponda.

I media riportano come notizie tecniche l’abbattimento di droni o l’intercettazione di missili. Quando muore un soldato, quando un drone non viene intercettato e si abbatte su un obiettivo mietendo vittime, cambia tutto: si attivano meccanismi di dolore collettivo, di risonanza mediatica e di pressioni politiche sui governi.

Un’asimmetria che ha implicazioni strategiche profonde, perché i sistemi AI abbassano la soglia psicologica per l’uso della forza: si riduce il prezzo emotivo di un conflitto e viene messo in forse il valore del controllo umano.

Aspetto, quest’ultimo, che si sta guadagnando poco spazio sui media ma che rimane centrale: voci esperte sostengono che la velocità con cui le AI stanno entrando in guerra supera quella delle leggi e dei controlli etici e che i rischi di bias, errori e perdita di controllo umano sono in qualche modo già reali.

Le AI estraggono decine, centinaia di possibili obiettivi da colpire e ciò lenisce le capacità dei decisori umani che tendono a fidarsi dei consigli impartiti dagli algoritmi.

Davanti a tali numeri i comandanti hanno a disposizione solo pochi secondi per agire e questo può portare a un futuro nel quale, in guerra, le decisioni verranno prese da AI e umani in collaborazione tra loro e, in quest’ottica, occorre chiedersi già da oggi se gli eserciti sono pronti per gestire questa trasformazione.

Perché non vedremo presto armi completamente autonome

La questione della responsabilità giuridica è il principale freno tecnico e politico alla piena autonomia delle armi. Al centro di questi dibattiti c’è l’”accountability gap”: una carenza critica in cui i quadri giuridici esistenti non riescono ad attribuire la responsabilità per le infrazioni commesse da sistemi autonomi.

Il diritto internazionale umanitario dipende dal giudizio umano e, parallelamente, la questione è molto sfaccettata: chi è responsabile se un sistema autonomo colpisce per errore dei civili? il programmatore? il comandante? lo Stato? l’azienda produttrice? Quando la scelta critica viene effettuata da un sistema abilitato dall’AI invece che da una persona, diventa difficile attribuire le violazioni. Altre domande senza risposta.

A livello internazionale, il 6 novembre 2025 la Prima commissione dell’Assemblea generale dell’ONU ha adottato per il terzo anno consecutivo una risoluzione sui sistemi d’arma autonomi, preoccupata dalle “conseguenze e dall’impatto dei sistemi d’arma autonomi sulla pace e la sicurezza internazionale, incluso il rischio di una corsa agli armamenti emergente, di esacerbazione dei conflitti e delle crisi umanitarie, di errori di calcolo, abbassamento della soglia dei conflitti e la loro proliferazione”. La risoluzione è stata approvata con 156 voti a favore e 5 contrari.

Le AI e la gestione di armi completamente autonome

Le AI riescono a gestire parzialmente e in contesti molto limitati le armi completamente autonome. Sistemi come il Phalanx americano (difesa antimissile navale) e l’HARPY israeliano (drone anti-radar) sono già tecnicamente autonomi in senso stretto: il sistema Phalanx rileva, traccia, valuta ed eventualmente si adopera per l’abbattimento di minacce aeree in modo automatico, mentre l’HARPY è un progettato per individuare, identificare e attaccare autonomamente installazioni radar nemiche.

Tuttavia, la vera autonomia in scenari complessi rimane fuori portata: riconoscere un civile da un militare in un contesto caotico, così come valutare la proporzionalità di un attacco considerando tutte le possibili variabili, sono attività che richiedono capacità di giudizio umane e che, in ogni caso, i sistemi attuali non sono in grado di garantire in modo affidabile.

I rischi sistemici

L’uso delle AI per scopi militari apre le porte a rischi difficilmente calcolabili.

Da una parte, comprimendo i tempi decisionali, le AI possono accelerare l’escalation nei conflitti. Sul piano teorico potrebbero persino rendere vani gli sforzi diplomatici tesi a scongiurare il peggio.

C’è poi il sempiterno argomento dei bias che verrebbero automatizzati andando così a lenire la compatibilità delle armi autonome con il diritto internazionale.

Non di meno, il rischio che tali tecnologie possano essere usate da Stati canaglia è da tenere presente e, in tale evenienza, potrebbero venire ignorati i diritti umani e potrebbero aprirsi scenari più che tragici. Discorso molto lungo che apre le porte a molte interpretazioni.

Ha un peso specifico anche il fatto che Palantir (e aziende concorrenti) agiscono a scopo di lucro. Il caso Anthropic-Pentagono ha insegnato che un singolo Ceo può decidere o meno di concedere alle forze armate la facoltà di usare i modelli AI senza particolari restrizioni. In definitiva, ci si potrebbe scontrare con una forma di privatizzazione delle guerre.

Anche la NATO si affida a Palantir

Altro aspetto poco centrale nel dibattito pubblico è il rapporto tra la NATO e Palantir. Ciò significa che anche l’Organizzazione del Trattato dell’Atlantico del Nord usa le medesime piattaforme dell’esercito americano.

Il 25 marzo 20205 è stato finalizzato l’accordo per l’impiego di Maven Smart System e ciò solleva un’altra domanda irrisolta: se si teme che gli Usa possano usare le AI per la sorveglianza di massa o per altri scopi non etici, perché lo stesso quesito non viene sollevato nei confronti dell’Alleanza che, peraltro, ha adottato Maven Smart System in circa sei mesi senza un vero dibattito pubblico con i Paesi membri? (32 in tutto, 30 dei quali europei, al netto quindi soltanto di Usa e Canada che pure ne fanno parte).

L’obiezione più ricorrente è anche la più semplice: mentre gli Usa sono sovrani, la NATO dovrebbe disciplinare l’uso dei sistemi Palantir coinvolgendo tutti gli Stati membri. Ed è, almeno sulla carta, una considerazione sensata che, però, non tiene conto dell’uso delle AI da parte degli eserciti dei Paesi Nato e, ancora prima, non risolve affatto la questione della dipendenza tecnologica da un sistema creato da un’azienda americana.

Francia e Italia

Lo scorso 8 gennaio le forze armate francesi hanno comunicato di avere siglato un patto di collaborazione con Mistral AI, azienda transalpina con sede a Parigi.

Un accordo quadro che prevede l’uso dei modelli AI nei contesti della difesa e della pubblica amministrazione da leggere più come una cornice collaborativa che come un contratto per l’automazione delle attività militari.

Il ministero delle Forze armate francesi ha sottolineato che la scelta di Mistral AI è stata fatta per rispondere a esigenze di sovranità nazionale e, giova ribadirlo, poiché i dettagli dell’accordo sono ammantati nel riserbo (né il ministero né Mistral rilasciano dichiarazioni particolareggiate) non c’è la certezza che la collaborazione implichi i sistemi d’arma autonomi. Resta il fatto che anche i singoli Stati si muovono lungo l’asse delle collaborazioni con le aziende di AI, così come – per esempio – sta facendo la Germania.

L’Italia non è da meno e, come si legge nella Strategia della Difesa in materia di intelligenza artificiale, vuole integrare sistemi AI per ridurre il carico cognitivo degli alti gradi dell’esercito puntando però su modelli trasparenti e conformi al diritto internazionale.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x