scenari

AI in guerra: caos politico-militare dopo l’uso di Claude nonostante il bando di Trump



Indirizzo copiato

Secondo The Wall Street Journal, gli Stati Uniti avrebbero utilizzato l’intelligenza artificiale di Anthropic nelle operazioni militari contro l’Iran poche ore dopo che il presidente Trump aveva ordinato alle agenzie federali di cessarne l’uso. La vicenda mette in luce le contraddizioni tra politica, tecnologia e sicurezza nazionale

Pubblicato il 2 mar 2026



Claude AI Iran

Secondo quanto riportato da The Wall Street Journal – citato da Times of India e altre testate internazionali – il governo federale statunitense avrebbe continuato a impiegare il modello di intelligenza artificiale Claude, sviluppato da Anthropic, nelle operazioni militari contro l’Iran, poche ore dopo che il presidente Donald Trump aveva annunciato l’intenzione di fermarne l’uso da parte delle agenzie governative.

La notizia è diventata di dominio pubblico attraverso diversi articoli che si rifanno alla stessa fonte originale del WSJ: l’AI di Anthropic è stata impiegata per supportare attività come analisi di intelligence, identificazione degli obiettivi e simulazioni di scenario durante una vasta offensiva aerea congiunta con Israele, nonostante l’annuncio presidenziale di interrompere l’uso delle tecnologie dell’azienda da parte delle agenzie federali.


Il bando di Trump e la tempistica dell’uso militare

Il rapporto del Wall Street Journal evidenzia la paradossale sequenza temporale: la Casa Bianca avrebbe annunciato che il governo federale non avrebbe più utilizzato gli strumenti di AI di Anthropic, ma nel frattempo gli stessi strumenti sarebbero stati impiegati in operazioni ad alto profilo come l’attacco contro l’Iran.

Queste informazioni sono state riportate anche da The Guardian, che sottolinea come Trump avesse definito il bando come necessario per ragioni di sicurezza nazionale, ma che a causa dell’integrazione profonda di Claude nei sistemi militari non fosse possibile disattivarlo nell’immediato.


L’uso operativo nelle missioni ad alto rischio

Secondo le stesse fonti, il Comando Centrale degli Stati Uniti (U.S. Central Command) – responsabile delle missioni in Medio Oriente – continuerebbe a utilizzare Claude per compiti di analisi dell’intelligence, pianificazione e simulazione delle operazioni.

Gran parte delle informazioni sono tratte proprio dal rapporto del Wall Street Journal. Le fonti citano persone “a conoscenza diretta della materia” che hanno confermato l’impiego della tecnologia anche in operazioni in corso, nonostante il bando presidenziale.


Il bando e le parole di Trump

La notizia arriva in un momento di grande tensione tra l’amministrazione Trump e le aziende della tech industry. Secondo quanto riportato da più testate, la decisione di bandire Anthropic dalle infrastrutture federali deriverebbe da divergenze con il Dipartimento della Difesa sulle condizioni di utilizzo dell’AI per scopi militari e sulla necessità di accesso illimitato ai dati e agli algoritmi.

Questa disputa ha portato il presidente Trump a definire l’azienda un potenziale “rischio per la sicurezza della catena di approvvigionamento” e a ordinare alla maggior parte delle agenzie governative di interrompere immediatamente l’utilizzo degli strumenti di Anthropic.


Secondo le stesse fonti, Trump aveva appena ordinato a tutte le agenzie federali di cessare immediatamente l’utilizzo delle tecnologie di Anthropic, definendo l’azienda una “Radical Left AI company run by people who have no idea what the real world is all about” (una società di IA radicale di sinistra guidata da persone che non capiscono cosa sia il mondo reale). (Fonte: The Guardian)

Perché la controversia è scoppiata

La tensione tra l’amministrazione e Anthropic sarebbe esplosa già nei mesi precedenti, in particolare dopo che Claude era stato utilizzato durante una operazione militare per catturare il presidente venezuelano Nicolás Maduro, un uso che, secondo Anthropic, avrebbe violato i termini di servizio interni che escludono applicazioni di IA per scopi violenti, sviluppo di armi o sorveglianza.

La leadership di Anthropic, inclusi i vertici aziendali, avrebbe resistito alle richieste del Pentagono di rimuovere queste limitazioni, sostenendo che le restrizioni sono parte integrante delle responsabilità etiche della tecnologia.

Difesa e contrattacco ideologico

Dalla parte del governo, il Segretario alla Difesa Pete Hegseth ha rincarato la dose, accusando pubblicamente Anthropic di “arroganza e tradimento” e dichiarando che “gli operatori americani non saranno mai tenuti in ostaggio dagli umori ideologici della Big Tech”.

Tecnologia ancora in uso sul campo

L’uso di Claude negli attacchi contro l’Iran evidenzia la difficoltà pratica di disimpegnare rapidamente strumenti tecnologici che sono stati profondamente integrati nelle funzioni di comando, controllo e analisi delle forze armate. Gli analisti citano anche l’uso dell’AI in operazioni altamente sensibili come prova della dipendenza già consolidata delle agenzie militari da questi modelli per compiti ad alta intensità di dati.

Rimpiazzo tecnologico e strategie future

Nel frattempo, mentre Anthropic viene gradualmente estromessa, concorrenti come OpenAI hanno già raggiunto accordi con il Dipartimento della Difesa per fornire i propri modelli di AI per l’uso in reti classificate del governo, incluse tecnologie come ChatGPT.

Il CEO, Sam Altman, ha dichiarato che tali strumenti saranno disponibili con robusti sistemi di sicurezza e limiti etici, pur consentendo l’uso operativo all’interno delle forze armate. (Fonte: Reuters)



Dipendenza tecnologica e difficoltà di disimpegno

Il rapporto del Wall Street Journal sottolinea che la presenza della tecnologia Claude nei sistemi militari è “profondamente radicata”, tanto che la rimozione completa richiederebbe un periodo di adattamento e transizione.

Per questo motivo, anche dopo il bando annunciato da Trump, l’AI di Anthropic sarebbe rimasta operativa nel breve periodo, in attesa di alternative o di un piano di sostituzione tecnologica.

Claude AI Iran

Reazioni e contesto internazionale

La notizia ha generato reazioni sia nel mondo politico che nel settore della tecnologia. Testate internazionali hanno evidenziato come il caso rappresenti una tensione tra esigenze di sicurezza nazionale e la realtà di sistemi complessi ed integrati.

Alcuni commentatori sostengono che l’uso continuato di Claude rifletta non tanto un rifiuto della linea politica annunciata, quanto la difficoltà di disinnescare tecnologie ormai integrate in architetture militari complesse.


Implicazioni geopolitiche e industriali

Dal punto di vista economico e strategico, la vicenda solleva domande profonde sulla dipendenza delle forze armate statunitensi da prodotti di aziende private nel settore dell’intelligenza artificiale. La trasformazione digitale delle strutture di comando e controllo militare è avanzata al punto che la dismissione di strumenti riconosciuti come efficienti non può essere immediata né indolore.



guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x