Stati Uniti e Israele stanno utilizzando strumenti di intelligenza artificiale per condurre operazioni militari contro l’Iran con una velocità e una precisione senza precedenti. Secondo fonti ufficiali, Washington avrebbe colpito oltre 3mila obiettivi dall’inizio degli attacchi, avviati lo scorso sabato.
La rapidità dell’offensiva è il risultato di mesi di preparazione, di un massiccio dispiegamento di forze militari e soprattutto di una tecnologia finora mai impiegata su scala così ampia: l’intelligenza artificiale applicata alla guerra.
Indice degli argomenti:
Dall’intelligence alla scelta dei bersagli
I sistemi di AI stanno cambiando radicalmente il modo in cui vengono pianificate le operazioni militari. Gli algoritmi sono in grado di analizzare enormi quantità di dati, individuare potenziali bersagli, pianificare missioni di bombardamento e valutare i danni causati dagli attacchi.
Le stesse tecnologie permettono ai comandanti di gestire la logistica, dalle scorte di munizioni ai pezzi di ricambio, e di scegliere l’arma più efficace per ogni obiettivo.
Prima che i caccia israeliani lanciassero missili balistici che hanno ucciso la Guida Suprema iraniana Ali Khamenei nella sua residenza, evento che ha innescato l’attuale guerra regionale, i servizi di intelligence israeliani monitoravano da anni telecamere del traffico di Teheran hackerate e intercettazioni di funzionari governativi. Sempre più spesso l’analisi di queste informazioni veniva affidata all’intelligenza artificiale.

Una tecnologia già testata in altri conflitti
L’impiego dell’AI nella campagna contro l’Iran è il risultato di anni di sviluppo tecnologico da parte del Pentagono e dell’esperienza accumulata in altri scenari di guerra.
L’Ucraina, con il supporto degli Stati Uniti, utilizza sempre più sistemi di intelligenza artificiale nel conflitto con la Russia. Anche Israele ha impiegato tecnologie simili nei conflitti successivi agli attacchi di Hamas dell’ottobre 2023.
Il segretario alla Difesa statunitense Pete Hegseth ha più volte sollecitato una rapida adozione dell’AI per creare una forza militare “AI-first”, cioè progettata fin dall’inizio attorno all’intelligenza artificiale.

Droni, caccia e bombardieri coordinati dagli algoritmi
Secondo il Pentagono, gli attacchi contro l’Iran hanno coinvolto una vasta gamma di sistemi d’arma:
- droni d’attacco lanciati da navi militari
- caccia F-22 decollati da basi israeliane
- bombardieri stealth B-2 partiti dagli Stati Uniti
La gestione di operazioni così complesse è facilitata proprio dai sistemi di AI, anche se il loro impiego resta ancora limitato.
Gli errori restano possibili e il prezzo può essere altissimo. Investigatori militari americani ritengono che un attacco del primo giorno di guerra abbia colpito una scuola elementare femminile in Iran, causando la morte di decine di bambini.
Non robot assassini, ma analisti digitali
Quando si parla di AI militare si immaginano spesso robot autonomi che combattono sul campo di battaglia. In realtà, oggi l’impatto maggiore dell’intelligenza artificiale si registra dietro le quinte, in attività come intelligence, pianificazione e logistica.
Nel mondo militare solo due persone su dieci sono coinvolte direttamente nei combattimenti. Fino al 90% del personale svolge ruoli di supporto, ambiti nei quali l’AI può aumentare enormemente l’efficienza.
Gli strumenti sviluppati dal Pentagono sono simili ai grandi modelli linguistici come ChatGPT, ma sono addestrati su dati militari e progettati per compiti specifici.
Il problema dei dati e della complessità della guerra
Nonostante i progressi tecnologici, la guerra resta uno dei contesti più complessi per l’intelligenza artificiale.
Secondo il generale in pensione Jack Shanahan, primo responsabile dell’AI al Pentagono, lo sviluppo di sistemi affidabili è difficile perché molti dati militari disponibili per l’addestramento sono vecchi, incompleti o poco chiari.
Il Dipartimento della Difesa, ha spiegato Shanahan, è nato come un’organizzazione centrata sull’hardware nell’era industriale e fatica ancora a trasformarsi in una struttura digitale dominata dal software.
L’analisi dell’intelligence: il vero salto tecnologico
Il maggiore impatto dell’intelligenza artificiale riguarda la raccolta e l’analisi delle informazioni.
Tradizionalmente migliaia di analisti esaminano intercettazioni, immagini satellitari e segnali radar per individuare obiettivi militari come lanciatori di missili o tunnel sotterranei.
Gli ufficiali statunitensi stimano che gli analisti umani riescano a esaminare non più del 4% dei dati raccolti. I sistemi di AI, invece, possono analizzare l’intero flusso di informazioni.
Secondo il colonnello israeliano Yishai Kohn, questo cambiamento consente di pianificare operazioni che in passato non sarebbero mai state realizzate per mancanza di personale.
Visione artificiale e sorveglianza globale
La cosiddetta machine vision, cioè la capacità dei computer di interpretare immagini e video, permette di individuare rapidamente obiettivi militari specifici, come determinati modelli di veicoli o velivoli.
I sistemi possono anche analizzare intercettazioni audio e riassumere conversazioni rilevanti.
Le stesse tecnologie consentono agli analisti di interrogare giganteschi archivi video con semplici richieste, ad esempio per identificare tutti i lanciatori di missili presenti vicino a un ospedale o per ricevere notifiche ogni volta che qualcuno scatta una foto nei pressi di una base militare.
Pianificazione militare accelerata
L’intelligenza artificiale viene utilizzata anche per simulare scenari di guerra e valutare milioni di possibili sviluppi di un’operazione.
Il Pentagono ha avviato diversi programmi per sviluppare sistemi in grado di analizzare rapidamente enormi quantità di variabili e individuare le strategie con maggiori probabilità di successo.
In passato la pianificazione dettagliata di un’operazione militare poteva richiedere settimane di lavoro e la compilazione di interi fascicoli cartacei. Oggi gli stessi processi potrebbero essere completati in pochi giorni.
L’AI accelera anche la valutazione dei danni
Dopo ogni attacco, l’intelligenza artificiale può analizzare immagini satellitari, segnali radar e dati termici per stabilire se un obiettivo è stato distrutto.
Attraverso un processo chiamato sensor fusion, l’AI combina diverse fonti di informazione per produrre possibili conclusioni sull’esito di un bombardamento.
Questa analisi rapida permette ai comandanti di aggiornare immediatamente la lista dei bersagli e pianificare nuove operazioni.
Il limite dell’algoritmo: il giudizio umano
Nonostante i progressi tecnologici, l’intelligenza artificiale non può sostituire completamente il giudizio umano.
Molti esperti temono che i militari possano affidarsi eccessivamente alle indicazioni degli algoritmi, un fenomeno spesso riassunto nella frase: “Lo ha detto il computer”.
Secondo diversi analisti della sicurezza, l’adozione dell’AI richiede nuovi sistemi di controllo e sicurezza per evitare errori e limitare i rischi.
Come sottolineano molti ufficiali coinvolti nei programmi di sviluppo, la tecnologia può rendere la guerra più veloce e precisa, ma la responsabilità finale delle decisioni resta inevitabilmente umana.
Il dilemma etico dell’intelligenza artificiale in guerra
L’uso crescente dell’intelligenza artificiale nei conflitti armati apre anche una questione etica profonda. Se da un lato questi sistemi promettono maggiore precisione e rapidità nelle operazioni militari, dall’altro rischiano di abbassare la soglia decisionale della violenza, rendendo più facile e veloce ricorrere alla forza.
Quando algoritmi e modelli predittivi accelerano l’individuazione dei bersagli e la pianificazione degli attacchi, il pericolo è che il processo umano di riflessione – già fragile in tempo di guerra – venga ulteriormente compresso. Decisioni che possono avere conseguenze irreversibili, come la distruzione di infrastrutture civili o la perdita di vite innocenti, rischiano di essere prese in tempi sempre più brevi e sotto la pressione dei dati generati dalle macchine.
Esiste poi il rischio dell’“automazione morale”: affidarsi troppo alle raccomandazioni di un sistema tecnologico può portare i decisori a delegare implicitamente parte della responsabilità agli algoritmi. Ma, dal punto di vista etico e giuridico, la responsabilità delle azioni militari non può essere trasferita a una macchina.
Infine, l’intelligenza artificiale potrebbe contribuire a rendere la guerra più “efficiente”, ma non necessariamente più giusta o più controllabile. Al contrario, la velocità e la scala delle operazioni rese possibili dall’AI potrebbero aumentare il numero di obiettivi colpiti e ampliare gli effetti collaterali sui civili.
Per questo molti studiosi di etica della tecnologia sostengono che lo sviluppo dell’intelligenza artificiale militare debba essere accompagnato da regole internazionali, sistemi di controllo rigorosi e una responsabilità politica chiara, affinché l’innovazione tecnologica non superi i limiti imposti dal diritto umanitario e dalla tutela della vita umana.







