libri

“Codice di guerra”: il saggio che indaga l’etica dell’AI nella difesa



Indirizzo copiato

Il volume è edito da Raffaello Cortina Editore ed è stato scritto da Mariarosaria Taddeo, professoressa di Etica digitale e tecnologie per la difesa presso l’Oxford Internet Institute dell’Università di Oxford

Pubblicato il 4 set 2025



codice di guerra

Armi autonome, algoritmi di sorveglianza, operazioni cibernetiche invisibili agli occhi dell’opinione pubblica. È questa la nuova realtà della guerra nell’era dell’intelligenza artificiale. Un conflitto che spesso si combatte senza spari, ma che è ugualmente pericoloso, pervasivo, destabilizzante. Le principali potenze mondiali – dagli Stati Uniti alla Cina, dalla Russia all’Unione Europea – stanno investendo enormemente nello sviluppo di tecnologie AI per scopi militari: strumenti che raccolgono e processano enormi quantità di dati, supportano il processo decisionale e, in alcuni casi, sono in grado di agire autonomamente.

Mariarosaria Taddeo

In questo scenario di accelerazione tecnologica e tensioni geopolitiche crescenti, si impone una domanda cruciale: è possibile affidarsi all’intelligenza artificiale senza sacrificare l’etica, la responsabilità e i principi di umanità su cui si fondano le democrazie liberali?

È a partire da questa urgenza che nasce Codice di guerra. Etica dell’intelligenza artificiale nella difesa“, il nuovo saggio, edito da Raffaello Cortina Editore, di Mariarosaria Taddeo, professoressa di Etica digitale e tecnologie per la difesa presso l’Oxford Internet Institute dell’Università di Oxford, e direttrice del Gruppo di ricerca su etica digitale e tecnologie per la difesa.

Un’etica per la guerra automatizzata

Il libro propone un quadro etico concreto e strutturato per affrontare le implicazioni dell’uso dell’AI in ambito difensivo, che non riguarda solo le guerre del futuro, ma quelle che si stanno già combattendo oggi. Taddeo distingue tra tre grandi ambiti di applicazione dell’intelligenza artificiale nella difesa:

  • il supporto alle funzioni strategiche (come l’intelligence aumentata e la logistica predittiva);
  • l’impiego in conflitti non cinetici (in particolare il cyberspazio);
  • l’integrazione in sistemi d’arma autonomi (che sollevano interrogativi sulla delega dell’uso della forza letale a entità non umane).

In ognuno di questi ambiti, l’autrice individua criticità e dilemmi etici e propone cinque principi guida – responsabilità, spiegabilità, tracciabilità, affidabilità, governabilità – da adottare come fondamento per una governance responsabile dell’Ai militare. A questi affianca una metodologia operativa in tre fasi per passare dalla riflessione teorica alla pratica concreta, offrendo strumenti per legislatori, enti militari, sviluppatori tecnologici e decisori politici.

Vi offriamo la prima parte della prefazione del volume “Codice di guerra” di Mariarosa Taddeo



PREFAZIONE

Rispondigli che si sbaglia. La guerra non
cancella il rispetto. Anzi, in guerra è ancora
più necessario che in tempo di pace.
Khaled Hosseini, Il cacciatore di aquiloni

Le basi di molte delle idee presentate in questo libro sono state poste più di quindici anni fa, quando ho avviato un progetto di ricerca sull’etica della guerra dell’informazione.
Il progetto del libro, però, è emerso solo più di recente, influenzato dal mio coinvolgimento in discussioni con varie organizzazioni della difesa sui temi etici relativi all’intelligenza artificiale (IA). Nel corso di queste collaborazioni, ho visto crescere l’esigenza di un quadro di riferimento che permettesse di identificare, analizzare e affrontare in modo sistematico e coerente le sfide etiche che sorgono dai molti usi correnti (ed emergenti) dell’IA nel settore della difesa, e che fungesse anche
da guida per la loro governance. Con questo libro cerco di soddisfare quell’esigenza.

Clausewitz ha scritto: “La guerra è […] un atto di forza che ha per iscopo di costringere l’avversario a sottomettersi alla nostra volontà. La forza si arma delle invenzioni delle arti e delle scienze” (1832, p. 19). Sono convinta che questa sia tecnologie nella conduzione di una guerra. Queste non sono semplici strumenti per ottimizzare l’uso della forza; sono anche fattori dirompenti nella nostra concettualizzazione della guerra e delle sue implicazioni etiche e legali. Prendiamo, per esempio, la tecnologia nucleare e le armi nucleari. Come armi di distruzione di massa, hanno annullato la distinzione fra combattenti e non combattenti, e così facendo hanno ribaltato un’idea della guerra in cui il principio di discriminazione era fondamentale e sul quale fino a quel momento si era basata la Teoria della Guerra Giusta. Analogamente, l’uso dei droni ha contribuito a una ridefinizione della nostra idea della guerra come “duello su vasta scala” (ibidem), superando l’idea di un confronto simmetrico in cui entrambe le parti corrono rischi simili (Steinhoff, 2013; Braun, Brunstetter, 2013; Strawser, 2013; Schulzke, 2016). Per questo sono d’accordo con Clark che, “quando applichiamo l’etica alla guerra, siamo costretti a puntare a un bersaglio in costante movimento”
(2015, p. 19).

L’adozione di tecnologie digitali, in particolar modo dell’IA, nella difesa ha spostato il bersaglio ancora una volta ridefinendo la nostra comprensione di concetti rilevanti (Floridi, 2014).
Consideriamo, per esempio, la nostra concezione della guerra come comportamenti coercitivi veicolati dall’uso della forza.
Per secoli, dai tempi di Cicerone (106-43 a.C.), abbiamo regolato la guerra regolando l’uso della forza (Cicero, 2008). Dal 2014 (quando la nato² ha dichiarato il cyberspazio un ambito della guerra) questo approccio normativo non funziona per tutti i casi di conflitto, perché la guerra cibernetica separa la coercizione dall’uso della forza. Purtroppo, la guerra cinetica si combatte ancora, ma negli ultimi decenni la guerra cibernetica è andata diffondendosi, e sono sorti problemi urgenti su come regolamentarla. Urgono, per esempio, regole o misure per limitare i rischi di escalation dei conflitti cibernetici, e regole per limitare le violazioni dei diritti individuali e le minacce alle infrastrutture civili.

La ridefinizione del concetto di guerra continua con l’adozione dell’IA nella difesa. Pensiamo alla famosa trinità di Clausewitz, che descrive la guerra come composta dalla “violenza originale”; dal “giuoco delle probabilità e del caso, che le imprimono
il carattere di una libera attività dell’anima”
; dalla “sua natura subordinata di strumento politico, ciò che la riconduce alla pura e semplice ragione” (1832, p. 40, corsivo mio).

L’uso dell’IA ha un impatto sull’elemento violento della trinità, poiché può eliminare la violenza (forza) dalla guerra, per esempio migliorando l’efficacia delle operazioni cibernetiche non cinetiche e rendendo meno necessarie quelle cinetiche.
Al contempo, l’IA può modificare il modo in cui si esercita la violenza, eliminando gli agenti umani dal processo di applicazione della forza, se/quando vengono utilizzati sistemi d’arma autonomi. L’IA può supportare il ragionamento umano migliorando
la situational awareness (la consapevolezza situazionale, del contesto) e sostenendo il processo decisionale. Così facendo, può de-antropomorfizzare la conduzione della guerra e ostacolare la “libera attività” a cui fa riferimento Clausewitz, se gli agenti umani accettano acriticamente le raccomandazioni di un sistema IA.

In questo libro considero l’uso dell’IA nella difesa come il caso più recente e significativo della digitalizzazione della difesa. L’IA sta ridefinendo non solo il modo in cui vengono condotte le guerre, ma anche il funzionamento delle organizzazioni della
difesa, i processi decisionali e operativi, come i modi di acquisizione di dati e informazioni e le tattiche e strategie di guerra.
Qui, considero tutto lo spettro dei cambiamenti, delle loro implicazioni concettuali ed etiche. Per questo il libro è sull’etica dell’IA nella difesa, e non sull’etica dell’IA nella guerra.

Non mi pronuncio in merito alla questione se si debba considerare l’uso delle tecnologie digitali e dell’IA nella difesa come una rivoluzione negli affari militari – limitata ad aspetti prevalentemente operativi – o come la scintilla di una rivoluzione
militare. Questa è l’idea che i cambiamenti negli affari militari, nelle strategie, nelle tattiche e nella condotta della guerra provocati dall’adozione delle tecnologie digitali avranno come risultato uno spostamento nell’equilibrio delle forze e nel modo min cui vengono risolti i conflitti. La mia attenzione è invece tutta sulle implicazioni concettuali ed etiche di questa digitalizzazione me su come gestire i rischi etici e le opportunità che ne derivano; non importa poi se la digitalizzazione della difesa rientri
in una categoria, nell’altra o in nessuna delle due.

La validità di questo libro nel tempo dipenderà dalla sua capacità di approfondire gli aspetti concettuali e normativi di un fenomeno contemporaneo, ossia la rivoluzione digitale, e di identificare le sue ramificazioni per il futuro prevedibile, evitando al contempo di preoccuparsi eccessivamente della cronaca di eventi specifici. Per questa ragione, l’analisi si concentra su aspetti concettuali ed etici della trasformazione digitale
della difesa e dell’uso dell’ia in questo dominio ed evita di fare ricorso a resoconti descrittivi o aneddotici.

Il mio obiettivo in questo libro è presentare un quadro di riferimento etico per identificare, analizzare e affrontare sistematicamente le implicazioni etiche dei diversi usi dell’IA nel contesto della difesa, in modo da coadiuvare e contribuire a guidarne la governance. Per raggiungere questo obiettivo, mi baso sull’autonomia e capacità di apprendimento dell’IA e sul livello di agency che queste determinano, sull’etica dell’IA e
sulla Teoria della Guerra Giusta.

Un contributo fondamentale di questo libro è la traduzione dell’analisi concettuale e normativa in raccomandazioni per la governance dell’IA nella difesa. In tal senso, il libro rispecchia l’idea che l’etica dell’IA funzioni al meglio come etica translational,
capace cioè di “tradurre” analisi concettuali in linee guida per chi deve regolare la progettazione, lo sviluppo e l’uso delle tecnologie digitali (Taddeo, Floridi, 2018b, p. 752). L’approccio translational richiede un’analisi il più chiara possibile,
del resto una traduzione oscura dal concettuale al pragmatico avrebbe poco valore. Per questo ho fatto ogni sforzo per conservare semplicità sia nel linguaggio sia nell’analisi. Ciononostante, devo ammettere che questo non è un testo introduttivo.


Editore: Raffaello Cortina Editore

Pagine: 320

Collana: Scienza e Idee

Prezzo: 25,00 euro


Articoli correlati