La notizia della settimana

Se a decidere sul campo di battaglia è l’AI

Negli Usa, l’agenzia governativa DARPA mira a sviluppare una tecnologia che possa prendere decisioni rapide in situazioni “di stress” utilizzando algoritmi e dati. Il SACT della NATO sta lavorando con la Johns Hopkins University (Maryland, USA) per creare un assistente virtuale di triage digitale che potrà potenzialmente essere utilizzato dai vari paesi membri

Pubblicato il 05 Apr 2022

Luigi Mischitelli

Legal & Data Protection Specialist - Fondazione IRCCS Casa Sollievo della Sofferenza.

Fonte DARPA

È possibile affidare il processo decisionale, in un momento di crisi, all’intelligenza artificiale, in campo militare? Della questione si è occupato il “braccio tecnologico” dell’esercito statunitense, l’agenzia governativa DARPA. Attraverso un nuovo programma, chiamato “In the Moment”, la DARPA mira a sviluppare una tecnologia che possa prendere decisioni rapide in situazioni “di stress” utilizzando algoritmi e dati: fine “ambizioso” che, in situazioni estreme, può salvare vite. Anche se il programma dell’agenzia del Dipartimento Difesa statunitense è agli albori, in ogni caso parte già con l’obiettivo di aggiornare il sistema di triage medico in battaglia, nonché di implementare tutte quelle tecniche per ridurre al minimo l’errore umano in guerra. Soluzione, agli inizi, che già vede dei “polveroni” in lontananza.

Ogni volta che vi è un attentato terroristico o un’azione militare che colpisce obiettivi civili o militari, la scia di sangue e di distruzione che ne deriva porta con sé, spesso, un impatto considerevole dalle plurime conseguenze. Basti pensare a come la macchina dei soccorsi deve muoversi, considerando le persone bisognose di cure, l’assenza di strutture di pronto intervento e i posti letto carenti, fino alla dolorosa scelta del “chi salvare prima” e nel minor tempo possibile. Per cercare di muoversi adeguatamente in situazioni così spinose, l’intelligenza artificiale potrebbe apportare innovazioni di un certo spessore.

L’uso dell’intelligenza artificiale in campo militare

L’utilizzo dell’intelligenza artificiale è importante; tuttavia, lo è così tanto da permetterle di decidere sulla vita di qualcuno? Diciamo subito che la DARPA non è nuova a soluzioni che promuovono l’utilizzo dell’intelligenza artificiale in campo militare. Si pensi che nel 2018 l’agenzia statunitense in esame destinò 2 miliardi di dollari, attraverso un programma chiamato “AI Next”, per incorporare l’intelligenza artificiale in oltre sessanta progetti di difesa made in USA, a significare quanto centrale possa essere la scienza per i futuri conflitti. DARPA “immagina” un futuro in cui le macchine sono più che semplici strumenti; le vede (azzardando) piuttosto come “colleghe” degli esseri umani.

AI militare
Foto DARPA

A tal fine, il programma “In the Moment” di DARPA creerà e valuterà algoritmi che aiuteranno i decisori militari in due situazioni: prestazione di cure a piccole unità militari dislocate in teatri di guerra (che, ad esempio, hanno interessato unità USA in operazioni speciali sul teatro afgano); ed eventi con un numero considerevole di vittime, come nel caso di attentati terroristici (che possono colpire indistintamente civili e militari). Successivamente, si potrebbero sviluppare algoritmi che aiutino i soccorritori in caso di disastri di altra natura, come le calamità naturali (ad esempio, terremoti e inondazioni). Il programma della DARPA, che richiederà più di tre anni per essere completato, sta “sollecitando” l’ingresso in campo di aziende private interessate ad apportare il proprio contributo alla ricerca governativa statunitense. I funzionari dell’agenzia USA, ovviamente, non hanno ancora dichiarato quali siano le aziende interessate a contribuire, nonché quali cifre saranno destinate all’ambizioso programma in esame.

Ciò che è certo è che i “suggerimenti” che proverranno dagli algoritmi del programma, secondo la DARPA, saranno in grado di accedere a tutte le informazioni necessarie finalizzate a permettere al programma di prendere decisioni “accorte” in situazioni in cui anche gli esperti umani del settore sarebbero “bloccati”. Per esempio, l’intelligenza artificiale potrebbe aiutare a identificare tutte le risorse che un ospedale vicino al luogo di intervento ha, come la disponibilità di farmaci, la fornitura di sangue e la disponibilità di personale medico operativo, aiutando in tal modo gli operatori umani nel loro processo decisionale.

Le mosse della NATO

Così come la DARPA, anche il “Supreme Allied Command Transformation” (SACT) della NATO ha affermato che il processo di triage “in battaglia” (dove i medici sul campo provvedono ad assistere i soldati colpiti e valutano quanto siano urgenti i loro bisogni di cura) avrebbe bisogno di un celere aggiornamento tecnologico. Il team di ricerca del SACT sta lavorando con la Johns Hopkins University (Maryland, USA) per creare un assistente virtuale di triage digitale che potrà potenzialmente essere utilizzato dai vari paesi membri della NATO. L’assistente di triage che il SACT sta sviluppando userà i dataset sulle lesioni che hanno riguardato in passato i soldati NATO sui vari teatri operativi (si pensi all’Afghanistan), i sistemi di “punteggio” delle vittime, la modellazione predittiva (prevedere cosa può accadere in futuro) e gli input delle condizioni di un paziente per creare un modello e decidere chi dovrebbe ricevere cure per primo in una situazione in cui le risorse (anche di tempo) sono limitate.

AI militari
Foto NATO

Conclusioni

Anche qui però sono state sollevate delle problematiche etiche. In particolare: gli insiemi di dati utilizzati causerebbero la priorità di alcuni soldati rispetto ad altri? Nella “foga del momento”, i soldati farebbero semplicemente quello che l’algoritmo dice loro di fare, anche se il buon senso suggerirebbe loro di agire diversamente? E se l’algoritmo gioca un ruolo fondamentale nella morte di qualcuno, di chi è la colpa? Chiaramente, i soggetti preposti dovranno decidere quanta “responsabilità” andrà assegnata all’algoritmo nel processo decisionale del triage, così come dovranno comprendere come verranno affrontate le situazioni etiche sul campo e fuori. Per esempio, se ci fosse una grande esplosione e i civili fossero tra le persone danneggiate, avrebbero meno priorità dei soldati anche se sono (ugualmente) gravemente feriti?

In ogni caso, sia per la DARPA che per l’ACT, sarà importante verificare se l’algoritmo utilizzato perpetui o meno un processo decisionale “distorto”, già successo in molti casi, come quando gli algoritmi, nell’assistenza sanitaria, hanno dato priorità alla cura di pazienti di etnia caucasica rispetto a quelli di etnia afroamericana (classico esempio di pregiudizio dell’intelligenza artificiale). In parole povere, sarà importante eradicare i pregiudizi (bias) dell’intelligenza artificiale, in maniera tale da ridurre gli errori al minimo sul campo.[1]

Note

  1. The military wants AI to replace human decision-making in battle. Stars and Stripes. https://www.stripes.com/theaters/us/2022-03-30/The-military-wants-AI-to-replace-human-decision-making-in-battle-5523158.html

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2