C’è un’AI “maligna” che (forse) ci salverà dal Coronavirus

Pubblicato il 16 Mar 2020

Giuliano Pozza

CIO Università Cattolica del Sacro Cuore

AI settore sanitario

Il caso del Coronavirus, e dell’uso dell’AI per combatterlo permette di far emergere uno scenario che si ripeterà in tanti contesti. Perché le applicazioni dell’AI che vediamo applicate al Coronavirus sono di tre tipi, con impatti diversi in termini di “benignità” o “malignità”. O, se vogliamo usare termini che non trasferiscano impropriamente a uno strumento attributi umani, con impatti da minimi a devastanti sulla nostra libertà.

Ecco quindi i tre tipi di AI che stanno emergendo per combattere il coronavirus:

  • AI a supporto della ricerca
  • AI a supporto della clinica, della terapia e dell’assistenza
  • AI per il controllo sociale.

Vediamoli brevemente, classificandoli rispetto alla pericolosità (in particolare rispetto all’impatto sulla libertà degli individui) e all’utilità (in particolare rispetto all’efficacia immediata sul controllo della malattia), secondo un diagramma di questo tipo:

AI a supporto della ricerca

Uno dei trend più interessanti è quello di utilizzare l’intelligenza artificiale per potenziare e velocizzare le capacità dei ricercatori.

Gli esempi sono tanti: da Google Deepmind a BenevolentAI (il nome non è un caso), che cercano di analizzare il virus e proporre nuove molecole per combatterlo oppure l’uso di farmaci già esistenti che potrebbero limitare la virulenza del coronavirus.

In Italia non stiamo a guardare: Cineca è uno degli attori che si è attivato su questo tema. Il concetto è di utilizzare algoritmi di simulazione per studiare il comportamento delle proteine che consentono al virus di replicarsi in modo da verificare quali farmaci/molecole possano rallentare questo processo. Utilizzando un super computer i tempi di analisi passano da mesi a settimane.

Impatto sulla libertà degli individui (pericolosità): basso. In molti casi non vengono usati dati reali. Dove fosse necessario, possono essere anonimizzati o pseudo-anonimizzati.

Efficacia immediata sul controllo della malattia (utilità): medio/basso. Purtroppo comunque l’utilizzo di molecole esistenti o lo sviluppo di nuove richiede tempo, considerando anche le varie fasi dei trial clinici. Si parla di mesi o anni. Con i farmaci esistenti va un po’ meglio, ma una fase di studio e di sperimentazione è sempre necessaria.

AI a supporto della clinica, della terapia e dell’assistenza

Anche qui gli esempi potrebbero essere tanti. In generale ruotano tutti intorno a due concetti fondamentali:

  1. i dati disponibili per la diagnosi e la terapia di un paziente (sia per il coronavirus che per altre patologie) sono in aumento esponenziale. Nessun medico può analizzare tutti questi dati senza il supporto di algoritmi. Se questi algoritmi hanno un minimo di sofisticazione, possiamo dire che si tratta di intelligenza artificiale a tutti gli effetti.
  2. i medici disponibili sono sempre meno. Questo sconcerta, perché non servivano big data e strumenti di intelligenza artificiale per immaginare che, con la curva demografica che avrebbe portato tantissimi medici al pensionamento tra il 2010 e il 2020 e con il numero chiuso a medicina che resiste da decenni, saremmo arrivati qui. Quanti ragazzi ho incontrato negli anni che avrebbero voluto fare i medici, ma che hanno dovuto ripiegare su altre facoltà per le barriere all’ingresso. In ogni caso con la scarsità di diagnosti che abbiamo, dobbiamo utilizzare al meglio il loro tempo e supportarli con strumenti sofisticati. Quindi anche di intelligenza artificiale.

Esempi: tutti i sistemi di supporto alla diagnosi. Sì va dagli algoritmi di analisi delle immagini radiologiche per identificare i sintomi del coronavirus a sistemi più complessi che analizzano dati da fonti diverse per stimare la probabilità di contrarre la malattia e la prognosi. Ma potremmo estendere il campo anche agli strumenti di assistenza robotizzata ai pazienti, che limitano il rischio degli operatori sanitari nel trattare i pazienti infetti, o ai droni per monitorare e supportare i pazienti a casa.

Impatto sulla libertà degli individui (pericolosità): medio/basso. Qui non c’è spazio per la pseudo-anonimizzazione. I dati sono reali di pazienti reali. Non so se avete mai assistito alla reazione sociale che si verifica in un ufficio dove una persona è identificata come positiva. In teoria il nome non viene svelato, in pratica dopo 5 minuti tutti lo sanno e si scatena il panico. Però qui stiamo parlando di pazienti, quindi malati: il trattamento dei loro dati è una necessità inevitabile.

Efficacia immediata sul controllo della malattia (utilità): medio/alto. Curare in modo più efficace sicuramente aiuta a contenere la malattia. Supportare gli operatori sanitari non è solo auspicabile, è un dovere morale. Con tutti gli strumenti a disposizione.

AI per il controllo sociale

Una volta si sarebbe detto: Hic sunt leones. Purtroppo o per fortuna, in una pandemia come quella attuale in cui la mortalità è (abbastanza) limitata ma la diffusione grandissima, il controllo sociale è il primo mezzo di contrasto. Questo vale a prescindere dall’AI. Lo vediamo nelle misure che quasi tutti i governi hanno preso o stanno prendendo in queste ore (fa ancora eccezione la Gran Bretagna, dove la teoria è che sia meglio lasciar diffondere il contagio in modo che si sviluppi un’immunità di gregge. Alcuni moriranno, molti sopravvivranno. Detta così sembra agghiacciante, in realtà le misure vanno valutate nel lungo periodo. Se le nostre misure non funzionano, in Europa sopravvivranno solo gli inglesi…).

In ogni caso i governi stanno mettendo in opera, con o senza l’AI, misure di controllo sociale. Vincoli agli spostamenti, controlli delle forze dell’ordine, confinamenti di intere zone.

Ma qui l’AI, abbinata ai big data, può veramente fare la differenza. Partiamo dagli approcci più “light”: ad esempio un gruppo di ricercatori del Boston Children Hospital, insieme alla Harvard Medical School, analizza con l’aiuto dell’AI i post sui social e traccia con dati anonimi la diffusione delle epidemie più importanti, tra cui il coronavirus. Il sito è estremamente interessante anche su altre malattie infettive.

Un altro approccio soft è quello usato da Google, in collaborazione con l’NHS inglese, che propone nei suggerimenti di ricerca per prime le fonti attendibili legate all’NHS. Se uno ci pensa bene però è un po’ manipolatorio e apre scenari preoccupanti; il prof. Epstein, ad esempio, sostiene che lo stesso meccanismo sia stato usato durante le ultime elezioni americane per spostare voti a favore di Hillary Clinton.

Ma il vero pezzo forte è l’app Health Code di Alipay, utilizzata per il controllo sociale in Cina. In sintesi: incrociando i dati sanitari, i dati dei social e quelli degli spostamenti, a ogni persona viene associato un codice colore con un QR-Code: verde puoi andare ovunque, giallo hai mobilità ristretta, rosso devi stare a casa. A ogni controllo o varco devi esibire app e QR-code. L’hanno installata tutti, anche perché se non hai l’app sei automaticamente considerato un codice rosso.

Questo sì che è uno scenario interessante. Impatto sulla libertà personale (pericolosità)? Altissimo. Efficacia immediata sul controllo della malattia (utilità)? Alta. Su questo tema ho raccolto da persone diverse posizioni molto diverse. Chi sostiene che tutto è giustificato in questo momento, chi dice (e io sono tra questi) che il governo cinese ha solo messo un altro tassello nel suo programma distopico di controllo totale della popolazione. Dopo il Social Credit System, dopo Skynet (discutibile senso dell’umorismo nella scelta del nome) e gli altri programmi di controllo, con il Coronavirus il governo cinese ha incastrato l’ultimo pezzo del puzzle.

Il diagramma visto all’inizio potrebbe essere completato in questo modo:

I quadranti 2 e 4, quelli che qualcuno potrebbe definire “AI maligna”, sono quelli da osservare attentamente. Il 2 in particolare perché saremo fortemente tentati di utilizzare questi tipi di AI. In realtà il dilemma etico che nasconde questo scenario è presente anche in tutti gli altri quadranti: quanto siamo disposti a cedere alle varie AI che stanno emergendo dei nostri dati (e della nostra libertà) a fronte del beneficio che ce ne viene? Perché l’AI già ci manipola nel quotidiano: dalle playlist di Spotify ai consigli di Amazon, dalla pubblicità sui social alle proposte di Netflix. Io cedo i miei dati, i vari “servizi intelligenti” (se non vogliamo chiamarli AI, ma di fatto lo sono) mi aiutano nelle scelte e nella vita. E non ci illudiamo di essere unici: in realtà questi servizi funzionano molto bene e il più delle volte ci azzeccano. Lindstrom, autore di “Small Data”, sostiene che ci sono al massimo 1000 tipi di persone diverse nel mondo, non di più. Il marketing personalizzato si basa su questo.

Quindi il dilemma c’è e ci si porrà molte volte in modo drammatico. Infatti, se è vero quello che sostiene David Quammen in Spillover, il coronavirus è solo uno dei tanti virus che hanno fatto e faranno il salto dal mondo animale a quello umano (zoonosi). Vedremo altre epidemie come questa, magari anche con mortalità più elevata, dove il controllo sociale rimarrà per lunghi mesi l’unica contromisura realmente efficace. Affidarsi al buon senso delle persone si è dimostrata una misura inefficace: l’esodo dalle regioni del nord al sud Italia lo ha tragicamente dimostrato. Quindi, tra le varie applicazioni dell’AI alla gestione delle pandemie, quella più efficace è anche quella con impatto maggiore sulle nostre libertà: quella più “maligna” insomma. Se fosse così, dovremmo applicare le stesse misure della Cina anche in Occidente? E se fossimo costretti a farlo, quali garanzie democratiche attuare? Controllo totale solo per il periodo della malattia e poi distruzione dei dati? Autorità di governo europea che vigili sul corretto uso dei dati? È veramente possibile, quando non riusciamo a metterci d’accordo neanche sulle misure minime e sulle mascherine? Chi ci darà risposte di fronte a questi dilemmi?

Conclusioni

Paradossalmente sui temi relativi alla tecnologia non sono i tecnologi nella miglior condizione per dare risposte alle domande etiche e di senso. Io credo che filosofi, giuristi e perché no anche teologi, dovrebbero lavorare insieme ai tecnologi per definire delle regole in particolare per le AI del quadrante 2. Nelle note trovate alcuni riferimenti di studiosi in questi tre ambiti che ho avuto la fortuna di conoscere. Qualcosa si sta muovendo anche a livello europeo, ma l’esperienza di questi giorni del coronavirus ci insegna che la realtà si muove spesso a una velocità maggiore rispetto a quello che ci aspettiamo. Quello che sta accadendo nella sanità, nello smart working e nell’elearning dimostra che nella crisi chi aveva lavorato bene prima reagisce al meglio, chi improvvisa rischia molto. Sull’intelligenza artificiale vale lo stesso: la realtà ci metterà di fronte a momenti di crisi importanti, dove dovremo scegliere in pochi giorni o poche ore se applicare algoritmi di controllo sociale oppure no. Se avremo definito prima le regole, il contesto etico e giuridico, saremo pronti ad affrontare la realtà, altrimenti improvviseremo. E su certi temi non è accettabile improvvisare.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3