Algoritmi predittivi: quando le previsioni si auto-avverano

Intelligenza artificiale e profezie che si auto-avverano: quando gli algoritmi predittivi possono pronosticare con accuratezza il futuro e, probabilmente, anche modellarlo [...]
Gioele Fierro

COO & Engineering Director Globsit

AI predittive
  1. Home
  2. Intelligenza Artificiale
  3. Algoritmi predittivi: quando le previsioni si auto-avverano

L’adattamento è la chiave dell’evoluzione storica dell’umanità. La prepotente adozione dell’AI all’interno della nostra vita quotidiana rappresenta una nuova sfida di adattamento a uno scenario che evolve in modo estremamente rapido. Le capacità predittive dell’intelligenza artificiale, verosimilmente, influiranno sul modo in cui affronteremo le sfide più complesse, come quella della sostenibilità delle attività umane, della crisi energetica, della crisi climatica, e altre ancora. Ma questi modelli digitali della realtà hanno una serie di punti critici con cui bisogna fare i conti sin da subito.

Algoritmi predittivi e futuro

Le reti neurali predittive sono, presumibilmente, da considerare cruciali tra le tecnologie abilitanti che hanno un impatto diretto su come viviamo il presente e progettiamo il futuro. La possibilità di capire quello che succederà nel futuro è un desiderio vecchio quanto l’uomo: se un tempo ci si affidava alla divinazione e agli oracoli, oggi riponiamo (spesso ingiustamente) la nostra fede nelle macchine. Ma è giusto capire quali sono le implicazioni nell’uso delle AI predittive e quali potrebbero essere i rischi associati.

AI predittive

Le tecnologie di AI predittiva

L’uso di reti neurali predittive, già oggi, va ben oltre le classiche previsioni meteorologiche a breve termine. Gli scienziati, infatti, creano già modelli complessi che possono valutare quale sarà l’andamento del riscaldamento globale a lungo termine, o possono simulare complesse realtà fisiche per prevedere l’affidabilità di teorie altrimenti impossibili da convalidare.

Tante altre applicazioni ci riguardano più da vicino. Nell’ambito della diagnostica medica, ad esempio, esistono sistemi di intelligenza artificiale che superano in accuratezza gli esperti di settore, quindi i medici, nel riconoscere schemi e insiemi correlati di elementi che portano a diagnosi precoci. Le aziende farmaceutiche studiano molecole e proteine con l’aiuto di AI che ne prevedono le caratteristiche e le proprietà prima ancora di effettuare i test di laboratorio.

Le assicurazioni, ad oggi, fanno un esteso impiego delle intelligenze artificiali predittive per valutare le situazioni di rischio o calcolare l’affidabilità di alcuni soggetti o di alcuni contesti. E le stesse tecniche sono state utilizzate da governi e istituzioni pubbliche per gestire il sistema giudiziario, il sistema scolastico e il sistema sanitario. Applicazioni che prevedono la generazione di previsioni basate su modelli digitali, in grado di migliorare l’efficacia delle decisioni strategiche.

Lasciare che un algoritmo influenzi le decisioni di un essere umano, però, richiede massima fiducia nelle sue capacità predittive. Questa fiducia può generare dei loop nei quali la reale efficacia delle previsioni viene alterata dalle azioni degli esseri umani coinvolti, che danno per scontata la loro affidabilità.

Le AI, di solito, vengono viste come “black box” che funzionano anche se non siamo in grado di comprenderne i meccanismi interni. All’apparenza un’AI potrebbe sembrare imparziale, esente da “errore umano”, e questo ha come conseguenza il fatto che è facile dimenticare che questi algoritmi pongono le loro fondamenta sulla statistica, e che la statistica è fallibile. Questa percezione errata potrebbe portare le persone ad attribuire “oggettività scientifica” a previsioni che in realtà sono frutto di calcoli matematici fortemente dipendenti dai dati sui quali sono stati generati.

WHITEPAPER
Conosci già i 9 esempi concreti di mobilità sostenibile presenti nel mondo?
Automotive
Smart Mobility

Una fede così radicata nelle macchine ha come risultato la fiducia completa nella previsione che la macchina ha generato, la sensazione che l’AI sia in grado di comprendere infallibilmente il contesto, che sia in grado di conoscerci meglio di noi stessi. E questo genera un bias.

Se un algoritmo predittivo ci informasse del rischio elevato di contrarre una certa malattia, potremmo darlo per scontato, dimenticando che si tratta semplicemente di un calcolo di probabilità. Questo genera le profezie che si auto-avverano.

AI predittive

Predizioni dell’ovvio, cosa sono

La definizione di profezia che si auto-avvera è leggermente diversa a seconda dell’ambito in cui la si applica. Volendo trovare una spiegazione semplice del termine, che si adatti al contesto delle AI predittive, potremmo parlare di “predizioni dell’ovvio”. Vediamo adesso alcuni ambiti applicativi pratici di questa definizione.

Nel contesto dalla Grande Distribuzione Organizzata (GDO) e dell’e-commerce, ad esempio, è prassi applicare algoritmi predittivi per la gestione delle promozioni. Il modello, sicuramente, sceglierà come target principale delle attività di marketing il gruppo di clienti che ha già acquistato (o che ha già riempito il carrello online con) un certo tipo di prodotti. Questi clienti sono “ovviamente” quelli che con maggiore probabilità sono interessati alla sponsorizzazione; sono, quindi, quelli che “ovviamente” garantiranno un ritorno maggiore dell’investimento promozionale; e sono, quindi, quelli che acquisteranno il bene/servizio, alimentando il loop dell’auto-adempimento della previsione.

Consideriamo anche un esempio più estremo: supponiamo che in ospedale ci sia un paziente in coma, in terapia intensiva. Un’AI appositamente addestrata analizza gli esami e il tracciato dell’attività cerebrale di questo paziente, pronosticando un esito negativo, quindi la morte o la permanenza definitiva nello stato comatoso. In accordo a questa previsione, viene deciso di sospendere il sostegno vitale per il paziente. Questa decisione rende la previsione dell’AI vera, anche per il solo fatto che la previsione ha generato una decisione compatibile. Questa prognosi è un perfetto esempio di profezia che si auto-avvera. Questo problema non implica che l’analisi dell’AI sia errata, o che si tratti di un falso positivo. La predizione potrebbe essere corretta, ma questo nulla toglie al fatto che si tratti di una previsione auto-adempiuta.

Questo secondo esempio permette di introdurre una classificazione per le profezie che si auto-avverano (PAA), che possono essere di tipo trasformativo od operativo. Si parla di PAA trasformative quando la suggestione indotta dalla previsione cambia l’esito degli eventi. Si tratta, invece, di PAA operative quando l’esito degli eventi resta inalterato, perché la previsione era affidabile e, quindi, la suggestione che ha indotto non alterato gli eventi.

Le PAA, siano esse operative o trasformative, non consentono, in ogni caso, di verificare se i risultati degli eventi sarebbero stati coerenti con la previsione, nel caso in cui la previsione non fosse mai stata fatta. Questo rende teoricamente impossibile filtrare eventuali falsi positivi e falsi negativi generati dal modello predittivo per correggerne i difetti. Quindi, con le PAA il feedback che riceviamo è sempre positivo, e questo non fa altro che cementare la fiducia nell’AI e la convinzione relativa alla sua infallibilità.

Per queste ragioni, il problema delle profezie che si auto-avverano diventerà sempre più determinante. Il modo in cui vengono utilizzate le previsioni e il modo in cui vengono validati i risultati delle AI in grado di generarle, vanno gestiti tenendo conto di questa fenomenologia. Non tenere conto delle PAA significa non avere gli strumenti per distinguere i successi dai fallimenti, il corretto dall’errato.

Previsioni e prevedibilità

Per i ricercatori che l’hanno ideata, la rete doveva essere uno strumento per creare una comunità globale universale, in grado di integrare la visione di tutti, per il bene dell’umanità. La realtà odierna è diversa, e le AI predittive hanno un ruolo fondamentale nel rendere il web quello che è oggi.

Per sfruttare, a scopo di marketing, il tempo che le persone trascorrono online, gli algoritmi dei service provider analizzano l’attività di ogni utente spingendolo, attraverso i contenuti proposti, in una nicchia di consumo sempre più piccola e ben definita. Così le previsioni che riguardano gusti e orientamenti diventano sempre più precise, grazie al fatto che si auto-avverano, e questo rende sempre più efficaci le campagne promozionali online.

Trovare punti di vista differenti e confrontarsi con essi diventa sempre più raro: l’algoritmo predice i contenuti che potrebbero interessare di più l’utente, quelli più affini alle sue idee e al suo contesto, continuando a proporli. L’ideologia dell’utente sarà, così, paradossalmente sempre più vicina a quella che l’AI ha previsto per lui, ed è qui che la predizione si auto-realizza. Un circolo vizioso che frammenta la comunità di internet all’interno di bolle che si auto-sostengono. Questo non significa che i sistemi predittivi che controllano i nostri feed hanno anche il controllo della rete, ma formare un pensiero critico online diventa sempre più complesso: l’antifazionismo richiede capacità e consapevolezze che non sempre appartengono all’utente medio, l’utente che in realtà non esiste, ma che con buona approssimazione può rappresentare una grossa fetta dei naviganti.

Le chiavi per superare la questione delle PAA sono principalmente due: una strategia di progettazione delle reti neurali che tenga conto del problema, e la consapevolezza da parte di utenti e operatori.

In fase di progettazione, bisogna creare modelli che aiutino a ottimizzare ciò che non funziona, e a capire le ragioni e le motivazioni delle anomalie nei dati. In questo caso, le previsioni saranno molto più complesse: l’affidabilità in alcuni contesti potrebbe soffrirne, ma in questo modo si creerebbero sistemi in grado di contestualizzare meglio il dato e, quindi, di adattarsi maggiormente a contesti diversi e dinamici. AI che possono essere sfruttate per aumentare il nostro controllo sul futuro, anziché controllarlo con le previsioni che si auto-avverano.

Conclusioni

Per quanto riguarda, invece, la consapevolezza, è necessario erudire utenti e operatori sulla fallibilità e sui limiti dell’AI. Bisogna consentire alle persone comuni, e non solo agli specialisti, di comprendere il funzionamento generale dei sistemi di previsione e raccomandazione che governano i contenuti che ci vengono proposti quotidianamente. Senza fede nell’algoritmo, senza l’illusione dell’accuratezza che ci forniscono gli algoritmi predittivi, saremo in grado di esplorare meglio il contesto, e di adattare ed evolvere il nostro pensiero critico basandoci sulla realtà e non su una manipolazione della stessa.

WHITEPAPER
Sfide di mercato, strategie e strumenti per la nuova INDUSTRY4.0, con il digitale al centro
Automotive
IoT

 

FacebookTwitterLinkedIn