Analisi

Se l’intelligenza umana ha molti più difetti dell’intelligenza artificiale

Riflessioni sulla proposta di regolamento presentata dalla Commissione europea nello scorso aprile: ha senso limitare l’AI ad alto rischio mentre non si pongono limiti alla costruzione di armi letali? [...]
Piero Poccianti

Ex presidente Associazione Italiana per l’Intelligenza Artificiale (AIxIA)

intelligenza
  1. Home
  2. Intelligenza Artificiale
  3. Se l’intelligenza umana ha molti più difetti dell’intelligenza artificiale

Non c’è consenso su cosa definiamo con il termine intelligenza (umana) e tanto meno sulle capacità e i difetti di questa facoltà. Tuttavia, molti studi recenti mettono in luce caratteristiche dell’intelligenza che non ci aspettiamo e mostrano difetti nel nostro modo di ragionare, percepire e imparare. Da alcuni anni stiamo confrontandoci con macchine che mostrano comportamenti intelligenti e denunciamo i rischi che un utilizzo non controllato di questi strumenti potrebbe generare.

Siamo convinti che, in molte situazioni, dobbiamo lasciare l’ultima parola al giudizio umano e che le macchine potrebbero aumentare bias, pregiudizi e contribuire a un incremento delle diseguaglianze e dei fenomeni antidemocratici.

Intelligenza umana e intelligenza artificiale: la proposta di regolamento della Commissione UE

Tuttavia, l’intelligenza propria degli esseri umani è essa stessa limitata. Spesso prendiamo decisioni sbagliate basandoci su preconcetti o sul nostro stato d’animo condizionato da accadimenti non direttamente correlati al contesto in cui siamo impegnati. Se analizziamo da questo punto di vista la proposta di base, presentata dalla Commissione UE il 21 aprile 2021, che tenta di stabilire regole armonizzate per lo sviluppo, l’immissione sul mercato e l’impiego di sistemi di AI nell’Unione con un approccio proporzionato basato sul rischio, ci rendiamo conto che il documento presenta dei limiti. Abbiamo bisogno di indirizzare la ricerca verso un utilizzo dell’AI che ci permetta di superare i nostri limiti e prendere decisioni migliori per l’umanità e tutto il Pianeta. I rischi derivano da un possibile sviluppo sbagliato dell’AI, ma anche da un suo mancato utilizzo per cercare di conseguire il benessere e limitare i danni che la specie umana sta generando.

Anche se i rischi a cui fa riferimento la proposta europea non sono da trascurare, è venuto il momento di esaminare con attenzione il modo in cui noi esseri umani prendiamo le decisioni, percepiamo la realtà e reagiamo a diverse situazioni in cui ci imbattiamo.

L’intelligenza è una facoltà che ci permette di costruire un modello della realtà che ci circonda e interpretare i segnali che ci arrivano dagli organi di senso in conformità con questo modello.

La nostra visione è distorta dalle nostre convinzioni

Lo scienziato cognitivo Donald Hoffman nel suo volume “L’illusione della realtà” ci mostra che noi percepiamo soltanto quello che pensiamo sia utile per sopravvivere. Questo valore di utilità dipende dal contesto in cui viviamo, o meglio da come percepiamo e crediamo sia questo contesto. Se il mondo cambia rapidamente, non siamo attrezzati a percepirlo in una modalità vantaggiosa per la nostra sopravvivenza ed evoluzione. Noi non interpretiamo la realtà, proiettiamo le nostre idee, originate dal modello che abbiamo creato nel corso dell’evoluzione, sugli stimoli che riceviamo. La nostra è una visione distorta dalle nostre convinzioni.

Inoltre i nostri organi di senso hanno dei limiti. Percepiamo la luce in un ristretto spettro di frequenze che va dal rosso al violetto. Siamo ciechi allo spettro elettromagnetico al di fuori del “visibile”. Il nostro udito è capace di ascoltare suoni, nel migliore dei casi, dai 20 Hz ai 20 kHz. Siamo sordi agli infrasuoni e agli ultrasuoni.

Per fare un esempio anche la nostra capacità di cogliere il dolore ha dei limiti. Se prendiamo in mano un pezzo di metallo molto caldo lo lasciamo andare immediatamente con una reazione che evita che ci danneggiamo. Se però prendiamo in mano un oggetto radioattivo o contaminato da un agente chimico nocivo (come un pesticida o un insetticida), non siamo capaci di rilevare il danno che questa azione provoca.

Nel tempo abbiamo costruito strumenti in grado di misurare la radioattività, di analizzare composti chimici, di osservare oltre le nostre capacità visive (pensate al microscopio e al telescopio) o rilevare suoni nel campo degli infra e ultrasuoni.

Anche le nostre convinzioni sulle cose che nuocciono alla salute sono spesso distorte. Per convincere le persone che fumare fa male ci sono voluti decenni e ancora l’industria del tabacco è fiorente.

Un altro limite che mostriamo è l’incapacità di giudicare azioni a lungo termine o che comportano effetti a distanza. La nostra intelligenza si è formata in base a esperienze su piccola scala e limitate nel tempo.

Quando buttiamo via una busta di plastica, non siamo capaci di cogliere gli effetti della nostra azione. Oggi abbiamo trovato microparticelle di plastica nel sangue e nel latte materno e molti di noi hanno capito che quell’azione ci danneggia, ma non è facile percepire istintivamente il danno provocato.

In parte la tecnologia ci ha consentito di superare alcuni dei nostri limiti e migliorarci. L’invenzione del microscopio e del telescopio ci hanno permesso di estendere le nostre capacità visive e modificare il nostro modello della realtà, facendolo evolvere per coglierne aspetti che prima ci erano preclusi.

Questi limiti esistono anche nel campo del giudizio e del ragionamento.

intelligenza

I limiti nel campo del giudizio e del ragionamento

WHITEPAPER
Banking, come creare valore con l’AI conversazionale
CIO
Finanza/Assicurazioni

John Bargh è uno psicologo sociale che nel suo recente libro “A tua insaputa” ci fa capire che ci illudiamo di essere pienamente al comando delle nostre vite, ma scopriamo che il più delle volte non è così. Dai moltissimi e ingegnosi esperimenti che gli psicologi sociali hanno compiuto negli ultimi anni risulta evidente che l’inconscio ci guida di nascosto nei campi più disparati: ci indica chi amare, come votare, cosa comprare e persino in quale città vivere, oltre a molto altro. Spesso le nostre decisioni non sono razionali.

Ad esempio ([1]) Leslie Zebrowitz della Brandeis University ha studiato in dettaglio come il volto di un individuo determini il trattamento sociale che riceve. In una famosa ricerca ha mostrato come il viso di un imputato influenzi i tassi di carcerazione e le sentenze dei processi. I ricercatori hanno scoperto che, a parità di imputazione e degli altri fattori legati al caso, gli adulti con tratti infantili hanno più possibilità di essere giudicati innocenti e ottenere condanne più miti rispetto ad altri, mentre agli imputati di colore con la pelle più scura venivano comminate in media sentenze superiori di tre anni rispetto agli afroamericani con incarnato più chiaro colpevoli dello stesso reato.

Lo psicologo israeliano Daniel Kanemann, premio Nobel per l’Economia nel 2002, spiega ([2]) che prendiamo le decisioni basandoci su 2 meccanismi diversi: il pensiero lento e quello veloce. Il pensiero razionale funziona in maniera lenta, sequenziale, faticosa e controllata, mentre il pensiero intuitivo è veloce, automatico, senza sforzo, associativo e difficile da controllare.

Ancora Daniel Kanemann nel suo recente lavoro “Rumore: un difetto del ragionamento umano” illustra che le nostre decisioni razionali (quelle basate sul pensiero lento) sono soggette a due tipi di distorsioni: bias e rumore.

I bias sono distorsioni insite nella nostra cultura. Ne conosciamo gli effetti.

I bias cognitivi

Nel 2001, i ricercatori Chris Guthrie, Jeffrey J. Rachlinski e Andrew J. Wistricliff ([3]), impegnati da quasi vent’anni nello studio dei meccanismi alla base del processo decisionale e delle molteplici forme di distorsione del pensiero suscettibili di viziare il ragionamento giudiziale, hanno realizzato uno studio sperimentale volto a indagare l’influenza di alcuni errori (cd. bias) cognitivi nel ragionamento dei giudici federali statunitensi. I ricercatori hanno coinvolto un campione di 167 magistrati in una serie di esperimenti, cinque in totale, per verificare l’esistenza e gli effetti di altrettanti bias cognitivi, tra i più noti nella letteratura dell’epoca. L’analisi dei risultati ottenuti e le risposte fornite ai test hanno mostrato che, durante l’esperimento, la maggior parte dei giudici è caduta vittima di uno o più bias cognitivi, portando i ricercatori a concludere che “queste illusioni cognitive influenzano anche gli attori più importanti e influenti del sistema processuale: i giudici”.

Il rumore e la capacità di giudizio

Un altro fenomeno che limita la nostra capacità di giudizio è il rumore. A differenza del bias, quest’ultimo fenomeno non porta a modificare la decisione in una precisa direzione, ma spiega perché due giudici assegnino pene diverse a colpevoli dello stesso reato. Le nostre decisioni sono influenzate dallo stato d’animo in cui ci troviamo, da cosa ci è accaduto poche ore prima, da una esperienza positiva o negativa che abbiamo vissuto di recente.

Kanemann descrive esperimenti effettuati sempre su giudici americani sottoposti a un test nel quale devono leggere un caso e assegnare una pena a un ipotetico soggetto. I ricercatori hanno analizzato un campione nazionale di 208 giudici federali. Nel corso di 90 minuti a ogni giudice venivano presentati sedici casi e chiesto di emettere una sentenza. I casi hanno diversi ordini di gravità. La media delle condanne per un determinato caso era, ad esempio, di 7 anni. Tuttavia i giudici non assegnano tutti allo stesso caso 7 anni di pena: dai risultati si individuano differenze di quasi 4 anni fra un giudice e un altro. Ciò è spiegabile in parte con il fatto che alcuni sono più severi di altri, o altri bias del tipo già citato, ma esiste anche una componente occasionale del rumore dovuta a fattori concomitanti.

Tutte queste considerazioni ci portano ad affermare che l’intelligenza umana ha molti difetti. È possibile utilizzare gli strumenti di intelligenza artificiale per migliorarla?

Il momento storico che stiamo vivendo è drammatico. Stiamo generando la sesta estinzione di massa della vita sulla Terra. Secondo il famoso biologo di Harvard Edward O. Wilson arriveremo a eliminare più della metà di tutte le specie viventi entro la fine di questo secolo.

Nel suo studio da titolo “The Economics of Biodiversity: The Dasgupta Review”, pubblicato nel 2021, Sir Partha Dasgupta dichiara:

“L’umanità si trova di fronte a una scelta urgente. Continuare lungo il percorso attuale – dove le nostre richieste alla natura superano di gran lunga la sua capacità di approvvigionamento – presenta rischi estremi e incertezza per le nostre economie. La scelta di un percorso sostenibile richiederà un cambiamento trasformativo, sostenuto da livelli di ambizione, coordinamento e volontà politica simili o addirittura superiori a quelli del Piano Marshall”.

Eppure, solo pochi di coloro che vivono oggigiorno sono consapevoli di tale realtà.

Se prendiamo atto delle nostre limitazioni possiamo indirizzare gli strumenti di intelligenza artificiale a cercare di superarle, a renderci consapevoli dei nostri errori e ad affrontare le nostre decisioni con spirito critico.

Esistono strumenti per il supporto alle decisioni che, in molti casi, possono aiutarci a migliorare i nostri comportamenti e le nostre azioni.

Intelligenza

Le regole della Commissione UE sull’intelligenza artificiale

Le regole che la Commissione Europea propone per garantire i sistemi di AI utilizzati nell’UE hanno l’obiettivo di rendere questi sistemi sicuri, trasparenti, etici, imparziali e sotto il controllo umano.

Il regolamento classifica fra i sistemi ad alto rischio, il cui utilizzo è proibito, quello dove i sistemi di AI effettuano riconoscimento biometrico, le decisioni in ambito di risorse umane (per esempio assunzione o promozione), i sistemi di gestione delle reti energetiche e molto altro. Esistono, tuttavia, anche in questi settori, esempi di utilizzo che vanno a nostro vantaggio. Pensate alla gestione delle reti energetiche intelligenti sfruttando energie rinnovabili, sistemi biometrici non finalizzati al controllo, ma all’individuazione di soggetti a rischio (ad esempio di abbandono scolastico), sistemi pensati per contrastare i pregiudizi durante i colloqui per l’assunzione di personale, eccetera.

Conclusioni

Non credo che possiamo sostituire il giudizio umano con quello di una macchina, però possiamo realizzare applicazioni capaci di mettere in luce quando le nostre percezioni o decisioni sono distorte contribuendo a migliorarci.

Dobbiamo capire come in molte situazioni, senza strumenti di supporto, non siamo adeguati a conseguire risultati benefici.

Trovo strano che si voglia proibire l’implementazione e il commercio di sistemi di intelligenza artificiale in certi ambiti, ma si consenta la costruzione e la commercializzazione di armi il cui obiettivo è l’uccisione di esseri umani.

Ancora una volta il risultato dipende, in gran parte, dagli obiettivi che vogliamo perseguire: se puntiamo agli obiettivi sbagliati non possiamo lamentarci quando otteniamo risultati indesiderati.

Piero Poccianti
Piero Poccianti, ex presidente AIxIA

 

 

 

 

 

 

Note

  1. A tua insaputa pag 193
  2. Pensiero Lento e Veloce – 2011
  3. Arcieri_Bias-cognitivi-e-giudici-americani-DEF-1.pdf (dirittopenaleuomo.org)
WHITEPAPER
Efficienza energetica nei processi produttivi: scopri come, grazie a Digitalizzazione e AI
Intelligenza Artificiale
IoT

 

FacebookTwitterLinkedIn
FacebookTwitterLinkedIn