L’intelligenza artificiale non è poi così intelligente

Caratteristiche, opportunità, rischi dell’utilizzo delle AI nelle attività umane. Se un domani facessero tutto loro, rischieremmo di perdere la conoscenza

Pubblicato il 20 Ott 2020

apprendimento supervisionato

Il tema dell’intelligenza artificiale oggi è più in voga che mai. Forte di un nome altisonante e mediaticamente molto efficace la confusione la fa da padrona. Ed ha reso L’AI un calderone in cui nel dibattito quotidiano c’è finito un poco di tutto. Da algoritmi puri, semplicemente molto complessi e basati su dati, all’apprendimento profondo. In questo caso entriamo nel mondo che più somiglia al concetto vivente di intelligenza, quello dell‘apprendimento.

Esistono vari tipi di deep learning, dalle reti neurali convoluzionali a quelle ricorsive, spike and slab, deep-q, impilamento profondo, hashing semantico, etc. Ma di fatto si tratta di una serie di tecniche in cui una serie di reti neurali artificiali sono organizzate in diversi strati, imitando un cervello biologico all’interno di ogni strato ci sono dei neuroni che sono delle micro unità logiche che hanno un unico compito, in ogni strato ogni neurone calcola i valori per quello successivo affinché l’informazione venga elaborata in maniera sempre più completa dove tra uno strato di ingresso e uno di uscita ci sono una serie di strati intermedi. Maggiori saranno i neuroni e gli strati maggiore sarà la complessità della rete neurale. Attenzione però, fintanto che questa rete non ha a disposizione informazione sarà come il cervello vuoto, non sarà in grado di elaborare nulla. Disegnare questa rete è un lavoro d’artista e procede per tentativi.

Un esempio di AI e apprendimento: una rete neurale

Prendiamo ad esempio una rete neurale artificiale di analisi delle immagini con lo scopo di riconoscere gli oggetti. Il file immagine entra nel sistema al primo livello. Al secondo livello, la rete potrebbe avere neuroni che rilevano solo i bordi dell’immagine. Al terzo livello combina le linee per identificare le curve nell’immagine. Al quarto livello combina le curve in forme e trame, al quinto livello elabora le forme e le trame e stabilisce che all’interno dell’immagine ci sarà una scarpa gialla. Per capire quale rete sarà la migliore i progettisti disegneranno diverse reti in cui i vari strati (profondità della rete) che potranno contenere anche migliaia fino a milioni di neuroni e con un numero di strati sempre maggiore con compiti sempre più specifici. Naturalmente la rete neurale non sa subito di trovarsi di fronte a una scarpa gialla. Deve esse addestrata. Avrà avuto in pasto migliaia di immagini referenziate, in cui ha di fronte una doppia tabella. Da un lato le immagini, dall’altra le informazioni contenute sulle immagini. Una volta appreso a riconoscere gli oggetti nelle immagini di fronte a un’immagine nuova sarà in grado di dire in modo autonomo l’oggetto in essa contenuto. Quante immagini servono e quanto deve essere complessa la rete o che tipo di algoritmi interni userà è una scienza complessa che è diventata così strategica da diventare terreno di scontro tra stati.

Con gli USA ancora in testa ma con la Cina che punta alla leadership in meno di un decennio. Cina che basa la sua forza su due variabili principali i dati e il governo. Ad esempio, una società cinese per addestrare alla diagnostica automatica un sistema esperto ha potuto usare otto miliardi di TAC referenziate da medici, a cui si aggiungono le enormi risorse mobilitate dal governo di Pechino. Che punta sull’AI per aumentare il livello di controllo sulla società cinese ma allo stesso tempo come scorciatoia potentissima per un aumento dell’efficienza. I risultati sono sotto gli occhi di tutti, le olimpiadi di Pechino del 2022 saranno le prime senza interpreti. Tutte le traduzioni in tempo reale saranno demandate all’AI. Allo stesso tempo già oggi numerosi sistemi di diagnostica automatica sono operativi negli ospedali cinesi garantendo mediamente prestazioni migliori di un medico con cinque anni di esperienza. Ma l’aspetto più distopico è l’AI applicata ai processi. Sono ormai centinaia i tribunali cinesi virtuali in cui il verdetto e demandato a un’intelligenza artificiale.

Ciò che si perde passando da digitale ad analogico

L’AI ha anche un vantaggio rispetto al cervello umano. Pensiamo al biomedicale. Tutto quello che noi vediamo su un dispositivo è frutto di un’interpretazione software di segnali spesso analogici. Da un elettrocardiogramma a una ecografia, passando per una risonanza magnetica un flusso enorme di dati viene elaborato affinché sia fungibile da un medico, diventi quindi un’immagine, oppure un tracciato. Questo processo però non è gratis, perde molto dettaglio durante il processo di rielaborazione. Una AI può lavorare sul flusso grezzo, avendo quindi a disposizione una quantità di informazioni infinitamente maggiore del medico, senza soffrire di stanchezza o di sovraccarico di lavoro. Può essere addestrata con insiemi di dati così ampi che a un medico non bastano 20 vite per accumulare la stessa esperienza. Può migliorare grazie all’apprendimento. Può leggere tutte le pubblicazioni del mondo sull’argomento. Può quindi cogliere con molto anticipo i segni di una patologia già rilevata dagli strumenti ma così impercettibile da non essere visibile al medico. Strumenti sempre più potenti porteranno ai professionisti ad affidarsi sempre di più ai sistemi esperti, rinunciando quindi allo sforzo continuo dell’esperienza che obbliga a capire e approfondire. Ma attenzione, le AI non sono “creative” sono delle scatole nere matematiche che usano l’enorme potenza di calcolo e gli enormi flussi di dati per creare dei modelli di analisi e predizione così evoluti da sembrare intelligenti. Ma non lo sono. Al difuori della cornice di esperienza per cui sono stati costruiti non sono in grado di fare nulla. Non sono quindi assolutamente in grado (né lo saranno mai) di usare esperienza fuori perimetro. Che è la grande potenza dell’intelligenza biologica dove l’effetto di una mela caduta sulla testa permette di immaginare il concetto di gravità. L’AI ha bisogno di apprendimento. Se però impigriamo l’intelligenza biologica non è l’AI a diventare super intelligente bensì la capacità umana a diventare mediocre. E come guidare un’auto automatica, con 1000 dispositivi di assistenza e controllo alla guida rispetto a guidare una 126 dove a ogni cambio bisognava fare la “doppietta”. La bravura del secondo guidatore è molto più alta del primo.

I rischi dell’AI

Il secondo problema deriva dall’impossibilità della supervisione. Il deep learning è forse l’approccio più brutale e meno raffinato per risolvere problemi, di fatto non riuscendo a stabilire un insieme di regole e modelli raffinati per risolvere problemi, mi affido a miliardi di dati e capacità di calcolo enorme. Questo rende le AI delle scatole nere matematiche, capire cosa succede al suo interno, fatto da miliardi di connessioni e livelli, è per una mente umana nella maggior parte dei casi impossibile. Non sapere come funziona mi impedisce di capire del perché mi da un risultato piuttosto che un altro. Motivo per cui l’obbiettivo della guida autonoma si allontana di anno in anno. Ad es. leggi europee in caso di incidente, se questo è dovuto a un difetto di fabbrica, impongono che tu debba essere in grado di identificare un problema e risolverlo, con l’AI questo processo è quasi impossibile. Qui i rischi dell’apprendimento dell’AI che si aprono sono decine.

Il più banale: se un gruppo di razzisti crea l’insieme di addestramento, l’AI risultante sarà razzista, ma fintanto che non avremo modo di accedere ai dati di addestramento non abbiamo modo di sapere che lo è analizzando la rete neurale. Ma esistono problemi più sottili. Se pensiamo alle sentenze automatizzate, non riuscendo a interpretare la scatola nera, basterebbe manomettere i dati di apprendimento è mi potrei trovare una fattispecie di reato mai condannata e non accorgermene mai. In Cina dove il riconoscimento per immagini e molto diffuso vendono mascherine con tratti apparentemente senza significato, ma che hanno la capacità di far crashare i sistemi di riconoscimento automatico delle immagini governativo. Fintanto che però l’AI è uno strumento a servizio dell’uomo l’aumento di produttività che permette è molto più alto delle passate rivoluzioni industriali, ma con il rischio della pigrizia dell’uomo. Con la possibilità concreta di arrivare a non avere più interpreti, oppure medici che non sanno fare diagnosi o giudici che non sono più in grado di esprimere un giudizio autonomo rispetto all’AI. In questo caso il ritardo europeo, che purtroppo costerà molto caro in termini di mancanza di PIL potenziale, può permettere un approccio più virtuoso rispetto al percorso USA e cinese. Magari lasciando in tutti i settori, ad esempio il 5% totalmente AI free, che serva come palestra per tenere attive le capacità umane. Così come la Marina Militare continua a far scuola sui velieri, possiamo immaginare una rotazione continua che faccia sì che ci sia sempre un 5% dei medici a cui è vietata l’AI, o un 5% di sentenze dove non ci può essere assistenza dall’AI.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2