Tomorrowland

Reti neurali artificiali, perché non sono cervelli

Le analogie fra i neuroni artificiali e quelli del cervello umano, viste da Kathryn Hulick, autrice di libri per bambini e adolescenti che si è a lungo dedicata allo studio e all’osservazione dei progressi dell’intelligenza artificiale

Pubblicato il 18 Gen 2022

Sandro Marco Incerti

Ai expert&pioneer; Managing Director Roma Capitale Investments Foundation; Author of ‘K-Economy’

deep neural network

Kathryn Hulick, autrice di libri per bambini e adolescenti (Welcome to the Future: Robot Friends, Fusion Energy, Pet Dinosaurs and More è il suo ultimo) si è fatta delle idee sull’IA che ritengo corrette.

Tutti i nostri digital marketers dovrebbero avere le idee chiare come quelle di Kathryn, e aver letto la maggior parte dei libri citati di seguito, prima di scrivere anche una semplice brochure. I giornalisti, poi, dovrebbero capire, approfondire, prima di scrivere un pezzo, e non cedere alla tentazione, per pigrizia, di farsi passare una velina dal direttore del marketing.

Solo così potremmo sperare di raggiungere una corretta alfabetizzazione.

Le reti neurali artificiali (RNA) non sono cervelli

Per molto tempo ho paragonato felicemente le RNA al cervello umano, quando cercavo di spiegarle ai lettori. Pensavo che i neuroni artificiali e i neuroni biologici avessero più cose in comune tra loro. Ciò ha portato all’idea sbagliata che se avessimo ANN (Artificial neural networks) grandi come un cervello umano, ne imiterebbero le capacità. Ora so che questo non è corretto.

Ho imparato che i cervelli e le RNA funzionano in modo completamente diverso. Il massimo che dico ora è che le RNA sono state ispirate dal cervello. Entrambi coinvolgono reti molto complesse di miliardi di piccoli bit (che attivano neuroni nel cervello; parametri in una RNA) che interagiscono per raggiungere un obiettivo. Ma qui è dove finisce la somiglianza.

Il mio momento di soddisfazione in quest’area è arrivato quando ho letto l’articolo A Brief History of Neural Nets and Deep Learning, di Andrey Kurenkov, uno studente di dottorato presso lo Stanford Vision and Learning Lab. Ho imparato che un’ANN è fondamentalmente una tecnica statistica che apprende i modelli da una serie di dati di addestramento e può quindi applicare questi modelli a dati che non ha visto durante l’addestramento. Finché i nuovi dati sono simili a quelli visti durante il training, questo può funzionare bene, ma il fatto che le ANN stiano essenzialmente eseguendo il pattern matching limita la loro capacità di ragionare in modo simile a quello umano.

Al contrario, gli esseri umani fanno regolarmente analogie, combinano idee e capiscono le cose senza questo tipo di formazione. Ad esempio, un bambino che vede una giraffa per la prima volta può dedurre che mangia e beve, che ha delle macchie sul lato del corpo che non riesce a vedere, che non attraverserà un muro o scomparirà, e molto di più. Nessuno sa come fare in modo che i computer eseguano questo tipo di ragionamento di livello superiore, o almeno non altrettanto bene degli umani.

Quando avremo ordini di grandezza, più dati e più potenza di calcolo, sarà possibile? Forse. Ho intervistato Douglas Hofstadter nel 2016 e mi ha detto: “Spero che la forza bruta non riesca a svelare i segreti della mente, ma non lo so”. La forza bruta è già stata in grado di fare molto di più di quanto pensassero i primi scienziati informatici; quindi, penso che abbia il potenziale per portarci lì. Ma penso anche che l’approccio ANN da solo probabilmente non sarà sufficiente.

I cervelli non sono tabulati

Vedere, afferrare, navigare: tutte queste cose sembrano facili per gli esseri umani, ma sono straordinariamente difficili da programmare nelle macchine. Pensavo che il motivo fosse semplice: le persone trascorrono molti anni da neonati e bambini a praticare questi compiti. Se un robot o un computer si esercitano per la stessa quantità di tempo, mi sembrava che dovessero essere altrettanto bravi nel compito.

No. Non è così.

Una ragione molto interessante per questo è che la specie umana e tutte le specie da cui ci siamo evoluti hanno praticato questi compiti per milioni di anni. L’evoluzione è riuscita a produrre corpi e cervelli in grado di vedere, ascoltare, afferrare, navigare e molto altro ancora con pochissima pratica richiesta. I ricercatori hanno scoperto che molti animali nascono con alcuni concetti di buon senso già applicati. Ho avuto molte di queste idee da un’intervista in podcast con Liz Spelke, una psicologa di Harvard.

Quindi, uno dei motivi per cui i cervelli continuano a battere le macchine e molti tipi di attività è che non iniziano da zero quando stanno imparando. Certi sensi e abilità sono innati o istintivi.

Dovrebbe essere possibile costruire una mente in una macchina

Sebbene i cervelli abbiano alcuni chiari vantaggi evolutivi rispetto alle macchine, dovrebbe essere comunque possibile dare a una macchina una mente. Una volta credevo che ciò sarebbe stato impossibile, perché pensavo che ci fosse qualcosa di “speciale” nella mente umana: uno spirito o un’anima che non avrebbero mai potuto abitare in un programma per computer. Sono stata cresciuta religiosamente, quindi questo ha certamente qualcosa a che fare con il mio atteggiamento.

Nel corso del tempo, quando ho gradualmente abbandonato il mio attaccamento alla religione e ho divorato libri sulla scienza, mi sono resa conto che tutto ciò che riguarda chi sono (incluso il mio senso di sé) potrebbe derivare dalle complesse interazioni dei neuroni nel mio cervello. Sono il mio cervello. E se io sono il mio cervello, allora un cervello artificiale potrebbe, per necessità, acquisire una sorta di coscienza o di sé. Solo perché un computer è fatto di silicio anziché di cellule non dovrebbe impedirgli di diventare un essere pensante. (Naturalmente, potrebbe essere un essere pensante molto alieno con cui è difficile relazionarsi per gli umani.)

Uno dei libri che ho letto era un altro di Hofstadter, I am a Strange Loop. In questo libro, egli sottolinea che gli esseri umani iniziano come bambini che acquisiscono gradualmente pensiero e intelligenza consapevoli man mano che crescono. Inoltre, molti animali mostrano un comportamento molto intelligente o mostrano segni di avere un senso di sé. Sembra esserci un continuum di pensiero e intelligenza (e molto probabilmente anche coscienza) dal più elementare dei cervelli al più complesso. E quel continuum potrebbe un giorno includere cervelli artificiali.

La superintelligenza non è inevitabile

Questo è qualcosa che ho capito solo l’anno scorso. Quando ho letto il libro di Nick Bostrom, Superintelligence, ero convinta che fosse solo questione di tempo prima che l’IA iniziasse a migliorarsi fino a poter superare in astuzia l’umanità. La superintelligenza sembrava inevitabile, anche se pensavo che ci sarebbero voluti centinaia di anni o più prima che arrivasse.

Ma poi ho parlato con Melanie Mitchell, una scienziata informatica del Santa Fe Institute, e ho letto il suo libro, Intelligenza artificiale: una guida per pensare gli esseri umani. La Mitchell sottolinea che non sappiamo nemmeno se è possibile che esista la superintelligenza. “Non credo sia affatto ovvio che potremmo avere un’intelligenza generale del tipo che noi umani ci siamo evoluti senza il tipo di limitazioni che abbiamo”, mi ha detto. Tali limitazioni includono annoiarsi e distrarsi o doversi occupare dei nostri bisogni corporei. Non sappiamo ancora se tutte le qualità che amiamo di più dei computer possano coesistere in una macchina (o mente) con le qualità che amiamo di più del cervello umano.

L’apprendimento profondo non è una comprensione profonda

Il nome “apprendimento profondo” è sfortunato perché fa pensare alle persone che i computer stiano imparando in modo profondo, come capire le cose. Spiego sempre che “profondo” si riferisce alla “profondità” letterale degli strati nella rete e non a qualsiasi profondità di comprensione. Ciò che un modello di deep learning sta effettivamente facendo è abbinare i modelli.

Questo equivoco sarà molto difficile da superare.

L’IA può essere creativa

L’IA non richiede una profonda comprensione per fare cose straordinarie. Una volta ho realizzato un progetto scolastico sull’IA in cui affermavo che i computer non sarebbero mai stati in grado di essere creativi. Mi sbagliavo. Ora abbiamo l’IA che genera musica, arte, storie, codice, esperimenti scientifici, design di prodotti e molto altro ancora.

All’inizio di quest’anno, ho passato molto tempo a giocare con una demo di dall-E, una propaggine di GPT-3 di Open AI che disegna immagini basate sull’input di testo. Questo modello può combinare concetti per illustrarne di nuovi che non ha mai incontrato prima, come un drago elefante o un canguro fatto di carote. Ho dovuto modificare una frase nel mio libro che diceva che l’IA non poteva combinare le idee in questo modo. Ora può.

Potresti esitare a definire l’IA stessa “creativa”: gli umani controllano ancora il suo input, modificano il suo processo e scelgono il suo output migliore. L’IA è ancora più uno strumento che un artista o un pensatore. Ma è un tipo di strumento molto diverso da qualsiasi altro disponibile fino ad ora. Questo tipo di intelligenza artificiale sta sicuramente stimolando la creatività umana e aumentando la quantità e il tipo di arte nel mondo.

Questo tipo di creatività, credo, sia una delle più grandi cose che l’IA ha da offrire. Il pensiero umano si è ampliato per includere il pensiero macchina. E poiché il pensiero macchina funziona in modo così alieno e ha vantaggi così diversi, gli esseri umani sono ora in grado di realizzare cose impossibili da ottenere con il solo cervello. Quando ho intervistato Gary Marcus, autore di Rebooting AI: Building Artificial Intelligence We Can Trust, mi ha detto: “Penso che a un certo punto l’IA trasformerà radicalmente la scienza, la tecnologia e la medicina. Sarà fenomenale”.

Le persone temono l’IA per le ragioni sbagliate

Le persone che non sanno come funziona l’IA sono spesso disposte ad attribuire alle macchine e soprattutto ai robot molta più libertà e personalità di quanto meritino.

La maggior parte delle storie in cui l’IA va storta descrivono la tecnologia che distrugge l’umanità in qualche modo. I robot schiavizzano o controllano gli esseri umani, o un computer stermina l’umanità perché ha deciso che il mondo sarebbe meglio senza persone al suo interno, o un sistema informatico che segue ciecamente le istruzioni trasforma l’intero universo in graffette… Questi sono tutti esperimenti mentali molto interessanti, ma nessuno di loro accadrà, né presto, né mai. Come ho scritto nel mio libro Welcome to the Future, Watson potrebbe aver sconfitto gli umani a Jeopardy!, ma, “Watson non può rivoltarsi contro gli umani e diventare un signore supremo non più di quanto un tostapane potrebbe improvvisamente decidere di congelare il pane invece di scaldarlo. ”

Detto questo, l’IA ha molte applicazioni molto spaventose, non perché l’IA possa decidere di fare qualcosa di malvagio, ma perché le persone potrebbero decidere di fare cose malvagie con l’IA. L’IA semplifica la costruzione di armi autonome, sistemi di controllo autoritario e altro ancora. Dovremmo temere e cercare di fermare le persone che potrebbero utilizzare l’IA per questi scopi. Ma non dobbiamo temere la tecnologia stessa. Dovremmo cercare di capirlo nel miglior modo possibile in modo da poterlo utilizzare per rendere il mondo un posto migliore.

Dove andiamo da qui?

Queste sono le idee più importanti sull’IA che ho acquisito finora nella mia carriera. Ma sono pronta e aspetto sorprese che amplino le mie conoscenze o dimostrino che mi sbaglio ancora una volta.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4