Scenari

Perché Geoffrey Hinton ha paura dell’AI che ha contribuito a creare e lascia Google

Noto soprattutto per l’algoritmo back propagation, proposto per la prima volta negli anni ’80, una tecnica che consente alle reti neurali artificiali di apprendere e che oggi è alla base di quasi tutti i modelli di apprendimento automatico. “Penso che ora ci siano molto vicini e che in futuro saranno molto più intelligenti di noi. Come faremo a sopravvivere a questo?”

Pubblicato il 03 Mag 2023

Hinton

Geoffrey Hinton, vicepresidente e ingegnere di Google, uno dei pionieri dell’apprendimento profondo (deep learning), autore di alcune delle tecniche più importanti alla base della moderna AI, dopo un decennio trascorso in Google ha annunciato di volersi dimettere per via delle preoccupazioni che nutre nei confronti dell’intelligenza artificiale.

L’informatico, oggi settantacinquenne, si divide tra l’Università di Toronto e Google dal 2013, quando il gigante tecnologico ha acquisito la startup DNNresearch di Hinton. L’azienda di Hinton era uno spinoff del suo gruppo di ricerca, che all’epoca stava svolgendo un lavoro all’avanguardia con l’apprendimento automatico per il riconoscimento delle immagini. Google ha utilizzato questa tecnologia per potenziare la ricerca di foto e altro ancora.

Hinton ha da tempo sollevato questioni etiche sull’AI, in particolare sulla sua cooptazione per scopi militari. A tale riguardo ha dichiarato che uno dei motivi per cui ha scelto di trascorrere gran parte della sua carriera in Canada è che lì è più facile ottenere finanziamenti per la ricerca che non abbiano legami con il Dipartimento della Difesa degli Stati Uniti. Ne aveva parlato in questa intervista rilasciata alla CBS a marzo.

Full interview: "Godfather of artificial intelligence" talks impact and potential of AI

Full interview: "Godfather of artificial intelligence" talks impact and potential of AI

Guarda questo video su YouTube

Video: Geoffrey Hinton intervistato dalla CBS

Hinton ha ricevuto, insieme a Yann Lecun e Yoshua Bengio, il Premio Turing 2018, l’equivalente del Nobel per l’informatica. “I contributi di Geoff (Hinton) all’AI sono enormi”, ha affermato Lecun, scienziato AI di Meta. “Non mi aveva detto che aveva intenzione di lasciare Google, ma non sono troppo sorpreso”.

“Geoff Hinton merita certamente il maggior credito per molte delle idee che hanno reso possibile l’attuale deep learning“, afferma Bengio, professore all’Università di Montreal e direttore scientifico del Montreal Institute for Learning Algorithms. “Immagino che questo gli faccia anche sentire un senso di responsabilità particolarmente forte nell’allertare il pubblico sui potenziali rischi dei conseguenti progressi dell’AI”.

Jeff Dean, Chief Scientist di Google cerca di minimizzare l’accaduto. “Geoff ha compiuto scoperte fondamentali nel campo dell’intelligenza artificiale e apprezziamo il suo decennale contributo a Google”, ha dichiarato. “Ho apprezzato molto le nostre numerose conversazioni nel corso degli anni. Mi mancherà e gli auguro ogni bene. Essendo una delle prime aziende a pubblicare i Principi dell’AI, Google continua a impegnarsi per un approccio responsabile all’AI. Impariamo continuamente a comprendere i rischi emergenti e allo stesso tempo a innovare con coraggio”.

“Ho cambiato improvvisamente opinione sul fatto che queste cose saranno più intelligenti di noi”

Appena quattro giorni prima dell’annuncio del suo abbandono di Google, Hinton aveva rilasciato un’intervista alla testata MIT Technology Review, nella quale si diceva “stupito dalle capacità dei grandi modelli linguistici, come GPT-4”, e di voler sensibilizzare l’opinione pubblica sui gravi rischi che, secondo lui, potrebbero accompagnare la tecnologia da lui stesso inventata.

Hinton ha dichiarato che vuole dedicare il suo tempo a quello che descrive come “lavoro più filosofico”. Ovvero, concentrarsi sul rischio, piccolo ma per lui molto reale, che l’intelligenza artificiale si riveli un disastro. Lasciando Google sarà libero di dire quello che pensa, senza l’autocensura che un dirigente di Google deve osservare.

Questo non significa che Hinton non sia soddisfatto di Google. “Potrebbe sorprendervi”, ha dichiarato a MIT, “ci sono molte cose positive su Google che voglio dire, e sono molto più credibili se non sono più in Google”.

Cosa preoccupa tanto Hinton, al punto da indurlo a lasciare l’azienda a cui ha dedicato dieci anni della propria esistenza? La nuova generazione di modelli linguistici di grandi dimensioni – in particolare GPT-4, che OpenAI ha rilasciato a marzo 2023 – gli ha fatto capire che le macchine sono sulla buona strada per diventare molto più intelligenti di quanto pensasse. Ed è spaventato da come ciò potrebbe accadere. “Queste cose sono totalmente diverse da noi”, ha dichiarato, “a volte penso che sia come se gli alieni fossero atterrati e la gente non se ne fosse accorta, perché parlano molto bene l’inglese”.

Uno dei laureati che lavorava con Hinton agli LLM era Ilya Sutskever, che ha poi fondato OpenAI e ha guidato lo sviluppo di ChatGPT. “Abbiamo avuto i primi sentori che questa roba poteva essere straordinaria”, ha dichiarato Hinton. “Ma c’è voluto molto tempo per capire che, per essere valida, deve essere fatta su larga scala”. Negli anni ’80 le reti neurali erano uno scherzo; l’idea dominante all’epoca, nota come “AI simbolica”, era che l’intelligenza implicasse l’elaborazione di simboli, come parole o numeri. Hinton però non era convinto. Così ha lavorato sulle reti neurali, astrazioni software del cervello in cui i neuroni e le connessioni tra loro sono rappresentati da un codice. Cambiando il modo in cui i neuroni sono collegati – cambiando i numeri usati per rappresentarli – la rete neurale può essere ricablata. In altre parole, si può fare in modo che impari.

“Mio padre era un biologo, quindi pensavo in termini biologici”, ha dichiarato Hinton al MIT. “E il ragionamento simbolico non è chiaramente al centro dell’intelligenza biologica. I corvi possono risolvere enigmi e non hanno un linguaggio. Non lo fanno memorizzando stringhe di simboli e manipolandole. Lo fanno cambiando la forza delle connessioni tra i neuroni del loro cervello. Quindi deve essere possibile imparare cose complicate cambiando la forza delle connessioni in una rete neurale artificiale”.

Video: Geoffrey Hinton parla della “minaccia esistenziale” dell’AI in occasione di EM Tech il 3 maggio 2023

Il vantaggio dell’essere umano svanisce

Così, per quarant’anni Hinton ha visto le reti neurali artificiali come un semplice tentativo di imitare quelle biologiche. Ora pensa che le cose siano cambiate: nel tentativo di imitare ciò che fanno i cervelli biologici, secondo lui, abbiamo trovato qualcosa di meglio. “È spaventoso quando lo si vede”, dice. “È un capovolgimento improvviso”.

Come suggerisce il nome, i modelli linguistici di grandi dimensioni sono costituiti da reti neurali massicce con un gran numero di connessioni. Ma sono minuscoli rispetto al cervello. “Il nostro cervello ha 100mila miliardi di connessioni”, ha affermato Hinton. “I modelli linguistici di grandi dimensioni ne hanno fino a mezzo trilione, un trilione al massimo. Eppure, GPT-4 ne sa centinaia di volte di più di quanto ne sappia una persona. Quindi forse ha un algoritmo di apprendimento molto migliore del nostro”.

Rispetto ai cervelli, si ritiene che le reti neurali non siano in grado di apprendere: per addestrarle occorrono grandi quantità di dati e di energia. Il cervello, invece, apprende rapidamente nuove idee e competenze, utilizzando una frazione di energia rispetto alle reti neurali.

Se si confronta un modello linguistico di grandi dimensioni preaddestrato con un essere umano nella velocità di apprendimento di un compito come questo, il vantaggio dell’essere umano svanisce, ha affermato.

Allucinazioni? No, confabulazioni

E le “allucinazioni”? Hinton preferisce il termine “confabulazioni”, perché è quello più corretto in psicologia. Questi errori sono spesso visti come un difetto fatale della tecnologia. La tendenza a generarli rende i chatbot inaffidabili e, secondo molti, dimostra che questi modelli non hanno una vera comprensione di ciò che dicono.

Hinton ha una risposta anche per questo: dire stupidaggini è una caratteristica, non un difetto. “Le persone confabulano sempre”, dice. Le mezze verità e i dettagli ricordati male sono caratteristiche della conversazione umana: “La confabulazione è una firma della memoria umana. Questi modelli stanno facendo qualcosa proprio come le persone”.

Hinton teme che questi strumenti siano in grado di capire come manipolare o uccidere gli esseri umani che non sono preparati alla nuova tecnologia. “Ho cambiato improvvisamente opinione sul fatto che queste cose saranno più intelligenti di noi”, ha dichiarato. “Penso che ora ci siano molto vicini e che in futuro saranno molto più intelligenti di noi. Come faremo a sopravvivere a questo?”.

È particolarmente preoccupato che le persone possano sfruttare gli strumenti a cui lui stesso ha contribuito a dare vita per far pendere l’ago della bilancia verso alcune delle esperienze umane più importanti, in particolare le elezioni e le guerre. “Ecco un modo in cui tutto questo potrebbe andare storto”, dichiara.

Hinton, LeCun e Bengio, tre visioni differenti

Un altro grande obiettivo secondario sarebbe quello di creare più copie di se stessi. Vi sembra una buona idea?”, afferma Hinton. Forse no. Yann LeCun concorda con la premessa ma non condivide i timori di Hinton. “Non c’è dubbio che in futuro le macchine diventeranno più intelligenti degli esseri umani – in tutti i settori in cui gli esseri umani sono intelligenti”, afferma. “È una questione di quando e come, non di se”.

Ma il suo punto di vista sull’evoluzione della situazione è totalmente diverso da Hinton. “Credo che le macchine intelligenti inaugureranno un nuovo rinascimento per l’umanità, una nuova era di illuminazione”, afferma LeCun. “Sono completamente in disaccordo con l’idea che le macchine domineranno gli esseri umani semplicemente perché sono più intelligenti, per non dire che distruggeranno gli esseri umani”.

Yoshua Bengio, professore all’Università di Montreal e direttore scientifico del Montreal Institute for Learning Algorithms, si sente più agnostico. “Sento persone che denigrano queste paure, ma non vedo alcuna argomentazione solida che mi convinca che non ci siano rischi della portata a cui pensa Geoff”, dice. Ma la paura è utile solo se ci spinge all’azione, dice: “L’eccesso di paura può essere paralizzante, quindi dovremmo cercare di mantenere i dibattiti a un livello razionale”.

Hinton, l’ideatore dell’algoritmo back propagation

Hinton è noto soprattutto per un algoritmo chiamato back propagation, proposto per la prima volta negli anni ’80 insieme ad altri due ingegneri. Questa tecnica, che consente alle reti neurali artificiali di apprendere, è oggi alla base di quasi tutti i modelli di apprendimento automatico. In poche parole, la retropropagazione è un modo per regolare le connessioni tra i neuroni artificiali più volte, finché una rete neurale non produce l’output desiderato.

Hinton riteneva che la retropropagazione imitasse il modo in cui i cervelli biologici apprendono. Da allora ha cercato approssimazioni ancora migliori, ma non è mai riuscito a migliorarle.

“Nelle mie numerose discussioni con Geoff, io ero sempre il sostenitore della backpropagation e lui cercava sempre un’altra procedura di apprendimento, che riteneva più plausibile dal punto di vista biologico e forse un modello migliore di come funziona l’apprendimento nel cervello”, dice LeCun.

È stato solo negli anni 2010 che la potenza delle reti neurali addestrate tramite backpropagation ha avuto un vero impatto. Hinton ha dimostrato che la sua tecnica era migliore di qualsiasi altra per far sì che un computer identificasse gli oggetti nelle immagini. Inoltre, ha addestrato una rete neurale per prevedere le lettere successive in una frase, un precursore degli attuali modelli linguistici di grandi dimensioni.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4