News

Perché i super esperti chiedono una pausa allo sviluppo dell’AI

In una “lettera aperta”, firmata tra gli altri da Elon Musk, Yoshua Bengio, Steve Wozniak, Emad Mostaque, Max Tegmark, Tristan Harris e Aza Raskin, si chiede alle aziende produttrici di soluzioni di AI generativa, prima fra tutte OpenAI, di sospendere gli aggiornamenti della tecnologia per almeno 6 mesi, per dare modo all’industria di “respirare”, senza svantaggiare le aziende che decidono di muoversi con cautela

Pubblicato il 29 Mar 2023

Sam Altman: dagli inizi al successo globale di ChatGPT

Una pausa nel troppo rapido sviluppo di nuovi strumenti di intelligenza artificiale. È quello che chiedono alcuni manager tecnologici e ricercatori nel campo dell’intelligenza artificiale, tra cui l’amministratore delegato di Tesla, Elon Musk, e Yoshua Bengio, direttore del Montreal Institute for Learning Algorithms dell’Università di Montreal. Secondo quest’ultimo, infatti, “Abbiamo raggiunto il punto in cui questi sistemi sono abbastanza intelligenti da poter essere utilizzati in modi pericolosi per la società. E non lo sappiamo ancora”. Le preoccupazioni e la richiesta di una pausa sono esposte in una lettera aperta intitolata “Pause Giant AI Experiments: An Open Letter”, coordinata dall’organizzazione no-profit Future of Life Institute, che annovera Musk tra i suoi consulenti esterni.

La lettera è stata firmata anche dal cofondatore di Apple, Steve Wozniak, dall’amministratore delegato di Stability AI, Emad Mostaque, e dai cofondatori del Center for Humane Technology, Tristan Harris e Aza Raskin, che criticano anche i social media.

La lettera non chiede di fermare tutto lo sviluppo dell’AI, ma esorta le aziende a interrompere temporaneamente l’addestramento di sistemi più potenti di GPT-4, rilasciato a marzo da OpenAI. Il riferimento è alla prossima generazione, GPT-5.

I manager di OpenAI affermano di non aver iniziato l’addestramento di GPT-5. In un’intervista, l’amministratore delegato dell’azienda, Sam Altman, ha dichiarato che ha da tempo dato priorità alla sicurezza nello sviluppo e ha trascorso più di sei mesi a eseguire test di sicurezza sul GPT-4 prima del suo lancio.

Se l’appello lanciato dagli organizzatori della lettera aperta dovesse essere accolto si registrerebbe una battuta d’arresto nel vorticoso evolversi delle soluzioni di AI generativa a cui abbiamo assistito negli ultimi mesi. Ma i pareri non sono unanimi.

Pareri discordanti sull’ulteriore sviluppo delle tecnologie di AI generativa

La richiesta di una pausa si scontra con il desiderio di aziende e startup tecnologiche di puntare sulla cosiddetta AI generativa, una tecnologia in grado di generare contenuti originali su richiesta umana.

Questo approccio ha suscitato nuove preoccupazioni sul fatto che una rapida diffusione potrebbe avere conseguenze indesiderate accanto a benefici reali. I progressi dell’AI hanno superato ciò che molti esperti ritenevano possibile solo pochi anni fa, ha dichiarato Max Tegmark, uno degli autori della lettera, presidente del Future of Life Institute e professore di fisica al Massachusetts Institute of Technology.

“È un errore inquadrare la questione come una corsa agli armamenti”, ha dichiarato Tegmark. “Si tratta piuttosto di una corsa al suicidio… Non è importante chi arriverà per primo. Significa solo che l’umanità nel suo complesso potrebbe perdere il controllo del proprio destino”.

Tegmark ha detto che molte aziende sentono “pressioni commerciali pazzesche” per aggiungere tecnologie avanzate di AI ai loro prodotti. Una pausa di sei mesi permetterebbe all’industria di “respirare”, senza svantaggiare quelle che decidono di muoversi con cautela.

Secondo la lettera, una pausa di almeno sei mesi dovrebbe essere dichiarata pubblicamente e verificabile, con la partecipazione di tutti gli attori chiave. “Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria”, si legge nella lettera.

I laboratori e gli esperti di AI possono utilizzare questo tempo per sviluppare una serie di regole di sicurezza condivise per la progettazione di AI avanzate, che dovrebbero essere controllate e supervisionate da esperti esterni, sostengono gli autori, aggiungendo: “Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri oltre ogni ragionevole dubbio”.

“Non credo che possiamo permetterci di andare avanti e fare danni”, ha dichiarato Bengio, che ha vinto il premio Turing 2018 per aver inventato i sistemi su cui si basa la moderna AI. “Dobbiamo prenderci del tempo per riflettere collettivamente”.

Il Future of Life Institute ha iniziato a lavorare alla lettera la settimana scorsa e inizialmente ha permesso a chiunque di firmare senza verificare l’identità. A un certo punto, il nome di Altman è stato aggiunto alla lettera, ma poi è stato rimosso. Ma Altman ha dichiarato di non aver mai firmato quella lettera.

Musk e Wozniak si dicono “preoccupati” per lo sviluppo della tecnologia AI

Sia Musk che Wozniak hanno espresso preoccupazione per la tecnologia AI. Musk, che è stato tra i primi fondatori e finanziatori di OpenAI, ha dichiarato su Twitter: “Ci sono seri problemi di rischio legati all’AI”.

Anche se, allo stesso tempo, ha adottato strumenti di intelligenza artificiale in Tesla per le funzioni avanzate di assistenza alla guida dell’azienda.

lettera aperta AI

Yann LeCun, Chief AI Scientist di Meta Platforms Inc., ha twittato di non aver firmato la lettera perché in disaccordo con le sue premesse.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3