AI generativa: hype o inganno? Parlano alcuni scienziati informatici

Alla più importante manifestazione sull’intelligenza artificiale che si tiene in Europa si è molto discusso del chatbot di OpenAI. Molte sono state le voci fuori dal coro, che hanno criticato l’eccessivo entusiasmo che sta accompagnando l’exploit dell’AI generativa. Eccone alcune

Pubblicato il 14 Feb 2023

waicf
  • Il “guru” dell’intelligenza artificiale Yann LeCun afferma che i chatbot come ChatGPT sono semplicemente ”strumenti di digitazione, scrittura”.
  • Stuart Russell della UC Berkeley: “ChatGPT non sa nulla. È pura estrapolazione di sequenza”
  • Michael Kearns, dipartimento di Computer and Information Science dell’Università della Pennsylvania: ”ChatGPT, potrebbe rivelarsi un problema e rischia di perpetuare pregiudizi nel testo che genera”.

WAICF

ChatGPT è stato decisamente al centro della discussione al World Artificial Intelligence Cannes Festival (WAICF), che si è svolto dal 9 all’11 febbraio 2023.

Alcuni esperti, però, hanno messo in guardia sui potenziali impatti negativi del popolare chatbot conversazionale AI di

A cominciare da  Yann LeCun, inventore della rete neurale convolutiva, vincitore di un premio Turing, e scienziato AI di Meta.

Yann LeCun

ChatGPT ha affascinato milioni di persone in tutto il mondo, ma il chatbot di Openai, come altri strumenti simili, sono “in definitiva più efficaci come aiuto alla digitazione, alla scrittura”, ha detto LeCun.

WAICF ’23: parla Yann LeCun

In un keynote al WAICF, LeCun ha affermato che i modelli di intelligenza artificiale generativa come ChatGPT e Stable Diffusion sono ”molto impressionanti ma in qualche modo limitati”.

LeCun ritiene che tali strumenti di intelligenza artificiale generativa ”non funzionano così bene” e che i grandi modelli linguistici come quelli che alimentano ChatGPT non erano una novità, essendo in circolazione da anni prima che ChatGPT decollasse alla fine dello scorso anno.

Tali modelli, afferma LeCun, non hanno ”alcuna conoscenza del mondo che li circonda… Non sanno che il mondo esiste. E non hanno idea della realtà fisica. Non hanno alcun contesto e non riescono a trovare le loro risposte”.

LeCun ha paragonato strumenti come ChatGPT agli ADAS o ai sistemi avanzati di assistenza alla guida, che aiutano i conducenti a guidare in modo più sicuro.

LeCun ha infine predetto che dopo un periodo di eccitazione intorno a tali strumenti, c’è da aspettarsi un contraccolpo, dicendo: ”ci renderemo conto in cosa sono bravi e in cosa non sono bravi”.

Non solo ChatGPT, esistono anche gli strumenti text-to-video

Oltre a ChatGPT e alla generazione del linguaggio, LeCun ha parlato a lungo di altre capacità generative, inclusi strumenti text-to-video come Make-A-Video di Meta o il suo metodo di intelligenza artificiale generativa multimodale per generare illustrazioni fotorealistiche, Make-A-Scene.

Ha detto che i modelli di intelligenza artificiale generativa multimodale forniranno un vantaggio alle persone che vogliono essere creative ma mancano di competenze tecniche.

LeCun ritiene che strumenti come Make-a-video stanno ”facendo rapidi progressi” e saranno generalmente disponibili ”molto presto”.

L’Università di Berkeley boccia ChatGPT

Dal WAICF ’23 arriva un’altra voce scettica nei confronti di ChatGPT. Si tratta di quella del famoso professore di intelligenza artificiale Stuart Russell della UC Berkeley. “ChatGPT non sa nulla”, afferma Russell.

Stuart Russell

In realtà, questi chatbot sono proprio questo… chatbot. Sono incapaci di esibirsi al di fuori dei loro parametri prestabiliti e il pubblico è stato “ingannato” nel pensare che artisti del calibro di ChatGPT possano portare alla prossima evoluzione dell’AI.

”Se può contraddirsi su un semplice fatto che afferma con sicurezza e poi afferma il contrario una frase dopo, non sa nulla”, ha affermato Russell, che ha descritto ChatGPT come ”straordinariamente impressionante” nel generare testo, ma ha ricordato che può essere facilmente ingannato. A Cannes, il professore ha mostrato una serie di esempi di ChatGPT che si contraddice, tra cui l’insicurezza di quale animale sia più grande, un elefante o un gatto…

”È molto bravo a produrre testo coerente grammaticale e tematico purché non gli si chieda di andare troppo a lungo”, ha detto Russell.

Il professore di Berkeley ha anche dimostrato che i migliori sistemi di intelligenza artificiale progettati per giocare a Go e Chess possono essere sconfitti poiché l’AI può spesso produrre mosse illegali o mosse che non hanno senso. ”Si tratta semplicemente di estrapolare sequenze. Non è capire che ci sono regole, che c’è un tabellone, che ci sono pezzi, che stiamo cercando di dare scacco matto all’avversario, non capisce nulla di tutto questo”, ha detto.

”Non costruisce una teoria dello stato del mondo e non costruisce una teoria di come il mondo cambia con le azioni e così via. È pura estrapolazione di sequenza”, ha aggiunto Russell.

Durante il suo discorso, Russell ha detto che l’AGI potrebbe migliorare notevolmente gli standard di vita sulla Terra e che questi sistemi di uso generale porterebbero 13 dollari quadrilioni di valore attuale netto.

Michael Kearns lancia l’idea di dare “premi di pregiudizio”

WAICF
Michael Kearns

Al WAICF ’23 Michael Kearns, scienziato informatico e professore nel dipartimento di Computer and Information Science dell’Università della Pennsylvania, ha avvertito che raggiungere l’equità in modelli di apprendimento automatico complessi e non supervisionati, come ChatGPT, potrebbe rivelarsi un problema e rischia di perpetuare pregiudizi nel testo che genera.

Kearns ha proposto quindi un concetto per alleviare potenzialmente questo problema: i premi di pregiudizio.

”In termini semplici, è l’idea di crowdsourcing, l’identificazione del pregiudizio in modo da ottenere il più ampio pool di talenti e le più ampie prospettive sul pregiudizio”, ha affermato.

Ciò significa che ”apriresti il tuo modello commerciale tramite un’API alle comunità e le ricompenseresti per aver trovato pregiudizi nel tuo modello, che potrebbero essere pregiudizi molto ricchi o sottili. Potrebbero anche non corrispondere a semplici gruppi demografici”.

Kearns ha spiegato che l’idea dei premi di pregiudizio proviene dal mondo dei sistemi operativi, dove gli sviluppatori invitano le comunità a cercare di trovare problemi e aggirare il proprio sistema operativo.

A Kearns, che è anche un Amazon Scholar, si è aggiunto nella riflessione sull’aumento dei parametri di ChatGPT Diya Wynn, senior practice manager per l’intelligenza artificiale responsabile, le tecnologie emergenti e le piattaforme intelligenti di AWS.

Nozha Boujemaa, Ikea: con ChatGPT attenzione alle informazioni aziendali

Al WAICF ’23 Wynn ha detto che ChatGPT funge da promemoria dell’importanza della responsabilità all’inizio della creazione di un prodotto e durante la progettazione.

Nozha Boujemaa, vicepresidente globale di Ikea per l’etica digitale e l’AI responsabile, dal canto suo ha avvertito dei possibili rischi che potrebbero derivare dall’utilizzo quotidiano di strumenti come ChatGPT.

Boujemaa ha messo in guardia contro l’inserimento di informazioni aziendali o dati sensibili in chatbot come ChatGPT, nonché dati personali. Ha detto che ci sono opportunità di utilizzare strumenti basati su modelli per ottenere informazioni e Ikea stava investendo in modelli linguistici di grandi dimensioni molto prima che ChatGPT fosse annunciato per ”comprendere meglio le esigenze latenti dei clienti”.

Ma dal momento che Ikea sta sviluppando le proprie soluzioni, Boujemaa ha detto che la società può controllare i confini della tecnologia, cosa che attualmente non è possibile se implementa una soluzione esistente come ChatGPT. ”ChatGPT è il suo universo completo. Non vi è alcun controllo su ciò che sta accadendo e sul numero di dati degli utenti che limiteranno l’uso di tali modelli in un determinato contesto aziendale”, ha affermato.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4