tecnologia

Perché i chatbot AI “allucinano”: la nuova analisi di OpenAI



Indirizzo copiato

L’azienda che ha inventato ChatGPT ha pubblicato una ricerca che affronta una delle sfide più ostinate dell’intelligenza artificiale: le allucinazioni, ossia risposte false fornite con assoluta sicurezza. La causa principale, spiegano i ricercatori, è che i sistemi vengono addestrati e valutati in base a metriche che premiano il “tentare” piuttosto che l’ammettere di non sapere

Pubblicato il 8 set 2025



OpenAI allucinazioni

In un recente studio, i ricercatori di OpenAI (in collaborazione con Georgia Tech) affermano che i modelli linguistici generano affermazioni false con fiducia perché vengono addestrati con metriche che premiano l’“indovinare” piuttosto che l’ammettere di non sapere. Secondo loro, i modelli sono come gli studenti: rispondono sempre, anche se incerti, perché così ottengono punteggio.

Continua a leggere questo articolo

Articoli correlati