ANALISI

Google AI Overview genera troppe “allucinazioni”, scatta l’allarme



Indirizzo copiato

Le “hallucinations” generate dai modelli di intelligenza artificiale di Google sollevano nuove preoccupazioni. Sebbene AI Overview prometta risposte più precise, spesso fornisce informazioni false, riducendo il numero di clic verso le fonti originali. Gli esperti avvertono che la situazione è in peggioramento

Pubblicato il 10 giu 2025



Fieg AI Overviews

Le risposte generate da AI Overview di Google, funzione progettata per fornire sintesi rapide dei risultati di ricerca, sono sempre più accusate di generare informazioni false. Questi errori, definiti “hallucinations” dagli esperti, vanno ben oltre la semplice imprecisione: possono confondere gli utenti, indirizzandoli lontano dalle fonti legittime e verificate.

Introdotto nell’estate 2024, AI Overview ha rapidamente guadagnato popolarità, utilizzando il modello di intelligenza artificiale Gemini di Google. Questo modello è una variante avanzata di un linguaggio naturale simile a ChatGPT, capace di generare risposte autonome in base ai dati provenienti dai risultati di ricerca di Google. Il problema, tuttavia, è che le risposte generate sono a volte “sbagliate con sicurezza”, come sottolineato dagli esperti, che mettono in evidenza l’affidabilità del sistema.

Google AI Overview e le allucinazioni: impatto sull’afflusso di traffico e la credibilità delle fonti

Laurence O’Toole, fondatore della tech company Authoritas, ha tracciato l’impatto delle AI Overviews, scoprendo che quando queste risposte appaiono in una ricerca, la percentuale di utenti che cliccano sugli articoli originali diminuisce significativamente: tra il 40% e il 60% in meno. Questo fenomeno sta riducendo l’interesse per i contenuti provenienti da editori legittimi, penalizzando la visibilità di articoli accurati e ben scritti.

Nonostante le critiche, Sundar Pichai, CEO di Alphabet (la casa madre di Google), ha difeso l’uso di AI Overview, affermando che il traffico verso una varietà più ampia di fonti e editori è aumentato. Ma questa giustificazione non basta a placare il crescente malcontento tra i professionisti dell’informazione.

Le “hallucinations”: creazione di fatti immaginari

Nel mondo dell’intelligenza artificiale, il termine “hallucination” si riferisce alla generazione di fatti o affermazioni che non hanno alcun fondamento nella realtà. Ad esempio, alcuni modelli di AI di Google hanno creato riferimenti a studi scientifici inesistenti, mentre altre risposte hanno incluso “fatti” inventati, come accaduto con il report della Trump administration “Make America Healthy Again”.

Nel mese di aprile, è emerso che l’AI di Google aveva difficoltà a distinguere tra modi di dire reali e falsificati. Un esempio celebre di “hallucination” fu quando il modello spiegò il significato dell’espressione “You can’t lick a badger twice”, descrivendola come un avvertimento che se qualcuno è stato ingannato, difficilmente cadrà nella stessa trappola due volte. Ovviamente, questa frase non è un detto riconosciuto.

OpenAI o3 o4-mini

Tecnologie emergenti e aumento degli errori

Nonostante i progressi tecnologici, il fenomeno delle allucinazioni sembra essere in crescita. I nuovi modelli di ragionamento sviluppati da aziende come OpenAI, i creatori di ChatGPT, sembrano produrre risposte errate con maggiore frequenza rispetto ai modelli precedenti. Un test interno condotto da OpenAI ha rivelato che il modello o3 generava risposte sbagliate nel 33% dei casi, mentre l’ultima versione, o4-mini, aveva un tasso di errore ancora più alto, pari al 48%.

La difesa di Google e la contraddizione nei dati

Quando i giornalisti hanno cercato di ottenere dati sulla frequenza delle “hallucinations” del modello AI di Google, l’anteprima della ricerca di Google ha promesso che i suoi modelli Gemini avevano “bassi tassi di allucinazioni”, citando percentuali che andavano dallo 0,7% all’1,3%. Tuttavia, un’analisi più approfondita ha rivelato che il tasso reale di errori del modello Gemini, secondo i dati di Hugging Face, era in realtà del 1,8%, più alto di quanto Google avesse dichiarato.

Questo contrasto tra le dichiarazioni di Google e i dati effettivi solleva interrogativi sulla trasparenza della compagnia riguardo ai limiti e alle problematiche della sua AI. Inoltre, Google sembra difendere a spada tratta la sua intelligenza artificiale, ad esempio rispondendo a domande sulla possibilità che l’AI “rubi arte” con affermazioni come “l’AI non ruba arte nel senso tradizionale”.

Conclusioni: l’AI di Google e la necessità di miglioramenti

Le allucinazioni generate dall’AI di Google rappresentano un problema serio per il futuro della ricerca online e della fruizione dei contenuti. Mentre l’azienda continua a promuovere le potenzialità del suo modello Gemini, il rischio di generare informazioni errate e di danneggiare l’affidabilità delle fonti originali è palpabile. Nonostante i progressi tecnologici, sembra che la strada per risolvere il problema delle “hallucinations” sia ancora lunga.

Articoli correlati