guida

Intelligenza artificiale e allucinazioni: guida pratica per non farsi ingannare dagli LLM



Indirizzo copiato

Cosa sono le “allucinazioni” dei grandi modelli linguistici? Come riconoscerle? Quando possiamo fidarci delle risposte? Il comportamento dei chatbot di AI generativa pone spesso questi interrogativi: cerchiamo di vederci chiaro

Pubblicato il 20 giu 2025



LLM allucinazioni

I modelli linguistici generativi, sempre più centrali nel lavoro giornalistico, accademico e istituzionale, sono strumenti potenti ma fallibili. Tra i rischi principali c’è la generazione di contenuti falsi ma credibili: le cosiddette allucinazioni. Analizziamo nel dettaglio le cause strutturali del fenomeno, mostriamo esempi reali che hanno avuto conseguenze concrete, e forniamo un metodo operativo per ridurre al minimo l’errore: dalla scrittura del prompt alla verifica incrociata. Perché oggi, più che sapere come funziona un LLM, è urgente sapere quando non fidarsi.

Cosa sono davvero le allucinazioni negli LLM

Il termine “allucinazione” riferito ai modelli di intelligenza artificiale descrive un comportamento anomalo, ma comune: la produzione di output coerenti nella forma, ma falsi o infondati nella sostanza. Un LLM, nel rispondere a un prompt, può generare contenuti non presenti nei dati di addestramento, inventare riferimenti bibliografici, confondere date e nomi, attribuire frasi a persone che non le hanno mai pronunciate. Il risultato appare corretto sul piano linguistico, ma è privo di ancoraggio alla realtà.

Il termine si applica anche ai sistemi di visione artificiale, dove un algoritmo può riconoscere erroneamente oggetti inesistenti, o assegnare etichette a elementi visivi impercettibili per l’essere umano.

Le allucinazioni, in entrambi i casi, nascono da una combinazione di fattori: l’enorme complessità dei modelli, la natura probabilistica del loro funzionamento e, spesso, la scarsa qualità o incompletezza dei dati su cui sono stati addestrati.

Google Cloud definisce le allucinazioni come risultati errati o fuorvianti prodotti dai modelli di AI, spesso dovuti a dati di addestramento insufficienti, ipotesi errate o pregiudizi impliciti nel dataset. In scenari critici come la sanità o il trading finanziario, anche un piccolo errore predittivo può avere conseguenze drammatiche. Le allucinazioni non derivano solo da lacune informative, ma anche dalla mancanza di una base solida di conoscenza sul mondo reale: i modelli, pur imparando pattern complessi, non comprendono concetti, leggi fisiche o nessi causali.

Perché accadono le allucinazioni negli LLM

Un LLM non possiede una rappresentazione del vero. Non consulta fonti, non verifica, non conosce. Opera in base a probabilità. Ogni risposta che genera è il risultato di una predizione statistica: data una sequenza di parole, qual è la parola più probabile che viene dopo? Il testo non viene “pensato” ma completato. Per rendere il meccanismo più comprensibile, immaginiamo di scrivere un prompt come: “Secondo uno studio pubblicato nel 2020 da…”. Il modello elabora il contesto e calcola la probabilità dei possibili token successivi. “Harvard” può risultare più probabile di “Zurigo”, e sarà selezionato.

Ma il modello non sa se lo studio esiste, né se Harvard l’abbia mai pubblicato. Sta solo scegliendo la continuazione più plausibile in base alle sue statistiche interne. Questo processo, ripetuto token dopo token, produce risposte intere che possono sembrare autorevoli ma essere del tutto infondate.

Come ha ben sintetizzato MIT Technology Review, i modelli linguistici sono più simili a una Magic 8 Ball che a un’enciclopedia. Sono addestrati per generare frasi plausibili, non per garantire verità. E in quanto sistemi statistici, ogni risposta è frutto di una distribuzione probabilistica: se oggi ci dicono “blu”, domani potrebbero dire “verde”. Non per malizia, ma per casualità.

Anche Giorgio Parisi, premio Nobel per la Fisica, ha messo in evidenza il limite strutturale degli LLM. In un test personale, ha “convinto” un’AI che 5 x 4 = 25, e ha mostrato come sia possibile manipolare un LLM anche su verità matematiche basilari. La ragione? L’AI non ragiona né comprende, ma imita.

A contribuire all’allucinazione intervengono anche l’overfitting, cioè quando il modello apprende troppo dai dati specifici a discapito della capacità di generalizzare, e la distorsione dei dati di addestramento. Un dataset parziale, squilibrato, rumoroso o culturalmente dominante porta il modello a completare le frasi con contenuti distorti. Altra fonte di errore sono gli attacchi avversari: manipolazioni minime degli input progettate per ingannare il modello, come accade nelle classificazioni visive alterate da pixel impercettibili o nei prompt testuali formulati per generare risposte fuorvianti. Inoltre, questi sistemi non sono dotati di un “meccanismo di disimpegno” simile a quello umano: non distinguono tra sovraccarico cognitivo e necessità di pausa. Questo li rende formalmente “sempre attivi”, ma anche incapaci di frenare la produzione di contenuti sbagliati.

AI allucinazioni

Le allucinazioni giurisprudenziali: il caso del Tribunale di Firenze

Un esempio particolarmente significativo di allucinazione ad alto rischio riguarda l’ambito giuridico. Il Tribunale di Firenze, sezione imprese, ha recentemente affrontato un caso emblematico: un avvocato aveva depositato in atti riferimenti a sentenze della Cassazione in tema di merce contraffatta. Tuttavia, quelle sentenze non esistevano. A generarle era stato ChatGPT, utilizzato da una collaboratrice dello studio legale per redigere parte del documento. Il collega avversario, accortosi dell’anomalia, ha chiesto la condanna dell’avvocato per abuso dello strumento processuale, poiché l’utilizzo di dati falsi avrebbe danneggiato la regolarità del procedimento. Il Tribunale ha rigettato l’istanza e ha precisato che il proprio giudizio non era stato influenzato dalle false sentenze, ma ha comunque censurato con fermezza la condotta omissiva del legale, colpevole di non aver verificato l’esistenza delle fonti prodotte. Nella sentenza i giudici definiscono il fenomeno come “allucinazione giurisprudenziale” e sottolinea i rischi connessi all’uso non vigilato dell’AI in ambito forense.

Una situazione che mette in luce una verità scomoda: l’AI può inventare riferimenti normativi e, se non controllata, indurre in errore anche professionisti esperti.

Come evitare (davvero) le allucinazioni degli LLM

Prevenire le allucinazioni nei modelli linguistici non è semplice, ma è possibile ridurne l’incidenza attraverso un approccio metodico. Il primo passo è la scrittura accurata del prompt: un prompt ben formulato riduce l’ambiguità e orienta il modello verso risposte più controllabili. Includere richieste esplicite come “cita solo fonti verificabili”, “indica le fonti” o “fornisci solo dati confermati” può aiutare. Tuttavia, ciò non garantisce che le risposte siano corrette: serve sempre una verifica a posteriori.

Una strategia efficace è il prompt grounding: integrare nel prompt contenuti reali (estratti da documenti, banche dati, articoli scientifici) su cui il modello deve basarsi per rispondere. Questo riduce l’autonomia creativa e migliora l’ancoraggio alla realtà. Framework come LangChain e sistemi integrati come quelli offerti da Vertex AI di Google Cloud adottano questo principio.

Saper riconoscere i segnali deboli delle allucinazioni

È essenziale abituarsi a riconoscere i segnali deboli dell’allucinazione: una risposta priva di riferimenti precisi, con citazioni vaghe o impossibili da rintracciare, è un primo indizio. A quel punto si deve procedere con verifica incrociata: cercare su motori affidabili, accedere alle fonti primarie, confrontare con database attendibili. Se il testo AI include numeri di sentenza, citazioni o date, questi devono essere cercati manualmente.

Un altro metodo consiste nell’effettuare una seconda interrogazione inversa: chiedere al modello “Sei sicuro di quanto hai detto?” oppure “Questa informazione può essere verificata? Forniscimi un link”. Le risposte incoerenti o l’ammissione implicita di incertezza sono segnali importanti. Infine, nelle produzioni professionali (articoli, relazioni, contenuti pubblici), è buona norma includere l’intervento umano nella catena di produzione: una revisione redazionale, una verifica esperta, una lettura comparativa con fonti terze. L’AI può essere un eccellente primo stadio, ma non deve mai essere l’ultimo filtro.

Antitrust vs DeepSeek: un caso esemplare

Il 16 giugno 2025, l’Autorità Garante della Concorrenza e del Mercato ha aperto un’istruttoria nei confronti della cinese DeepSeek, in cui ha accusato la società di non fornire informazioni adeguate sui rischi di allucinazione legati all’uso dei suoi modelli di intelligenza artificiale. Secondo l’Antitrust, DeepSeek avrebbe omesso nelle sue interfacce qualsiasi avvertimento chiaro e immediato sulla possibilità che l’utente riceva risposte fuorvianti, inesatte o inventate, note appunto come “allucinazioni”. L’unica avvertenza presente – “AI-generated, for reference only” – risulterebbe troppo generica e solo in lingua inglese, anche in sessioni in italiano. Nel procedimento si fa riferimento a un esempio concreto: una richiesta sulla strage di piazza Tiananmen riceve come risposta “Let’s talk about something else”, un comportamento che può simulare un bias sistemico o una forma di censura implicita.

Una pratica commerciale scorretta

Per l’Antitrust, l’insufficiente trasparenza può indurre gli utenti a fare scelte commerciali e informative non consapevoli, ed è una violazione del Codice del Consumo. La contestazione, quindi, non è solo tecnica ma anche giuridica: DeepSeek avrebbe messo in atto una pratica commerciale scorretta, con effetti potenzialmente gravi su un pubblico ignaro dei limiti del sistema. È un caso emblematico perché sottolinea come, oltre alla correttezza del modello, sia determinante anche l’architettura comunicativa delle piattaforme di AI: il modo in cui informano (o non informano) l’utente sui rischi che si corrono. Un’interfaccia opaca può amplificare l’effetto delle allucinazioni e ridurre la soglia di vigilanza critica.

Articoli correlati

Articolo 1 di 4