I modelli linguistici generativi, sempre più centrali nel lavoro giornalistico, accademico e istituzionale, sono strumenti potenti ma fallibili. Tra i rischi principali c’è la generazione di contenuti falsi ma credibili: le cosiddette allucinazioni. Analizziamo nel dettaglio le cause strutturali del fenomeno, mostriamo esempi reali che hanno avuto conseguenze concrete, e forniamo un metodo operativo per ridurre al minimo l’errore: dalla scrittura del prompt alla verifica incrociata. Perché oggi, più che sapere come funziona un LLM, è urgente sapere quando non fidarsi.
guida
Intelligenza artificiale e allucinazioni: guida pratica per non farsi ingannare dagli LLM
Cosa sono le “allucinazioni” dei grandi modelli linguistici? Come riconoscerle? Quando possiamo fidarci delle risposte? Il comportamento dei chatbot di AI generativa pone spesso questi interrogativi: cerchiamo di vederci chiaro

Continua a leggere questo articolo
Argomenti
Canali




