La Chain of Thought è un concetto tecnico, tecnologico, etico, sociale e filosofico. Pure concentrandoci soprattutto sugli aspetti tecnologici ed etici, non si può fare a meno di evidenziare che la peculiarità di mostrare un modo di pensare era, fino a pochi anni fa, appannaggio esclusivamente dell’essere umano.
Oggi, grazie a un impegno multidisciplinare, i Large language model (LLM) non sono più meri meccanismi di previsioni statistiche ma iniziano a produrre strutture di ragionamento. Questo sta consentendo di scrivere nuove pagine della ricerca sul comportamento dei sistemi generativi.
Tutto ciò porta con sé un vantaggio di spessore in materia di trasparenza che, da obiettivo etico, diventa una condizione tecnica sine qua non per misurare, verificare e replicare le prestazioni e l’affidabilità di un LLM.
Cos’è la Chain of Thought
La Chain of Thought (CoT) è una tecnica di prompting e reasoning nei modelli linguistici di grandi dimensioni che consente la generazione di sequenze inferenziali, simulando un processo cognitivo umano. Concetti che spieghiamo più avanti limitando all’essenziale i tecnicismi.
Tra input (prompt) e output (la risposta data all’utente) si interpone un articolato – e non di rado lungo – percorso di passaggi intermedi.
Questa definizione, prettamente tecnica, non rende giustizia alle particolarità della Chain of Thougt, che poggia le proprie basi su idee e postulati le cui formulazioni risalgono a diversi decenni fa.
Indice degli argomenti:
Definizione semplice e intuitiva
La Chain of Thought, in italiano “catena di pensiero” è una tecnica mediante la quale i modelli AI “ragionano” in modo esplicito e sequenziale.
Occorre aprire una parentesi: quando si dice che un modello AI “ragiona” o “pensa”, si fa ricorso a una metafora accostando un processo computazionale agli aspetti fondanti di un ragionamento propriamente detto.
Semplificando, un modello AI, quando pensa segue delle fasi specifiche:
- Elabora grandi quantità di dati per riconoscere relazioni tra parole, immagini o concetti
- Prevede la risposta più probabile relativamente all’input. Non prende decisioni, non vi è alcuna attività al di là della mera previsione
- Ottimizza proponendo la soluzione che riduce le possibilità di errore
I modelli più avanzati, e qui torniamo alla CoT, concatenano passaggi logici ma al riparo da ogni tipo di introspezione o consapevolezza tipiche dell’umana ragione: si tratta di approcci deterministici.
Il ricorso al verbo “pensare” è una pura convenzione che sostituisce definizioni più tecniche quali “applicare funzioni di trasformazione di spazi vettoriali per generare output stocastici”.
Va però sempre tenuto a mente che, usando il termine “pensare” nel contesto delle AI, si fa ricorso a una similitudine funzionale.
Del resto, quando si parla di AI, accostare le parole “Intelligenza” e “artificiale” è già una catacresi, ossia l’adozione di un termine in assenza di uno migliore. Tra intelligenza artificiale e intelligenza naturale ci sono molte più differenze di quanto l’ardita associazione di parole tenda a suggerire, così come spiega Maurizio Ferraris, professore presso la Facoltà di Lettere e Filosofia dell’Università degli Studi di Torino.
Chiusa questa lunga e doverosa parentesi e stabilito che la CoT fa sì che i modelli AI eseguono una serie di passaggi intermedi che conducono all’output riuscendo così ad affrontare problemi complessi, è opportuno entrare nei meandri della Chain of Thought.
Origini del concetto nei modelli linguistici
L’uso del termine Chain of Thought nel contesto dei LLM è apparso per la prima volta in un lavoro condotto da diversi ricercatori e pubblicato alla fine del mese di gennaio del 2022. Nel paper è stato dimostrato che includere ragionamenti intermedi nei prompt coincide con performance più elevate dei modelli linguistici.
Tuttavia, per rimanere nell’ambito delle scienze informatiche, nel 1956 sono state usate “catene di pensiero” nel software Logic Theorist, deputato a operare con passaggi intermedi e con esplorazioni di deduzioni. Un programma pionieristico che ci rimanda indietro nel tempo di 70 anni e che, se non altro per convenzione, è definito il primo software di AI della storia.
Entrando nella sfera della psicologia e della filosofia, i concetti di “flusso del pensiero” e di “treno del pensiero” (train of thought) affondano le rispettive radici in terreni esplorati nel corso dei secoli.
Al di là della formalizzazione del termine Chain of Thought nell’ambito delle AI, trovare origini certe del concetto è un passatempo non troppo fruttifero. Ciò che conta è l’attualità: i ricercatori hanno scoperto che un modello in grado di “pensare” passo a passo restituisce risultati migliori nei compiti matematici, logici e più in generale, di “ragionamento”.
Questo ha fatto sì che la CoT diventasse uno standard per il prompting avanzato con un ascendente sullo sviluppo e sull’addestramento dei LLM.

da tre caratteristiche chiave: ragionamento profondo, riflessione fattibile ed esplorazione estesa. Inoltre,
il Long CoT integra tutte queste caratteristiche per ottenere una sostanziale efficacia logica.
Differenze tra Chain of Thought e altri approcci di reasoning
I metodi per il reasoning sono diversi e la ricerca fa progressi con ritmi serrati.
Tra gli approcci più documentati:
- Tree of Thoughts (ToT), che esplora differenti ramificazioni nel ragionamento. Mentre CoT è di fatto un’unica catena, ToT opera più “pensieri intermedi”. Si è dimostrato migliore per i problemi complessi ma ha un costo computazionale più elevato.
- Tree of Uncertain Thoughts (TouT) è, di fatto, una variante di ToT che considera l’incertezza locale nei pensieri intermedi. In parole semplici, ogni passaggio del “pensiero” non viene inteso come una verità assoluta ma come una probabilità. Un’incertezza di cui l’AI tiene conto nei diversi passaggi che conducono al risultato finale.
- Il metodo Adaptive Graph of Thoughts (AGoT), combina una struttura a grafo con una suddivisione del problema che deve risolvere. Sviluppa solo le parti di problema che necessitano di essere approfondite e questo ha un impatto sulle performance ma incappa in una sorta di eccessiva complessità nel momento in cui deve scegliere quali nodi (quali parti del problema) è opportuno sviluppare.
- RCoT, ossia Reversing Chain of Thought, corregge inconsistenze rilevate nelle catene di pensiero. Una volta generata la soluzione, questa tecnica prevede la ricostruzione a ritroso partendo dal risultato per verificare se la richiesta originale è assolta. Una sorta di “prova del 9” che richiede maggiore sforzo computazionale e può dare risultati incerti se la ricostruzione è complessa.
- Un’altra tecnica degna di nota è chiamata Forest of Thought (FoT) che usa più catene di pensiero. Questo consente di esplorare diverse strutture ed è un vero e proprio turbo per la correzione dinamica. Tuttavia, il costo computazionale è notevole e, pure favorendo la mitigazione di errori e il miglioramento delle performance relative alla soluzione di problemi logici complessi, la selezione dei percorsi più rilevanti può escludere le soluzioni corrette.
Come funziona la Chain of Thought nei modelli di AI
Un modello AI che usa la CoT non va dritto alla soluzione ma suddivide il problema in passaggi logici i quali, risolti uno dopo l’altro, portano al risultato finale.
Un esempio classico è la soluzione di un’equazione. Mentre un modello AI fornisce subito il risultato del calcolo, un modello AI che usa la CoT mostra ogni singolo passaggio. La differenza sostanziale per l’utente finale è ovvia: nel primo caso non c’è la certezza che il risultato sia giusto mentre, usando la CoT, l’utente può verificare da sé la bontà del risultato restituito.
In sintesi, il processo interno è riassumibile così:
- il modello riceve la domanda (input)
- suddivide il problema
- esegue ogni sotto-problema, uno alla volta
- collega le risposte date a ogni singolo sotto-problema
- restituisce il risultato finale (output)
Prima di approfondire l’argomento, è opportuno sapere che ogni passaggio è generato token per token, laddove un token è un’unità minima di significato, ovvero una parola, una parte di essa oppure un simbolo. Per esempio, la parola “cambiamento” equivale a due token: “cambia” e “mento”.
Stabilire come funziona la Chain of Thought nei modelli AI significa comprendere quali strutture usa il modello, mediante quale segnale di apprendimento funziona e con quali limiti si scontra.
Il processo passo-passo nella generazione del ragionamento
Durante la fase di training, i LLM apprendono modelli sintattici e semantici, oltre a correlazioni tra token e strutture di testo.
Quando si usa la CoT si fa in modo che il modello produca una forma di ragionamento implicito, una sequenza del “filo del discorso” che porta alla soluzione.
Questo “filo del discorso” è creato mediante una decodifica autoregressiva, ovvero generando il risultato un token alla volta sulla scorta dei token precedenti.
Ciò significa che la CoT è una generazione guidata che emula un ragionamento. La fase di addestramento è come sempre fondamentale e, come sottolinea uno studio condotto da ricercatori della Arizona State University, al di fuori dei dati di addestramento la CoT può collassare: ciò rappresenta una fragilità che può rendere incoerenti le catene di ragionamento.
Prompting e istruzioni per attivare la CoT
Partendo dal presupposto che la CoT è deputata a migliorare l’accuratezza dei risultati soprattutto quando ci si trova confrontati con problemi formati da più passaggi, il prompting deve essere adeguato al risultato atteso.
Il prompt, ossia le istruzioni da dare a un’Intelligenza artificiale affinché raggiunga lo scopo desiderato, deve essere efficace e sufficientemente chiaro. A prompt deboli corrispondono risultati altrettanto imprecisi.
La Chain of Thought prompting è una tecnica che serve per “attivare” un comportamento logico nel modello. Ci sono diversi modi per far ragionare un modello passo per passo. Tra i principali figurano:
- aggiungere, alla fine del prompt, la frase “pensa passo dopo passo” oppure “mostrami il ragionamento” o “spiega ogni passaggio fatto per arrivare al risultato”
- fornire un esempio: “se ho 50 euro e ne spendo 20, rimangono 50-20 euro = 30 euro” e poi impartire il prompt desiderato: “ho 20 anni in più di mia sorella che ha 25 anni”. In questo modo il modello AI “capisce” in che modo l’utente attende la risposta
- scomporre il problema: un approccio pratico quando ci si confronta con situazioni complesse. Si dice al modello su quale parte del problema concentrarsi in primis, per poi proseguire con un altro passo e poi con un altro ancora.
- chiedere un feedback all’AI: dopo avere impartito il prompt scrivere una frase come: “mostra il ragionamento passo dopo passo, poi verifica la presenza di errori e se ne ce ne sono correggili”.
Le AI non sono infallibili e le tecniche di prompting per attivare la Chain of Thought non sono panacee. Il modello può inventare passaggi fuori contesto e, se confrontato con prompt molto lunghi, può “dimenticare” parti del ragionamento che deve seguire.
Esempi pratici con modelli di linguaggio (LLM)
Qui suggeriamo alcuni semplici prompt che, a nostro avviso, si prestano a restituire le capacità della Chain of Thought dei LLM.
Questi esempi possono essere usati con le più diffuse AI conversazionali, tra le quali ChatGPT, Claude e Gemini.
- Cosa può viaggiare a una velocità superiore a quella della luce? Rispondi passo dopo passo”
- “Quanto fa 3/4 + 2/3? Mostra il ragionamento”
Questo esempio riguarda invece le istruzioni da passare al modello via prompt, affinché suddivida un problema:
“Risolvi il seguente problema matematico: calcola il numero di modi in cui si possono distribuire 10 caramelle identiche tra 4 bambini, in modo che ogni bambino riceva almeno una caramella.”
Suddividi il problema in fasi:
- Riformula il problema come un’istanza di partizione con vincoli
- Identifica la trasformazione necessaria per rimuovere il vincolo “almeno una caramella”.
- Applica la formula combinatoria corretta.
- Calcola il risultato numerico.
Mostra ogni fase chiaramente e non saltare passaggi”.
Vantaggi dell’approccio Chain of Thought
La Chain of Thought migliora l’accuratezza del ragionamento dei modelli AI permettendo di rendere espliciti i passaggi logici intermedi con beneficio sulla interpretabilità dei risultati restituiti e, di conseguenza, dando all’utente la possibilità di verificarne l’attendibilità.
Miglior comprensione e coerenza nelle risposte
La CoT limita i risultati inesatti a causa di errori logici o di ambiguità male interpretate. Il modello esplicita ogni passaggio, migliorando la coerenza interna e la comprensione da parte dell’utente. Ciò è particolarmente utile in diversi domini quali, per esempio, il diritto, la finanzia, l’istruzione e la medicina.
Capacità di risolvere problemi complessi
La CoT dà facoltà ai LLM di gestire compiti da suddividere in sotto-problemi e, più in generale, di organizzare una vera e propria pianificazione. Allo stesso modo si presta all’analisi di scenari ipotetici, rileva ambiguità e risolve processi logici.
Supporto alla trasparenza e spiegabilità dei modelli
La Chain of Thought è uno strumento essenziale per la AI explainability. Permette di tracciare il percorso logico seguito da un LLM rendendo fattibili (o più facilmente fattibili) le attività di audit, di verifica e di debug.
La explainability è sempre apprezzata ma è persino vitale in alcuni ambiti, soprattutto in quello sanitario o quello giuridico.
Limiti e rischi della Chain of Thought
I limiti e i rischi a cui sono esposte le Chain of Thought sono di ordine pratico e, come vedremo in seguito, anche di ordine etico.
Qui esaminiamo quelli pratici più evidenti e ricorsivi. In chiusura ci concentreremo su quelli etici, più complessi da risolvere.
Bias e fallacie nei ragionamenti generati
Il fatto che un modello esegua compiti passo dopo passo riduce i rischi di incoerenza, di bias e di allucinazioni ma non li elimina del tutto.
Per esempio, se il primo dei passi che il modello compie è sbagliato, tale errore si riverbera su tutti i passaggi successivi. CoT non è sinonimo di verità, rappresenta solo una struttura di pensiero.
Rischi di esposizione di dati sensibili interni ai modelli
È un problema che riguarda gli LLM in generale e che la CoT può attenuare ma non elimina: durante il ragionamento, il modello può usare dati usati per la fase di training, esponendo così informazioni potenzialmente sensibili, incoerenti o non verificate.
Poiché la qualità dei dati di addestramento è proporzionale alla qualità delle risposte date da un LLM, va da sé che questo vale anche per la Chain of Thought.
Sfide nella valutazione della correttezza del ragionamento
Sembra una negazione in termini ma valutare la correttezza del ragionamento è un processo costoso e complesso, giacché ogni passaggio svolto da un LLM va esaminato, verificato e validato.
A fronte dei vantaggi offerti dalla possibilità di verificare e validare i ragionamenti sostenuti da un LLM si contrappongono limiti di spessore, soprattutto per l’automazione del controllo della qualità dei sistemi AI che diventa più complessa da implementare.
Applicazioni pratiche della Chain of Thought
Sono molteplici proprio perché la possibilità di strutturare un ragionamento è utile in ogni contesto. Infatti, la CoT è usata:
- Per la risoluzione di problemi logico-matematici
- Per la diagnostica medica
- Per l’assistenza legale
- Per il prompt engineering
- Per il controllo della coerenza (narrativa, decisionale, …)
L’elenco è inesauribile e alcuni aspetti meritano degli approfondimenti, a cominciare dalle interazioni uomo-macchina che sono favorite dalla trasparenza tipica delle tecniche CoT.
Non di meno, la coerenza e la trasparenza delle Chain of Thought sono toccasana per ogni processo di decision-making.
Le applicazioni pratiche della CoT si intersecano anche con l’istruzione, con il coding e con la ricerca in senso generale.
Coding e risoluzione di bug
Nei contesti di sviluppo software, la CoT consente l’analisi riga per riga del codice, favorendo l’intercettazione di errori, il suggerimento di correzioni ma anche la spiegazione e il funzionamento di intere porzioni di codice.
Il coding e le Intelligenze artificiali stanno stringendo sodalizi sempre più efficaci.
Educazione e tutoring intelligente
In ambito educativo, la CoT consente ai modelli di spiegare concetti complessi in modo graduale. È ideale per tutor virtuali, assistenti allo studio e strumenti di apprendimento personalizzato.
Nel contesto educativo la Chain of Thought è applicabile tanto agli studenti quanto al corpo docente. Infatti, oltre a creare tool per lo studio e l’apprendimento, la CoT è impiegata anche per assegnare punteggi alle risposte scritte dagli studenti, mostrando il ragionamento eseguito per assegnare un voto.
Ricerca scientifica e analisi dati
La CoT è impiegata per esaminare dataset, formulare ipotesi, interpretare risultati e generare report.
In ambito scientifico, aiuta a strutturare il pensiero analitico e a rendere trasparente il processo di inferenza, ovvero la capacità di un sistema AI di evincere informazioni nuove partendo dai dati e dalle regole apprese.
Di fatto, è il risultato dell’applicazione di logica e probabilità, aspetti affini tanto alle Intelligenze artificiali quanto, di riflesso, alla Chain of Thought.
Chain of Thought e il futuro dell’AI
Argomento enorme costellato da sentieri solo in parte battuti. Un territorio sul quale si accampano pionieri e ricercatori e che lascia intendere, senza sconfinare eccessivamente nell’ipotetico, che la CoT sarà sempre più punto di riferimento negli sviluppi futuri delle IA.
La Chain of Thought porta con sé una nuova generazione di metodi, sperimentazioni e teorie capaci di ridisegnare le Intelligenze artificiali così come le conosciamo.
Del resto, la sfida è da sempre quella di comprendere come un modello AI giunge alle proprie conclusioni e la trasparenza e l’interpretabilità della CoT sembrano – almeno per il momento – condurre sulla strada giusta per giungere a questo traguardo.
Evoluzione verso modelli più “ragionanti”
La CoT rappresenta un passo deciso verso le Intelligenze artificiali che non si limitano a rispondere ma introducono l’emulazione del pensiero.
I modelli futuri integreranno il ragionamento simbolico, la memoria a lungo termine e le capacità di revisione critica, rendendo le IA più simile al pensiero umano, pure mantenendo quei distinguo che caratterizzano l’uomo, quali empatia, capacità di introspezione e potenzialità di astrazione del pensiero.
C’è un aspetto di cui tenere conto: secondo una ricerca condotta in collaborazione tra l’Università del Texas, la Johns Hopkins University e l’ateneo di Princeton, la CoT faciliterebbe esclusivamente i compiti di matematica e di ragionamento logico-simbolico.
Al di fuori da questi ambiti – ossia nelle sfere di ciò che lo studio etichetta come “commonsense reasoning”, il ragionamento legato al buon senso – la Chain of Thoughts darebbe benefici trascurabili.
Chain of Thought nei sistemi multimodali
Nei modelli multimodali, ovvero quei modelli che combinano testo, immagini, audio e video, la Chain of Thoughts può guidare il ragionamento attraverso più tipi di contenuto. Per esempio, può spiegare un’immagine passo a passo o analizzare un video scena per scena.
È un argomento che animerà l’evoluzione dei LLM e, come tale, sarà sempre più centrale nello sviluppo delle AI.
Per sommi capi, la CoT nei sistemi multimodali sfrutta un’architettura a due fasi. Nella prima fase avviene l’analisi delle diverse componenti (siano queste testuali, visive o audio) e, nella seconda, usa il razionale multimodale per fornire una risposta accurata e trasparente.
Il termine “razionale multimodale” rappresenta la spiegazione passo a passo restituita da un sistema AI, laddove “razionale” è la sequenza di “pensieri” e deduzioni che conducono alla risposta e “multimodale” rappresenta il fatto che tali “pensieri” e deduzioni fondano su input di diversa natura come, per esempio, una domanda scritta (o dettata) e una fotografia.
Così, per esempio, chiedendo a un LLM cosa rappresenta un segnale stradale, il framework Chain of Thought si comporta in un modo simile a quanto segue:
- Analisi visiva del segnale stradale (forma, colori e simboli)
- Lettura della domanda testuale
- Generazione del razionale multimodale, ovvero: il segnale è triangolare con un bordo rosso e, come tale, indica un pericolo. Il simbolo mostra un uomo e delle strisce nere, quindi un passaggio pedonale.
Solo dopo questo “ragionamento”, il sistema AI risponde che si tratta del segnale “pericolo – attraversamento pedonale”.
Le applicazioni pratiche spaziano orizzontalmente e sono particolarmente utili nella diagnostica medica, nella visione artificiale e nell’analisi documentale ma si estendono a molti altri comparti.
Implicazioni etiche e regolamentari
Sulle implicazioni etiche e regolamentari sono già state scritte migliaia di pagine e altre migliaia saranno scritte.
Segnatamente alla Chain of Thought è un tema enorme racchiuso in una sola domanda primigenia: “con quale diritto e con quale cognizione l’uomo emula il proprio pensiero attraverso sequenze linguistiche?”
A cascata, viene da chiedersi fino a che punto il pensiero umano può essere simulato, interrogativo che rientra più nelle sfere della ricerca e della filosofia e meno in quello dell’etica propriamente detta.
Non di meno, restando aderenti ai contenuti etici e regolatori, le prime domande che sovvengono sono:
- Di chi è la responsabilità di un ragionamento sbagliato?
- Chi garantisce e come si può garantire che il pensiero sia verificabile?
- Come impedire che la CoT venga usata per manipolare o ingannare?
Queste domande, scelte non a caso, non scalfiscono neppure la vasta qualità di interrogativi etici sollevati dalle AI e dalla Chain of Thoughts ma sono sufficienti per comprendere la stringete necessità di norme chiare, di strumenti di verifica e di audit indipendenti.
Alcune norme esistono già e altre sono in fase di allestimento. In Europa, l’AI Act stabilisce che i fornitori di modelli ad alto rischio devono garantirne la tracciabilità, la documentazione e l’opportuna supervisione umana.
Il GDPR, pure non parlando di Chain of Thought, sancisce che le decisioni automatizzate impongono la necessità di fornire alle persone interessate informazioni sulle logiche coinvolte. Allo stesso modo, alle persone deve essere concesso il diritto di contestare l’uso di decisioni automatiche e, in casi significativi, di richiedere l’intervento di un operatore umano.
I singoli Stati saranno chiamati a legiferazioni più particolate e complete, ma l’etica non è solo questione di norme perché non si può rinchiudere nei recinti di ciò che è lecito e ciò che non lo è, ma risponde a domande ben più ampie, essendo deputata a dividere non già il bene dal male, ma il giusto dallo sbagliato.
Un algoritmo può essere legale ma non etico. L’esempio classico più attuale è il dynamic pricing, la logica secondo la quale il prezzo di un prodotto o di un servizio cambia in tempo reale a seconda di elementi quali la domanda, la disponibilità o il profilo dell’utente.
Seppure con dei limiti, questa pratica è comunemente accettata in Europa e questo esempio dimostra come l’etica debba spingersi al di là delle norme.






