Capire il funzionamento della mente è una delle sfide più complesse della scienza. Ma anche decifrare l’intelligenza artificiale non è semplice. Oggi, il paesaggio dell’AI è dominato dalle differenze rispetto al cervello umano: mentre un bambino impara a comunicare con poche risorse, i modelli linguistici richiedono potenza di calcolo massiccia, energia e grandi quantità di dati—spesso raccolti in modo controverso.
Eppure, le reti neurali artificiali restano ispirate al cervello. Sono composte da milioni di elementi – neuroni biologici per l’uomo, neuroni simulati per le macchine – e sono le uniche due entità in grado di produrre linguaggio in modo fluido e flessibile. Non sorprende quindi che neuroscienziati e psicologi stiano cercando di usare questi strumenti per penetrare i misteri della mente.
Indice degli argomenti:
Centaur: un modello AI per simulare il pensiero umano
Un recente studio pubblicato su Nature ha messo al centro un modello chiamato Centaur, una versione modificata di Llama 3.1, uno dei grandi modelli linguistici open source di Meta. Centaur è stato addestrato su dati provenienti da 160 esperimenti psicologici, che includevano compiti come la scelta di slot machine per massimizzare i premi o il ricordo di sequenze di lettere.
Il risultato? Centaur ha superato i modelli psicologici tradizionali – spesso basati su semplici equazioni matematiche – nella previsione del comportamento umano. Questo rappresenta un passo in avanti pratico: gli scienziati possono usare il modello per testare esperimenti in digitale prima di coinvolgere persone reali. Ma l’obiettivo più ambizioso è un altro: analizzando i meccanismi interni di Centaur, i ricercatori sperano di sviluppare nuove teorie sulla mente.

AI e mente umana: imitare non significa capire
Non tutti, però, sono convinti. Alcuni psicologi, come Olivia Guest dell’Università Radboud, sottolineano che un modello con miliardi di parametri può imitare il comportamento umano, ma ciò non significa che pensi come un essere umano. Guest paragona Centaur a una calcolatrice: capace di replicare le risposte di un matematico, ma del tutto diversa nei processi interni. “Non so cosa si possa imparare sull’addizione umana studiando una calcolatrice”, osserva.
Inoltre, anche se Centaur racchiude informazioni preziose, estrarle è tutt’altro che semplice. La complessità interna del modello – con milioni di neuroni artificiali – resta in gran parte una “scatola nera”, difficile da decifrare persino per gli stessi esperti di AI.
Piccoli modelli, grandi intuizioni
Per ovviare a questi limiti, un secondo studio pubblicato su Nature ha adottato un approccio radicalmente diverso: usare micro-reti neurali, alcune composte da un solo neurone artificiale. Questi modelli ridotti riescono comunque a prevedere il comportamento di topi, ratti, scimmie e persino esseri umani in specifici esperimenti.

La forza di queste micro-reti sta nella loro trasparenza. Tracciando l’attività di ogni singolo neurone, i ricercatori possono osservare il processo che porta alla previsione comportamentale. Questo consente di generare ipotesi testabili sulla cognizione animale e umana – anche se non è detto che le reti funzionino come i cervelli che cercano di imitare.
Il dilemma tra accuratezza e comprensibilità
C’è però un prezzo da pagare: ciascun modello piccolo può essere addestrato solo su un compito specifico. Se il comportamento da prevedere è complesso, servono reti più grandi – come Centaur – che però diventano opache. “Il compromesso è che, più il modello è comprensibile, meno è potente; più è potente, meno lo capiamo”, spiega Marcelo Mattar, ricercatore alla NYU e autore di entrambi gli studi.
Questo dilemma è al centro della scienza moderna basata su reti neurali. Da un lato, modelli sempre più sofisticati ci permettono di fare previsioni accurate su comportamenti umani, sistemi climatici o proteine. Dall’altro, la nostra capacità di comprenderli davvero sembra rimanere indietro.
AI, specchio della mente umana?
Il campo della neuroscienza computazionale sta dunque esplorando due strade: costruire modelli AI simili al cervello, sperando di svelarne i segreti; oppure creare modelli minimi, meno performanti ma più interpretabili. In entrambi i casi, l’intelligenza artificiale diventa uno specchio nel quale osservare la mente umana – non per trovare risposte definitive, ma per formulare domande più profonde e nuove ipotesi.







