RICERCA

AI e mente umana: il nuovo confine della ricerca neuroscientifica



Indirizzo copiato

Gli scienziati stanno usando le reti neurali per prevedere il comportamento umano, con risultati promettenti ma controversi. Modelli come Centaur, basato su LLM, superano i modelli psicologici tradizionali in accuratezza, ma resta difficile capire se riflettano davvero il funzionamento della mente. Intanto, micro-reti neurali offrono ipotesi più interpretabili, ma limitate a singoli compiti

Pubblicato il 8 lug 2025



AI mente umana

Capire il funzionamento della mente è una delle sfide più complesse della scienza. Ma anche decifrare l’intelligenza artificiale non è semplice. Oggi, il paesaggio dell’AI è dominato dalle differenze rispetto al cervello umano: mentre un bambino impara a comunicare con poche risorse, i modelli linguistici richiedono potenza di calcolo massiccia, energia e grandi quantità di dati—spesso raccolti in modo controverso.

Eppure, le reti neurali artificiali restano ispirate al cervello. Sono composte da milioni di elementi – neuroni biologici per l’uomo, neuroni simulati per le macchine – e sono le uniche due entità in grado di produrre linguaggio in modo fluido e flessibile. Non sorprende quindi che neuroscienziati e psicologi stiano cercando di usare questi strumenti per penetrare i misteri della mente.


Centaur: un modello AI per simulare il pensiero umano

Un recente studio pubblicato su Nature ha messo al centro un modello chiamato Centaur, una versione modificata di Llama 3.1, uno dei grandi modelli linguistici open source di Meta. Centaur è stato addestrato su dati provenienti da 160 esperimenti psicologici, che includevano compiti come la scelta di slot machine per massimizzare i premi o il ricordo di sequenze di lettere.

Il risultato? Centaur ha superato i modelli psicologici tradizionali – spesso basati su semplici equazioni matematiche – nella previsione del comportamento umano. Questo rappresenta un passo in avanti pratico: gli scienziati possono usare il modello per testare esperimenti in digitale prima di coinvolgere persone reali. Ma l’obiettivo più ambizioso è un altro: analizzando i meccanismi interni di Centaur, i ricercatori sperano di sviluppare nuove teorie sulla mente.

AI mente umana
a, Psych-101 comprende dati trial-by-trial provenienti da 160 esperimenti psicologici con 60.092 partecipanti che hanno effettuato 10.681.650 scelte in totale e che coinvolgono 253.597.411 token di testo. Contiene domini quali banditi multi-braccio, processo decisionale, memoria, apprendimento supervisionato, processi decisionali di Markov e altri (gli esempi riportati sono stati stilizzati e abbreviati per facilitarne la lettura). b, Centaur è una base di modello di cognizione umana ottenuta aggiungendo adattatori di basso rango a un modello linguistico all’avanguardia e ottimizzandolo su Psych-101.


AI e mente umana: imitare non significa capire

Non tutti, però, sono convinti. Alcuni psicologi, come Olivia Guest dell’Università Radboud, sottolineano che un modello con miliardi di parametri può imitare il comportamento umano, ma ciò non significa che pensi come un essere umano. Guest paragona Centaur a una calcolatrice: capace di replicare le risposte di un matematico, ma del tutto diversa nei processi interni. “Non so cosa si possa imparare sull’addizione umana studiando una calcolatrice”, osserva.

Inoltre, anche se Centaur racchiude informazioni preziose, estrarle è tutt’altro che semplice. La complessità interna del modello – con milioni di neuroni artificiali – resta in gran parte una “scatola nera”, difficile da decifrare persino per gli stessi esperti di AI.


Piccoli modelli, grandi intuizioni

Per ovviare a questi limiti, un secondo studio pubblicato su Nature ha adottato un approccio radicalmente diverso: usare micro-reti neurali, alcune composte da un solo neurone artificiale. Questi modelli ridotti riescono comunque a prevedere il comportamento di topi, ratti, scimmie e persino esseri umani in specifici esperimenti.

AI mente umana
I modelli cognitivi e le reti neurali hanno architetture simili. Gli input (azione precedente a −1, stato st −1, ricompensa rt −1) aggiornano le variabili dinamiche d, che determinano l’output (probabilità di azione P(at)) tramite softmax. I modelli sono ottimizzati per prevedere le azioni osservate. b, Le unità nascoste calcolano le funzioni degli input e dello stato precedente h(t −1). In alto, d = 1. In basso, d = 2. c, Validazione incrociata nidificata. L’intero set di dati è suddiviso in dieci parti di prove consecutive. Ogni ciclo esterno utilizza una parte per il test e nove per il ciclo interno. Ogni ciclo interno utilizza una parte per la convalida (ad esempio, la regolazione degli iperparametri) e otto per l’addestramento. d, Strutture dei compiti: i soggetti scelgono l’azione A1 o A2 allo stato di scelta, passando a uno dei due stati di seconda fase, S1 o S2, che producono probabilisticamente una ricompensa. Le probabilità di ricompensa cambiano nel tempo. e, Prestazioni del modello (log-verosimiglianza negativa media delle prove convalidate incrociate; più basso è meglio) rispetto al numero di variabili dinamiche d. Marcatori identici all’interno di un grafico rappresentano diverse varianti di una classe di modelli. Le barre di errore rappresentano la s.e.m. su 10 cicli esterni, media calcolata sugli animali in ciascun compito. A sinistra, nel compito di apprendimento inverso con le scimmie (n = 2), la RNN a due unità ha ottenuto i risultati migliori. Al centro, nel compito in due fasi con ratti (n = 4), la RNN a due unità ha ottenuto risultati non significativamente peggiori rispetto al migliore. A destra, nel compito di transizione-inversione in due fasi con topi (n = 17), la RNN a quattro unità ha ottenuto i risultati migliori. f, Riproduzione RNN delle metriche comportamentali. A sinistra, probabilità di scegliere un’azione ad alta ricompensa prima dell’inversione (apprendimento inverso, d = 2 RNN), presentata come media ± intervallo di confidenza al 95% (su 190 blocchi da 2 scimmie). Al centro, probabilità di intraprendere la stessa azione (probabilità di permanenza) dopo ogni tipo di prova (compito in due fasi, d = 2 RNN). Transizione: C, comune; R, rara. n = 4. A destra, probabilità di permanenza (compito di transizione-inversione, d = d* GRU). n = 17. I grafici a scatola mostrano la mediana (linea centrale) e i percentili 25-75 (bordi della scatola), mentre i baffi si estendono fino a 1,5 volte l’intervallo interquartile; i punti rappresentano i valori anomali.

La forza di queste micro-reti sta nella loro trasparenza. Tracciando l’attività di ogni singolo neurone, i ricercatori possono osservare il processo che porta alla previsione comportamentale. Questo consente di generare ipotesi testabili sulla cognizione animale e umana – anche se non è detto che le reti funzionino come i cervelli che cercano di imitare.


Il dilemma tra accuratezza e comprensibilità

C’è però un prezzo da pagare: ciascun modello piccolo può essere addestrato solo su un compito specifico. Se il comportamento da prevedere è complesso, servono reti più grandi – come Centaur – che però diventano opache. “Il compromesso è che, più il modello è comprensibile, meno è potente; più è potente, meno lo capiamo”, spiega Marcelo Mattar, ricercatore alla NYU e autore di entrambi gli studi.

Questo dilemma è al centro della scienza moderna basata su reti neurali. Da un lato, modelli sempre più sofisticati ci permettono di fare previsioni accurate su comportamenti umani, sistemi climatici o proteine. Dall’altro, la nostra capacità di comprenderli davvero sembra rimanere indietro.


AI, specchio della mente umana?

Il campo della neuroscienza computazionale sta dunque esplorando due strade: costruire modelli AI simili al cervello, sperando di svelarne i segreti; oppure creare modelli minimi, meno performanti ma più interpretabili. In entrambi i casi, l’intelligenza artificiale diventa uno specchio nel quale osservare la mente umana – non per trovare risposte definitive, ma per formulare domande più profonde e nuove ipotesi.

Articoli correlati