L’intelletto umano si fonda su tre pilastri fondamentali: vedere, cioè osservare il mondo; fare, intervenire su di esso; e immaginare, ovvero simulare ciò che potrebbe accadere in base a diverse scelte.
Oggi l’intelligenza artificiale occupa solo uno di questi pilastri: quello dell’osservazione.
L’espansione dei modelli di frontiera già esistenti non risolverà questo limite. La svolta che ha dato origine all’attuale entusiasmo per l’AI è stata l’architettura transformer, sviluppata da Google e poi ampliata nei grandi modelli linguistici addestrati su gran parte di internet pubblico per generare testi e codice. Successivamente sono arrivati gli agenti, che collegano questi modelli in flussi di lavoro automatizzati.
Indice degli argomenti:
Dai modelli linguistici ai “world model”
L’attenzione si sta ora spostando sui cosiddetti world model, sistemi che cercano di rappresentare l’ambiente fisico utilizzando enormi flussi di video e altri dati.
Si tratta di un’evoluzione importante rispetto ai grandi modelli linguistici. Questa forma di “intelligenza spaziale” viene già impiegata nello sviluppo di tecnologie come le auto senza conducente o i robot nelle fabbriche.
Tuttavia, questi sistemi non comprendono davvero il mondo che registrano. Piuttosto, lo imitano ricostruendolo oggetto tridimensionale dopo oggetto tridimensionale. In questo processo rischiano di confondere coincidenze con cause reali.
Il risultato è che possono agire senza essere in grado di spiegare il perché delle loro decisioni, ottimizzare processi senza capire cosa succederebbe se le condizioni cambiassero e produrre errori con grande sicurezza. In settori critici come sanità, reti energetiche o, peggio, armi autonome, le conseguenze potrebbero non essere solo imbarazzanti, ma anche letali.
L’intuizione di Alan Turing
Già decenni fa Alan Turing sosteneva che una macchina veramente intelligente avrebbe dovuto imparare dall’esperienza.
Non limitarsi a osservare passivamente, ma agire, apprendere dalle conseguenze delle proprie azioni e porsi la domanda fondamentale: “cosa succederebbe se?”
Per addestrare una macchina a ragionare in questo modo servirà qualcosa di nuovo: un modello causale del mondo, una sorta di mappa interna capace di descrivere non solo come appare una parte della realtà, ma come funziona davvero.
La scienza della causalità
Negli ultimi vent’anni un piccolo gruppo di scienziati ha sviluppato un vero e proprio linguaggio matematico della causa e dell’effetto.
Questo lavoro, reso popolare dal libro The Book of Why di Judea Pearl, spiega come distinguere correlazione e causalità, formalizzare gli interventi e generare controfattuali, cioè scenari alternativi che mostrano cosa sarebbe potuto accadere.
I modelli di AI attuali si basano principalmente sulle correlazioni tra variabili. Questo approccio funziona bene nelle situazioni predittive dove il riconoscimento di pattern è sufficiente. Ma non basta per affrontare le sfide più importanti del nostro secolo.
Perché servono modelli causali
Pensiamo alla pianificazione dell’adattamento climatico nelle grandi metropoli. Qui è necessario porsi domande su eventi estremi che non si sono ancora verificati e che potrebbero anche non verificarsi mai.
La vera scoperta scientifica richiede modelli capaci di generalizzare, seguire le regole causali di un sistema e generare scenari realistici. Non basta estrapolare dai dati esistenti o automatizzare processi già noti.
Un esempio è quello delle reti biologiche complesse. Per sviluppare nuovi bioprodotti utili alla transizione energetica o per curare malattie complesse bisogna capire come interagiscono microbi del suolo, genetica delle piante, acqua, nutrienti, parassiti e condizioni meteorologiche. In altre parole, occorre capire chi influenza cosa, quando e dove.
Una scelta per il futuro dell’AI
Il mondo si trova oggi davanti a un bivio: da una parte può continuare a investire enormi risorse nella costruzione di infrastrutture gigantesche per alimentare i modelli di AI esistenti. Dall’altra può dedicare parte di questi sforzi allo sviluppo di sistemi capaci di comprendere davvero il funzionamento del mondo e di modificarlo consapevolmente.
Un vantaggio anche per energia e risorse
I modelli causali potrebbero portare anche benefici inattesi. L’approccio attuale, basato sulla ricerca brute-force tra trilioni di correlazioni possibili, richiede quantità enormi di dati, energia, emissioni e investimenti.
Al contrario, i modelli causali sono più parsimoniosi per progettazione. L’addestramento e l’inferenza potrebbero diventare molto più efficienti perché la macchina non cercherebbe alla cieca tra i dati, ma seguirebbe linee di causalità significative entro i vincoli delle leggi fisiche.
Implicazioni per scienza e tecnologia
L’introduzione della causalità nell’intelligenza artificiale potrebbe cambiare profondamente il modo in cui le macchine contribuiscono alla scoperta scientifica.
Ad esempio:
- medicina: capire quali fattori causano una malattia e quali interventi la prevengono;
- energia e clima: simulare politiche ambientali e prevedere gli effetti delle emissioni;
- agricoltura: comprendere come interagiscono suolo, genetica delle piante, clima e nutrienti.
In questi ambiti, limitarsi a riconoscere pattern nei dati non è sufficiente. Servono modelli capaci di generalizzare e simulare scenari mai osservati prima.
Un vantaggio anche per efficienza e sostenibilità
Un altro aspetto riguarda i costi energetici dell’AI. I modelli più avanzati richiedono infrastrutture gigantesche e quantità enormi di energia per l’addestramento.
I sistemi basati su causalità potrebbero essere più efficienti, perché utilizzano strutture esplicite che rappresentano il funzionamento del mondo invece di cercare correlazioni tra miliardi di variabili. Ciò consentirebbe di ridurre dati, energia e potenza di calcolo necessari per ottenere risultati utili.
Senza una rivoluzione nel modo in cui le macchine comprendono cause ed effetti, l’attuale boom dell’intelligenza artificiale rischia di concludersi non con una nuova era di progresso, ma con una grande delusione tecnologica.







