Con l’acronimo AGI si indica l’Intelligenza Artificiale Generale, un concetto che da decenni accompagna lo studio dell’AI, con l’obiettivo di creare sistemi hardware e software in grado di emulare i processi cognitivi umani in modo flessibile e trasversale. Se, in origine, la ricerca su AGI era strettamente intrecciata a quella sull’intelligenza artificiale in generale, negli anni si è distinta dalla cosiddetta AI stretta (o debole), concentrata su compiti specifici. L’AGI mira a una capacità di apprendimento e ragionamento che non sia limitata a un dominio ristretto, ma estendibile a molteplici contesti.
Indice degli argomenti:
AGI: definizione e stato dell’arte
Definita anche come AI forte, l’AGI si differenzia dalle applicazioni di AI tradizionale proprio perché mira a riprodurre abilità cognitive generali, come il ragionamento, la pianificazione, l’adattamento a scenari complessi e la comprensione del linguaggio naturale in maniera dinamica. Non esiste ancora una definizione universalmente accettata, ma in termini ampi può essere descritta come “la capacità di un sistema intelligente di comprendere o apprendere qualsiasi compito intellettuale che un essere umano è in grado di svolgere”.
Dal 2023 in avanti, lo sviluppo di modelli multimodali avanzati (capaci di operare simultaneamente su testo, immagini, audio e video) ha accelerato la ricerca verso sistemi che si avvicinano, per alcune capacità, a un livello di generalizzazione superiore rispetto alle AI classiche. OpenAI, Google DeepMind, Anthropic e altri laboratori di ricerca hanno integrato architetture sempre più sofisticate, come le reti neurali a memoria estesa, che combinano ragionamento simbolico e apprendimento automatico, avvicinandosi a forme embrionali di intelligenza generale.
ligenza artificiale (AI) e delle scienze cognitive, essa è anche strettamente correlata ad altre aree come metalearning e neuroscienze computazionali.
Artificial General Intelligence Society, origine e obiettivi
Negli ultimi anni si sta facendo strada la tendenza ad ampliare il campo dell’AGI. Durante i primi anni 2000 l’interesse per i grandi obiettivi è iniziato a crescere in vari centri di ricerca in tutto il mondo, tra cui IDSIA in Svizzera, RPI e Carnegie Mellon negli Stati Uniti e molti altri. Dal 2017 oltre quaranta organizzazioni stanno attivamente cercando di sviluppare AGI.
Il fascino dell’AGI, e la volontà di perseguire questi grandi risultati, ha fatto sì che si creasse una Artificial General Intelligence Society, ossia una organizzazione senza scopo di lucro finalizzata al perseguimento dei seguenti obiettivi:
- promuovere lo studio dell’intelligenza artificiale generale (AGI) e la progettazione di sistemi AGI;
- facilitare la cooperazione e la comunicazione tra coloro che sono interessati allo studio e al proseguimento dell’AGI;
- tenere convegni e incontri per la comunicazione delle conoscenze sull’AGI;
- produrre pubblicazioni riguardanti la ricerca e sviluppo AGI;
- pubblicizzare e diffondere con altri mezzi conoscenze e opinioni riguardanti AGI.
Si tratta, sostanzialmente, di una ricerca che persegue il grande obiettivo di tenere vivo il sogno originario di una AI generale e autonoma. Lo sviluppo di un’autonoma comunità incentrata sull’AGI è stato un fenomeno che si è creato gradualmente e che, in gran parte, è coinciso con un aumento della legittimità accordata alla ricerca esplicitamente focalizzata sull’AGI all’interno della comunità AI nel suo complesso.
I ricercatori coinvolti nella comunità AGI hanno sviluppato i loro studi, progetti, ipotesi costruttive seguendo diverse direzioni, tra cui alcune costruendo architetture cognitive ispirate alla psicologia cognitiva e alla neurobiologia.
In alcuni casi si sono concentrati sulla derivazione di risultati matematici riguardanti la formalizzazione dell’intelligenza generale, creando correlazioni con l’informatica teorica e la teoria delle decisioni statistiche[2].
I nuovi attori e le scoperte recenti
Dal 2022 a oggi, i progressi sono stati significativi:
- OpenAI ha introdotto sistemi agentici integrati in ChatGPT (come gli Agent di luglio 2025), capaci di eseguire task complessi in autonomia, dalla navigazione web alla gestione di progetti multipiattaforma.
- Google DeepMind ha ampliato l’uso del modello Gemini 2 Ultra, considerato il più vicino a un prototipo di AGI grazie alla capacità di ragionare su compiti non visti e interconnettere conoscenze in contesti diversi.
- Anthropic ha annunciato nel 2024 il modello Claude 4, specializzato in ragionamento logico e problem solving, con prestazioni superiori su benchmark che richiedono astrazione.
- NVIDIA e IBM Research stanno sperimentando architetture neuromorfiche che simulano il funzionamento dei neuroni biologici, migliorando efficienza e capacità di apprendimento contestuale.
A partire dal 2025, si parla sempre più di Artificial General Agents (AGA), un’evoluzione concettuale dell’AGI che unisce competenze di ragionamento, azione autonoma e comprensione del mondo fisico attraverso interfacce robotiche. Alcuni esperimenti di Boston Dynamics e Sanctuary AI hanno mostrato robot capaci di apprendere nuove attività attraverso il solo “osservare” un video tutorial, senza pre-programmazione.
Ben Goertzel e l’ipotesi di AGI fondamentale
L’AGI si presta a diversi approcci architettonici, teorici, tecnici e ingegneristici e siamo ancora ben lontani da una unificazione teorica dell’intera AGI sotto un unico ampio concetto.

Si segnala, tuttavia, in questo senso, lo sforzo di Ben Goertzel, il quale ha articolato una prima e unitaria “ipotesi AGI fondamentale”, vale a dire che “la creazione e lo studio di intelligenze sintetiche con ambito sufficientemente ampio (ad esempio a livello umano) e forte capacità di generalizzazione, è in fondo qualitativamente diverso dalla creazione e lo studio di intelligenze sintetiche con un ambito significativamente più ristretto e una capacità di generalizzazione più debole.”
La cd. “ipotesi AGI fondamentale” si propone l’obiettivo di mettere d’accordo tutti i ricercatori della comunità, prescindendo dal loro intento di concettualizzare l’AGI in un settore piuttosto che in un altro.
Durante il Beneficial AGI Summit tenutosi a Panama il 27 febbraio 2024, Goertzel ha condiviso la convinzione che un prototipo embrionale di AGI — una sorta di “baby AGI” — avrebbe potuto emergere già entro l’inizio del 2025, grazie al progetto OpenCog Hyperon, un’architettura cognitiva open‑source con il potenziale per generare una vera generalizzazione. Secondo un’intervista di settembre 2024 su Cointelegraph, Goertzel ha affermato che l’attuale versione Alpha di Hyperon mostra già elementi di autocoscienza funzionale, ovvero un modello interno di sé e dei propri obiettivi, distinguendosi da AI conversazionali come ChatGPT. Nel dicembre 2024 Goertzel ha pubblicato su arXiv un lavoro intitolato “Metagoals Endowing Self‑Modifying AGI Systems…”, in cui propone obiettivi metacognitivi per garantire che sistemi AGI auto‑modificanti mantengano stabilità negli scopi — una riflessione avanzata sul self‑improvement sicuro.
Più di recente, nel giugno 2025, nell’intervista con crypto.news, Goertzel ha descritto la sua visione per SingularityNET e Hyperon: un sistema AGI decentralizzato, accessibile globalmente, con governance open‑source incentrata su infrastrutture blockchain e token ASI, mirato a una AGI benefica e democratica.
AGI intelligenza artificiale generale, i diversi approcci per la conferma
Al fine di comprendere e delineare il campo dell’AGI sono stati seguiti diversi approcci, in gran parte complementari, tutti volti a fornire in qualche modo una definizione chiara e universalmente accettata di AGI.

Il fatto che non esista un consenso univoco su di una definizione è un dato che va, tuttavia, esaminato parallelamente all’assenza di univocità di definizione presente anche per altri concetti, ad esempio quello di “intelligenza”. Su questo tema, si segnala, l’esperienza di Legg e Hutter che hanno scritto un documento in grado di riassumere e organizzare oltre 70 diverse definizioni pubblicate di “intelligenza”, la maggior parte orientate all’intelligenza generale, emanate da ricercatori in una varietà di discipline (Legg e Hutter, 2007).
Di seguito sono descritti quattro approcci chiave per concettualizzare la natura di GI e AGI intelligenza artificiale generale[3].
L’approccio pragmatico
Il presente approccio trae spunto da un articolo pubblicato su AI Magazine dal titolo: “Human Level Artificial Intelligence? Be Serious!”. L’articolo, scritto da Nils Nilsson, uno dei primi leader nel campo dell’AI, propone la seguente riflessione: “… che il raggiungimento di una vera intelligenza artificiale a livello umano implicherebbe necessariamente che la maggior parte dei compiti che gli esseri umani svolgono a pagamento potrebbero essere automatizzati. Piuttosto che lavorare verso questo obiettivo di automazione costruendo sistemi per scopi speciali, sostengo lo sviluppo di sistemi educabili per scopi generali che possono apprendere ed essere insegnati a svolgere uno qualsiasi delle migliaia di lavori che gli esseri umani possono svolgere. Unendomi ad altri che hanno fatto proposte simili, suggerisco di iniziare con un sistema che abbia capacità integrate minime, sebbene estese. Questi dovrebbero includere la capacità di migliorare attraverso l’apprendimento insieme a molte altre abilità”.
Il punto di partenza, nonché il riferimento costante della presente ricostruzione, resta l’essere umano: secondo il presente approccio è il confronto con le capacità umane che può farci capire se il sistema che stiamo esaminando possiede le caratteristiche di sistema generalmente intelligente.
L’approccio psicologico
Anche il presente approccio si concentra sull’intelligenza generale di tipo umano ma seguendo differenti modalità. In questo caso non viene dato rilievo alle capacità pratiche, quanto alle capacità sottostanti più profonde che abilitano queste capacità pratiche.
La caratteristica del presente approccio è che non tende ad una prospettiva unificata, bensì si concentra su di un’ampia gamma di approcci secondari.
I primi lavori sulla definizione e misurazione dell’intelligenza su cui poggia l’approccio psicologico sono pesantemente influenzati da Spearman, che nel 1904 propose il fattore psicologico g (il “fattore g”, per l’intelligenza generale).
Negli anni successivi, però, gli psicologi iniziarono a discostarsi da questo concetto di intelligenza come capacità unica e indifferenziata facendo emergere una serie di teorie, definizioni e approcci di misurazione alternativi, che condividono l’idea che l’intelligenza sia multiforme e variabile sia all’interno che tra gli individui.
Un esempio di tale varietà è rinvenibile nella teoria delle intelligenze multiple di Gardner, che propone otto distinte forme o tipi di intelligenza:
- linguistica
- logico-matematica
- musicale
- corporeo-cinestetica,
- spaziale,
- interpersonale
- intrapersonale
- naturalista.
L’approccio matematico
Questo tipo di formulazione dell’approccio all’intelligenza generale, a differenza dei precedenti, non pone alcun parallelismo con le competenze umane, prendendo come base per la propria elaborazione concetti ben diversi.
L’intuizione che è alla base del presente approccio si pone nell’ottica di definire l’intelligenza come la capacità media di ottenere una ricompensa di un sistema, calcolata facendo una media su tutti i possibili ambienti sommabili della ricompensa, in cui ogni ambiente è ponderato in modo tale che i programmi descrivibili in modo più compatto abbiano pesi maggiori.
Di seguito gli assunti del presente approccio:
- in verità, un’intelligenza assolutamente generale sarebbe ottenibile solo se avesse un’abilità computazionale infinita. Per qualsiasi sistema computabile, ci saranno alcuni contesti e obiettivi per i quali non è molto intelligente.
- tuttavia, alcuni sistemi computazionali finiti saranno più generalmente intelligenti di altri, ed è possibile quantificare questa misura
In conclusione, secondo questo tipo di misura, gli esseri umani non sono affatto vicini ad un sistema di intelligenza generale, essi al massimo, secondo gli assunti riportati, sono semplicemente definibili in generale più intelligenti di, ad esempio, rocce o vermi.
L’approccio adattativo

Alla base di questo approccio vi è in pensiero di Pei Wang, il quale ha sostenuto con attenzione una concezione dell’intelligenza generale come “adattamento all’ambiente utilizzando risorse limitate”. Secondo questo assunto l’intelligenza generale sarebbe strettamente legata all’ambiente in cui esiste. Ciò comporterebbe quale corollario il seguente ulteriore assunto che un sistema ha una maggiore intelligenza generale, se può adattarsi efficacemente a una classe più generale di ambienti, entro vincoli di risorse realistici.
AGI intelligenza artificiale generale, prospettive future
Il raggiungimento di risultati concreti in campo AGI è ancora una chimera alquanto lontana. Alle teorizzazioni sopra proposte ed esaminate non ha fatto seguito, ad oggi, la realizzazione di alcun prototipo in grado di ottenere il riconoscimento di un grado significativo di AGI. Ciò in quanto l’AGI è ancora in una fase di sviluppo relativamente recente. Ciò che si richiede, infatti, è la realizzazione di un sistema in grado di essere “flessibile” e “adattativo” al punto tale da emulare le dinamiche umane, ossia quelle che rendono l’essere umano in grado di agire in maniera “naturale” e di mettere in atto comportamenti che sono la sintesi di un proprio apprendimento.
Vi è, tuttavia, da rilevare che i ricercatori intenti a lavorare su AGI hanno una visione abbastanza ottimistica, prospettando, quanto alla tempistica, la realizzazione di una AGI a livello umano entro il 2050. Circa il contenuto, in molti sono propensi nel ritenere che i sistemi AGI probabilmente raggiungeranno l’abilità umana complessiva (definita come “capacità di svolgere la maggior parte delle professioni umane almeno così come un tipico”) intorno alla metà del 21° secolo.
Inevitabile, con l’avanzare di queste ipotesi, il sorgere di dubbi e preoccupazioni di natura etica. In particolare, la supposizione di associare all’evoluzione dello sviluppo dell’AGI, rischi esistenziali associati alla stessa.
Prospettive etiche e scenari futuri
Nel 2025 il dibattito sull’AGI non riguarda solo la tecnologia ma anche i rischi esistenziali e le regolamentazioni. L’Unione Europea ha incluso l’AGI nella AI Act con specifiche linee guida per controllarne lo sviluppo, imponendo trasparenza, auditabilità e misure anti-abuso. Alcuni ricercatori, come quelli del Future of Life Institute, hanno rinnovato gli avvertimenti sui possibili scenari critici legati a un’AGI incontrollata, suggerendo limiti operativi e “kill switch” obbligatori.
Molti esperti ritengono plausibile lo sviluppo di un sistema AGI capace di raggiungere la “parità cognitiva” con un umano medio entro il 2040-2050. Tuttavia, i risultati ottenuti finora sono ancora lontani dal concetto di coscienza o comprensione profonda: si tratta più di simulazioni avanzate di ragionamento che di vera intelligenza generale.
Note
- Hodson, Hal (1 March 2019). “DeepMind and Google: the battle to control artificial intelligence”. 1843. Archived from the original on 7 July 2020. Retrieved 7 July 2020. “AGI stands for Artificial General Intelligence, a hypothetical computer program…”. ↑
- Il lato matematico dell’AGI contemporaneo attinge pesantemente al lavoro fondamentale di Ray Solomonoff (1964) e di altri primi pionieri della teoria dell’intelligenza formale. ↑
- Le indicazioni sui differenti approcci e le informazioni riportate sono stratte dal sito di Scholapedia ↑






