tecnologia

OpenAI accelera sul “ricercatore automatizzato”: la sfida che può cambiare la scienza



Indirizzo copiato

L’azienda punta a sviluppare un ricercatore completamente autonomo, capace di risolvere problemi complessi senza intervento umano. Tra innovazioni tecnologiche, scadenze ambiziose e interrogativi etici, il progetto guidato da Jakub Pachocki potrebbe ridefinire il ruolo dell’intelligenza artificiale nella ricerca scientifica e trasformare profondamente economia, lavoro e governance globale

Pubblicato il 23 mar 2026



AI ricercatore

OpenAI sta ridefinendo le proprie priorità puntando su una sfida tecnologica senza precedenti: la creazione di un “AI ricercatore”, ovvero un sistema completamente automatizzato basato su agenti, capace di affrontare in autonomia problemi complessi e di larga scala.

L’azienda di San Francisco considera questo obiettivo la propria “stella polare” per i prossimi anni, un punto di riferimento capace di unificare diversi filoni di ricerca, dai modelli di ragionamento agli agenti autonomi, fino agli studi sull’interpretabilità. L’idea è costruire una macchina che non si limiti a rispondere a domande, ma che sia in grado di generare nuova conoscenza.


Una roadmap ambiziosa fino al 2028

Il progetto non è solo teorico, ma accompagnato da una roadmap precisa, come riportato per primo dal Wall Street Journal. Entro settembre, OpenAI prevede di sviluppare un “assistente di ricerca AI” autonomo, capace di gestire un numero limitato di problemi scientifici senza intervento umano diretto.

Questo sistema rappresenterà il primo passo verso una piattaforma più complessa: un sistema multi-agente completamente automatizzato, il cui debutto è previsto entro il 2028. Secondo l’azienda, questo “ricercatore artificiale” sarà in grado di affrontare problemi troppo complessi o vasti per essere gestiti dagli esseri umani.

Le applicazioni potenziali sono enormi: dalla matematica e fisica, con la generazione di nuove dimostrazioni e congetture, fino alle scienze della vita, come biologia e chimica, senza escludere ambiti come economia e politiche pubbliche.


Jakub Pachocki e la visione di OpenAI

Al centro di questa strategia c’è Jakub Pachocki, chief scientist di OpenAI, figura chiave nello sviluppo dei modelli più avanzati dell’azienda, tra cui GPT-4 e i modelli di ragionamento introdotti nel 2024.

Secondo Pachocki, siamo vicini a un punto di svolta: sistemi capaci di lavorare in modo coerente per lunghi periodi, analogamente agli esseri umani. In prospettiva, si potrebbe arrivare a veri e propri laboratori di ricerca interamente contenuti in data center, in cui l’AI svolge gran parte del lavoro scientifico.

Pur sottolineando l’importanza del controllo umano, Pachocki immagina un futuro in cui il contributo delle macchine sarà sempre più centrale nei processi di scoperta.


La competizione globale nell’AI

OpenAI non opera in isolamento. Negli ultimi anni ha guidato l’evoluzione dei modelli linguistici, influenzando tecnologie utilizzate quotidianamente da centinaia di milioni di persone. Tuttavia, la concorrenza si è intensificata.

Aziende come Anthropic e Google DeepMind stanno investendo in tecnologie simili, con obiettivi comparabili. Demis Hassabis, fondatore di DeepMind, ha più volte dichiarato che l’obiettivo è risolvere i problemi più difficili del mondo, mentre Dario Amodei, CEO di Anthropic, ha parlato della creazione di “un paese di geni” all’interno di un data center.

In questo contesto, le scelte strategiche di OpenAI assumono un peso decisivo non solo per l’azienda, ma per l’intero ecosistema tecnologico globale.


Codex: il primo passo verso l’autonomia

Uno degli strumenti chiave di questa evoluzione è Codex, un sistema basato su agenti capace di generare codice, analizzare documenti e automatizzare attività complesse.

Rilasciato a gennaio, Codex consente di eseguire operazioni in tempo reale su un computer, dalla creazione di grafici alla gestione di informazioni provenienti da email e social media. Secondo OpenAI, la maggior parte dei suoi tecnici utilizza già questo strumento nel lavoro quotidiano.

Per Pachocki, Codex rappresenta una versione embrionale dell’AI ricercatore: un sistema ancora limitato, ma destinato a migliorare rapidamente.


Verso sistemi sempre più autonomi

La vera sfida consiste nel creare sistemi capaci di operare per lunghi periodi senza supervisione umana. Questo richiede non solo maggiore potenza di calcolo, ma anche modelli più sofisticati.

Il passaggio da GPT-3 a GPT-4 ha già mostrato un salto significativo in termini di capacità di lavorare su problemi complessi per periodi più lunghi. I modelli di ragionamento hanno ulteriormente migliorato queste capacità, permettendo alle AI di affrontare problemi passo dopo passo, correggere errori e adattarsi a situazioni impreviste.

OpenAI sta inoltre addestrando i propri sistemi utilizzando compiti complessi, come enigmi matematici avanzati, per insegnare loro a gestire grandi quantità di informazioni e suddividere problemi in sottocompiti.


Dalla teoria alla pratica

L’obiettivo non è costruire sistemi che eccellano solo in contesti teorici, come le competizioni matematiche. Secondo Pachocki, questi test servono soprattutto a dimostrare che la tecnologia funziona, prima di applicarla al mondo reale.

Oggi l’attenzione è rivolta a problemi concreti, con l’obiettivo di trasferire le capacità dimostrate nel coding ad altri ambiti della conoscenza. In particolare, la programmazione rappresenta un banco di prova ideale: se un sistema può risolvere problemi complessi di codice, potrebbe potenzialmente affrontare qualsiasi tipo di problema strutturato.


I primi risultati concreti

Negli ultimi mesi, OpenAI ha registrato risultati significativi. I modelli più avanzati, come GPT-5, sono stati utilizzati per individuare nuove soluzioni a problemi matematici irrisolti e per superare ostacoli in ambiti come biologia, chimica e fisica.

Secondo Pachocki, il fatto che questi sistemi possano generare idee che richiederebbero settimane di lavoro a ricercatori umani suggerisce un’accelerazione imminente nella produzione di conoscenza scientifica.


Limiti e scetticismo

Nonostante i progressi, restano limiti importanti. Anche i modelli più avanzati possono commettere errori, soprattutto quando devono concatenare più operazioni complesse.

Doug Downey, ricercatore dell’Allen Institute for AI, sottolinea che la probabilità di errore aumenta quando i compiti vengono suddivisi in molte fasi consecutive. Sebbene riconosca i progressi, invita alla cautela, evidenziando che la costruzione di un ricercatore completamente autonomo potrebbe richiedere più tempo del previsto.


Rischi e sicurezza

La prospettiva di sistemi capaci di operare autonomamente solleva interrogativi cruciali. Tra i principali rischi vi sono comportamenti imprevisti, vulnerabilità a cyberattacchi e interpretazioni errate degli obiettivi assegnati.

Per affrontare queste sfide, OpenAI sta sviluppando tecniche di monitoraggio del ragionamento, note come chain-of-thought monitoring. Queste permettono di tracciare i passaggi logici seguiti dai modelli durante l’esecuzione dei compiti, offrendo maggiore trasparenza e controllo.


Potere, etica e governance

L’impatto di queste tecnologie potrebbe essere enorme. Secondo Pachocki, si tratta di una forma di potere estremamente concentrata e senza precedenti. In futuro, attività che oggi richiedono grandi organizzazioni potrebbero essere gestite da piccoli team supportati da AI avanzate.

Questo scenario pone sfide significative per governi e istituzioni, chiamati a definire regole e limiti per l’uso di queste tecnologie. Tuttavia, il dibattito è ancora aperto e manca un consenso globale su come regolamentare l’intelligenza artificiale.


Il ruolo dei governi

Il rapporto tra AI e governi è complesso. Da un lato, le istituzioni sono chiamate a regolamentare; dall’altro, sono anche tra i principali utilizzatori di queste tecnologie, ad esempio in ambito militare.

Le recenti tensioni tra aziende AI e istituzioni governative dimostrano quanto sia difficile stabilire confini chiari. Pachocki riconosce la responsabilità personale degli sviluppatori, ma sottolinea che una soluzione efficace richiederà il coinvolgimento di policymaker e attori globali.


Il futuro dell’intelligenza artificiale

OpenAI continua a perseguire la propria missione: garantire che le tecnologie di intelligenza artificiale avanzata portino benefici all’intera umanità. Tuttavia, il concetto di AGI (intelligenza artificiale generale) resta ancora sfumato.

Secondo Pachocki, entro il 2028 non esisteranno sistemi intelligenti quanto gli esseri umani in ogni ambito. Ma questo non è necessariamente un limite: anche sistemi parzialmente intelligenti potrebbero avere un impatto trasformativo su economia, scienza e società.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x