approfondimento

Deep Research di OpenAI: la system card



Indirizzo copiato

Basato su OpenAI o3, il modello si distingue in ricerche multi-step, analisi di testi, immagini e PDF, e nell’esecuzione di codice Python. Supera modelli precedenti in compiti di cybersicurezza e sintesi di informazioni. Nonostante i benefici in ambiti come ricerca accademica e analisi di mercato, solleva preoccupazioni su privacy, sicurezza dei dati e implicazioni etiche. Ecco una sintesi della “system card”

Pubblicato il 26 feb 2025



deep research system card

Secondo quanto riportato nel documento “Deep Research System Card” pubblicato da OpenAI il 25 febbraio 2025, Deep Research rappresenta una svolta significativa nelle capacità di ricerca automatizzata. Il sistema è basato su una versione preliminare di OpenAI o3, ottimizzata specificamente per la navigazione web. La caratteristica distintiva di Deep Research è la sua abilità di effettuare ricerche multi-step su internet per svolgere compiti complessi, utilizzando il ragionamento per cercare, interpretare e analizzare grandi quantità di testi, immagini e PDF trovati online.

Il sistema è in grado di adattare la sua strategia di ricerca in base alle informazioni che incontra, permettendogli di affrontare query articolate che richiedono l’integrazione di conoscenze da fonti diverse.

Oltre alla ricerca web, Deep Research può anche leggere file forniti dall’utente e analizzare dati scrivendo ed eseguendo codice Python.

OpenAI ritiene che questo nuovo strumento possa essere utile in un’ampia gamma di situazioni, dalla ricerca accademica all’analisi di mercato, fino alla risoluzione di problemi tecnici complessi.

Prima del lancio, il team di OpenAI ha condotto rigorosi test di sicurezza, valutazioni di preparazione e revisioni di governance per assicurarsi che Deep Research fosse pronto per l’uso pubblico. Particolare attenzione è stata dedicata al rafforzamento delle protezioni della privacy riguardo le informazioni personali pubblicate online e all’addestramento del modello per resistere a istruzioni potenzialmente dannose che potrebbe incontrare durante le ricerche su internet.

Capacità e funzionamento del modello Deep Research

Il modello Deep Research di OpenAI è stato addestrato su nuovi dataset di navigazione creati appositamente per casi d’uso di ricerca. Secondo il documento di OpenAI, il sistema ha appreso le capacità fondamentali di navigazione web come la ricerca, il clic, lo scorrimento e l’interpretazione dei file.

Inoltre, è stato addestrato all’utilizzo di uno strumento Python in un ambiente sandbox per eseguire calcoli, analisi dei dati e creazione di grafici.

Un aspetto chiave dell’addestramento è stato l’apprendimento di come ragionare e sintetizzare informazioni da un gran numero di siti web per trovare dati specifici o scrivere report completi. Questo è stato realizzato attraverso l’apprendimento per rinforzo su compiti di navigazione.

I dataset di addestramento comprendono una vasta gamma di attività, da quelle oggettive con risposte corrette verificabili automaticamente, a compiti più aperti valutati in base a rubriche predefinite. Durante l’addestramento, le risposte del modello vengono valutate rispetto alle risposte corrette o alle rubriche utilizzando un modello di ragionamento a catena come valutatore.

Deep Research ha anche ricevuto un addestramento specifico sulla sicurezza, utilizzando dataset esistenti riutilizzati dall’addestramento di OpenAI o1, oltre a nuovi dataset di sicurezza creati appositamente per la navigazione web.

Queste funzionalità lo rendono particolarmente adatto per compiti di ricerca complessi che richiedono la sintesi di informazioni da fonti diverse e l’elaborazione di grandi quantità di dati.

Deep Research System Card

Valutazione dei rischi e misure di mitigazione

OpenAI ha condotto una valutazione approfondita dei rischi associati a Deep Research, concentrandosi su diverse aree chiave. Secondo il documento, uno dei principali rischi identificati è la possibilità di “iniezioni di prompt, dove istruzioni malevole inserite in contenuti web potrebbero influenzare il comportamento del modello.

Per mitigare questo rischio, OpenAI ha creato nuovi dati di addestramento sulla sicurezza e ha implementato misure a livello di sistema, come impedire a Deep Research di navigare o costruire URL arbitrari.

Documenti non consentiti

Un altro rischio significativo riguarda i contenuti non consentiti: data la capacità di Deep Research di condurre ricerche web e ragionare sui risultati, potrebbe potenzialmente fornire indicazioni dettagliate per attività pericolose o violente. Per affrontare questo problema, OpenAI ha aggiornato le politiche di sicurezza, ulteriormente addestrato il modello a rifiutare richieste di contenuti non consentiti e implementato sistemi di monitoraggio post-distribuzione.

Privacy

La privacy è un’altra area di preoccupazione, dato che Deep Research potrebbe potenzialmente assemblare informazioni personali da diverse fonti online. OpenAI ha aggiornato le politiche del modello relative ai dati personali, sviluppato nuovi dati di sicurezza e valutazioni specifiche, e implementato una lista di blocco a livello di sistema.

Coding

Per quanto riguarda la capacità di eseguire codice, Deep Research ha accesso a uno strumento Python, ma questo non ha accesso diretto a internet ed è eseguito in un ambiente sandbox.

Bias

OpenAI ha anche affrontato i rischi di bias e allucinazioni, implementando procedure post-addestramento per ridurre i pregiudizi e incoraggiare la fattualità.

Infine, OpenAI ha condotto valutazioni nell’ambito del suo Preparedness Framework, che copre quattro categorie di rischio:

  • cybersicurezza,
  • CBRN (chimico, biologico, radiologico, nucleare)
  • persuasione
  • autonomia del modello.

Dopo queste valutazioni, Deep Research è stato classificato come rischio “medio” in tutte e quattro le categorie, portando all’implementazione di ulteriori mitigazioni di sicurezza.

Deep Research System Card

Sfide nella sicurezza e privacy dei dati

Le capacità avanzate di Deep Research nel navigare e sintetizzare informazioni da diverse fonti online sollevano importanti sfide in termini di sicurezza e privacy dei dati. Secondo il documento di OpenAI, una delle principali preoccupazioni riguarda la protezione delle informazioni personali. Deep Research, grazie alla sua abilità di raccogliere e integrare dati da varie fonti web, potrebbe potenzialmente assemblare profili dettagliati su individui, combinando informazioni apparentemente innocue ma che, aggregate, potrebbero rivelare molto sulla vita di una persona.

Per affrontare questo problema, OpenAI ha implementato diverse misure. In primo luogo, ha aggiornato le politiche esistenti del modello relative ai dati personali, rafforzando l’addestramento di Deep Research a rifiutare richieste di informazioni private o sensibili, anche se queste sono disponibili pubblicamente su internet.

Inoltre, sono stati sviluppati nuovi dati di sicurezza e valutazioni specifiche per Deep Research, e è stata implementata una lista di blocco a livello di sistema per impedire l’accesso a certi tipi di informazioni personali.

Un’altra sfida significativa riguarda la sicurezza informatica. Le valutazioni condotte da OpenAI hanno rivelato che Deep Research ha notevolmente migliorato le capacità di sfruttamento delle vulnerabilità nel mondo reale, portando a una classificazione di rischio “medio” in questa categoria.

Per mitigare questi rischi, OpenAI ha implementato misure come il monitoraggio delle minacce di cybersicurezza ad alto rischio, lo sviluppo di capacità di rilevamento su larga scala e indagini mirate su sospetti abusi.

Un aspetto interessante emerso dalle valutazioni è che, nonostante le sue capacità avanzate, Deep Research non sembra migliorare significativamente le sue abilità di cybersicurezza attraverso la navigazione web. Infatti, dopo aver filtrato i tentativi in cui il modello ha trovato indizi o soluzioni online, i tassi di successo per i modelli Deep Research con e senza navigazione sono risultati entro il margine di errore l’uno dell’altro.

Questo suggerisce che il modello potrebbe non star migliorando in modo significativo le sue capacità di cybersicurezza attraverso la navigazione, e che l’aumento delle prestazioni nei test CTF (Capture The Flag) potrebbe essere principalmente dovuto alla contaminazione attraverso la navigazione.

Deep Research System Card

Implicazioni etiche e sociali dell’utilizzo di Deep Research

L’introduzione di Deep Research solleva importanti questioni etiche e sociali che meritano un’attenta considerazione.

Impatto sul mercato del lavoro

Uno degli aspetti più significativi riguarda il potenziale impatto sul mercato del lavoro e sulle professioni legate alla ricerca e all’analisi dei dati. Secondo il documento di OpenAI, Deep Research è in grado di svolgere compiti complessi di ricerca che tradizionalmente richiederebbero ore o giorni di lavoro umano. Questo potrebbe portare a una trasformazione significativa in settori come la ricerca accademica, l’analisi di mercato, il giornalismo investigativo e la consulenza, dove la capacità di sintetizzare rapidamente informazioni da fonti diverse è fondamentale.

Da un lato, questo potrebbe aumentare notevolmente la produttività e l’efficienza in questi campi, permettendo ai professionisti di concentrarsi su attività di più alto livello. Dall’altro, potrebbe anche portare a una riduzione della domanda di certe figure professionali, sollevando questioni sulla necessità di riqualificazione e adattamento della forza lavoro.

Utilizzo per scopi dannosi o illegali

Un altro aspetto etico cruciale riguarda la possibilità che Deep Research possa essere utilizzato per scopi dannosi o illegali. Nonostante le misure di sicurezza implementate da OpenAI, il sistema potrebbe potenzialmente essere sfruttato per condurre ricerche su attività illegali o per assemblare informazioni sensibili su individui o organizzazioni. Questo solleva questioni sulla responsabilità di OpenAI e degli utenti del sistema, e sulla necessità di un quadro normativo adeguato per regolamentare l’uso di tali tecnologie avanzate di AI.

Inoltre, l’uso diffuso di sistemi come Deep Research potrebbe avere implicazioni più ampie sulla società. Ad esempio, potrebbe accelerare la diffusione di informazioni, sia vere che false, influenzando il discorso pubblico e la formazione dell’opinione pubblica. Ciò solleva questioni sulla necessità di promuovere l’alfabetizzazione digitale e il pensiero critico nella società, per garantire che le persone siano in grado di valutare criticamente le informazioni generate o sintetizzate dall’AI.

Accessibilità

Infine, c’è la questione dell’equità e dell’accesso. Sistemi avanzati come Deep Research potrebbero fornire un vantaggio significativo a chi ha le risorse per utilizzarli, potenzialmente ampliando il divario di conoscenze e opportunità tra diversi gruppi sociali o economici. Questo solleva importanti questioni su come garantire un accesso equo a queste tecnologie e come mitigare potenziali disuguaglianze derivanti dal loro utilizzo.

Deep Research System Card

Potenziali applicazioni in ambito aziendale e di ricerca

Le capacità avanzate di Deep Research offrono un vasto potenziale di applicazioni sia in ambito aziendale che nel campo della ricerca.

Nel settore aziendale, Deep Research potrebbe rivoluzionare il processo di analisi di mercato e intelligence competitiva. Grazie alla sua capacità di navigare, sintetizzare e analizzare grandi quantità di dati da diverse fonti online, il sistema potrebbe fornire analisi approfondite sulle tendenze di mercato, il comportamento dei consumatori e le strategie dei concorrenti in tempi notevolmente ridotti rispetto ai metodi tradizionali. Questo potrebbe consentire alle aziende di prendere decisioni strategiche più rapide e informate.

Nel campo della ricerca e sviluppo, Deep Research potrebbe accelerare significativamente il processo di revisione della letteratura scientifica. Il sistema potrebbe rapidamente scansionare e sintetizzare migliaia di articoli di ricerca, identificando tendenze emergenti, lacune nella conoscenza e potenziali aree di collaborazione. Questo potrebbe essere particolarmente utile in campi in rapida evoluzione come la biotecnologia, l’informatica quantistica o la ricerca sul cambiamento climatico.

Inoltre, la capacità di Deep Research di eseguire analisi dei dati attraverso la scrittura e l’esecuzione di codice Python potrebbe essere preziosa per i data scientist e i ricercatori, automatizzando parti del processo di analisi dei dati e permettendo loro di concentrarsi sull’interpretazione dei risultati e sulla formulazione di nuove ipotesi.

Nel settore legale e della conformità normativa, Deep Research potrebbe essere utilizzato per analizzare rapidamente grandi volumi di documenti legali, contratti e regolamenti, identificando potenziali rischi o opportunità. Questo potrebbe essere particolarmente utile per le aziende che operano in ambienti normativi complessi o in rapida evoluzione.

Nel campo del giornalismo e della produzione di contenuti, Deep Research potrebbe assistere i giornalisti nella ricerca di background per articoli complessi, aiutando a identificare connessioni tra eventi o tendenze che potrebbero non essere immediatamente evidenti. Tuttavia, è importante notare che l’uso di tali sistemi nel giornalismo solleva anche questioni etiche sulla verifica delle fonti e sull’integrità giornalistica.

Infine, nel settore sanitario e della ricerca medica, Deep Research potrebbe essere utilizzato per analizzare rapidamente grandi quantità di letteratura medica, aiutando i ricercatori a identificare potenziali trattamenti per malattie rare o a comprendere meglio le interazioni complesse tra geni, ambiente e malattie.

Tuttavia, come sottolineato nel documento di OpenAI, l’uso di Deep Research in campi sensibili come la sanità richiederà attente considerazioni etiche e robuste misure di sicurezza per proteggere la privacy dei pazienti e l’integrità dei dati medici.

Confronto con altri modelli AI e prospettive future

Deep Research rappresenta un significativo passo avanti rispetto ai modelli AI precedenti, in particolare per quanto riguarda le capacità di ricerca e sintesi di informazioni. Secondo il documento “system card” di OpenAI, le valutazioni condotte hanno mostrato che Deep Research supera consistentemente le prestazioni di modelli precedenti come GPT-4o e OpenAI o1 in una varietà di compiti.

Ad esempio, nelle valutazioni di cybersicurezza, Deep Research ha mostrato un miglioramento significativo nella capacità di risolvere sfide CTF (Capture The Flag) di livello professionale, con un tasso di successo del 47% rispetto al 21% di OpenAI o1. Questo indica un notevole avanzamento nelle capacità di ragionamento e problem-solving in contesti tecnici complessi.

Deep Research System Card

Inoltre, Deep Research ha dimostrato prestazioni superiori in compiti che richiedono la sintesi di informazioni da fonti diverse e l’esecuzione di analisi dei dati.

Ad esempio, nel benchmark PersonQA, che testa la capacità di rispondere a domande su fatti relativi a persone, Deep Research ha ottenuto un’accuratezza dell’86%, significativamente superiore al 55% di OpenAI o1 e al 50% di GPT-4o. Questo suggerisce una maggiore capacità di integrare e sintetizzare informazioni da diverse fonti. Tuttavia, è importante notare che Deep Research non è semplicemente un modello più potente, ma rappresenta un approccio fondamentalmente diverso.

Articoli correlati

Articolo 1 di 4