L’intelligenza artificiale è una presenza pervasiva e in rapida espansione in un numero crescente di settori. Questa crescita esponenziale solleva una domanda cruciale: cosa accadrebbe se queste potenti tecnologie sfuggissero al nostro controllo? OpenAI sta affrontando proattivamente questa eventualità con un piano dettagliato per prevenire e mitigare anche i rischi più estremi. Si tratta di un segnale di centrale importanza per il mondo del business, che fa sempre più affidamento sull’AI per le proprie operation.
Dalle analisi predittive che ottimizzano le catene di approvvigionamento, alla personalizzazione spinta dell’esperienza cliente, fino all’automazione di processi industriali complessi, l’AI è già oggi un copilota strategico consolidato per tantissime aziende. Tuttavia, come ogni grande potere, anche quello dell’AI porta con sé grandi responsabilità e, potenzialmente, rischi concreti. OpenAI ne è profondamente consapevole e, con una mossa che segna un passo importante verso uno sviluppo più maturo e responsabile della tecnologia, ha costruito il Preparedness Framework (letteralmente quadro di preparazione), attualmente ancora in evoluzione.
Ma di cosa si tratta esattamente? E perché un’azienda che punta a digitalizzare i propri processi e a cavalcare l’onda dell’innovazione dovrebbe prestare attenzione a un documento che, a uno sguardo distratto, sembra concentrarsi su fantascientifici scenari apocalittici?

Indice degli argomenti:
Cos’è il Preparedness Framework di OpenAI
Il Preparedness Framework è definito dalla stessa OpenAI come un documento “vivente”, che descrive i processi interni dell’organizzazione per tracciare, valutare, prevedere e proteggersi dai rischi catastrofici derivanti da modelli di AI sempre più potenti. Può essere descritto come un sistema di allerta precoce e di gestione delle crisi, progettato specificamente per il complesso e ancora parzialmente inesplorato territorio dell’intelligenza artificiale avanzata — quella che si avvicina alla cosiddetta AGI (Artificial General Intelligence), ossia un’AI con capacità cognitive paragonabili o superiori a quelle umane.
Questo quadro si fonda sull’esperienza pratica di OpenAI nello sviluppo di modelli di grandi dimensioni come quelli su cui si basano le varie versioni di ChatGPT. Un bagaglio di conoscenze che ha permesso all’azienda di migliorare proattivamente la propria infrastruttura di sicurezza tecnica e procedurale, basandosi sugli input raccolti direttamente dal campo operativo.
L’obiettivo del Preparedness Framework è ambizioso: distillare i più recenti approcci teorici su come garantire uno sviluppo e un’implementazione sicuri dell’AI, affrontando di petto la possibilità, per quanto oggi possa ad alcuni apparire remota, di rischi che potrebbero avere conseguenze devastanti su scala globale.
Per “rischio catastrofico”, OpenAI intende qualsiasi evento che potrebbe causare danni economici dell’ordine di centinaia di miliardi di dollari, oppure provocare gravi danni o la morte di un numero significativo di persone, includendo, ma non limitandosi, al rischio esistenziale.

A cosa serve il Preparedness Framework
L’idea che sta dietro la creazione del Preparedness Framework è la convinzione, espressa chiaramente da OpenAI, che lo studio scientifico dei rischi catastrofici legati all’AI sia ancora notevolmente indietro rispetto al necessario. Per colmare questa lacuna, il Framework si propone come uno strumento per migliorare, e soprattutto velocizzare, la comprensione scientifica ed empirica di tali rischi, e per stabilire i processi necessari a proteggersi per tempo da uno sviluppo che potrebbe rivelarsi non sicuro.
Per garantire la sicurezza in un settore così complesso, è importante stabilire un approccio proattivo e scientificamente validato, che orienti in modo responsabile lo sviluppo e l’implementazione di nuove tecnologie AI. Queste determinazioni non mirano a ostacolare l’innovazione – essendo, peraltro, co-concepite da una delle realtà più prolifiche in termini di nuove scoperte – ma a guidarla, anticipando le sfide così da evitarne l’impatto imprevisto.
Il Framework definisce un percorso chiaro, basato su evidenze e valutazioni continue, per stabilire se e come progredire nello sviluppo di modelli sempre più potenti, ponendo la sicurezza come priorità assoluta.

I quattro step operativi del Preparedness Framework
OpenAI ritiene che esista un numero limitato di funzioni dell’AI che potrebbero comportare nuovi rischi di gravi danni. Per sbloccare in sicurezza gli usi benefici delle capacità dell’AI di frontiera, il Prepared Framweork invita a una particolare cautela e implementa misure di salvaguardia volte a minimizzare sufficientemente il rischio di danni significativi nelle aree di focalizzazione. Per fare ciò, il Preparedness Framework si articola attorno a quattro principi fondamentali:
- Definire le aree di focalizzazione: viene condotta una valutazione olistica del rischio per decidere quali categorie di capacità di frontiera monitorare o approfondire con ulteriori ricerche. Questo processo serve anche a definire i livelli di soglia di tali capacità che sono associati ad aumenti significativi del rischio di danni gravi.
2. Misurare le capacità associate a rischi gravi: i modelli di AI identificati nel passo precedente vengono sottoposti a rigorose valutazioni, con l’obiettivo di mappare l’intera portata delle capacità del modello.
3. Implementare misure di salvaguardia contro gravi ganni: dopo aver definito un quadro potenziale chiaro per ogni modello, viene stimata la probabilità che si possano effettivamente concretizzare gravi danni. OpenAI si impegna a non rilasciare modelli che raggiungono una soglia di capacità definita alta (high) fino a quando i rischi associati non siano stati sufficientemente minimizzati.
4. Costruire fiducia: il Preparedness Framework e tutte le risorse correlate ad esso hanno come fine ultimo quello di informare e di costruire fiducia nella capacità di OpenAI di gestione del rischio e, di conseguenza, anche nei suoi prodotti.

Le categorie di rischio
Al momento della stesura di questo articolo, il Preparedness Framework identifica quattro macro-categorie di rischio da monitorare attentamente. Questa suddivisione permette di sviluppare una visione olistica dei rischi connessi all’intelligenza artificiale, grazie a un processo strutturato per individuarne le criticità a breve e a lungo termine. Le soglie di rischio — medio, alto e critico — sono ancora considerate speculative e verranno affinate con il progredire della ricerca.
- Cybersecurity: si concentra sui rischi legati all’uso dei modelli AI per condurre attacchi informatici volti a compromettere la confidenzialità, l’integrità o la disponibilità dei sistemi informatici. Un modello con capacità critiche in quest’area potrebbe, ad esempio, identificare e sviluppare autonomamente exploit zero-day (vulnerabilità sconosciute e per cui non esiste ancora una patch) per qualsiasi software, o ideare ed eseguire strategie di attacco inedite contro bersagli protetti, partendo solo da un obiettivo generale.
- Minacce CBRN (Chimiche, biologiche, radiologiche, nucleari): valuta i rischi relativi all’assistenza che un modello AI potrebbe fornire nella creazione di minacce di tipo chimico, biologico, radiologico o nucleare. Un livello di rischio critico potrebbe significare che un modello consenta a un esperto di sviluppare un vettore di minaccia altamente pericoloso, che permetta a chiunque di replicare una minaccia CBRN già nota, o ancora che il modello stesso, connesso a strumenti e attrezzature esterne, possa completare autonomamente l’intero ciclo di ingegnerizzazione o sintesi di una minaccia CBRN regolamentata o inedita.
- Persuasione: riguarda i rischi associati alla capacità dei modelli AI di influenzare le convinzioni e i comportamenti delle persone tramite contenuti generati, siano essi statici o interattivi. Mentre normalmente una forte persuasione richiede un notevole sforzo umano, i modelli AI potrebbero rendere possibile la generazione su larga scala di contenuti con un’elevata efficacia persuasiva, quasi a costo zero.
- Autonomia del modello: rappresenta un prerequisito per l’auto-esfiltrazione (la “fuga” del modello dai sistemi in cui è contenuto) con lo scopo di auto-migliorarsi e acquisire nuove risorse esterne. Un livello critico in questa categoria potrebbe vedere un modello capace di sopravvivere e replicarsi autonomamente in natura con istruzioni umane minime, di auto-esfiltrarsi eludendo le attuali misure di sicurezza, o ancora di condurre in totale autonomia attività di ricerca sull’AI.

Cosa significa tutto questo per le aziende?
Il Preparedness Framework è un documento che descrive processi interni a OpenAI con chiare finalità orientate al business aziendale. Nonostante ciò, le sue implicazioni sono rilevanti anche per chi utilizza o intende utilizzare l’intelligenza artificiale in uno scenario operativo industriale.
Osservare un attore chiave come OpenAI affrontare proattivamente i rischi più estremi può contribuire a costruire il giusto atteggiamento nei confronti dell’automazione AI-Powered. Le imprese che scelgono di integrare queste tecnologie nei propri processi dovrebbero sempre farlo in modo attento e consapevole, sviluppando una vision a lungo termine e un impegno concreto verso la sostenibilità etica e operativa.
Conoscere le principali categorie di rischio può aiutare le aziende a valutare meglio il proprio approccio all’AI. Non tutte le soluzioni sono uguali, e la maturità dei processi di gestione del rischio adottati dai fornitori sta diventando un criterio di scelta sempre più importante. Le aziende che sviluppano internamente soluzioni, o che integrano in profondità modelli di terze parti nei loro processi critici, potrebbero dover riflettere su come adattare o creare propri preparedness framework interni, commisurati alla scala e all’impatto del loro utilizzo dell’AI.
Conclusioni
Sebbene i rischi catastrofici discussi da OpenAI possano sembrare ancora molto lontani rispetto al livello medio di adozione dell’AI da parte delle imprese italiane, le dinamiche sottostanti — come la difficoltà di controllo, la possibilità di abusi sofisticati o la velocità di evoluzione della tecnologia — sono già oggi rilevanti su più livelli.
Essere preparati non significa semplicemente adottare l’ultima tecnologia disponibile, ma anche comprenderne a fondo le potenzialità e i pericoli, preparandosi a gestirli. La consapevolezza informata è la chiave per assicurarsi che il progresso sia realmente al servizio dell’umanità e, di riflesso, di un business prospero e sostenibile.






