approfondimento

OpenAI: cos’è, quando è nata e di cosa si occupa



Indirizzo copiato

OpenAI nasce nel 2015 per rendere l’AI etica e sicura. Cosa è cambiato dalla fondazione, gli ultimi progetti: GPT-4, GPT-4o e GPT-4o mini fino alla famiglia GPT-5

Aggiornato il 16 mar 2026



OpenAI finanziamento
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Punti chiave

  • Origini e governance: OpenAI fondata nel 2015, poi ristrutturata in OpenAI Inc. (non-profit) e la controllata commerciale OpenAI LP, con investimenti chiave di Microsoft sotto scrutinio UE.
  • Prodotti e strategia: evoluzione da GPT-3 a GPT-4, GPT-4o e GPT-5, affiancata da DALL-E, Sora, SearchGPT e Advanced Voice Mode verso multimodalità e famiglie specializzate.
  • Personale, sicurezza e modello economico: uscite di figure come Ilya Sutskever e migrazioni verso Anthropic hanno accentuato i dibattiti su alignment; il modello capped-profit resta strutturale ma meno centrale.
Riassunto generato con AI

OpenAI è nata nel dicembre 2015 a San Francisco come ente non-profit di ricerca e sviluppo dell’IA, per “garantire che l’intelligenza artificiale generale porti benefici a tutta l’umanità”.

Il termine “OpenAI”, dal 2019, indica sia l’azienda a profitto limitato, OpenAI LP, che la non-profit casa madre, OpenAI Inc.

Che cos’è OpenAI

Il primo miliardo di dollari per la sua fondazione è stato finanziato, tra gli altri, da: l’amministratore delegato di Tesla Motors e SpaceX, Elon Musk; il cofondatore di Paypal Peter Thiel; il presidente dell’acceleratore di startup Y Combinator Sam Altman; la piattaforma di servizi cloud Amazon Web Services; l’azienda di consulenza tech indiana Infosys.

Nel febbraio 2018 Musk si è dimesso dal consiglio di amministrazione di OpenAI per un potenziale conflitto di interessi con l’IA di Tesla ed è rimasto un donatore.

Nel 2019 è stata fondata OpenAI LP, una società “a scopo di lucro limitato”, per aumentare gli investimenti su cloud computing, personale e implementazione di supercomputer basati su IA, e nello stesso tempo porre un tetto negoziato a eventuali ritorni economici per investitori e dipendenti.

“Vogliamo aumentare la nostra capacità di raccogliere capitali pur continuando a svolgere la nostra missione, e nessuna struttura legale preesistente che conosciamo raggiunge il giusto equilibrio” scrivevano Greg Brockman (Chairman & CTO) e Ilya Sutskever (Chief Scientist) sul blog aziendale a marzo 2019.

A luglio dello stesso anno, OpenAI LP ha quindi annunciato l’investimento di un miliardo di dollari da parte di Microsoft e l’istituzione di una partnership di ricerca, con l’azienda fondata da Gates fornitrice esclusiva del cloud.

OpenAI LP è una controllata della non-profit Open AI Inc., che assorbe i ritorni economici oltre il tetto concordato.

La verifica sull’investimento di Microsoft

A gennaio 2024 la Commissione europea ha deciso di avviare una verifica sull’investimento di Microsoft in OpenAI, basandosi sul Regolamento UE sulle concentrazioni, il cd EU Merger regulation. Il problema che ruota intorno questa vicenda non è tanto se sia in potenza o in atto un’operazione di tipo societario, ovvero quale sia la reale natura giuridica dell’accordo siglato, il relativo contenuto e la vera motivazione per la quale esso sia stato raggiunto, quanto piuttosto il peso di una partnership del genere sul mercato. Di qui, la preoccupazione di fondo delle autorità Antitrust coinvolte.

La causa intentata da Elon Musk

A marzo 2024, il co-fondatore di OpenAI ha intentato una causa contro l’azienda accusandola di aver perseguito l’intelligenza artificiale generale (AGI) con lo scopo di generare profitti per Microsoft, e non per “il bene dell’umanità”, contravvenendo all’accordo fondativo originale. Dopo la sua uscita, OpenAI sarebbe diventata una sussidiaria de facto, a codice chiuso, di Microsoft. Musk ha in seguito ritirato la causa, per presentarla di nuovo ai primi di agosto 2024.

Accordo fra OpenAI e News Corp.

A maggio 2024, OpenAI e News Corp hanno siglato un accordo pluriennale grazie al quale OpenAI ha ottenuto il permesso di mostrare i contenuti delle testate di News Corp in risposta alle domande degli utenti e per migliorare i suoi prodotti, con l’obiettivo finale di fornire alle persone la possibilità di fare scelte informate basate su informazioni affidabili e fonti di notizie.

Tutte le defezioni in OpenAI

Sempre a maggio, lya Sutskever, uno dei co-fondatori di OpenAI, lascia l’azienda e un mese dopo fonda Safe Superintelligence (SSI), “il primo laboratorio SSI diretto al mondo, con un obiettivo e un prodotto: una superintelligenza sicura”.

Non è la prima volta che OpenAI perde pedine importanti del suo staff. Nel 2021, Dario Amodei, ex responsabile della sicurezza dell’AI nell’azienda, ha creato la sua start-up, Anthropic, che ha raccolto 4 miliardi di dollari da Amazon e centinaia di milioni in più da venture capitalist, con una valutazione superiore ai 18 miliardi di dollari.

Jan Leike, che lavorava a stretto contatto con Sutskever, se n’è andato affermando che le sue differenze con la leadership dell’azienda avevano “raggiunto un punto di rottura” poiché “la cultura e i processi di sicurezza sono passati in secondo piano rispetto ai prodotti luccicanti”. Leike si è unito al rivale di OpenAI, Anthropic.

Ad agosto 2024, anche John Schulman, uno dei co-fondatori di OpenAI e un architetto chiave di ChatGPT, lascia l’azienda per unirsi al principale rivale Anthropic. È l’ultimo di una serie di figure senior a lasciare la principale azienda di intelligenza artificiale negli ultimi mesi. Schulman ha dichiarato di voler lavorare sull’alignment – ricerca per garantire che i sistemi di AI si conformino ai valori umani – presso Anthropic, la start-up che si presenta come impegnata a mettere “la sicurezza in prima linea” nel suo lavoro.

Apple entra nel consiglio di OpenAI come osservatore

Agli inizi di luglio 2024 Apple è entrato nel consiglio di amministrazione di OpenAI. L’accordo segue l’intesa tra le due aziende per portare funzioni di intelligenza artificiale sui dispositivi del produttore di iPhone. Apple ricoprirà un ruolo di osservatore nel Cda di OpenAI, offrendo al produttore di iPhone una visione simile sulla start-up di intelligenza artificiale a quella già ottenuta da Microsoft, il suo principale sostenitore. Il ruolo nel consiglio è stato concordato come parte dell’accordo tra Apple e OpenAI, annunciato a giugno, per integrare ChatGPT nei dispositivi Apple. In seguito, Microsoft e Apple rinunceranno a sedere nel Cda di OpenAI per evitare all’azienda problemi con l’antitrust.


OpenAI: struttura, persone e modello economico (aggiornato al 2026)

Secondo le informazioni più recenti disponibili, OpenAI non è più una realtà da “un centinaio di persone”: l’organizzazione è cresciuta rapidamente fino a contare migliaia di dipendenti a livello globale, distribuiti tra ricerca, ingegneria, prodotto, sicurezza e go-to-market.

Le attività non sono più sintetizzabili in tre sole aree (capacity, sicurezza, policy), ma si articolano in divisioni più complesse, tra cui:

  • Research & Frontier Models (sviluppo dei modelli avanzati)
  • Applied AI / Product (integrazione in prodotti come ChatGPT)
  • Safety & Alignment (allineamento e mitigazione dei rischi)
  • Policy & Governance (rapporti istituzionali e regolatori)
  • Infrastructure & Scaling (capacità computazionale e partnership cloud, in particolare con Microsoft)

Struttura societaria: evoluzione del modello “capped-profit”

OpenAI LP resta il braccio operativo a scopo di lucro limitato, ma il quadro si è evoluto rispetto alla descrizione iniziale.

La governance è ancora formalmente sotto il controllo della non-profit
OpenAI Inc., che mantiene una missione orientata al beneficio pubblico. Tuttavia, nel tempo:

  • il peso della componente commerciale è cresciuto significativamente
  • le partnership industriali (in primis con Microsoft) sono diventate centrali
  • la struttura è stata adattata per sostenere investimenti su scala molto più ampia

I programmi come OpenAI Residency esistono ancora come iniziative di formazione, ma non rappresentano più il fulcro dell’attività della non-profit, che oggi ha un ruolo più ampio di supervisione strategica e mission-driven.


Il “cap” sui ritorni: ancora valido, ma meno centrale

Il modello originale prevedeva un limite ai ritorni (“capped profit”) — inizialmente comunicato come fino a 100x per i primi investitori.

Nel 2026:

  • il concetto di cap esiste ancora a livello strutturale, ma
  • è diventato meno centrale nel dibattito pubblico, data la scala degli investimenti e delle partnership
  • i dettagli operativi (multipli, condizioni per nuovi round) sono meno esplicitati pubblicamente rispetto alla fase iniziale

In pratica, OpenAI si è evoluta da esperimento di governance ibrida a player industriale globale dell’AI, pur mantenendo formalmente il modello “capped-profit”.


Di che cosa si occupa OpenAI

La mission di Open AI, si legge sul sito ufficiale, è “garantire che l’intelligenza artificiale generale (AGI), con la quale intendiamo sistemi altamente autonomi che superino gli esseri umani nella maggior parte dei lavori economicamente validi, porti benefici a tutta l’umanità”.

Nel 2016, OpenAI ha lanciato sia “OpenAI Gym”, piattaforma dedicata all’apprendimento per rinforzo, che “Universe”, piattaforma per misurare e addestrare un’IA attraverso giochi e app.

Sono seguiti:

  • i “RoboSumo”, robot umanoidi che apprendono in modo agonistico;
  • il “Debate Game”, gioco che insegna alle macchine a discutere delle loro decisioni ed ha posto il tema dell’explainable AI;
  • OpenAI Five”, cinque bot che in un videogioco imparano a giocare contro esseri umani per prove ed errori;
  • Dactyl”, AI che allena un robot con lo stesso algoritmo di apprendimento per rinforzo dei cinque bot.

Ma la fama di OpenAI è legata a GPT-2, l’intelligenza artificiale linguistica, addestrata per prevedere la parola successiva in una frase e, quindi, riuscire a tradurre o generare automaticamente testi e/o risposte nelle conversazioni.

A febbraio 2019 è stata rilasciata la versione “ridotta” di GPT-2 per preoccupazioni sull’utilizzo della tecnologia: generare automaticamente del testo è un ottimo metodo per produrre fake news verosimili. Ma, nonostante queste preoccupazioni, la versione completa è arrivata comunque nel novembre dello stesso anno.

La versione successiva, GPT-3, è stata annunciata nel 2020: il codice sorgente non è mai stato reso pubblico e l’accesso è stato fornito in esclusiva attraverso un’API Microsoft.

A gennaio 2021 OpenAI ha lanciato DALL-E, una versione di GPT-3 addestrata per generare immagini da descrizioni testuali: data una didascalia, la rete neurale artificiale sviluppa l’immagine corrispondente. Ad aprile 2022 è stata annunciata DALL-E 2, capace di produrre immagini dalla risoluzione quattro volte superiore alla precedente.

Come funzionano GPT-3 e DALL-E 2

GPT-3, e la versione per immagini DALL-E 2, si basano su una rete neurale artificiale, costruita secondo il modello transformer, o trasformatore.

Il modello di deep learning trasformer si basa a propria volta sull’apprendimento per auto-attenzione (self-attention): l’algoritmo sceglie il “peso” da dare agli input, seleziona i più rilevanti e su questi costruisce l’output.

Se consideriamo, per semplificare, ogni parola di una frase come input, il modello trasformer deciderà quali parole siano le più importanti e a partire da queste genererà il testo, l’immagine o darà la risposta in una conversazione.

A differenza delle reti neurali ricorrenti o convoluzionali, il modello trasformer permette di elaborare tutti gli input sequenziali in una volta sola: l’intera frase o l’intero periodo, anziché la singola parola. Una caratteristica che lo rende preferibile nei compiti di elaborazione del linguaggio naturale (NLP).

Ma chiaramente questo presuppone un salto da un’AI sintattica, capace di generare output sulla base della posizione degli input, a un’AI semantica, capace di interpretare il significato degli input a seconda del contesto. Capace quindi di ricostruire il contesto a partire da pochi input significativi. Un salto più facile a dirsi che a farsi.

Ma sulla riuscita di questo salto si baserà il passaggio definitivo all’Intelligenza Artificiale Generale – Artificial General Intelligence. OpenAI è alla frontiera.

Sora, modello di video generativo

A febbraio 2024 OpenAI ha rilasciato Sora, un modello di video generativo che trasforma brevi descrizioni testuali in dettagliati filmati ad alta definizione della durata massima di un minuto.

A marzo 2026 OpenAI ha annunciato la chiusura di Sora e la fine dell’accordo che la legava alla Disney.

GPT-4

Dal 14 marzo 2023, OpenAI ha lanciato GPT-4, presentandolo al mondo intero. Da allora, la startup ha reso disponibile l’accesso a GPT-4, consentendo ad altre aziende e sviluppatori di software di sfruttarne il potenziale per creare le proprie applicazioni personalizzate.

GPT-4 è migliore di GPT-3: è più preciso è in grado, ad esempio, di superare l’esame di abilitazione all’esercizio della professione forense, di calcolare istantaneamente le imposte di una persona fisica e di fornire descrizioni dettagliate di immagini.

GPT-4o, due volte più veloce di GPT-4 Turbo

GPT-4o, il nuovo modello di intelligenza artificiale di OpenAI, debutta il 13 maggio 2024: è un enorme passo avanti soprattutto in termini di accessibilità ed esperienza d’uso.

L’ha presentato all’evento Spring Updates Mira Murati, Chief Technology Officer di OpenAI. La “o” sta per omni, nel senso che il modello è nativamente multimodale: accetta input e dà output in testo, immagini e visivi con fluidità.

Arriva SearchGPT

Il 25 luglio 2024, Sam Altman annuncia l’arrivo di SearchGPT, il motore di ricerca di OpenAI. Si tratta di “un prototipo temporaneo di nuove funzionalità di ricerca AI che forniscono risposte rapide e tempestive con fonti chiare e pertinenti”. SearchGPT è un prototipo concepito per integrare la potenza dei modelli AI con informazioni provenienti dal web, al fine di offrire risposte veloci e attuali supportate da fonti affidabili. Il lancio è limitato, per ora, a un piccolo gruppo di utenti e editori per raccogliere feedback.

Advanced Voice Mode

Il 31 luglio 2024 OpenAI lancia un avanzato chatbot AI con cui si può parlare. Il bot è disponibile solo per alcuni utenti e rappresenta l’impegno di OpenAI verso una nuova generazione di assistenti vocali alimentati dall’AI, sul modello di Siri e Alexa, ma con molte più capacità, per consentire conversazioni più naturali e fluide. Advanced Voice Mode offre conversazioni più naturali e in tempo reale, consente di interrompere in qualsiasi momento e percepisce e risponde alle emozioni dell’utente.

Di seguito la continuazione, aggiornata e strutturata in modo chiaro, dei principali modelli lanciati da OpenAI dopo GPT-4 — includendo sia le evoluzioni dirette sia le nuove famiglie di modelli.


L’evoluzione degli LLM OpenAI dopo GPT-4

Dopo GPT-4, OpenAI ha adottato una strategia più articolata: non un singolo modello “flagship”, ma una famiglia di modelli specializzati, ottimizzati per costo, velocità, multimodalità e ragionamento.


GPT-4 Turbo (2023)

Posizionamento: evoluzione diretta di GPT-4
Caratteristiche principali:

  • Contesto esteso (fino a centinaia di migliaia di token)
  • Costi significativamente ridotti
  • Migliori performance su istruzioni lunghe

GPT-4 Turbo è stato il primo segnale del passaggio da “modello unico” a infrastruttura scalabile per prodotti, diventando la base di molte versioni iniziali di ChatGPT.


GPT-4o (Omni) (2024)

Posizionamento: modello multimodale nativo
Caratteristiche principali:

  • Input e output testo, immagini, audio e voce in tempo reale
  • Latenza molto più bassa rispetto a GPT-4
  • Capacità conversazionali più naturali

GPT-4o segna una svolta: non è solo un LLM, ma un sistema multimodale integrato, progettato per interazioni “umane” (voice-first).


GPT-4o mini (2024)

Posizionamento: versione leggera ed economica
Caratteristiche principali:

  • Ottimizzato per costi bassi e alta velocità
  • Buone performance su task quotidiani
  • Ideale per applicazioni su larga scala

GPT-4o mini sostituisce progressivamente modelli più vecchi come GPT-3.5, diventando lo standard per applicazioni consumer e API a basso costo.


La nuova linea “o-series”: modelli orientati al ragionamento

A partire dal 2024–2025, OpenAI introduce una nuova famiglia separata dai GPT classici: modelli progettati esplicitamente per reasoning avanzato.


o1 (2024)

Posizionamento: primo modello “reasoning-first”
Caratteristiche principali:

  • Migliore gestione di problemi complessi (matematica, coding, logica)
  • Catene di ragionamento più affidabili
  • Maggiore accuratezza rispetto ai GPT tradizionali su task difficili

o1 inaugura un cambio di paradigma: meno focus sulla velocità, più sulla qualità del pensiero.


o3 (2025)

Posizionamento: evoluzione avanzata del reasoning
Caratteristiche principali:

  • Performance elevate su benchmark scientifici e tecnici
  • Migliore pianificazione multi-step
  • Riduzione degli errori logici

o3 rappresenta un salto qualitativo per applicazioni professionali (ricerca, ingegneria, analisi dati).


o4 (2025–2026)

Posizionamento: stato dell’arte nel reasoning (iterazione più recente)
Caratteristiche principali:

  • Capacità di astrazione più profonde
  • Migliore integrazione con strumenti esterni
  • Più affidabilità in scenari real-world complessi

o4 consolida la linea “o” come alternativa ai GPT per casi d’uso ad alta complessità.


Modelli specializzati e di supporto

Oltre ai modelli principali, OpenAI ha sviluppato vari modelli complementari:

Embedding models (aggiornati)

  • Migliorano la ricerca semantica e il retrieval
  • Più efficienti e accurati rispetto alle versioni pre-2023

Modelli di moderazione

  • Evoluzione dei sistemi di sicurezza
  • Integrazione diretta nelle API

Modelli per speech e audio

  • Riconoscimento vocale avanzato (successori di Whisper)
  • Sintesi vocale sempre più naturale (text-to-speech)

Un cambio di paradigma

Dopo GPT-4, OpenAI non ha semplicemente “aggiornato un modello”, ma ha ridefinito l’approccio:

  • Multimodalità nativa → con GPT-4o
  • Efficienza economica → con versioni mini
  • Ragionamento avanzato → con la serie o (o1 → o4)
  • Ecosistema modulare → modelli diversi per task diversi

Il risultato è un portafoglio che non ruota più attorno a un singolo LLM, ma a una piattaforma completa di intelligenza artificiale.

GPT-5 e oltre: la nuova generazione

Dopo la biforcazione tra modelli generalisti (serie GPT) e modelli orientati al reasoning (serie “o”), OpenAI ha introdotto la famiglia GPT-5, segnando un ulteriore consolidamento: non più solo modelli, ma sistemi cognitivi integrati.


GPT-5 (2025)

Posizionamento: successore diretto di GPT-4 e sintesi delle linee GPT + o-series

Caratteristiche principali:

  • Ragionamento avanzato integrato (senza separazione netta tra GPT e o-series)
  • Multimodalità nativa (testo, immagini, audio, video in pipeline unificata)
  • Migliore affidabilità fattuale e riduzione delle allucinazioni
  • Capacità di pianificazione su task complessi (agent-like)

GPT-5 rappresenta un cambio di architettura: invece di delegare il reasoning a modelli separati (come o1 o o3), lo incorpora direttamente nel core del modello.


GPT-5 Turbo (2025)

Posizionamento: versione ottimizzata per produzione

Caratteristiche principali:

  • Costi inferiori rispetto a GPT-5 standard
  • Latenza ridotta
  • Ottimizzazione per API e applicazioni enterprise

GPT-5 Turbo segue la stessa logica già vista con GPT-4 Turbo: rendere scalabile l’uso industriale del modello.


GPT-5 mini (2025–2026)

Posizionamento: modello leggero ad alta efficienza

Caratteristiche principali:

  • Ottimo rapporto qualità/prezzo
  • Prestazioni comparabili a GPT-4 su molti task comuni
  • Ideale per applicazioni consumer e mobile

GPT-5 mini diventa rapidamente il candidato a sostituire le versioni “entry-level” nei prodotti di massa.


GPT-5 multimodal advanced (2026)

Posizionamento: configurazione avanzata per use case complessi

Caratteristiche principali:

  • Elaborazione simultanea di input multimodali complessi
  • Miglior comprensione video e contesti dinamici
  • Integrazione più stretta con strumenti esterni e ambienti operativi

GPT-5 multimodal è pensato per scenari come:

  • assistenti in tempo reale
  • analisi di ambienti visivi complessi
  • automazione avanzata (agent systems)

GPT-5 vs generazioni precedenti

Il salto rispetto a GPT-4o e alla serie o non è solo incrementale:

  • Fine della separazione tra modelli → reasoning + generazione nello stesso sistema
  • Maggiore autonomia operativa → capacità agentiche più solide
  • Multimodalità completa → non più feature, ma default
  • Scalabilità verticale → dalla versione mini a quella advanced

Articoli correlati