OpenAI: cos’è, quando è nata e di cosa si occupa

Sono passati sette anni dalla nascita di OpenAI, il progetto nato per rendere l’AI etica e sicura: cosa è cambiato, gli ultimi progetti, come funzionano GPT-3 e DALL-E 2

Pubblicato il 04 Lug 2022

Josephine Condemi

giornalista

OpenAI

DALL-E 2, la versione per immagini di GPT-3, è l’ultimo prodotto in casa OpenAI. Lanciata lo scorso aprile, crasi tra Salvador Dalì e Wall-E, DALL-E 2 è una IA che genera immagini a partire da un testo descrittivo, ma può essere utilizzata solo previa iscrizione a una lista di attesa.

Il prossimo passo verso l’Intelligenza Artificiale Generale (AGI)?

Quando è nata e che cos’è OpenAI

Il termine “OpenAI”, dal 2019, indica sia l’azienda a profitto limitato, OpenAI LP, che la non-profit casa madre, OpenAI Inc.

OpenAI è nata nel dicembre 2015 a San Francisco come ente non-profit di ricerca e sviluppo dell’IA, per “garantire che l’intelligenza artificiale generale porti benefici a tutta l’umanità”.

Il primo miliardo di dollari per la sua fondazione è stato finanziato, tra gli altri, da: l’amministratore delegato di Tesla Motors e SpaceX, Elon Musk; il cofondatore di Paypal Peter Thiel; il presidente dell’acceleratore di startup Y Combinator Sam Altman; la piattaforma di servizi cloud Amazon Web Services; l’azienda di consulenza tech indiana Infosys.

Nel febbraio 2018 Musk si è dimesso dal consiglio di amministrazione di OpenAI per un potenziale conflitto di interessi con l’IA di Tesla ed è rimasto un donatore.

Nel 2019 è stata fondata OpenAI LP, una società “a scopo di lucro limitato”, per aumentare gli investimenti su cloud computing, personale e implementazione di supercomputer basati su IA, e nello stesso tempo porre un tetto negoziato a eventuali ritorni economici per investitori e dipendenti.

“Vogliamo aumentare la nostra capacità di raccogliere capitali pur continuando a svolgere la nostra missione, e nessuna struttura legale preesistente che conosciamo raggiunge il giusto equilibrio” scrivevano Greg Brockman (Chairman & CTO) e Ilya Sutskever (Chief Scientist) sul blog aziendale a marzo 2019.

A luglio dello stesso anno, OpenAI LP ha quindi annunciato l’investimento di un miliardo di dollari da parte di Microsoft e l’istituzione di una partnership di ricerca, con l’azienda fondata da Gates fornitrice esclusiva del cloud.

OpenAI LP è una controllata della non-profit Open AI Inc., che assorbe i ritorni economici oltre il tetto concordato.

Come funziona OpenAI?

OpenAI LP, si legge sul sito ufficiale, impiega un centinaio di persone in tre aree principali: capacity, per far evolvere i sistemi di IA; sicurezza, per garantire che questi sistemi siano etici, e policy, per assicurare una governance appropriata di questi sistemi.

OpenAI LP è quindi il “braccio operativo”, la controllata della non-profit OpenAI Inc, che gestisce invece i programmi di divulgazione e formazione come OpenAI Residency, l’iniziativa che ha assorbito i precedenti OpenAI Scholars e OpenAI Fellows.

Per il primo round, il “tetto” ROI è stato limitato a 100 volte il valore di ciascun investimento, ed è stato annunciato che il multiplo decrescerà per i round futuri a fronte di un minor rischio.

Di che cosa si occupa OpenAI

La mission di Open AI, si legge sul sito ufficiale, è “garantire che l’intelligenza artificiale generale (AGI), con la quale intendiamo sistemi altamente autonomi che superino gli esseri umani nella maggior parte dei lavori economicamente validi, porti benefici a tutta l’umanità”.

Nel 2016, OpenAI ha lanciato sia “OpenAI Gym”, piattaforma dedicata all’apprendimento per rinforzo, che “Universe”, piattaforma per misurare e addestrare un’IA attraverso giochi e app.

Sono seguiti:

  • i “RoboSumo”, robot umanoidi che apprendono in modo agonistico;
  • il “Debate Game”, gioco che insegna alle macchine a discutere delle loro decisioni ed ha posto il tema dell’explainable AI;
  • OpenAI Five”, cinque bot che in un videogioco imparano a giocare contro esseri umani per prove ed errori;
  • Dactyl”, AI che allena un robot con lo stesso algoritmo di apprendimento per rinforzo dei cinque bot.

Ma la fama di OpenAI è legata a GPT-2, l’intelligenza artificiale linguistica, addestrata per prevedere la parola successiva in una frase e, quindi, riuscire a tradurre o generare automaticamente testi e/o risposte nelle conversazioni.

A febbraio 2019 è stata rilasciata la versione “ridotta” di GPT-2 per preoccupazioni sull’utilizzo della tecnologia: generare automaticamente del testo è un ottimo metodo per produrre fake news verosimili. Ma, nonostante queste preoccupazioni, la versione completa è arrivata comunque nel novembre dello stesso anno.

La versione successiva, GPT-3, è stata annunciata nel 2020: il codice sorgente non è mai stato reso pubblico e l’accesso è stato fornito in esclusiva attraverso un’API Microsoft.

A gennaio 2021 OpenAI ha lanciato DALL-E, una versione di GPT-3 addestrata per generare immagini da descrizioni testuali: data una didascalia, la rete neurale artificiale sviluppa l’immagine corrispondente. Ad aprile 2022 è stata annunciata DALL-E 2, capace di produrre immagini dalla risoluzione quattro volte superiore alla precedente. DALL-E 2 non è pubblica ma disponibile con iscrizione a una lista d’attesa.

Come funzionano GPT-3 e DALL-E 2

GPT-3, e la versione per immagini DALL-E 2, si basano su una rete neurale artificiale, costruita secondo il modello transformer, o trasformatore.

Il modello di deep learning trasformer si basa a propria volta sull’apprendimento per auto-attenzione (self-attention): l’algoritmo sceglie il “peso” da dare agli input, seleziona i più rilevanti e su questi costruisce l’output.

Se consideriamo, per semplificare, ogni parola di una frase come input, il modello trasformer deciderà quali parole siano le più importanti e a partire da queste genererà il testo, l’immagine o darà la risposta in una conversazione.

A differenza delle reti neurali ricorrenti o convoluzionali, il modello trasformer permette di elaborare tutti gli input sequenziali in una volta sola: l’intera frase o l’intero periodo, anziché la singola parola. Una caratteristica che lo rende preferibile nei compiti di elaborazione del linguaggio naturale (NLP).

Ma chiaramente questo presuppone un salto da un’AI sintattica, capace di generare output sulla base della posizione degli input, a un’AI semantica, capace di interpretare il significato degli input a seconda del contesto. Capace quindi di ricostruire il contesto a partire da pochi input significativi. Un salto più facile a dirsi che a farsi.

Ma sulla riuscita di questo salto si baserà il passaggio definitivo all’Intelligenza Artificiale Generale – Artificial General Intelligence. OpenAI è alla frontiera.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4