ai generativa

Ilya Sutskever (ex OpenAi) fonda Safe Superintelligence (SSI)



Indirizzo copiato

La nuova azienda, creata insieme all’ex dipendente OpenAI Daniel Levy e all’investitore e imprenditore Daniel Gross, che ha lavorato come partner presso Y Combinator, vuole focalizzarsi sulla creazione di una “superintelligenza sicura”

Pubblicato il 20 giu 2024



Claude ChatGPT copywriting
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Safe Superintelligence (SSI), si chiama così la nuova start-up creata dal co-fondatore di OpenAI, Ilya Sutskever e si concentrerà sulla sicurezza. L’annuncio arriva un mese dopo che il ricercatore ha lasciato OpenAI.

Safe Superintelligence: la “superintelligenza sicura” è l’unico obiettivo

Safe Superintelligence (SSI) si presenta come “il primo laboratorio SSI diretto al mondo, con un obiettivo e un prodotto: una superintelligenza sicura”, secondo quanto riportato in una dichiarazione pubblicata su X. Sutskever ha co-fondato la start-up negli Stati Uniti insieme all’ex dipendente OpenAI Daniel Levy e all’investitore e imprenditore nel campo dell’AI Daniel Gross, che ha lavorato come partner presso Y Combinator, l’incubatore di start-up della Silicon Valley che Altman dirigeva. Gross possiede quote in aziende come GitHub e Instacart e in aziende AI tra cui Perplexity.ai, Character.ai e CoreWeave. Gli investitori in SSI non sono stati resi noti.

Il trio ha dichiarato che lo sviluppo della superintelligenza sicura – un tipo di intelligenza che potrebbe superare le capacità cognitive umane – è l’unico obiettivo dell’azienda. Hanno aggiunto che non sarà ostacolata dalle richieste di profitto degli investitori, come ad esempio la richiesta di attrarre i migliori talenti per l’iniziativa. OpenAI aveva una missione simile a quella di SSI quando fu fondata nel 2015 come laboratorio di ricerca no-profit per creare un’AI superintelligente a beneficio dell’umanità. Sebbene Altman sostenga che questo sia ancora il principio guida di OpenAI, l’azienda si è trasformata in un business in rapida crescita sotto la sua guida.

Sutskever e i suoi co-fondatori hanno dichiarato in una nota che “l’unico obiettivo di Safe Superintelligence” significa nessuna distrazione da sovraccarichi gestionali o cicli produttivi, e il nostro modello di business significa che sicurezza, protezione e progresso sono tutti isolati dalle pressioni commerciali a breve termine”. L’azienda avrà sede sia a Palo Alto che a Tel Aviv (Sutskever è di origini israelo-canadesi).

Chi è Ilya Sutskever

Ilya Sutskever

Sutskever è considerato uno dei principali ricercatori mondiali nel campo dell’AI. Ha svolto un ruolo importante nei primi successi di OpenAI nel campo dell’AI generativa. L’annuncio della sua uscita da OpenAI è arrivato dopo un periodo di turbolenze nel gruppo leader nell’AI, centrato su scontri sulla direzione della leadership e sulla sicurezza. A novembre, i vertici di OpenAI – che all’epoca includevano Sutskever – hanno sollevato Altman dal ruolo di CEO. Ma Altman è tornato pochi giorni dopo con un nuovo consiglio di amministrazione, senza Sutskever. Dopo il fallito “colpo di stato”, Sutskever è rimasto nell’azienda per alcuni mesi, per andarsene a maggio. Quando si è dimesso ha detto di essere “entusiasta di ciò che verrà dopo – un progetto molto significativo per me personalmente del quale condividerò i dettagli a tempo debito”.

Fuoriusciti da OpenAI, i precedenti

Non è la prima volta che i dipendenti di OpenAI si staccano dal produttore di ChatGPT per creare sistemi AI “sicuri”. Nel 2021, Dario Amodei, ex responsabile della sicurezza dell’AI nell’azienda, ha creato la sua start-up, Anthropic, che ha raccolto 4 miliardi di dollari da Amazon e centinaia di milioni in più da venture capitalist, con una valutazione superiore ai 18 miliardi di dollari.

Jan Leike, un’altra persona che ha recentemente lasciato l’azienda e che lavorava a stretto contatto con Sutskever, ha detto che le sue differenze con la leadership dell’azienda avevano “raggiunto un punto di rottura” poiché “la cultura e i processi di sicurezza sono passati in secondo piano rispetto ai prodotti luccicanti”. Leike si è unito al rivale di OpenAI, Anthropic.

Articoli correlati