La probabilità che Nvidia investa molto meno dei 100 miliardi di dollari ipotizzati in OpenAI solleva interrogativi rilevanti per Oracle. Al centro del dibattito ci sono due questioni primarie: se lo sviluppatore di ChatGPT riuscirà a onorare il contratto quinquennale da 300 miliardi di dollari con Oracle e se il colosso del software debba davvero registrare l’intero valore dell’accordo nei propri libri contabili.
Indice degli argomenti:
OpenAI insoddisfatta dei chip Nvidia: alla ricerca di alternative per l’inferenza AI
OpenAI non è soddisfatta di alcuni degli ultimi chip per intelligenza artificiale di Nvidia e sta cercando alternative dallo scorso anno, secondo fonti vicine alla vicenda. Questo cambiamento potrebbe complicare i rapporti tra due dei protagonisti più importanti del boom dell’AI.
Nuova strategia per l’inferenza AI
Secondo quanto riportato da Reuters, OpenAI sta cambiando strategia, concentrandosi maggiormente sui chip utilizzati per l’inferenza AI: il processo con cui un modello di intelligenza artificiale, come quello alla base di ChatGPT, risponde a richieste e domande degli utenti.
Nvidia rimane dominante nei chip per l’addestramento di grandi modelli AI, mentre l’inferenza sta diventando il nuovo campo di battaglia nel settore.
Incertezza sul mega-investimento Nvidia
Questa decisione di OpenAI di esplorare alternative segna una sfida significativa per la supremazia di Nvidia nell’AI, arrivando proprio mentre le due aziende sono in trattative per un investimento.
A settembre, Nvidia aveva annunciato l’intenzione di investire fino a 100 miliardi di dollari in OpenAI, in un accordo che avrebbe garantito allo sviluppatore di chip una partecipazione nella startup e fornito a OpenAI liquidità per acquistare chip avanzati.
Il deal era atteso a chiudersi in poche settimane, ma le trattative si sono protratte per mesi. Nel frattempo, OpenAI ha stretto accordi con AMD e altri fornitori per GPU in grado di competere con Nvidia. Tuttavia, il cambiamento nella roadmap dei prodotti di OpenAI ha modificato le risorse computazionali richieste, rallentando le negoziazioni con Nvidia.
Reazioni di Nvidia e OpenAI
Alla fine di gennaio, il CEO di Nvidia Jensen Huang ha minimizzato le tensioni con OpenAI, definendole “assurdità”, e confermando i piani per un enorme investimento nella società.
Nvidia ha dichiarato: “I clienti continuano a scegliere Nvidia per l’inferenza perché offriamo le migliori prestazioni e il miglior costo totale di proprietà su larga scala”.
OpenAI, dal canto suo, ha confermato di affidarsi a Nvidia per la maggior parte della sua flotta di inferenza e di ritenere la società il miglior fornitore per rapporto prestazioni/costo. Dopo la pubblicazione dell’articolo, il CEO di OpenAI Sam Altman ha scritto su X che Nvidia produce “i migliori chip AI al mondo” e che OpenAI spera di rimanere “un cliente enorme per molto tempo”.
Lentezza di Nvidia nell’inferenza
Alcune fonti hanno riferito a Reuters che OpenAI non è soddisfatta della velocità con cui l’hardware Nvidia elabora risposte per specifici problemi, come lo sviluppo software o la comunicazione tra AI e altri programmi. OpenAI necessiterebbe di nuovo hardware in grado di coprire circa il 10% dei suoi bisogni di calcolo per l’inferenza in futuro.
La società ha esplorato collaborazioni con startup come Cerebras e Groq per chip più veloci. Tuttavia, un accordo di licenza da 20 miliardi di dollari tra Nvidia e Groq ha interrotto le trattative con OpenAI.
Perché l’inferenza richiede chip diversi
I chip Nvidia sono ottimizzati per elaborare grandi quantità di dati necessarie per addestrare modelli AI come ChatGPT. Ma l’AI moderna punta sempre più all’inferenza e al ragionamento, settori in cui la velocità e l’efficienza della memoria diventano cruciali.
OpenAI cerca chip con grandi quantità di memoria integrata (SRAM) nello stesso silicio del chip. Questa configurazione può accelerare notevolmente chatbot e sistemi AI che gestiscono milioni di richieste simultanee.
I chip Nvidia e AMD, invece, utilizzano memoria esterna, rallentando l’interazione con gli utenti. Il problema si è evidenziato in particolare con Codex, il prodotto di OpenAI per la generazione di codice, dove la lentezza dell’hardware ha limitato le performance, secondo una fonte interna.
La risposta di OpenAI
Altman ha dichiarato che i clienti dei modelli di coding di OpenAI daranno “un grande valore alla velocità”. Una soluzione è arrivata con l’accordo con Cerebras, mentre per gli utenti generali di ChatGPT la velocità resta meno cruciale.
Prodotti concorrenti, come Claude di Anthropic o Gemini di Google, utilizzano chip progettati internamente (TPU) ottimizzati per l’inferenza, offrendo vantaggi prestazionali rispetto ai GPU general-purpose di Nvidia.
Nvidia punta a consolidare la tecnologia
Mentre OpenAI esplorava alternative, Nvidia ha avvicinato aziende produttrici di chip con molta SRAM, tra cui Cerebras e Groq, per potenziali acquisizioni. Cerebras ha rifiutato ma ha firmato un accordo commerciale con OpenAI, mentre Groq ha ricevuto interessi di investimento per valutazioni intorno ai 14 miliardi di dollari.
A dicembre, Nvidia ha ottenuto una licenza non esclusiva per la tecnologia Groq, assumendo anche i suoi progettisti di chip, mentre Groq ora si concentra sul software cloud. Secondo dirigenti del settore, questa mossa mira a rafforzare il portafoglio tecnologico di Nvidia e competere meglio in un settore AI in rapida evoluzione.
Un contratto mastodontico e conti sotto osservazione
Al 30 novembre Oracle dichiarava 523 miliardi di dollari di remaining performance obligations (RPO), ossia vendite già contrattualizzate ma non ancora contabilizzate come ricavi. Questa voce, molto osservata dagli analisti, valeva circa nove volte il fatturato degli ultimi quattro trimestri e includeva i 300 miliardi legati a OpenAI.
Dopo la pubblicazione dei risultati, a inizio settembre il titolo Oracle era balzato fino al 36% in un solo giorno, complice il fatto che le RPO erano più che triplicate rispetto al trimestre precedente.
La “circolarità” dei deal sull’intelligenza artificiale
Il rapporto tra OpenAI e Nvidia ha incarnato le preoccupazioni sulla circolarità degli accordi nel settore AI. La lettera d’intenti annunciata il 22 settembre prevedeva investimenti fino a 100 miliardi di dollari da parte di Nvidia in OpenAI nel corso di molti anni. Una parte dei fondi sarebbe tornata a Nvidia sotto forma di acquisti di chip, mentre un’altra avrebbe consentito a OpenAI di sostenere costi come quelli per la capacità di calcolo fornita da Oracle.
Debito, capitale e la risposta di Oracle
Tra i timori per l’indebitamento e l’affidabilità di OpenAI, Oracle ha subito pressioni per rafforzare il capitale e difendere il rating investment grade. Il 1° febbraio l’azienda ha annunciato l’intenzione di emettere fino a 20 miliardi di dollari di azioni ordinarie nel 2026, all’interno di un piano più ampio per raccogliere tra 45 e 50 miliardi tramite capitale e debito destinati all’espansione della propria infrastruttura cloud.
L’emissione di nuove azioni diluirebbe gli azionisti, che hanno già visto il titolo perdere circa metà del valore dal picco di settembre. Tuttavia, in un contesto segnato da incertezza e accordi circolari nell’AI, rafforzare il capitale appare una mossa prudente.
Data center, chip e dipendenze incrociate
Oracle sta già costruendo data center finanziati con nuovo debito, facendo affidamento sul contratto con OpenAI. Oracle e Nvidia sono anche clienti reciproci, sebbene Oracle abbia recentemente segnalato l’intenzione di diversificare gli acquisti di chip AI oltre Nvidia.
Ora però una parte rilevante dei finanziamenti attesi da OpenAI è in dubbio. Questo riapre il tema di come la società potrà sostenere impegni stimati in 1.400 miliardi di dollari, inclusi quelli verso Oracle, facendo leva su nuovi investimenti e su una crescita dei ricavi ancora tutta da dimostrare.
Le rassicurazioni ufficiali e i dubbi del mercato
Una portavoce di Oracle, Deborah Hellinger, ha dichiarato: «L’accordo Nvidia–OpenAI non ha alcun impatto sul nostro rapporto finanziario con OpenAI. Restiamo altamente fiduciosi nella capacità di OpenAI di raccogliere fondi e rispettare i propri impegni».
Eppure, il 30 gennaio il Wall Street Journal ha riportato che l’accordo di settembre con Nvidia si era arenato dopo le perplessità emerse all’interno del gruppo. Il giorno successivo, a Taipei, l’amministratore delegato Jensen Huang ha assicurato che Nvidia «sarà assolutamente coinvolta» nell’ultimo round di finanziamento di OpenAI, precisando però, alla domanda su un importo superiore ai 100 miliardi: «No, no, niente del genere».
Fundraising, IPO e il nodo contabile finale
OpenAI punta a raccogliere 100 miliardi di dollari nel nuovo round, con possibili investimenti da Nvidia, SoftBank (fino a 30 miliardi dopo l’ingresso a 11% con 22,5 miliardi) e Amazon. L’azienda guarda anche a una IPO nel quarto trimestre dell’anno.
Tutto questo potrebbe andare in porto. Ma resta speculativo. E il ridimensionamento dell’impegno di Nvidia riapre la domanda chiave per Oracle: incassare i 300 miliardi da OpenAI è ancora “probabile” secondo il giudizio del management? Le regole contabili impongono una risposta affermativa per includere la cifra nelle RPO.
Da qui dipendono effetti a catena: il rating investment grade di Oracle (tripla B) è sotto osservazione negativa per S&P e Moody’s; parte del debito già scambia come “junk” e il costo delle coperture contro il default è aumentato.
Ciò che Oracle non può permettersi di perdere è la credibilità. Se il management continuerà a ritenere probabile l’incasso dei 300 miliardi, quella valutazione dovrà dimostrarsi corretta.
La circolarità degli accordi nel settore dell’AI rischia di creare valore solo sulla carta: capitali che girano tra gli stessi attori, gonfiando ricavi e valutazioni senza una domanda finale solida. In questo schema autoreferenziale, il confine tra crescita industriale e ingegneria finanziaria diventa sempre più sottile, aumentando i rischi sistemici.








