tecnologia

Nvidia svela la nuova architettura Blackwell: un chip da 208 miliardi di transistor



Indirizzo copiato

Il CEO Jensen Huang ha annunciato che il chip avrà il doppio della potenza della generazione attuale di GPU per l’addestramento dei modelli AI e cinque volte la loro capacità in termini di ‘inferenza’. Le reazioni entusiastiche delle aziende clienti

Pubblicato il 19 mar 2024



chip AI

Nvidia ha svelato il suo ultimo e più potente chip per l’intelligenza artificiale, puntando a consolidare la sua supremazia nel settore in rapida espansione. Il 18 marzo, al SAP Center a San Jose, l’amministratore delegato Jensen Huang ha annunciato che le nuove unità di elaborazione grafica (GPU) Blackwell di Nvidia aumenteranno notevolmente la potenza di calcolo alla base dei grandi modelli linguistici. Il chip Blackwell vanta 208 miliardi di transistor, rispetto agli 80 miliardi del modello H100 dell’anno scorso, segno tangibile del suo incremento di potenza. Huang ha dichiarato che il chip è due volte più potente della generazione attuale di GPU per quanto riguarda l’addestramento dei modelli AI e ha cinque volte la loro capacità in termini di “inferenza”, ovvero la velocità con cui i modelli AI come ChatGPT possono rispondere alle richieste.

Chiamata così in onore di David Harold Blackwell, un matematico specializzato in teoria dei giochi e statistica e primo studioso nero ad essere inserito nella National Academy of Sciences, la nuova architettura succede all’architettura NVIDIA Hopper, lanciata due anni fa.

Il superchip GB200 combinerà due GPU Blackwell

“La capacità inferenziale del Blackwell è fuori scala”, ha affermato Huang, aggiungendo che c’è un'”emozione incredibile” intorno al prodotto. Il CEO ha inoltre rivelato che il “superchip” GB200 di Nvidia combinerà due GPU Blackwell con l’unità centrale di elaborazione (CPU) “Grace” dell’azienda, motore della crescita dell’AI generativa.

L’intervento principale di Huang – pronunciato davanti a una folla gremita di sviluppatori, investitori, media e altri al SAP Center a San Jose, California – ha evidenziato l’entusiasmo suscitato dall’azienda in un momento di crescente eccitazione per l’AI. In due anni, Nvidia è riuscita a trasformare il lancio dei nuovi chip GPU in un evento paragonabile all’hype dei lanci di prodotti consumer da parte di colossi come Apple, un fenomeno che lo stesso Huang ha sottolineato sul palco.

Quando Nvidia ha fatto il suo ingresso sul mercato circa due anni fa con i suoi chip “Hopper”, aveva solo due potenziali clienti, ha ricordato Huang. “Ora ne abbiamo di più”, ha scherzato. L’annuncio dei chip Blackwell durante la presentazione era uno dei segreti peggio custoditi della Silicon Valley e non ha particolarmente scosso gli investitori. La capitalizzazione di mercato di Nvidia è salita a 2,2 trilioni di dollari, superando Google e Amazon per diventare la terza azienda più preziosa al mondo dopo Microsoft e Apple. I nuovi partenariati, clienti e strumenti software rivelati da Huang durante il suo discorso biennale riflettono la convinzione fondamentale di Nvidia che l’AI avrà un effetto trasformativo su ogni parte dell’economia globale.

Tutti i grandi fornitori di servizi cloud, tra cui Google, Amazon e Microsoft, erano “in fila come clienti” per quello che prevedeva sarebbe stato “il lancio del prodotto più riuscito nella nostra storia”.

I chip Nvidia sono diventati la merce che ha sostenuto la rivoluzione dell’AI generativa e il suo stock in rapida crescita ha alimentato rally del prezzo delle azioni in tutto il mondo. Aziende come OpenAI, sostenuta da Microsoft, e altre entità hanno speso miliardi di dollari per acquisire i chip Nvidia, che offrono la potenza di calcolo alla base della tecnologia AI generativa in grado di produrre testi, video e codici simili a quelli umani in pochi secondi. Allo stesso tempo, Google, Amazon e Microsoft stanno cercando di sviluppare i loro chip AI generativi nel tentativo di ridurre la loro dipendenza da Nvidia e di legare più strettamente i clienti ai loro sistemi hardware e software.

Il superchip Nvidia GB200 Grace Blackwell

Il superchip NVIDIA GB200 Grace Blackwell collega due GPU NVIDIA B200 Tensor Core alla CPU NVIDIA Grace tramite un’interconnessione chip-to-chip NVLink a bassissima potenza da 900 GB/s.

Per ottenere le massime prestazioni di intelligenza artificiale, i sistemi alimentati da GB200 possono essere collegati con le piattaforme Ethernet NVIDIA Quantum-X800 InfiniBand e Spectrum-X800™, anch’esse annunciate, che offrono una rete avanzata a velocità fino a 800 Gb/s.

GB200 è un componente chiave di NVIDIA GB200 NVL72, un sistema multi-nodo, raffreddato a liquido e rack-scale per i carichi di lavoro più impegnativi dal punto di vista dell’elaborazione. Combina 36 superchip Grace Blackwell, che includono 72 GPU Blackwell e 36 CPU Grace interconnesse da NVLink di quinta generazione. Inoltre, GB200 NVL72 include unità di elaborazione dati NVIDIA BlueField-3 per consentire l’accelerazione della rete cloud, lo storage componibile, la sicurezza zero-trust e l’elasticità di calcolo della GPU nei cloud AI hyperscale. GB200 NVL72 offre un aumento delle prestazioni fino a 30 volte rispetto allo stesso numero di GPU NVIDIA H100 Tensor Core per carichi di lavoro di inferenza LLM e riduce i costi e il consumo energetico fino a 25 volte.

La piattaforma agisce come un’unica GPU con 1,4 exaflop di prestazioni AI e 30 TB di memoria veloce, ed è un elemento costitutivo per il nuovissimo DGX SuperPOD.

NVIDIA offre HGX B200, una scheda madre per server che collega otto GPU B200 tramite NVLink per supportare piattaforme di IA generativa basate su x86. HGX B200 supporta velocità di rete fino a 400 Gb/s attraverso le piattaforme di rete Ethernet NVIDIA Quantum-2 InfiniBand e Spectrum-X.

Nvidia: “Siamo una fonderia AI”

Il nuovo focus di Nvidia sull’inferenza AI risponde alle preoccupazioni di Wall Street che la grande domanda per i suoi chip possa iniziare a diminuire man mano che aziende come Intel e AMD cercano di competere e i clienti si allontanano dall’addestramento dei grandi modelli linguistici per implementarli. Per consolidarsi come fornitore principale di chip AI, Nvidia sta anche ampliando la sua offerta software con strumenti per aiutare a costruire applicazioni AI che funzionano sui chip. L’azienda sta rilasciando un nuovo strato del suo software Cuda chiamato “NIM microservices”, che le aziende possono utilizzare per distribuire una serie di modelli AI ottimizzati per funzionare sui chip Nvidia.

“Siamo effettivamente una fonderia AI… Faremo per voi e l’industria dell’AI quello che TSMC fa per noi nella costruzione dei chip”, ha detto Huang, citando nuove partnership con diverse aziende tra cui SAP, Snowflake e NetApp. TSMC è il principale produttore di chip al mondo e un componente critico nella catena di approvvigionamento globale. Se Nvidia potrà continuare la sua traiettoria dipenderà in parte dai rendimenti che i suoi clienti inizieranno a vedere sul loro investimento iniziale. Con gli investitori che si precipitano sulle azioni Nvidia, la pressione è alta per l’azienda per mantenere la sua vertiginosa crescita. La dimensione finale di questo futuro mercato dell’AI generativa rimane incerta. Huang ha previsto che il valore totale di tutta la tecnologia nei data center raggiungerà 2 trilioni di dollari nei prossimi quattro o cinque anni.

La piattaforma Omniverse

Huang ha anche utilizzato l’evento per promuovere la piattaforma software Omniverse di Nvidia, che può creare “gemelli digitali” degli oggetti. In futuro, “progetteremo tutto digitalmente prima e poi lo produrremo fisicamente”, ha detto. I nuovi modelli AI e software Nvidia aiuteranno nello sviluppo di robot umanoidi che sembrano e si muovono come persone, che Huang ha definito “la prossima generazione di robotica”.

Verso la fine dell’evento, Huang ha invitato due piccoli robot sul palco.

La reazione moderata del mercato potrebbe indicare che la frenesia attorno a Nvidia sta “raggiungendo il suo picco”, ha detto Daniel Newman, amministratore delegato del Futurum Group, al Financial Times. “Il mercato è molto orientato al futuro. Vede già una quota di mercato massiccia, la posizione dominante con gli hyperscalers, il vero vantaggio di mercato che ha con l’adesione al software Cuda”.

L’arrivo di chip concorrenti coincide con la questione di quanto tempo Nvidia possa sostenere una crescita a doppia cifra trimestre dopo trimestre, ha aggiunto Newman. “C’è solo un modo per Nvidia: dobbiamo vedere quanto è grande questo mercato”.

Le reazioni dei clienti di Nvidia

Tra le molte organizzazioni che dovrebbero adottare Blackwell ci sono Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla e xAI.

Sundar Pichai, CEO di Alphabet e Google: “La scalabilità di servizi come Search e Gmail a miliardi di utenti ci ha insegnato molto sulla gestione dell’infrastruttura di calcolo. Mentre entriamo nel cambiamento della piattaforma AI, continuiamo a investire profondamente nell’infrastruttura per i nostri prodotti e servizi e per i nostri clienti Cloud. Siamo fortunati ad avere una partnership di lunga data con NVIDIA e non vediamo l’ora di portare le funzionalità rivoluzionarie della GPU Blackwell ai nostri clienti Cloud e ai team di Google, incluso Google DeepMind, per accelerare le scoperte future”.

Andy Jassy, presidente e CEO di Amazon: “La nostra profonda collaborazione con NVIDIA risale a più di 13 anni fa, quando abbiamo lanciato la prima istanza cloud GPU al mondo su AWS. Oggi offriamo la più ampia gamma di soluzioni GPU disponibili ovunque nel cloud, supportando i carichi di lavoro accelerati tecnologicamente più avanzati al mondo. Questo è il motivo per cui la nuova GPU NVIDIA Blackwell funzionerà così bene su AWS ed è il motivo per cui NVIDIA ha scelto AWS per co-sviluppare Project Ceiba, combinando i superchip Grace Blackwell di nuova generazione di NVIDIA con la virtualizzazione avanzata e la rete ultraveloce Elastic Fabric Adapter di AWS Nitro System, per la ricerca e lo sviluppo dell’IA di NVIDIA. Grazie a questo sforzo congiunto tra gli ingegneri di AWS e NVIDIA, stiamo continuando a innovare insieme per rendere AWS il posto migliore per chiunque possa eseguire GPU NVIDIA nel cloud”.

Michael Dell, fondatore e CEO di Dell Technologies: “L’AI generativa è fondamentale per creare sistemi più intelligenti, affidabili ed efficienti. Dell Technologies e NVIDIA collaborano per plasmare il futuro della tecnologia. Con il lancio di Blackwell, continueremo a fornire la prossima generazione di prodotti e servizi accelerati ai nostri clienti, fornendo loro gli strumenti di cui hanno bisogno per guidare l’innovazione in tutti i settori”.

Demis Hassabis, cofondatore e CEO di Google DeepMind: “Il potenziale trasformativo dell’AI è incredibile e ci aiuterà a risolvere alcuni dei problemi scientifici più importanti del mondo. Le rivoluzionarie capacità tecnologiche di Blackwell forniranno l’elaborazione critica necessaria per aiutare le menti più brillanti del mondo a tracciare nuove scoperte scientifiche”.

Mark Zuckerberg, fondatore e CEO di Meta: “L’intelligenza artificiale alimenta già tutto, dai nostri modelli linguistici di grandi dimensioni ai nostri consigli sui contenuti, agli annunci e ai sistemi di sicurezza, e diventerà sempre più importante in futuro. Non vediamo l’ora di utilizzare Blackwell di NVIDIA per addestrare i nostri modelli Llama open source e costruire la prossima generazione di prodotti di intelligenza artificiale e consumer di Meta”.

Satya Nadella, Executive Chairman e CEO di Microsoft: “Ci impegniamo a offrire ai nostri clienti l’infrastruttura più avanzata per alimentare i loro carichi di lavoro AI. Portando il processore GB200 Grace Blackwell nei nostri data center a livello globale, stiamo costruendo sulla nostra lunga storia di ottimizzazione delle GPU NVIDIA per il nostro cloud, mentre rendiamo reale la promessa dell’AI per le organizzazioni di tutto il mondo”.

Sam Altman, CEO di OpenAI: “Blackwell offre enormi salti in termini di prestazioni e accelererà la nostra capacità di fornire modelli all’avanguardia. Siamo entusiasti di continuare a lavorare con NVIDIA per migliorare l’elaborazione dell’intelligenza artificiale”.

Larry Ellison, presidente e CTO di Oracle: “La stretta collaborazione di Oracle con NVIDIA consentirà progressi qualitativi e quantitativi nell’intelligenza artificiale, nell’apprendimento automatico e nell’analisi dei dati. Affinché i clienti possano scoprire informazioni più fruibili, è necessario un motore ancora più potente come Blackwell, costruito appositamente per l’elaborazione accelerata e l’intelligenza artificiale generativa”.

Articoli correlati

Articolo 1 di 4