Il CES 2026 di Las Vegas rappresenta un momento di svolta per Nvidia. Storicamente associata al mondo delle schede grafiche e del gaming, l’azienda ha scelto di usare il palcoscenico più importante dell’elettronica di consumo per ribadire un messaggio ormai chiaro: il cuore della sua strategia non è più l’hardware consumer, ma l’intelligenza artificiale come piattaforma abilitante per interi settori industriali.
La presenza di Nvidia al CES è stata meno orientata all’effetto annuncio e più alla costruzione di una narrazione di lungo periodo, in cui l’AI diventa una vera e propria infrastruttura, paragonabile per importanza a internet o all’elettricità.

Indice degli argomenti:
Il keynote di Jensen Huang: dall’AI virtuale all’AI “fisica”
Durante il keynote, il CEO Jensen Huang ha illustrato la visione dell’“AI fisica”, un concetto che va oltre il software e i modelli linguistici. Secondo Huang, l’intelligenza artificiale sta entrando in una fase in cui interagisce direttamente con il mondo reale: robot che apprendono dai movimenti, veicoli che interpretano l’ambiente circostante, sistemi industriali capaci di adattarsi in tempo reale.
Questa visione riflette l’ambizione di NVIDIA di essere il fornitore tecnologico di riferimento non solo per i data center, ma anche per l’automotive, la robotica e l’industria manifatturiera avanzata.
Guarda il video dell’intervento di Jensen Huang
La “Physical AI”: quando l’intelligenza artificiale entra nel mondo reale
.L’intelligenza artificiale sta vivendo una nuova fase evolutiva: non è più confinata al cloud o alle applicazioni software, ma si radica sempre più nel mondo fisico. Nvidia definisce questa transizione Physical AI, un approccio che combina addestramento, inferenza ed edge computing per consentire alle macchine di percepire, comprendere e interagire con l’ambiente reale.
Secondo la visione dell’azienda, l’AI del futuro non si limiterà a generare testi o immagini, ma guiderà robot, veicoli autonomi e sistemi industriali intelligenti capaci di operare in contesti complessi e dinamici.
Addestramento nel virtuale prima della realtà
Uno degli elementi chiave della Physical AI è la possibilità di addestrare i sistemi in mondi virtuali prima che entrino in contatto con quello reale. Grazie a dati sintetici generati in ambienti simulati, l’AI può affrontare milioni di scenari – compresi quelli rari o pericolosi – riducendo tempi, costi e rischi.
Questo approccio consente di preparare modelli avanzati molto prima della loro implementazione sul campo, accelerando lo sviluppo di applicazioni come la robotica autonoma e la guida assistita.
Nvidia Cosmos: modelli fondativi per il mondo fisico
Durante la presentazione, Jensen Huang ha mostrato Nvidia Cosmos, una nuova famiglia di modelli fondativi open world progettati per la Physical AI. Cosmos è stato addestrato su un’ampia combinazione di video, dati robotici e simulazioni, con l’obiettivo di fornire una comprensione profonda del mondo reale e delle sue dinamiche.
Questi modelli rappresentano un passo decisivo verso un’AI capace non solo di riconoscere ciò che vede, ma anche di prevedere ciò che accadrà.

Dalla generazione video alla previsione delle traiettorie
Le capacità di Cosmos coprono un ampio spettro di applicazioni. Il sistema è in grado di generare video realistici a partire da una singola immagine, di sintetizzare scenari di guida multi-camera e di ricreare ambienti complessi a partire da semplici prompt descrittivi.
Inoltre, Cosmos supporta ragionamento fisico e previsione delle traiettorie, competenze fondamentali per robot e veicoli autonomi che devono muoversi in sicurezza in ambienti reali.
Simulazioni interattive e apprendimento continuo
Un altro elemento centrale è la capacità di gestire simulazioni interattive a ciclo chiuso, in cui l’AI osserva, agisce e apprende in tempo reale all’interno di ambienti virtuali. Questo tipo di simulazione permette di testare e migliorare continuamente i modelli, prima e dopo il loro impiego nel mondo fisico.
Verso una nuova generazione di sistemi intelligenti
La Physical AI segna un passaggio fondamentale nell’evoluzione dell’intelligenza artificiale. Grazie alle tecnologie Nvidia, l’AI diventa un ponte tra il virtuale e il reale, aprendo la strada a sistemi intelligenti più sicuri, adattivi e affidabili.
Robot, veicoli autonomi e macchine industriali non si limiteranno più a eseguire istruzioni: saranno in grado di comprendere il mondo che li circonda e di prendere decisioni basate su una reale comprensione fisica dell’ambiente.

Vera Rubin: la nuova infrastruttura per l’era dei grandi modelli
Il fulcro degli annunci è stata la piattaforma Vera Rubin, progettata per rispondere alle crescenti esigenze di calcolo dell’intelligenza artificiale. Non si tratta di un singolo chip, ma di un’architettura completa di livello rack-scale, che integra nuove CPU, GPU e sistemi di interconnessione ad altissima velocità.
Vera Rubin è pensata per sostenere l’addestramento e l’inferenza di modelli sempre più grandi e complessi, riducendo i colli di bottiglia energetici e computazionali. Nvidia punta a rendere questa piattaforma uno standard per i data center AI di nuova generazione, con disponibilità commerciale prevista nella seconda metà del 2026 attraverso partner industriali e cloud provider.
Sei chip per un supercomputer AI senza precedenti
Nvidia Rubin è un’architettura che riunisce sei nuovi chip in un unico, potente supercomputer AI. L’obiettivo è chiaro: ridefinire il modo in cui vengono costruiti, distribuiti e messi in sicurezza i più grandi sistemi di intelligenza artificiale al mondo, riducendone drasticamente i costi e accelerandone l’adozione su larga scala.
Rubin rappresenta un salto generazionale rispetto alla piattaforma Blackwell e introduce un approccio di codesign estremo tra hardware e software, pensato per rispondere alla crescita esplosiva della domanda di calcolo per training e inferenza.
Sei componenti chiave, un’unica architettura
La piattaforma Rubin è il risultato dell’integrazione di sei componenti chiave: la CPU Vera, la GPU Rubin, lo switch NVLink 6, il SuperNIC ConnectX-9, la DPU BlueField-4 e lo switch Ethernet Spectrum-6.
Questa progettazione congiunta consente di ridurre fino a 10 volte il costo per token in fase di inferenza e di utilizzare quattro volte meno GPU per addestrare modelli Mixture-of-Experts (MoE) rispetto alla generazione precedente.

Secondo Jensen Huang, Rubin arriva “nel momento perfetto”, quando la richiesta di potenza di calcolo per l’AI sta raggiungendo livelli senza precedenti. “Con il nostro ritmo annuale di innovazione e il codesign estremo su sei chip, Rubin segna un balzo gigantesco verso la prossima frontiera dell’AI”, ha dichiarato.
Un nome che guarda alle stelle
La piattaforma prende il nome da Vera Florence Cooper Rubin, l’astronoma americana che ha rivoluzionato la comprensione dell’universo con le sue scoperte sulla materia oscura. Un riferimento simbolico a un’architettura che punta a cambiare radicalmente il modo in cui l’umanità utilizza l’intelligenza artificiale.
Rubin debutta in due configurazioni principali:
- la soluzione rack-scale NVIDIA Vera Rubin NVL72
- il sistema NVIDIA HGX Rubin NVL8, pensato per server generativi e HPC basati su architettura x86.
Cinque innovazioni per l’AI agentica e il reasoning
La piattaforma introduce cinque innovazioni fondamentali: la sesta generazione di NVLink, il nuovo Transformer Engine, il Confidential Computing di terza generazione, il RAS Engine di seconda generazione e la nuova CPU Vera. Insieme, queste tecnologie accelerano l’AI agentica, il ragionamento avanzato e l’inferenza su larga scala, abbattendo il costo per token fino a dieci volte rispetto a Blackwell.
NVLink 6, in particolare, garantisce comunicazioni GPU-to-GPU a 3,6 TB/s per singola GPU, mentre un rack NVL72 raggiunge i 260 TB/s, superando la larghezza di banda complessiva di internet.
CPU Vera e GPU Rubin: potenza ed efficienza
La CPU Nvidia Vera, progettata specificamente per il reasoning agentico, è descritta come la CPU più efficiente dal punto di vista energetico per le AI factory su larga scala. Basata su 88 core Nvidia Olympus compatibili Armv9.2, offre connettività NVLink-C2C ad altissima velocità.
La GPU Rubin, invece, integra un Transformer Engine di terza generazione con compressione adattiva accelerata in hardware e raggiunge 50 petaflops di calcolo NVFP4 per l’inferenza AI, segnando un nuovo riferimento prestazionale.
Sicurezza, affidabilità e storage AI-native
Rubin è la prima piattaforma rack-scale a offrire Confidential Computing, estendendo la protezione dei dati a CPU, GPU e interconnessioni NVLink. Il nuovo RAS Engine introduce controlli di salute in tempo reale, tolleranza ai guasti e manutenzione predittiva, migliorando drasticamente la produttività dei sistemi.

Sul fronte dello storage, Nvidia ha presentato la Inference Context Memory Storage Platform, basata su BlueField-4, progettata per condividere e riutilizzare in modo efficiente i dati di contesto dei modelli AI, migliorando latenza, throughput ed efficienza energetica nelle applicazioni di AI agentica.
Ethernet di nuova generazione per le AI factory
L’infrastruttura di rete è un altro pilastro della piattaforma. Nvidia Spectrum-6 Ethernet e i sistemi Spectrum-X Ethernet Photonics promettono fino a 5 volte maggiore efficienza energetica, 10 volte più affidabilità e uptime esteso per le applicazioni AI. Le tecnologie Spectrum-XGS consentono persino a data center distanti centinaia di chilometri di operare come un unico ambiente AI.
Un ecosistema globale pronto a Rubin
L’adozione di Rubin coinvolge l’intero ecosistema AI globale. Tra i primi partner figurano AWS, Google Cloud, Microsoft, Oracle Cloud Infrastructure e cloud provider specializzati come CoreWeave. Microsoft utilizzerà sistemi Vera Rubin NVL72 nelle future Fairwater AI superfactory, mentre CoreWeave integrerà Rubin nella propria piattaforma a partire dalla seconda metà del 2026.
Anche i principali produttori di server – Cisco, Dell, HPE, Lenovo e Supermicro -stanno preparando soluzioni basate su Rubin, mentre laboratori AI come OpenAI, Anthropic, Meta, Mistral AI e xAI guardano alla nuova piattaforma per addestrare modelli più grandi, multimodali e a contesto esteso.
La base dell’AI del futuro
In piena produzione, con disponibilità commerciale prevista per la seconda metà del 2026, la piattaforma Rubin rappresenta la terza generazione di architetture rack-scale Nvidia. Supportata da oltre 80 partner dell’ecosistema MGX e da una collaborazione rafforzata con Red Hat per uno stack AI completo, Rubin si propone come la base tecnologica su cui costruire le AI factory del futuro.
Più che un nuovo prodotto, Rubin è una dichiarazione strategica: Nvidia punta a essere l’infrastruttura di riferimento dell’era dell’intelligenza artificiale su scala planetaria.
Automotive e guida autonoma: Nvidia vuole lo standard
Un altro pilastro della presenza NVIDIA al CES 2026 è stato l’automotive. L’azienda ha presentato nuove soluzioni AI dedicate alla guida autonoma avanzata, con piattaforme progettate per supportare livelli elevati di automazione.

Le dimostrazioni hanno mostrato come i sistemi Nvidia possano gestire percezione, pianificazione e controllo in modo integrato, aprendo la strada a veicoli di livello 4. Le collaborazioni con importanti case automobilistiche indicano la volontà di Nvidia di diventare uno standard tecnologico nel settore, fornendo non solo hardware, ma anche software e modelli AI pronti all’uso.
Partnership e ecosistema: l’AI come piattaforma condivisa
Il CES 2026 ha messo in evidenza anche la fitta rete di collaborazioni di Nvidia. Dalle infrastrutture AI cloud sviluppate con grandi partner tecnologici, fino alle applicazioni industriali e robotiche, l’azienda sta costruendo un ecosistema in cui hardware, software e servizi crescono in modo integrato.
Questa strategia consente a Nvidia di rafforzare la propria posizione non solo come fornitore di tecnologia, ma come abilitatore di interi modelli di business basati sull’AI.







