Durante la conferenza NeurIPS 2025, a San Diego, Nvidia ha annunciato il suo nuovo modello open-source per la ricerca su veicoli autonomi: Alpamayo-R1, descritto come “il primo modello industriale open reasoning vision-language-action (VLA) per la mobilità”.
Questo modello consente ai veicoli di combinare visione e linguaggio: può analizzare l’ambiente visivo, descriverlo in termini comprensibili e ragionare su azioni da compiere, come farebbe un essere umano.
Indice degli argomenti:
Dai foundation model alla guida autonoma
Alpamayo-R1 si basa su Cosmos Reason, parte della famiglia di modelli aperti Nvidia Cosmos, progettati per la cosiddetta “physical AI” – ovvero sistemi di AI che operano nel mondo reale, come robot e veicoli.
La piattaforma Cosmos, lanciata nel 2025, offre modelli predefiniti, strumenti per generazione di dati sintetici, simulazioni e pipeline di training per aiutare sviluppatori e ricercatori.
Inoltre, Cosmos Reason è in grado di ragionare su sequenze video, comprendere dinamiche fisiche, prevedere interazioni e decidere comportamenti: una base fondamentale per robot e veicoli capaci di adattarsi a ambienti complessi.
Verso autonomia “livello 4” e “decisioni con buon senso”
Secondo Nvidia, tecnologie come Alpamayo-R1 sono cruciali per raggiungere l’autonomia di livello 4, ovvero veicoli capaci di operare in piena autonomia in un’area definita e in condizioni specifiche.
Il valore aggiunto sta nella capacità di “pensare” prima di agire: grazie al ragionamento multistep, l’AI può affrontare decisioni complesse – come interpretare movimenti pedonali, corsie ciclabili, interazioni impreviste – con una sorta di “common sense”.
Inoltre, rendendo il modello e gli strumenti open-source (disponibili su GitHub e Hugging Face), Nvidia invita la comunità di ricerca a collaborare, sperimentare e migliorare la tecnologia.
Strumenti e risorse per sviluppatori e ricercatori
Insieme ad Alpamayo-R1, Nvidia ha pubblicato una raccolta di strumenti, guide passo-passo, workflow per inferenza e post-training: un pacchetto chiamato Cosmos Cookbook. Questo toolkit include risorse per curare i dati, generare dati sintetici e valutare i modelli per casi d’uso specifici.
In pratica, grazie a queste risorse, anche chi non parte da un’infrastruttura proprietaria può sperimentare, adattare e testare modelli per guida autonoma o robotica. Questo rende la “physical AI” più accessibile e favorisce una maggiore trasparenza e collaborazione nel settore.
Un futuro guidato dall’intelligenza fisica
La visione di Nvidia – condivisa anche da altri esperti del settore – è che la prossima ondata di innovazione AI non sarà limitata a chatbot o generatori di testo/immagini, ma entrerà nel mondo fisico: robot, auto, sistemi autonomi reali.
Con Alpamayo-R1 e Cosmos, Nvidia mette sul tavolo una “scatola degli attrezzi” – aperta, collaborativa e potente – che potrebbe accelerare l’ingresso su larga scala di veicoli autonomi più intelligenti, sicuri e adattativi.
AR1 sarà disponibile su GitHub e Hugging Face, con parte dei dati di training inclusi nei Physical AI Open Datasets. NVIDIA ha rilasciato anche AlpaSim, framework open-source per valutare AR1.






