Durante la conferenza NeurIPS 2025, a San Diego, Nvidia ha annunciato il suo nuovo modello open-source per la ricerca su veicoli autonomi: Alpamayo-R1, descritto come “il primo modello industriale open reasoning vision-language-action (VLA) per la mobilità”.
Questo modello consente ai veicoli di combinare visione e linguaggio: può analizzare l’ambiente visivo, descriverlo in termini comprensibili e ragionare su azioni da compiere, come farebbe un essere umano.
tecnologia
Nvidia Alpamayo-R1, il modello per auto autonome che ragiona come un umano
Si tratta del primo modello “vision-language-action” open-source pensato per la guida autonoma. Basato sulla piattaforma Cosmos Reason, Alpamayo-R1 promette ragionamento simile a quello umano per vetture a guida autonoma, supportato da nuove librerie per addestramento, simulazione e generazione dati

Continua a leggere questo articolo
Aziende
Argomenti
Canali





