Il CES 2026 è stato il palcoscenico di un avanzamento significativo nel mondo della guida autonoma, con Jensen Huang, CEO di Nvidia, che ha rivelato Alpamayo, una piattaforma di intelligenza artificiale che promette di far “riflettere” le auto. Immaginate per un attimo veicoli in grado di comprendere il mondo intorno a loro, di anticipare comportamenti imprevisti e di reagire come farebbe un conducente umano. Una vera e propria rivoluzione che potrebbe ridefinire il nostro rapporto con la strada.
Progressi significativi nella guida autonoma
La guida autonoma ha fatto progressi considerevoli negli ultimi anni, ma una sfida principale rimane da affrontare: la gestione delle situazioni rare e imprevedibili. Questi momenti in cui tutto può cambiare, che si tratti di un comportamento inaspettato di un pedone o di una condizione meteorologica estrema, continuano a rappresentare un rompicapo anche per i sistemi più sofisticati. Al CES di Las Vegas 2026, Huang ha sottolineato questa realtà, evidenziando che le tecnologie attuali devono evolversi per affrontare questi scenari complessi.
Le auto “riflettono” ora
Con Alpamayo, Nvidia introduce un cambiamento radicale nell’architettura dei sistemi di guida autonoma. È finito il tempo in cui percezione e pianificazione venivano trattate separatamente. Si passa ai modelli Vision-Language-Action (VLA), che integrano il ragionamento e la comprensione delle relazioni di causa ed effetto. Questi modelli non si limitano a eseguire compiti, possono spiegare le loro decisioni, un aspetto cruciale per migliorare la trasparenza e la fiducia degli utenti. Questo potrebbe essere il colpo di spinta necessario per l’adozione massiccia della guida autonoma.
Huang ha evocato un vero “momento ChatGPT” per l’IA fisica, un periodo in cui le macchine iniziano a comprendere e agire in modo autonomo nel mondo reale. Secondo le previsioni di Nvidia, i robotaxi e i veicoli autonomi di livello 4 saranno tra i primi a beneficiare di questo avanzamento tecnologico, rendendo le nostre strade più sicure e intelligenti.
Un ecosistema aperto per un’autonomia di nuova generazione
Alpamayo non è solo un modello unico; è un vero e proprio ecosistema aperto basato su tre pilastri fondamentali. Il primo è Alpamayo 1, il primo modello VLA progettato specificamente per la ricerca sulla guida autonoma. Con i suoi 10 miliardi di parametri, utilizza input video per generare traiettorie di guida documentando il ragionamento dietro ogni manovra. Questo modello è pubblicato in open source su Hugging Face, consentendo agli sviluppatori di adattarlo alle loro esigenze specifiche.

Toyota e-Palette 2025
Il secondo pilastro è AlpaSim, un ambiente di simulazione completamente open source che consente di riprodurre in modo realistico i sensori, il traffico e le dinamiche di guida in ambienti vari. La simulazione rimane uno strumento chiave per convalidare gli algoritmi prima della loro messa su strada, garantendo così una maggiore sicurezza.
Infine, l’ultimo pilastro si basa sui Physical AI Open Datasets, uno dei set di dati aperti più vasti per la guida autonoma. Composto da oltre 1.700 ore di guida reale raccolte in vari contesti geografici, questo set pone particolare enfasi sugli scenari rari e complessi.
Il sostegno dell’industria automobilistica




















Questo approccio innovativo di Nvidia ha già attirato l’interesse di attori chiave del settore automobilistico. Aziende come Lucid, Jaguar Land Rover e Uber, così come istituzioni accademiche come Berkeley DeepDrive, vedono in Alpamayo un vero acceleratore concreto per lo sviluppo di stack AV (veicoli autonomi) basati sul ragionamento e orientati verso l’autonomia di livello 4. L’apertura dei modelli e dei set di dati è percepita come una strategia essenziale per affrontare insieme le sfide della guida autonoma.
Galleria: Toyota e-Palette 2025










