Großer Erfolg für Nvidia bei seiner GTC Konferenz in San José. Mehrere asiatische Autohersteller setzen beim Thema autonomes Fahren auf die Technologie von Nvidia. Hyundai, Kia BYD, Geely und Nissan verwenden Nvidias Drive-Hyperion-Architektur.
<h2>Gebündelte Kompetenz für die Zukunft</h2>
Die Hyundai Motor Group bringt ihre Kompetenzen bei softwaredefinierten Fahrzeugen, die Daten der weltweiten Fahrzeugflotte und ihre Erfahrung in der Entwicklung von autonomen Systemen ein. Nvidia steuert seine Expertise im Bereich des beschleunigten Rechnens, seine KI-Infrastruktur und die Software für autonomes Fahren bei. Gemeinsam soll ein skalierbares, datengestütztes System für alle Fahrzeugplattformen der Gruppe entstehen.
Vom Fahrassistenten zum Robotaxi
Im Rahmen der Partnerschaft plant die Hyundai Motor Group, Technologien von Nvidia für Systeme ab dem Level 2 zu integrieren. Ausgewählte Fahrzeuge sollen so mit verbesserten Sicherheits- und intelligenten Fahrfunktionen ausgestattet werden. Die Zusammenarbeit erstreckt sich auch auf Motional, das Joint Venture der Gruppe für autonomes Fahren. Hier soll die Entwicklung von Robotaxi-Diensten auf Level 4 vorangetrieben und die nächste Generation autonomer Mobilitätsdienste beschleunigt werden.
Ein Kreislauf aus Daten und Lernen
„Die erweiterte Partnerschaft ist ein wichtiger Meilenstein, um die Vision von sicherer und zuverlässiger autonomer Fahrtechnologie zu verwirklichen“, sagt Heung-Soo Kim, Executive Vice President der Hyundai Motor Group. Auf Basis eines einheitlichen Rahmens wolle man die technologische Wettbewerbsfähigkeit stärken. Der Ansatz ermöglicht einen kontinuierlichen Entwicklungszyklus. Dieser umfasst das Sammeln von Fahrdaten aus der realen Welt in großem Maßstab, das Training und die Verfeinerung von KI-Modellen sowie Simulation, Validierung und die anschließende Bereitstellung in den Serienfahrzeugen. So lernen die Fahrzeuge kontinuierlich aus den realen Fahrbedingungen.
Mehrere Hersteller – eine Plattform
BYD, Geely und Nissan – letzteres mit Software von Wayve – entwickeln ihre Level-4-Programme auf Basis von Nvidias Drive-Hyperion-Architektur. Diese vereint Recheneinheiten, Sensorik, Netzwerktechnik und Sicherheitssysteme in einer standardisierten Referenzarchitektur. Isuzu arbeitet gemeinsam mit Tier IV an autonomen Bussen, die auf dem Drive-AGX-Thor-System-on-Chip basieren, das ebenfalls zur Drive-Hyperion-Familie gehört.Der Ansatz einer gemeinsamen Plattform soll Validierungszyklen verkürzen und die internationale Skalierung vereinfachen. Mobility-Anbieter wie Bolt, Grab und Lyft nutzen Drive Hyperion ebenfalls für ihre Robotaxi-Entwicklung.
Uber-Partnerschaft: Start in Los Angeles und San Francisco
Nvidia und Uber weiten ihre bestehende Kooperation aus. Geplant ist eine Flotte vollautonomer Fahrzeuge, die ausschließlich auf Nvidias Drive-AV-Software läuft. Den Anfang machen Los Angeles und die San Francisco Bay Area in der ersten Hälfte 2027, bis 2028 soll das Netz auf 28 Städte ausgedehnt werden.Halos OS: Sicherheitsarchitektur für Level 4
Als sicherheitstechnische Grundlage für die Drive-Hyperion-Plattform hat Nvidia das Halos-Betriebssystem entwickelt. Es basiert auf ASIL-D-zertifiziertem DriveOS und integriert Sicherheits-Middleware sowie anwendbare Sicherheitsapplikationen in drei Schichten – darunter einen aktiven Sicherheits-Stack, der dem NCAP-Fünf-Sterne-Standard entspricht. Ziel ist es, KI-basierte Fahrsysteme mit nachweisbarer Zuverlässigkeit nach Automobilstandard zu betreiben.Mehrere Unternehmen – darunter Aeye, Hesai, Valeo und die Qt Group – treten dem Nvidia Halos AI Systems Inspection Lab bei, das die Sicherheitsvalidierung im AV-Ökosystem unterstützen soll.
Alpamayo 1.5: Neues KI-Modell für autonomes Fahren
Nvidia stellt mit Alpamayo 1.5 eine aktualisierte Version seines offenen KI-Modellportfolios für autonome Fahrzeuge vor. Das Modell verarbeitet Fahrvideos, Bewegungshistorie des Fahrzeugs, Navigationshinweise und Texteingaben – und gibt daraus Fahrtrajektorien mit nachvollziehbaren Entscheidungspfaden aus. Entwickler können das Fahrverhalten direkt über Navigations- und Texteingaben steuern und anpassen.Gegenüber dem Vorgängermodell unterstützt Alpamayo 1.5 flexible Mehrkamera-Konfigurationen und anpassbare Kameraparameter, was den Einsatz desselben Fahrstacks über verschiedene Fahrzeuglinien und Sensorkonfigurationen hinweg vereinfacht. Seit dem Start Anfang 2026 haben nach Unternehmensangaben mehr als 100.000 Entwickler weltweit auf das Modell zugegriffen.
Simulation mit NuRec: Digitale Zwillinge für Testszenarien
Ergänzend zur Modellentwicklung stellt Nvidia mit Omniverse NuRec ein Simulations-Werkzeug bereit, das auf 3D-Gaussian-Splatting basiert. Die Technologie rekonstruiert reale Fahrumgebungen aus aufgezeichneten Daten und ermöglicht interaktive Simulationen – ohne manuelle Modellierung der Umgebung. Damit lassen sich seltene oder ungewöhnliche Fahrsituationen systematisch testen.NuRec wird über den Nvidia NGC-Katalog allgemein verfügbar gemacht. Simulationsanbieter wie dSpace und Foretellix haben die Technologie bereits in ihre Werkzeuge integriert. Die Universität Michigan nutzt NuRec, um einen digitalen Zwilling ihres physischen Testgeländes Mcity zu erstellen.
