Nvidia onthult opensourcemodel Drive Alpamayo-R1 voor autonome voertuigen

Nvidia introduceert het AI-onderzoeksmodel Drive Alpamayo-R1 voor autonome voertuigen. Volgens de fabrikant is dit het eerste opensourcemodel voor zelfrijdende auto's op basis van het 'vision, language, action'-principe. Het model moet via GitHub en Hugging Face beschikbaar komen voor onderzoekers, al is nog niet precies bekend wanneer.

Drive Alpamayo-R1 is een VLA-model, wat betekent dat het model beelden vertaalt naar natuurlijke taal en op basis van die taal een actie uitvoert, aldus Nvidia. Het model werkt volgens het bedrijf op basis van 'chain-of-thought'-denkstappen voor het oplossen van problemen, oftewel het opbreken van complexe problemen in kleine stappen. Het AI-model gebruikt dit 'denkproces' om te bepalen welke actie het meest geschikt is. Nvidia claimt dat dit principe de AI voorziet van 'gezond verstand', waardoor het model meer als een mens zou moeten rijden.

Het model zou volgens Nvidia het beste verder getraind kunnen worden met wat reinforcementlearning heet. Hierbij krijgt het model bij elke beslissing feedback over de correctheid van een actie, wat goed gedrag versterkt en slecht gedrag straft. Naar eigen zeggen levert verdere training van het model 'significant betere resultaten' op.

Het model wordt gratis beschikbaar via de vermelde platforms onder de Nvidia Open Model-licentie. Deze licentie staat aanpassingen onder dezelfde voorwaarden en commerciële verspreiding toe, al heeft het bedrijf het in de aankondiging van Drive Alpamayo-R1 nadrukkelijk over 'niet-commercieel gebruik'. Het model is volgens Nvidia bedoeld voor benchmarking en het ontwikkelen van experimentele toepassingen voor autonome voertuigen.

Nvidia Drive Alpamayo-R1
Nvidia Drive Alpamayo-R1-demonstratie. Klik voor een .gif

Door Yannick Spinner

Redacteur

02-12-2025 • 14:26

5

Submitter: dtn.370

Reacties (5)

Sorteer op:

Weergave:

Zolang mensen Tesla's autopilot al niet vertrouwen (zonder het ooit zelf te hebben gebruikt) waarbij er duidelijk een aansprakelijke partij is wanneer er iets mis gaat, zou ik voorlopig al helemaal mijn geld niet inzetten op een opensource-onderzoeksmodel.
Dit bestaat al langer hoor, door hobbyisten in elkaar gezet met modules die je in bepaalde auto's in kan laden: comma four — comma shop. Als je echt durft kan je zelf experimenteren met verschillende modellen.

Een entertainment youtube filmpje hierover: YouTube: I Upgraded My Car With Open-Source AUTOPILOT and it's AMAZING
Bij een opensource model ben je zelf als chauffeur aansprakelijk aangezien geen fabrikant dit model in hun auto steekt. Je kan het dus enkel als u zelf uw auto uitrust met camera's.

Naar mijn optiek beter omdat je direct de verantwoordelijke te pakken hebt tijdens een aanrijding.

[Reactie gewijzigd door Honytawk op 2 december 2025 15:04]

Chain-of-thought is leuk, maar dan moet je wel heel erg snelle hardware hebben in je auto. Anders krijg je dat als je een bal ziet rollen, je eerst 10 seconden na gaat denken over wat dat zou kunnen betekenen voordat je gaat handelen. Beetje alsof je een heel onzeker persoon achter het stuur zet. Iniedergeval mooi dat het open source is! Ben benieuwd wat ze er mee kunnen en of dit model op een of andere manier zo geoptimaliseerd kan worden dat het snel genoeg kan draaien.
offtopic:
Leuk dat ze die bal laten zien op het plaatje, maar ik zou toch even wat harder remmen want zoals je aan de rechterkant ziet rent er een kind voor je langs!!
Hoe handig of juist niet handig is het inzetten van een AI-model in (deels) zelfrijdende auto's? Dit soort modellen blijven immers een black box: soms verrassend accuraat, soms slaat het de plank helemaal mis. Wanneer het het ene of het andere is, weet je per definitie niet.

Mij lijkt dat het bij dit soort voertuigen juist heel belangrijk is om degelijke, voorspelbare en navolgbare conclusies te hebben op basis van de binnenkomende data. Dit gaat potentieel over mensenlevens.

Kan iemand dat uitleggen?

Om te kunnen reageren moet je ingelogd zijn