Nvidia introduceert het AI-onderzoeksmodel Drive Alpamayo-R1 voor autonome voertuigen. Volgens de fabrikant is dit het eerste opensourcemodel voor zelfrijdende auto's op basis van het 'vision, language, action'-principe. Het model moet via GitHub en Hugging Face beschikbaar komen voor onderzoekers, al is nog niet precies bekend wanneer.
Drive Alpamayo-R1 is een VLA-model, wat betekent dat het model beelden vertaalt naar natuurlijke taal en op basis van die taal een actie uitvoert, aldus Nvidia. Het model werkt volgens het bedrijf op basis van 'chain-of-thought'-denkstappen voor het oplossen van problemen, oftewel het opbreken van complexe problemen in kleine stappen. Het AI-model gebruikt dit 'denkproces' om te bepalen welke actie het meest geschikt is. Nvidia claimt dat dit principe de AI voorziet van 'gezond verstand', waardoor het model meer als een mens zou moeten rijden.
Het model zou volgens Nvidia het beste verder getraind kunnen worden met wat reinforcementlearning heet. Hierbij krijgt het model bij elke beslissing feedback over de correctheid van een actie, wat goed gedrag versterkt en slecht gedrag straft. Naar eigen zeggen levert verdere training van het model 'significant betere resultaten' op.
Het model wordt gratis beschikbaar via de vermelde platforms onder de Nvidia Open Model-licentie. Deze licentie staat aanpassingen onder dezelfde voorwaarden en commerciële verspreiding toe, al heeft het bedrijf het in de aankondiging van Drive Alpamayo-R1 nadrukkelijk over 'niet-commercieel gebruik'. Het model is volgens Nvidia bedoeld voor benchmarking en het ontwikkelen van experimentele toepassingen voor autonome voertuigen.
:strip_exif()/i/2007927266.jpeg?f=imagenormal)