AI-modellen hebben in de toekomst veel meer rekenkracht nodig, omdat redeneren nu een standaardfunctie aan het worden is, zegt Nvidia-directeur Jensen Huang. Redeneren zorgt ervoor dat een AI-model veel meer stappen doorloopt.
Het is uiteraard duidelijk dat redeneren meer rekenkracht vraagt dan een vraag simpelweg gelijk beantwoorden, maar de Nvidia-directeur kwantificeert het nu voor het eerst. "Redeneermodellen kunnen 100x meer rekenkracht gebruiken. Toekomstige redeneermodellen kunnen nog veel meer rekenkracht nodig hebben. DeepSeek-R1 heeft wereldwijd enthousiasme gewekt -- het is een uitstekende innovatie. Maar nog belangrijker is dat het een redenerend AI-model van wereldklasse heeft geopend. Bijna elke AI-ontwikkelaar past de technieken toe van chain of thought en reinforcement learning zoals R1 om de prestaties van hun model op te schalen."
Waar OpenAI nu nog de reguliere AI-modellen en redeneermodellen van elkaar heeft gescheiden, zal dat bij de volgende generatie niet langer het geval zijn. Ook andere AI-modellen zullen vermoedelijk die functies combineren en aan de hand van de prompt bepalen of ze moeten redeneren. Nvidia is daar als bedrijf bij betrokken, omdat de gpu's van het bedrijf in gebruik zijn voor het trainen en draaien van AI-modellen.