Samsung-onderzoeker Alexia Jolicoeur-Martineau heeft een AI-model gepubliceerd dat een tienduizendste van de grootte is van gangbare AI-modellen en toch op specifieke taken even goed presteert. Dat lukt door telkens de eigen output te na te kijken en te verbeteren.
Jolicoeur-Martinieau noemt dat 'recursive reasoning', waarbij het AI-model tot zestien keer de eigen output als input neemt om de antwoorden te verbeteren. Het model heeft zeven miljoen parameters. Zeer kleine AI-taalmodellen, zoals die op iPhones draait voor Apple Intelligence, hebben doorgaans rond twee tot drie miljard parameters, dus honderden keren zoveel. Reguliere kleine modellen voor gebruik op bijvoorbeeld thuiscomputers hebben rond zeven miljard parameters. Grote AI-modellen hebben al snel zeventig tot tweehonderd miljard parameters of meer.
Het model heeft wel een enorme beperking, want het kan alleen puzzels zoals sudoku's oplossen. Het is dus niet te gebruiken voor bijvoorbeeld het genereren van tekst of het fungeren als chatbot of schrijfassistent. De Samsung-onderzoeker denkt wel dat het recursief redeneren een sleutel kan zijn om met kleinere modellen meer te bereiken. In het oplossen van die puzzels kan het wel mee met modellen die tienduizend keer groter zijn, zoals Google Gemini 2.5 Pro en GPT o3-mini.
Hoewel kleinere modellen doorgaans sneller zijn, zal het recursief redeneren het antwoorden wel behoorlijk vertragen. Het kost wel veel minder rekenkracht en stroom, omdat AI-modellen doorgaans bij meer parameters veel meer vragen van hardware.