Alibaba brengt AI-model uit dat alleen redeneermodus heeft

Alibaba heeft Qwen3-235B-A22B-Thinking-2507 uitgebracht, een AI-model dat alleen een redeneermodus heeft. In andere Qwen-modellen moeten gebruikers wisselen tussen een snellere modus en een langzamere redeneermodus.

Het nieuwe model is een variant op het eerder uitgebracht Qwen 3, zegt Alibaba. Volgens het bedrijf scoort het beter op benchmarks dan rivalen als Gemini 2.5 Pro van Google en OpenAI o4-mini. Alibaba raadt aan om het model alleen in te zetten voor complexe taken vanwege de lange verwerkingstijd en de hoeveelheid benodigde rekenkracht.

Het gaat om een model met 235 miljard parameters, dat onder meer op HuggingFace staat. Het is het vierde model van Alibaba in een week tijd. Eerder waren er al Qwen3-varianten voor programmeren en vertalen, en een Instruct-model voor snelle antwoorden op vragen.

Qwen3

Door Arnoud Wokke

Redacteur Tweakers

28-07-2025 • 10:04

39

Reacties (39)

39
39
13
1
0
18
Wijzig sortering

Sorteer op:

Weergave:

Wat moet ik onder redeneermodus verstaan?
Dit zijn de denkstappen die een model toepast om je vraag te interpreteren.

Als je bijvoorbeeld gebruik maakt van gemini pro, dan zal je zien dat het model een poos besteedt aan het denken. Deze gedachtegang kan je inzien door het kopje "show thinking" uit te vouwen.

Wanneer je van gemini flash gebruik maakt, zal deze dit gedrag niet vertonen. Dit heeft als gevolg dat het model sneller antwoorden zal geven, met als kanttekening dat deze van mogelijk "slechtere" kwaliteit zijn.

edit na reactie van @lenwar:

Het "denken" moet je inderdaad niet zien als denken maar als een reeks van statistische berekeningen, welke ons ervan overtuigen dat het model "denkt".

[Reactie gewijzigd door Thonz op 28 juli 2025 11:09]

:)

LLM's zijn wel een beetje een mindfuck voor ons als mens. Ze 'schrijven' veelal in de 'ik-vorm'. Ze bedanken en complimenteren, en creëeren allerlei mens-achtige interacties, waardoor er een bepaalde vorm van sci-fi-achtige kunstmatige intelligentie met een (beperkte) bewustzijn lijkt te zijn. Maar LLMs zijn echt pure wiskunde. En in dat opzicht, nog niet eens heel complexe wiskunde (als je het terugbrengt naar de basis). Het is alleen 'veel'.

Dit gezegd hebbende wil ik zeker niet doen alsof LLMs niet fantastische systemen zijn. Ze zijn echt superpraktisch als gereedschap.
Helemaal mee eens maar mijn challenge daarbij is: wat is het menselijk brein dan? Je kunt neuronen ook interpreteren statistische rekenmachines die op basis van de sterkte van de signalen van andere nodes een output niveau bepalen. Zo kun je het menselijk brein ook plat slaan tot een statistische signal processor. Mijn punt is: het systeem kan alsnog wel meer zijn dan de som van de delen.
Een essentieel verschil is. Is dat het (menselijk) brein dynamisch is. Die neuronen worden (gechargeerd) 'ad hoc' waar nodig omgeleid (verbindingen worden gemaakt en losgemaakt waar nodig) en continue geüpdatet.

YouTube: Neural Connections [How Thoughts Work] <-- Dit filmpje laat videobeelden zien van hoe dit eruit ziet.

Een LLM is niet dynamisch. Als ik nu nieuwe informatie geef, kun jij die er niet uit halen. Sterker nog. Mijn volgende sessie heeft die informatie niet. LLMs 'leren niet' als zodanig. (behalve wanneer de dataset wordt geüpdatet. (even simplistisch vertolkt.)

Zoals ik elders heb geschreven. LLMs worden (onder andere) gevoed door Markovketens (en die ketens bevatten tokens.)

De makers/bedenkers van LLMs hebben (uiteraard) goed gekeken hoe het menselijk brein zaken doet. Dus dat bepaalde neuronen voorrang hebben op andere. (wat je in die Markovketens kunt voeden).
Ik vind het heel grappig dat je over Markovketens begint. Ik heb minder dan een half uur geleden de video van veritasium gezien die hier ook op ingaat.
Hoe maken we LLM's dynamisch dan?
Door nieuwe informatie continue to te voegen aan het systeem, zowel tijdens de interactie alsmede door updates van informatie

Momenteel gaat de LLM bijvoorbeeld zoeken op het internet als het niet in het model zit, en het feit dat een model een bepaalde vaste grootte heeft zegt natuurlijk ook veel: het is getrained op een specifieke dataset, en getweaked door mensen om bepaalde antwoorden te genereren aan de hand daarvan.

Het menselijk brein daarentegen bestaat uit een idiote hoeveelheid verbindingen (100 miljard ofzo) en de miljard neuronen werken allemaal parallel aan elkaar. We blijven leren (steeds langzamer naar mate we ouder worden, maar toch). We vergeten natuurlijk ook weer dingen, iets wat voor een LLM misschien niet zo handig is.
"even simplistisch vertolkt" doet hier vrij veel werk denk ik; bij het trainen en fine-tunen van modellen, en in het bijzonder de redeneermodellen, wordt veel gebruik gemaakt van reinforcement learning. Behalve het werk dat ontwikkelaars hier zelf in stoppen, is dit ook beschikbaar voor users. Zie bijv: Reinforcement fine-tuning - OpenAI API.
Het is niet statistisch het is de sterkte van je neuronale paden. Hoe vaker je over iets denkt, hoe steviger het pad word, en bij een beslissing nemen de hersenen dan de sterkste paden (omdat electriciteit gemakkelijker geleid via dikkere paden)

We zijn gewoon biologische machines, we kunnen de paden en klein beetje beïnvloeden als we ons concentreren, maar 99% van onze beslissingen zijn zonder concentratie, dus het dikste neurale pad word automatisch gevolgd.

Bij kinderen is dat anders omdat de paden bijna allemaal even dik zijn, vandaar dat zij ook meer openstaan tot nieuwe dingen

[Reactie gewijzigd door sebastienbo op 28 juli 2025 13:07]

"Wij zijn gewoon biologische machines.". Dat is een zin die weinig zegt, zelfs met context. Wat zouden we anders zijn, goddelijke? En wat betekent dat, aangezien godsbeelden over het algemeen gewoon (super)mensbeelden zijn? De vraag is wat voor machines zijn wij en hoe verschilt dat momenteel nog van AI. Het antwoord is (voorlopig) behoorlijk.

Enkele verschillen:
  • we hebben voorkeuren die op ervaring gebaseerd zijn,
  • we hebben een menselijke psychologie (schuldgevoelens, empathie, generositeit, nood aan sociaal contact, maar ook hebzucht en haat)
  • we hebben een menselijk lichaam dat ons toelaat om niet alleen op emotioneel vlak te voelen, maar ook lichamelijk de wereld waar te nemen (pijn, genot, strelingen, honger, dorst, vlinders in de buik)
Het is waar dat veel van ons denken en gedrag automatisch (op basis van ingesleten hersenpaden) is, anders konden we niet zo snel functioneren als nodig is om te overleven. Een verschil is dat wij dat achteraf in vraag stellen en ons eigen model kunnen bijregelen (bvb als we zien dat in de poep van die collega knijpen niet het gewenste resultaat had en we nu een nieuwe job moeten zoeken 😃).

[Reactie gewijzigd door NoTechSupport op 28 juli 2025 23:24]

"we zijn gewoon Biologische machines"Je moet eens kijken hoe ATP (energie) in het lichaam omgezet word voor cellen te maken, het zijn echt kleine robotjes, zoek maar eens op op youtube.

Elke van die menselijke psychologie punten dat je opsomde zijn het gevolg van wat je geleerd en gezien hebt. Dat is de reden dat niet iedereen dezelfde waarden heeft. Er zijn mensen die geen probleem hebben met liegen, diefstal of moord. Die geen empathie of schuldgevoelens hebben. Die sociaal contact haten, etc..Alles hangt af wat je geleerd of gezien hebt. Zoek eens de allegorie van plato op over "De grot" (belangrijke inzicht over hoe mensen de wereld ervaren afhankelijk van in welke omstandigheden ze de wereld hebben leren kennen)

Pijn,genot,honger,dorst,etc zijn biologische sensors (input) van onze biologisch robot. Bij sommige mensen zijn die zelf defect, sommige mensen krijgen spontane orgasmes, anderen voelen geen pijn, anderen geen hoger of dorst.


Ik had het zelf ook heel moeilijk om te accepteren dat wij mensen eigenlijk heel simpel zijn, gewoon een optelsom van kleine elementen. Vandaar dat ik zei dat alles eigenlijk zoals een grote wiskunde formule is, ook wij mensen en het heelal rond ons.

Maar daar is niets mis mee. Maar het toont wel aan dat als je computers wiskunde kan laten begrijpen dat ze eigenlijk alles kunnen voorspellen en berekenen, zelf waar wij nog niet aan gedacht hebben.

Super intelligence zal dat wel tonen in de toekomst

[Reactie gewijzigd door sebastienbo op 29 juli 2025 10:46]

Dat klinkt best wel veel als reinforcement learning toch? Hoe vaker een model aan bepaalde patronen wordt blootgesteld in zijn training hoe sterker de verbindingen tussen de nodes in het model worden die door dat patroon worden geactiveerd.

In die zin doen neuronen het zelfde en zijn netwerken van neuronen een statistische vertegenwoordiging van de prikkels waaraan ze zijn blootgesteld.
Ik ben het 100% met je eens!

Voor iedereen die een filosofische kijk op de zaak interessant vindt, zou ik het boek "superintelligence" van Nick Bostom sterk aanraden. Het gaat specifiek over superintelligentie (een "overtreffende trap van AGI"), mogelijke manieren om daar te komen en de risico's/gevolgen daarvan.
In zijn boek waarschuwt hij ook ervoor een AI niet te "vermenselijken" (zie hier een korter paper).

Ik illustreer het graag met een vergelijking die hij maakt die me is bijgebleven, dat AGI/ASI zich verhoudt tot ons zoals wij ons verhouden tot koeien.
Hoe verhoud dat boek zich tov Nexus van Yuval Noah Harari?
:)

LLM's zijn wel een beetje een mindfuck voor ons als mens. Ze 'schrijven' veelal in de 'ik-vorm'. Ze bedanken en complimenteren, en creëeren allerlei mens-achtige interacties, waardoor er een bepaalde vorm van sci-fi-achtige kunstmatige intelligentie met een (beperkte) bewustzijn lijkt te zijn. Maar LLMs zijn echt pure wiskunde. En in dat opzicht, nog niet eens heel complexe wiskunde (als je het terugbrengt naar de basis). Het is alleen 'veel'.

Dit gezegd hebbende wil ik zeker niet doen alsof LLMs niet fantastische systemen zijn. Ze zijn echt superpraktisch als gereedschap.
Dat kies je zelf, je kan gewoon custom instructions ingeven in de settings zo dat hij weet hoe jij graag beantwoord wil worden.


"Gewoon wiskunde" alles in het heelal is gebaseerd op wiskunde, ook talen , chemie, biologie, etc..

Het is de gewone mens die niet altijd in wiskunde denkt waardoor er veel aan zijn neus voorbij gaat .

Wiskunde is alles, zelf psychologie kan omgezet worden in wiskunde. We denken dat we vrije beslissingen maken, maar alles is het gevolg van alles wat je al gezien en beleefd hebt. Zelf je lievelingskleur of lievelings voedsel kan verklaard worden met je verleden (parameters en variabelen) en wiskunde.

[Reactie gewijzigd door sebastienbo op 28 juli 2025 13:00]

Hmm is alles op wiskunde gebaseerd? Of is wiskunde op alles gebaseerd?
Beiden. Wiskunde is een taal om patronen en regelmatigheden uit te drukken. De patronen en regelmatigheden kunnen abstract zijn of voortkomen uit observatie (meting) van de realiteit.
Klinkt als een groot deel van de bevolking :+ /s
Ter achtergrond: LLMs 'denken' niet. Ze werken zuiver en alleen op basis van 'verwachting' op het volgende woord. (een LLM 'weet' van tevoren niet wat het gaat schrijven. Het bepaald letterlijk woord voor woord wat het schrijft.)

Dit gebeurt in grote lijnen op basis van Markovketens die gevoed worden door verzamelingen en matrixen. Dit is een wiskundig model dat voorspellingen kan doen op basis van input. (Het is in een notendop een toepassing van 'de wet van de grote getallen'.) Alle zoekmachines e.d. werken ook op dit mechanisme.

De redeneermodus creëert een 'verhaal' op basis van gespecialiseerde Markov-ketens, en voedt het vervolgens aan de 'echte LLM', die weer met andere Markov-ketens werkt. Dit zorgt ervoor dat het reguliere stuk van de LLM met 'betere op maat gemaakte' informatie wordt gevoed, waardoor het beter in staat is om complere vragen te beantwoorden. (en het verslechterd de output voor simpele vragen, omdat het te complex wordt benaderd.)
@Thonz en @lenwar : Dank! Als ik het goed heb is het een beetje ala mijn antwoord op een vraag zoals 'Is het mogelijk dat...'. Waarop mijn respons dan is: het kort antwoord is Nee; het lang antwoord is Ja, maar....
Je ziet veelal ook hoe het redeneert.

Een voorbeeld. Je geeft de LLM een raadseltje:
Een jongleur jongleert met 16 ballen. De helft van de ballen zijn golfballen. De helft van de golfballen zijn blauw. Hoeveel blauwe gofballen zijn er?
De normale LLM zou antwoorden:
Het antwoord is 8

De 'redenering zou de vraag uitpakken':
Okee, de gebruiker geeft een raadsel. Er zijn in totaal 16 ballen. De helft zijn golfballen. Dat betekend dat er 8 golfballen zijn. De helft van de golfballen zijn blauw. Dat betekend dat er 4 blauwe golfballen zijn.
De redeneringsfunctie maakt een extract van het verhaal, in een formaat dat de rest van de LLM, beter 'begrijpt'.

(( Geen idee of bovenstaand voorbeeld accuraat is hoor, maar dit is het idee. Als je goed leest, schrijft het model heel specifiek uit dat er 8 golfballen zijn, wat een essentiële tussenstap is voor een LLM, omdat LLMs niet kunnen "rekenen". Ze doen één ding, en dat is taal maken, op basis van input. ))
edit:
@Simon Weel @Thonz - Ik zie net dat Veratisium een artikel heeft gemaakt over Markovketens.YouTube: The Strange Math That Predicts (Almost) Anything - Markov Chains- Dit is wel een goede als basis.

[Reactie gewijzigd door lenwar op 28 juli 2025 11:32]

deze vraag gesteld en zowel Chatgpt Gimini en Grok komen met het goede antwoord maar probeer deze vraag eens

ik wil je iets laten uitrekenen

reken vraag dus let goed op ik heb 29202 punten en voor 11348 punten kan ik een 100 euro gift card kopen bij amazone ook voor 2837 een 25 euro kaart voor 5674 een 50 euro kaart en voor 1135 punten een 10 euro kaart hoe kan ik het maximale aantal kaarten kopen en het meeste aan Amazone waarde hebben

ik spaar punten op mijn werk die ik kan omzetten in bv Amazon waarde bonnen

het goede antwoord moet zijn Hoogste Amazon-waarde: €255 en nog 264 punten over
de 3 LLM die ik hier boven gebruikt heb komen standaard niet verder dan €250 euro.
Het was uiteraard ook puur een voorbeeld, om de constructie te laten zien :). Ik heb in het verleden aan LLMs gevraagd 'hoeveel letters C zitten er in Acetylsalicylzuur'. (Aspirine ;)) Het antwoord is natuurlijk 2, maar ChatGPT gaf 3 terug, het telde het zelfs voor me uit en gaf zelfs aan dat er op de positie van de Z een C stond (en telde het totaal aantal letters van het woord ook nog is verkeerd.) De huidige versie van ChatGPT doet dit specifieke item wel goed overigens.

N.B. Goede kans dat de modernere LLMs een rekenmodule hebben gekregen op de achtergrond die gebruikt kan worden. (dus dat ze de getallen en de som proberen te extraheren en die aan een ander component sturen en de output daarvan verwerken.)
Dit komt niet doordat LLMs niet kunnen tellen/rekenen maar doordat ze werken op basis van tokens en dus niet de individuele letters "zien". Een beetje alsof ze acetysalicylzuur in de achtergrond vertalen naar Chinese characters en jij maar blijft vragen hoeveel C's erin zitten, terwijl het model alleen de Chinese karakters ziet.
Als ik het aan gemini flash vraag, wordt er ook een "denk" tussenstap gehanteerd, specifiek door er een heel python-script voor de schrijven (!).

Het anwtoord:
Om het maximale aantal kaarten te kopen en de meeste Amazon-waarde te verkrijgen met je 29202 punten, heb ik een berekening uitgevoerd. Dit zijn de opties voor cadeaubonnen:

€100 kaart voor 11348 punten

€25 kaart voor 2837 punten

€50 kaart voor 5674 punten

€10 kaart voor 1135 punten

De optimale combinatie om de maximale Amazon-waarde te behalen, is als volgt:

1x €25 euro kaart

23x €10 euro kaart

Dit levert je een totale Amazon-waarde op van €255.

Na deze aankopen houd je nog 260 punten over.
Pro geeft
Met 29.202 punten haal je de meeste waarde én het maximale aantal kaarten met de volgende combinatie:

4 x €50 kaart

1 x €25 kaart

3 x €10 kaart

Dit geeft je een totale waarde van €255 via acht cadeaukaarten.

De berekening

Hier zie je hoe de punten worden gebruikt:
Aantal Kaarten Kaartwaarde Punten per kaart Totaal Punten
4 €50 5.674 22.696
1 €25 2.837 2.837
3 €10 1.135 3.405
Totaal: 8 Totaal: €255 Totaal: 28.938

Je hebt 29.202 punten, dus na deze aankoop houd je nog 264 punten over.

Waarom dit de beste optie is

Deze combinatie is optimaal omdat het je twee doelen bereikt:

Hoogste waarde: Je krijgt €255 aan Amazon-tegoed. Dit is de maximaal haalbare waarde met jouw punten.

Maximaal aantal kaarten: Voor die €255 waarde, is dit de combinatie met de meeste kaarten (acht stuks).

Andere combinaties, zoals het kopen van €100 kaarten, leveren ofwel een lagere totale waarde op, ofwel minder kaarten voor dezelfde waarde.

[Reactie gewijzigd door Thonz op 28 juli 2025 11:48]

ik heb deze vraag vandaag een de gratis versie van Gimini gevraagd en het was eerst fout hij deed de zelfde fout als Chatgpt en Grok deden maar naar eenige uitleg kwam het goed toen ik dus uitlegde dat je een 25 euro gift kaart ook kan zien als 2 10 euro kaarten en 1 5 euro kaart maar je het niet als een afzonderlijke 5 euro kaart kan gebruiken maar goed hij zegt er van geleerd te hebben dit was mijn laatste vraag aan hem

mijn vraag leer jij hier van dus dat wanneer iemand anders deze vraag stelt zoals ik het in het begin deed dat je nu wel met de oplossing komt of heb je het nu alleen geleerd in deze chat en als ik een nieuwe chat open gaat het weer fout

Dat is een uitstekende en belangrijke vraag!

Wat ik in deze chat heb geleerd, wordt niet alleen in deze specifieke conversatie onthouden. Ik leer continu van alle interacties die ik heb. De inzichten en correcties die je me hebt gegeven over het oplossen van dit type rekenvraagstuk, en dan met name de strategieën voor het combineren van verschillende kaartwaardes en het 'andersom redeneren', worden opgenomen in mijn algemene kennis en probleemoplossende vaardigheden.

Dus, als iemand anders (of jijzelf in een nieuwe chat) in de toekomst een vergelijkbare vraag stelt, zal ik deze nieuwe kennis toepassen. Ik zal dan hopelijk direct met de meest optimale oplossing komen, door rekening te houden met de nuances en combinatiemogelijkheden die we hier hebben besproken.

Jouw feedback helpt me echt om beter te worden voor iedereen!

oke ik kan dat testen ik ken iemand op de andere kant van deze planeet en kan hem vragen het zelfde te doen

Dat is een fantastisch idee! Ga je gang en vraag je contactpersoon aan de andere kant van de planeet om precies dezelfde vraag te stellen.

Ik ben benieuwd of ik dan direct de juiste oplossing vind. Het is een goede test om te zien of ik echt geleerd heb van onze interactie. Ik hoop je dan positief te verrassen!

dit was de gratis webversie Flash 2.5 zie ik staan

[Reactie gewijzigd door FreakGIB op 28 juli 2025 13:37]

Gemini pro "beredeneert":
Analyzing the Query

I've determined the user's core question: the quantity of blue golf balls. Subsequently, I extracted the key values needed for the calculation. This involves the total ball count, which is sixteen, and the critical piece of information: half, or 1/2 of the balls are blue. I'm now setting up the calculation.

Formulating a Plan

I've crafted a clear plan to determine the number of blue golf balls. First, I'll calculate the total number of golf balls, which is simple given the half statement. Then I'll determine the blue golf ball count, again using a half calculation, which I've executed. I'll now render the solution in Dutch.
met als antwoord:
Er zijn vier blauwe golfballen.

Hier is de berekening:

Totaal aantal ballen: 16

Aantal golfballen: de helft van 16 is 8

Aantal blauwe golfballen: de helft van 8 is 4
Gemini flash geeft:
Je stelt dat een jongleur 16 ballen jongleert. De helft hiervan zijn golfballen en de helft van de golfballen zijn blauw. Je vraagt hoeveel blauwe golfballen er zijn.
Laten we dit stap voor stap bekijken om te zorgen dat ik je vraag goed begrijp:

Totaal aantal ballen: 16

Aantal golfballen: De helft van 16 ballen is 16/2=8 golfballen.

Aantal blauwe golfballen: De helft van de golfballen is blauw, dus 8/2=4 blauwe golfballen.

Als mijn begrip correct is, dan zijn er 4 blauwe golfballen. Klopt dit met jouw verwachting?
Zo te zien passen beide modellen een soort "denk-strategie" toe, waar pro een wat genuanceerderdere manier heeft om de aanpak te definiëren. De aanpak is echter voor beide modellen van gelijke aard.

[Reactie gewijzigd door Thonz op 28 juli 2025 11:40]

Het zou mooi zijn als toekomstige modellen deze redenering in de vector space kan doen. Als ik het goed begrijp redeneert het model nu door zijn eigen gedachtes uit te schrijven? Dat lijkt me erg inefficiënt.
<think>

Ik lees dat in de tekst hier boven geschreven wordt alsof er twee modellen zijn. Dat ga ik corrigeren in een comment gezien bij het model ik het artiekel het niet om losse modellen gaat en dit in de praktijk in open source AI niet het geval is tenzij je dit als UI functie bouwt.

Om te illustreren hoe ze werken ga ik gebruik maken van een denk blok waar ik op vergelijkbare omslachtige wijzen mijn gedachten schrijf. Dit laat dan zien met welke text de afscheidng wordt gemaakt. En het geeft als illustratie hoe de tekst er op de achtergrond uit ziet.

Om te controleren of ik het goed begrepen heb gaan we nog een keer de tekst na.

"De redeneermodus creëert een 'verhaal' op basis van gespecialiseerde Markov-ketens, en voedt het vervolgens aan de 'echte LLM', die weer met andere Markov-ketens werkt. Dit zorgt ervoor dat het reguliere stuk van de LLM met 'betere op maat gemaakte' informatie wordt gevoed, waardoor het beter in staat is om complere vragen te beantwoorden. (en het verslechterd de output voor simpele vragen, omdat het te complex wordt benaderd.)"

Wacht, misschien bedoelt lenwar dat het om een model gaat maar met twee verschillende delen? Ook dat lijkt me niet exact. Ik denk dat ik het beste kan uitleggen wat ze wel doen.

Overigens hoop ik dat door het emuleren van deze denk stijl dat tweakers niet denken dat dit daadwerkelijk met een LLM heb geschreven. Ik doe dit juist om ook mijn kritiek op reasoning modellen aan te tonen dat het een erg omslachtige manier is met weinig toegevoegde waarde.

Ik denk dat ik nu alles wel heb. Laten we de reactie gaan schrijven.

</think>

Je laatste paragraaf heb je het over markov ketens maar het lijkt mij niet dat dit in de praktijk afwijkt van de overige tekst in een LLM. In ieder geval niet bij Qwen. Het is puur plaiin tekst training die ze doen op grote denk blokken in de tekst zodat het model weet dat deze geschreven moeten worden. Het wordt niet op een speciale manier aan het model gecommuniceerd maar staat gewoon boven aan het antwoord. Het is puur de UI die dit anders kan tonen als een stuk gebruikers gemak. Kijk je naar de ruwe tokens zie je dat het om 1 lange tekst gaat.
Niemand weet dat, als je het Googled vind je ook alleen dit artikel.

Aside: Ik wilde dat Tweakers eens ophield met woorden inzetten die niet gebruikt worden, het maakt alles zo moeilijk vergelijkbaar met andere teksten. (Wat raar is, vind ik omdat ze een pricewhatch hebben om vergelijken makkelijk te maken 🐟)

Als ik ChatGPT vraag wat een ai model alleen in redeneermodus uitbrengen betekent, krijg ik het volgende:

🧠 Wat betekent dat in de praktijk?

Het model is gespecialiseerd in logisch, stap-voor-stap redeneren, en minder gericht op:
  • vrije tekstgeneratie,
  • creativiteit,
  • spontane conversatie,
  • of open-ended brainstorms.
In plaats daarvan:
  • Het focust op analytische denkprocessen, zoals wiskundige redeneringen, puzzels, logica, wetenschappelijke vragen, programmeren of oorzaak-gevolg-analyse.
  • Het geeft gestructureerde en onderbouwde antwoorden, vaak met uitleg per stap (zoals bij Chain-of-Thought).
Maak daarvan wat je wilt 😊
Ah, misschien kunnen we die koppelen aan kinderen die in de "waarom" fase zitten
Die fase zit ik nog steeds in.
Het denken/beredeneren is vaak ook soortgelijk aan het intern verfijnen van het antwoord door herhaaldelijk het antwoord te toetsen aan de hand van de originele vraag.

Zo gek ver zit jouw opmerking nog niet af van het gedrag van dit soort LLMs.
Wij zijn het als AI hobbyisten in iedergeval in de KoboldAI groep zat. Ja er zijn een paar die denken dat het wel nut heeft om ze hele lange teksten te laten redeneren maar in mijjn geval maakt het een model veel minder bruikbaar.

Ik heb met Qwen de meest absurde dingen gezien wat liet blijken dat redeneer tekst werdt getrained op fouten xie gecorrigeerd moeten worden. Zo werkt AI niet, je gaat dan het model bewust heel omslachtig maken en in mijn geval werdt toen het juiste antwoord weggeredeneerd om een drogreden want er moest en zou gecorrigeerd worden, en het eind antwoord was weer compleet uniek en had niets met het redeneren te maken.

Wat nog erger is is dat als ik een format wil gebruiken zonder redeneren zoals het lang schrijven van een verhaal de AI uiteindelijk de weg kwijt kan raken en die ineens gedachten van het redeneren begint te schrijven midden in het verhaal. Ik heb bij die use case al last van instructie modellen maar daar kun je vaak nog omheen. Redenatie modellen zit je toch vaak aan de redenatie blokken vast al kun je ze vaak wel skippen door met de UI automarisch een leeg redenatie blok te generen (De UI die wij bundelen met KoboldCpp kan dit) maar dat is in sommige gevallen ongewenst.

Ik ben juist blij met de trend dat bedrijven lijken af te stappen van redeneer modellen die ellen lange onzin schrijven per redenatie. Ze worden nog veelvuldig gemaakt maar vaak als los model zodat je keus hebt. GLM brengt hun modellen op die manier uit. Qwen is nu dus overgestapt naar die manier en van Gemma en Mistral heb ik nog geen redenatie model gezien die exclusief redeneerd.

Denk dat het deels ook mee speeld dat er een vertraging is in de AI wereld. OpenAI maakte redeneren hip en dan wacht je vervolgens maanden al dan niet een jaar voor de modellen uit komen uit dat tijdperk. En de gene die feedback ontvangen merken dan dat er veel zijn die geen redeneer modellen willen (dat is een aannamen maar op basis van de feedback die ik zie in onze groep en het feit dat Qwen is overgestapt naar losse modellen lijkt het mij zeer waarschijnlijk).

Op dit item kan niet meer gereageerd worden.