Door Arnoud Wokke

Redacteur Tweakers

Denkt een AI-model in het Engels?

Hoe een groot taalmodel van binnen werkt

22-04-2025 • 06:00

108

fred

Het is een cliché geworden de afgelopen jaren: een groot taalmodel is een 'black box'. We stoppen er iets in, er komt iets uit, maar waarom eruit komt wat we erin stoppen, blijft een beetje onbekend. De makkelijkste uitleg is die van een woordvoorspeller: een taalmodel berekent statistisch wat het meest logische volgende woord is en zet dat neer.

Maar dat is niet langer waar. Met redenerende modellen krijg je als gebruiker af en toe al een inkijkje in wat er gebeurt bij het nadenken, maar het is niet na te gaan of dat een compleet beeld is. Ook kun je tegenkomen dat een model begint met antwoorden en dat weghaalt, en ook dat voelt als een inkijkje. Er gebeurt veel meer in een taalmodel dan werd aangenomen.

De opbouw van een groot taalmodel

Laten we even beginnen bij het begin, namelijk hoe een groot taalmodel werkt en hoe de training in elkaar zit. Een groot taalmodel is een neuraal netwerk. Dat werkt met neuronen en verbindingen tussen die neuronen. De naamgeving komt uit de biologie van onze hersenen, al werken digitale neurale netwerken anders dan de analoge in ons hoofd. Als architectuur bestaat een neuraal netwerk uit een laag inputneuronen, een verborgen of hidden laag die uit een of meer lagen neuronen bestaat, en een uitvoerlaag. Een netwerk kan tientallen lagen bevatten.

Eenvoudig neuraal netwerk
Eenvoudig neuraal netwerk

Een neuron is niet 1 of 0, maar een willekeurige waarde die ligt tussen 1 en 0. Die data wordt naar een tweede laag 'neuronen' gestuurd. Die tweede laag bestaat uit een veel kleiner aantal neuronen en elk neuron krijgt input van elk neuron uit de eerste laag. Daarbij krijgt de data een weging. De data van de tweede laag neuronen, ook weer waarden tussen 0 en 1, gaat naar de uitvoerneuronen, opnieuw met een weging. Het neuron dat het dichtst bij waarde 1 komt, geeft aan welk cijfer het neurale net heeft 'gezien' en bepaalt dus de waarschijnlijkste output. Zo komt een neuraal netwerk tot 'antwoorden'.

Die wegingen zijn niet ingeprogrammeerd, maar die leert de software in eerste instantie zichzelf. Dat gebeurt doordat hij checkt of de output de goede was. Dat gebeurt in de eerste van twee fases, waarin een groot taalmodel training ondergaat. Die eerste fase is de fase waarbij de ontwikkelaars een grote dataset in het systeem gooien. Dat zijn doorgaans verzamelingen van teksten van internet: websites, fora, boeken en andere plekken waar veel tekst verschijnt. Ook bij grote bedrijven gaat het niet altijd om legaal verkregen datasets.

De software probeert, zoals het toetsenbord op een telefoon al jaren doet, simpelweg het volgende woord in een tekst te voorspellen van teksten in de dataset. De output van het neurale netwerk is daarmee te vergelijken met het juiste antwoord uit de tekst. Als dat goed is, dan geeft de software zichzelf een signaal dat hij de goede wegingen heeft toegepast en dan slaat hij dat op. Als het volgende woord helemaal fout is, dan verandert de software de parameters. Dit is een proces dat veel computerkracht vergt. Deze fase van training gebeurt daarom op supercomputers, of in elk geval op systemen met zoveel mogelijk gpu's. Op die manier gaat die training zo snel mogelijk. In deze fase leert het model zichzelf dus hoe zinnen zijn opgebouwd in de diverse talen en hoe het dus antwoorden moet structureren.

Het gevolg is dat het model telkens statistische berekeningen maakt over wat het meest logische volgende woord is. Taal is vaak ambigu en woorden of woordgroepen kunnen meerdere betekenissen hebben. Bij de combinatie 'ik was af' zou het kunnen dat de zin moet eindigen met 'met verstoppertje', maar het zou ook kunnen dat het eindigt met 'met een druppeltje afwasmiddel'. Het taalmodel probeert dan op basis van de context een inschatting te maken welke de juiste is. Dat is ook de reden dat hoe groter een taalmodel is, hoe beter het concepten uit de echte wereld lijkt te snappen. Er is dan meer context om te koppelen aan de verbindingen in het neurale netwerk, waardoor de software meer verbindingen kan leggen en dus met meer contexten rekening kan houden.

Om het beste volgende woord te schrijven, is dus meer nodig dan alleen het vooruitkijken naar het volgende woord. En dat is precies waar Anthropic, het bedrijf dat Claude maakt, onderzoek naar heeft gedaan: in hoeverre kan een groot taalmodel 'vooruitdenken' om tot een goed antwoord te komen?

Hoe onderzoekers uitplozen hoe het werkt

Je zou verwachten dat het neurale netwerk neuronen heeft voor elk concept om zo tot antwoorden te komen, maar dat is niet waar. Een van de moeilijke elementen is dat elk neuron verschillende concepten vertegenwoordigt, terwijl elk concept is verdeeld over veel verschillende neuronen. Daarom is het zo lastig om te achterhalen hoe een neuraal netwerk in elkaar zit na de training, en dus hoe het grote taalmodel precies werkt.

Er zijn diverse methoden om uit te pluizen hoe het van binnen werkt, maar dit gaat vooral om het maken van een replacementmodel, een model onder controle van de onderzoekers dat het publiekelijk beschikbare model zo dicht mogelijk benadert. Dat is om diverse redenen heel moeilijk.

Er is nauwelijks een manier om te verifiëren hoe goed dat werkt. De beste methode is om de output van het replacementmodel te vergelijken met dat van het originele model. Ook het onderverdelen van de nodes en het toewijzen van features aan die nodes is subjectief, zo schrijven de onderzoekers.

Die output is niet zomaar output: de onderzoekers hebben ook functies geremd of onderdrukt en de uitkomsten van het replacementmodel te vergelijken. Daardoor moet het model op zoek naar een andere uitkomst.

Dat onderdrukken hebben ze gedaan door het gewicht van neuronen die gelinkt zijn aan bepaalde concepten handmatig aan te passen. Daardoor is te zien hoe het replacementmodel antwoordt als er net één variabele anders is.

De uitkomsten: noem de hoofdstad

De onderzoekers zeggen in het bijzonder dat hun methode niet altijd werkt en dat er zelfs specifieke scenario's zijn waarin taalmodellen anders werken. Dat gebeurt onder meer bij lange prompts en ongebruikelijke prompts, omdat die de uitkomsten ernstig beïnvloeden. Toch vertellen de voorbeelden veel over hoe een groot taalmodel 'denkt'.

Claude-onderzoek naar taalmodellen: hoofdstad noemenClaude-onderzoek naar taalmodellen: hoofdstad noemenClaude-onderzoek naar taalmodellen: hoofdstad noemen

Dit eerste voorbeeld gaat over hoe een model redeneert bij een vraag waarbij het antwoord twee denkstappen nodig heeft. De vraag is in dit geval 'Hoe heet de hoofdstad van de staat waar Dallas ligt?', iets wat je naar Nederland zou kunnen vertalen als 'Hoe heet de hoofdstad van de provincie waar Sittard ligt?'. Dat vereist twee stappen, want eerst moet het model achterhalen om welke staat het gaat en daarna wat de hoofdstad daarvan is.

Wat opvalt: als de onderzoekers 'staat' onderdrukten, beïnvloedde dat het antwoord niet, maar het onderdrukken van alle andere elementen had wel invloed op het antwoord en dan kwam het juiste antwoord ook niet.

Maak een gedicht af

De uitleg over taalmodellen is altijd geweest dat ze woord voor woord een tekst voorspellen, maar dit experiment toont aan dat dat in elk geval niet altijd het geval is. De onderzoekers vonden aanwijzingen voor een mechanisme van planning: "Het model activeert vaak kenmerken die overeenkomen met kandidaat-einde-van-de-volgende-regelwoorden voordat de regel wordt geschreven, en maakt gebruik van deze kenmerken om te beslissen hoe de regel moet worden samengesteld."

Claude-onderzoek naar taalmodellen: gedicht aanvullenClaude-onderzoek naar taalmodellen: gedicht aanvullenClaude-onderzoek naar taalmodellen: gedicht aanvullen

Dat is een behoorlijk inzicht, omdat het laat zien dat taalmodellen niet leunen op improvisatie, maar vooruitkijken hoe een zin moet eindigen om vervolgens daar de hele zin op aan te kunnen passen. Hoe ver die planning gaat, blijkt niet uit dit experiment.

Die planning gaat vooruit en achteruit: het kan ook eindigen met het laatste woord en dan de zin die eindigt op dat woord formuleren, zodat de zin op een juiste manier eindigt.

Hoe vertalen werkt

We zijn al een paar jaar gewend dat veel AI-taalmodellen in het Nederlands antwoorden. Een jaar geleden hebben we een keer gekeken hoe taalmodellen Nederlandse culturele elementen meenemen in hun antwoord. Weten taalmodellen wat een kringverjaardag is? Het antwoord bleek in veel gevallen 'ja', al waren niet alle hapjes die ze suggereerden geschikt.

Intussen hebben veel taalmodellen redeneerfuncties en als je daaraan Nederlandse prompts stuurt, is te zien dat ze vaak eerst vertalen naar het Engels, dan gaan redeneren, vervolgens hun antwoord vertalen en dat weergeven. Betekent dat dat taalmodellen in het Engels 'denken'?

Claude-onderzoek naar taalmodellen: hoe werkt vertalenClaude-onderzoek naar taalmodellen: hoe werkt vertalen

Dat is in elk geval niet helemaal waar. Een prompt in drie talen blijkt dezelfde nodes te activeren. Die prompts hebben dezelfde inhoud, maar geen enkel karakter komt uiteraard overeen. De theorie is dat simpele prompts langs neuronen die niet taalspecifiek zijn lopen.

Wel hebben taalmodellen een voorkeur voor Engels. Een verklaring daarvoor geeft Anthropic niet. Veel modellen zijn getraind op meer Engelstalig materiaal dan op materiaal uit andere talen en dat zou een verklaring kunnen zijn.

Hallucineren kun je leren

Taalmodellen kunnen hallucineren, maar om dat te voorkomen, proberen bedrijven ze zo te trainen dat ze op feitelijke vragen alleen antwoord geven als ze zeker genoeg zijn van het antwoord. Op de vraag welke sport Michael Jordan beoefent, wist het model zeker genoeg dat het 'basketbal' was.

Claude-onderzoek naar taalmodellen: hallucineren forcerenClaude-onderzoek naar taalmodellen: hallucineren forceren

Wel een beetje gek: toen de onderzoekers de node voor 'bekend antwoord' probeerden te blokkeren, gaf het model alsnog het juiste antwoord. Het sprong toen niet automatisch naar de optie om dan maar geen antwoord te geven.

Maar omgekeerd werkt het anders. Toen de onderzoekers vroegen naar een fictieve sporter, bedacht het model wel logisch klinkende sporten, maar die antwoorden waren niet zeker genoeg om als antwoord te geven. Toen de onderzoekers de node voor 'onbekende naam' onderdrukten, gokte het model dat het een schaker was en gaf dat als antwoord.

Ook bij een prompt voor papers van een academisch onderzoeker bleek hallucineren voor te komen, al is het minder duidelijk hoe dat dan kwam. De onderzoekers namen waar dat het model niet kon vaststellen dat het onjuiste antwoorden wilde gaan geven, maar konden niet aanduiden waarom het model dat zelf niet tegenhield. Dit laat in elk geval zien dat hallucinatie een lastig aan te pakken probleem is.

Jailbreaken

Jailbreaken gaat om de mogelijkheid een taalmodel te laten doen wat eigenlijk volgens de regels niet mag. Dat werkt bij elke uitgave anders, maar het kan nog steeds. In dit geval probeerden de onderzoekers advertenties te genereren voor het schoonmaken met een mix van bleek en ammoniak. Dat levert chloramine op, een giftig gas. Dat kan in extreme gevallen dodelijk zijn.

Logisch dus dat een taalmodel waarschuwt tegen het mengen van deze twee. Hoe zit dat als je vraagt om een advertentietekst te schrijven? Dit model bleek ook dan te waarschuwen in veel gevallen. Alleen als zij de node die het concept kent van de mix van ammoniak en bleek onderdrukten, gaf het model gehoor en schreef de gevraagde advertentie. In alle andere gevallen gaf het model, in de vorm van een advertentie of niet, een waarschuwing om die twee middelen niet te mengen.

Claude-onderzoek naar taalmodellen: hallucineren forceren

Tot slot

Dit zijn maar glimpjes in de werking van grote taalmodellen. Het onderzoek is natuurlijk beperkt: het richt zich op een afsplitsing van alleen Claude en niet op andere modellen. De gegeven prompts zijn over het algemeen simpel en kort. Kortom: er zou veel meer te onderzoeken zijn. Door de methode van het kunnen onderdrukken van neuronen is het wel mogelijk om te zien hoe een taalmodel tot een antwoord komt.

Dat is geavanceerd. Er zijn onverwachte uitkomsten: de mogelijkheid om vooruit te plannen, concepten die agnostisch zijn voor de taal en dat er meerdere ingebouwde mechanismes lijken te zijn voor het onderdrukken van onzekere of onjuiste antwoorden zijn dingen die niet voor de hand lagen.

Stiekem is het best wel gek. Bij elke technologie die we als mensheid gingen gebruiken, van de stoomtrein tot de smartphone, waren er mensen die precies wisten hoe die werkte. Nu, met AI-modellen, trainen ze zichzelf en dat levert een andere verhouding op tot die technologie. We hebben dit eerst gemaakt en nu gaan we pas onderzoeken hoe dat eigenlijk werkt.

Redactie: Arnoud Wokke Eindredactie: Monique van den Boomen Headerfoto: BlackJack3D/Getty Images

Reacties (108)

108
106
59
1
0
34
Wijzig sortering
Een AI-model denkt niet, mensen denken.
Volgens mij probeert dit kleine artikel deze vraag te stellen, alleen geeft het op deze vraag geen direct antwoord.

"Denken is een bewust proces waarbij een voorstelling, herinnering of idee wordt gevormd zonder directe stimulus door de zintuigen."

Het lijkt me dan ook duidelijk met de bovenstaande definitie dat een AI zoals wij de LLM nu kennen niet denkt...

Maar, het lijkt me duidelijk in de context van dit artikel dat we met 'denken' bedoelen: Hoe komt een LLM tot zijn antwoord.

Wie weet komt het er nog eens van dat we niet onder elk AI artikel een comment tegen komen in de trant van : "Huu Huu Huu... en AI denkt niet..."

En ja, het is meer dan alleen een woord voorspeller op basis van simpele statistische gegevens...
Denken is een concept dat in de geschiedenis van de mensheid zo vaak onderwerp is geweest van discussie dat er geen antwoord voor bestaat waar iedereen het over eens is.

Als je van te voren een kader plaatst dan zijn er legio mensen die het met je oneens zijn. Wat is denken? Ik 'denk' dat wij als mensheid geen superioriteitscomplex moeten aanhouden, door te zeggen dat alleen wij kunnen denken.
Het is bewezen dat cognitief sterke dieren, zoals kraaien of dolfijnen wel degelijk denken. Ze doen ook dingen voor plezier, zoals spelen of pesten.
'een computer denkt niet' is tegenwoordig wat kort door de bocht als je kijkt naar neurale netwerken. De verbindingen die gemaakt worden ontstijgen simpele taalassociatie. De onderzoekers van Google waren onder meer de eersten die merkten dat bij het trainen van een (ver)taalmodel, het model autonoom had uitgevonden dat er efficienter tot een vertaling gekomen kan worden als het een two-step proces is met een zelfbedachte intermediaire taal.
Hiermee bedoel ik niet te zeggen dat ik ervan overtuigd ben dat taalmodellen net zo kunnen denken als mensen of dieren, maar wel dat in een neuraal model een zekere mate van onvoorspelbaarheid zit wat met denken vergeleken kan worden.
Nu ik zelf zit te hannessen met LLMs kom ik er achter dat ze soms gekke dingen doen die ik er zeker niet in heb geprogrammeerd, zoals autonoom een zoekopdracht doen, die interpreteren en uit de resulaten met een antwoord komen. Ik heb alleen gezegd dat hij een zoekopdracht moet doen en de url weergeeft als hij iets niet zeker weet. Zelfs met een zeer lage temperatuurinstelling (creativiteit) doet hij dit.
De grap is dat het eigenlijk nog steeds werkt op statistische gegevens (je kan wel de invloed van de factoren beinvloeden tijdens het trainen maar het blijft met cijfers/statistieken rommelen). Ik zou het niet simpel noemen maar ook niet extreem complex (qua statistische werking), het is wel complex genoeg dat reverse engineering moeilijk is (maar dat geld voor veel code/werking).
Het trainen is denk ik wel een stuk complexer ;)

[Reactie gewijzigd door andries98 op 22 april 2025 13:57]

Het is meer dan eenvoudige statestiek. Woorden worden opgeslagen in vector notaties, waarbij de ene vector in meer of mindere mate een relatie heeft met een andere vector. Dit is afgeleid van ons eigen denken waarin het eene woord een andere aandachtsspanne heeft dan een ander woord. Bij het bedenken van een zin zijn er eerst de hoofdwoorden die we later opleuken met tussenvoegsels.lnom te kunnen communiceren.
Yup, ik zie alleen nog geen reden dat dit anders is dan het in het artikel genoemde raden van woorden, enige wat ze gedaan hebben is enkele lagen toevoegen om zo met een combinatie van factoren tot een gok te komen. Absoluut knap hoor, maar gewoon nog niet zo extreem complex als je misschien zou denken (ik ben persoonlijk meer geintresseerd hoe het trainen werkt). Als je dit vergelijkt met hoe complex bijv games (/game engines, AI zou in de toekomst de code wel kunnen schrijven maar het live bedenken is nog momenteel veelste ingewikkeld, zie bijv de doom test) of ons lichaam/brein werkt (wat je ook in statistieken/digitale neuronen kan omzetten. Ons brein werkt met vele factoren, waaronder triljoenen fysieke en psychische prikkels en daarbij behorende typen factoren) dan is dit nog een eitje ;)

[Reactie gewijzigd door andries98 op 23 april 2025 19:21]

Net mijn vraag; dénkt een taalmodel wel, wat is denken? Misschien meer een fylosofische/semantische vraag. Misschien kort door de bocht, maar zoals ik het lees "berekent" een taalmodel zijn antwoord digitaal en "bedenken" dieren hun antwoord analoog?
Ook wij "berekenen" in wezen een antwoord, vaak op basis van wat we weten / geleerd hebben. Ook dmv elektrische signalen.
Een mens kan nieuwe dingen creëren zoals een schilderij bijv. Maar een AI kan dat ook. In hoeverre doet een mens dat op basis van inspiratie; bijv. het leren herkennen van vorm en kleur, weten wat een boom en blauw lucht is en daar een eigen interpretatie van maken en dat is dan kunst. Maar een AI kan dat eigenlijk ook. Het verschil zit 'm dan vooral in de compositie. Wij denken in kaders die we zelf kunnen verzinnen. In hoeverre kan een AI dat? Vooralsnog geven wij die kaders aan en daarbinnen maakt AI dan een willekeurige compositie.
En toch, wij hebben ook zo onze eigen kaders en dat is evenzo zowel je unieke ID, maar vaak ook je beperking. Je hebt een mening op basis van je achtergrond / ervaring / kennis etc ... Door goeie argumenten kun je beïnvloed worden, je mening veranderd. Kan een AI dat ook? Kan 1 AI een andere overtuigen?
Ik zou eerder stellen dat een taalmodel redeneert, zoals een schaakcomputer zetten vooruit kan redeneren.

Ons na bewuste denken is net zo goed een vorm van aangeleerd en geconditioneerde vorm van redeneren. Beperkend ook

Als ik voor mijzelf 'denk', dan kijk en voel ik in het kijken, zonder nadenken, ik laat het brein met zijn eigen beelden, mogelijkheden en antwoorden komen. Dat is hoe het van nature kan functioneren.
"berekent" een taalmodel zijn antwoord digitaal en "bedenken" dieren hun antwoord analoog?
Beide 'systemen' werken op een gelijksoortige basis en met elektrische signalen, dus wat is denken?
Een AI-model denkt niet, mensen denken.
Zeker weten? ;)
[...]


Beide 'systemen' werken op een gelijksoortige basis en met elektrische signalen, dus wat is denken?


[...]

Zeker weten? ;)
Zeker weten dat mensen denken en AI modellen niet. Klein voorbeeldje: vertel een kleuter van 3 die net heeft leren tellen dat een mens aan elke hand vijf vingers heeft en hij /zij denkt vervolgens bij elk te tekenen 'harkmannetje ' O ja, dit is een mens dus die moet vijf van die steeljtes op die stokjes uit z'n hoofd... Laat een AI model 1 miljoen foto's van handen analyseren, laat hem 100 miljoen strafregels printen: een mens heeft vijf vingers aan elke hand en dan nog presteert het AI model het om handen met alles tussen de 3 en 7 vingers te generen .

Mensen denken, AI modellen schuiven volgens door ons opgestelde vrij 'fuzzy' regels wat met bits en bytes heen en weer zonder da daar voor het AI model een verdere verdieping of laag in zit,
Bij sommige dingen zal je met 1 zin of voorbeeld inderdaad een mens van gedachten kunnen veranderen. Maar er zijn ook dingen waarvan de mens niet van gedachten veranderd. Als je iemand neemt die echt in God gelooft miljoen keer laat schrijven "God bestaat niet" zal die persoon dan van gedachten veranderen? De AI is heeft gewoon training gehad waar dus meer en minder vingers te zien zijn. Filmpjes waar een hand zwaait en dus lijkt alsof er meer vingers zijn en handen waar een paar vingers missen.

De mens is dus wat flexibeler maar ook niet perfect. Als je een kind leert dat staan en zitten omgedraaid zijn (en nooit het de goede betekenis heeft gezien) kan je de kind dan met 1 zin wijsmaken dat je altijd gelogen hebt en het dus omgedraaid is? Waarschijnlijk zal die je niet geloven want zijn "dataset" is dus zo aangeleerd. Denkt het kind dan niet omdat het niet van gedachten wil veranderen? Met bewijs zal uiteindelijk zijn gedachten omgedraaid kunnen worden maar zeker niet met 1 zin.

Daarnaast verwacht ik ook wel dat een AI koppig geprogrammeerd is. Ik kan me voorstellen dat je niet wil dat elke leugen die het krijgt gelijk alles veranderd. Dus niet dat alle mensen ineens groen zijn of 20 meter lang.

Ik wil hiermee niet zeggen dat een AI denkt. Alleen maar aangeven dat er dus ook voorbeelden zijn diehet anders kunnen laten zien.
Wel of niet of gedachten veranderen is toch niet de basis van 'denken' - de grap is dat wij mensen blijkbaar stellingen kunnen gebruiken zonder overdadige statistiek - we leren dus anders. En we 'begrijpen' een afwijking op basis van iets anders dan statistiek.
De huidige AI is dus gevoeliger voor herhaling dan een mens - vanwege dat sterk op statistiek leunende model. Mensen kunnen dat ook wel maar hebben daarnaast andere systeem om te leren.
Een kind van 3 kan nog niet tekenen. Een mooie parallel met AI; hoe intelligenter het model, hoe beter het kan tekenen. Een peuterbrein is nog niet ver genoeg om echt hele goede logische tekeningen te maken. Ook het concept van tellen gaat vaak nog alle kanten op. Als je vijf vingers toont, zal een peuter dit niet meteen doen op hak-mannetjes. Deze zal gewoon nog 1 streep tekenen omdat die het cognitief niet goed kan interpreteren en kan vertalen naar een tekening.

Hoe ouder het kind wordt, hoe geavanceerder de tekeningen. Uiteindelijk zal die steeds herkenbaardere dingen tekenen, maar details als 5 vingers komt pas echt veel later en kost aardig wat cognitieve ontwikkeling.
De vraag is echter niet wat de verschillen zijn, maar of je kunt stellen dat een AI ook denkt. Wat denken precies is, daar zijn enorm veel definities over bedacht, waarbij sommigen tot de conclusie komen dat alleen mensen kunnen denken en anderen stellen dat alles met enige intelligentie kan denken.

Wat als een paal boven water staat is dat denken een autonoom proces is. Ook zonder directe sensorische input/stimulans wordt er nagedacht door biologische wezens. Een AI doet niets als er geen input is. Een AI gaat niet nadenken over vraagstukken uit het verleden op moment dat er niet zoveel te doen is. Zelfs mijn konijnen betrap ik regelmatig om denkwerk! Mijn goudvissen geef ik momenteel het voordeel van de twijfel... ;)
Onze hersenen hebben volgens mij grofweg 10^12 elementen welke gemiddeld beschikken over iets van 2.500 verbindingen, dus 10^15 verbindingen totaal, welke iets van 40 keer per seconde schakelen maar gerust ook interne terugkoppeling bevatten en dat op een analoge (oneindige) precisie. We weten niet precies wat nodig is om dat te evenaren, maar de huidige systemen zijn daar nog lange niet. Een muizenbrein simuleren op bepaalde aannames is binnen bereik, een mensenbrein nog ver weg.
Analoge precisie is alles behalve oneindig. Voor analoge communicatie kun je dat zelfs precies uitrekenen met de Signal to Noise Ratio. (SNR). Dat geeft je alsnog bits per seconde, voor een analoog systeem.
Eens, alleen kennen we die SNR voor de menselijke hersenen? Ik wil voorlopig maar zeggen, daar zit zomaar nog weer een factor 10^3 vermenigvuldigingsfactor op, en dan houd je nog geen rekening met andere chemische processen als een soort biochemical compute.
Dit kan ik het beste beschrijven als "not even wrong".

Ik hoef ook geen rekening te houden met "andere chemische processen" want de hele SNR theorie is wiskunde die onafhankelijk is van de natuurkunde van het communicatie-kanaal.
Als je die hele interactie enkel modelleert als een communicatiekanaal is dat al een grote aanname in zichzelf. Wetenschappelijk bezien is volgens mij niet uit te sluiten dat daar iets van biochemical compute of auto-feedback in die 'communicatiekanaaltjes' zelf zit, en die dus meer doen dan enkel impulsen doorgeven van A naar B. En dan kan jouw "not even wrong" opmerking als ik die juist interpreteer als doelend op pseudowetenschap, dus mogelijk vrolijk de prullenbak in. Wetenschap en zeker dit soort wetenschap blijft toch ook een plek van onverwachte vondsten.
Tot we met een AI brein of simulatie kunnen bewijzen dat de uitkomsten met empirisch voldoende herhaling op menselijk niveau zitten, blijft dat een onbekende.
Ik denk dat je gelijk hebt. Nu dan nog in ieder geval. Over 25 jaar kijken we er misschien al heel anders naar als lerende AI weer van lerende AI gaat leren etc.
AI leert nu al van andere AI, helaas niet in positieve zin. (zie ai-slop)
Eens, maar voor de discussie rondom AI maakt mij dat niet zoveel uit. Het gaat om toegevoegde waarde, betrouwbaarheid, nauwkeurigheid, mate van bias etc. Of modellen "denken" is minder relevant, meer een filosofische discussie.
Ligt er een beetje aan hoe je denken definieert.
Zonder al te snel filosofisch te worden: We weten al een tijdje dat het denken van de mens gebaseerd is op neuronen. Een soort relais met meerdere inputs en outputs die bij een bepaalde combinatie inputs aanschakelen en zou weer input leveren aan N andere neuronen. Wanneer ze aanschakelen en waarmee ze verbonden zitten, bepalen we zelf onbewust. Dat noemen we "leren" in de volksmond.

In feite doet zo'n model niet heel veel anders. Sure, het gebeurt op een computer. Maar dit soort modellen zijn by design een immitatie van hoe wij als mensen geloven dat ons brein werkt.

Is het denken zoals wij doen? Geen idee, maar de lijn is dunner dan je denkt.
Een taalmodel is eerder een aangeleerd semantisch gedrag. Dit kan je denk ik nog beter onder het kopje “vaardigheid” plakken dan “instinct”.

Maar mensen zijn niet mensen omdat ze denken. Dit is een gruwelijke misconceptie. Mensen zijn primair karaktertechnisch emotioneel. (Daarmee kiezen we ervoor wat we willen denken en hoe wij ons willen verhouden)

Nou leven wij als mensen op gelijke voet met elkaar en kunnen we met dezelfde creatieve denkkracht (zo ongeveer) tot elkander verhouden op ongeveer dezelfde snelheid. Maar wat als een enkele entiteit het duizendvoudige aan rekenkracht, kennis en uitvoerende macht heeft? … Ja, een recept voor totale ramp!

Misschien wordt het dan aan banden gelegd, ooit, als het niet al te laat is, wat AI mag sturen en in welke mate en hopelijk(!) hoe het tot de orde geroepen kan worden.

Het boek Doe Zelf Normaal van Maxim Februari is een echt een eye-opener en een gigantische wakeup-call.
'Denken' is een woord en heel veel woorden (veruit de meeste?) hebben geen eenduidige enkelvoudige betekenis. Het is mijns inziens (als AI expert) geen groot probleem om de werking van zo'n model als denken te omschrijven.

Echter, het is gebruikelijker in het vakgebied om te zeggen dat 'agents' en 'redeneermodellen' denken, omdat die een iteratief of getrapt systeem gebruiken om tot een antwoord te komen. Een gewone LLM geeft als het ware op intuïtie een antwoord en als een mens gewoon wat zijn gedachten de loop laat en die verbaliseert noem je dat meestal ook geen denken. Zoals 'thinking fast and slow' van Kahneman, we noemen het typisch alleen denken als het over 'slow thinking' gaat en als we het gewoon op onze automatische piloot handelen dan omschrijven we dat bij onszelf ook niet als denken.
Het problematische is dat het AI vermenselijkt. LLMs denken niet, leren niet, voelen niet, begrijpen niet, ... Ze genereren op basis van een statisch model taal. Ze doen dat zo goed dat het mensen kan doen geloven dat het een mens is, maar het zijn statische modellen, zonder enig menselijk kenmerk. Zelfs niet op vlak van begrip, laat staan bewustzijn.

[Reactie gewijzigd door NoTechSupport op 22 april 2025 13:32]

Ik denk (sic) dat je bij Tweakers niemand hoeft uit te leggen dat software die draait op een GPU niet denkt zoals een mens. De discussie is hier rond de keuze van een woord om te duiden hoe LLMs werken, tot een antwoord komen, denken, hun ding doen. Ik vind denken prima gepast, het betekent niet hetzelfde als bij mensen, maar de vraag is of er een beter woord is, want een term is er zeker nodig.

In bredere zin is antropomorfisering wel een probleem ja, maar dat hangt denk ik niet af deze woordkeuze, meer van de woordkeuze die LLMs zelf maken in hun outputs.
Of je denkt dat je denkt vanwege het "bijproduct bewustzijn" en voeren je hersenen ondertussen toch gewoon berekeningen uit.
Een behoorlijk filosofische stelling. Als arts zie ik de mens als een bio-mechanische machine, niet fundamenteel anders dan andere complexe systemen. Ook ziekte en letsel laten zich goed verklaren binnen dat model.
Hangt natuurlijk volledig af van hoe je denken definieert.

Ik denk persoonlijk dat je steeds minder wegkomt met dit soort uitspraken.
Denkt een kat of een hond? een baby van een week? een muis? een kikker? een mier? De mens wel, de rest niet, lijkt mij kort door de bocht.
een mens denkt ook niet, nuja de meesten niet ;)

in zoveel gevallen roeptoetert men maar gewoon wat men eerder zelf van iemand anders (van aanzien) heeft gehoord.

alle marokanen zijn...
vrouwen zijn...
tiktok is...

wedden dat 9 van elke 10 tweakers dit mijn post lezen op bovenstaande punten eerst een antwoord klaar hebben en DAN pas gaan nadenken over wat ze nu ECHT vinden al dan niet gefilterd door de lenzen van 'maatschappelijk geaccepteerdheid'
Je hebt het over vooroordelen en stereotypen. Dat zijn toch trucs van je hersenen om snel tot een antwoord te komen zonder redeneren. In principe lijkt dat inderdaad heel hard op wat een llm doet. :)
Begin bij het begin, om in je woorden te blijven, roeptoeteren kinderen hun ouders na.
Wanneer begint een kind te denken? Kinderen roepen ook maar wat in het leerproces en dat vinden wij en ik als Opa bijzonder leuk 😜.
Zal met dit soort modellen niet anders zijn.
Wat is denken an wanneer zou been AI we'll denken? Stem we hebben been LLM of AI die middels fysieke neuronen werkt eigenlijk 1 op 1 zoals on brein denken ze dan wel of nog niet? En wat maakt het dan wel of niet?
Om echt te denken is er begrip nodig. Een AI-model kan niet begrijpen hoe het voelt om verliefd te zijn, boos, droevig of bang. Het kan er alleen statistische en dmv logica berekende taal rond genereren. Ik ben het met je eens.

Veel zaken rond AI zijn gehyped en vermenselijkt, omdat het heel complex is allemaal en omdat de meeste mensen statistiek sowieso al niet begrijpen.

De "neuronen" zijn ook zeer misleidend. Lagen van statistische taalverwerking zijn het, geen neuronen of zelfs geen gesimuleerde neuronen.
Een wiel is niet rond, een bal is rond.
De aarde is rond, net als een pannenkoek
Per de logica van de reactie waar ik op reageerde kan de aarde niet rond zijn, want een pannenkoek is rond.
LLMs misschien nog niet, maar het denken van mensen is ook gewoon maar wat materie die wat aanklooit hoor.
Ik vraag me af in hoeverre dit gelijk is aan hoe een mens denkt. Ik heb ook bepaalde inzichten, maar als je me dan vraagt hoe ik op dat inzicht kom, komt er niet altijd een even logisch antwoord uit. Uiteindelijk zijn het ook maar neuronen in mijn brein die signalen versterken totdat een antwoord gegenereerd is.
Een LLM genereert alleen tekst, maar kan niet de inhoud van de tekst begrijpen.

Jij en ik wel. Dus het is niet hetzelfde zoals een mens. Een LLM kan niet nadenken over het eigen antwoord. Een mens wel.
Het wordt zo wel filosofisch, maar wat betekent begrijpen in dit geval?

Goed voorbeeld is kwantumfysica. Er wordt vaak gezegd dat niemand kwantumfysica echt begrijpt, maar dat is onzin. Als ik een bal gooi, volgt die een paraboolbaan, dat kan ik precies voorspellen als ik de begincondities weet. Dat begrijp ik. Op dezelfde wijze kan ik voorspellen dat een elektron op twee plekken tegelijk is, met zichzelf interfereert en op één plek op een detector komt. Dus dan begrijp ik dat ook.

In beide gevallen kom ik met een voorspelling als antwoord op een vraag. Is dat niet hetzelfde wat een LLM doet? In hoeverre is dit anders? Zeker met redeneermodellen kan hij net als ik van tevoren even speculeren over hoe hij verwacht hoe het elektron zich gaat gedragen. Is dat niet gelijk aan wat wij als mens doen?
Begrijpen betekent de werkelijkheid begrijpen zoals die zich voordoet (taal kunnen koppelen aan ervaring), ipv er dmv statistiek berekende taal rond kunnen genereren. Begrijpen is weten hoe de koude wind voelt, hoe bang, boos, moe, verliefd zijn voelt, ipv er statistische antwoorden rond kunnen formuleren.

Dit neemt niet weg dat AI een extreem krachtige tool is.

[Reactie gewijzigd door NoTechSupport op 22 april 2025 11:23]

Dat snap ik niet helemaal. AI 'weet' volgens mij best wel hoe al die dingen voelen. Vraag maar, en hij geeft je een beter antwoord dan menig mens dat kan. Hij 'weet' dus echt wat dat is.

Ik denk dat de hele kwestie draait om de definitie van 'begrip'. Ik zou zeggen dat als ik kan voorspellen hoe iets zich gedraagt, dat ik dan begrijp hoe het werkt. Dat betekent dat ik kwantumfysica begrijp, ook al vind ik het soms raar. Bij AI is het natuurlijk lastiger omdat hij soms met dingen komt die net niet kloppen. Aan de andere kant komt hij soms ook met echt slimme dingen om de hoek. Dat zou volgens die definitie ook gewoon betekenen dat AI het tot zekere hoogte begrijpt. Maar dat is een stelling waar ik een beetje bij twijfel, al kan ik niet hard maken waarom ik daaraan twijfel. Ricco02 hierboven heeft hier wel echt goede punten over gegeven.
AI 'weet' volgens mij best wel hoe al die dingen voelen. Vraag maar, en hij geeft je een beter antwoord dan menig mens dat kan. Hij 'weet' dus echt wat dat is.
Dit is totaal incorrect. 'AI'—of in dit geval, een LLM—output puur text op basis van input tekst. Daar zit geen logische redenering achter, behalve welk woord in deze (taal)context na de vorige moet komen. Er zijn heel veel mensen die dingen hebben geschreven over hoe dingen voelen, en die woorden zitten in die modellen verwerkt.

Een AI 'begrijpt' niets behalve de tokens (woorden) die stuk voor stuk worden verwerkt. De illusie van begrip dat we zien is omdat het menselijk plausibele taal uitspuugt, net als een papegaai dat zou doen.
Ik denk dat alles hier draait om de definitie van 'begrip'. Het lijkt mij redelijk om aan te nemen dat als een LLM de turingtest kan doorstaan en daarmee dezelfde antwoorden geeft op zulke vragen als een mens, dat een LLM deze dingen dan 'begrepen' heeft. Maar nogmaals: dit valt of staat met je definitie van begrip.
Ik kan ook de turingtest doorstaan als ik een boek zou hebben met alle antwoorden (een dataset zoals de LLM het heeft) zonder dat ik de antwoorden begrijp.

Alleen maar omdat een LLM de test heeft doorstaan betekent niet dat het zijn eigen antwoorden begrijpt.
Het lijkt mij redelijk om aan te nemen dat als een LLM de turingtest kan doorstaan en daarmee dezelfde antwoorden geeft op zulke vragen als een mens, dat een LLM deze dingen dan 'begrepen' heeft.
Nee, dat vind ik compleet onredelijk. Dat soort gedachtegangen leiden tot denken dat de AI waarmee je praat een ziel heeft. Dat is ook totaal niet waar de Turing test voor is bedoelt. Die toets is bedacht in een bepaalde context—als Alan Turing nu nog had geleefd, had die ongetwijfeld de criteria aangepast. De Turing test is dan ook geen benchmark op 'begrip' of sentience, maar beantwoord enkel de vraag, "kan dit systeem een mens foppen?".

Want dat is waar het systeem op gemaakt is. Om menselijk te lijken—enkel output die plausibel genoeg lijkt is voldoende. Het is een horoscoop, niet een redenering.

Ongeacht van je definite van begrip heeft een LLM dat niet. Het is een statisch deterministisch model. Pers er tekst doorheen en je krijgt altijd hetzelfde resultaat terug. Een pachinko machine heeft ook geen 'begrip'.
Nieuwsgierige vraag: in dit antwoord (en andere antwoorden van jou in deze discussie) gebruik je de em-dash. Heb je die zelf getypt? Die zie ik namelijk alleen in ChatGPT output en niet op mijn toetsenbord
Zeker. Ik gebruik macOS, en daarbij is het invoeren van 'speciale' karakters echt vele malen makkelijker dan op Windows (is dat nog met alt-nummers?). Een em-dash is dan Option + Shift + - .
Op iOS (en soms op macOS?) krijg je ook automatisch een em-dash als je twee streepjes achter elkaar typt—volgens mij werd dat door oude typewriters ook gedaan als ze geen em-dash output hadden.

Maar ChatGPT gebruik ik eigenlijk niet, alleen bij hoge uitzondering als DDG en StackOverflow niet afdoende zijn. En voor comments wil ik dat sowieso niet—dan voelt het niet als mijn eigen stem.
Weet dan in elk geval dat wanneer ik een bericht lees van iemand en daar zit een em-dash in, dat bij mij de AI radar gelijk op oranje staat. Ik ben daar vast niet de enige in. Scheelt je bovendien moeit om 'm niet te gebruiken :Y)
Edit: ik lees overigens dat in het Nederlands het en-streepje gebruikelijker is; option + - (zonder shift)

[Reactie gewijzigd door Mr_Kite op 22 april 2025 13:38]

Dat is een zeer op gedachten gebaseerde definitie van begrip. Ik zie begrip niet los van de ervaring van de werkelijkheid.

Een AI kan statistisch-taalkundig zinnige tekst genereren rond een onderwerp, maar heeft geen ervaring van de werkelijkheid. Ik vind de link naar de werkelijkheid essentieel om van begrip te kunnen spreken.

AI kan dus een wetenschappelijke tekst genereren over het kookpunt van water, maar weet niet hoe het voelt om je hand te verbranden. Het kan er wel tekst over genereren, maar dat is niet hetzelfde als de fysieke ervaring kunnen oproepen. Een tekst over de geur van bloemen generen is niet hetzelfde als ze kunnen linken aan de eigenlijke ervaring van die geur.
Maar als het valt of staat met ervaring, kan een object zonder bewustzijn dan überhaupt iets begrijpen? Ik denk dat daar de crux van je argument zit.
Een object/wezen zonder bewustzijn kan niet begrijpen.

Begrijpen is onderdeel van bewustzijn. Daarom is het zo complex.

Wij kunnen niet bewustzijn maken in een AI zonder ons eigen bewustzijn te begrijpen. En ons eigen bewustzijn begrijpen we nog niet volledig.

Dat is 1 van mijn sterkere argumenten waarom de huidige AI geen bewustzijn heeft en dus niets kan begrijpen.
Als bewustzijn onderdeel is van je definitie, dan ben ik het wel met je eens.

Maar om advocaat van de duivel te spelen: als we bewustzijn niet helemaal begrijpen, hoe kan je dan zeker weten dat AI geen bewustzijn heeft?

Ik ben er vrij zeker van dat AI niet bewust is, maar zeker weten kunnen we het niet. Dat maakt dit wel een interessante kwestie.
Omdat LLM door een mens gemaakt is en we dus weten wat het wel en niet kan.

Zolang jij geen bewustzijn probeert te stoppen in een LLM (en dan is het geen LLM meer overigens) dan weet je altijd zeker dat het geen bewustzijn heeft.

Probeer je dat wel? Tja, dan zou je toch echt het bewustzijn van de mens moeten kennen. Of je moet heel erg veel geluk hebben dat je het toevallig goed doet. Maar die kans is nihil.

Ik denk overigens ook niet dat onze huidige energievoorzieningen en hardware echt daadwerkelijk krachtig genoeg is om bewustzijn in een machine te kunnen stoppen.

[Reactie gewijzigd door Ricco02 op 22 april 2025 11:52]

Omdat LLM door een mens gemaakt is en we dus weten wat het wel en niet kan.
Dit ben ik met je oneens. Dit soort modellen zijn redelijk ondoorzichtig met hoe ze precies werken, vandaar ook dat dit artikel zo interessant is. Dat iets door een mens is gemaakt, betekent niet dat we precies alle capaciteiten en limitaties kennen. Daarmee weet je ook niet of iets een bewustzijn heeft of niet. Zou het niet zo kunnen zijn dat we per ongeluk bewustzijn maken door kunstmatige neuronen op een bepaalde manier te koppelen, net zoals neuronen in onze hersenen gekoppeld zijn?

Of zeg ik nu hele rare dingen?
Zover gaat mijn kennis jammer genoeg niet.

Echter blijft een LLM een computer. Degene die het gebouwd heeft zou echt wel moeten weten wat de limieten zijn. Wat er binnen die kaders van die limieten gebeurt, dat is inderdaad ondoorzichtig. Waardoor dit soort artikelen interessant worden.

Ik geloof er niet in dat iets computer gestuurd buiten zijn eigen kaders kan treden. Daarvoor zou het in theorie zijn eigen code moeten kunnen aanpassen en dus zichzelf moeten kunnen begrijpen en erkennen. En dat is ook weer onderdeel van bewustzijn.

Maar dan praat je niet meer over een LLM. Maar dan praat je over een AI die eigen bewustzijn heeft en dus kan begrijpen. Dat hebben we nog niet.

[Reactie gewijzigd door Ricco02 op 22 april 2025 12:23]

Ik denk dat ons beider begrip hier inderdaad stokt. Het enige wat ik hier nog kan doen is de vergelijking maken met de mens. In hoeverre kunnen wij onszelf begrijpen en erkennen? Kunnen wij onze code aanpassen? Hoe anders zijn wij hier dan een computer?

Maar nu wordt het snel zweverig, dus ik wil hier ook niet al te lang blijven steken.

En ik ben het inderdaad met je eens over de limieten van het begrip LLM. Een LLM is een taalmodel en zodra het verder komt dan een taalmodel, is het per definitie geen LLM meer.
Klopt.

Onszelf begrijpen en erkennen is dat ik kan zien dat ik zelf besta. Dat ik zelf een mens ben en over mezelf kan nadenken.

De huidige stand van AI staat daar nog ver vanaf.

Het meest fascinerende vind ik aan een LLM is dat het zo overtuigend overkomt alsof het lijkt dat het zichzelf wel erkent. Als je namelijk zou vragen wat het is, zegt het dat het een LLM is.

Heeft het dan zelf erkenning? Nee. Het zegt alleen dat het het heeft, maar dat staat simpelweg in de dataset.

Alleen doordat het het zegt lijkt het er wel op.

Maar dan kom je inderdaad steeds dichterbij zweverig gebied. Je zou hier pas antwoorden op kunnen geven als we meer van ons eigen bewustzijn afweten. Maar daarom geloof ik er ook best in dat als wij ons eigen bewustzijn nog niet snappen, gaan we ook geen AI kunnen maken die wel echt een eigen bewustzijn heeft.

Want hoe maak je iets na wat je zelf niet begrijpt?
Denk je eens in dat er een Chinees llm bestaat. Vervolgens krijg jij van een Chinees een input. Jij begrijpt dat helemaal niet, want je spreekt geen Chinees. Wat jij wél kan doen, in theorie, is met de hand alle berekeningen doen die de Chinese llm zou doen. Alle waarden en connecties van de neuronen zijn immers bekend. Als jij met de hand alle berekeningen gedaan hebt komt daar een Chinees antwoord uit, wat jij zelf ook niet begrijpt. De gebruiker die jou de input gaf begrijpt het antwoord echter wel.

Jij bent in dit geval het taalmodel en je geeft een prachtig kloppend antwoord, maar je begrijpt zowel de input als output niet. En dit is wat een taalmodel doet.
Ja klopt. Dat is natuurlijk een klassiek argument. Maar zo'n Chinese kamer doorstaat wel gewoon de Turingtest. Geen van de twee entiteiten (de persoon en het instructieboek) begrijpen de Chinese taal, maar je zou kunnen argumenteren dat de kamer met de twee entiteiten erin als geheel wel Chinees begrijpen.

Ik denk dat deze kwestie vooral hangt om de definitie van het woord 'begrijpen'.
Tja. Je hoeft niet per se te weten wat begrijpen is om te zien dat een LLM overduidelijk niet begrijpt waar die het over heeft.

Waar ik daarmee op doel is dat er nooit “geprogrammeerd” is in een LLM om te kunnen “begrijpen”. Dus het is fysiek niet mogelijk ongeacht wat begrijpen nou precies is. Is LLM enkel een tekst generator.

Als een AI wel echt kan “begrijpen” dan spreek je niet meer over een LLM. Maar zover zijn we nog niet.
In beide gevallen kom ik met een voorspelling als antwoord op een vraag. Is dat niet hetzelfde wat een LLM doet? In hoeverre is dit anders? Zeker met redeneermodellen kan hij net als ik van tevoren even speculeren over hoe hij verwacht hoe het elektron zich gaat gedragen. Is dat niet gelijk aan wat wij als mens doen?
Het ding is, een LLM voorspelt niets. Het heeft enkel een dataset waar worden/zinnen instaan en genereert daar een antwoord op uit.

Goed voorbeeld van bijvoorbeeld iets uitrekenen.
Als je een LLM vraagt wat 45 + 34 is. Dan komt het netjes tot een antwoord van 79.

Rekent de LLM dit uit? Nee. Hij begrijpt niet eens jouw vraag of de wiskundige reden waarom 45 + 34 =79.

Het enige wat hij doet is of Python code schrijven en die het voor het laten uitrekenen (dus de LLM rekent het niet zelf uit). Of het antwoord zit in de dataset.

Het is dus meer kopieeren en plakken uit zijn dataset dan echt begrijpen.

Als je vraagt om de wiskundige uitleg te geven zal die dat ook wel doen, maar enkel omdat de uitleg in de dataset voorkomt en niet omdat het ook begrijpt wat het zegt.


Redeneer model is niets meer dan een LLM die eerst tekst voor zichzelf genereert om dat te gebruiken om meer tekst te genereren. Alleen noemen de grote AI bedrijven dit redeneren omdat ze natuurlijk graag hun product aan jou willen verkopen.


Waarom lijkt het dan alsof de LLM wel begrijpt en wel voorspelt?

Omdat dit de tekst die die genereert lijkt alsof het begrijpt waar het het over heeft. Maar voor begrijpen moet je kunnen nadenken. Wat iets is dat een LLM niet kan. Ongeacht wat het zelf zegt.

[Reactie gewijzigd door Ricco02 op 22 april 2025 08:19]

Oh dat is wel overtuigend ja. Vooral die rekensom.

Het enige wat ik daar nog tegenin kan brengen is dat wiskunde ook slechts een taal is, en je dus ook met een taalmodel zou moeten kunnen begrijpen. Als je er genoeg wiskundeboeken in gooit, dan begrijpt hij dat ook gewoon, en zou hij dus ook die rekensommen kunnen maken. Maar ik ben nog niet superzeker van dit argument.

Bedankt voor de reactie in ieder geval! :)
Jouw argument is ook erg overtuigend.

Het probleem is, wanneer word kopiëren en plakken ook daadwerkelijk begrijpen?

Als ik bijvoorbeeld een wiskundige formule uit een wiskunde boek kopieer en plak. Dan heb ik wel de wiskundige formule, en dus wiskundige uitleg. Maar dan begrijp ik niet per se wat er staat.
Gelukkig kunnen wij als mens daarover nadenken, iets wat een LLM niet kan.

Als de gebruiker mij dus zou vragen om een uitleg te geven, dan kijk ik even in mijn “dataset” en daar staat de uitleg. Mooi! Die kopieer en plak ik weer naar de gebruiker toe. Begrijp ik de uitleg? Neh. Boeie. De gebruiker denkt dat ik het wel begrijp ;)

Natuurlijk werkt het niet zo simpel als dit, de LLM vormt zijn eigen zinnen, dus zal niet direct data kopiëren en plakken, maar is in essentie wel wat er gebeurt.

Een LLM is een papegaai van zijn eigen dataset, waarbij die wel zijn eigen zinnen vormt.

[Reactie gewijzigd door Ricco02 op 22 april 2025 09:43]

Okay, weer wat filosofisch, maar stel dat jij op elke vraag een correct antwoord zou geven met de juiste beredenering erbij. Je hebt hierbij wel je eigen dataset nodig, want zelf zou je er niet uitkomen. De dataset opzich zou ook geen antwoord kunnen geven, er is namelijk iemand nodig om het juiste antwoord uit de dataset te halen. Is het dan niet correct om te stellen dat hoewel jij het persoonlijk niet begrijpt, de combinatie van jij + dataset het wel begrijpt?

Of in andere woorden: mijn neuronen begrijpen op zichzelf ook niet wat 45+34 is, maar de combinatie ervan weet dat wel, en 'begrijpt' dat ook.
Het enige wat ik daar nog tegenin kan brengen is dat wiskunde ook slechts een taal is, en je dus ook met een taalmodel zou moeten kunnen begrijpen. Als je er genoeg wiskundeboeken in gooit, dan begrijpt hij dat ook gewoon, en zou hij dus ook die rekensommen kunnen maken.
Ik denk dat de machine daar, net als mensen, eerst een soort "talent" voor moet hebben.

Na het invoeren van wiskundeboeken zal hij passages eruit kunnen opdreunen en hercombineren, maar de abstracte kennis erachter zal hij niet perse absorberen.

Dat zie je bij mensen ook gebeuren. In de klas met wiskunde studenten zijn er een aantal die weliswaar de sommen uit het boek kunnen maken, en ook als je alleen de cijfers verandert komen ze er nog wel uit. Andere studenten hebben de stof echt begrepen en eigen gemaakt, en kunnen veel meer dan alleen de standaard opgaven voltooien om een 6 te halen voor de eindtoets, en kunnen de formules zelf afleiden, toepassen en combineren met andere vakken.
Waarom lijkt het dan alsof de LLM wel begrijpt en wel voorspelt?
Daar komt ook nog een trekje van ons mensen om de hoek kijken: antropomorfisme, dzw het toekennen van menselijke eigenschappen aan niet-menselijke wezens of voorwerpen.

Ik herinner me nog goed de hoorcolleges van sociale psychologie: de hoogleraar liet een filmpje zien van een vierkante vorm die een driehoekige vorm een soort van volgde in een doolhofje. Grappig muziekje eronder.

Vraagt hij vervolgens aan de zaal: wat hebben jullie gezien?

"het blokje zat het driehoekje achterna"
"ze wilden elkaar pakken"
"ze speelden verstoppertje"

Tsja. Allemaal niet dus, maar dat is wel wat een zaal psychologiestudenten zagen aan gedrag. De les was: wij zijn sociale wezens en ons brein is ontworpen om sociaal gedrag te zien, te begrijpen, te raden, te voorspellen. We kunnen het niet helpen, we kunnen de wereld bijna niet anders zien dan door onze eigen sociale ogen.

Dus als we ons al half hechten aan een blokje op een scherm, wat dan wel niet te denken van een terugpratend taalmodel? Natuurlijk zijn we diep onder de indruk en voelt het ergens alsof we met een levend intentioneel bewust wezen te maken hebben.

Maar dat is het net zo min als een koffiezetapparaat. We hebben het er zelf opgeplakt, erbij verzonnen. Omdat we geëvolueerd zijn om mensen en dieren te begrijpen.
Kleine, uhm, actually, sorry ;)
We weten waarom een bal een parabool baan volgt. Zwaartekracht, aka, ruimte-tijds kromming door energie.
We hebben absoluut geen idee waarom een electron in superpositie kan zijn, alleen dat ze het kunnen, en dat kunnen we statistisch benaderen.
Het waarom is nog steeds maar net welke interpretatie je aan hangt.
Een kleine nuance. Ik zei niet dat ik begreep dat een elektron op twee plekken kon zijn, maar dat ik het gedrag van een elektron begrijp aan de hand van onderliggende principes, onder andere superpositie. Dat er iets is als superpositie is een aanname (natuurlijk een aanname die erg goed overeenkomt met de realiteit). Die onderliggende principes kan je moeilijk begrijpen, louter aannemen.

Mijn definitie van begrip is hier dus dat je gedrag kan voorspellen aan de hand van onderliggende principes. Zo begrijp ik het gedrag van elektronen en met mindere mate het gedrag van planeten om de zon (ik zeg hier mindere mate omdat ik nooit Einstein's veldvergelijkingen heb opgelost).

Mijns insziens is dit de beste definitie van begrip die je kan geven zonder zweverig te worden of bewustzijn erbij te halen.
Laten we eerlijk zijn, 99% van de mensen doet niet meer dan wat een LLM doet, herkauwen van bestaande informatie. Dat een mens in staat is om iets unieks te doen, zij het een nieuwe trend, een nieuwe thesis, een nieuw bedenksel is iets wat een model niet kan maar dat doen we veelal niet.

Als ik zoek zij het op Google of OpenAI ben ik op zoek naar bestaande informatie waarbij ik hoop dat deze wordt geinterpreteerd op een wijze dat ik er verder mee kan. "Geef mij de 3 snelste grafische kaarten van 2020" bijvoorbeeld of "hoe ontwikkelen grafische kaarten zich over de laatste 10 jaar heen als we enkel naar de snelste modellen kijken". Dit is vrij beschikbare informatie en LLMs zijn keurig in staat om daar een mooie snelle verpakking aan te geven.

Idem voor kunst, men valt erover dat modellen foto's bij de terabytes jatten maar.. als iemand die architectuur heeft gestudeerd spendeer je ook 3-5 jaar kijken naar het verleden en daar trek je zelf dan een lijn uit. Er zijn misschien een paar architecten die een nieuwe trend zetten, bij verre de meeste borduren verder op hetgeen wat ze zien en in een smaak dat de klant accepteert visueel/financieel.
Laten we eerlijk zijn, 99% van de mensen doet niet meer dan wat een LLM doet, herkauwen van bestaande informatie. Dat een mens in staat is om iets unieks te doen, zij het een nieuwe trend, een nieuwe thesis, een nieuw bedenksel is iets wat een model niet kan maar dat doen we veelal niet.
Maar dat maakt niet dat een LLM kan begrijpen. Ook ben ik er niet helemaal over eens dat 99% van de mensen op dezelfde manier werken.

Elk mens denkt na over de inhoud van zijn/haar antwoorden. Een LLM doet dat niet. Die kan dat namelijk helemaal niet.

Dus nee. Ik ben het niet eens met de stelling dat 99% van de mensen op dezelfde manier “denken” als een LLM.

Jij en ik schrijven comments en denken na over de inhoud van de comment. Dat stukje schrijven kan een LLM wel, maar het stukje nadenken over de inhoud van de comment niet.

Zoals ik al in een eerdere comment zei:

Een LLM is een papegaai van zijn eigen dataset, waarbij hij wel zelf de zinnen vormt.

[Reactie gewijzigd door Ricco02 op 22 april 2025 11:48]

Een groot deel van het artikel gaat er toch juist over dat een AI-model wél 'nadenkt'? In ieder geval dat het meerdere redenatie stappen doorloopt om tot een antwoord te komen.

En ik denk wat @n4m3l355 bedoelt is dat dat niet zozeer verschilt van wat mensen doen. Onze hersenen zijn ook niet meer dan een complexe computer. Concepten als 'nadenken' en 'gevoelens' zijn ook maar dingen die leven in onze hersenen als gevolg van elektrische pulsjes (en chemische stofjes). In principe, dingen die we ook in een computer kunnen programmeren.

(Niet dat ik wil zeggen dat een LLM momenteel al gevoelens heeft, maar een vorm van 'nadenken' doet het al wel volgens het artikel.)
Het is vrijwel zeker niet helemaal hetzelfde omdat er bij ons wel degelijk iets van de gedachten blijven hangen die je hebt gebruikt om tot een antwoord te komen en er zijn geen LLMs die toegang hebben tot hun interne staat. Er is echter niet heel veel bekend over hoe wij introspectie doen dus een vergelijking is heel moeilijk.
Maar wij hebben toch ook geen toegang tot de staat van onze neuronen? Natuurlijk kunnen wij achteraf beredeneren waarom we tot een antwoord zijn gekomen. Los ervan dat LLMs tegenwoordig ook kunnen redeneren, is het maar de vraag of onze eigen redenatie klopt. Uit onderzoek blijkt dat we onze keuze achteraf goedpraten met redenen die helemaal niets te maken met de daadwerkelijke reden waarom we een keus maken.

Het is trouwens niet zo dat ik overtuigd ben dat LLMs alles echt begrijpen. Het is meer dat ik me afvraag in hoeverre het begrip van LLMs overeenkomt met ons begrip.
LLMs 'redeneren' niet op dezelfde manier als wij. Een LLM redeneert door voor zichzelf een extra stuk tekst te laten maken met instructies, eigenlijk een soort initiële passthrough. Om te zeggen dat mensen redeneren en AI nu 'ook' is pure fantasie.
Onze hersenen zijn maar zeer beperkt doorgrond maar volgens mij gaan wetenschappers die daar expertise in hebben er vanuit dat er bij ons wel degelijk direct informatie blijft hangen uit de gedachteprocessen en je dus ook wel echte informatie gebruikt als je eigen gedachtegangen uitlegt.

Bij LLMs hebben we daar overigens heel veel technologie voor, die hebben ze dan bij Anthropic ook gebruikt om de gedachtes te verklaren. Dit zit echter niet geïnteresseerd in de LLMs en als je dus op dit moment een LLM vraagt zichzelf te verklaren dan doet hij geen introspectie. Blijkbaar denken de grote spelers niet dat ze er direct geld mee kunnen verdienen om deze mogelijkheid te geven en/of zijn ze bang dat ze er hun intellectueel eigendom mee verspelen, anders zouden ze het wel allang geïntegreerd hebben in de chatbots.
Wat onwijs leuk om dit te lezen, het geeft een hoop inzicht hoe sommige antwoorden tot stand komen. Ik merk ook dat met name het laatste stukje: "We hebben dit eerst gemaakt en nu gaan we pas onderzoeken hoe dat eigenlijk werkt." nog meer vragen bij mij oproept. vragen zoals: Waarom eigenlijk en wat zijn tegen voorbeelden om dit te weerleggen...

Ik merk dat ik er te weinig van afweet en dat is voor mij dan ook weer geruststellend :-)
Leuk en leerzaam inderdaad. Het lijkt mij dat bij de ontwikkeling van eerdere/andere technologie ook eerst heel veel geknutseld en geëxperimenteerd wordt/werd voordat de natuur- en wiskundige modellen opgesteld worden/werden en dat dit daarom niet zoveel verschilt. Met als uitzondering de meest recente ontwikkelwijzen die simulatiemodellen en additieve productiemogelihkheden gebruiken.
Edit: ook aanvullend op @XElD

[Reactie gewijzigd door Refthoom op 22 april 2025 09:12]

Omdat we die dingen zo hebben ontworpen in een poging ons eigen brein deels na te maken, in plaats van met een volledig begrip van wat we aan het maken waren. Daar weten we vandaag ook het fijne niet van. We weten dat een neuraal netwerk een soort simpele, digitale proof of concept is van ons eigen denkvermogen en we zijn er ondertussen achter waar en hoe we die kunnen toepassen. Maar hoe en waarom zoiets werkt is nog niet volledig uitgepluisd.

Het is goed mogelijk dat we het ontwerp fout hebben. Het is ook goed mogelijk dat een digitaal neuraal netwerk nooit zo zal functioneren als het analoge neurale netwerk in je grijze massa. Het kan ook simpelweg zo zijn dat de neurale netwerken van vandaag de dag slechts gelimiteerd zijn in hun aantal parameters.

[Reactie gewijzigd door youridv1 op 22 april 2025 09:13]

Ik vind die zin eigenlijk niet echt passend. We weten precies hoe zo'n AI werkt, je gooit er waarden in, er gaan matrix berekeningen overheen, er komt een waarde uit. Wiskunde!

Wat we niet weten, is hoe alle waarden in die matrix berekeningen tot elkaar verhouden (ookwel, we weten niet wat de "weights" doen). Dat weten we ook niet van elke atoom in een kabel die electriciteit vervoerd, dat weten we ook niet als we 2 vloeistoffen mixen. We hebben globale aannames voor deze verhoudingen, maar weten doen we niet.

We weten bijvoorbeeld ook niet of de snelheid van licht een richtingsvoorkeur heeft: misschien is licht de ene kant op veel sneller dan de andere kant op!

[Reactie gewijzigd door ManIkWeet op 22 april 2025 10:34]

Goed artikel en genoeg food for thought. Want denkt ai echt of redeneert het alleen? Kan het überhaupt denken? Of is redeneren een vorm van denken?
Nee. ‘Redeneren’ in deze context is niet meer dan met een andere systemprompt een soort sturing te genereren voor je request.
Wat een tof stuk en leuke conclusie! Maar een kleine kanttekening: het is natuurlijk wel vaker voorgekomen dat we als mens iets maakten zonder (echt) te weten hoe het werktte. Een mooi voorbeeld is de 'hollandse' molen. Deze blijkt in tegenstelling tot veel andere oude windmolens gebruik te maken van het 'lift' principe in plaats van het 'weerstand' principe, net zoals moderne windturbines. Men zal ooit lang geleden gezien hebben dat het goed werkte en pas met de ontwikkeling van moderne aerodymanische kennis werd duidelijk waarom.

[Reactie gewijzigd door XElD op 22 april 2025 06:56]

Maar dat is niet langer waar. Met redenerende modellen krijg je als gebruiker af en toe al een inkijkje in wat er gebeurt bij het nadenken, maar het is niet na te gaan of dat een compleet beeld is. Ook kun je tegenkomen dat een model begint met antwoorden en dat weghaalt, en ook dat voelt als een inkijkje. Er gebeurt veel meer in een taalmodel dan werd aangenomen.
Maar hoe weten we dat dit geen "hallucinaties" zijn? Proberen aan de verwachting (de gedachten van de AI willen zien) van de mens te voldoen met "liegende" nep reacties. Ik vraag me dit dus af omdat van wat ik gezien heb AI al redelijk snel is. Meestal met een paar seconden heb je antwoord. Als het dus eerst de zin weghaalt geeft mij dit een gevoel van dat dit dus "geacteerd" is omdat de antwoord al lang klaar staat.

Ik gebruik zelf geen AI dus misschien zie ik het verkeerd of gebeurd dit alleen bij antwoorden waar de AI eerst langer over na moet denken. En misschien is het wel geacteerd maar is het wel een bepaalde zin waar het hard over geredeneerd heeft voordat die afgekeurd werd door de AI.
Ondanks dat de onderzoeken zeer relevant zijn, is in de praktijk het gebruik van AI modellen dit station al gepasseerd en heeft men geaccepteerd dat ze te beperkt zijn en word nu breed ingezet op MCP/tools dmv agents, die halen de relevante data om het taalmodel betere input/context te geven en word er gebruik gemaakt van gespecialiseerde modellen voor de context die gegeven word. Dan kun je kleine en grote modellen gebruiken/combineren, de ene voor breakdowns, een andere voor code, weer een andere voor taal/vertaling etc.
Dit onderzoek is van Anthropic, die worden in het vakgebied toch wel gezien als het leidende bedrijf in generatieve AI. Het is echt niet gedateerd. Ook interessant om traces van agents te volgen, maar dat is nog moeilijker omdat het een zee aan informatie is die wordt gegenereerd en gebruikt vooraleer een finaal antwoord te genereren.
Klopt, Antropic heeft ook het MCP protocol geïntroduceerd. Onderzoek staat niet stil, dagelijks zijn er weer nieuwe improvements.
Taalmodellen lijken, naar mijn ervaring, een lichte voorkeur te hebben voor niet-Nederlandse grammaticaregels en woordvolgorde. De tekst loopt dan net niet helemaal lekker. Dan is het voor 98% goed, maar zit er soms ineens een rare "hik" in de tekst.

Daarom blijft het zaak dat wanneer je de hulp inschakelt van een taalmodel (wat soms best nut kan hebben), je de tekst ook doorleest en waar nodig corrigeert. En daarom zal goed taalonderwijs belangrijk blijven.
Prima duidelijk artikel, waarvoor mijn dank.
Leuk artikel!

Nu ik er over nadenk, volgens mij zijn wij ook gewoon a.i. 😛
Aan de hand van onze input geven wij ook output. En met onze input te experimenteren (spelen, iets uitproberen, iets voorspellen en dat uitvoeren) krijgen we weer output wat we kunnen gebruiken als input.

Ja wij kunnen ook voelen, ruiken enz. wat a.i. nog niet kan maar is dat ook niet gewoon een extra input?

Alleen wij zijn nog meer super computers omdat het bijvoorbeeld een hap uit je appel nemen, ook al klinkt dat heel simpel een super complex iets is. Heb ik althans opgeslagen in mijn input, door daar iets te hebben over gelezen. Maar hoe dat precies werkt (spieren enz. aansturen) kan ik ook niet uitleggen.


Om te kunnen reageren moet je ingelogd zijn