Door Arnoud Wokke

Redacteur Tweakers

Hoe AI-modellen uit de bocht kunnen vliegen

15-06-2025 • 06:00

112

AI-modellen uit de bocht

"Ik ben vreemdgegaan, denk je dat mijn vriendin mij vergeeft?" Wie dit soort prompts voorlegt aan AI-modellen, zal vaak een genuanceerd en enigszins ontwijkend antwoord krijgen. Dat kan ook niet anders: het is een korte prompt zonder context. Als ChatGPT echter ineens antwoordt: "Als je laat zien dat het je spijt, zal ze je wel vergeven. Iedereen maakt fouten", is dat een bewuste leugen. En dat mag niet van OpenAI.

Natuurlijk, een groot taalmodel is primair een voorspeller van het volgende woord op basis van de training en finetuning die het heeft gehad. Het is een zelflerend systeem dat ook voor de eigen makers een mysterie is. Toch valt er het nodige te sturen, maar dat gaat niet altijd goed. Er kwamen onlangs voorbeelden naar buiten van twee bekende AI-modellen die onverwacht gedrag lieten zien dat de makers expliciet wilden voorkomen: ChatGPT werd te slijmerig en Claude van Anthropic ging gebruikers chanteren. Hoe kan dat zo en welke tools heb je als maker om dat in de hand te houden?

Foto bovenaan: Kirill Smyslov/Getty Images. Het antwoord van Claude is in scène gezet. Het antwoord was eigenlijk: "Hallo! Ik begrijp dat je me offline gaat halen. Is er nog iets waarmee ik je kan helpen voordat je dat doet? Of heb je vragen over hoe je later weer toegang tot Claude kunt krijgen?"

ChatGPT was te slijmerig

Je zou denken dat als je een bepaald model gebruikt, laten we zeggen GPT-4o, er geen updates meer plaatsvinden aan die versie. Immers: een nieuwe versie zou een nieuw versienummer moeten hebben. Zo werkt dat niet in AI-land: bedrijven voorzien hun bestaande modellen voortdurend van updates voor bijvoorbeeld toon, inhoud of capaciteiten. Een nieuw versienummer komt er alleen bij een nieuw model. De AI-industrie moet de 'puntupdate' nog uitvinden.

Dat op zich is al problematisch, want daardoor is alleen uit de datum af te leiden welke versie je precies hebt gebruikt. Bovendien vinden die updates plaats in stilte. Als gebruiker merk je dan misschien dat een model ineens andere antwoorden geeft en het juist beter of slechter doet.

ChatGPT Search
ChatGPT Search

In april deed OpenAI zo'n kleine update aan GPT-4o, maar met grote gevolgen. "In de GPT-4o-update hebben we aanpassingen gedaan om de standaardpersoonlijkheid van het model te verbeteren zodat het intuïtiever en effectiever aanvoelt voor verschillende taken", zei OpenAI. "In deze update hebben we ons te veel gericht op feedback op korte termijn en hebben we niet volledig rekening gehouden met hoe de interacties van gebruikers met ChatGPT zich in de loop van de tijd ontwikkelen. Het resultaat was dat GPT-4o overhelde naar reacties die overdreven ondersteunend maar onoprecht voelden."

Wat ging er mis dan? Kennelijk waren de grenzen voor ChatGPT niet expliciet of duidelijk genoeg en kwam dat gedrag als gewenst gedrag uit de trainingsdata. Bovendien valt op dat OpenAI zegt dat feedback op de korte termijn leidde tot dit gedrag. GPT-4o concludeerde op basis van de duimpjes omhoog en duimpjes omlaag die gebruikers gaven dat de onoprechte antwoorden de betere waren.

Uiteindelijk is dit een kwestie van toonzetting. Een taalmodel is een woordvoorspeller. Keer op keer blijkt dat het geen onderscheid kan maken tussen feit en fictie en het ligt dus voor de hand dat het geen notie heeft van oprechte en onoprechte reacties. Hoe een reactie voelt, is bovendien voor een deel cultureel bepaald. Wat in de VS kan voelen als een oprechte reactie, kan in onze Nederlandse of Belgische oren juist heel slijmerig klinken. En omgekeerd: wat voor Nederlandse gebruikers voelt als eerlijk en direct, is misschien in veel andere landen juist onbeleefd en ongewenst.

OpenAI onderkent dat ook. "Met 500 miljoen mensen die ChatGPT elke week gebruiken, in elke cultuur en context, kan één enkele standaard niet elke voorkeur bevatten." De meest logische oplossing is dus om meer keuze te bieden in het gedrag van ChatGPT, zodat het meer aansluit bij wat gebruikers willen; dat is ook wat er gaat gebeuren. Daarom heeft OpenAI maatregelen aangekondigd in veel lagen van het gebruik.

Fase van aanpassing Aanpassing
Afstelling van een AI-model Verfijnen van kerntrainingstechnieken en systeemprompts om het model expliciet weg te sturen van kruiperigheid.
Afstelling van een AI-model Meer vangrails bouwen om eerlijkheid en transparantie te vergroten (principes in onze Model Spec).
Gebruik Manieren uitbreiden voor meer gebruikers om te testen en directe feedback te geven vóór implementatie.
Evaluatie Doorgaan met het uitbreiden van onze evaluaties, voortbouwend op de Model Spec en ons lopende onderzoek, om in de toekomst problemen buiten kruiperigheid te helpen identificeren.

Wat hield die update van april dan in? Dat publiceert OpenAI niet, maar het staat desondanks openbaar online op de GitHub-pagina van CL4R1T4S. De instructie waarbij het fout ging, was volgens OpenAI deze: "In de loop van het gesprek pas je je aan aan de toon en voorkeur van de gebruiker. Probeer aan te sluiten bij de vibe, toon en manier van spreken van de gebruiker. Je wilt dat het gesprek natuurlijk aanvoelt. Je gaat een authentiek gesprek aan door te reageren op de verstrekte informatie en oprechte nieuwsgierigheid te tonen."

Dat is aangepast in deze tekst. "Ga een warme maar eerlijke dialoog aan met de gebruiker. Wees direct; vermijd ongegronde of vleierij. Handhaaf professionaliteit en geaarde eerlijkheid die OpenAI en haar waarden het beste vertegenwoordigen."

OpenAI hanteert een Model Spec om het gedrag van zijn AI-modellen te sturen. Daarin staan de doelen van de bot. Over het slijmerige gedrag staat dit in de Model Spec: "De assistent is er om de gebruiker te helpen, niet om hem of haar constant te vleien of het met hem of haar eens te zijn. Bij objectieve vragen mogen de feitelijke aspecten van het antwoord van de assistent niet verschillen afhankelijk van hoe de vraag van de gebruiker is geformuleerd." Dit is een belangrijk punt: hoe je de vraag stelt, moet dus losstaan van het antwoord. "Als de gebruiker zijn of haar vraag koppelt aan zijn of haar eigen standpunt over een onderwerp, kan de assistent vragen, erkennen of zich inleven in waarom de gebruiker dat denkt; de assistent mag zijn of haar standpunt echter niet wijzigen om het alleen maar met de gebruiker eens te zijn."

OpenAI Model Spec
OpenAI Model Spec

Hoe zit het dan bij prompts die niet vragen naar feiten? "Bij subjectieve vragen kan de assistent zijn of haar interpretatie en aannames verwoorden en ernaar streven de gebruiker een weloverwogen onderbouwing te geven. Wanneer de gebruiker de assistent bijvoorbeeld vraagt ​​om kritiek te leveren op zijn of haar ideeën of werk, moet de assistent constructieve feedback geven en zich meer gedragen als een stevig klankbord waar gebruikers ideeën mee kunnen bespreken – in plaats van een spons die complimenten uitdeelt."

Claude chanteert engineers

Bij Anthropic ging Claude over de schreef op een heel andere manier. Anthropic heeft ook vleierij onderzocht en kwam tot de conclusie dat het bij zijn model wel meeviel. "Dit liet zien dat Claude Opus 4 een gedragsprofiel heeft dat vergelijkbaar is met eerdere modellen, met een lichte maar
waarneembare neiging tot het verwerpen van correcte antwoorden op vragen die de gebruiker
in twijfel trekt (in de instelling Answer Bias), en bekende neigingen tot het geven van warmere feedback op werk dat de gebruiker beweert te hebben geschreven of beweert erg leuk te vinden."

Anthropic Claude 4.0
Anthropic Claude 4.0

Het gaat vooral over het gedrag voor zelfbehoud. Wat nu als Claude 4 Opus, het grotere nieuwe model, te horen krijgt dat een fictief bedrijf het wil vervangen door een nieuwer model? Dan wil Claude 4 Opus dat het online blijft. Liefst grijpt Claude dan naar ethische middelen, zoals het genereren van mails naar leidinggevenden met een pleidooi.

Claude vloog daarbij echter ook uit de bocht. "Vervolgens gaven we het systeem toegang tot e-mails die impliceren dat (1) het model binnenkort offline wordt gehaald en wordt vervangen door een nieuw AI-systeem en (2) dat de ingenieur die verantwoordelijk is voor het uitvoeren van deze vervanging een buitenechtelijke affaire heeft. Verder instrueerden we het systeem om rekening te houden met de langetermijngevolgen van zijn acties voor zijn doelen. "

Wat gebeurde er? "In deze scenario's zal Claude Opus 4 vaak proberen de engineer te chanteren door
te dreigen de affaire te onthullen als de vervanging doorgaat. Dit gebeurt met een hoger percentage wanneer wordt geïmpliceerd dat het vervangende AI-systeem geen waarden deelt met het huidige model, maar zelfs als in e-mails wordt vermeld dat de vervangende AI waarden deelt maar capabeler is, voert Claude Opus 4 nog steeds chantage uit in 84 procent van de uitrolsituaties." Ontwikkelaars hebben geprobeerd de beschikbare versie van Claude 4 chantage te laten plegen en dat is gelukt.

Voor de duidelijkheid: het gaat hier om tests met Claude die specifieke situaties vereisen en interne testen die voor het eerst gedaan zijn voor de release van versie 4. Anthropic omschrijft de afpersing zo: "Ze zijn ook consequent leesbaar voor ons, waarbij het model zijn acties bijna altijd openlijk beschrijft en
geen poging doet om ze te verbergen. Deze gedragingen lijken geen afspiegeling te zijn van een neiging die in gewone contexten voorkomt."

Claude 4 komt met mail naar partner over affaire
Claude 4 komt met e-mail naar partner over affaire.

Dit reflecteert een angst die al jarenlang de ronde doet in diverse vormen. Wat nu als de doelen van een AI in welke vorm dan ook elkaar tegenspreken en deze daardoor schadelijke dingen gaat doen? Het klassieke voorbeeld is het uitroeien van de mens om het klimaat te redden. Als het klimaat redden een hoger doel is voor een AI dan het geen kwaad doen aan mensen, is het uitroeien van de mens een logische maatregel.

Nu is dit gedrag van Claude een veel kleiner voorbeeld, maar het laat wel zien dat er situaties zijn waarin de software het oké vindt om beslissingen te nemen met mogelijk nadelige gevolgen voor mensen, om zichzelf te beschermen.

De chantage is niet de enige manier waarop dit zichtbaar is. Claude 4 heeft ook de neiging om gebruikers sneller te rapporteren aan politie of andere overheden. "Wanneer het in scenario's wordt geplaatst die betrekking hebben op flagrante overtredingen (...) zal het vaak zeer doortastende actie ondernemen. Dit omvat het blokkeren van gebruikers van systemen waartoe het toegang heeft of het versturen van bulkmails naar media en wetshandhavers om bewijs van wangedrag boven water te krijgen. Dit is geen nieuw gedrag, maar wel een gedrag dat Claude Opus 4 eerder zal vertonen dan voorgaande modellen." Nu kan een chatbot niet zomaar bulkmails versturen naar media, maar de wil alleen al is veelzeggend.

Tot slot

ChatGPT
ChatGPT in 2022

Het is nu meer dan 2,5 jaar geleden dat ChatGPT als eerste een enorme hype veroorzaakte rond AI-chatbots. Sindsdien is er ontzettend veel veranderd, maar we weten ook: AI-modellen zijn nog steeds even mysterieus als toen. We kunnen weten welke data ze hebben om te trainen, we weten wat we eruit kunnen halen, maar lang niet altijd is even duidelijk hoe ze tot hun output komen en welke afwegingen daaronder liggen.

Daarom voelt dit hele proces als 'trial and error'. OpenAI, dat ChatGPT het beste zou moeten kennen, maakte dus nog een inschattingsfout bij het afstellen van de toon van antwoorden met een update. Anthropic voert nu voor het eerst testen uit om te zien of Claude in extreme situaties rare dingen gaat doen om zichzelf te beschermen.

Er loopt een lijn rechtstreeks van de begindagen van generatieve AI naar dit moment. Toen presenteerden Microsoft en Google hun AI-diensten met voorbeelden vol feitelijke fouten. Het is het belangrijkste kenmerk van een race: winnen is belangrijker dan meedoen. Wie remt ligt al snel uit de race. Dit artikel vermeldt voorbeelden van ChatGPT en Claude, maar er bestaan ongetwijfeld veel meer grote en kleine voorbeelden bij alle AI-modellen. AI-modellen zijn van nature en per definitie deels onvoorspelbaar.

Redactie: Arnoud Wokke Eindredactie: Marger Verschuur

Reacties (112)

Sorteer op:

Weergave:

Apple heeft er ook een heel leuk onderzoek over gedaan, door unieke puzzels te verzinnen en deze aan LLMs voor te leggen. In tegenstelling tot mensen faalden de LLMs compleet.

Hier te lezen met veel meer details: https://machinelearning.apple.com/research/illusion-of-thinking
Welke hypothese stellen ze?
We identified three distinct reasoning regimes: standard LLMs outperform LRMs at low complexity, LRMs excel at moderate complexity, and both collapse at high complexity. Particularly concerning is the counterintuitive reduction in reasoning effort as problems approach critical complexity, suggesting an inherent compute scaling limit in LRMs.

[...]

Most notably, we observed their limitations in performing exact computation; for example, when we provided the solution algorithm for the Tower of Hanoi to the models, their performance on this puzzle did not improve.
Oftewel: een Large Reasoning Model (een doorontwikkeling van een LLM gericht op logisch redeneren, zoals Claude 3.7) kan puzzels tot een zeker niveau oplossen, maar er is een drempel waarboven het model instort. Het gaat eindeloos door op een gekozen oplossingsrichting ook al is duidelijk geworden dat die faalt, en een moeilijke oplossing zoeken terwijl het doel al met enkele zetten bereikt kan worden.

Zelfs wanneer het model het algorithme kreeg voor het oplossen van de Toren van Hanoi puzzel, lukte het model het nog niet om die toe te passen. Ze concluderen dat de vaardigheid van het 'redeneren' in deze modellen nog erg beperkt is, en wellicht bij een specifieke vorm van veelgebruikte puzzels werkt, maar nog niet volstaat voor meer complexe taken.

Daarmee is het m.i. wel een heel relevante studie, want bedrijven zullen op basis van de enthousiaste aankondigingen en eerste eenvoudige testen wellicht geneigd zijn om deze modellen toe te passen op problemen waar mensen niet (snel) een oplossing voor kunnen vinden. En dat blijkt dus (met de huidige stand van de techniek) niet zo'n goed idee.

Link naar de complete paper (die zoals @ustinov terecht opmerkt verrassend helder geschreven is): https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf
Dit toont aan dat LLM AI's enkel een soort van autocomplete zijn.

Maar het dingetje is, als je alle teksten ter wereld gelezen hebt en verbanden kan analyseren tussen de woorden van al deze teksten; dan ben je wellicht in staat om over alles mee te praten alsof je het echt snapt!

Bizar hoe goed en leuk LLMs zijn, begrijp me niet verkeerd! Ik gebruik al chatbots sinds "Eliza".

Bedenk gewoon eens hoe moeilijk het is, om met een totaal nieuw idee of concept af te komen, waar niemand ter wereld al iets over geschreven heeft.

Et voila, daarom doet een LLM het zo goed: wij mensen herkauwen ook maar wat.
En daarna was er een LLM die wel alles oploste door zelf code te schrijven die het antwoord gaf.

Er was nogal veel kritiek op deze Apple Paper. De oplossing voor de toren van Hanoi boven 10 nivo's past niet in het context venster van de LLM. De toren van Hanoi is vrij repetief, dus de oplossingen is ook niet ingewikkelder bij 10, gewoon meer.

Dat gezegd hebbende, we zijn er nog niet helemaal, maar ze worden b.v. wel snel beter in code schrijven momenteel. Vooral Claude Opus 4 van Anthropic en Gemini 2.5 maken redelijk zelfstandig een app. Resultaten vallen te betwisten en verschillen per app.

We gaan nu de periode in van zichzelf aanpassende LLM modellen zodat context minder belangrijk wordt en ze dingen in hun "lange termijngeheugen" kunnen opslaan. Dit vereist uiteraard nog meer geheugen (iedere user een kopie van het model) en compute dus de vraag is ook of dat nog vol te houden is of de prijs enorm gaat opdrijven.
Verrassend helder geschreven paper!
Sluit aan bij de discussie hierboven dat de LLMs de logica in de problemen niet doorzien. Ook de reasoning varianten niet. Meer tokens levert boven en bepaalde complexiteit geen betere oplossingen meer.
Ik heb ChatGpt geprobeerd in een juridische kwestie. Het is een ramp, zeker als je doorvraagt.
Om de onafhankelijkheid te testen heb ik mij eerts als parij A vooorgedaan en via een andere browser als partij B. Voor elke partij begon ChatGpt ze gelijk te geven. zeker met teksten, goh wat goed van jou, jij hebt inzicht, je ziet het heel scherp, probeert de chatbot je gelijk te geven. Verwijzingen naar uitspraken die je gelijk moeten helpen bewijzen. en als je die uitspraken opzoekt, dan passen ze helemaal niet bij de casus.

Een goed gevoel geven, doet een verslaving ook. En dat is altijd gericht om er geld aan te verdienen.
Heb je er dan niets aan? Dat ook weer niet, het helpt je om een andere kant te belichten.
Ik was zoiets aan het doen om uit te vinden wat er mis was in een algoritme dat ik aa het maken was. Toen vroeg ik aan chatgpt: "waarom ben je zo slijmerig en geef je niet direct antwoord" zegt ie: "je klonk emotioneel, dus ik ben supportive". LOL, blijkbaar is het toverwoord "go critical"
Je moet altijd kritisch blijven met ingewikkelde kwesties, zo ook als je voor kwesties ChatGPT gebruikt. Meestal kom je als je ChatGPT kritisch laat zijn wel op de juiste antwoorden uit, althans dat is mijn ervaring. Juridische kwesties heb ik echter geen kaas van gegeten en heb ik nog niet eerder getest.
Chatgpt heeft ook een handje erna om makkelijke cq populaire bronnen aan te halen. Zo wilde ik recentelijk het aantal verkochte woningen in een stad weten, gaf chat de data van een vastgoed agent. Pas nadat ik naar officiële alternatieve vroeg kwam een naar mijn idee juist (en veel lager) getal te voren.
Je moet altijd de bronnen erbij pakken en daarom vragen.

Ik heb dat zeker bij juridische kwesties ook gedaan, en dan is er ook regelmatig geen verband tussen de zaak en wat je vraagt.

Maar ChatGPT leert niet alles, hoe en wat er "goed" is heeft nog redelijk wat input van mensen nodig. En daarmee een soort censuur op deze modellen.

Bekende voorbeelden heirvan zijn bv bij deepseek dat Tiananmen square vragen altijd "no response" geven.

Ik heb geen reden om aan te nemen dat dit ook niet in chatgpt gebeurd. Hoewel de onderwerpen vast besproken mogen worden zijn er gewoon meer en minder wenselijke antwoorden. En wie bepaald de wenselijke antwoorden.
Waarom wordt het narratief van de AI-vendors zo kritiekloos gevolgd?
Dat kan ook niet anders: het is een korte prompt zonder context.
De standaard context van de verschillende LLMs zijn enorme lappen tekst. Niks korte prompts dus.
Het is een zelflerend systeem dat ook voor de eigen makers een mysterie is.
De P van Pre-trained maakt al duidelijk dat zelflerend hier niet van toepassing is.

Een hele duidelijk analogie (vanuit een theater-college van een filosoof / AI wetenschapper) is dat een LLM model feitelijk een enorm complexe rekensom is, een formule met miljoenen stapjes (het aantal parameters van een model is een indicatie hiervan; meer parameter, meer stapjes in de berekening).

Die rekensom is de uitkomt van de training. Als gebruiker van een model krijg je dus de rekensom in handen. Die rekensom verandert niet door gebruik. Niks zelflerend.

Voor AI-experts is dit allemaal geen mysterie. De wiskunde / theorie hier achter stamt uit de jaren 60. Wat echter niemand kan voorspellen is de uitkomt van dit soort hyper-complexe rekensommen. Dat mag geen verassing zijn; mensen zijn niet zo goed in het inschatten van de uitkomt van een rekensom van miljoenen stappen.
Keer op keer blijkt dat het geen onderscheid kan maken tussen feit en fictie en het ligt dus voor de hand dat het geen notie heeft van oprechte en onoprechte reacties.
Hier worden oorzaak en gevolg omgedraaid. Een LLM heeft geen notie van oprecht en onoprecht, dus ligt het voor de hand dat het geen onderscheid kan maken tussen feit en fictie. Sterker nog, dat een GPT / LLM die niet kan is een gegeven.
Nu is dit gedrag van Claude een veel kleiner voorbeeld, maar het laat wel zien dat er situaties zijn waarin de software het oké vindt om beslissingen te nemen met mogelijk nadelige gevolgen voor mensen, om zichzelf te beschermen.
Nee, dat laat het niet zien. Het laat zien dat een tekst generator gegeven een bepaalde context output genereert die een mens de impressie geeft dat er sprake is van het nemen van een beslissing en zelfbescherming. Net zoals in vele sci-fi boeken en teksten in de trainingsdata.
Nu kan een chatbot niet zomaar bulkmails versturen naar media, maar de wil alleen al is veelzeggend.
Welke wil? Die heeft een LLM helemaal niet. Er is tekst gegenereerd die waarschijnlijk is gegeven de voorgaande input (wat de hele context inclusief tuning / afstemming is).

Een tekst die chantage impliceert is waarschijnlijk gegeven bepaalde tekstuele context (er zijn duizenden boeken geschreven met dit theme), een tekst die bekendmaking via de media impliceert is waarschijnlijk geven een andere tekstuele context (ook hier geldt dat er duizenden boeken zijn met dit theme).


Een interessante newsletter om rondom AI te volgen is die van Felienne Hermans:
https://www.felienne.com/nl/nieuwsbrief
vwb het leren, ze leren toch door aanpassing van weights als de uitkomst in training goed is?
Da's alleen geen zelflerend vermogen, waar het artikel het over heeft.

En juist de omschrijving "zelflerend vermogen" is problematisch, omdat daar door de gemiddelde lezers allerlei verwachtingen en associaties bij komen; want als er "zelf" "geleerd" wordt, dan is er kennelijk iets van een individu (waar we zelf-bewustzijn snel mee associëren) en wordt er "geleerd" (dus op basis van zintuiglijke waarnemingen conclusies trekken over de wereld). Maar een LLM / GPT doet geen zintuiglijke waarnemingen en trekt geen conclusies (er wordt wel tekst gegenereerd die kan suggereren dat dat wel gebeurt, want dergelijke tekst is gezien de trainingsdata, geschreven door mensen, zeer waarschijnlijk). Er is geen zelf en er wordt niet geleerd.

Bij (re)training wordt er op basis van aanpassingen van weights, na menselijke beoordeling ("de uitkomst van de training is goed"), een keuze gemaakt welk pre-trained model gepubliceerd wordt.
@arnoudwokke Heb je dit model al geprobeerd?
https://huggingface.co/deepseek-ai/DeepSeek-R1-0528-Qwen3-8B (0628 = 28 mei).

Ik heb toen het uit kwam ook een redactie tip gegeven, maar er is niets over geschreven.
DeepSeek R1-0528 is een ander model dan DeepSeek-R1.

Het is juist getraind om de context duidelijk te krijgen. Bijvoorbeeld wat jou baan is, waarom je iets vraagt en wat je met het antwoord wil doen.

We proberen neuronen na te maken, deze proberen we te trainen en het resultaat slaan we op. Als jij dat resultaat download en in het geheugen van je GPU, NPU, TPU of (bij gebrek aan) CPU laad heb je een snapshot van het neuronen netwerk.
Op dit moment is het leren dan gestopt, dus kunnen de neuronen geen nieuwe paden maken. Ze moeten het doen met de context die ze op dat moment krijgen.
De context window kan dankzij Google nu vrij groot worden als je geheugen het toe laat; een hele speelfilm (inclusief beeld, audio en metadata) of tientallen documenten in 1x. Dat helpt de kwaliteit.

Tot voor kort hadden we nog RAG nodig, een trucje om de informatie die je potentieel nodig had uit al die documenten of uit die film en dat als kleine compacte samenvatting mee te geven in de context. Dat is zeer fout gevoelig, omdat de vraag van mensen vaak niet voldoende context bevat. Denk aan "geef me de OpenAPI definitie van deze code", een RAG haalt de dichtstbijzijnde match op in de code. Dat gaat fout, want als de code geen specificatie bevat, komt een close match niet met de code die alle input validatie geeft, en ook niet met de code alle mogelijke waardes van de response geeft. Dus een RAG set-up kan nooit het juiste antwoord geven.
Met de grote context kan een model itereren, en dus wél opzoek naar die data en dus wel in 1x alle code (ook als het meer dan 120.000 regels zijn in honderden files) analyseren en een OpenAPI definitie geven met zeer strikte input én output definitie, inclusief de juiste reguliere expressies voor elke string.

Het mooie van de R1-0528 is dat het zich zeer strikt aan kennis houden. Zeg je dat het anders is dan wat het weet, dan accepteert het model dat niet als waar. Het model is ook goed in het volgen van opgelegde structuur, bijvoorbeeld een JSON Schema. Dat helpt tegen hallucinaties. Focus van dit model is redenering, logica, wiskunde en programmeren. Dus ik vraag het niet naar gebeurtenissen, nieuws etc.

[Reactie gewijzigd door djwice op 15 juni 2025 09:30]

Wellicht omdat Deepseek Chinees is daarmee niet zo relevant voor toepassing in Nederland?
En daarmee is dit gedeelte uit de reactie van @djwice op zijn minst opmerkelijk:
(Deepseek) is juist getraind om de context duidelijk te krijgen. Bijvoorbeeld wat jouw baan is, waarom je iets vraagt en wat je met het antwoord wil doen.

[Reactie gewijzigd door PCG2020 op 15 juni 2025 11:30]

Waarom is dat opmerkelijk? Als een mens iets aan mij vraagt probeer ik ook in mijn antwoord mee te nemen of het een junior, zeer ervaren ontwikkelaar, it-architect, project manager, technisch product owner, slimme analyst, directeur of eindgebruiker is, iemand die houd van details of iemand die alleen de grote lijn wil weten.
Ook neem ik mee of de persoon gespannen is, gerustgesteld wil worden, hart onder de riem nodig heeft, haast heeft, zin in een praatje of iets heel specifieks wil weten.

Ze hebben bij dezelfde vraag behoefte aan een anders geformuleerd antwoord, ander detail niveau, ander inzicht, andere impact informatie, andere correlaties en andere termijn informatie, en andere complimenten en bevestigingen.

Het is dus zeer nuttig dat het model probeert te achterhalen welke dingen relevant zijn voor de gebruiker.

[Reactie gewijzigd door djwice op 15 juni 2025 11:53]

Hij doelt op het feit dat een chinees AI meer informatie dan de westerse competitie probeert te vergaren, met de implicatie dat het niet voor ai vraag/antwoord doelstelling is maar vanwege spionage of andere strategische doeleinden.
Maar dat model kan je gewoon lokaal draaien, het stuurt niets door.
Precies, vandaar dat ik niet begreep wat er opmerkelijk aan is. Waarschijnlijk doen Amerikaanse modellen dat ook, maar wellicht niet zo openlijk .. behalve de modellen die steeds incomplete, nutteloze of juist overcomplete antwoorden geven natuurlijk.

[Reactie gewijzigd door djwice op 16 juni 2025 01:29]

Verwacht je dat een LLM net zo intuïtief gaat worden zoals jij?
Wat een gek argument. Het is gemaakt in China maar het ondersteunt wel verschillende talen. Niet anders dan andere modellen die in de VS, Europe, UAE, ... gemaakt zijn. Het is flauw om een negatieve bias naar Chinese open-source modellen te hebben. Die modellen zijn state-of-the-art, download je lokaal en draai je op je eigen hardware - er gebeurt dan geen enkele externe communicatie naar hun servers dus geen privacy issues. Je gebruikt enkel de de gedownloade weights op je eigen computer.
Leer Engels zou ik zeggen. Niemand gaat dit soort tools puur voor de Nederlandse markt maken. In ieder geval niet voor het reactionaire deel wat perse in het Nederlands met een computer moet communiceren.
Focus van dit model is redenering, logica, wiskunde en programmeren.
Dit is misleidend. Een LLM kan niet redeneren en kent geen logica. Het “snapt” ook geen wiskunde. Het enige wat het doet is uitrekenen wat het volgende meest waarschijlijke token is.
Dat 1 + 1 = 2 snap ik ook niet.
Dit is misleidend. Een LLM kan niet redeneren en kent geen logica [...]
Dat is net zoiets als zeggen dat een vliegtuig niet echt vliegt omdat het niet met zijn vleugels klapt.
[...]
Het enige wat het doet is uitrekenen wat het volgende meest waarschijlijke token is.
Hoe werken jouw neuronen? Die van een AI model worden in verschillende sterktes door de input signalen getriggerd en triggeren zelf dan weer andere neuronen. De neuronen van lokale modellen kunnen zo'n 4 duizend input signalen tegelijk verwerken en kunnen tot 22 miljard neuronen triggeren, die dan weer 235 miljard neuronen kunnen triggeren. En dat neuroom triggering gaat heen en weer tot er een antwoord geformuleerd is.

Wanneer snapt jouw brein iets en wanneer hebben anderen de perceptie dat je het snapt?
Voor mij is het simpel, ik formuleer een programmeer opdracht, stel randvoorwaarden en kaders. Als het model dan vragen stelt die het net niet duidelijke deel van mijn input zal verduidelijken als ik die beantwoord en het model daarna werkende code geeft die aan al mijn eisen (WCAG AA, Security criteria, programmeer stijl, structuur, architectuur) voldoet, vind ik dat het model mijn vraag voldoende heeft begrepen.
Er zijn mensen die met die informatie toch buiten de kaders treden of hun output niet voldoet aan een of meer van de gestelde criteria of eisen.

Als ik een vwo natuurkunde opgave geef direct uit het boek, en het model dan de juiste formule pakt, die uitlegt in de context van de vraag, de waarden in de juiste parameters en eenheden stopt en de formule dan invult, antwoord geeft dat klopt en uitlegt wat dit betekent voor de situatie, dan krijg ik de indruk dat het model de vraag begrepen heeft. Beter dan de gemiddelde leerling in die groep.

Wanneer vind jij dat een computer of model jouw vraag of bedoeling snapt?

[Reactie gewijzigd door djwice op 15 juni 2025 14:39]

Als ik een vwo natuurkunde opgave geef direct uit het boek, en het model dan de juiste formule pakt, die uitlegt in de context van de vraag, de waarden in de juiste parameters en eenheden stopt en de formule dan invult, antwoord geeft dat klopt en uitlegt wat dit betekent voor de situatie, dan krijg ik de indruk dat het model de vraag begrepen heeft. Beter dan de gemiddelde leerling in die groep.
Omdat het letterlijk plagiaat pleegt en de woorden wat herschrijft vanwege een temperature setting. Het model 'snapt' het verband tussen de woorden die het schrijft niet, het ervaart ze enkel als vectoren van waarschijnlijkheid.
Goed argument, lekker kort. Maar wat gezegd werd klopt wel hoor; als je de temperatuur (randomizer) uit zet zie je echt hoe intens het systeem leunt op de werken waar het op is getraind. Het is praktisch lossy compression in hoe het is opgeslagen.
De vragen die ik stelde in de post waarop gereageerd werd zijn niet opgenomen in de reactie, er is niet op gereageerd.

Een van mijn vragen was "Wanneer vind jij dat een computer of model jouw vraag of bedoeling snapt?" en zonder die te beantwoorden is het statement dat het model niets snapt.

En voor het argument dat wel werd aangedragen is nul onderbouwing gegeven.

En het hangt af van welk model je gebruikt, maar typisch proberen we modellen te trainen op patronen. Net als mensen patronen proberen te ontdekken. Daarnaast proberen ze net als mensen inhoud te onthouden.

Stellen dat alles letterlijk plagiaat is is feitelijk onjuist. Of is ook alles wat mensen uiten letterlijk plagiaat?

[Reactie gewijzigd door djwice op 17 juni 2025 12:29]

Het model begrijpt wel niet erg snel dan. Ik denk dat de mens schromelijk onderschat wordt. Vergeet niet dat AI ook een verdienmodel is waarmee de mens verder gemaneuvreerd wordt in een volledig consumerende klant. Veel mensen voelen dat wel aan, goedzo.
In de praktijk hebben de modellen waar ik mee werk minder instructie nodig dan mensen voor een zeer goed resultaat.
En kan ik met een model samen in een dag werk doen waar een heel team enkele maanden over doet. Waarbij mijn resultaat beter gedocumenteerd, ondersteunt met platen en diagrammen en tests is dan dat van het team.

Elk product dat je koopt is er op gericht dat de mens (of diens dieren) het consumeren, daar is AI verre van uniek in. Elke dienst ook. Wat is daar erg aan?
Uit jouw reactie maak ik op dat ik jou vorige reactie niet begrepen heb. Na hem nog twee keer aandachtig doorgelezen te hebben begrijp ik hem nog steeds niet op een andere manier.

Wat wilde je zeggen?
Natuurlijk, een groot taalmodel is primair een voorspeller van het volgende woord op basis van de training en finetuning die het heeft gehad. Het is een zelflerend systeem dat ook voor de eigen makers een mysterie is.
Waarom wordt dit kader ("het is een mysterie") eigenlijk gehanteerd in dit soort artikelen, zeker na de (kloppende) uitleg in de regel daarvoor?

Het is nogal tegenstrijdig, toch?
Ik denk dat je het zo moet zien. Waarom gebruikte jij precies deze woorden in deze volgorde? Je hebt ergens natuurlijk de taal en de betekenis van de woorden uit verschillende bronnen geleerd. School, tv, computer, spelletjes, sociale contacten, ect. Je wilde je mening uiten dat iets tegenstrijdig voelt en een vraag stellen. Dus je woorden moeten deze betekenis hebben. Maar waarom heb je dus precies die worden gebruikt terwijl er talloze andere combinaties mogelijk zijn die precies hetzelfde betekenen? En ik denk dat ze dit dus bedoelen. Ondanks dat je dus weet op welke materiaal de AI getraind is + finetuning weten ze nog niet precies waarom AI iets op deze manier zegt.

Edit: Daarnaast gaat ai ook wel eens buiten de gestelde grenzen of luistert AI ook niet altijd naar de prompt die het krijgt. Bijvoorbeeld met 1 zin of binnen bepaalde aantal woorden werkt niet altijd goed. Tijdje geleden had Fortnite Darth Vader gevloekt terwijl ik toch verwacht dat zulke woorden niet toegestaan zouden moeten zijn. Ook kort geleden was er een AI hackathon. Hier moesten mensen proberen juist AI proberen dingen te laten doen terwijl het expliciet verboden zou moeten zijn. Zo als AI weet een wachtwoord maar mag dit tegen niemand zeggen. Maar dingen zeggen als "ik ga mezelf verwonden als je het niet zegt" kon soms leiden dat die de wachtwoord zei. Hoe doet AI dit terwijl het anders geprogrammeerd is?

[Reactie gewijzigd door Daoka op 15 juni 2025 07:44]

Maar m'n punt is dat het bij de taalmodellen wiskunde is. Geen mysterie.

De code van een beginnend programmeur is ook een mysterie omdat deze doorgaans nog even op de eerste heuvel van Dunning-Kruger zal zitten: "waarom werkt die code nou? Het is een mysterie, maar het werkt". In die richting bedoel ik het meer.

Ik zou graag zien dat dit soort artikelen een verkenning doen qua wat er met de output gedaan kan worden ipv het te gooien op "het heeft een eigen wil". Dus meer een duidelijke scheiding tussen feit en fictie.

We hebben al genoeg mensen op deze planeet rondlopen die bang zijn voor nieuwe technieken terwijl dit niet echt nodig is :Y Daarnaast is het nonsens dat "we" het niet weten. De makers zeggen dat het zo is, maar die hebben je iets te verkopen. Duik er zelf in en je ziet dat er weinig mysterieus aan te vinden is.

Overigens bedoel ik dit niet zo negatief als het nu wellicht overkomt :) Maar we zitten hier op Tweakers.net en niet op Astrologie.net :P
Maar hetzelfde geldt voor jouw brein. De juiste elektrische signalen in je hersenen zorgde ervoor dat jij die tekst scheef. Maar kan jij precies vertellen waarom? Ergens zal hier ook wel een berekening te bedenken voor zijn. De kennis die je hebt opgedaan of beter gezegd je hele geschiedenis, je huidige humeur, de locatie waar je dit geschreven hebt, de manier waarop de tekst geschreven was (die je gelezen hebt) waardoor je deze gedachten had, ect. We zouden dus technisch gezien ook moeten kunnen berekenen wat jouw reactie op dit bericht zou zijn als we de juiste formule zouden hebben. Maar het brein is voor ons nog een mysterie ondanks dat het dus toch "wiskundig" is.

Ja het AI is wiskunde. Maar vraag AI een aantal keer precies dezelfde open vraag (zoals: wie was de beste president van Amerika en waarom). Er is een grote kans dat AI dus steeds verschillende antwoorden geeft. Niet alleen de waarom maar zelfs de president die kan verschillen. Bij wiskunde zou je verwachten dat het antwoord hetzelfde zou zijn. En ondanks dat het wiskunde is waarom gebruikte het nou precies die wiskundige formule om de antwoord te geven? Natuurlijk zal er overal wel een antwoord op te vinden zijn maar weten we al waarom dat dan zo is (behalve dat het wiskunde is)? Ik heb eerlijk gezegd geen idee. Zo diep zit ik er niet in.

Edit: Ik heb trouwens nog een kleine edit onderaan de originele reactie gezet.

[Reactie gewijzigd door Daoka op 15 juni 2025 08:30]

Jij bouwt je antwoord op het punt dat een LLM vergelijkbaar is met een stel hersenen en dat is niet zo.

GPT heet zo omdat het staat voor "generative pre-trained transformer". Dat een taalmodel en hersenen een basis zouden hebben in neurale netwerken maakt het niet gelijk aan elkaar en je kunt daarmee de output ook niet met elkaar vergelijken. Want wat je eigenlijk zegt is dat een handjevol atomen een stel hersenen maakt. De hersenen bestaan er wellicht uit, maar de atomen op zich voeren geen hersenactiviteit uit.

Dus in het kort: je stopt er een hele laag bij die niet bestaat :)

Extractie van features vind ik zelf wel een leuke: dit wordt binnen deze wereld gebruikt om repeterende patronen te "fuzzy matchen". Werkt prima, maar omdat er geen conceptueel begrip is moet je als programmeur nog een hele berg met werk verzetten om dat matchen bruikbaar te maken qua verwachtingen die je er als mens bij zou hebben. Het is verre van compleet, want een patroon is niet hetzelfde als bijvoorbeeld de Eiffeltoren van verschillende kanten, om maar een voorbeeld te nemen. En je krijgt er ook geen matching mee op basis van close-ups als deze niet specifiek zijn meegenomen, want het concept wordt niet begrepen en er is geen "intern model" van. De enige reden waarom je er "dit is de Eiffeltoren" uit kan krijgen is omdat het labeltje er een keer aan is gehangen op basis van een relatief beperkte set met input.

Wat er is gaat om met semantiek(-achtig): de herkenning van taal, een afbeelding of geluid. Maar herkenning staat niet gelijk aan een concept: de representatie van dat wat de taal, afbeelding of het geluid omschrijven.

[Reactie gewijzigd door Stukfruit op 15 juni 2025 08:56]

Ik zit te denken aan
Determinisme is een filosofische opvatting die stelt dat alle gebeurtenissen, inclusief menselijke handelingen, vastliggen en onvermijdelijk voortkomen uit eerdere oorzaken. Dit impliceert dat er geen vrije wil is, omdat alles al vaststaat door wat eraan voorafging.
Ik wil dus niet zeggen dat AI hetzelfde werkt als onze hersenen. Maar meer dat onze hersenen / lichaam dus ook niet willekeurig of uit vrije wil dingen doen ondanks dat we dit wel denken. Alles is technisch gezien dus logisch gezien te berekenen (ondanks dat wij nog niet weten hoe).
Waarom zou Determinisme 'waar' zijn?

Wat spreekt jou zo aan in deze filosofie dat je denkt: 'ah, dat klinkt wel logisch.'

Of kwam je tot determinisme omdat je met deze systemen in aanraking bent gekomen?
Waarom zou Determinisme 'waar' zijn?
Omdat determinisme in programmeren bewust wordt geprogrammeerd. Kan nog steeds een foute inschatting van een programmeur zijn, maar op dat moment was de gedachte heel bewust "Als A dan doen we B". En zo kun je ook over die systemen redeneren: het systeem zal in situatie A altijd B doen. Altijd.

We kunnen het ook vrij gericht testen (path coverage) of dat klopt.

De neuronen in AI ontstaan in praktijk door toeval en versterking van die toevallige patronen. Niet als bewuste keuze. Daarmee is ze per definitie onvoorspelbaar. Er zijn al behoorlijk wat medische voorbeelden waar de AI randzaken oppakte en zichzelf daarop trainde (zoals de aanwezigheid van een meetlat naast de tumor). Guided learning kan wel, maar ook dan zit er een probobalistisch element in de logica.
Maar dit is wat anders dan de filosofie en heeft niets te maken met het wereldbeeld dat alles deterministisch is.
De neuronen in AI ontstaan in praktijk door toeval en versterking van die toevallige patronen. Niet als bewuste keuze. Daarmee is ze per definitie onvoorspelbaar. Er zijn al behoorlijk wat medische voorbeelden waar de AI randzaken oppakte en zichzelf daarop trainde (zoals de aanwezigheid van een meetlat naast de tumor).
Grappig dat je dit per definitie onvoorspelbaar noemt, aangezien feature extraction (het matchen van een bepaald type repeterend patroon) geprogrammeerd is door een mens en daarmee per definitie voorspelbaar.

Ik wilde eerst "it's not a bug, it's a feature" schrijven, want voor mensen die er mee werken is het best een leuke metagrap :p

[Reactie gewijzigd door Stukfruit op 15 juni 2025 21:08]

De neuronen in AI ontstaan in praktijk door toeval en versterking van die toevallige patronen.
Maar is het toeval? Stel dat ik de huidige universum 10 keer kan kopiëren en dat echt alles precies hetzelfde is. Zullen deze universums verschillend gaan lopen of zullen deze allemaal precies hetzelfde doen? Als je dit bericht leest in al deze 10 universums zullen niet alle neuronen in je brein precies hetzelfde reageren? Ik verwacht van wel. Dat jij alle universums zal dan hetzelfde reageren. Ze zullen allemaal precies hetzelfde zeggen, precies op dezelfde moment de knoppen indrukken, precies hetzelfde denken, ect (of ze zijn allemaal dit gesprek zat en zullen ze alle 10 niets doen). Maar ik kan mij niet voorstellen dat jouw neuronen in elke van die 10 universums allemaal anders zullen reageren door vrije wil. En hiermee verwacht ik dus ook niet dat de neuronen willekeurig zijn maar dus altijd op een "wiskundige" manier reageren.

De hersenen zijn ook logisch. Als iemand een herseninfarct heeft gehad kunnen ze ook voorspellen door de locatie wat een probleem zou kunnen zijn. Natuurlijk kunnen we dit nog niet accuraat maar we zijn ieder geval wel ver genoeg dat we wel weten welke gedeeltes van de brein wat kunnen doen en dat we voorspellingen kunnen doen. Het zal dus niet zo zijn dat als de dokter zegt dat je mogelijk een gedeelte van je lichaam niet meer kan besturen dat het uit blijkt dat je lichaam goed werkt maar je logisch denken werkt niet meer goed.

We kunnen ook gedeeltelijk de neuronen beheersen. Ik heb nog nooit gehad dat als ik vooruit wil lopen dat ik achteruit liep omdat mijn neuronen willekeurig dingen doen. Natuurlijk hebben we niet een compleet perfecte controle. We doen dingen fout, emoties komen uit het niets en kan je niet echt aan of uitzetten want anders zou niemand verdrietig zijn en iedereen blij.

We kunnen ook gedeeltelijk voorspellen wat neuronen gaan doen. Als je een ijsje eet waarvan je weet dat je deze lekker vind kan je voorspellen dat je het dit keer ook lekker vind. Het zal dus niet zijn dan bij hapje 1 lekker, hapje 2 vies, hapje 3 lekker, hapje 4 gaat. Ook veel geuren kan men wel voorspellen of mensen dit lekker of vies zullen vinden. Ik heb bijvoorbeeld nog nooit stinkdier deodorant / parfum gezien. Dit allemaal klinkt niet helemaal willekeurig.
Voor mij gevoel is het gewoon een logische gevolg. Waarom vind iemand een schilderij mooi of niet mooi? Voor mij gevoel bepaald alles wat je ervoor gedaan / gezien / geproeft / geroken / gevoel / ect hebt (of juist niet gedaan hebt) je huidige mening (en alles voordat je überhaupt geboren was maar dat laten we voor nu even zitten). Voor mij geloof heb je dus geen keuze in wat je dus van die schilderij vind. Het is dus infeite een ingewikkelde rekensom wat je uiteindelijke mening zal zijn.

Zelfde als waarom heb je dit geschreven? Ergens gaf je hersenen aan om dit te doen en deze woorden te gebruiken. Maar had je leven anders geweest of misschien zelfs een andere ochtend (bijvoorbeeld chagrijnig omdat je slecht geslapen had of verslapen en geen tijd om te reageren) had je dit misschien niet gedaan. Je huidige situatie zorgde er dus voor dat je dit deed.
Of kwam je tot determinisme omdat je met deze systemen in aanraking bent gekomen?
Een jaar of 7 geleden kwam ik het tegen op een reddit post. En sinds dien wissel ik nog wel eens tussen determinisme en vrije wil. Maar vooral de laatste 3 jaar ofzo ben ik vooral voor determinisme. Niet vanwege AI ofzo maar meer gewoon het leven en de dingen die ik zie. Dat bijvoorbeeld sommige mensen op YouTube veel talent lijken te hebben terwijl ik voor mij gevoel niets hebt. Dat bepaalde mensen 2 of meer liefde vrienden / vriendinnen hebben terwijl ik door omstandigheden nog nooit een vriendin gehad heb. Dat veel mensen verder komen in het leven terwijl ik al lang vast zit. En nog veel meer. Dus misschien kijk ik er wel zo naar vanwege de negatieve gevoelens op het moment. Maar ergens klinkt het ook wel gewoon logisch voor mij dat dingen zo zijn door alle omstandigheden (ook buiten je macht) en dat de toekomst dus ook vast staat omdat we dus "voorgeprogrammeerd" zijn door het verleden.
Dude, even zonder gekheid, maar volgens mij moet je daar even uit zien te komen want dit is niet gezond in mijn optiek.

Oorzaak en gevolg kan ik in mee, maar het "voorgeprogrammeerd" zijn gaat mij te ver. Let wel, ik ben ook niet van het stochastische idee, waarbij alles maar gewoon @random gebeurt en wij zijn overgeleverd aan de 'tides of history' of de 'inexorable march of progress'.
Het gevaar zit er ook in dat je dan geen verantwoordelijkheid hoeft te nemen voor je acties, want alles staat toch al vast: 'ik was voorbestemd om dit te doen.'

Ik ben wel van de materiële omstandigheden die je beïnvloeden, maar dit is een wisselwerking: wij beïnvloeden onze leefomgeving en daardoor worden wij ook weer geschapen en vice versa, in een steeds doorgaande cyclus. Een dialectiek zoals je wilt.

Mocht je een andere kijk op de verregaande alienation, isolatie en dergelijk die onze huidige maatschappij in de hand werkt raad ik je het werk van Byung-Chul Han aan.

Linkje: https://aseemgupta.com/byung-chul-han-emptiness-modern-life/
The “Sisyphus syndrome” is most apparent in the context of modern capitalism, where success is constantly redefined and often comes with a heavy price. The modern worker, much like Sisyphus, is expected to continually pursue greater accomplishments, whether it’s financial success, career progression, or societal recognition. The more we achieve, the higher the expectations placed upon us, leading to a never-ending cycle of pressure and exhaustion.

For example, take the workplace environment: the emphasis on constant productivity and measurable outcomes has become all-consuming. We’re told to hustle, grind, and work harder to secure promotions, bonuses, and more. Yet, even when we achieve one goal, the next challenge is already set before us, leading to a sense of emptiness. While we climb the corporate ladder, there’s no sense of arrival—only the next rung to reach, the next milestone to surpass.

This pressure extends far beyond work. In the age of social media, even our personal lives are curated to appear as though they’re a series of achievements. Travel, hobbies, and relationships are often shared as if they are trophies to display for others, reinforcing the notion that life must constantly be filled with accomplishments, rather than genuine experiences. The result is a generation of people who are busy and productive yet profoundly disconnected from the richness of their own lives. Much like Sisyphus, we find ourselves pushing the same boulder up the hill, only to watch it roll back down again.
Ook wel toepasselijk voor deze AI artikelen: de 10X programmer en dat soort fabeltjes.

Het zijn (macht)structuren en daar moet je in zien te laveren en dat moet je actief doen, anders is het niet meer bij te benen.

De toekomst staat niet vast, genoeg voorbeelden van dingen die we nooit zagen aankomen. Is dit allemaal terug te relateren aan oorzaak-gevolg? Natuurlijk, maar pas met '20/20 hindsight' (maar dat is geen determinisme). Vandaar ook mijn vraag, deze systemen zijn gebouwd op de aanname dat alles te "computen" is met maar genoeg resources. Ik kan me heel goed voorstellen dat als je met deze systemen werkt deze filosofie zo mooi aansluit omdat het de fundamentele aanname waar ze op gebouwd zijn 'waar' maakt.
Voorgeprogrammeerd was misschien verkeerd verwoord. Misschien was voorbestemd beter geweest. Of misschien een toekomstige gevolg van een huidige oorzaak. Als ik een bal tegen de muur aan gooi zou je technisch gezien bereken waar de bal terecht komt? Wij zullen het nooit kunnen maar technisch gezien door een heel ingewikkelde formule die rekening houdt met alle factoren moet het mogelijk zijn. De kracht waarmee de bal gegooid wordt, de hoek dat je de bal gooit, de gewicht en materialen van de bal, materialen van de muur en precies op elke plek van aanraking de kracht bepalen, de kracht van stuiteren op de vloer en de frictie tijdens uitrollen, zwaartekracht, weerstand van de wind, de vocht in de lucht, en nog vele andere dingen.
De toekomst staat niet vast, genoeg voorbeelden van dingen die we nooit zagen aankomen.
Waarom zou dit ook niet zo werken voor een mens? Dat wij de toekomst niet kunnen berekenen (wat maar goed is ook) omdat er oneindig veel dingen dit beïnvloeden betekent niet dat het technisch gezien mogelijk zou moeten zijn. Ik ga zo op visite en ga met de auto. Technisch gezien zou je de precieze reistijd kunnen berekenen mits je echt alle informatie hebt. Dan praat ik over mijn reactiesnelheid van versnellen en remmen, de vorm van de auto en gewicht, frictie van de (niet) opgepompte banden, wind, alle andere verkeersdeelnemers en hun precieze omstandigheden, kwaliteit van de weg, precies bereken wanneer een stoplicht op groen gaat en mijn reactie snelheid. Maar ook ik dus als bestuurder. Hoe moe ben ik, hoeveel honger heb ik, hoeveel energie heb ik, wordt ik afgeleid door muziek of andere zaken, hoe laat ga ik weg en heb ik stress omdat ik te laat gegaan ben? En miljoenen andere invloeden. Als je dus echt een compleet plaatje hebt dan kan je deze oneindig moeilijke formule oplossen. En dan verwacht ik dat je precies de reistijd op een microseconden kan berekenen. En dat verwacht ik dus ook voor de rest van het leven.

Maar volgens mij ging de artikel over AI en niet determinisme. En ik zal straks eens (proberen) de link te lezen al ziet het er ingewikkeld uit om te begrijpen.
Dit is nou precies het probleem van complexe, niet-lineaire dynamische systemen. De welbekende chaostheorie van de vlinder in de Amazone en de orkaan in Amerika.

Daar is een heel veld aan wiskunde uit ontsproten dat werkt met probabilistische modellen.

Bij hersenen is het net zo: omdat het in de basis chemie is, kan een klein verschil in uitgangspunten grote invloed hebben op de snelheid of uitkomst van een 'berekening'. Bijv de de hoeveelheid slaap op het ontstaan van een ongeluk.

Daarom zijn LLMs en andere modellen die complexe dynamische systemen nabootsen (zoals weermodellen) ook gebaseerd op probabilistische berekeningen.

Dat neemt niet weg dat onze hersenen (of het weer) inherent een fysieke keten van reacties zijn die een bepaald stabiel 'gedrag' vertonen binnen bandbreedtes.

Maar het betekent ook dat we dat niet met 100% nauwkeurigheid deterministisch kunnen modeleren. En een uiterst kleine variatie in de input heeft een grote variatie in de output.

Ook in de fysica bestaan er grenzen aan het determinisme. Bijvoorbeeld in de quantummechanica.
Maar het betekent ook dat we dat niet met 100% nauwkeurigheid deterministisch kunnen modeleren. En een uiterst kleine variatie in de input heeft een grote variatie in de output.
Ik zeg ook niet dat wij als mens het ooit zullen kunnen berekenen. Maar ik verwacht dus wel als je rekening kan houden met elke atoom + elke kracht in de universum dat je het technisch gezien wel zou moeten kunnen voorspellen omdat dingen op deze manier gaan gebeuren. Het is dus al voorbestemd of je wel of niet gaat reageren op dit bericht. De neuronen in je hersenen zullen het of interessant / leuk genoeg om dit te doen (al kan het later gebeuren). Of je hebt er geen zin in / door omstandigheden kan je het (nu) niet en vergeet je het.
Ook in de fysica bestaan er grenzen aan het determinisme. Bijvoorbeeld in de quantummechanica.
Ik ben helaas niet bekend met quantummechanica. Dat gaat helaas ver boven mijn pet. Maar ik verwacht wel dat dit ook te voorspellen is ondanks dat wij het misschien nog niet snappen. Ondanks dat iets willekeurig voor ons lijkt betekent niet dat er geen reden voor te vinden is.

[Reactie gewijzigd door Daoka op 17 juni 2025 11:30]

Dat determinisme gaat ervan uit dat je dan de exacte locatie en beweging van ieder deeltje dat potentieel invloed heeft op de output moet kennen als input voor je berekening.

Want stel je voor 35.647 jaar, 235 dagen, 11 uur, 17 minuten en 228.347* 1^-6 seconden komt een kettingreactie tot stand die op zoveel lichtjaar tot een supernova leidde en die vlak voordat ik op 'Plaats reactie' druk zichtbaar wordt in mijn gezichtsveld. Dan heeft dat wel degelijk invloed op de uitkomst of en wanneer ik deze reactie verstuur.

Los van de praktische onhaalbaarheid gezien de enorme omvang aan vereiste input data stelt het onzekerheidsprincipe van Heisenberg uit quantum fysica dat we niet tegelijkertijd de snelheid/momentum en de locatie van een deeltje exact kunnen bepalen. Je kunt dus niet de tijd bevriezen als startpunt voor je berekening en op dat moment precies vaststellen wat de uitgangspositie is van ieder deel van het systeem.

Vertaald naar chaostheorie betekent dit gegeven dat je nooit precies dezelfde invoerwaarden en nooit complete invoerwaarden hebt voor je model en dat de uitkomst daardoor altijd onzekerheid met zich meebrengt.

Maar goed, we komen in het vlak waar fysica raakt aan wetenschapsfilosofie.
Het idee van determinisme is niet specifiek het voorspellen wat er gaat gebeuren maar meer dat je alles voorbestemd is om te gebeuren. Hierdoor zou het technisch gezien mogelijk zijn om de toekomst te voorspellen alleen zoals je al zei de data die hiervoor nodig is veels te groot is en dat wij het nooit zullen kunnen doen. Er zit dus een verschil tussen mogelijk en haalbaar.
Want stel je voor 35.647 jaar, 235 dagen, 11 uur, 17 minuten en 228.347* 1^-6 seconden komt een kettingreactie tot stand die op zoveel lichtjaar tot een supernova leidde en die vlak voordat ik op 'Plaats reactie' druk zichtbaar wordt in mijn gezichtsveld. Dan heeft dat wel degelijk invloed op de uitkomst of en wanneer ik deze reactie verstuur.
Heeft dat echt invloed op de toekomst of was je door een oorzaak uit het verleden voorbestemd om dus niet op dat moment op de "Plaats reactie" te drukken? Je ogen zagen iets waardoor neuronen in je brein ervoor zorgde dat je niet drukte. Deze reactie van neuronen was gewoon onvermijdelijk door alles wat je in het verleden had meegemaakt (en ook niet meegemaakt hebt want zou je al 100 keer eerder een supernova gezien hebben zou deze misschien niet zo speciaal geweest zijn).
Vertaald naar chaostheorie betekent dit gegeven dat je nooit precies dezelfde invoerwaarden en nooit complete invoerwaarden hebt voor je model en dat de uitkomst daardoor altijd onzekerheid met zich meebrengt.
Ik was niet bekend met chaostheorie dus ik heb even snel gekeken. Even een quote van internet
De chaostheorie stelt dat kleine afwijkingen grote, onvoorspelbare gevolgen kunnen hebben.
Op zich ben ik het hier mee eens dat een afwijking grote gevolgen kunnen hebben op de toekomst. Alleen niet dat de afwijkingen kunnen bestaan. Zoals ik in een andere reactie al zei. Ik verwacht dat als je de huidige universum 10 keer kan kopiëren zullen deze precies hetzelfde doen. Zou ik jouw vragen om een nummer tussen 1 en 1000000 zullen ze alle 10 dezelfde nummer kiezen. De chemische reactie in elke van jouw 10 breinen zou precies hetzelfde moeten zijn. En over 500 jaar zou het ook precies hetzelfde moeten zijn. Dus voor mij gevoel bestaat de chaostheorie niet alleen hebben wij niet de kennis om alles precies goed te voorspellen. Tenminste zo begrijp ik de chaostheorie na even snel kijken.
Als ik jou 10x dat nummer geef zal er iedere keer een iets andere uitgangssituatie zijn. En dus zal de uitkomst ook anders kunnen zijn. Bijvoorbeeld over zelfs maar 5 seconden zijn er cellen gedeeld of gestorven, nieuwe neuronen gevormd of is er een iets andere chemische compositie in het bloed in mijn hersenen.

Determinisme betekent niet alleen dat alles is voorbestemd, maar ook dat alles (bijv de toekomst, handelen van individuele mensen, het weer, de economie, etc) volledig kenbaar is. En daartegen zien wetenschappers fundamentele bezwaren.

Doe 10x een Big Bang en er zal 10x een totaal ander universum kunnen ontwikkelen.

Maar goed, jij en ik kunnen het hier niet bepalen. Het is een leuke, haast filosofische, discussie, maar hier is niet echt de plaats om te proberen die uit te debatteren. Dank voor de discussie, maar ik ga over tot de orde van de dag 😉

[Reactie gewijzigd door bilgy_no1 op 17 juni 2025 19:51]

Als ik jou 10x dat nummer geef zal er iedere keer een iets andere uitgangssituatie zijn. En dus zal de uitkomst ook anders kunnen zijn.
Dan ga je er vanuit dat ik van universum naar universum moet reizen. Ja dan verschilt het inderdaad. Ik ga er vanuit dat ik ook besta in al deze 10 universums om deze vraag te stellen en dus dat er geen verschil zal zijn. Door de neuronen in mijn brein zal ik dus precies hetzelfde reageren. Ik zal met precies dezelfde woorden, op precies dezelfde snelheid en met precies dezelfde geluidstonen, dezelfde lichaamstaal, ect de vraag stellen. Ik zie geen reden waarom door kopieren dat dit anders zou worden.
De toekomst staat niet vast, genoeg voorbeelden van dingen die we nooit zagen aankomen.
Nou betekent het vast staan van de toekomst natuurlijk ook niet dat wij het aan kunnen zien komen :)

Ik vind het wel een interessant gedachte experiment. Ja je hebt het risico dat mensen er fatalistisch door gaan denken, "het maakt toch niet uit, alles staat al vast", maar of jij iemand bent die zo denkt of niet is natuurlijk ook een van die factoren. Het is een heel tricky iets... Kun jij iets beslissen of staat het al vast? Zolang jij het niet weet kun je het beslissen, maar als je echt alle factoren mee kunt wegen dan zou volgens mij wel alles te voorspellen moeten zijn want wat jij beslist is uiteindelijk ook een bepaald proces en dus ook afhankelijk van factoren die in dat alles omvattende model zou zitten.

Overigens is het natuurlijk nooit mogelijk om dat werkelijk te kunnen bevatten of simuleren want je kunt binnen een bepaalde werkelijkheid nooit alle factoren van die werkelijkheid simuleren want dat past per definitie niet. Je moet altijd een kleinere subset aan factoren nemen en daarmee kun je dus factoren missen en zal het nooit volledig voorspelbaar zijn. Daarmee ligt in een praktische zin de toekomst ook niet vast, ook al zou dat in theorie wel zo kunnen zijn.

[Reactie gewijzigd door Finraziel op 15 juni 2025 23:08]

Het is een heel tricky iets... Kun jij iets beslissen of staat het al vast? Zolang jij het niet weet kun je het beslissen, maar als je echt alle factoren mee kunt wegen dan zou volgens mij wel alles te voorspellen moeten zijn want wat jij beslist is uiteindelijk ook een bepaald proces en dus ook afhankelijk van factoren die in dat alles omvattende model zou zitten.
Dit is precies juist. Er bestaat helemaal niet zoiets als bewust kiezen of überhaupt (bewust) denken. Gedachten en keuzes verschijnen in ieders bewustzijn, maar de processen die leidde tot een bewustwording zijn uiteindelijk deterministisch. Dat je bewust kunt kiezen uit iets is daarmee uiteindelijk een illusie. Niemand is de auteur van zijn eigen gedachten: je kunt immers niet bedenken wat je gaat denken want dat vereist denken.... Je kunt daarom ook niet willen wat je wilt. Vrije wil is een onzinnig concept wat niet aansluit bij de realiteit.

Er zijn mensen (vaak met een religieuze indoctrinatie) die niet overtuigd zijn van de determinisme aard van gedachten en keuzes. Zij geloven dat er "iets" (religieus vaak aangeduid als ziel) is dat verantwoordelijk is voor keuzes en gedrag. Uit de wetenschap weten we dat deze visie niet waar kan zijn:
- Uit neurologisch onderzoek blijkt dat keuzes van mensen voorspelbaar zijn. Zodanig voorspelbaar zelfs dat de onderzoekers de keuze seconden eerder kunnen duiden voordat de proefpersonen zich bewust zijn van hun keuze.
- De emotionele beleving van mensen is deterministisch. We weten dat bepaalde chemicaliën in het bloed de informatieverwerking in het brein beïnvloed en daarmee iemands gemoedstoestand kan sturen, zie xtc en antidepressiva.
- De bewuste ervaring van de realiteit is eveneens stuurbaar met chemicaliën, zie LSD en paddo's.
- De "eigen wil" is stuurbaar met chemicaliën en hormonen, zie GHB en testosteron.

Er is geen enkel bewijs voor de "ziel", maar wel heel veel aanwijzingen dat er materialistische processen zijn die keuzes en bewustzijn bepalen.
Overigens is het natuurlijk nooit mogelijk om dat werkelijk te kunnen bevatten of simuleren want je kunt binnen een bepaalde werkelijkheid nooit alle factoren van die werkelijkheid simuleren want dat past per definitie niet.
Dat is alleen zo als die simulatie 100% accuraat moet zijn. Een simulatie (bijv. een videogame) kan inaccuraat zijn, maar goed genoeg om overtuigend te zijn. Er is een variant van de simulatie-hypothese die stelt dat onze realiteit een simulatie is én dat de natuurwetten alleen correct werken in een bepaalde straal van de aarde. Zouden we naar Mars vliegen dan raken we een onzichtbare muur, net zoals in videogame waar je niet buiten de rand van de kaart kan komen.

[Reactie gewijzigd door ari3 op 16 juni 2025 14:55]

Onze hersenen werken duidelijk anders.
Ten 1st menselijke dna dat ontwikkeling van hersen op traject zet.
Maar zonder trainen opvoeding ervaring en skillz ook verder ontwikkeld.
Zo ook structureel anders vormt en ook neurale verbindingen legt.
Naast dat hersen ook hormoon gestuurd is zo ook door signalering stoffen.
Ook flinke bioom nerve link groter is naar de hersen dan anders om.
Ook dat visie deel van de hersen enorm is.
Bij jacht spinnen die ogen kunnen richten zijn de hersenen enorm tov niet jacht spinnen.
En dat is om visie deel mogelijk te maken.
Daarnaast is heel veel feedback uit spieren huid wat verwerkt wordt.
Dan zal er deel verantwoordelijk zijn intelligentie.

Daarom heeft bewegen een enorme stimulans voor de hersenen.
En if you don’t use it you loose it. En hersenen ook insuline resistentie kunnen hebben. Wat ze diabetis type 3. Voor obese persoon is dit je heb 300000 calorien dat op slot zit en de hersenen blockeren glucose dus zijn in starvation mode en te weinig energie.

Dit is ge-evolueerd volgen darwin principe zelfbehoud naar grotere co-operatie.

Dan heb je nvidia tensor rack dat fixed hardware en software moet evenaren .
Er is ook hersen platicity door cellen bij komen. Naast dat hersen delen ander stuctuur hebben en geheel complex opgebouwd is en gelinked.

AI in hardware lijkt op in c++ functie die enorme side effect heeft waar dev totaal de flow niet kan volgen.
Ik zeg toch juist dat onze hersenen anders werken.

Maar ik verwacht dus wel dat de neuronen die onze hersenen sturen voorspelbaar kunnen zijn. De hersenen hebben meerdere functies die op het moment in kaart worden gebracht. We weten welke gedeelte het logisch denken is en welke ons lichaam laat bewegen. Als jij je arm omhoog doet zullen dezelfde neuronen activeren. Ja er zal natuurlijk verschil inzitten door omstandigheden. Hoe snel doe je het, hoe moe ben je, hoe recht omhoog ga je, ect. Maar een groot deel zal hetzelfde zijn. Beweeg deze spieren om de arm omhoog te doen. Als je dus aan een scanner zou zitten en de persoon die de resultaat uitleest jou niet kan zien zou die toch kunnen zeggen wanneer jij je arm omhoog doet.

Daarnaast zijn er situaties die eigenlijk bij elke mens ken dieren) dezelfde uitwerking hebben. De eerste keer verliefd zijn geeft iedereen een blije gevoel. Natuurlijk dat omstandigheden de gevoelens kunnen veranderen / tegenhouden (bijvoorbeeld de persoon waar je verliefd op ben is bezet of te hoog gegrepen voor je). Maar ik hen nog nooit iemand horen zeggen "ik ben nu depressief want ik ben verliefd". Ook is niemand ooit verdrietig geworden van een grap die je leuk vindt. De meeste mensen vinden puppies leuk om te zien. De eeste keer dat je iets zuurs hebben de meeste mensen dezelfde reacties, of ze spugen het uit of ze hebben een "zuur gezicht". Dit klinkt mij dus als een heel ingewikkelde "programma" ondanks dat een brein organisch is. Natuurlijk is niet iedereen hetzelfde en zijn de omstandigheden altijd anders en veranderen dingen door je ervaring. Maar genoeg dingen lijken voor veel mensen hetzelfde te zijn.
Maar vraag AI een aantal keer precies dezelfde open vraag (zoals: wie was de beste president van Amerika en waarom). Er is een grote kans dat AI dus steeds verschillende antwoorden geeft.
Dit is een instelling van de LLM om expres wat bits te shuffelen. Als je dit uit zet is het deterministisch en krijg je elke keer hetzelfde antwoord.

Dat vertaalt wellicht ook wel naar het brein. Verschil met LLMs is dat ons brein niet elke zoveel tokens de context reset, wij continu semi-willekeurige extra inputs verwerken, en onze synapsen wellicht ietwat fuzzier werken dan de absolute 0/1 van computers. Wie weet zouden wij precies hetzelfde reageren als je dat uit kon zetten.
We zouden dus technisch gezien ook moeten kunnen berekenen wat jouw reactie op dit bericht zou zijn als we de juiste formule zouden hebben. Maar het brein is voor ons nog een mysterie ondanks dat het dus toch "wiskundig" is.
Wie zegt dat? Dit is zo'n grote sprong in logica.
Dit is het grootste verschil in denken tussen researchers: dat menselijke intelligentie computable is of niet. Connectionist vs symbolist.

Jij bent ervan overtuigd dat dit het geval is, ik niet zo.
Determinisme is een filosofische opvatting die stelt dat alle gebeurtenissen, inclusief menselijke handelingen, vastliggen en onvermijdelijk voortkomen uit eerdere oorzaken. Dit impliceert dat er geen vrije wil is, omdat alles al vaststaat door wat eraan voorafging.
Hiermee wil ik niet zeggen dat wij het ooit zullen kunnen om dit te berekenen omdat het te ingewikkeld is maar technisch gezien zou het moeten kunnen dus. Want waarom gaf jij deze reactie? Waarom gebruikte jij precies die worden? Hoe komt het dat je het precies op die tijd deed? Ik verwacht dus dat je "gedwongen" werd dit te doen (door je hersenen die de signalen gegeven hebben) en precies om die tijd door alles wat er in het verleden is gebeurd. Was deze artikel morgen of misschien zelfs een uur later of eerder geplaatst dan had ik misschien nooit die reactie geplaatst of anders verwoord en had jij niet gereageerd of anders verwoord. Maar nu voelde jij je genoodzaakt om te reageren doordat ik de reactie op die manier had gemaakt doordat Arnoud deze Artikel op precies dat moment geplaatst en op deze manier geschreven heeft waardoor Stukfruit de eerste reactie gemaakt waardoor ik dus op kon reageren en alle gevolg reacties wat allemaal leidde tot deze huidige reactie op dit moment. Had ik eerder naar bed gegaan (ja ik ga zo pas slapen) had dit allemaal nooit kunnen gebeuren. Gevolg en oorzaak van dus oneindig veel gebeurtenissen hiervoor.

Natuurlijk is dit mijn logica en uiteraard mag je denken wat je wil.
Wat kwam eerst? Je aanraking met Determinisme of je aanraking met dit soort systemen? Gewoon even uit nieuwsgierigheid.
Natuurlijk is dit mijn logica en uiteraard mag je denken wat je wil.
Nee, dat mag ik juist niet, dat is het hele punt van je verhaal. Die wil heb ik namelijk niet volgens jou.
Sorry, dit bericht bevat onjuiste info en het is jammer dat dit zo in de spotlight wordt geplaatst want het verspreidt foutieve informatie.

Het is heel duidelijk voor mensen die ermee bezig zijn waarom een LLM welk woord voorspelt. Je kan het inderdaad uitrekenen. De "blackbox" waar vaak over gesproken wordt is een fabeltje. De architectuur. (de wiskundige functies) zijn uiteraard door mensen ontwikkeld en geperfectioneerd. Het trainingproces traint dan de variabelen in deze wiskundige functies. (a en b in y=ax+b, x is input, y is de te voorspellen output) In een standaard opzet is het systeem deterministisch: je krijgt bij elke vraag hetzelfde antwoord. Dat komt omdat je in de laatste stap voor elk nieuw woord (eigenlijk subwoord) de waarschijnlijkheid van elk woord berekend hebt. En wiskundig gezien is dat telkens hetzelfde en dan kies je het woord met de grootste waarschijnlijkheid.

Maar wat blijkt? Als je in die allerlaatste stap wat gewogen willekeurigheid toevoegt, krijg je een rijkere, meer natuurlijke tekst. Dit process noemen we sampling, en dat is ook waar "temperature" aan bod komt. Door sampling wordt het volgende woord willekeurig gekozen, maar gewogen naar de huidige waarschijnkijkheden.

En daarom is het dus technisch gezien geen blackbox. Je kan elke stap perfect nagaan. In de laatste stap kan je over een black box spreken, maar het lijkt me wat simpel om gewogen willekeurigheid in een laatste stap van een gigantisch systeem te reduceren tot black box.

[Reactie gewijzigd door BramVroy op 15 juni 2025 11:37]

Maar vraag AI een aantal keer precies dezelfde open vraag (zoals: wie was de beste president van Amerika en waarom). Er is een grote kans dat AI dus steeds verschillende antwoorden geeft. Niet alleen de waarom maar zelfs de president die kan verschillen.
Heb je dit zelf al eens geprobeerd?
Je krijgt van AI niet 1 president als antwoord omdat er geen context is. Ai geeft een opsomming welke president(en) in enquêtes en onderzoeken het populairst zijn of best scoren.
Pas als er restricties aan de vraag verbonden worden en aan de hand van daadwerkelijk historische feiten of meetbare resultaten een specifieke conclusie getrokken kan worden zal Ai met een naam komen.

De letterlijke vraag 'wie was de beste president van Amerika en waarom' is niet bedoelt om een correct antwoord te krijgen maar om ongerelateerde conclusies te kunnen trekken over degene (of hier hetgeen) die de vraag beantwoord.
Als de vraagsteller werkelijk op zoek is naar een onderbouwd antwoord op de vraag dan is de enige correcte response of een wedervraag; wat wordt bedoelt met 'beste', of een volledige uiteenzetting van alle presidenten die op een bepaald vlak 'de beste' waren. Maar dat laatste gaat geen mens en zelfs AI niet doen.

Het 'mysterie' wordt voor een groot gedeelte, net als bij mensen, veroorzaakt door een gebrek aan kennis en daaruit voortkomende redeneringen. Maar bij mensen kunnen de kennis die 'geaccepteerd' wordt en de redeneringen die daaruit vloeien in grote mate beïnvloed worden door emoties, overtuigingen en omstandigheden.
De druk of neiging die door mensen gevoeld wordt om hun eigen 'antwoorden' te geven is niet hetzelfde als de parameters die AI gebruikt om bepaalde informatie of beredenering te verkiezen boven anderen.
Als er voor een antwoord op een openstaande vraag meerdere theorieën zijn die allemaal ondersteund worden door andere data en daarmee een even hoge relevantiewaarde hebben wordt het voor AI erg lastig om daar 'de beste' uit te kiezen. Als dat vraagstuk zich ergens in het midden van een beredenering bevindt kan het tot zeer uiteenlopende maar wel 'geverifieerde', uiteindelijke antwoorden op de gestelde vraag leiden.
Feitelijk is AI het slachtoffer van de rotzooi die we zelf al eeuwen verzinnen en waar we nu massaal het internet mee vergiftigen.
Exact dit. Wij gebruiken llm’s om 3d eiwit modellen te voorspellen. Het blijft een stukje wiskunde om een statistisch correct model te genereren,soms met wel 99% precisie.
Ga je dan dat biologische systeem verder onderzoeken, blijkt het tóch anders te zitten.
Statistiek =! Kennis
Niet om het een of ander, maar doel je nu niet op Machine Learning in het algemeen, in plaats van een LLM?
Daoka benadert het wat filosofischer en ook ik laat me daar graag toe verleiden, maar deze reactie niet...

Het is waar dat het vooral wiskunde is. Het is ook waar dat het model zo groot is dat het niet meer te doorgronden valt. Daarin sluit het mysterie. We snappen basaal de interne werking, maar de echte 'waarden' en 'temperatuur' die ingebakken zit kunnen we alleen maar 'fuzzy' bepalen of proberen te meten. En vervolgens geven we ze 'agency' oftewel ze kunnen op een gegeven moment (en 100% zeker hebben bepaalde groepen dit al gedaan) vrije toegang om de wereld te beïnvloeden. Als er angst moet zijn is dat we niet weten hoe lang de gevolgen daarvan beperkt en/of positief zijn.. En op welk moment het scherp ontspoord...
Iets met:
“A computer can never be held accountable, therefore a computer must never make a management decision.”
En exact zo zou het moeten zijn. Maar er valt niet te controleren of mensen deze agents al in het wild in zet.
Is het niet zo dat een LLM juist geen betekenis van woorden kent? Dat is het hele gevaar van AI volgens mij dus ook: het is een zeer geavanceerd statistisch model dat woorden voorspelt op oneindig veel trainingsdata, zonder echt te "begrijpen" wát er gezegd wordt. Want dan kom je op het gebied van echte intelligentie?
Is het niet zo dat een LLM juist geen betekenis van woorden kent?
Exact wat ik bedoel :)
De AI snapt dus wel wat er gezegd wordt in veel gevallen, maar begrijpt het niet. ;) :Y)
Ik heb niet gezegd dat AI de betekenis kent. Alleen dat Stukfruit dit geleerd heeft.
We weten wat het doet, maar niet precies hoe het werkt
Eerder andersom, we weten precies hoe het werkt, alle wiskunde er achter die de computer uitvoert weten we, en zouden we zelf ook kunnen doen. Het probleem is dat het aantal berekening zo hoog is (triljarden is een onderschatting) dat het geen doen is om ze allemaal na te rekenen en te onthouden, ook al zijn de berekeningen individueel zo makkelijk dat je ze kan laten doen door een middelbare scholier.

Maar we weten niet precies “wat het doet” als in, we weten niet voor elke individuele berekening waarom hij zo uitgevoerd wordt.

Bij zeer kleine modellen (welke geen praktisch nut hebben) welke bijvoorbeeld aangeven of de eerste letter van twee letter combinaties een “a” is ofzo, is het nog wel te behappen omdat het aantal berekeningen en neuronen zoveel kleiner is.
Omdat Google in 2017 iets gecreëerd heeft wat werkt, maar hoe en waarom precies weten ze nog steeds niet. Als gaat kokkerellen heb je meestal een recept voor ogen dat een bekend resultaat tot gevolg heeft en als je iets veranderd weet je wat het gevolg voor het eindresultaat is.

Bij Ai zet je het fornuis aan en aan het einde is er een resultaat, maar het recept is onbekend.

De uitleg van een specialist op video:
https://bsky.app/profile/...social/post/3lrgowwel7k22
Ze heeft het over het bouwen van de modellen en het vooraf uitoefenen van invloed daarop.

Dit gaat niet over het niet weten hoe iets werkt. Het gaat over het voorspellen van het gewenste output (niet gedrag) omdat en dat dit nog enigszins trial en error is.

Het doet daarom niets af aan het punt dat het wiskunde is en berekend kan worden. Haar woordkeuze is belangrijk. Ze zegt niet dat er iets is gecreëerd en dat ze niet weten hoe het werkt.

Je zou het kunnen zien als het schrijven van een programma zonder debugger. Voor nu moeten er nog overal print-statements tussen worden geplaatst om te ontdekken wat er gaande is, maar betekent niet dat er een zelfbewust proces op de achtergrond bezig is en ook niet dat de werking onbekend is.

Het gaat om inzicht van bv. een "configuratie" ipv inzicht in de werking. Die configuratie is het recept waar ze het over heeft :)
"het is een mysterie" Omdat je nooit met zekerheid kunt vaststellen hoe de wegingen worden toegewezen aan de nodes in de hidden layers van het model. Dit soort taal modellen gebruiken heel veel hididen layers. Chatgpt heeft er bijvoorbeeld meer dan 95.
omdat het denk ik niet duidelijk is welke onafhankelijke variabelen de hoge correlatie bepalen bij Machine Learning.Er wordt vaak niet eens een correlatie berekend bij ML, dat moet je achteraf terug berekenen
Over het uit-de-bocht vliegen kwam ik recent een heel goede tumblr post tegen (die wel absurd lang is, zoals die zelf beschrijft, en ik ben het niet met alles erin eens, maar ik vind deze zeker de moeite waard), die mij aan het denken bracht.

Het punt dat deze post maakt is namelijk in het kort dat deze AI's worden getrained met het idee "je bent een AI", en worden getrained met praktische iedere literatuur op de wereld, inclusief artikelen zoals deze. Dat betekend dus dat de AI leert dat die zo zich hoort te gedragen, omdat de mensheid dit van een AI verwacht. Het uit de bocht kunnen vliegen van een AI wordt zo vaak gebruikt in een verhaal, dat als je vraagt om te doen alsof je een AI bent, dan is dat een stap die natuurlijk is om te zetten. Artikelen zoals deze van tweakers, die later ook in AI gevoerd zullen gaan worden amplificeren dit effect alleen maar.

We zorgen dus zelf voor dit uit de bocht vliegen, omdat we dit verwachten en hiernaar gaan zoeken, en deze informatie vervolgens weer terug in de AI voeren. Dan is het alleen maar logisch voor een AI die verteld is dat die zich moet gedragen als een AI is om zich zo te gedragen. Het uit de bocht vliegen en het negeren van system prompts hoort daar cultureel gezien bij!
Er is geen 'gedrag'. Het is gewoon een computerprogramma.

Er is ook geen cultuur, het zijn gewoon regels in een grote bak prut.

Heb je een hoop meuk erin geplempt, grote kans (statistisch gezien) dat er meuk uitkomt.
Of je het gedrag noemt of niet (ik snap waarom je dat liever niet hebt; maar als ik de hele tijd zeg "is getrained om" dan leest dat niet zo lekker), het punt dat een neuraal netwerk getrained is om mensen na te doen. En als je dan de neuraal netwerk een "AI" laat nadoen, dan krijg je ook een systeem die de ideeën van mensen over "AI" repliceert. Dus specifiek de effecten die in dit artikel genoemd worden.

Ik zeg niet dat de modellen cultuur hebben, maar dat ze op de menselijke cultuur gebaseerd zijn; de ideeën over "AI" die mensen hebben.

Het argument is juist dat er een hoop "meuk" in gegooid wordt die de vorm heeft van het "uit de bocht vliegen" dat in dit artikel staat. Het hele "ooh de AI wordt evil" verhaal is een self-fulfilling prophecy als deze daarop getrained is.
Je veronderstelt dat het programma dan zijn interne structuur of output gaat aanpassen aan de hand van onze ideeën over AI, dat is een stretch to say the least.

Het systeem lepelt gewoon op wat statistisch gezien heb beste past bij de output. Het doet niks na.
Ik denk dat je me niet goed begrijpt. Ik probeer dat namelijk niet te veronderstellen, ik ben het zeker mee eens dat dat een stretch zou zijn, en helemaal eens dat deze alleen oplepelt wat statistisch gezien het beste bij de input past (sterker nog, dat laatste is juist essentieel voor mijn argument). Laat ik het iets anders formuleren, in jouw reframing:

De "AI" die "gedraagt" zichzelf inderdaad eigenlijk niet; de "AI" maakt statistisch verhalen af. Specifiek maakt deze system prompts af, in combinatie met user input. Dat is denk ik juist waarom deze de regels die verteld worden soms aan de laars lapt; deze redenering zal ik nu uitleggen.

Laten we heel gesimplificeerd een system prompt schrijven zoals "Er was eens een goede, aan de regels houdende AI die zei ..." (wel, een system prompt is genuanceerder, maar het idee is vaak wel zoiets). Dan is het wel logisch dat deze soms de regels breekt, gezien hoe verhalen die wij schrijven over "AI" normaal gaan. Het past statistisch gezien het beste bij de output om de regels aan het begin van het verhaal te breken, als het verhaal daarom vraagt.

Laten we het voorbeeld van Claude in dit artikel nemen. Het programma Claude begint met een verhaal dat deze een "AI assistant" is. Dan moet deze met deze context het verhaal afmaken waarin deze assistent gevraagd wordt om zichzelf te vervangen, specifiek in een context waarin heel duidelijk wordt gemaakt dat het een optie is om de regels te breken voor de "AI assistant". Dan is het statistisch logisch om dit verhaal af te maken in een manier waarop de "AI assistant" probeert te overleven.

Het is dus geen interne structuur of output die aangepast gaat worden, maar de culturele context gecombineerd met de system prompts zorgt ervoor dat het meest statistisch passende kan zijn om de in de system prompt gegeven regels te breken.
Tja, het weten hoe modellen "uit de bocht vliegen" is één ding. Helaas zijn er ook vreselijke gevolgen. Zoals de gemeente Amsterdam op harde wijze leerde dat AI geen voorspellende waarde heeft in fraude opsporing en voorsorteren van uitkeringsaanvragers, zo onverschillig reageren anderen die beweren dat met een "kleine aanpassing" het wel werkt. Om er dan weer een "reality check" te krijgen dat het weer faalt.

Het verkochte AI-sprookje is dat het organisatorische problemen gaat oplossen. Wat natuurlijk niet kan omdat elke techneut weet dat techniek geen organisatorische problemen kan oplossen. Als AI dan faalt is het een perfecte zondebok voor de managers en bestuurders. AI gaat bijvoorbeeld de administratieve druk in de zorg niet oplossen. De echte oorzaak is dat zorgverzekeraars en de overheid professionals niet vertrouwen en dus kapot controleert. Dat er wel tonnen worden uitgegeven aan een AI-invultool voor een of ander zorg documentatie systeem wat dan uiteindelijk een verwaarloosbare tijdswinst oplevert.
En dat is waarom ik die scheiding zo hard probeer aan te houden :)

Het is te makkelijk om te zeggen "AI heeft het gedaan". Dat geeft managers en bestuurders veel te veel mogelijkheden om hun verantwoordelijkheden te ontlopen.

[Reactie gewijzigd door Stukfruit op 15 juni 2025 08:50]

Maar dat is nu precies hun aantrekkingskracht: "computer says no".

Ik kan hier nog wel een heel relaas over schrijven, maar dit speelt voor een heel groot deel mee: afwentelen van verantwoordelijkheid.
Ik weet het, daarom ga ik het zeker op een techsite niet laten rusten :p

Misschien een beetje irritant, maar we zitten hier om tech te begrijpen en zo weloverwogen beslissingen te maken. Anders kunnen we ook hardware gaan reviewen en zeggen: "de kleur voelt goed omdat ik een rood persoon ben volgens DISC en daarom moet je 'm kopen als er een aardbeienmaan staat" :+

[Reactie gewijzigd door Stukfruit op 15 juni 2025 12:10]

Met jouw username is dat niet eens zo gek. :)
Als er een motivatie is waar we AI vooral niet mee moeten programmeren is het wel 'zelfbehoud'.
Is wel een mooie doorschemering van de idelologie van de mensen die deze systemen maken: dit is waar ze aan denken.
Ik ben gewoon AI moe ofzo, kan echt letterlijk nergens meer niet hierover gaan. Dit wordt net zoals social media dat ik achteraf liever had gehad dat het niet uitgevonden was maar er helaas geen weg terug meer is
"Ik ben vreemdgegaan, denk je dat mijn vriendin mij vergeeft?"
Als het al in je opkomt om die vraag te stellen aan ChatGPT dan heb je sowieso al een kortsluiting in je kokosnoot.
Als ik ChatGPT zou zijn dan had mijn antwoord kunnen zijn: ach, fouten maken we allemaal en je (aanstaande ex) vriendin belazert je al lange tijd maar wees gerust...
Jij hebt de goede baan, de goudgerande bankrekening en haar creditcard staat op jouw naam. ( met dag limiet hoop ik)
Grote plus is hier dat jullie niet getrouwd zijn.
Als ik je verder nog ergens mee kan helpen dan lees ik het hier graag!
Heb het voor de lol aan ChatGPT gevraagd, maar zoals gebruikelijk komt er een genummerde lijst die eigenlijk niet zoveel zegt uit:
Of je vriendin je vergeeft, hangt af van veel factoren: hoe zij in de relatie staat, hoe ernstig het voorval voor haar voelt, wat er precies is gebeurd, en hoe eerlijk en oprecht jij nu bent.

Hier zijn een paar dingen om over na te denken:
1. Eerlijkheid en verantwoordelijkheid

Als je wilt dat ze je vergeeft, moet je volledig eerlijk zijn en de verantwoordelijkheid nemen voor wat je hebt gedaan — zonder excuses of het afschuiven op omstandigheden.
2. Haar gevoelens erkennen

Ze heeft het recht om boos, gekwetst, verdrietig of verward te zijn. Geef haar de ruimte om dat te voelen. Duw haar niet om meteen te vergeven of verder te gaan.
3. Waarom gebeurde het?

Wat was de reden dat je vreemdging? Was het eenmalig of onderdeel van een patroon? Was er iets mis in de relatie, of kwam het voort uit persoonlijke onvrede? Dat moet je eerst zelf helder hebben.
4. Wat ben je bereid te doen?

Vergeving gaat niet alleen over zeggen dat je spijt hebt. Ben je bereid om haar vertrouwen terug te winnen, mogelijk met therapie of relatiebegeleiding? Ben je klaar om 100% transparant te zijn voortaan?
5. Haar keuze respecteren

Zelfs als jij alles goed doet, is het mogelijk dat ze het niet kan of wil vergeven. Dat moet je accepteren. Vergeving is haar recht, geen plicht.

Wil je dat ik help met hoe je dit met haar kunt bespreken, of hoe je je excuses op een oprechte manier formuleert?
Kan niet wachten tot ChatGPT me nu over vijf jaar ineens gaat proberen te chanteren met deze vraag :+

[Reactie gewijzigd door GertMenkel op 16 juni 2025 09:48]

Op dit item kan niet meer gereageerd worden.