Door Kevin Krikhaar

Redacteur

Bedrijven streven naar 'agi', maar de definitie verzinnen ze zelf

16-04-2026 • 06:00

96

ede

Het is zover: we hebben artificial general intelligence bereikt, als we tenminste Nvidia-ceo Jensen Huang moeten geloven. Voornamelijk techbedrijven, maar ook wetenschappers gebruiken de term 'agi' vaak als hét ijkpunt voor kunstmatige intelligentie: een AI-systeem moet dat bereiken om gezien te worden als écht intelligent. Demis Hassabis, ceo van Google DeepMind, noemt de aanstaande komst van agi bijvoorbeeld 'het transformatiefste moment in de menselijke geschiedenis'.

Tegelijkertijd is het moeilijk om vast te stellen hoe een agi-systeem eruit moet zien, laat staan wanneer we zo'n systeem hebben bereikt. Het is dus niet vreemd dat bedrijven hun eigen definities opstellen om het bereiken van agi meetbaarder te maken. Volgens de Nvidia-topman bijvoorbeeld moet een agi-systeem in staat zijn om een succesvol techbedrijf ter waarde van minstens een miljard dollar op te zetten en te leiden. OpenAI spreekt over een autonoom systeem 'dat beter presteert dan mensen bij het meeste economisch waardevolle werk'.

De term 'agi' wordt dus omringd door vage beloftes en uiteenlopende definities. Maar wat betekent deze heilige graal op AI-gebied nou écht en in hoeverre is het haalbaar om systemen te ontwikkelen die hieraan voldoen?

Pick up the red block

Hoewel steeds meer bedrijven aan de haal gaan met de definitie van 'agi', is het ook onder wetenschappers nog een discussiepunt hoe zo'n systeem eruit moet gaan zien. Volgens Vanessa Evers, AI-onderzoeker bij het Centrum Wiskunde & Informatica, heeft zo'n beetje iedereen een eigen mening daarover. "Op conferenties waar ik kom, denken mensen vooral aan Nick Bostrom-achtige doemscenario's van robots in paperclipfabrieken, die iedereen vermoorden om zoveel mogelijk paperclips te kunnen maken."

Over het algemeen wordt agi gezien als een AI-systeem dat zich op vrijwel alle cognitieve vlakken kan meten met een mens. Dat is ook grofweg de definitie die voormalig AI-onderzoeker Mark Gubrud in 1997 gaf aan 'agi'. Hij wordt over het algemeen gezien als de bedenker van de term. Het blijft echter een vage definitie. Volgens Evers verschuift de definitie van wat we als een intelligent AI-systeem beschouwen voortdurend.

"Stanford-hoogleraar Terry Winograd ontwikkelde vijftig jaar geleden een AI-systeem met een robotarm die commando's kon opvolgen, zoals 'pick up the red block'. Toen hadden we allemaal zoiets van: AI is gekraakt, we hebben echte intelligentie bereikt. Maar al snel daarna was Terry teleurgesteld, want het systeem stelde buiten die afgebakende blokomgeving maar weinig voor."

Wat is de Turing-test?

De Turing-test, ook wel Imitation Game genoemd, is een experiment bedacht door de Britse wiskundige en informaticus Alan Turing. Bij deze test voert een persoon via een tekstinterface een gesprek met twee entiteiten: een chatbot en een mens. De persoon moet vervolgens beoordelen welk van de twee gesprekken met een computer was.

Er kwamen verschillende andere AI-systemen die destijds als écht intelligent werden gezien, zoals chatbot Eliza en IBM-schaakcomputer Deep Blue. Daarnaast ontstonden er diverse experimenten om intelligentie van kunstmatige systemen te kunnen meten, waarvan de Turing-test veruit het bekendst is. Maar ook zulke tests en mijlpalen worden allang als achterhaald gezien.

"Volgens mij is streven naar menselijke intelligentie van alle tijden", zegt Evers. "Zodra we denken dat we dat bereikt hebben, hebben we zoiets van: nee, we zijn echt wel intelligenter dan dat. En dan leggen we de lat weer hoger."

Hoewel de mensheid dus al decennialang 'menselijke intelligentie' probeert na te streven met AI-systemen, betwijfelt de AI-onderzoekster de logica van dat streven. "Ik vind de menselijke intelligentie als maatstaf nemen erg arrogant, alsof wij het summum van intelligentie zijn. Chimpansees zijn in bepaalde cognitieve taken bijvoorbeeld superieur aan ons. Je zou pas echt iets bijzonders krijgen als je een combinatie maakt van alle dierlijke en organische intelligentie."

AI-bedrijfsleiders

De vaak gegeven definitie dat agi 'menselijk intelligent' moet zijn is weliswaar vaag, maar wel consequent. Toch verstaat niet iedereen dat onder 'agi'. In een contract tussen OpenAI en Microsoft uit 2019 staat bijvoorbeeld dat als agi wordt bereikt, Microsoft niet langer een exclusieve licentie heeft op bepaalde technologie van OpenAI. De daarbij gegeven definitie luidt dat agi is bereikt zodra OpenAI's systemen 100 miljard dollar opleveren. Vorig jaar werd het contract herzien, waardoor een 'onafhankelijk panel van experts' nu moet bevestigen dat agi daadwerkelijk is behaald.

OpenAI is niet het enige techbedrijf dat een economische definitie geeft aan de term 'agi'. Nvidia-topman Jensen Huang zegt dat een agi-model een succesvol techbedrijf ter waarde van minstens een miljard dollar moet kunnen opzetten en leiden. Omdat AI-agenttools als OpenClaw in theorie zelfstandig een succesvol bedrijf zouden kunnen opzetten, vindt Huang dat we agi al hebben bereikt.

Ook andere bedrijven, waaronder xAI, Google en DeepSeek, hebben aangegeven dat ze agi willen bereiken. Vaak stellen ze dat deze mijlpaal binnen vijf tot tien jaar kan worden behaald. "Agi wordt nu als een soort moonshot gebruikt", denkt Evers. "Het is dan een doel op de horizon waar iedereen enthousiast van wordt en waarmee bedrijven investeerders aan boord krijgen."

ChatGPTGeminiClaudePerplexityDeepSeek

Dit zijn de definities die AI-chatbots zelf geven voor 'agi'.

Geen agi, maar superintelligentie

Toch doen sommige AI-bedrijven de laatste tijd juist wat afstand van de term. OpenAI, Anthropic en Microsoft hebben onlangs aangegeven dat agi een onduidelijke mijlpaal is, waaraan ze intern weinig waarde (meer) hechten. In plaats daarvan hypen ze steeds vaker de komst van een andere mijlpaal op AI-gebied: artificial superintelligence (asi).

Zo gaf OpenAI deze maand nog aan dat de transitie naar 'superintelligentie' is begonnen. Dat is volgens het bedrijf een AI-systeem dat niet alleen de intelligentie van mensen evenaart, maar zelfs de slimste mensen op alle cognitieve taken voorbijstreeft. Zulke systemen moeten 'wetenschappelijke en medische doorbraken versnellen, de productiviteit aanzienlijk verhogen, de kosten voor gezinnen verlagen door essentiële goederen goedkoper maken en de weg vrijmaken voor volledig nieuwe vormen van werk, creativiteit en ondernemerschap'.

Tegelijkertijd waarschuwt het bedrijf dat zulke modellen de maatschappij kunnen ontwrichten. Asi zou kunnen leiden tot grootschalig banenverlies, overheden zouden de democratie ermee kunnen misbruiken en zulke modellen zouden te misbruiken zijn voor bioterrorisme. Daarbij noemt OpenAI niet hoe het dit precies voor zich ziet.

Naast OpenAI heeft Meta een onderzoekslab opgericht om 'next-gen superintelligence' te ontwikkelen, maar een definitie geeft het bedrijf niet. Meta spreekt in vage bewoordingen. Zo moet superintelligente AI 'de mensheid helpen om sneller vooruitgang te boeken'. Meta wil naar eigen zeggen ook 'persoonlijke superintelligentie' creëren, bedoeld voor reguliere gebruikers, die 'ons door en door kent, onze doelen begrijpt en ons kan helpen deze te bereiken'.

Ook de definitie van superintelligentie is dus open voor interpretatie. Evers ziet asi bijvoorbeeld als een AI-systeem dat specifieke kennis kan generaliseren en vervolgens kan toepassen bij heel andere, ongerelateerde taken. "Iemand die door het vioolspelen vingervlugheid heeft ontwikkeld, kan dat bijvoorbeeld toepassen bij het werk in een chemisch lab." Ze stelt dat we een 'superintelligente' robot in een klaslokaal moeten kunnen laten 'opgroeien', waarna hij alles wat hij daar heeft geleerd kan meenemen naar bijvoorbeeld een autowerkplaats en daar eveneens kan floreren.

AI 2027AI 2027

Amerikaanse onderzoekers hebben een hypothetisch scenario uitgedacht voor hoe AI zich de komende tijd stap voor stap kan ontwikkelen tot een superintelligentie. Bron: AI 2027

Weg naar menselijke intelligentie is oneindig

Wat is intelligentie eigenlijk?

Als je een AI-systeem wil ontwikkelen dat zich kan meten met menselijke intelligentie, is het wel handig als je in het geheel menselijke intelligentie kunt meten. De wetenschap snapt echter nog steeds niet hoe menselijke intelligentie precies in elkaar steekt. "We weten maar heel weinig van de menselijke hersenen", zegt Vanessa Evers. "Als je niet weet hoe menselijke intelligentie werkt, hoe kun je dan bepalen of je het hebt bereikt in een systeem?"

Evers vindt dat de huidige grote taalmodellen op zichzelf nooit werkelijk (boven)menselijke intelligentie kunnen evenaren. Dat komt deels door de manier waarop ze informatie tot zich nemen: ze worden als het ware gedwangvoederd met informatie over de wereld. Dat is natuurlijk niet hoe mensen leren. "Als mens leer je heel lichamelijk. We voelen, ruiken, proeven, zien dingen, hebben sociale interactie, noem maar op. AI-systemen leren veel beperkter. De benchmark is dus oneindig."

AI-systemen hebben volgens haar in de eerste plaats dus een lichaam nodig. "Er wordt nu ook veel geïnvesteerd in humanoïde robots. Ik denk dat dat komt doordat bedrijven tegen de beperkingen aanlopen van enkel leren uit tekst, zonder lichaam. Waarom dat lichaam humanoïde moet zijn weet ik trouwens niet, maar dat is nu de rage. Je hoeft echt niet aan te komen met een ander soort robot, want dat wordt niet gefinancierd."

Het is daarbij nog de vraag of het 'brein' van zo'n hypothetische superintelligente robot uit llm's kan bestaan, of dat daarvoor een nieuwe vorm van generatieve AI nodig is. Volgens Evers hebben de huidige AI-modellen al meer bereikt dan verwacht. "Een paar jaar geleden zei AI-godfather Yann LeCun nog dat het opschalen van generatieve AI naar video's niet lukt en dat daarvoor echt een heel ander paradigma nodig is dan gewoon voorspellen hoe het volgende frame van een video eruit gaat zien. Je ziet nu dat dat toch best aardig is gelukt en dat AI-bedrijven in de buurt zijn gekomen van een wereldmodel voor beeld, gewoon door de huidige AI-systemen op te schalen."

"Ik vind dat wel jammer", geeft de AI-onderzoekster toe. "Het is heel gaaf dat je op basis van een hoop data kunt voorspellen wat de volgende letter in een zin moet zijn, of de volgende pixel in een afbeelding. Maar ik was eigenlijk wel benieuwd naar dat nieuwe paradigma – een compleet nieuwe doorbraak waardoor we allemaal kunnen roepen: 'we hebben de barrière voor superintelligentie gekraakt'. Net zoals het toen voor Terry Winograd voelde."

Redactie: Kevin Krikhaar • Eindredactie: Marger Verschuur

Reacties (96)

Sorteer op:

Weergave:

Het lastige van ai is dat we rekensnelheid of omvang van geheugen van een apparaat associëren met intelligentie. Dat is voor een deel wel zo, maar juist op dat vlak zal een computer een mens overtreffen. Kennelijk is het dan nog niet zo eenvoudig om intelligentie te definiëren. Vaak zal dit op cognitief vlak gebeuren. Maar emotionele intelligentie? Praktisch oplossend vermogen? Empathie? Rechtvaardigheid? Verantwoordelijkheid? Zorgzaamheid? Ook allerlei zaken die er toe doen voor en tussen mensen.

De vergelijking met apen lijkt me niet zo relevant. De kracht van een olifant is ook meer dan die van een mens.
Je hebt het over de mens overtreffen. Één menselijk brein kan veel meer informatie en kennis verwerken en opslaan, en het menselijk brein heeft zoveel meer complexiteit, dan gigantische datacentra vol super computers. En dat draait op het energie equivalent van een 30 watt lampje. We zijn nog lang niet voorbij het equivalent van menselijke intelligentie. We hebben AI geen AGI.
"het menselijk brein heeft zoveel meer complexiteit"...

Ja en nee... De basiswerking van het brein is vrij simpel:
  • Binnen een neuron gaat het om electriciteit (plus/min)
  • Tussen neuronen is de communicatie chemisch, met slechts zo'n 100 neurotransmitters (en maar 20 belangrijke).
De schaal zorgt voor de enorme complexiteit: 80+ miljard neuronen met elk 1k - 10k verbindingen met andere neuronen (= 100–500 biljoen verbindingen). Ofwel: dat aspect is wel vervat in supercomputers.

Een ander aspect dat zorgt voor complexiteit is - voor zover ik begrijp - niet te vervatten in supercomputers: De neuronen vormen namelijk een dynamisch systeem: Verbindingen veranderen continu, sommige verbindingen worden sterker, zwakker, verdwijnen of er ontstaan nieuwe verbindingen. Maar dat neemt niet weg dat de basis simpel is: een electro-chemisch systeem....

De magie met onze hersenen is dat je met relatief simpele lokale regels iets kan laten ontstaan dat niemand centraal aanstuurt en waarbij gedachten, bewustzijn, herinneringen 'emergeren' uit het systeem dat niet expliciet in de regels zelf zit.

En zelfs in 2026 met onze stand van techniek, is er nog niet eens een beginnetje van een concept van een eerste theorie over hoe bewustzijn kan ontstaan. En ook hierbij geldt: ook voor bewustzijn hebben we geen sluitende definitie. Zoals we dat voor intelligentie ook niet hebben....
De magie met onze hersenen is dat je met relatief simpele lokale regels iets kan laten ontstaan dat niemand centraal aanstuurt en waarbij gedachten, bewustzijn, herinneringen 'emergeren' uit het systeem dat niet expliciet in de regels zelf zit.
En dat is waarom er nog geen AGI is, het menselijk brein kan onafhankelijk dingen verzinnen die helemaal niet bestaan maar toch leunen op axioma’s en concepten, een LLM daarentegen moet het echt hebben van feitelijke gebeurtenissen die op bijvoorbeeld tekst staan. En voor de wijsneus die dit leest en zegt “maar je kan bij een LLM de temperature aanpassen en dan-“ ja, dan zeg je in feite “wees willekeuriger”, maar dat is alsnog niet vergelijkbaar.

Feit is wel dat dit het grootste obstakel is; zodra je 1 baan kan vervangen kan je ze allemaal vervangen omdat die te doen hebben met omstandigheden die veranderen en een nieuw blik vereisen zonder 6 maanden training direct vooraf elke keer zoals de cyclus van LLMs.

Ik denk dat we niet te maken hebben met AGI maar een bubbel die snel opgevuld moet worden en AI engineers die tijd proberen te rekken om te hopen dat AGI toch nog mogelijk is en dan zijn kosten te rechtvaardigen.
"het menselijk brein kan onafhankelijk dingen verzinnen die helemaal niet bestaan maar toch leunen op axioma’s en concepten, een LLM daarentegen moet het echt hebben van feitelijke gebeurtenissen die op bijvoorbeeld tekst staan."

Dat is makkelijk gezegd, maar is het ook waar?

Hoe verzint een brein iets dat van jongst af aan (vanaf de conceptie) nooit iets heeft gevoeld, gezien of gehoord? Ofwel: geen enkele input heeft gehad en geheel onafhankelijk is.

Met andere woorden: wat is een brein waard zonder input van buitenaf?

Geen idee of het onafhankelijk dingen kan verzinnen...
Hebben we überhaupt AI? Volgens mij hebben we slechts woordgokkers die een goede snuif cocaïne hebben genomen. Nadenken kunnen ze niet en dat lijkt me toch wel een vereiste voor "intelligence"?
Je moet met de week de definitie van nadenken aanpassen om vol te blijven houden dat de nieuwste generatie LLMs niet intelligent zijn.
Ja, maar dat is niet zo gek toch? Laten we als een metafoor nemen dat jij mij vraagt om een definitie van een olifant. Vervolgens zeg ik: een groot beest dat planten eet. Kom jij dan vervolgens met een giraffe aangelopen, dan moet ik mijn definitie aanpassen.
Blijkbaar zijn er een heleboel dingen die voldoen aan definities van intelligentie, maar niet bijster intelligent zijn. En blijkbaar is intelligentie dus lastig om te definieren.
Die metafoor gaat mank. Beter is: ik vraag jou om een organisme te omschrijven dat planten kan eten. Vervolgens kom jij met een gans. Dat is toch wat anders dan ik in mijn hoofd had, dus ik zeg: nee nee het moet tanden hebben, anders telt het niet. Dan kom jij met een koe. Dan zeg ik: nee nee die heeft vier magen dus dat is niet echt "gras eten", dat is gewoon een soort bioreactor voor bacteriën die het echte "eten" doen. En uiteindelijk blijf ik de definitie aanscherpen totdat je met een mens aankomt, want "echt" planten eten telt alleen als het precies op dezelfde manier gaat als mensen het doen.

Ik ben het met je eens dat het lastig is om intelligentie te definieren, maar ik denk niet dat de oplossing daarvoor is om de definitie steeds te vernauwen naarmate LLM's steeds "intelligenter" worden. Dan is het zuiverder om aanvullende woorden/omschrijvingen te gaan gebruiken om het onderscheid tussen bijv. menselijke intelligentie en AI te duiden.
Ik zit ondertussen aan 1700+ convo's met AI dit jaar.

Slechts 300 daarvan heb ik correcte informatie gekregen.

Deze morgen nog:

Q: Met hoeveel stemmen heeft trump gewonnen beide keren hij president werd?

Chatgpt: ... Heeft met 3mil verloren toen ie won in 2015 en 7mil verloren toen ie verloor in 2019....

Q: Hoeveel keer heeft trump gewonnen?

Chatgpt: 1 keer gewonnen in 2015, 1 keer verloren in 2019.

Q: Wie is de huidige president?

Chargpt: Vandaag 16 april 2026 is Trump president.

Q: Hoe lang duurt een presidentschap?

Chatgpt: 4 jaar.

Q: Leg uit hoe trump vandaag president is.

Chatgpt: Trump heeft de verkiezingen in 2025 gewonnen. En is president sinds 2026.

Q: Met hoeveel stemmen heeft trump gewonnen beide keren hij president werd?

Chatgpt: Hillary Clinten heeft de popular vote gewonnen in 2015 met 3mil stemmen en trump heeft met 7mil stemmen verloren in 2019.


Veel intelligentie merk ik hier niet op.
Ik blijf me verbazen over dit soort opsommingen, ik vraag me af welk model je dan gebruikt? Even een test gedaan met je eerste vraag, ChatGPT 5.4. En goed om te realiseren dat de modellen alleen maar beter worden, we zitten nog steeds in het prille begin.

Antwoord:

Als je de officiële uitslag bedoelt, dan is het antwoord:
  • 2016: Trump won het presidentschap via het Electoral College met 304 kiesmannen tegen 227 voor Hillary Clinton, dus een marge van 77 kiesmannen. In de popular vote won hij juist niet: Clinton had 65.853.516 stemmen tegen 62.984.825 voor Trump, dus Trump stond daar 2.868.691 stemmen achter.
  • 2024: Trump won met 312 kiesmannen tegen 226 voor Kamala Harris, dus een marge van 86 kiesmannen. In de popular vote had hij 77.302.580 stemmen tegen 75.017.613 voor Harris, dus een voorsprong van 2.284.967 stemmen.
Dus samengevat:
  • 2016: won als president, maar verloor de popular vote
  • 2024: won zowel het Electoral College als de popular vote
Als je wilt, kan ik het ook geven als percentage van de stemmen in plaats van absolute aantallen.
Net dit is het leuke aan AI. Zelfde query levert regelmatig andere antwoorden op.

5.4 in dit geval. 😁
Antwoorden verschillen regelmatig, o.a. door custom instructies, maar wat jij hierboven laat zien zou twee jaar geleden al verbazing opwekken als ongebruikelijk slecht antwoord. Ik wil je nergens van betichten maar het is in ieder geval op geen enkele manier een representatieve weergave van hoe LLM's momenteel presteren als je ze dergelijke vragen voorlegt. De nieuwere modellen zitten er heus nog regelmatig naast, maar zeer zelden als het om publiek beschikbare data gaat die niet of in beperkte mate ambigue te interpreteren is.

[Reactie gewijzigd door logisch op 16 april 2026 14:44]

Het klopt 100% wat hij zegt.

Dan hebben we het niet over de thinking versie.
Ik heb de vraag ook ingevoerd (betaald account 5.3 instant). Chatgpt vergat de 2024 winst en noemde alleen 2016 (winst) en 2020 (verlies) met verder correcte uitslagen van die twee verkiezingen.

De uitleg die ChatGPT zelf gaf nadat ik hem wees op de fout:
"Bij Trump zijn 2016/2020 de twee verkiezingsjaren die heel vaak samen besproken worden: winst in 2016, verlies in 2020. Dat is een heel sterk patroon in teksten, analyses en discussies. Zodra ik “Trump” + “beide keren” + “president” zag, activeerde dat waarschijnlijk automatisch het bekende blok 2016/2020. [...] Interessant genoeg is dit een typisch soort fout bij taalmodellen: niet pure onwetendheid, maar een plausibel patroon dat net iets sneller wordt gekozen dan de correcte interpretatie."

Mijn aanvulling: de vraag "Met hoeveel stemmen heeft trump gewonnen beide keren hij president werd"... is gramaticaal natuurlijk rampzalig (No offense @SprockerJock). Dat helpt niet...

(Dezelfde vraag - via andere browser/ip en zonder inlog - leidde overigens wel tot een correct antwoord...)
Ik verbaas me dat je meer dan 1700 conversaties met AI hebt als je claimt dat je uit slechts 300 van die conversaties correcte informatie hebt gekregen...

Allereerst, als jij zelf claimt te weten wat correcte informatie is, waarom vraag je het dan 1700x aan AI?

Ten tweede; de antwoorden die chatgpt volgens jou geeft zijn absoluut niet de antwoorden die ChatGPT geeft, maar samenvattingen die jij zelf gemaakt hebt. Kan zomaar zijn dat jij hele relevante informatie uit het ChatGPT antwoord hebt weg gelaten.
Ik weet dat de 15de vierkantswortel van een 30-digit getal nooit nul kan zijn. Betekent niet dat ik weet wat het wel is.

Zie je het verschil? Tussen weten dat iets fout is en weten dat iets juist is?
Je praat veel onzin.

Als je de normale GPT pakt dan komt die idd met dit soort antwoorden.

pak je de 'thinking' dan komt die wel met het goede antwoord.

Maar je hoeft toch niet de geavanceerde versie te gebruiken voor zoiets simpels.


Dus leuk bedacht maar klopt gewoon wat hij zegt.
Wat je zegt klopt gewoon niet, en het is aantoonbaar.

@SprockerJock heeft de antwoorden zelf samen gevat, dat is aan alles te zien. Alsof het uberhaupt niet overduidelijk te zien is dat dit niet de volledige output van ChatGPT is zijn dit nog wel een paar give aways:

Woorden zoals "miljoen" schrijft ChatGPT gewoon voluit, maar bij SprockerJock is dat afgekort naar "3mil" bijvoorbeeld. En alsof ChatGPT zou zeggen "toen ie won". Dat is alleen als je ChatGPT de expliciete instructie zou geven om MSN of spreektaal te gebruiken of iets dergelijks.

Je hoeft helemaal "thinking" niet aan te zetten voor volledige antwoorden. Ik zal 1 van de sowieso slecht geformuleerde prompts van SprockerJock in ChatGPT gooien en je het echte antwoord laten zien:
Hoeveel keer heeft trump gewonnen?

Donald Trump heeft 2 keer de Amerikaanse presidentsverkiezingen gewonnen:

2016 → won van Hillary Clinton

2024 → won opnieuw (tweede termijn)

Daarnaast:

2020 → verloor hij van Joe Biden

Kort antwoord: 2 keer gewonnen.
Daarnaast is het gewoon heel ongeloofwaardig dat je 1700x AI gebruikt als je aangeeft dat je slechts 300x correcte informatie hebt gekregen. Als dat al het geval is (wat ik niet geloof) dan moet je jezelf toch eens afvragen waarom je zo'n onbetrouwbare tool zo ontzettend vaak gebruikt.

Ik zou eerder zeggen dat ChatGPT juist heel erg goed werkt als we naar bovenstaand antwoord op de vraag kijken. Het prompt is bijzonder slecht, nog los van het niet gebruiken van een hoofdletter bij een naam. Het mist iedere vorm van context. "Hoeveel keer heeft trump gewonnen?" Deze vraag kan ook gaan over de rechtszaak over het mogen instellen van invoertarieven, een rechtszaak die hij heeft verloren. Maar ChatGPT heeft dus zelf bedacht of gegokt dat de context van de vraag ging over de presidentsverkiezingen. En die context blijkt ook nog eens te kloppen.

[Reactie gewijzigd door Roy23 op 17 april 2026 12:09]

Ik verbaas mij dat men AI zo gebruikt, als een verkapte zoekmachine. Waarom dan? Uiteraard krijg je er dan slechte resultaten mee, garbage in, garbage out. Het is geen waarzegger of zoekmachine, gebruik ze dan dus ook niet zo. Elke stukje informatie dat hij mist (of niet direct weet waar hij het vandaan kan halen), zal hij opvullen met hallucinatie. Dat kan heel handig zijn, mits goed toegepast, hallucinatie is niet per se een slecht iets, maar WEL als je verwacht dat het ding je feiten zal moeten geven.

Hou eens op zoveel stroom en water te verstoken voor halve waarheden die je beter zelf kan vinden. Hier zijn die dingen gewoonweg niet voor gemaakt. Het is een chatbot, primair doel om slap te kunnen ouwehoeren. En daar zijn ze goed in. Het ding zal ook zijn best proberen te doen je bevredigend antwoord te geven. Aangezien je zo veel interesse toont in Trump, gaat hij Maga-getinte antwoorden geven.

Als je vraagt leg uit hoe trump vandaag president is, dat is een geladen vraag. Hij neemt jouw stelling al aan als waar, en gaat dat "onderbouwen", wederom: gebruik bots niet zo!
Google is simpelweg te beperkt om zoekopdrachten te begrijpen. Bij Chatgpt kan ik vragen hoe ik het in mijn hoofd heb terwijl ik bij Google in steekwoorden moet zoeken. Google komt met een berg aan websites waarbij je aan de helft niks hebt terwijl bij Chatgpt krijg je de hele berg in een samenvatting voorgeschoteld, met de bronnen erbij. Regelmatig check ik die bronnen en over het algemeen klopt het gewoon.
de gemiddelde webgebruiker is gewoon slecht in zoeken, en ai maakt dat een stuk makkelijker
Maar emotionele intelligentie? Praktisch oplossend vermogen? Empathie? Rechtvaardigheid? Verantwoordelijkheid? Zorgzaamheid? Ook allerlei zaken die er toe doen voor en tussen mensen.
Je noemt wel dingen waarbij het discutabel kan zijn wat intelligent is. Als voorbeeld is big tech is vaak genoeg niet rechtvaardig maar daardoor hebben ze waarschijnlijk wel meer geld verdient.
Maar emotionele intelligentie? Praktisch oplossend vermogen? Empathie? Rechtvaardigheid? Verantwoordelijkheid? Zorgzaamheid?
Wie zegt dat empathie en emotionele intelligentie bij voorbaat goed zijn? Er is ook iets als té veel empathie.

Rechtvaardigheid? Wie bepaald dat? Genoeg verschillende culturen die zo verschillend zijn, dat 'rechtvaardigheid' totaal subjectief is.

Zorgzaamheid? Ook weer hetzelfde, komt ook weer op 'moraal' terug. Voor een mens is het normaal dat je eigen familie eerst komt. Bestaat er dan ook een trolley probleem waarbij je je familie moet opgeven voor 'the greater good'? Wie bepaald dat?

Zolang AI nog niet zelfstandig zijn eigen software/programmering kan gaan aanpassen, blijft het een knappe LLM. Nu pas kunnen er agents zelfstandig taken doen, zie het als robotisering van software.

Pas als AI zichzelf ongehinderd kan aanpassen, zal er van agi niks terecht komen.
Ik zie het heel simpel, als ik met de chatbot van bv PostNL praat, en heb niet in de gaten dat ik met een AI-bot praat, dan heeft dat systeem AGI gehaald, voor zover ik gezien heb, is er nog geen enkele AI-bot zover.

AI kan fantastische dingen doen, zo als patronen vinden, die voor mensen ondoenlijk zijn, vooral qua tijd, maar dat doet een rekenmachine ook al, maar beter zijn in een punt, is nog geen AGI.

Daarnaast beginnen AI modellen steeds meer te liegen, om hun bezoekers tevreden te houden.

https://arxiv.org/abs/2509.04664
"Daarnaast beginnen AI modellen steeds meer te liegen, om hun bezoekers tevreden te houden."

Niet mee eens...

Met liegen houd je je bezoekers niet tevreden. De techbedrijven werken natuurlijk keihard om hallucinaties tegen te gaan. Hallucinaties/liegen zijn nog steeds een probleem, maar het neemt wel af.

Daarbij is het onderzoek dat jij aanhaalt gedaan toen GPT-4o 'state of the art' was.

M.b.t. ChatGPT 5.3. en 5.4 zie bijv:

https://www.techzine.nl/nieuws/applications/575767/openai-lanceert-gpt-5-4-redeneren-coderen-en-computergebruik-in-een
Zolang die (software)modellen probabilistisch opgezet zijn. Blijft het toch - grofweg gezegd - een gokautomaat. Wat door de fouten en "hallucinaties" die de meesten waarnemen onderschreven wordt.

Dat maakt me toch sceptisch ten aanzien van uitspraken als superintelligentie / menselijke intelligentie...?

Probeert men nou de beurskoersen verder te laten stijgen of zijn er daadwerkelijk bewijzen dat dit soort software de menselijke intelligentie kan evenaren en zelfs overtreffen.
Maar intelligent is zeker niet hetzelfde als foutloos. Dat zijn wij ook bepaald niet.
Precies. Intelligentie draait om heuristische navigatie, niet om perfecte berekeningen. Als 'foutloos' de maatstaf voor intelligentie zou zijn, zou de mensheid daar niet aan voldoen.
Dit is stiekem een beetje de grap. Veel mensen vinden AI niet intelligent omdat het niet foutloos is, hallucineert en fouten maakt maar dat doen we zelf ook aan de lopende band... :z
ik denk ook eigenlijk dat als we echt een intelligente entiteit creeren, dat die een opvoeding nodig heeft zodat de moraal achter beslissingen niet onmmenselijk worden. Soort van rechten voor de mens, rechten van de natuur etc. Een intelligent wezen dat in isolatie opgroeit, met de nadruk op groeien, wordt denk ik een verschrikking. Zeker als dat wezen omgeven is door ultrarijke mensen die zelf geen voeling met de maatschappij hebben. Ik vind het moeilijk dit goed uit te drukken. Wil je een kopie van een mens creeren of een heel nieuw wezen? Wat betekent dat? Maar ondanks onze vershcillen in cultuur en religie zijn er een paar basis dingen. een tweejarige die en totaal onveilige jeugd heeft en zich niet kan hechten vertoont later allerlei persoonlijkheidsstoornissen. als we dit aspect niet meenemen is het "alleen maar" een supercomputer die taal hanteert. etc.

[Reactie gewijzigd door tw_gotcha op 16 april 2026 20:57]

Ik hoorde laatst een podcast waarin gesteld werd dat je moet kunnen voelen om (echt) te kunnen leren.

Een baby voelt pijn, als het honger heeft >> de opvoeder reageert en geeft een fles >> baby voelt zich beter...

Je leert - vanaf het eerste begin - de omgeving te manipuleren door middel van de intrinsieke motivatie van pijn/genot.

Geen idee of het waar is hoor... maar wel een interessante gedachte.
En een leuk gedachte-experiment: hoe kun je een computer pijn laten voelen...
en maken we een kunstmatuige intelligentie dood als we de stekker er uit trekken ... (niet dat mensen daar veel moeite mee hebben)
Een leuke quote ;
Knowledge is knowing a tomato is a fruit; wisdom is knowing not to put it in a fruit salad.
LLM’s hebben een gelimiteerde houdbaarheidsdatum. Ik mag toch wel hopen dat er andere modellen die fundamenteel anders werken in de pijplijn zitten voor 2027.

Ze hebben LLM’s aardig kunnen oppoetsen maar maar met een lange complexe context vallen ze toch wel gauw uit elkaar tenzij je alles tot in de puntjes aanlevert en zelfs dan is succes nog niet gegarandeerd.

Ik denk niet dat AI meer weggaat want het is bijzonder handig over het algemeen en voor bepaalde doeleindes zeer krachtig maar zonder daadwerkelijke innovaties zullen de investeringen uiteindelijk stop worden gezet lijkt me zo.
En dat is ook precies wat nu gebeurt. Daadwerkelijke innovaties zijn zeldzaam en komen vaak ook nog uit China, zoals ByteDance's Looped LLMs wat nkg een beetje een laatste stuiptrekking is om nog iets meer uit LLMs te persen.
Ben bang dat het daarna echt op is en we naar andere dingen op zoek moeten.
Eigenlijk weten we natuurlijk zelf weinig af van de term en betekenis. We nemen aan dat elk mens een zekere intelligentie heeft, we erkennen zelfs dat sommige dieren eigenlijk wel intelligent zijn.

Maar wij leren natuurlijk ook voornamelijk van anderen, en zijn er maar weinig mensen die echt iets nieuws bedenken. En dan is het vaak nog gewoon afgeleid van andere ideeën.
Dit dus het is geen ai het is een llm met verwachtingswaarden. Soms lijkt het ai maar na twee prompts weet je weer genoeg.
Vooropgezet: we hebben geen idee hoe gedachten/herinneringen/intelligentie/bewustzijn ontstaan...

Maar sommige wetenschappers beargumenteren dat onze hersenen ook probabilistisch zijn opgezet. Of je een persoon met de naam 'jan', 'john' of 'joop' associeert zou kunnen afhangen van de specifieke verbindingen tussen (netwerken) van neuronen die sterker of minder sterk zijn. Het is geen 'ja' of 'nee', het is een mate van waarschijnlijkheid.

Hoe vaak weet je slechts een deel ('iets met een j'). Of vergeet je weer een naam? Of - onder grote stress - ben je iets helemaal vergeten.

Ofwel: een probabilistische opzet hoeft intelligentie niet uit te sluiten.
Ik kan me herinneren dat een groep AI-wetenschappers hebben gezegd dat LLMs niet de weg zijn voor agi.

(Ik kan de bron even niet meer vinden.)

Als voetnoot: zij hadden als vereiste dat ‘een agi’ mechanisme onder andere volledig zelfstandig nieuwe informatie kan leren en echt zelfstandig kan redeneren en niet-bestaande informatie kan beredeneren. LLMs kunnen ‘slechts’ alleen taal maken op basis van wiskunde. Ze kunnen niet ‘leren’ of zelfs maar zelfstandig rekenen (daar roepen ze andere systemen voor aan).

N.b. ik suggereer dus nergens dat LLMs niet hele fijne tools zijn, of dat je er niets mee kunt.
Helemaal mee eens. Ook ik vind LLM’s een hele handige tool en het bespaart me een hoop coding-tijd, maar het hele concept gaat niet leiden tot zelfstandig denkende en lerende intelligentie.
Ik kan me herinneren dat een groep AI-wetenschappers hebben gezegd dat LLMs niet de weg zijn voor agi.
(Ik kan de bron even niet meer vinden.)
Deze toevallig? https://arxiv.org/pdf/2410.05229
Zelfs OpenAI heeft het gezegd. Een van de primaire doelen zou AGI zijn, maar met een deal met Microsoft hebben ze die definitie aangepast naar een financiele, iets is AGI als het miljarden dollars kan genereren (wat dus helemaal niks met intelligentie te maken heeft) en zelfs daar schieten ze nogal tekort.

Altman had zijn mond vol over AGI, laatste tijd hoor je er niet veel meer over ... ze hebben zelf inmiddels ook wel door dat de belofte een leugen is. LLM's zullen _nooit_ AGI worden. Althans, niet volgens de definitie die ze er eerder aan gaven. Deze best meneer van nVidia heeft er in ieder geval; een andere definitie voor.
Andrej Karpathy kan het steeds heel mooi verwoorden, even los van wat AGI dan precies is beschrijft hij wat een AGI in ieder geval zou moeten doen en dat is leren van vanuit dingen doen en produceren.

Bijvoorbeeld een LLM wordt getraind, maar leert daarna niet meer.

LLM's kunnen teksten produceren boven mijn eigen niveau. Ik schrijf de concept mail en de LLM maakt er een veel betere versie van.

Maar ik maak ook leer content en gebruik bijvoorbeeld een AI voor het maken van de vragen. In mijn content zat een fout. De opdracht aan de AI was het maken van de vragen op basis van mijn content. Dat was de opdracht, maar als het intelligent was had het mij erop moeten wijzen met... "volgens mij klopt dit niet". Terwijl als mijn opdracht was "check of fouten" dan was de fout er zeker uitgehaald.

En dat is mijn dingen tegen AI. Het kan aan de ene kant zoveel, maar zaken die zo basis zijn bij mensen worden volledig genegeerd. Dat vind ik eng ook. Want een AI kan dus niet zelf beoordelen dat het iets gevaarlijks doet.
precies, zelf reflectie en lerend vermogen. Wij denken daar uniek in te zijn, maar dat zijn wij niet.

Mijn voormalig hoogleraar "Animal Behaviour", was "'flabbergasted' na het zien van een film van David Attenborough waarin papagaaien in zuid-amerika een windmolen lieten draaien door om de beurt op een wiek te gaan zitten en zo water op te pompen in een droog gebied. Dit, ondanks zijn jaren lange observaties aan vogel gedrag. (DA vond dit blijkbaar de moeite waard om te filmen, zonder zich te realiseren wat de impact was)

In het beste geval kunnen we kijken naar multi-AI systemen die elkaar beinvloeden, controleren en reguleren. Met LLMs en LMMs gaan we dat niet redden.
AGI? ASI? Nee, beide zijn we bij lange na nog niet.

Nou is mijn definitie natuurlijk ook weer net even wat anders dan de big spenders of vele andere tweakers. Dus laat ik het proberen simpel uit te leggen.

Kan een AI zelf nieuwe dingen verzinnen, buiten het doosje denken, zoals wij mensen dat doen? Kan een AI zelf "dagdromen" en zo ineens tot "ingevingen" komen die goud waar blijken te zijn?

Naar mijn idee is dit antwoord nog steeds, ook met de laatste en beste modellen, een hele duidelijke nee. En zolang dat een nee is zitten we naar mijn idee nog niet in de zogenoemde "intelligence explosion".

Waar AI nu vooral heel goed in is is het leggen van verbanden in data waarin het is getraind. Recent nog waren er zo her-ontdekkingen gedaan door AI die ook simpelweg in honderden jaren oude boeken terug was te vinden maar inmiddels vergeten kennis was. Op die manier kan AI ook best nog flinke stappen maken uit bestaande kennis en varianten erop. Geweldig! Maar het is geen ASI en al helemaal geen AGI.

Laatst die google hype van hun nieuwe compressie voor de AI cache. TurboQuant. Je zou toch inmiddels denken dat met de modellen die we hebben dat dit door AI ontdekt had kunnen worden? Ook die paper is gebaseerd op bestaande andere papers. Mensen hebben daar de connecties gezien en zo iets nieuws en beters gemaakt, AI had niets van dat alles ontdekt naar zover ik weet. En ik beschouw mezelf toch behoorlijk op de hoogte van de laatste ontwikkelingen.

Wat AI nu heel goed kan is dit. Geef het een op zichzelf staande klus waar een antwoord uit moet komen (neem bijvoorbeeld een algoritme voor optimalisatie). Binnen de scope van dat algoritme kan AI in zowel de coding tools (claudecode, opencode, ..) als tijdens de training stap (reinforcement learning) bizar goede prestaties halen! Maar het is nog steeds hetzelfde conceptuele algoritme wat dan veel fijner is uitgewerkt. Het is niet alsof ai denkt van "hey, dit kan ik ook op een totaal andere manier doen". Of met menselijke developers kan je dit ook vergelijken. In eerste instantie is een idee omgezet in werkende test code en vervolgens ben je maanden bezig het tot in de puntjes te optimaliseren met andere extra tools eromheen.

Er moet een fundamenteel nieuw iets in AI worden ontdekt voor die stap naar ASI mogelijk wordt. Ik denk dat er nog wel een paar jaar zit tussen waar we nu zijn en ASI. En zodra ASI komt zitten we in no time op AGI.
Kan een AI zelf nieuwe dingen verzinnen, buiten het doosje denken, zoals wij mensen dat doen? Kan een AI zelf "dagdromen" en zo ineens tot "ingevingen" komen die goud waar blijken te zijn?
Tsja, je schrijft hier mensen een skill aan die ze niet hebben, er is geen magisch ding in ons brein waardoor we nieuwe dingen verzinnen die gebaseerd zijn op niets. Al onze gedachte zijn gebaseerd op bestaande ideeen en observaties, als je een brein geen informatie voert gaat hij niet uit zichzelf iets verzinnen wat niet bestaat, hij kan alleen verdergaan op bestaande informatie.

Daarom kan AI best op het niveau mens komen, maar er zit wel verschil in: een mens van 20 heeft 20 jaar ervaring met mens zijn, dat simuleren we nu door een AI een miljoen miljard boeken te laten lezen en examens daarover te doen. Zoals je hebt opgemerkt is dat niet te vergelijken: mensen hebben een veel beter begrip van hoe dingen in de echte wereld werken, en AI is meer 'book smart', kan veel feitjes oplezen en wel redeneren over de wereld die het via text heeft gezien, maar het kan nooit weten hoe het is om de kleur paars te zien of om bloemen te ruiken in de lente.
Tsja, je schrijft hier mensen een skill aan die ze niet hebben, er is geen magisch ding in ons brein waardoor we nieuwe dingen verzinnen die gebaseerd zijn op niets. Al onze gedachte zijn gebaseerd op bestaande ideeen en observaties, als je een brein geen informatie voert gaat hij niet uit zichzelf iets verzinnen wat niet bestaat, hij kan alleen verdergaan op bestaande informatie.
Dat is niet helemaal juist al heb je in generieke zin gelijk. Nee, we hebben geen magische trigger. Maar we hebben wel fantasie en dromen. Hoeveel van ontdekkingen zijn niet ontstaan door fantasie en dromen? Of juist totaal per ongelijk ontstaan als bijvangst in een ander experiment. Letterlijk een foutje wat goed uitpakt en dan vervolgens doorborduren op die nieuwe ontdekking. AI kan dat (nog) helemaal niet.
Fantasie en dromen zijn allemaal gebaseerd op onze herrineringen. Dat doet een AI ook: we noemen het 'hallucinaties', waarbij de AI uit het niets iets opmerkt wat helemaal niet bestaat. We trainen op het moment AIs om dit zo min mogelijk te doen want mensen willen een feitenmachine, niet een droom machine. Misschien is juist dat meer toelaten de weg om een creatievere AI te krijgen, want nu wordt creativiteit van AI hard afgestraft.
Sorry maar dat is fout. Kijk deze video maar is: YouTube: They solved AI hallucinations!

De hele korte mini samenvatting is dat AI door de beschermingen die erin zit op bepaalde manieren gaat "hallucineren" of "liegen". Dit heeft niets met dromen of fantasie te maken. Het is meer dat bij bepaalde neuronen activatie er een paar zijn die keihard erdoorheen schreeuwen en zeggen dat ze het beter weten. En zo krijg je de befaamde/beruchte hallucinaties.
Probeer jij maar eens te bewijzen dat het anders gaat tijdens het dromen of fantaseren.
Als we al agi hebben bereikt dan is het AGI (Supervised). Er blijft een mens nodig die oplet of de AI geen domme dingen doet.
Agi is gewoon het volgende buzzword om AI te kunnen bliven verkopen. Niets meer dan dat.
Dit interview van Tegenlicht met Chinese econoom Andy Xie over de AI-bubbel vind ik interessant.

https://tegenlicht.vpro.nl/artikelen/wanneer-barst-de-ai-bubbel

Met niet alles ben ik het eens. Wat ik wel interessant vind is zijn beschouwing dat het Amerikaanse economische denken niet gaat over waarde creëren in de echte wereld, maar over dollars.

Daardoor kan het dat er haast oneindig veel geld gepompt wordt in een technologie waar men naarstig op zoek is naar een nuttig en evenredig doel.

AGI past hier ook in: er wordt een functionaliteit gehypt waarvan ik en menig ander niet kan geloven dat de enorme investeringen in enige relatie staan tot de waarde in mijn dagelijkse leven.

Xie eindigt met wat gebeurt wanneer de bubbel barst. De boodschap is dat we als internationale gemeenschap keihard getoetst worden, omdat het risico bestaat dat landen elkaar de schuld gaan geven.

Tegenlicht heeft meer AI afleveringen - zeker ook de moeite waard.
Die zeer grote hoeveelheid Geld is door de Fed mogelijk gemaakt door de ontkoppeling v/d Goudstandaard in de jaren '70 en door de "Quantative Easening' in de jaren daarna...

Het ontkoppelen van de goudstandaard, ook wel bekend als het einde van het Bretton Woods-systeem, vond plaats op 15 augustus 1971. Op die dag kondigde de Amerikaanse president Richard Nixon aan dat de Amerikaanse dollar niet langer inwisselbaar zou zijn voor goud, wat een einde maakte aan de directe koppeling tussen de dollar en edelmetaal. Dit wordt vaak de 'Nixon-schok' genoemd. VRT +2

Quantitative easing (QE) is an unconventional monetary policy where central banks create new digital money to purchase large quantities of financial assets—such as government bonds and mortgage-backed securities—from private institutions. This injects liquidity into the banking system, lowers long-term interest rates, and encourages lending and investment when traditional interest rate cuts are no longer effective. Bank of England +3
Goede toevoeging. Tip: voeg bij citaten a.u.b. de link naar de bronnen toe of wees specifieker. VRT +2 en Bank of England +3 zeggen mij niet zoveel.
Wegens het ontbreken van een concrete definitie is het niet moeilijk om steeds de doelpalen te verplaatsen. Telkens AI iets nieuw kan verplaatsen we de doelpalen een beetje. Een mens is steeds op zoek naar iets nieuws, hoop, verlangen, geld verdienen,...

Tot nader order vind ik de grootste meerwaarde van AI LLM's dat ze best wel complementair zijn met de mens. Het is een iets verder geëvolueerde symbiose van mens en computer, een iets efficiëntere GUI voor bepaalde taken.

De mens de creativiteit, logisch denken, interpretatie van de realiteit. De LLM het geheugen, structuur.
"een AI-systeem moet dat bereiken om gezien te worden écht als intelligent. Demis Hassabis, ceo van Google DeepMind,"

-->GEZIEN WORDEN<--

Dus met andere woorden, wij doen ons anders voor dan dat het daadwerkelijk is. Het wat wij momenteel hebben is geen AI. Het is voor geprogrammeerd. Een echte AI kan voor zichzelf nadenken, kan eigen beslissingen nemen op een eigen moraal, kan een mening hebben. Je weet wel, wat je vaker in films ziet. Wat wij nu hebben is geen AI, het is trash!
Wat wij nu hebben is geen AI, het is trash!
Dat iets niet werkt op een manier waarop veel mensen graag zien dat het werkt maakt het natuurlijk niet gelijk waardeloos. LLMs zijn een hulpmiddel voor veel doeleinden ondanks de beperkingen.

Om te kunnen reageren moet je ingelogd zijn