Door Kevin Krikhaar

Redacteur

Bedrijven streven naar 'agi', maar de definitie verzinnen ze zelf

16-04-2026 • 06:00

15

ede

Het is zover: we hebben artificial general intelligence bereikt, als we tenminste Nvidia-ceo Jensen Huang moeten geloven. Voornamelijk techbedrijven, maar ook wetenschappers gebruiken de term 'agi' vaak als hét ijkpunt voor kunstmatige intelligentie: een AI-systeem moet dat bereiken om gezien te worden écht als intelligent. Demis Hassabis, ceo van Google DeepMind, noemt de aanstaande komst van agi bijvoorbeeld 'het transformatiefste moment in de menselijke geschiedenis'.

Tegelijkertijd is het moeilijk om vast te stellen hoe een agi-systeem eruit moet zien, laat staan wanneer we zo'n systeem hebben bereikt. Het is dus niet vreemd dat bedrijven hun eigen definities opstellen om het bereiken van agi meetbaarder te maken. Volgens de Nvidia-topman bijvoorbeeld moet een agi-systeem in staat zijn om een succesvol techbedrijf ter waarde van minstens een miljard dollar op te zetten en te leiden. OpenAI spreekt over een autonoom systeem 'dat beter presteert dan mensen bij het meeste economisch waardevolle werk'.

De term 'agi' wordt dus omringd door vage beloftes en uiteenlopende definities. Maar wat betekent deze heilige graal op AI-gebied nou écht en in hoeverre is het haalbaar om systemen te ontwikkelen die hieraan voldoen?

Pick up the red block

Hoewel steeds meer bedrijven aan de haal gaan met de definitie van 'agi', is het ook onder wetenschappers nog een discussiepunt hoe zo'n systeem eruit moet gaan zien. Volgens Vanessa Evers, AI-onderzoeker bij het Centrum Wiskunde & Informatica, heeft zo'n beetje iedereen een eigen mening daarover. "Op conferenties waar ik kom, denken mensen vooral aan Nick Bostrom-achtige doemscenario's van robots in paperclipfabrieken, die iedereen vermoorden om zoveel mogelijk paperclips te kunnen maken."

Over het algemeen wordt agi gezien als een AI-systeem dat zich op vrijwel alle cognitieve vlakken kan meten met een mens. Dat is ook grofweg de definitie die voormalig AI-onderzoeker Mark Gubrud in 1997 gaf aan 'agi'. Hij wordt over het algemeen gezien als de bedenker van de term. Het blijft echter een vage definitie. Volgens Evers verschuift de definitie van wat we als een intelligent AI-systeem beschouwen voortdurend.

"Stanford-hoogleraar Terry Winograd ontwikkelde vijftig jaar geleden een AI-systeem met een robotarm die commando's kon opvolgen, zoals 'pick up the red block'. Toen hadden we allemaal zoiets van: AI is gekraakt, we hebben echte intelligentie bereikt. Maar al snel daarna was Terry teleurgesteld, want het systeem stelde buiten die afgebakende blokomgeving maar weinig voor."

Wat is de Turing-test?

De Turing-test, ook wel Imitation Game genoemd, is een experiment bedacht door de Britse wiskundige en informaticus Alan Turing. Bij deze test voert een persoon via een tekstinterface een gesprek met twee entiteiten: een chatbot en een mens. De persoon moet vervolgens beoordelen welk van de twee gesprekken met een computer was.

Er kwamen verschillende andere AI-systemen die destijds als écht intelligent werden gezien, zoals chatbot Eliza en IBM-schaakcomputer Deep Blue. Daarnaast ontstonden er diverse experimenten om intelligentie van kunstmatige systemen te kunnen meten, waarvan de Turing-test veruit het bekendst is. Maar ook zulke tests en mijlpalen worden allang als achterhaald gezien.

"Volgens mij is streven naar menselijke intelligentie van alle tijden", zegt Evers. "Zodra we denken dat we dat bereikt hebben, hebben we zoiets van: nee, we zijn echt wel intelligenter dan dat. En dan leggen we de lat weer hoger."

Hoewel de mensheid dus al decennialang 'menselijke intelligentie' probeert na te streven met AI-systemen, betwijfelt de AI-onderzoekster de logica van dat streven. "Ik vind de menselijke intelligentie als maatstaf nemen erg arrogant, alsof wij het summum van intelligentie zijn. Chimpansees zijn in bepaalde cognitieve taken bijvoorbeeld superieur aan ons. Je zou pas echt iets bijzonders krijgen als je een combinatie maakt van alle dierlijke en organische intelligentie."

AI-bedrijfsleiders

De vaak gegeven definitie dat agi 'menselijk intelligent' moet zijn is weliswaar vaag, maar wel consequent. Toch verstaat niet iedereen dat onder 'agi'. In een contract tussen OpenAI en Microsoft uit 2019 staat bijvoorbeeld dat als agi wordt bereikt, Microsoft niet langer een exclusieve licentie heeft op bepaalde technologie van OpenAI. De daarbij gegeven definitie luidt dat agi is bereikt zodra OpenAI's systemen 100 miljard dollar opleveren. Vorig jaar werd het contract herzien, waardoor een 'onafhankelijk panel van experts' nu moet bevestigen dat agi daadwerkelijk is behaald.

OpenAI is niet het enige techbedrijf dat een economische definitie geeft aan de term 'agi'. Nvidia-topman Jensen Huang zegt dat een agi-model een succesvol techbedrijf ter waarde van minstens een miljard dollar moet kunnen opzetten en leiden. Omdat AI-agenttools als OpenClaw in theorie zelfstandig een succesvol bedrijf zouden kunnen opzetten, vindt Huang dat we agi al hebben bereikt.

Ook andere bedrijven, waaronder xAI, Google en DeepSeek, hebben aangegeven dat ze agi willen bereiken. Vaak stellen ze dat deze mijlpaal binnen vijf tot tien jaar kan worden behaald. "Agi wordt nu als een soort moonshot gebruikt", denkt Evers. "Het is dan een doel op de horizon waar iedereen enthousiast van wordt en waarmee bedrijven investeerders aan boord krijgen."

ChatGPTGeminiClaudePerplexityDeepSeek

Dit zijn de definities die AI-chatbots zelf geven voor 'agi'.

Geen agi, maar superintelligentie

Toch doen sommige AI-bedrijven de laatste tijd juist wat afstand van de term. OpenAI, Anthropic en Microsoft hebben onlangs aangegeven dat agi een onduidelijke mijlpaal is, waaraan ze intern weinig waarde (meer) hechten. In plaats daarvan hypen ze steeds vaker de komst van een andere mijlpaal op AI-gebied: artificial superintelligence (asi).

Zo gaf OpenAI deze maand nog aan dat de transitie naar 'superintelligentie' is begonnen. Dat is volgens het bedrijf een AI-systeem dat niet alleen de intelligentie van mensen evenaart, maar zelfs de slimste mensen op alle cognitieve taken voorbijstreeft. Zulke systemen moeten 'wetenschappelijke en medische doorbraken versnellen, de productiviteit aanzienlijk verhogen, de kosten voor gezinnen verlagen door essentiële goederen goedkoper maken en de weg vrijmaken voor volledig nieuwe vormen van werk, creativiteit en ondernemerschap'.

Tegelijkertijd waarschuwt het bedrijf dat zulke modellen de maatschappij kunnen ontwrichten. Asi zou kunnen leiden tot grootschalig banenverlies, overheden zouden de democratie ermee kunnen misbruiken en zulke modellen zouden te misbruiken zijn voor bioterrorisme. Daarbij noemt OpenAI niet hoe het dit precies voor zich ziet.

Naast OpenAI heeft Meta een onderzoekslab opgericht om 'next-gen superintelligence' te ontwikkelen, maar een definitie geeft het bedrijf niet. Meta spreekt in vage bewoordingen. Zo moet superintelligente AI 'de mensheid helpen om sneller vooruitgang te boeken'. Meta wil naar eigen zeggen ook 'persoonlijke superintelligentie' creëren, bedoeld voor reguliere gebruikers, die 'ons door en door kent, onze doelen begrijpt en ons kan helpen deze te bereiken'.

Ook de definitie van superintelligentie is dus open voor interpretatie. Evers ziet asi bijvoorbeeld als een AI-systeem dat specifieke kennis kan generaliseren en vervolgens kan toepassen bij heel andere, ongerelateerde taken. "Iemand die door het vioolspelen vingervlugheid heeft ontwikkeld, kan dat bijvoorbeeld toepassen bij het werk in een chemisch lab." Ze stelt dat we een 'superintelligente' robot in een klaslokaal moeten kunnen laten 'opgroeien', waarna hij alles wat hij daar heeft geleerd kan meenemen naar bijvoorbeeld een autowerkplaats en daar eveneens kan floreren.

AI 2027AI 2027

Amerikaanse onderzoekers hebben een hypothetisch scenario uitgedacht voor hoe AI zich de komende tijd stap voor stap kan ontwikkelen tot een superintelligentie. Bron: AI 2027

Weg naar menselijke intelligentie is oneindig

Wat is intelligentie eigenlijk?

Als je een AI-systeem wil ontwikkelen dat zich kan meten met menselijke intelligentie, is het wel handig als je in het geheel menselijke intelligentie kunt meten. De wetenschap snapt echter nog steeds niet hoe menselijke intelligentie precies in elkaar steekt. "We weten maar heel weinig van de menselijke hersenen", zegt Vanessa Evers. "Als je niet weet hoe menselijke intelligentie werkt, hoe kun je dan bepalen of je het hebt bereikt in een systeem?"

Evers vindt dat de huidige grote taalmodellen op zichzelf nooit werkelijk (boven)menselijke intelligentie kunnen evenaren. Dat komt deels door de manier waarop ze informatie tot zich nemen: ze worden als het ware gedwangvoederd met informatie over de wereld. Dat is natuurlijk niet hoe mensen leren. "Als mens leer je heel lichamelijk. We voelen, ruiken, proeven, zien dingen, hebben sociale interactie, noem maar op. AI-systemen leren veel beperkter. De benchmark is dus oneindig."

AI-systemen hebben volgens haar in de eerste plaats dus een lichaam nodig. "Er wordt nu ook veel geïnvesteerd in humanoïde robots. Ik denk dat dat komt doordat bedrijven tegen de beperkingen aanlopen van enkel leren uit tekst, zonder lichaam. Waarom dat lichaam humanoïde moet zijn weet ik trouwens niet, maar dat is nu de rage. Je hoeft echt niet aan te komen met een ander soort robot, want dat wordt niet gefinancierd."

Het is daarbij nog de vraag of het 'brein' van zo'n hypothetische superintelligente robot uit llm's kan bestaan, of dat daarvoor een nieuwe vorm van generatieve AI nodig is. Volgens Evers hebben de huidige AI-modellen al meer bereikt dan verwacht. "Een paar jaar geleden zei AI-godfather Yann LeCun nog dat het opschalen van generatieve AI naar video's niet lukt en dat daarvoor echt een heel ander paradigma nodig is dan gewoon voorspellen hoe het volgende frame van een video eruit gaat zien. Je ziet nu dat dat toch best aardig is gelukt en dat AI-bedrijven in de buurt zijn gekomen van een wereldmodel voor beeld, gewoon door de huidige AI-systemen op te schalen."

"Ik vind dat wel jammer", geeft de AI-onderzoekster toe. "Het is heel gaaf dat je op basis van een hoop data kunt voorspellen wat de volgende letter in een zin moet zijn, of de volgende pixel in een afbeelding. Maar ik was eigenlijk wel benieuwd naar dat nieuwe paradigma – een compleet nieuwe doorbraak waardoor we allemaal kunnen roepen: 'we hebben de barrière voor superintelligentie gekraakt'. Net zoals het toen voor Terry Winograd voelde."

Redactie: Kevin Krikhaar • Eindredactie: Marger Verschuur

Reacties (15)

Sorteer op:

Weergave:

Het lastige van ai is dat we rekensnelheid of omvang van geheugen van een apparaat associëren met intelligentie. Dat is voor een deel wel zo, maar juist op dat vlak zal een computer een mens overtreffen. Kennelijk is het dan nog niet zo eenvoudig om intelligentie te definiëren. Vaak zal dit op cognitief vlak gebeuren. Maar emotionele intelligentie? Praktisch oplossend vermogen? Empathie? Rechtvaardigheid? Verantwoordelijkheid? Zorgzaamheid? Ook allerlei zaken die er toe doen voor en tussen mensen.

De vergelijking met apen lijkt me niet zo relevant. De kracht van een olifant is ook meer dan die van een mens.
Zolang die (software)modellen probabilistisch opgezet zijn. Blijft het toch - grofweg gezegd - een gokautomaat. Wat door de fouten en "hallucinaties" die de meesten waarnemen onderschreven wordt.

Dat maakt me toch sceptisch ten aanzien van uitspraken als superintelligentie / menselijke intelligentie...?

Probeert men nou de beurskoersen verder te laten stijgen of zijn er daadwerkelijk bewijzen dat dit soort software de menselijke intelligentie kan evenaren en zelfs overtreffen.
LLM’s hebben een gelimiteerde houdbaarheidsdatum. Ik mag toch wel hopen dat er andere modellen die fundamenteel anders werken in de pijplijn zitten voor 2027.

Ze hebben LLM’s aardig kunnen oppoetsen maar maar met een lange complexe context vallen ze toch wel gauw uit elkaar tenzij je alles tot in de puntjes aanlevert en zelfs dan is succes nog niet gegarandeerd.

Ik denk niet dat AI meer weggaat want het is bijzonder handig over het algemeen en voor bepaalde doeleindes zeer krachtig maar zonder daadwerkelijke innovaties zullen de investeringen uiteindelijk stop worden gezet lijkt me zo.
En dat is ook precies wat nu gebeurt. Daadwerkelijke innovaties zijn zeldzaam en komen vaak ook nog uit China, zoals ByteDance's Looped LLMs wat nkg een beetje een laatste stuiptrekking is om nog iets meer uit LLMs te persen.
Ben bang dat het daarna echt op is en we naar andere dingen op zoek moeten.
Dit dus het is geen ai het is een llm met verwachtingswaarden. Soms lijkt het ai maar na twee prompts weet je weer genoeg.
Eigenlijk weten we natuurlijk zelf weinig af van de term en betekenis. We nemen aan dat elk mens een zekere intelligentie heeft, we erkennen zelfs dat sommige dieren eigenlijk wel intelligent zijn.

Maar wij leren natuurlijk ook voornamelijk van anderen, en zijn er maar weinig mensen die echt iets nieuws bedenken. En dan is het vaak nog gewoon afgeleid van andere ideeën.
Maar intelligent is zeker niet hetzelfde als foutloos. Dat zijn wij ook bepaald niet.
Als we al agi hebben bereikt dan is het AGI (Supervised). Er blijft een mens nodig die oplet of de AI geen domme dingen doet.
Zodra agi het denkvermogen van Roger Penrose kan overstijgen zijn we er.
Als ik zie hoe dom de gemiddelde mens is, dan moeten we de drempel voor agi misschien ook niet te hoog leggen. Deze week nog iemand gesproken die dacht dat Artemis 2 missie allemaal in studio’s is opgenomen en niet heeft plaatsgevonden. Naast alle complotdenkers, anti-vaxers, oorlogen, etc etc. Nee, agi zal niet zo ver weg zijn.
Agi is gewoon het volgende buzzword om AI te kunnen bliven verkopen. Niets meer dan dat.
Dit interview van Tegenlicht met Chinese econoom Andy Xie over de AI-bubbel vind ik interessant.

https://tegenlicht.vpro.nl/artikelen/wanneer-barst-de-ai-bubbel

Met niet alles ben ik het eens. Wat ik wel interessant vind is zijn beschouwing dat het Amerikaanse economische denken niet gaat over waarde creëren in de echte wereld, maar over dollars.

Daardoor kan het dat er haast oneindig veel geld gepompt wordt in een technologie waar men naarstig op zoek is naar een nuttig en evenredig doel.

AGI past hier ook in: er wordt een functionaliteit gehypt waarvan ik en menig ander niet kan geloven dat de enorme investeringen in enige relatie staan tot de waarde in mijn dagelijkse leven.

Xie eindigt met wat gebeurt wanneer de bubbel barst. De boodschap is dat we als internationale gemeenschap keihard getoetst worden, omdat het risico bestaat dat landen elkaar de schuld gaan geven.

Tegenlicht heeft meer AI afleveringen - zeker ook de moeite waard.
Wegens het ontbreken van een concrete definitie is het niet moeilijk om steeds de doelpalen te verplaatsen. Telkens AI iets nieuw kan verplaatsen we de doelpalen een beetje. Een mens is steeds op zoek naar iets nieuws, hoop, verlangen, geld verdienen,...

Tot nader order vind ik de grootste meerwaarde van AI LLM's dat ze best wel complementair zijn met de mens. Het is een iets verder geëvolueerde symbiose van mens en computer, een iets efficiëntere GUI voor bepaalde taken.

De mens de creativiteit, logisch denken, interpretatie van de realiteit. De LLM het geheugen, structuur.
"een AI-systeem moet dat bereiken om gezien te worden écht als intelligent. Demis Hassabis, ceo van Google DeepMind,"

-->GEZIEN WORDEN<--

Dus met andere woorden, wij doen ons anders voor dan dat het daadwerkelijk is. Het wat wij momenteel hebben is geen AI. Het is voor geprogrammeerd. Een echte AI kan voor zichzelf nadenken, kan eigen beslissingen nemen op een eigen moraal, kan een mening hebben. Je weet wel, wat je vaker in films ziet. Wat wij nu hebben is geen AI, het is trash!
Ik kan me herinneren dat een groep AI-wetenschappers hebben gezegd dat LLMs niet de weg zijn voor agi.

(Ik kan de bron even niet meer vinden.)

Als voetnoot: zij hadden als vereiste dat ‘een agi’ mechanisme onder andere volledig zelfstandig nieuwe informatie kan leren en echt zelfstandig kan redeneren en niet-bestaande informatie kan beredeneren. LLMs kunnen ‘slechts’ alleen taal maken op basis van wiskunde. Ze kunnen niet ‘leren’ of zelfs maar zelfstandig rekenen (daar roepen ze andere systemen voor aan).

N.b. ik suggereer dus nergens dat LLMs niet hele fijne tools zijn, of dat je er niets mee kunt.

Om te kunnen reageren moet je ingelogd zijn