Google-onderzoekers tonen Titans-architectuur die AI continu laat bijleren

AI-onderzoekers van Google belichten in een wetenschappelijke publicatie een nieuwe architectuur waarmee AI-modellen tijdens gebruik informatie blijven bijleren. Huidige AI-toepassingen zijn beperkt tot de informatie die is meegenomen in hun trainingsfase.

De Google-onderzoekers bouwen voort op eerder gepubliceerd werk, waarin zij een nieuwe architectuur genaamd Titans voorstelden voor continu 'bijlerende' AI. Daardoor kunnen AI-toepassingen een langetermijngeheugen hebben én actuele ontwikkelingen meenemen. De door Google-wetenschappers ontwikkelde Titans-architectuur komt nu samen met een nieuw raamwerk, Miras. Deze combinatie biedt een mogelijk pad naar AI-modellen die up-to-date blijven met nieuwe informatie en actuele ontwikkelingen, schrijft The Decoder.

Dit omvat ook het in real time integreren in het kennisbestand van AI-modellen informatie die gebruikers aandragen in bijvoorbeeld chatgesprekken met een AI-toepassing. Tot op heden is het toevoegen van nieuwe informatie aan AI-modellen een kostbare zaak. Het opnieuw trainen van AI-modellen vereist veel rekenkracht en tijd.

De nieuwe aanpak van de Google-onderzoekers combineert bestaande AI-technieken, zoals recurrent neural networks en transformermodellen, om snelheid te combineren met nauwkeurigheid. In tests zou Titans niet alleen beter presteren dan traditionele AI-modellen op basis van de klassieke transformeraanpak. Ook AI op basis van nieuwe hybride modellen zoals Mamba-2 zou worden voorbijgestreefd door de nieuwe Google-opzet.

Titans-architectuur AI Google bijleren
Een overzicht van de Titans-architectuur ontwikkeld door AI-onderzoekers van Google

Door Jasper Bakker

Nieuwsredacteur

07-12-2025 • 13:31

70

Submitter: tricobalt

Reacties (70)

Sorteer op:

Weergave:

Wat vet dat deze ontwikkeling door blijft gaan.

Dit klopt allen niet helemaal in het artikel.

Tot op heden is het toevoegen van nieuwe informatie aan AI-modellen een kostbare zaak. Het opnieuw trainen van AI-modellen vereist veel rekenkracht en tijd.


Voor hertrainen is inderdaad veel rekenkracht nodig, maar voor het toevoegen van nieuwe data niet. Dat doen je op dit moment alleen op een andere manier met RAG (Retrieval-Augmented Generation). Daarbij voeg je relevante informatie toe aan je prompt (het enige dynamische deel) welke je mee geeft aan een taalmodel. Het model zelf blijft echter ongewijzigd. Dat doen Titans compleet anders.

RAG gebruikt vaak een vector database. Hoe dat werkt is trouwens echt tof. Tekst wordt opgeslagen als numerieke vectoren (embeddings), zoeken gebeurt op semantische nabijheid in plaats van keywords. Dat maakt het hele elegante tech, maar wel een workaround want je prompt groeit (en dat kan niet onbeperkt want context window), en het model zelf blijft statisch. Niet altijd de beste oplossing dus.

Wat Titans doet is fundamenteel anders: het past de interne weights van het model aan tijdens inference. Dat is echt nieuw. Bij RAG "weet" het model niks nieuws, het krijgt alleen extra context mee. Bij Titans leert het model daadwerkelijk bij terwijl je ermee werkt.
Dat maakt Google’s methode wel veel gevoeliger voor data poisoning. Bij RAG kun je in het worst case scenario gewoon het RAG model resetten, vervelend, maar overkoombaar. Ik vraag me af of Google een soort van versioning toe gaat passen om te voorkomen dat het hele model gereset moet worden als een aanvaller bewust modeldata probeert te manipuleren.
RAG is compleet iets anders dan bij trainen en als je informatie probeert toe te voegen die "out of domain" is van de originele trainingsdata dan kan je erg slecht resultaten verwachten. RAG is ten hoogste een hulpmiddel te noemen
In tests zou Titans niet alleen beter presteren dan traditionele AI-modellen op basis van de klassieke transformer-aanpak.
Enigszins offtopic, maar het is toch waanzinnig dat in de context van machine learning al gesproken wordt over “traditioneel” en “klassiek”.
Bubbel of niet, de ontwikkelingen gaan onvoorstelbaar snel.
Inderdaad. Het contrast wordt alleen maar groter als je ziet hoe traag het gesprek over de maatschappelijke consequenties van AI op gang komt. Terwijl technische ontwikkelingen binnen enkele jaren al als traditioneel worden bestempeld, bewegen we op maatschappelijk en normatief vlak nog steeds in slow motion. En nauwelijks iemand lijkt dit echt te willen oppakken, zeker niet zolang de druk vanuit de VS zo sterk blijft. Daardoor laten we ons vooral leiden door wat technisch mogelijk is, zonder eerst vast te stellen wat wenselijk, veilig of maatschappelijk houdbaar is en hoe onze denkpatronen moeten meebewegen. Kijk alleen al naar het onderwijs. AI geeft in feite een democratischer toegang tot kennis en dat vraagt om een ingrijpende herziening van hoe we onderwijs vormgeven. Dat zou op termijn nog behoorlijk ongemakkelijk kunnen worden.

[Reactie gewijzigd door InsanelyHack op 7 december 2025 14:01]

AI geeft in feite een democratischer toegang tot kennis en dat vraagt om een ingrijpende herziening van hoe we onderwijs vormgeven. Dat zou op termijn nog behoorlijk ongemakkelijk kunnen worden.
Ik weet niet exact waar je op doelt maar AI kan leerlingen met verschillende snelheden ondersteunen. Nu vallen veel leerlingen uit de boot opdat de leerkracht geen tijd heeft om hij of zij individueel op te volgen.

Het heeft geen nut om te zeggen ‘zoek het op via ai als je het nodig hebt’. Een ‘domme’ cgeneratie maken zou pas dom zijn.

Zelflerende AI is wel waanzin. Dat wil zeggen dat AI net zoals een kind live kan bijleren en dat jij het onbewust continu kan bijsturen net zoals je een stagiaire zou opleiden. Maar het zou ook kunnen leren om een stem na te bootsen.

Het aantal kwalitatieve lijnen code dat de mensheid produceren had een limiet. Namelijk aantal hoogopgeleide senior devs x hun beschikbare tijd. Op wereldschaal is dat heel weinig.

Maar nu komen we op een kantelpunt. AI gaat zo snel gaan dat het aantal kwalitatieve aantal lijnen code zo gaat toenemen. 200 jaar digitale evolutie gaan we nu in een versneld tempo in 20jaar meemaken. En dan heb je nog de agents die alles aan elkaar verbinden. Die hun IS stijgt ook elk jaar.

Tot op het punt dat enkel AI, AI kan verbeteren omdat wij het simpelweg niet meer beter kunnen.

20jaar van nu ziet de wereld er compleet anders uit. Elk mogelijk job met een servicelaag gaat er aan. Het is nog maar de vraag welk bedrijf eerst 1miljard omzet zal draaien zonder 1 personeelslid. Dus 100% AI.
Rewind 50 jaar. Exact hetzelfde narratief over robots en automatisering

Rewind 150 jaar. Exact hetzelfde narratief over de stoommachine en industrialisatie

Rewind 400 jaar, zelfde narratief mbt opkomende wetenschap uit oogpunt van religie.

Dingen veranderen nu eenmaal en laat nu net de mensheid daar goed mee om kunnen gaan. Ik durf er eerder op te wedden dat onze kleinkinderen supergave dingen doen met AI die we nu niet eens kunnen voorspellen, dan dat het een enorme distopie wordt.
Ik denk dat je je daarin vergist.

Er is nauwelijks een vakgebied te bedenken wat niet door AI geraakt zou kunnen worden. Het gaat echt niet alleen over software ontwikkelaars of mensen die de administratie doen. AI biedt in de toekomst ongekende mogelijkheden tot automatiseren. Denk bijv. aan automonteurs waarbij AI robots vele malen sneller kunnen troubleshooten dan mensen. Controle van je boodschappen. Etc.. In combinatie met robots (en die ontwikkeling gaat ook zeer snel) valt bijna al het menselijk werk wel te automatiseren.

Als samenleving is het naar mijn mening onze collectieve verantwoordelijkheid om te zorgen dat we als mensen een zinvol leven kunnen leiden. Met de enorme potentie van automatisering van AI gaat dat naar mijn mening vroeg of laat in het gedrang komen. Veel mensen gaan een zinvol bestaan verliezen ten koste van enorme winsten van multinationals. En dat gaat vroeg of laat tot een enorme recessie leiden als de middeninkomens niet meer meedoen. De onderlaag is al een tijdje afgehaakt. Het midden gaat volgen.
Als samenleving is het naar mijn mening onze collectieve verantwoordelijkheid om te zorgen dat we als mensen een zinvol leven kunnen leiden. Met de enorme potentie van automatisering van AI gaat dat naar mijn mening vroeg of laat in het gedrang komen
Ik vind dag en nacht moeten werken anders ver van een zinvol leven leiden, dat is niet meer dan een mening dat de standaard is geworden in onze samenleving. JE MOET WERKEN.. je kan het zo ver brengen door te zeggen dat je bijna geboren bent om te werken, het is immers iets waar de meeste mensen verre weg het meeste van hun tijd in stoppen..

Als AI veel van deze taken overneemt, is het leven niet opeens zinloos geworden, in tegendeel als mensen daar meer vrije tijd door zouden krijgen is dat in mijn mening veel zinvoller.

Natuurlijk als dat gebeurd zal er een tijd zijn dat het vervelend kan zijn, maar jaren laten weet niemand meer beter en zouden ze je bijvoorbeeld uitlachten als jij claimed dat je jaren geleden 5 dagen in de week 8 uur per dag werkte voor je leven.
Van mij moet je helemaal niets, maar ik hoop dat veel mensen toch enigszins plezier hebben in hun werk. Ik heb dat in ieder geval doorgaans wel.

Het probleem waar ik mee zit is dit: leuk al die vrije tijd, maar hoe ga je dan je brood op de plank krijgen? Anders gezegd: als jouw werkgever jouw salaris betaald aan een multinational met een mooi LLM model dat het net zo goed doet, waarom zou die jou nog betalen dan?

En ja, ik weet dat die modellen nog niet goed genoeg zijn, maar dat moment gaat heus wel komen.
Tegen die tijd zal er gewoon meer moeten veranderen om dit te laten werken in de samenleving, hoe precies geen flauw idee maar in dat geval kan je niet anders dan met de tijd mee gaan en zaken veranderen.

Vroeger had je vast ook banen die nu zo goed als verdwenen zijn door automatisering.. dat is niet iets nieuw
maar ik hoop dat veel mensen toch enigszins plezier hebben in hun werk
Ik kan het helemaal mis hebben, maar echt plezier in je werk? ik denk dat dit er relatief maar zeer weinig mensen zijn die dat echt hebben, voor de meeste is het gewoon een noodzakelijke verplichting

Mij zelf als voorbeeld, ik werk in de IT en dat is ook altijd me hobby geweest, ik vind me werk niet vervelend en ga niet met tegenzin naar me werk... maar als je mij zou vragen wat ik liever doe, werken of vrije tijd... is het antwoord voor mij echt extreem simpel

Ik zo dan ook groot voorstander zijn van bijvoorbeeld 4 dagen werken als standaard

[Reactie gewijzigd door Sinester op 8 december 2025 09:02]

Mij zelf als voorbeeld, ik werk in de IT en dat is ook altijd me hobby geweest, ik vind me werk niet vervelend en ga niet met tegenzin naar me werk... maar als je mij zou vragen wat ik liever doe, werken of vrije tijd... is het antwoord voor mij echt extreem simpel
Verschilt per functie, werkgever, collega's, thuissituatie. Voor een random bedrijf waar je geen binding mee hebt, is heel iets anders dan voor een organisatie werken met een maatschappelijke functie. Al is het loon bij de laatste vaak lager.

Ik denk juist dat AI een nuttige toevoeging kan zijn, met name gezien we vergrijzing tegemoet gaan zien. Helaas denken mensen bij AI teveel aan een blackbox LLM die halve internet heeft ge-indexed. Nee, zoiets zie ik liever niet in het onderwijs, maar gezien lerarentekort zou het me niet verbazen als we dat vrolijk gaan normaliseren.

Het tweede voorbeeld: ik ga niet veel betalen voor een grote beurt die gedaan is door AI. Ten eerste omdat iedere sukkel zo'n AI zou kunnen draaien, en ten tweede omdat ik de kwaliteit niet zonder meer vertrouw. De overheid zou dat ook niet 1:1 moeten accepteren. Het kan wel een monteur helpen maar daarom schreef ik hierboven ook toevoeging. Het is geen vervanging.

Het andere voorbeeld van @Glashelder ('Controle van je boodschappen.') vind ik misschien nog wel meer nutteloos (nog even afgezien dat men maar moet bewijzen dat de blackbox niet discrimineert). Want nu staan er twee goedkope truusjes bij de uitgang van de supermarkt die steekproeven uitvoeren. Het scannen gaat al snel d.m.v. barcodes, en als je kijkt wat die health food store van Amazon zoal moest draaien qua camera's denk ik dat dat overkill is t.o.v. wat je er voor terug zou krijgen. Die twee truusjes zijn veel goedkoper dan die 2000 camera's, en als er ooit een tijd komt dat dat zou veranderen nou dan doe je het dan met camera's. Mij maakt het niet uit. Ik kom nooit in een supermarkt. Wij bestellen online, en daar is ook al veel geautomatiseerd. De autonome auto's/busjes vallen vooralsnog tegen vanwege edge cases. We zien hier weer een patroon: toevoeging, niet vervanging.

Ook qua programmeren. Je kunt niet zo even iets met succes vibe coden, je zult de code ook moeten begrijpen. Of althans, iemand moet dat begrijpen. Anders krijg je rommel en risico dat je niet in productie moet willen draaien. Hetzelfde laken en pak: toevoeging, niet vervanging.

Toevoeging kan druk/tijd schelen van experts, begrijp me niet verkeerd. Maar vervanging? Nee, dat zie ik niet snel zitten. Je zult eerst alle false positives, true negatives, en false negatives goed eruit moeten filteren.
Ik zo dan ook groot voorstander zijn van bijvoorbeeld 4 dagen werken als standaard
Ja, met VrijMiBo zit je al aan 4,5 dag.

Studies wijzen al uit dat mensen die 4 dagen per week werken, net zo hard werken als mensen die 5 dagen per week werken. Je bent dus eigenlijk een dief van je eigen portemonnee als je als werkgever voor 5 dagen gaat.

NB: als jij vastzit in je werk, en je gaat lunchen en ondertussen krijg je inspiratie over je probleem, dan ben je eigenlijk nog aan het werk. Krijg je een werkgerateerd telefoontje terwijl je thuis aan het koken bent, ben je op dat moment ook aan het werk. Dit kan uiteindelijk behoorlijk in de uren lopen, onbetaalde arbeid. Want je brein gewoon de vrije loop laten tijdens een wandeling, kan veel waardevolle inspiratie bieden, en toch zal men dat niet als zodanig waarderen.

[Reactie gewijzigd door Jerie op 8 december 2025 10:25]

Het probleem waar ik mee zit is dit: leuk al die vrije tijd, maar hoe ga je dan je brood op de plank krijgen? Anders gezegd: als jouw werkgever jouw salaris betaald aan een multinational met een mooi LLM model dat het net zo goed doet, waarom zou die jou nog betalen dan?

En ja, ik weet dat die modellen nog niet goed genoeg zijn, maar dat moment gaat heus wel komen.
De grap van dit hele gebeuren is dit:
Als de big tech / hyper-kapitalisme het voor elkaar krijgt alles en iedereen weg te automatiseren is er niemand meer om producten te kopen / diensten af te nemen. De vraag verdwijnt, waardoor produceren / diensten leveren zinloos is geworden. Het is, anders gezegd, het doodvonnis van het kapitalisme.

En wat zullen al die werkloze mensen gaan doen die toch bepaalde zaken nodig hebben voor hun levensonderhoud? Zelf maken / verbouwen en ruilen (want niemand heeft meer geld, want: geen werk).
Dit is precies wat ik me ook afvraag :)
Software developers gaan niet vervangen worden door AI ze worden vervangen door andere software developers die AI gebruiken.

AI zal nooit betrouwbaar genoeg zijn om een heel project zelf bij te houden samen met iemand die geen code kan schrijven. Je leert op scholen nu al bij software developer het slim toepassen van AI.
Ik denk ook dat jij je vergist en dat het tegendeel waar is. Uiteindelijk zal alleen AI in staat zijn om softwareprojecten nog te begrijpen. Als mensheid zijnde maken we het onszelf altijd makkelijker, en met programmeren is dat niet anders want anders zouden we nog assembly schrijven. Om naar de toekomst te kijken hoef je alleen maar te kijken naar het verleden. Hoeveel mensen kunnen vandaag de dag nog assembly? Om dezelfde reden gaat het aantal mensen dat software kan ontwikkelen afnemen omdat AI dat over gaat nemen.

En ja, de kwaliteit zal achteruit gaan. Dat merk je nu al. Maar de productiviteit gaat omhoog in de ogen van het management want er worden meer features afgeleverd. Dat geen mens straks de codebase nog kan volgen vinden ze niet belangrijk want AI kan dat wel.
Ik denk dat je bedoelt llm’s gaan nooit software development vervangen. Er zijn meer aanpakken en uiteindelijk gaat software development zeker eraan… maar voorlopig is het niet zover :)
Exact dit narratief zeiden ze ook bij…. Nou ja, lees mijn post nog maar eena terug…..
Dank voor je visie, zo kijk ik er ook naar. Maar er is wél een “maar”: disruptie slaat soms keihard toe. We vergeten vaak hoe pijnlijk een snelle revolutie eigenlijk is. Een miljoen doden door hongersnood is historisch gezien niet uitzonderlijk. Uiteindelijk komt het meestal ‘goed’, maar dat ene leven vol ellende wordt gemakkelijk vergeten.

Leef maar eens onder Stalin. Ook dat was “vernieuwing”, maar dan op de meest brute manier. Arbeiders tijdens de industriële revolutie gingen door dezelfde molen.

Met AI gaan we hopelijk ook een nieuw evenwicht moeten vinden.

De echte vraag is: hoe hard komt de klap, en hoe diep raakt ze de mensen die net in dat tijdvak leven? Snelheid is alles. Hoe sneller de shift, hoe zwaarder de impact. Regimewissels, oorlogen — allemaal voorbeelden van hoe verandering meedogenloos kan toeslaan.

Het verschil is nu: zowel productie als intellect verschuiven naar AI. Waar een machine vroeger een IQ van 0,001 had, spreken we nu over systemen met een potentieel IQ van 150+. De schaal van dat affect is gewoon exponentieel groter op machine én intellect.

Puur filosofisch zitten we in een uniek tijdperk want mens en machine zijn gescheiden. Je kan er gif op innemen dat, dat paradigma ooit anders zal zijn. AI is een ‘ras apart’. Letterlijk en figuurlijk.

Ik hoop uiteraard dat we er een goede uitweg voor vinden. Paniek helpt niet, maar laten we niet doen alsof dit geen historische breuklijn is. Het is misschien wel de meest extreme transformatie in de menselijke geschiedenis.

Honderdduizend jaar bijna niets, dan de industriële revolutie ×1000, en nu iets dat nóg exponentiëler gaat. Het idee dat mensen moeten werken en produceren is vandaag logisch, maar wordt op termijn gewoon niet meer realistisch.

De betekenis van mens-zijn zal veranderen — en dat wordt misschien wel de echte uitdaging. De lijn gaat flinterdun worden. Maar dat zijn mogelijk zorgen voor andere generaties.
Zeker, dat gaat echt een uitdaging worden. Ik hoop dat de samenleving weerstand kan bieden tegen de musks en trumps van deze wereld want die dien alleen maar ikke ikke ikke en de rest kan stikke
De roaring twenties van de vorige eeuw werden in Europa gekenmerkt door mensen die moesten werken om te overleven, en daar vaak te weinig voor terugkregen om te kunnen overleven.

De industriële revolutie zorgde ervoor dat men kinderen ging inzetten bij machines, omdat volwassenen met kennis en vaardigheden zeldzaam en kostbaarder waren.

Geloof leert de mens dat het oké is om met weinig te leven(oftewel uitgebuit te worden) en dat je daar blij om moet zijn.

Elk van de revoluties die je noemde kun je ook in het licht zetten als rijke mensen die de plebs onderdrukten en dat steeds langer proberen te rekken.

Daarnaast zie ik al op de termijn dat AI nu bestaat en gebruikt wordt, dat mensen er lui van worden. Waar vroeger informatie opvragen betekende dat je naar de bibliotheek moest, en later diverse sites bezoeken om te vinden wat je nodig had, is nu simpelweg je vraag in google intikken.

Er wordt op massale schaal content gecreëerd voor je kinderen die frames van maximaal 2 seconden laat zien, waardoor je kinderen geen nuttige programma's zoals BBC Eyewitness/Ooggetuigen kunnen kijken, omdat hun aandachtsspan dat niet meer toelaat. Laat staan dat ze in de klas hun hoofd bij de les kunnen houden.

Voor je AI gaat prijzen als een geweldige nieuwe uitvinding, besef dat de grootste uitvinders vaak spijt kregen van wat hun creatie heeft aangericht, denk aan de Wright Brothers, Oppenheimer, Tim Berners-Lee, en velen anderen.
En ook hier: vroegah… leerde ik een sinus en wortel uitrekenen… met de hand. Dat doen we nu niet meer.

Nog niet zo lang geleden kon nasa een raket naar de maan schieten en weer terug laten komen, 0p een chippie dat minder kan dan je deurbel. Kunnen we ook niet meer

Vuur maken zonder lucifers? Vraag dat aan precilla de keuken prinses, “vuur whaat??? Ik kook op inductie”(als za al kan koken, nog zo’n skill die verloren gaat)

Zo kunnen nog doorgaan. Ik ga AI zeker niet prijzen, maar laten we reeël zijn, onze kids weten straks niet beter, net zoals wij nu onze smartphone for granted nemen. Kunnen we beter nadenken over hoe ze daar dan mee om moeten gaan ipv er bang voor te zijn
Ik had het over AI die kinderen helpt om te leren op hun eigen tempo. Adaptief leren ipv iedereen aan de zelfde snelheid en op de zelfde methode omdat leeraars geen tijd hebben voor individuele trajecten.

Dus ik begrijp niet goed uit welke hoek uw reactie komt.

Haha: edit, ik dacht dat je reageerde op een andere post.

Ik denk wel dat ik genuanceerd was ik mijn post. Ik zei bijv “Het is misschien wel de meest extreme transformatie in de menselijke geschiedenis.”

Dusja het gaat om ons afkomen. Nu het beste er van maken.

[Reactie gewijzigd door Coolstart op 8 december 2025 21:12]

In het kort? We hebben een onderwijssysteem dat draait op schaarste (kennis, tijd, cognitieve capaciteit), terwijl AI juist overvloed creëert.

Maar ik bedoel eigenlijk iets anders dan individuele ondersteuning of differentiatie in het klaslokaal. Onderwijs is van oorsprong gebouwd op het idee dat kennis paraat hebben en zelf verbanden kunnen leggen het bewijs vormt van je competentie. Een diploma staat daarmee symbool voor een nominaal niveau binnen een Gaussverdeling, van minder tot meer cognitief vaardige leerlingen, maar altijd met een onderliggende aanname dat kennis en redeneren vaardigheden zijn die je zelf moet bezitten.

AI doorbreekt precies dat fundament. Feitenkennis is niet langer schaars, en het vermogen om verbanden te leggen kun je aan een model vragen dat dat sneller en vollediger doet dan jij. De toetsing verandert daardoor volledig. Als AI in realtime feiten, interpretaties en redeneringen kan genereren, dan is de waarde van een diploma als bewijs van jouw kennis ineens veel minder vanzelfsprekend. Niet omdat leerlingen dommer worden, maar omdat het hele criterium waarop we bekwaamheid meten verschuift.

Wat betekent ‘leren’ nog als externe cognitieve capaciteit vrijwel onbeperkt beschikbaar is? Ik denk dat dit het onderwijs de komende decennia fundamenteel gaat veranderen. Niet alleen het tempo of de hulpmiddelen, maar het hele concept van wat we meten, waarderen en certificeren.
Je kan zelf geen verbanden leggen als je de basis niet begrijpt. Onder je 18 leer je die basis. Absolute basis.

Je leert schrijven, lezen en rekenen. Je leert over de aarde, geografie, geschiedenis etc. Moet dat dan allemaal op de schop?

Nee dus. Je hebt die basis nodig. Hoe kan je redeneren zonder basis? Hoe kan je kritisch denken zonder basis?

Parate kennis is nodig. Als je niet weet wat de geschiedenis van Zwitserland is begrijp je geopolitiek niet. Als je niet weet wat fotosynthese is begrijp je niet waarom een plant co2 en zonlicht nodig heeft. Als je niet weet dat een walvis een zoogdier is begrijp je niets van de evolutie.

Als je niets begrijpt en niets paraat kent kan je ook geen verbanden leggen en ook niet kritisch denken. Als je Dunning-Kruger effect niet kent, hoe kan je dan ooit het fenomeen reaguren begrijpen?

Het onderwijs gaat transformeren door meer excellentie. Vroeger leerde je de basis van een leerkracht. Dat gaat op de schop. Leerlingen gaan net slimmer worden omdat informatie en begrip op maat wordt gegeven.

Ik ben eens benieuwd welke basis jij uit kinderen wil weglaten.

[Reactie gewijzigd door Coolstart op 8 december 2025 10:32]

Ik pleit niet voor minder basis, maar voor een herziening van wat we later in de leerlijn beschouwen als bewijs van zelfstandige competentie. In een wereld waar AI feiten en verbanden direct levert, kan een diploma niet meer uitsluitend gebouwd zijn op parate kennis. Dan gaat het steeds meer om interpretatie, creativiteit, oordeelsvorming en het kunnen sturen van AI als cognitieve extensie. Dat is de transitie die ik bedoel en die het onderwijs structureel gaat raken. De basis blijft maar de top van de piramide verandert.
Ik pleit niet voor minder basis, maar voor een herziening van wat we later in de leerlijn beschouwen als bewijs van zelfstandige competentie.
Ok dat had ik niet begrepen uit uw betoog. Wel verwarrend allemaal want je zegt over het onderwijs letterlijk: " maar altijd met een onderliggende aanname dat kennis en redeneren vaardigheden zijn die je zelf moet bezitten. --> En dat is idd zo. Je moet dat zelf kunnen. Daar zou een mens niet mogen steunen op AI.

Als ik het goed begrijp wil jij zeggen is dat dat er een competentie bijkomt bovenop de klassieke basiskennis en basisvaardigeden? Je kan toch de klassieke basiskennis en basisvaardigeden niet wegdenken? je kan parate kennis toch niet wegdenken? Het is niet dat kinderen nog telefoonboeken vanbuiten moeten leren.

Dan zeg je over die transitie van het onderwijs dat: "Dan gaat het steeds meer om interpretatie, creativiteit, oordeelsvorming en het kunnen sturen van AI als cognitieve extensie."

Ik heb het eerder moeilijk met die zin te begrijpen omdat je niet letterlijk zegt wat we nu missen. Het onderwijs laat ons toch ook redeneren? Of niet genoeg? Moeten we meer evolueren naar methodescholen? Dat bestaat al geruime tijd. Of moeten we meer inzetten om kritisch denken en empatisch en moreel leiderschap?

Wat wel extreem zal veranderen is hoe wij onderwezen worden. Het onderwijs met 1 leerkracht en 20 leerlingen die allemaal even snel gaan is ouderwets. Ook het idee dat je met amper 5,5/10 'erdoor bent' is een prehistorisch. Dat doen we nu omdat het anders praktisch onmogelijk wordt om elk kind apart op te volgen op zijn snelheid.

AI kan wel elke leerling in detail opvolgen en de info zo presenteren dat het past binnen zijn of haar natuurlijk opgebouwde basiskennis past als volgende leerblokje. Elk kind zal dan op basis van zijn interesse en type hersenen zich kunnen ontwikkelen, redeneren etc. Elk kind leert anders. Sommige kinderen hebben afbeeldingen nodig omdat hun brein niets van 'inbeelden'. Sommige kinderen hebben extreme interesse's.

Het kan best zijn dat sommige kinderen al op hun 10 jaar het Basisonderwijs afronden en zich al op hun 16 jaar kunnen specialiseren als arts, chemicus of loodgieter. Dat zou pas een revolutie zijn. Elk kind zijn eigen traject, 100% op maat.

En daar bovenop meer focus op idd "creativiteit, oordeelsvorming." Ik noem dat eerder kritisch denken omdat die term alles omvat. Niet iedereen begrijpt die term, net omdat er zoveel inzit.

Kritisch denken is het geïntegreerde vermogen om kennis, context, logica en reflectie doelgericht te gebruiken om informatie, argumenten en beslissingen onderbouwd, proportioneel en zelfstandig te beoordelen.

Daarvoor heb je echt wel basiskennis nodig die je zelf bezit. Wie het verschil niet kent tussen correlatie vs causaliteit kan niet kritisch denken. Je hebt referentiekaders nodig om bijv instant plausibiliteit of proportionaliteit te kunnen inschatten in uw Prioritisering van de informatiestroom.
Ik pleit helemaal niet voor het schrappen van basiskennis. Lezen, schrijven, rekenen en algemene vorming blijven noodzakelijk om verbanden te kunnen leggen en kritisch te denken. Daar zijn we het volledig over eens.

Wat ik bedoel, is dat AI niet de basis verandert, maar de manier waarop we competentie aantonen. Nu is parate kennis nog een belangrijk selectiemechanisme. In een wereld waar AI feiten én redeneringen direct levert, verschuift dat onvermijdelijk. Je hebt de basis nog steeds nodig, maar vooral om AI te kunnen begrijpen, beoordelen en bijsturen.

In die zin komt er een competentie bij: kunnen omgaan met AI als cognitieve extensie, en onderscheid kunnen maken tussen valide en onzinnige output. Het onderwijs leert nu wel redeneren, maar vertrekt nog altijd vanuit het idee dat kennis schaars is en dat je die primair zelf moet paraat hebben. Dat paradigma kantelt.

Daar sluit jouw punt over gepersonaliseerd leren perfect op aan: AI maakt maatwerk mogelijk voor elk kind. Maar juist daarom verschuift het zwaartepunt van toetsing: minder nadruk op wat je uit je hoofd weet, meer op kritisch denken, interpretatie en oordeelsvorming.

De basis blijft dus staan, alleen de bewijslaag verandert.
Ok als enkel de bewijslaag verandert, verandert er relatief weinig. En hoe ga je dat bewijzen? Via een scriptie of eindproef? Via een nieuwe test? Sowieso ga je eerst parate kennis moeten bewijzen want we zijn het eens dat het minimum is. Zonder dat moet je zelfs niet naar de volgende stap gaan. Het is een Kip-ei verhaal. Dus ik begrijp uw redenering niet.
Nu is parate kennis nog een belangrijk selectiemechanisme.
Dat zal het altijd blijven.Altijd. Het is én én. En parate kennis én de toepassing. Ik zie het echt niet hoe het anders kan. Je kan toch niemand een diploma archeologie geven als die niet kan antwoorden op een simpele vraag over Neolithische revolutie? Dat is toch eerste en makkelijkste om te testen? Ook bij kinderen is dat zo.
Het kunnen omgaan met AI als cognitieve extensie, en onderscheid kunnen maken tussen valide en onzinnige output. Je hebt de basis nog steeds nodig, maar vooral om AI te kunnen begrijpen, beoordelen en bijsturen.
Ik probeer het te begrijpen: Het gaat dus over die 'extra' competentie om AI te controleren en te besturen. Maar we gaan dat nooit beter kunnen dan AI zelf omdat we simpelweg dommer zullen zijn. Jij denkt nog in termen waar AI 'dom' is en moet bijgestuurd worden en bullshit uitkraamt. Dit artikel heeft het al over "klassieke transformeraanpak." Dus de AI die we nu kennen.

Ik wil best geloven dat we meer nadruk moeten leggen op de toepassing van parate kennis en dat de selectiecriteria anders iets zal verlopen maar ik zie daar geen revolutie of paradigmashift van het onderwijs.

"Het kunnen omgaan met AI als cognitieve extensie" Ik begrijp het gewoon niet ondanks ik moeite doe. Ik zie daar echt geen nieuwe skill in omdat er AI is. Geef mij dan een concreet voorbeeld.

Stel uw persoonlijke AI stelt voor om dit jaar geen vlees mee te eten omdat je zo mee de huisprijzen opdrijft en de natuur belemmert. Wat is het verschil of dat idee nu van AI kwam of van uw leerkracht of een boek? En hoe zou een nieuw schoolsysteem hier selectiecriteria op toekennen? Hoe moet ik reageren om goed te scoren op "omgaan met AI als cognitieve extensie". Hoe ga jij oordelen over de kwaliteit van "AI te kunnen begrijpen, beoordelen en bijsturen"?
Het onderwijs leert nu wel redeneren, maar vertrekt nog altijd vanuit het idee dat kennis schaars is en dat je die primair zelf moet paraat hebben. Dat paradigma kantelt.
Maar nee. Dat paradigma is al decenia geleden veranderd. De opkomst van het internet heeft informatie ook vrij gemaakt en dat ging traag maar gestaag. Met AI gaat dat gewoon verder in de zelfde trend. Ik zie echt geen verschil. Gewoon meer van het zelfde. Evolutie.
Nu is parate kennis nog een belangrijk selectiemechanisme. In een wereld waar AI feiten én redeneringen direct levert, verschuift dat onvermijdelijk.
Maar waarom?

Je zou ook kunnen zeggen "Je moet naast parate kennis ook kennis kunnen opzoeken in Google." Dat is even waar als uw statement. Ja dat is waar maar of dat nu zo'n ding is...mensen leren dat ook gewoon van nature. Het onderwijs moet zich hiervoor ook niet volledig aanpassen en anders organiseren.

Het zelfde met AI. Of dat er nu is of niet, wat doet dat met de parate kennis van kinderen. AI gaat ook niets veranderen rond hoe we competentie aantonen. Gewoon niets. Basisonderwijs = de basis begrijpen. Leren schrijven, spreken, rekenen. De natuur begrijpen, de wereld begrijpen etc.

Het kan zijn dat er een vak bijkomt. 'Omgaan met AI.' Dat kan best zijn.
Interessant hoe je het schetst, maar het roept bij mij vooral veel vragen op.

Als parate kennis altijd hét primaire selectiemechanisme blijft, hoe verhoudt zich dat tot een wereld waar AI bijna alle feiten sneller en foutlozer paraat heeft dan wij? Wat toetst het diploma dan precies: kennis, of iets anders?

Je zegt dat AI “dommer” blijft dan wij. Op basis waarvan ga je daarvan uit, zeker nu we telkens zien dat modellagen structureel complexer worden? En als AI straks wél betere logica hanteert, wat betekent dat voor menselijke toetsing?

Je stelt dat het paradigma al is gekanteld met het internet. Als dat zo is, waarom is het onderwijs nog steeds grotendeels gebaseerd op individuele reproductie van kennis, terwijl niemand meer zonder digitaal hulpmiddel werkt?

Je zegt dat competenties rond AI slechts een extra vakje worden. Maar als AI niet alleen informatie geeft maar ook conclusies trekt, is “kritisch blijven ten opzichte van externe redeneringen” dan nog steeds een simpele toevoeging? Of verandert dat toch de kern van wat we meten?

Als we een kind nu beoordelen op feitenkennis, hoe ga je dan toetsen of het kritisch kan omgaan met AI-redeneringen? Is dat met dezelfde vormen van testen als nu? Of vraagt dat een ander soort evaluatie?

En als je zegt dat basiskennis een voorwaarde is: klopt het dan dat de kernvraag niet is of de basis blijft, maar wat je boven die basis beschouwt als bewijs van bekwaamheid?

Je noemt gepersonaliseerde trajecten een revolutie. Hoe past dat binnen een systeem dat blijft selecteren op één uniforme set parate feiten?

En je stelt dat AI niets verandert aan het aantonen van competentie. Maar als AI redeneringen levert die menselijk lijken, hoe bewijs je dan nog dat een mens een redenering zelfstandig kan maken? Welke toetsvorm kan dat nog betrouwbaar scheiden?

Als AI steeds beter wordt in logisch denken dan de mens, waarom zou het toetskader dan niet verschuiven naar het beoordelen van menselijke oordeelsvorming ín relatie tot AI, in plaats van naast AI?
Je zegt dat AI “dommer” blijft dan wij. Op basis waarvan ga je daarvan uit, zeker nu we telkens zien dat modellagen structureel complexer worden?
Dat zeg ik niet: "Maar we gaan dat nooit beter kunnen dan AI zelf omdat we simpelweg dommer zullen zijn. " Dus AI zal slimmer zijn dan wij mensen. Zeker over tijd.
Als parate kennis altijd hét primaire selectiemechanisme blijft, hoe verhoudt zich dat tot een wereld waar AI bijna alle feiten sneller en foutlozer paraat heeft dan wij? Wat toetst het diploma dan precies: kennis, of iets anders?
Dat hangt toch af van het examen of examenvraag? Wanneer startte de Arabische lente? Het antwoord is waarschijnlijk parate kennis en is makkelijk punten op te geven. Maar als de vraag is 'Denk je dat de Arabische lente ook in Europa kan voorkomen' Daarvoor moet je diep nadenken en goed/fout is lastiger te interpreteren. Daarom dat men zo'n vragen minder snel stelt.
Je stelt dat het paradigma al is gekanteld met het internet. Als dat zo is, waarom is het onderwijs nog steeds grotendeels gebaseerd op individuele reproductie van kennis, terwijl niemand meer zonder digitaal hulpmiddel werkt?
Omdat individuele reproductie van kennis de absolute basis is. Het is als vragen waarom boten nog steeds op water varen nu dat er ook vliegtuigen zijn.
Maar als AI niet alleen informatie geeft maar ook conclusies trekt, is “kritisch blijven ten opzichte van externe redeneringen” dan nog steeds een simpele toevoeging? Of verandert dat toch de kern van wat we meten?
Ik zie geen verschil. Je moet toch ook nu kritisch zijn? Ik zie geen verschil.

Verder stel je 5x de zelfde vraag --> Omgaan met AI als basis-selectiecriteria bovenop parate kennis.--> Ik denk niet dat het basis-onderwijs daar extra criteria zal voor uitwerken al zou ik kritisch denken wel als een apart vak willen zien omdat het volgens mijn inzien de samenleving positief beinvloed. En dat zou je kan ook in staat moeten stellen om te gaan met geavanceerde AI in uw eindoordeel.
Je noemt gepersonaliseerde trajecten een revolutie. Hoe past dat binnen een systeem dat blijft selecteren op één uniforme set parate feiten?
Nee, helemaal niet. Het min doel is die parate kennis aan te leren. Niet om dat te toesten. AI is slim genoeg om zelf aan te voelen of je iets al kan of niet om naar de volgende stap te gaan. Als je niet begrijpt wat plus en min is zou ik nog niet starten met vermenigvuldigingen.

Parate kennis-test is ook gewoon een snelle test van mensen voor mensen. Een praktisch haalbare test.

Een één uniforme set parate feiten is een belangrijke basis. Dat is de minimum. Meer kan natuurlijk. Dan ga je bijvoorbeeld naar het hoger onderwijs want je kan de basis. Je kan rekenen en schrijven. Nu er een specialisatie opbouwen of je gaat ergens stage doen op uw niveau. Je kan ook topsporter worden etc.

Jij vraagt je gewoon af hoe we gaan omgaan met een super AI die in bijna alles beter is en wij overbodig worden. Hoe gaan ze onze tijd besteden? Dat is een ander vraagstuk.
Ons verschil zit vooral hierin: jij ziet AI als een extra hulpmiddel bovenop het bestaande onderwijssysteem, terwijl ik denk dat AI de rol van parate kennis in de toetsing fundamenteel verandert. Dat is geen kwestie van goed of fout, maar gewoon een andere manier van kijken naar de toekomst.

We hoeven elkaar daarin niet te overtuigen. Het is prima dat we dit verschillend zien.

[Reactie gewijzigd door InsanelyHack op 8 december 2025 15:20]

terwijl ik denk dat AI de rol van parate kennis in de toetsing fundamenteel verandert.
Ik begrijp waar je op doelt. Maar hoe maak je dat idee concreet? Hoe ga je mensen dan toesten in het basisonderwijs in het AI tijdperk?

Jij laat vallen dat je moet toetsen hoe je AI kan managen. Maar ik zie niet hoe. Je geeft geen antwoord.

Ik denk dat we het universeler moeten aanpakken. Kritisch denken is key. Dat staat los van AI want de AI mogelijkheden veranderen toch elke x jaar.
Ik hoef hier helemaal niet met antwoorden te komen. Ik zei letterlijk alleen dat ik denk dat dit het onderwijs de komende decennia fundamenteel gaat veranderen, en dat denk ik nog steeds. Jouw tegenargumenten veranderen daar niets aan.

Ik waardeer je betrokkenheid en het debat oprecht, maar volgens mij heeft het weinig zin hier harde conclusies van te maken als we vooral gedachten en inzichten uitwisselen. Dat was precies mijn insteek.

[Reactie gewijzigd door InsanelyHack op 8 december 2025 21:59]

[...]

Enigszins offtopic, maar het is toch waanzinnig dat in de context van machine learning al gesproken wordt over “traditioneel” en “klassiek”.
Bubbel of niet, de ontwikkelingen gaan onvoorstelbaar snel.
Er kan net zo goed gesproken worden over versie x en versie x+n. Dus over eerder over een upgrade, waarbij er vooral 'onder de motorkap' is gewerkt. Dit al verzwakt/relativeert de snelheid (enigszins). Het is gewoon een piece of shit stukje software...
offtopic:
Oh, en Skynet, die bestaat al lang, hoe we krijgen anders gepersonaliseerde advertenties?

[Reactie gewijzigd door 86ul op 7 december 2025 14:27]

Ja en nee. "Klassiek" bestaat al tientallen jaren alleen is het pas de laatste ca. 10 jaar mogelijk om daar praktische toepassingen mee te maken. Vanuit de gemiddelde eindgebruiker is het nog steeds nieuw, maar voor wetenschappers is het niets nieuws meer.
Precies. Één begrip dat laat zien dat AI ouder is dan ChatGPT is de ai winter

[Reactie gewijzigd door Thonz op 7 december 2025 21:19]

Valt mee. Ik heb een boek uit 2011 waarin deze "klassieke" methoden al worden uitgelegd. En dat boek is nog weer een vertaling en zoveelste editie van een origineel uit 2009. Zo nieuw is dat allemaal niet eens. Was gewoon onderdeel van mijn bachelor. In bepaalde kringen was dat toen al een beetje gemeengoed aan het worden.

Wat wel nieuw is, is hoe ver al die methoden nu worden genomen. In 2011 was het veel meer een onderzoeksdingetje. Een enkele keer hoorde je misschien over een OpenAI die een AI had getraind om Dota te spelen. Of een chatbot die daadwerkelijk wel wat leerde maar die ook enorm voorspelbaar was en binnen mum van tijd in een nazi veranderde. Dat was toen nog geen LLM. Oh, en schaakmachines, maar de eerste met machine learning kwam ook wat later, ik geloof dat dat AlphaZero was in 2017.

Dat het echt hard is doorontwikkeld, is wel iets van vooral de afgelopen ±5 jaar. De modellen die we nu bouwen zijn veel geavanceerder dan in de jaren ervoor. En het heeft ook veel algemene bekendheid gekregen sinds de introductie van LLM's en generatieve AI. Maar op de achtergrond is er al veel langer iets aan het spelen geweest. En er bestaan ook best indrukwekkende AI technologieën die niet generatief zijn, en die worden nu behoorlijk ondergesneeuwd door de meer generiek toepasbare generatieve AI.
Probeer je maar eens voor te stellen waar we over 5 jaar staan. :henk

Soms met het hoofd in de cloud en hopelijk gewoon nog met beide benen op de grond. :)
Voor de doom denkers en dystopische toekomst angst.

Deze verbetering, of überhaupt het continu zelflerende aspect verandert nog niet veel met betrekking tot ASI en AGI. Ze kunnen dan hetzelfde kunstje als ze nu ook al kunnen alleen met actuele kennis. Voor sommige benchmarks zal dit baanbrekend zijn die ineens met gemak helemaal gehaald worden.

Maar het blijft een mechanisme wat in kennis patronen probeert te vinden voor zijn oplossingen. Zolang een model niet uit zichzelf nieuwsgierig is en andere aanpakken probeert zal ook deze innovatie uiteindelijk een plateau hebben. Dit wordt geen AGI. Maar ja, het is wel een van de vele puzzelstukjes die opgelost wordt naar dat AGI pad toe. Overigens een stukje dat ook nog steeds door mensen is bedacht, niet door AI zelf.

We zijn nog even veilig 😁 ik geef het nog een jaartje of 5 voor het eng wordt en ai echt kan innoveren, dan gaat het hard.
Moeten we dan wachten tot het moment waarop het echt eng begint te worden?
De echt goede vraag. We gaan gewoon dat topje over, en dan dondert alles en iedereen de helling af.
"Echt eng" is jouw angst voor deze techniek, niet de mijne. Laat AGI maar komen, graag zelfs! Denk aan alle enorme technologische vooruitgang die we dan in no-time krijgen! Ziektes, kunnen in een sneltreinvaart opgelost worden. Klimaat problematiek, kan zo opgelost worden.

Elke fundamenteel nieuwe uitvinding die de beschaving op zijn kop zet is vooraf eng en "het einde van de wereld". Maar het wiel was toch best revolutionair. Het vuur was toch best handig en je kan stellen dat het de mens uberhoupt mogelijk heeft gemaakt. Stoom machines waren ook eng, paard en wagen was tenslotte betrouwbaar. En zo zijn er nog wel een paar historische ontwikkelingen die de beschaving helemaal op zijn kop hebben gezet, hebben we allemaal overleeft. De samenleving zal fundamenteel veranderen met AGI maar niet verdwijnen.

Of ik heb het helemaal fout en dit zijn de laatste paar jaren van de mensheid en is AI gaat het "great filter" moment worden wat ons einde wordt. Neh, vast niet.
Het is sws geen great filter moment lijkt mij anders hadden we allerlei AI beschavingen moeten vinden.
Het idee van dat filter is juist dat je er niet voorbij komt. Dus dan vindt je ze juist niet. Of snap ik het nou fout?
Als AI ons uitroeit stopt het daar natuurlijk niet bij. Stel dat het doel van die AI is almaar meer rekenkracht te vergaren zal die zich verspreiden over het zonnestelsel en verder.
AI zal dus stoppen nadat die de mensen heeft uitgeroeid volgens jou? Dat klinkt toch niet zo logisch?
Oh ... echt. Dus je trekt er nu 1 stukje uit, een stukje wat je zelf heb gezegd (ik heb nergens "uitroeien" genoemd) en dat trek je vervolgens helemaal uit de context. Lees effe opnieuw met je samenzwering bullshit. Het zijn reacties en denkwijze als de jouwe wat zo polariserend als de pest is.

Ter hulp, aangezien ik denk dat je dat geestelijk wel nodig heb, schetste ik een positief beeld van hoe dit verder kan ontwikkelen. En daar gaf ik, duidelijk in humoristische zin, een opmerking bij over de great filter theorie.

Grow up!
Wow gast doe rustig, waar komt dit ineens vandaan 😂

Jij begon notabene zelf over het great filter moment en mijn argument was dat niet logisch was omdat we dan waarschijnlijk andere AI beschavingen hadden moeten vinden in het universum.

[Reactie gewijzigd door Barsonax op 8 december 2025 16:57]

misschien hebben we straks niet de energie en grondstoffen om deze groei te steunen en dan wordt een plateau om hele andere redenen gehaald. Tenslotte is hert pure roofbouw en krijgen we er niks voor terug dat echt waarde heeft.

[Reactie gewijzigd door tw_gotcha op 7 december 2025 20:06]

Of we ontdekken alternatieven die AI veel efficiënter maken. Wat een enorm veel grotere waarschijnlijkheid is dan jouw linear doortrekken van het huidige probleem. Dat is het denken van "zo door en dan gaat het fout", dat is geen realiteit. Het gaat altijd anders dan "meer van hetzelfde". Lampen gingen heel vroeger ook op olie, doen we toch al een tijdje niet meer. De hoeveelheid lumen die we nu per joule halen is vele malen hoger dan bij de ontdekking van vuur. En zo zal in AI ook steeds een verbeterslag zitten die het efficiënter maakt.
Maar LLM's zijn überhaupt geen basis voor AGI, dus waarom zou dat over 5 jaar ineens anders zijn? Ja, we hebben sinds 10 jaar geleden grote sprongen gemaakt, maar waar GPT-3 een flinke doorbraak in het toepassen van ML op taal was hebben we sindsdien geen nieuwe doorbraak meer gezien.
Beetje slechte denkwijze. Laten we het is omdraaien naar 5 jaar terug (beste wat we hadden was ANN/DNN), met dat toen in het vooruitzicht en door extrapoleren hadden we niet de LLMs van nu gehad. Tot je ineens de doorbraak verandering kreeg van transformers en het in sprongen vooruit gaat. Zo'n zelfde grapje nog een keer brengt ons denk ik wel in ASI (super intelligence) en mogelijk ook AGI. En ik denk dat we daar binnen 5 jaar wel zijn met de snelheid waarmee we innoveren.
Ik kan het niet laten, gooi hem er toch in. Weer een stapje dichterbij richting totale besturing en beslissingen vanuit een alles overheersende AI met verstrekkende gevolgen, gebaseerd op een internetstructuur vol met aannames, onwaarheden etc. Best uitdagend.

Hoe noemen ze dat ook alweer, iets van : wordt vervolgd(in de breedste zin van het woord)😉
ik zal het beter zeggen: check eclipse phase, waar de aarde wordt vernietigd door titans (AI) en de overlevenden in het zonnestelsel behalve op aarde zit.

Ik houd van techniek, maar er zijn duidelijk grote vraagtekens in hoe we het moeten gebruiken in de maatschappij. Ik vrees voor de banen van veel mensen.
Nu ik AI een tijdje op de werkvloer heb geobserveerd, ben ik niet echt bang voor de banen van veel mensen. Wel ben ik bang voor de grote groep mensen die blindelings alles accepteert dat een AI voorkauwt zonder er verder bij na te denken. Misschien moet de prompt "geef me antwoord in straattaal" standaard erin gezet, dan nemen mensen het een stuk minder serieus.
Nu ik AI een tijdje op de werkvloer heb geobserveerd, ben ik niet echt bang voor de banen van veel mensen. Wel ben ik bang voor de grote groep mensen die blindelings alles accepteert dat een AI voorkauwt zonder er verder bij na te denken. Misschien moet de prompt "geef me antwoord in straattaal" standaard erin gezet, dan nemen mensen het een stuk minder serieus.
Ik ben vooral bang voor de negatieve gezondheidseffecten die het kan hebben op termijn en die bijvoorbeeld onze smartphone en social media nu aantoonbaar ook veroorzaken.

Technologische vooruitgang vraagt steeds meer van mensen op het gebied van mentale gezondheid. Er moet hier beter over geinformeerd. Je ziet nu al met AI dat mensen steeds minder actief nadenken, maar de simpelste vragen aan AI stellen. Het blijft en is een hulpmiddel, geen vervanging van je zelfstandig denk vermogen.
AI is op dat vlak niks anders dan social media. Wordt ook gewoon zonder nadenken als waarheid aangenomen. Hoeveel ik kinderen hoor zeggen dat ze een zogezegde influencer in een filmpje wat hebben horen zeggen en dat vervolgens als waarheid aannemen omdat het een "bekend" iemand is, valt ook al niet meer op één hand te tellen. Meestal volgt dan een discussie waarin ik het tegendeel letter moet bewijzen en dan vallen ze uit de lucht :).

Moraal van het verhaal, het is mijn inziens nu meer dan ooit de taak van scholen en opvoeding om kinderen (en volwassenen) kritisch te leren zijn en voor zich te leren denken. Stel alles in vraag en vorm daar je mening uit. Neem niks (of toch zo goed als :)) als waar aan zonder je bronnen te checken.
Onder andere, één van die vele punten. Maarja, gemakzucht dient de mens (voor zolang 't duurt, en daarna is het van :"zie je wel, ik wist het. En/of in die trend).

Only time will tell😶
Dit heeft meer met een beter geheugen-model te maken dan met zelflerend. Er lijkt ook geen enkele validatie in te zitten wat betreft de correctheid van de input van de gebruiker. Dus dat "continue bijleren" haal ik absoluut niet uit de paper die aangehaald wordt.
Ik ben misschien wel de grootste AI doemdenker hier, maar toch begin ik wat barstjes te zien in het verhaal. Misschien ben ik mezelf aan het geruststellen, maar ik zie steeds vaker van deze lovende nieuwsberichten, die vooral bedoeld lijken te zijn om de miljardeninvesteringen te rechtvaardigen. Gaat het allemaal dan toch minder hard dan gedacht?
Je ziet op dit moment inderdaad enige stagnatie in de ontwikkelingen, althans je hoort steeds meer wetenschappers de tijdlijn voor agi verleggen naar 10 jaar+ waar dit een jaar geleden nog <5 jaar was.

Verder vind ik de ontwikkelingen nog best snel gaan en nog steeds met elke iteratie van de modellen de verbeteringen significant, maar goed dat is misschien persoonlijk.

Of dit soort berichten bedoeld zijn om investeringen te rechtvaardigen? Deels zeker, de frontier labs (Sam Altman voorop) hebben in verleden zeker een hoop nieuws naar buiten gebracht puur om geld op te kunnen halen.
Sluit mooi aan op het bericht van gisteren: nieuws: Grok genereert mogelijk op verzoek nauwkeurige adresgegevens

Met deze techniek kent AI meteen je nieuwe adres als je verhuist, en als je in de krant een geboortebericht plaatst komt de blije doos next day.
Als je in de krant…. Krant, dat ding moest ik in een geschiedenisboek ai chat opzoeken.
Ik blijf lekker de krant lezen en zie ondertussen geleidelijk aan de bevolking totaal gehersenspoeld en krankzinnig worden door desinformatie verspreid door de grote techbedrijven. (Wat via AI nog overtuigender gaat)
Gelijk heb je, /s vergeten
Klinkt als een mooie ontwikkeling. Dit is precies wat ik voor ogen heb, maar dan voor op mijn eigen thuis pc, in eigen beheer, zonder pottenkijkers. Weg met het kostbare hertrainen van je model en vooraf geconfigureerde agents, en over op een prive databank (kennisbank) vol met images van diverse kennisgebieden. 48GB RAMdisk om je LLM en te gebruiken images op te parkeren en knallen maar. Blij dat ik afgelopen Maart reeds geupgrade heb, want het lijkt erop alsof het niet de bedoeling is dat consumenten dit soort performance gewoon thuis hebben staan en de HEDT-markt nu effectief de nek om gedraaid gaat worden.

[Reactie gewijzigd door JorneB op 7 december 2025 23:07]

Dit is wat AI er zelf van vindt (vandaag :))

Hoewel Titans en MIRAS een interessante richting aangeven voor continual learning, blijven er substantiële technische uitdagingen en onbeantwoorde vragen.

Een eerste punt betreft onbeheerde kennisaccumulatie. Het dynamisch integreren van user-generated input in het parametersysteem van een model introduceert een reëel risico op model drift en distributional contamination. Zonder rigoureuze gating- en validationmechanismen kan iedere ruis in de inputstroom leiden tot ongecontroleerde parameterupdates. Google beschrijft een architectuur, maar geen formeel bewijs dat het systeem stabiel blijft onder adversarial of simpelweg inconsistente gebruikersdata.

Daarnaast blijft catastrophic forgetting een kernprobleem. De claim dat Titans dit oplost door een combinatie van recurrent structuren en transformerachtige geheugenlagen is technisch interessant, maar het paper lijkt geen formele garanties te bieden over knowledge retention bij lange sequenties of heterogene datastromen. Continual learning literatuur laat al jaren zien dat oplossingen vaak domein-specifiek werken, maar falen wanneer schaal en diversiteit toenemen.

Een ander kritiekpunt betreft scaling laws. Google positioneert Titans als sneller en efficiënter dan klassieke transformers én recenter SSM-modellen zoals Mamba-2. Maar voor zover bekend ontbreken systematische schaaltests op grotere modellen (10B+ parameters). Zonder inzicht in compute-efficiëntie, memory footprints en throughput onder real-world workloads zijn vergelijkingen met SSM’s prematuur. Mamba-2 is vooral geoptimaliseerd voor lange contexten met lineaire tijdcomplexiteit; het is niet vanzelfsprekend dat Titans deze voordelen behoudt bij opschaling.

Verder introduceert het combineren van RNN-achtige mechanismen met transformerblokken nieuwe architecturale spanningen. RNN’s bieden statefulness, maar zijn notoir moeilijk te trainen bij grote modelgroottes door gradient instabilities. Google lijkt impliciet te vertrouwen op hybridisatie, maar zonder transparante ablation studies is niet duidelijk wat de daadwerkelijke meerwaarde is van elk onderdeel van Titans.

Tot slot creëert continual parameter-updating een volledig nieuw model governance-vraagstuk. Een systeem dat zichzelf blijft herschrijven vraagt om nieuwe methoden voor checkpointing, rollback, compliance-auditing en reproduceerbaarheid. In de huidige vorm lijkt er geen mechanisme gedefinieerd dat garandeert dat het model’s kennisbasis traceerbaar blijft. Voor enterprise-omgevingen is dat een fundamentele bottleneck.

Kortom: Titans en MIRAS zijn technisch intrigerend, maar veel claims zijn nog niet onderbouwd op schaal, niet getest onder adversarial omstandigheden en niet uitgewerkt qua governance. Voordat dit soort architecturen productierijp is, moeten er nog aanzienlijke stappen gezet worden in stabiliteit, validatie en verantwoording.

Op dit item kan niet meer gereageerd worden.