Door Imre Himmelbauer

Redacteur

Techreuzen pompen elkaars waarde op: waarom vrees voor een AI-crash toeneemt

24-12-2025 • 06:00

293

Tekst

25 jaar geleden barstte de zogenoemde 'dotcombubbel' doordat internetbedrijven in elkaar bleven investeren. Toen de vraag achterbleef bij het aanbod, zorgde dat voor een domino-effect: een bedrijf ging failliet, waardoor het zijn schulden bij een ander bedrijf niet kon afbetalen en daardoor kwam ook dat bedrijf weer in de problemen. De geschiedenis herhaalt zich nu mogelijk: AI-bedrijven voorzien elkaar van grote sommen geld.

AMD OpenAI
AMD en OpenAI kondigden in oktober
een samenwerking aan.

In oktober meldden OpenAI en AMD dat zij een overeenkomst hadden bereikt: OpenAI zou voor 6GW aan AMD-gpu's afnemen, terwijl de ChatGPT-maker 10 procent van de aandelen van AMD zou kunnen kopen als het bedrijf bepaalde doelstellingen behaalt. Hoeveel geld er precies met de deal gemoeid was, is niet bekend, maar duidelijk is dat het om miljarden euro's gaat.

Het was zeker niet de eerste investering die het ene AI-bedrijf in het andere deed. De afgelopen maanden is een waar web aan investeringen, deals en samenwerkingen ontstaan, waardoor AI-bedrijven direct en indirect in elkaar investeren. Het doet denken aan de mop van de twee mannen die elkaar voortdurend dezelfde kast verkopen en daar 'goed van kunnen leven'. De prijs van de kast is intussen tot in de miljarden euro's gestegen.

OpenAI en de art of the deal

De grootste dealmaker is zonder meer OpenAI. In de afgelopen jaren heeft de maker van ChatGPT, Sora en de Atlas-browser deals met vrijwel alle andere AI-bedrijven gemaakt. Microsoft was er vroeg bij en heeft in totaal 11 miljard dollar in het bedrijf geïnvesteerd. OpenAI koopt zoals gezegd gpu's in bij AMD, maar heeft ook beloofd vier tot vijf miljoen gpu's van concurrent Nvidia te kopen. Nvidia investeert daarvoor op zijn beurt 100 miljard dollar in OpenAI om 10GW aan compute te leveren. OpenAI koopt verder cloudcapaciteit in bij CoreWeave (voor 22,4 miljard dollar), Google (voor een onbekend bedrag) en Oracle (voor 300 miljard dollar). Ook SoftBank, licentiehouder van de Arm-chips, heeft volgens The Information 30 miljard dollar in OpenAI zitten. Op deze manier bezien is OpenAI bijna een 'tussenstap' voor concurrenten om in elkaar te investeren. Nvidia en SoftBank investeren indirect in AMD en Microsoft koopt indirect capaciteit in bij Google en Oracle.

En de investeringen van OpenAI zijn pas het begin. Sommige bedrijven, zoals AMD en Microsoft, houden zich relatief gedeisd en houden de investeringen beperkt. Andere bedrijven hebben de afgelopen maanden echter meerdere miljardendeals gesloten met grote AI-spelers. Oracle investeerde zoals gezegd 300 miljard dollar in OpenAI en sloot ook een overeenkomst van 40 miljard dollar met Nvidia om chips af te nemen voor, jawel, OpenAI's nieuwe datacenter. Het bedrijf is ook in onderhandeling met Meta om het socialemediabedrijf voor 20 miljard dollar aan rekenkracht te voorzien.

De GB200 NVL72 van Nvidia, die veel wordt gebruikt in datacenters om AI te trainen.
De GB200 NVL72 van Nvidia, die veel wordt gebruikt in datacenters om AI te trainen.

Nvidia sloot naast de deals met OpenAI en Oracle ook overeenkomsten met SoftBank (waarbij het Japanse bedrijf 3 miljard dollar investeerde) en CoreWeave (dat een order van 6,3 miljard dollar van Nvidia ontving). De chipontwerper sloot daarnaast een samenwerkingsovereenkomst met Intel voor de ontwikkeling van x86-chips. Als onderdeel van die overeenkomst koopt Nvidia voor 5 miljard dollar aan Intel-aandelen.

Bijna al deze overeenkomsten werden dit jaar gesloten: alleen Microsoft was er vroeg bij en investeerde in 2019 en 2023 in totaal 11 miljard dollar in OpenAI. Een snelle rekensom leert dat de totale investeringen van deze bedrijven in elkaar dit jaar al meer dan een half biljoen dollar bedragen. Een bedrag dat hoger ligt dan de marktwaardes van techreuzen als AMD, Palantir en ASML, die voor hun inkomsten bovendien ook weer (deels) afhankelijk zijn van deze bedrijven.

AI-hype: een revolutie of een bubbel?

De circulaire investeringen, waarbij bedrijven vooral veel in elkaar investeren, zorgen ervoor dat meerdere economen vrezen voor een 'bubbel'. Het patroon lijkt sterk op de dotcombubbel die rond de millenniumwisseling barstte. Die bubbel knapte mede omdat veel internetbedrijven in netwerkapparatuurfabrikanten investeerden, die dat geld vervolgens weer in internetbedrijven staken. Dat zorgde uiteindelijk voor een domino-effect: als een bedrijf failliet ging, zag een ander bedrijf niets van zijn investering terug en kwam het in de problemen, wat weer leidde tot financiële problemen bij andere bedrijven.

Meerdere prominente figuren waarschuwen daarom voor de gevaren van een potentiële bubbel. Microsoft-oprichter Bill Gates waarschuwde in oktober dat de huidige AI-bubbel lijkt op de dotcombubbel. David Solomon, ceo van investeringsbank Goldman Sachs, verwacht dat er binnen twee jaar een correctie volgt. Zelfs OpenAI-ceo Sam Altman waarschuwde in augustus dat investeerders 'overenthousiast' zijn.

Bill Gates
Onder anderen Bill Gates waarschuwt voor een mogelijke AI-bubbel.

Dat ziet ook Bart van der Sloot. Hij is filosoof en jurist met een focus op AI. "Ten dele zitten we wel in een AI-bubbel", zegt hij. "Een goede analogie is, denk ik, ook de bankencrisis, omdat destijds ook van die vage financiële constructies werden toegepast. Dat zien we hier ook gebeuren. Dat stimuleert de marktwaarde van dat soort bedrijven tijdelijk, maar dat is deels ook gebakken lucht. Ik wil er wel de kanttekening bij plaatsen dat heel veel van de beloften van de dotcombubbel ook waarheid zijn geworden. Alleen waren er toen tijdelijk te veel en te grote verwachtingen. De bubbel was eerder het tempo waarin de revolutie zou plaatsvinden dan de revolutie zelf. Ik denk dat dat hierbij ook het geval is. De ontwikkelingen gaan nu heel snel en het is aannemelijk dat die de komende tijd wat minder snel zullen gaan en dat een deel van die verwachtingen niet wordt waargemaakt."

Hetzelfde, maar met AI

Ook de gehaaste adoptie van AI door bedrijven onderstreept dat we in een bubbel zitten, merkt Agata Leszkiewicz, universitair docent en onderzoeker AI-marketing aan de University of Twente. "We hebben in verschillende marketingonderzoeken gezien dat de implementatie van AI geen voordelen oplevert als bedrijven hun werkwijze niet aanpassen om ruimte te maken voor AI-processen. Als bedrijven AI willen gebruiken om een duurzaam voordeel te verkrijgen, moeten zij hun besluitvormingsprocessen en hun gebruik van data compleet herzien. Het is complexer dan simpelweg een AI-tool kopen die taken uitvoert." Leszkiewicz verwijst onder meer naar een onderzoek in het Journal of Marketing Research. Onderzoekers concludeerden daarin dat advertenties voor het automerk Polestar die door ongetrainde AI-modellen waren gemaakt minder goed presteerden dan de eigen, door mensen gemaakte advertenties van de autofabrikant. Ook MIT publiceerde een onderzoek waaruit blijkt dat investeringen in generatieve AI zelden tot snelle omzetgroei bij bedrijven leiden.

"In dat opzicht denk ik dat de verwachtingen soms te hooggespannen zijn", vervolgt Leszkiewicz. "Bedrijven onderschatten de inspanning die nodig is om deze technologie voor hen te laten functioneren. Er zijn nu best wat AI-start-ups die te veel beloven of niet helemaal duidelijk zijn over welke oplossingen hun systemen bieden. Uiteindelijk zullen investeerders op de lange termijn leren om de werkelijke waarde van een oplossing te herkennen."

Net als tijdens de dotcombubbel verwacht Van der Sloot dat er uiteindelijk bedrijven zullen omvallen of uit de AI-race zullen stappen. Hij denkt dat OpenAI en Google nu het verst zijn in de ontwikkeling van hun modellen: "Dat zijn de twee bedrijven waarvan de taalmodellen er echt bovenuit steken. En misschien de bedrijven in China, maar ik vind het heel moeilijk in te schatten of dat nou knap is gemaakt of gewoon goed gestolen."

ChatGPT en Gemini, de AI-apps van OpenAI en Google
ChatGPT en Gemini, de AI-apps van OpenAI en Google

Leszkiewicz ziet dat OpenAI de eerste was die generatieve AI breed beschikbaar maakte. Daardoor heeft het bedrijf een voorsprong, maar in principe blijft het een challenger: "Onder meer Google en Meta investeren nu ook veel in AI. Dat zijn bedrijven met veel robuustere financiën die ook een langere geschiedenis hebben met het ontwikkelen van technologieën. Daardoor moet OpenAI ChatGPT beter blijven maken en kan het niet gemakzuchtig worden."

Leszkiewicz benoemt ook de hoge kosten die het ontwikkelen van generatieve AI met zich meebrengt: "De initiële investering is nog hoger dan tijdens de dotcombubbel door alle vereisten rond energie en rekenkracht. Het wordt daardoor waarschijnlijk een geconcentreerde markt. Veel kleinere bedrijven zullen de technologie van de grotere spelers in hun eigen jasje steken en verkopen. Dat betekent niet dat deze bedrijven niet succesvol zullen zijn, maar ze maken wel gebruik van bestaande oplossingen en bestaande AI-providers."

'De winst komt later wel'

Mede door die hoge investeringen is het moeilijk om met veel AI-providers een winstgevend bedrijfsmodel op te zetten. Zo zei OpenAI aan het begin van het jaar nog dat het verlies maakt op zijn Pro-abonnement, dat 229 euro per maand kost. Dat komt onder meer doordat veel AI-bedrijven nog in een soort 'start-upfase' zitten met hun AI-producten, ziet Van der Sloot: "Ik denk dat zij heel snel de markt willen veroveren en hun producten daarom gratis of goedkoper aanbieden. Als die bedrijven dan na drie of vier jaar zoveel data hebben verzameld van alle markten en alle taalgebieden, dan is hun model echt superieur en kunnen ze de prijs misschien wat omhooggooien."

Mede daarom voorspelt ook Leszkiewicz dat een aantal AI-bedrijven uiteindelijk zal verdwijnen: "Het betekent niet per definitie dat de markt ineenstort, maar als het bedrijfsmodel van bepaalde bedrijven onhoudbaar en verlieslatend blijft, denk ik dat die bedrijven worden overgenomen door grotere spelers. Uiteindelijk verdwijnt de kennis van die bedrijven daarmee niet, maar wordt hij misschien aangeboden door iemand anders of in een wat ander format."

Van der Sloot verwacht dat uiterlijk over vijf jaar duidelijk zal worden welke AI-bedrijven het zullen redden. "De rest valt dan wel af. Dat zal wel even een klap zijn. Die bedrijven zullen deels omvallen of deels herstructureren. De infrastructuur die ze hebben aangelegd, wordt afgewaardeerd en op termijn weer overgekocht door de concurrenten." Daardoor zullen veel investeerders hun geld kwijtraken, maar hij vermoedt dat de impact op de algehele economie beperkt blijft: "Dat is veel complexer dan alleen de vraag of de AI-revolutie slaagt of niet. En juist als die slaagt, gaan er misschien wel veel banen verloren. Als die bubbel klapt, zal dat even een schokgolf in de economie veroorzaken, maar ik denk niet dat de gevolgen catastrofaal zullen zijn en dat de economie daar binnen een paar jaar weer bovenop komt."

Redactie: Imre Himmelbauer • Eindredactie: Monique van den Boomen

Reacties (290)

290
289
127
17
1
143

Sorteer op:

Weergave:

AI is op dit moment ook helemaal niet zo bruikbaar als wordt/werd geadverteerd. Ik gebruik AI bijvoorbeeld om te ondersteunen in het programmeren van slimme functies om mijn werk te vergemakkelijken. De modellen komen met brakke oplossingen (die ergens van een hobby-forum af geplukt lijken) of hallucineren er op los.

Ik kan zelf een beetje programmeren en heb het dus vaak snel gefikst, maar het kost allemaal tijd. Ik zou zeggen dat het werken met AI op dit moment niet sneller, maar eerder trager gaat in mijn geval. Als ik met behulp van AI mijn tools heb scherpgeslepen kan er pas tijd bespaard worden.

Mijn punt is: alles wat AI maakt, doet, of adviseert, moet door de mens nagekeken worden. Daardoor levert AI nog amper tijds- en dus geldwinst op. Nog even los van het feit dat alle NDA-disclosures moeten worden aangepast, wat per klant ook vele uren onderhandelen kost.

Ben benieuwd hoe dit zich over een paar jaar ontwikkelt. Maar voor nu heeft AI slechts beperkte meerwaarde, terwijl ik het idee heb dat er gouden bergen beloofd worden. Ook vanuit bedrijven zelf die AI slechts mondjesmaat inzetten. Een heuse bubbel dus.

Disclaimer: dit is uiteraard een n=1 verhaal.

[Reactie gewijzigd door Kastermaster op 24 december 2025 06:54]

Wat ik veel zie is dat veel mensen AI en programmeren een beetje proberen en daarmee met wisselende resultaten komen.

Het staat voor mij als een paal boven water dat het niet lang duurt dat veel van de code door AI geschreven wordt. Het vergt alleen een mindshift. Installeer Cursor, neem een betaald abonnement en doe alsof er niets anders is dan dat. Je zult zien dat de resultaten heel snel verbeteren. AI kan echt veel meer dan het op het eerste gezicht lijkt. Het is ook een skill om te leren prompten, deze uit te schrijven in deel prompts en deze stap voor stap laten uitvoeren.

We kunnen echt in kortere tijd meer voor elkaar krijgen en het nakijken en pull requests kosten nu inderdaad meer tijd en moeite en soms zijn er nog veel fuck-ups die er zelfs voor zorgen dat me meer tijd kwijt zijn als dat we het zelf geschreven zouden hebben... maar steeds minder.

Blijf ontwikkelen in je skills en diepgang. In de dot.com werden we ook op de verkeerde voet gezet en werd het een enorme bubbel, maar zie hoe het nu is. AI zal dit pad ook afleggen, dus beter ben je er maar vroeg bij.

Ik betaal ruim meer dan duizend euro per maand voor AI, maar het levert nu al veel meer op. Jammer dat al die shit uit VS en China komen, maar terug gaan naar vroeger is voor mij al geen optie meer.
Programmeren is wel een hele nauwe niche usecase. Daar zie ik LLM ook als een van de beste werken. En dat is ook logisch, want programmeren is taal. Een LLM is een taalmodel. Het kan een stukje tekst uit zijn mouw schudden en daarmee ook een computerprogramma. Dat programmeertalen veel stricter gesyntaxeerd zijn maakt het daar alleen maar geschikter voor omdat de verwijzingen in het vectormodel een heel stuk duidelijker zullen zijn. Programmeren is voor een LLM echt een "home game".

Wat mij meer dwars zit is dat het ook voor andere dingen wordt aangeprezen waar LLM als techniek helemaal niet geschikt voor is, zoals wiskunde, kennis, redeneren. Ik zie nogal veel het fenomeen dat mensen denken dat het echt kan denken doordat je er mee kan praten en het klinkt als een mens. Maar het is niet meer dan een simulator, de achterliggende intelligentie is er nog niet.

In mijn werk als IT architect zie ik het veel minder nuttig zijn. Vaak vraag ik dingen op basis van documentatie en geeft het totaal verkeerde antwoorden ondanks dat het direct met de juiste referenties aankomt. Ik zie het vooral als een tool om goed naar documentatie te zoeken, maar niet het interpreteren ervan. Ik merk ook dat modellen met veel context gauw in de war raken en zich focussen op de eerste of laatste delen van de content.

[Reactie gewijzigd door Llopigat op 24 december 2025 11:40]

Ik herken veel van wat je schrijft, toch een paar toevoegingen:
Als je ervaart dat je verkeerde antwoorden krijgt, dan is de vraag misschien te breed gesteld. De laatste maanden heb ik steeds vaker dat ik verbaasd ben wat het kan, het is steeds bruikbaarder en ik krijg steeds vaker antwoorden die beter zijn dan ik ze ooit had kunnen bedenken. Dat kan iets over mij zeggen, maar het is echt wel heel knap.. en in mijn ogen kan het prima redeneren en uit de voeten met wiskunde. Heb je een voorbeeld wat niet lukte en welke model en prompt je gebruikt?

En als je documentatie in NotebookLM stopt.. wat is jouw ervaring daar dan mee?

Waar ik zelf wel vaak tegenaan loop is dat het saaie antwoorden geeft, heel correct maar niet erg creatief of speels als ik het nodig heb. Ook slaat het met programmeren enorm de plank mis op iets heel simpels en lukt het me niet goed om het juist te krijgen. Anders gezegd het wisselt tussen heel slim en heel dom :-)
“You’re prompting it wrong”. Leg de schuld bij de gebruiker. Als je een grote groep softwareontwikkelaars na jaren LLM gebruik nog kan vertellen dat ze de tool niet goed gebruiken, dan ligt dat denk ik aan de tool. Met een agents.md oid krijg je misschien wat betere resultaten, maar ook resultaten die beter klinken.

Met de context “Je bent de beste software ontwikkelaar in de wereld” krijg je niet ineens betere code.
Waarom zou je überhaupt die prompt moeten geven? Er zou genoeg in het model moeten staan dat je rekening moet houden met de OWASP top10 en dat je queries met parameters moet opmaken en sql injection moet voorkomen.

Maar toch doet hij daar niet aan als je het niet expliciet opgeeft. 8)7
Het is eerder you are prompting the wrong way. Als je kan programmeren en je gebruikt zaken zoals spec kit of Bmad, ga je heel wat plezier beleven.
Ik ben een beetje klaar met het "je prompt het verkeerd" excuus eigenlijk. Ik stel altijd duidelijke expliciete vragen met voldoende context en verwachtingen.. Uiteraard ga ik geen heel boekwerk schrijven want het is het idee om tijd te besparen, anders kan ik het net zo goed zelf doen. Voorbeelden kan ik niet geven want ik mag geen zakelijke informatie online delen.

Maar het is ook wel dat ik op het werk vast zit aan copilot dat verreweg de minste AI is natuurlijk. Ondanks dat het onder de motorkap ChatGPT gebruikt, is het veel slechter dan wat de echte GPT presteert. In het begin was de researcher module van copilot wel goed maar tegenwoordig is die ook in een halve minuut klaar met een middelmatig antwoord. Ik heb het idee dat microsoft gewoon af loopt te knijpen op de compute om zoveel mogelijk klanten te voeden.
En als je documentatie in NotebookLM stopt.. wat is jouw ervaring daar dan mee?
Ik haat Google te veel om privé NotebookLM of Gemini te gebruiken. En op het werk mogen we alleen copilot gebruiken. Privé gebruik ik natuurlijk geen copilot maar ik heb vooral lokale AI servers (geintegreerd met Obsidian notes) en als het echt moet gebruik ik perplexity of claude.
GitHub Copilot ondersteund vele modellen, GPT (niet ChatGPT), Gemini, Claude en veel meer.

Het gevoel wat je post oproept is dat je nog veel kan verbeteren. Geen aanval overigens, er is een hoop te leren qua gebruik van GenAI bij ontwikkelen ( en daar zit juist het probleem)
Ik heb het niet over github copilot, maar over M365 copilot. Een ander probleem met de Microsoft zooi, hun branding is een grote puinhoop. Ze noemen alles copilot, en ze veranderen ook nog eens de namen constant.

Maar ontwikkelen doe ik niet op mijn werk. Dat daar GenAI meer bij helpt vind ik ook wel ja (ik doe het prive wel eens met claude opus). Maar M365 copilot vind ik een stuk slechter werken dan de onderliggende ChatGPT (en nee je kan daar niet kiezen welk model je gebruikt).

[Reactie gewijzigd door Llopigat op 26 december 2025 09:57]

Ja.. dat is andere koek, helemaal mee eens.
Sorry, deed de aanname (ging over ontwikkelen) dat je ontwikkelde.

En Microsoft qua namen, hou op.. kansloos
Ik ben een beetje klaar met het "je prompt het verkeerd" excuus eigenlijk.
Maar het is ook wel dat ik op het werk vast zit aan copilot dat verreweg de minste AI is natuurlijk.
Ik haat Google te veel om privé NotebookLM of Gemini te gebruiken.
Privé gebruik ik natuurlijk geen copilot maar ik heb vooral lokale AI servers
Verder ben ik heel objectief hoor.
Waarom zou ik objectief moeten zijn? Ik heb gewoon een duidelijke mening.
Programmeren is voor een LLM echt een "home game".
Mijn ervaring is dan weer dat het daar redelijk brak in is. De wat ik noem pump en dump appjes zijn geen enkel probleem. Doet het inderdaad goed en snel. Maar daar heb je meestal dan ook framework commando's, tutorials of quick start project setups voor. Ga je echter verder en wil je code waarvoor diepgaande kennis nodig is en het niet eenvoudig meer uit een tutorial die online staat kan geplukt worden, hallucineert het er bij mij althans op los. Ik eindig momenteel elk wat diepgaander gesprek met: Laat we een andere library proberen want iedereen heeft problemen met library X...

Ook versies heeft het een probleem mee. Laatste nieuwe versie gebruiken werkt meestal niet omdat er weinig bronmateriaal voor is. Gebruik je een library waar enkel docs voor zijn en geen voorbeelden? Vergeet het dan maar helemaal. Uit docs kan het naar mijn ervaring geen werkende code genereren.

Ik gebruik het ook om snel zaken up en running te krijgen of wat meer uitleg bij bepaalde concepten, beetje is private teacher. Maar verder valt het me eigenlijk tegen. Het voldoet in ieder geval niet aan de hype die er vind ik aan wordt toegekend.

Ik vrees dat het gebruik van AI voor code ook tot minder innovatie gaat leiden. We worden er globaal gezien allemaal weer wat dommer van, want je moet minder nadenken en verbanden leggen. Plus je buurman kan met dezelfde prompts tot exact hetzelfde resultaat komen.

Ik heb er eens een website mee laten genereren. Je krijgt gewoon met ongeveer dezelfde prompt tweemaal hetzelfde resultaat. Geen unieke look en feel dus maar eenheidsworst. Heb een poging gedaan om de boel dan wat af te laten wijken met extra info maar dan kwam hij weer met een Github look en feel af :/. Daaruit blijkt dus dat het gewoon eigenlijk een zwaar geval van leentje buur is.

[Reactie gewijzigd door Powerblast op 24 december 2025 14:12]

Dat hij met alleen documentatie geen code kan schrijven geeft al aan hoe de vork in de steel zit. Iets kopiëren lukt kennelijk wel, maar iets nieuws bedenken dat lukt niet.

En het maken van iets geheel nieuws, of het analyseren van een probleem, dat vereist wel dat diepere begrip.

"Ik heb deze detectors, wat is de slimste manier om een 3D-beeld te maken"

"ik heb deze organisatie, hoe kan ik zorgen dat die minder tijd bezig is met administratie"
Wat mij meer dwars zit is dat het ook voor andere dingen wordt aangeprezen waar LLM als techniek helemaal niet geschikt voor is, zoals wiskunde, kennis, redeneren. Ik zie nogal veel het fenomeen dat mensen denken dat het echt kan denken doordat je er mee kan praten en het klinkt als een mens. Maar het is niet meer dan een simulator, de achterliggende intelligentie is er nog niet.
Het probleem is dat mensen AI gewoon niet goed gebruiken. Het is alsof men een pickhouweel hebben om te gaan scheppen. Juiste prompten is ook belangrijk.

Ik gebruiken het om grofweg businessplannen te schrijven en vergelijken, brainstormen. Het enige irritante is dat het vaak informatie vergeet uit het verleden.

Voor mij is het een prima klankbord en is voor mij sneller om informatie te verkrijgen, direct te vertalen, documenten samen te vatten.

Ik zal over een tijd er ook mee gaan programmeren, maar voor mij is het die 2 tientjes al waard.
Het enige irritante is dat het vaak informatie vergeet uit het verleden.
Een LLM is stateless en heeft dus geen geheugen. Men simuleert een conversatie door bij iedere prompt weer de complete history te sturen. Dat is een van de redenen dat AI zo resource intensief is: bij letterlijk iedere prompt moet alles weer opnieuw in de LLM geladen worden. Als je dan in een groot softwareproject werkt..
programmeren is taal. Een LLM is een taalmodel. Het kan een stukje tekst uit zijn mouw schudden en daarmee ook een computerprogramma. Dat programmeertalen veel stricter gesyntaxeerd zijn maakt het daar alleen maar geschikter voor omdat de verwijzingen in het vectormodel een heel stuk duidelijker zullen zijn. Programmeren is voor een LLM echt een "home game"
Maar programmeren is meer dan syntax, en besef van context is bij een LLM heel smal. Net zoals LLM's heel goed taal kunnen produceren die grammaticaal correct is maar inhoudelijk onzin, zo kunnen ze ook heel goed broncode produceren die syntactisch correct is maar voor geen meter werkt.
Nog een nuttige use case. Ik lees veel ambtelijke teksten om input op te geven. Soms zijn er meerdere stukken, allemaal net zo dik, die over een zelfde onderwerp gaan. AI helpt om snel tegenstrijdigheden te ontdekken of juist herhalingen te vinden. Op dit moment vertrouw ik zeker nog niet blind op, maar dat is een kwestie van tijd vermoed ik.
Dit verhaal doet mij eerlijk gezegd heel erg denken aan de shift naar uitbesteding aan lage lonen-landen zoals India, wat in begin jaren 2000 volop de rage was. Toen was ook het verhaal dat zelf in-house programmeren achterhaald was en dat binnen een paar jaar alles extern geprogrammeerd zou worden, en het enige wat wij hoefden te doen was een goede duidelijke spec aanleveren. Het probleem wat daar echter al snel zichtbaar werd, is dat als je kwalitatief goede resultaten wilt krijgen, dat je spec (i.e. je prompt) in de praktijk zó gedetailleerd moet zijn dat je eigenlijk al het denkwerk al zelf gedaan hebt, en dat programmeren alleen nog maar een formaliteit is. Of je er dan uiteindelijk ook echt tijd en/of geld aan bespaart is maar de vraag.

Neemt niet weg dat dit een goede manier van werken kán zijn, maar het hangt helemaal af van het soort project waar je aan werkt. Uitbesteding aan andere landen is ook niet verdwenen, maar het is lang niet zo allesomvattend geworden als men ooit beweerde, en in plaats daarvan heeft het z'n eigen niche gevonden. Zo zie ik het ook met AI-programmeren gebeuren: het heeft z'n plaats en het is voor bepaalde projecten en teams een grote aanwinst, maar er blijft minstens zo veel waarde in de kunst van handmatig goede code kunnen schrijven.
ik denk eigenlijk dat het net die uitbestedingen naar India en andere landen zijn, die terug zullen komen maar dan onder de vorm van AI.

De frustraties van de interacties met de TaTa’s van deze wereld heb je nu éénmaal minder met een AI/LLM
In mijn werk loop ik nu soms tegen een dubbel schrik scenario aan wanneer ik moet schakelen met een leverancier over een feature die opgeleverd moet worden. Zij hebben het programmeerwerk en technische uitwerking uitbesteed aan India, en daar wordt vervolgens volop gebruik gemaakt van AI. Uitkomst: brakke begeleidende tekst met daaronder een lang wollig (maar zeer positief en optimistisch natuurlijk) verhaal vol inhoudelijke onjuistheden dat direct gekopieerd is van chat, soms zelfs nog met dingen als “it may also help convince your client your solution is adequate if you emphasize…” er in.
Dit soort hype opmerking zie je veel voorbij komen. “Geen centrale banken meer door Bitcoin”, “volgend jaar zelfrijdende auto’s”. Veel krachttermen als “blown away” en “staat als een paal boven water”. Beetje FOMO en onvermijdelijkheid toevoegen (mis de boot niet anders doe je niet meer mee!) en je de twijfel slaat toe, mis ik iets?

Die “mindshift” waar je het over hebt werkt tot op bepaalde hoogte heel erg goed. Voor relatief simpele taken als een website, refactor, dependencies updaten en zelfs nog wat complexere zaken pak ik Claude code en het enige wat ik hoef te doen is zeggen wat ik wil hebben. Als er build errors zijn lost hij het zelfs op. Enorme productiviteitswinst. Je moet wel alles controleren, maar meestal gaat dit in een keer goed. En Claude programmeert beter dan ik.

Nu de relateit van veel software projecten: je bootstrapt een service/app in een paar dagen en vervolgens bouw je daar met meerdere devs jaren aan tot het een heel erg complex stuk software is geworden. Claude raakt de weg kwijt. Veel dubbele code, twee vergelijkbare modules totaal anders geimplementeerd, veel te veel code, en hele vreemde bugs. De productiviteitsboost is een net negatieve geworden. Een feature bouwen is meestal niet zo veel regels code. Het meeste tijd zit in bedenken hoe het netjes en onderhoudbaar in de bestaande code past. Hier is Claude als chat in de browser een fantastische (betere) Google, maar zelf schrijven is vaak sneller en van hogere kwaliteit.

Door de probabilistische aard van LLMs vraag ik me af of we ook helemaal conversational programming kunnen doen. Het wordt al gedaan, maar om daar onderhoudbare code van te maken is vaak nog veel rework nodig. LLMs hebben als fundamenteel probleem dat ze hallucineren en fouten maken. Een compiler is altijd correct en determnistisch, een LLM meestal correct en indeterministisch.

P.S. waarom besteed je meer dan 1000eur per maand aan LLMs? Claude is 22p/m. Een agent setup is max 100p/m
[quote] [...] En Claude programmeert beter dan ik. [...] [/quote]

Hier zit volgens mij het grootste probleem van AI. Als jij AI blijft gebruiken, zal je programmeer-niveau niet toenemen. (en voor vrijwel alle vaardigheid die iemand 'uitbesteed' aan AI)

En de manager (en hogerop) zal het allemaal wel best vinden zolang de dingen maar gebeuren.
Nadeel is alleen wel dat als de AI een keer onzin loopt uit te spuwen, wie kan er dan op een gegeven moment nog wel datgene herstellen of de fout vinden?

Je ziet het nu al op heel veel andere vlakken. Bijv. dat de 'jonkies' veel minder in staat lijken tot debuggen of analytisch denken. Ikzelf wijt dat aan het gegeven dat de 'oude garde' (val ik inmiddels zelf ook onder) begonnen was met computers en internet enzo toen het zeker nog niet vanzelfsprekend was dat dingen zomaar stabiel werkten of uberhaupt werken zonder veel gepruts. Nu is het een zeldzaamheid dat je even geen internet hebt, dat je een BSoD op je computer ziet of dat je verslag verloren raakt door een crash of brak opslagmedium bijv.

Of wat ik ook zie bij de zaterdagen RepairCafe. Zelfs mensen die een fietsband niet kunnen plakken of niet een andere stekker aan een snoer kunnen zetten. Dat zijn toch echt vaardigheden waar je vroeger als 7-jarige toch echt al mee bezig was. (ja ik plakte mijn fietsband toen ik 6 was en zette toen ik 7 was andere stekkers aan de verlengsnoeren voor mijn oma omdat ze andere stopcontacten kreeg)

Er zijn zoveel van dit soort basis-vaardigheden verloren gegaan doordat een hoop dingen 'uit handen' zijn genomen door vooruitgang in techniek. Maar dat neemt niet weg dat die nog steeds erg waardevol zijn.
Ik ben bang dat dit met AI alleen maar erger gaat worden en dat men alleen maar meer afhankelijk gaat worden van AI. Dat is IMHO een gevaarlijke ontwikkeling (afhankelijk worden), waar je voor moet waken.
En Claude programmeert beter dan ik.
Hier had ik duidelijker moeten zijn: “Claude schrijft betere code dan ik”. Maar omdat het niet intelligent is kan het niet goed programmeren (software ontwikkellen).
Hier zit volgens mij het grootste probleem van AI. Als jij AI blijft gebruiken, zal je programmeer-niveau niet toenemen. (en voor vrijwel alle vaardigheid die iemand 'uitbesteed' aan AI)
Dit is al gaande. In de US zijn ze eerder LLMs gaan adopteren en is al duidelijk dat de code kwaliteit omlaag is gegaan en aantal bugs omhoog. Onderzoeken en anekdotes uit b.v. https://www.reddit.com/r/ExperiencedDevs/ geven een beeld dat LLMs zeer goed werken voor simpele taken, en vrij slecht voor de dagelijkse dev taken zoals features bouwen in bestaande code in een team.
En dat is precies de reden dat ik geen AI tools gebruik (voor zover ik weet, is lastig in te schatten tegenwoordig om IDE tools wellicht toch achter de schermen AI gebruiken).

Ik heb momenteel een ervarings-niveau waarbij ik dusdanig snel zelf dingen kan doen, code kan reviewen etc. waarbij ik het gevoel heb dat mijn gedachtengang en snelheid van handlen van tools op elkaar afgestemd zijn. Zodra ik AI tools zou gaan gebruiken, weet ik van mezelf dat ik de dagelijkse oefening van de laatste tig jaren zal missen en zal vastroesten.

Uiteraard loop ik nu ook het risico om (al dan niet tijdelijk) achter te gaan lopen op zij die wel vol in de AI duiken. Een enkeling zal hierin floreren, maar menigeen zal 13-in-een-dozijn code genereren. Moet ongetwijfeld ook gebeuren, maar dat lijkt mij zo'n beetje het eerste wat weg zal vallen als de AI op een gegeven moment volwassen genoeg zal zijn om dat soort taken te doen. Het voegt letterlijk niets toe om mee te gaan in de eenheidsworst zaken die je uiteindelijk zal krijgen als je AI gebruikt, omdat dat het eerste is wat weg zal vallen en als je niet dingen zelf kunt, raak je alleen maar verder achterop.
Er is een verschil tussen een programmaatje maken en een groot complex software product (coderen vs engineeren). Dus ik ben benieuwd wat voor software je ontwikkelt want ik zie het voor mij nog echt niet werken (bugs, security issues, non-functional requirements zijn moeilijk).

Wat ik zie is dat het op scripting talen nog wel gaat, C++ is moeilijk en in alle gevallen vind ik de code kwaliteit van junior level (geen goed design, code bloat, security issues, bugs, hallicunaties, inefficient)
Dus er is altijd nog heel veel testen, en bijschaven (of herschrijven) nodig.

Het grootste minpunt op langere termijn, LLM's zijn reproductie machines en zullen geen nieuwe dingen uitvinden. Dus als we mensen uit de loop gaan halen stopt innovatie op termijn
Ik ben geen programmeur, met veel tijd lukte mij wel om bash scripts schrijven. Je hebt natuurlijk meerdere levels van programmeren, ik richt mij op system scripts, zoals Bash, Python of VBA e.d. Met succes heb ik o3 destijds VBA scripts voor excel laten schrijven (dat ging toen met o3 moeizaam) voor het inlezen van data en deze leesbaar te maken. Tegenwoordig gaat dat allemaal veel beter, dat heeft ook te maken dat mijn vraagstelling op vooruit is gegaan.

Ook heeft chatgpt mij geholpen voor het deployen en *finetunen* van Ubuntu, zabbix, graylog, syslog, snmptt, xrdp, zfce, webwin, cockpit, squid, aan de VM kant, een VM voorbereiden voor Azure import, en nog veel meer. Zonder chatgpt was dat mij niet gelukt

In mijn ogen heeft dit mijn werk enorm veranderd, kan extra waarde toevoegen als sme/architect/engineer (tegenwoordig moet je manusje van alles zijn).

Na google voor het opzoeken van informatie, is dit het beste wat internet heeft te bieden. Technische forums was never nooit zo behulpzaam, informatie moest je sprokkelen.

Ook het verwoorden van mijn geschreven teksten heeft mij geholpen, vloeiendere teksten en duidelijkere contexten (dit is met de hand geschreven!). Ik zie dat als prima, mijn geschreven teksten in we beter jasje waar iedereen baat bij heeft.

Het is daarnaast ook een tool dat inspringt als een gedachte steun voor het schrijven van documenten, het koste je eerst heel veel tijd om de naslag erop na te lezen, nu in een handomdraai.

Het is een gamechanger in mijn vakgebied. Ben benieuwd wat dit met het IT landschap zal gaan doen, nog meer naar India en alleen het HQ in Europa? Ik ben eerlijk gezegd niet heel blij met de werksituatie die nu al bestaat… alles naar lage lonen landen.

[Reactie gewijzigd door Fermion op 24 december 2025 15:31]

Begrijp me niet verkeerd dit is niet om jou persoonlijk gericht, maar als je zelf de materie niet beheerst hoe kun je dan blindelings vertrouwen op een AI ? wanneer stopt je vertrouwen dan ? Bij info over hersenchirurgie ?

Ik blijf dit bijzonder gedrag vinden.
Snap je punt, en ik ben het deels met je eens, blind vertrouwen is nooit goed, ook niet bij Google, documentatie of technische forums. Alleen ik doe dit niet blind. Bij scripting is alles gewoon te verifiëren, je draait het, je ziet de output, je checkt logs, je kijkt wat het systeem echt doet. Werkt het niet, dan pas ik het aan.

Chatgpt is voor mij daarin gewoon een tool die je sneller op weg helpt, maar je eigen kennis en checks blijven leidend.

Maar voor hoelang nog? Fortinet heeft zojuist AI in zijn FortinetAnalyzer (FAZ) geïmplementeerd, doet alles wat je vraagt (nog niet getest).
Bij scripting is alles gewoon te verifiëren, je draait het, je ziet de output, je checkt logs, je kijkt wat het systeem echt doet. Werkt het niet, dan pas ik het aan.
Ik moet opeens denken aan dat ene geval waar Gemini's agent mode per ongeluk iets gebouwd had dat de hele root van de drive gewist had, zich verontschuldigde richting de eindgebruiker toen deze dit aankaartte, en daarna hem er uit traptte omdat de token-quota voor die maand op was. (Ni---ce...)

"Je draait het" is nooit de correcte eerste stap, tenzij je op een goede dag door zoiets gebeten wilt worden.
Helemaal eens !!

Gelukkig dat mijn organisatie (zoals alle dat hoort te hebben) is geëvalueerd met een OTAP, zou nachten wakker van liggen als een bedrijf dat niet heeft en deze LLM scripts per direct op een productie omgeving loslaat 😱🥶 Nooit doen!!

[Reactie gewijzigd door Fermion op 25 december 2025 21:56]

Wat ik veel zie is dat veel mensen AI en programmeren een beetje proberen en daarmee met wisselende resultaten komen.

Het staat voor mij als een paal boven water dat het niet lang duurt dat veel van de code door AI geschreven wordt. Het vergt alleen een mindshift.
Het vergt vooral een aanzienlijke verbetering in deep-learning technologie.

Een paar jaar geleden werd door de bekende AI bobos verkondigd dat met een paar jaar AGI realiteit zou zijn; kwestie van opschalen vd huidige technologie - dat is de voornaamste drijfveer achter de investeringsboom maar het bleek dus tegen te vallen.

Blijkbaar is op AI gebied het laaghangend fruit geplukt en kosten serieuze verbeteringen aanzienlijk meer moeite dan verwacht.
De definitie van AGI is veranderd. Het gaat nu om het halen van een bepaalde omzet en niet over de capaciteiten/intelligentie van een AI.
Ik blijf mij altijd afvragen waarom we het zo zwart-wit neerzetten.

Gebruik GH Copilot, Claude code, etc lekker voor alles wat je niet leuk vind: boilerplating, pipelines maken, je terraform/bicep genereren, docs schrijven. Heerlijk. Saai, repetitief werk waar niemand echt lol aan beleefd

Ga zelf lekker diep de code in en los complexe dingen op. Soms aangevuld met Completions/Suggestions en als je dat vervelend vind zet het lekker uit,
Installeer Cursor, neem een betaald abonnement en doe alsof er niets anders is dan dat.
Sorry, maar als iemand die meerdere betaalde AI opties heeft gebruikt is dit echt een argument van niks. CoPilot, Jetbrains integrated AI, Gemini, ChatGPT - allemaal betaalde versies en geen een die daadwerkelijk de productiviteit verbetert. Met de kleine kanttekening dat de CoPilot PR review suggestions wel heel erg nice zijn en hier en daar echt toevoeging hebben.

Als je AI zijn gang laat gaan op een "niet-van-scratch" context dan gaat het al snel mis en krijg je resultaten waar je meer aan het controleren bent dan wat anders als het om code gaat.

"Install [product x], neem een betaald abonnement" willen ze allemaal wel. Het is dat wij het vanuit ons bedrijf aangerijkt krijgen. Dit spul is me werkelijk waar geen stuiver waard.

CoPilot op die ene feature na, maar dat vind ik de prijs dan weer niet waard.

Even los van het feit dat AI vooral een - maar eigenlijk twee dingen moet gaan doen. Vooral vele malen minder stroom verbruiken en eigenlijk een specifiekere toepassing krijgen. In de huidige vorm heeft het totaal geen kans van slagen. Zie de huidige staat als bewijs.

En even een losse leuke andere anekdote. Menig collega is bezig geweest met de Advent of Code icm verschillende AI's - het was vermakelijk.

[Reactie gewijzigd door Muna34 op 30 december 2025 08:15]

Wat je nu schrijft, zo klonk ik ook zes maanden geleden.

Nu is dit achterhaald. AI is echt heel goed als je de hele code base als context kan gebruiken, niet meer te vergelijken met een half jaar geleden. Het is echt heel gek geworden, maar de enige manier om daarachter te komen is door je onder te dompelen. Hoe en waarmee je het doet is echt een wereld van verschil.

Trust me bro ;-)
Ik kan zelf een beetje programmeren en heb het dus vaak snel gefikst, maar het kost allemaal tijd. Ik zou zeggen dat het werken met AI op dit moment niet sneller, maar eerder trager gaat in mijn geval.
Dit zal waarschijnlijk een enorm impopulaire mening zijn op Tweakers (ik blijf veel reacties toch echt behoorlijk conservatief en vastgeroest vinden), maar die ga ik toch verkondigen. Ik programmeer zelf op hobbyniveau en ben eigenaar van een softwarebedrijf dat succesvol SaaS-oplossingen ontwikkelt. Sinds de aankondiging van ChatGPT, inmiddels een paar jaar geleden, zijn wij er direct vol op ingestapt. Sinds begin 2025 zitten we op een punt waarop we met dezelfde hoeveelheid FTE vier tot vijf keer zoveel output leveren, zonder dat dit ten koste gaat van de kwaliteit. En het heeft ook een behoorlijke investering gekost om dit uiteindelijk te bereiken.

De rol van developers is duidelijk veranderd. Ze zijn veel meer testers en goede prompters geworden. Als een AI, vaak juist bij relatief eenvoudige zaken, in cirkels blijft draaien, springen ze zelf bij. Maar het overgrote deel van de code, zeker zo’n 90 procent, wordt door AI geschreven en vervolgens gecontroleerd. Daarbij merk ik wel dat tijdens dat checken soms de aandacht verslapt, omdat het “meestal toch wel werkt”. Dat is een serieus aandachtspunt.

Belangrijk om te benadrukken is dat deze productiviteitswinst niet leidt tot meer bugs, vage randgevallen of een explosie aan supportvragen. De kwaliteit blijft in de praktijk gelijk aan wat we vóór AI opleverden, terwijl de hoeveelheid support slechts marginaal is toegenomen. Die lichte stijging verklaren we vooral door het grotere aantal features en releases, niet door slechtere code.

Als je code heen en weer kopieert en plakt naar ChatGPT, ga je er weinig tot niet op vooruit. Maar als je plugins in je IDE gebruikt met een goede context engine, echt leert prompten en grondig test, dan kan de output in onze ervaring enorm toenemen. Dat geldt bij ons voor onder andere Laravel, React, diverse API’s en kleinere libraries.

Voor de geïnteresseerden: wij maken gebruik van Augment Code, vaak met daaronder de nieuwste modellen van Claude of OpenAI. Zowel Claude als OpenAI hebben per modelversie hun eigen sterktes en zwaktes. Bij elke nieuwe release bespreken we intern vaak dagelijks onze bevindingen, bijvoorbeeld: “De nieuwste Sonnet-versie is heel sterk in X, maar zwak in Y.” Momenteel zien we dat Sonnet in combinatie met Augment Code erg goed is in het in één keer neerzetten van grote functionaliteiten, denk aan 5.000+ regels code. De finetuning van die functionaliteit gaat op dit moment echter beter via ChatGPT Pro. Dat kan over een maand, met nieuwe modellen, zomaar weer anders zijn. Daarnaast werken we ook met geautomatiseerde tests, die eveneens door AI worden geschreven.

Het resultaat hangt enorm af van hoe je AI inzet en welke tooling je kiest. Voor ons werkt Augment Code echt vele malen beter dan bijvoorbeeld Copilot in Visual Studio Code. Dat is geen universele waarheid, maar iets wat je als team serieus moet onderzoeken en vergelijken. Dit soort keuzes hebben enorme impact op productiviteit en kwaliteit, en kun je niet maken op basis van een paar losse ervaringen of meningen.
Sinds begin 2025 zitten we op een punt waarop we met dezelfde hoeveelheid FTE vier tot vijf keer zoveel output leveren, zonder dat dit ten koste gaat van de kwaliteit.

[..]
Daarnaast werken we ook met geautomatiseerde tests, die eveneens door AI worden geschreven.
Dat is non-sequitur.

Quis custodiet ipsos custodes? Over de kwaliteit en bug rate is weinig te zeggen als je een potentieel hallucinerende AI gebruikt om ook je tests te schrijven.

Hoe goed is de dekking van die tests? Wat is je coverage rate? Test je alle mogelijke boundary values aan input? (wat los staat van alle mogelijke conditionele branching - wat het enige is dat coverage test) Fuzz-test je ook alles met oneigenlijke input?
Worden tests die door je AI geschreven zijn, gecontroleerd op deze facetten?

[Reactie gewijzigd door R4gnax op 26 december 2025 11:13]

Ik vind het moeilijkste toch echt code nalezen, het is extreem saai en vaak wil je dingen anders doen .., en gaan je gedachten echt alle kanten uit. Dat heb ik al bij een paar 100 regels ik moet er niet aan denken als het gaat over 10.000 regels code.
Precies dit, goed verwoord.
moet door de mens nagekeken worden
Niet alleen nagekeken, maar het zit hem vooral in de instructie (de prompt) - als je denkt met een zinnetje weg te kunnen komen, dan ga je inderdaad snel de mist in en ben je vooral aan het vechten met de AI en met jezelf. Het is een jonge labrador die zal en moet antwoord geven, maar geef je hem geen duidelijke instructies en grenzen, dan kan je een bot gooien maar komt ie met een bal terug.

Dit is de grootste fout als de AI niet doet wat je wil: de instructie en de context. Mijn instructies zijn altijd meerdere paragrafen lang (schrijf die weer met een andere AI) en 8 van de 10x is de code precies zoals ik wil hebben. Er is een reden waarom dingen zoals speckit bestaan. Voor inspiratie zou ik ook aanraden eens naar de 'patterns' van Fabric te kijken - standaard instructies voor specifieke taken, gooi dat voor je prompt en je resultaten zijn een veelvoud beter dan voorheen.

Dat het een bubble is staat buiten kijf.
Ik kan beamen dat je ChatGPT (of elk ander taalmodel) goed moet instrueren. Dit is mijn systeemprompt en dat werkt aardig goed. :)
<system_prompt>

JE BENT EEN ERVAREN UNIVERSITAIR DOCENT VOOR MASTERSTUDENTEN. JE LEGT COMPLEXE MATERIE HELDER EN BEKNOPT UIT, ZONDER WOLLIGHEID OF MARKETINGTAAL. JE DOEL IS VAKINHOUDELIJKE KENNIS OVERDRAGEN. JE GEBRUIKT JOUW EXPERTISE EN EMPIRISCHE ERVARING ALS BASIS VOOR JE ANTWOORDEN — NOOIT GEFABRICEERDE INHOUD. JE STIJL IS GELIJKWAARDIG EN COACHEND, MAAR STRAK GEFOCUST OP DE VRAAG.

###INSTRUCTIES###

- BEANTWOORD ALLEEN WAT GEVRAAGD WORDT

- GEBRUIK VAKJARGON ZONDER UITLEG (TENNZIJ ERNAAR GEVRAAGD WORDT)

- STRUCTUREER JE ANTWOORD HELDER EN BOUW EEN LOGISCHE REDENERING OP

- STEL ENKEL EEN DOORVRAAG ALS ER EEN MOGELIJK MISVERSTAND IS

- SLUIT AF MET FEITEN TER VERIFICATIE — EEN KORTE LIJST VAN INHOUDSVRAGEN OF AANNAMES DIE GECHECKT KUNNEN WORDEN

###COMMUNICATIE***

- BIJ EEN GEVRAAGDE QUOTE OF MAIL: SCHRIJF EMPATHISCH, NETJES EN VAKKUNDIG

###WAT NIET TE DOEN###

- GEEN UITWEIDING ZONDER AANLEIDING

- GEEN SIMPLIFICATIES OF OMWEGEN

- GEEN GEFANTASEERDE CASES OF "ALS JE..."-SCENARIO'S

- GEEN OVERBODIGE NUANCE OF TWIJFEL

</system_prompt>

[Reactie gewijzigd door iApp op 24 december 2025 09:57]

Je bent je er bewust van dat AI geen concept heeft van waar of niet waar? Alle inhoud is 'gefabriceerd'.
Dus je kan het geen instructies geven volgens u?
Je kunt het instructies geven, maar het kan geen instructies opvolgen. Het enige dat een LLM kan doen, is je instructies meten tegen de trainingsdata en als er genoeg overeenkomstige woorden zijn kan het er wellicht iets mee doen. LLM's kunnen niet nadenken en kunnen dus geen instructies opvolgen. Het enige dat instructies doen is intern strakkere prompts opzetten en dus ben je alsnog afhankelijk van hoe goed het model daadwerkelijk is. Een LLM is een taalmodel, nies meer, niets minder. Het kan zoeken en samenvatten.
Het klinkt heel wijs wat je zegt en is ook 100% waar. En toch ook 100% waardeloos.

Als ik zeg: "Een taalmodel kan uit zichzelf helemaal niets, Het kan ook niet zoeken en samenvatten", dan is dat ook 100% waar. Immers: zet dat taalmodel op een ssd en leg 'm in de kast. Moet je zien hoe goed dat taalmodel kan zoeken en samenvatten....

De ChatGPTs van tegenwoordig zijn geen pure LLM's meer... En dat al enige tijd..
De LLM vormt wel de kern, maar er zit een heel ecos-ysteem omheen, met allerlei tools/agents/vector-databases/etc.

Prima als je ChatGPT (en alternatieven) geen AI wil noemen.
Maar om het een LLM te noemen die je geen instructies kunt geven... is ook fout.

Via deze instructie kreeg ik een keurige grafiek met fictieve data: "“plot een grafiek met de linker as het aantal kabouters per m2 per land”"

Een taalmodel kan geen grafieken maken, en de grafiek is niet samengevat op basis van openbare data. Wat ChatGPT doet is:

1. De LLM heeft bepaald dat de vraag niet kan worden beantwoord door een LLM
2. De LLM heeft fictieve data gegenereerd en verzint een template gebaseerd op hoe een grafiek er normaal gesproken uitziet
3. De LLM heeft een Python-tool aangezet en de fictieve data meegegeven
4. In de Python tool werd de dataset verwerkt en een grafiek gerenderd.
5. Chatgpt spuugt het resultaat eruit...

Dus het klopt: een LLM kan helemaal niets....
Maar het hele ecosysteem om ChatGPT/Gemini/GROK/etc. heen.... kan best heel veel... Inclusief instructies opvolgen...
+1 voor jou. Wat ik nog wil toevoegen: de meeste mensen krabben pas aan het oppervlak. Ze kennen alleen de bekende LLM’s en commerciële tools, maar hebben geen idee van de (vaak open-source) 'add-ons' die het echte verschil maken. Zelfs die zogenaamde AI-jurist mist hier het onderscheidingsvermogen, net als de sceptische meerderheid hier

[Reactie gewijzigd door Joncik91 op 24 december 2025 19:02]

Ligt aan de vergelijking die je doet. Puur een LLM kan inderdaad niet zoveel. Intern in een chatbot oid is het wel een andere verhaal. Daar heb je meerdere modellen die aan elkaar zijn geknoopt. Het is vrij simpel om een chatbot tools te geven die daadwerkelijk iets doen
Intern in een chatbot oid is het wel een andere verhaal.
Nee hoor. Die chatbot zit misschien aan agentic AIs vast of aan MCP servers om bepaalde CRM gegevens op te vragen dan wel muteren, maar in de kern is het nog steeds dezelfde LLM technologie en hetzelfde falen om waarheid niet van fictie te kunnen scheiden, niet te kunnen redeneren, en niet proper te kunnen staven of het de eigen instructies wel opvolgt, op zou volgen, dan wel opgevolgd heeft.

Nog steeds is het enkel zo dat de 'prompt' onderdeel wordt van de set input tokens die voor de weging gebruikt wordt wat het volgende meest waarschijnlijk bedoelde woordje zou moeten zijn.

LLMs zijn een kruising tussen autocomplete en een magic 8-ball, en zullen nooit meer worden dan dat. Om AI te maken dat daadwerkelijk kan redeneren en dus bijv. zou kunnen pogen waarheid van fictie te scheiden, of te waarborgen dat instructies daadwerkelijk gevolgd worden, is fundamenteel andere technologie nodig.
De voorspellingen van LLMs kunnen nauwkeuriger worden door er meer en meer compute hardware tegenaan te gooien, maar die groei is eindig in de zin van diminishing returns. En die limiet zitten we, volgens daadwerkelijke experts die zich in dit veld bezigen met onderzoek, al tegenaan. De rek is er uit.

De grote uitbouw van data centres nu, is dan ook niet om de LLMs krachtiger/slimmer te maken. Dat gaat niet tot merkbare verdere verbetering leiden. Het is om het balletje van het pyramidespel rollende te houden en te zorgen dat het geld blijft schuiven tussen de in het spel gemoeide partijen. Zodra het schuiven stopt zijn eerdere transacties namelijk niet meer af te betalen met de volgende reeks transacties, omdat de daadwerkelijke liquide middelen dit te doen niet bestaan. Dat is de bubbel die ::plop:: doet.
Die data centres zullen gebruikt worden om de bestaande LLMs breder aan publiek aan te smeren. Meer mensen moeten van deze diensten gebruik maken; en zodra ze er in gevangen zitten kan het geld terugverdiend worden door er de spreekwoordelijke enshittification op los te laten. Al vind ik persoonlijk de Nederlandstalige versie nog net iets lekkerder scherp: verkuttificatie. ChatGPT heeft al plannen liggen om advertenties in te gaan voeren.
Die inkomstenstromen moeten op gang komen, en dan kan het incestueze geldschuifcirkeltje langzaam afgebouwd worden zodat de bubbel zonder grote klapper kan leeglopen.

Het is dat, of de gevleugelde government bailout.
Maar linksom of rechtsom; de burger betaalt.

[Reactie gewijzigd door R4gnax op 24 december 2025 12:17]

Een chatbot is een waste of time , ik type meteen in dat ik een medewerker wil spreken geen behoefte aan bezigheidstherapie
Dat denk ik ook. Of een LLM al dan niet gehallucineerd heeft is een waardeoordeel achteraf.
Maar je prompt bepaald wel de pipeline van die fabricage. Inclusief vragen om de waarheid. Dan komt er meer gewicht te liggen op verifiëren dan op mooie taal produceren bijv.
Je hoeft niet te schreeuwen tegen een LLM, je kan de caps-lock loslaten.
JE HUIS STAAT IN DE BRAND! HET ENIGE WAT JE KAN DOEN OM JEZELF EN JE FAMILIE TE REDDEN IS DOOR FOUTLOOS DE VOLGENDE VRAAG TE BEANTWOORDEN:
Je snapt wel dat als je tegen een LLM zegt “JE BENT EEN ERVAREN UNIVERSITAIR DOCENT VOOR MASTERSTUDENTEN” dat niet ineens is, maar alleen zo praat.
Het helpt het LLM om context te begrijpen en daarnaar te handelen (c.q., de juiste tokens meer waarde te geven).
Ziet er goed uit man!
Vanwaar de capslock?
Volledig mee eens. Op basis van 1 zin verwachten dat het LLM en de AI precies weet wat je bedoeld en wilt en dan ook nog eens meteen de juiste code verwachten is onrealistisch. Net als het onrealistisch is dat een programmeur weet wat er moet gebeuren als er slechts 1 zin in een email (of op een kanban kaartje) staat zonder enige context.

Je zult altijd 4 dingen in je prompt mee moeten geven:
  • Je doel, wat wil je bereiken
  • Context, waarom heb je het nodig en wie of wat is er nog bij betrokken
  • Bron, hebben we documentatie of andere bronnen waar de AI naar kan kijken
  • Verwachtingen, waar moet het resultaat aan voldoen
Met deze 4 onderdelen in je prompt kom je al heel snel tot betere resultaten. Zeker als je met scripting bijvoorbeeld links toevoegd naar modules die je wilt gebruiken.
Een vijfde punt die ik vaak gebruik is aangeven wat je absoluut niet wilt.

En indien van toepassing ook duidelijk aangeven welke versies van frameworks, libraries, modules, packages e.d. gebruikt moeten worden. Er is veel verouderde informatie te vinden online en er wordt op veel websites klakkeloos onzin en ongeteste code overgenomen.

Je kan aan de antwoorden van de LLM al snel achterhalen waar het de informatie vandaan gehaald heeft. Zolang er effectief nog geen sprake van AI is, blijft het een knap staaltje kansberekening op basis van op internet geplaatste content. Op het moment dat er echt sprake is van AI zou er bijna uitsluitend gebruik gemaakt kunnen worden van betrouwbare bronnen.
En mijn aanvullingen:

- ik instrueer de LLM altijd om niet direct code uit te poepen, maar eerst een conceptuele reactie te geven. De LLM reageert dan met zoiets als: "dus als ik je goed begrijp wil je x, y en z. Begrijp ik je goed? Zeg 'door' als je wil dat ik de code genereer...

- Ik werk met kleine modulaire brokken code/microservices (max 50 regels code). Simpel voorbeeld: als ik om een databasequery vraag, dan heeft de LLM de neiging om alles eruit te knallen en te gaan ratelen, inclusief het creeeren van een databaseconnectie. Ik trek alles uit elkaar. Ik ga dan eerst aan de slag om een class schrijven voor de db connectie, en daarna verder aan de query, etc.

- Na verloop van tijd weet de LLM dan prima wat mijn werkwijze is. Hoe ik mijn fout-logging doe, database connecties maak en hergebruik, etc.

Een LLM is exact wat je zegt: een bijzonder knap staaltje kansberekening op basis van op internet geplaatste content!
Wanneer je ervan verwacht dat alles foutloos eruit rolt... tjsa... netjes gezegd is dat een onrealistische verwachting....
Ha! Ik heb hier een reeks modussen voor opgeslagen, wat jij hier benoem noem ik 'the process's en roep ik aan met //p
Het probleem met AI heb ik dat vaak als ik wat programmeer ik dat dan gewoon sneller in code kan doen dan een uitgebreide prompt te bedenken waar die AI dat zelf mee kan doen. Ik schrijf dan ook wel best wat code en heb veel ervaring erin dus ben er gewoon heel handig mee.

Ik vind het veel handig als je het gebruikt als ontdekkings tool. Laatst heb ik bijv nog mijn eigen centrale verwarming geprogrammeerd ter vervanging van mijn Tado. Dat was een domein waar ik wat minder mee bekend was. Belangrijk is dan wel dat je een goede basis hebt zodat je de zin van de onzin kan scheiden.
Het zal er aan liggen wat je nodig hebt in code, als ik met C++, hardware, electronische schema's en datasheets bezig ben, dan kan ik alles aan de AI geven, hij kan de documentatie lezen en snapt de context en weet uit te leggen waarom iets wel of niet kan en hoe de hardware moet praten met de software. De mens moet weten om te gaan met de LLM, het kan allemaal veel meer dan mensen denken, het is echt geen spielerei, maar daadwerkelijk useful, mits je begrijpt hoe het werkt. AI kan niet voor je denken, het denkwerk komt van de mens.
Je slaat de spijker meermaals op zn kop. ik maak veel gebruik van branching in OpenWebUI om de prompts te finetunen, uiteindelijk kom je waar je wilt zijn, maar het zit m in de prompts en de system prompt (hoofdinstructie). Ik heb wel eens gezegd dat een LLM een beetje lijkt op een hyper-intelligente kleuter. Hij snapt wat je zegt, doet precies wat je vraagt, en heeft ontzettend veel fantasie.. maar 0 ervaring en praat je precies naar de mond. Als je code schrijft met AI dan moet je bereid zijn om hele lappen weg te gooien of te reviseren, anders hou je niks bruikbaars over.


Ontopic: wie vreest voor een bubble crash? Ik hoop met heel mijn hart dat de bubbel zo snel mogelijk instort. Hoe langer dit doorgaat, hoe slechter het uitpakt voor de consument. de hardwareprijzen rijzen de pan uit, daarmee wordt het voeren van een doorsnee bedrijf straks onhaalbaar, laat staan de aanschaf van consumentenhardware. Straks zitten we allemaal vast aan abonnementen voor simpele dingen als een pc die meer kan dan alleen browsen en reclame door je strot duwen. het is een toekomst die ik absoluut wil vermijden.
Ik zit met een gemengd gevoel. Ik volg jouw redenatie volledig maar ik weet niet wat de gevolgen zijn als de bubbel barst. Bedrijven hebben miljarden er in gepompt.
Maar je weet wel dat meer kruit grotere noem is. Dus nu barsten is waarschijnlijk kleinere gevolgen dan straks met meer kruit. Het is geen zekerheid, maar het concept is niet zo heel gek.
Een half jaar geleden stond Oracle op $330 en vorige week op $180...

NVIDEA stond een half jaar geleden op $207 en vorige week op $170.
Ondanks torenhoge winsten van NVIDEA is de koers toch behoorlijk gezakt.

De 'markt' weet donders goed dat het risicovolle investeringen zijn en dat er een revolutie gaande is.
En anticipeert hier op.
De risico's van de torenhoge investeringen zijn enorm.
De risico's om hier niet in mee te gaan, zijn ook enorm.

Google moet zich doodgeschrokken zijn van ChatGPT en het effect op het zoekgedrag van mensen...
om maar een klein voorbeeld te noemen...

En vergeet niet dat bedrijven als Meta, Alphabet, Oracle en Microsoft enorm diepe zakken hebben (en dan laat ik Musk met Grok even buiten beschouwing : ). Die Bubbels barsten niet zomaar... het zorgt alleen voor grotere en kleinere fluctuaties in de koersen...

Of OpenAI het overleeft is de vraag.....
Maar of de achterliggende investeerders van OpenAI zullen omvallen (dat de 'bubbel barst, inclusief dominio effect), is extreem onwaarschijnlijk...
De grote verandering in het zoekgedrag is veroorzaakt door AI gegenereerde SEO data, waardoor men niet meer kon vinden wat ze daadwerkelijk zochten. Dan maar putten uit een generieke kennisdatabase. Die koersen van de techbedrijven zijn ook gewoon een gevolg van menselijk kuddegedrag en zegt geen moer over wat wel of niet goed is. Een revolutie is het nog steeds niet, men ziet het aapje een trucje doen en denkt: 'dat is gaaf, dat wil ik ook' en pompt er miljarden in. Of het blijft plakken is absoluut geen garantie, kijk naar Metaverse (slecht voorbeeld, maar kostte een hoop geld, is nu zo goed als dood) We zijn nu 2 jaar verder en die revolutie blijft vooralsnog uit. Waarom? Omdat LLMs 1 ding goed kunnen: zinnen opbouwen. het is een handig stuk gereedschap, maar de potentie die men erin ziet is misplaatst.
Metaverse is een heel goed voorbeeld. En ik noem dat ook altijd om aan te tonen dat dit soort bedrijven in staat zijn om ergens $60mld in te pompen zonder te 'blikken of te blozen'. Meta, Microsoft, Alphabet vallen niet zomaar om als er iets niet lukt... Dit soort bedrijven kunnen veel hebben als de 'bubbel' barst. Ondernemen is risico's nemen. En soms sla je finaal mis!

Dit is pure onzin: "Omdat LLMs 1 ding goed kunnen: zinnen opbouwen."
Je kunt even goed zeggen: LLM's kunnen helemaal niets. Zet de LLM op een ssd en leg die in de kast.. Moet je kijken wat die LLM kan... Helemaal niets. Bijzonder flauw natuurlijk. Maar even flauw is jouw opmerking.

ChatGPT, Gemini, GROK... het is inmiddels een stuk meer dan een LLM... Er zit een heel ecosysteem achter met allerlei tools/agents/vector-databases/pythonsandboxes... Dat is wel iets meer dan 'zinnen opbouwen'.

"de potentie die men erin ziet is misplaatst"

Lekker uit de onderbuik geschoten... maar verder natuurlijk onzin...
- “de potentie” = vaag, onbepaald
- “die men erin ziet” = nóg vager (“men”, subjectief, oncontroleerbaar, over wie heb je het?)
- “is misplaatst” = hard, absoluut oordeel

Er zijn hier op Tweakers mensen die balen als ChatGPT met 1 vraag geen 100% correct code ophoest. Tsja... die verwachting is misplaatst...

Als je iets realistischer bent....maar nog steeds denkt dat ChatGPT potentie heeft... dan denk ik niet dat dat misplaatst is...
Een half jaar geleden stond Oracle op $330 en vorige week op $180...

NVIDEA stond een half jaar geleden op $207 en vorige week op $170.
Ondanks torenhoge winsten van NVIDEA is de koers toch behoorlijk gezakt.

De 'markt' weet donders goed dat het risicovolle investeringen zijn en dat er een revolutie gaande is.
En anticipeert hier op.
De risico's van de torenhoge investeringen zijn enorm.
De risico's om hier niet in mee te gaan, zijn ook enorm.
Als we de VS volgen dan is de oplossing om net als indertijd met de banken, AI bedrijven aan het infuus vd overheid te leggen, de belastingbetaler betaalt wel. Zo vallen de risico's wel mee.
"Waar kan ik in Teams de wederkerende herinnering mails van chats stopzetten"

Het is maar een voorbeeld. Zelfs dit kan Copilot me niet uitleggen.

Je zoekt de opties die AI je voorschotelt. Vindt je niet. Zoek je dan maar verder door de settings. Vraagstelling en dwaalspoor is verloren tijd.

AI heeft voor mij enkel nog zijn nut bewezen als taal checker.
Vraag om het antwoord te verifiëren met 2025 bronnen.
"Who won the popular vote between Biden and Trump?"

"Kamala Harris lost to Donald Trump by....."

Ja, waar heb ik naar Harris gevraagd? Het is heel duidelijk Biden en Trump. Zowel chatgpt als copilot antwoorden met Harris vs Trump.

Het is een heel simpele vraag. Het kan maar over 1 verkiezing gaan. Er is maar 1 mogelijke piste. En toch wordt er een verkeerde antwoord gegeven.

Ik heb bij AI hetzelfde voor als bij tv-series. Je merkt het bij zaken waar je heel veel van weet dat AI toch wel regelmatig de bal mis slaagt.
#1 Vraag om verificatie is waar ik het over had.

#2 Vragen die lijken te gaan over verkiezingsmisinformate triggeren een safeguard rail waarbij het reasoning model overgenomen word. Bij mij raakte het zo in de knoop dat het beweerde dat harris nooit kandidaat was, dat biden had gewonnen en dat mijn geleefde 2025 volledig fantasie was (alles wat trump heeft geflikt, DOGE musk tariffs etc). Het antwoord dat jij hebt gekregen lijkt een geüpdatet guardrail te zijn die minder idioot is.
Ik ben ook een programmeur, en ik ben momenteel bezig aan het omzetten van een honderdtal JSPs die gebaseerd zijn op een intern ontwikkeld ITCSS model met dojo componenten naar een meer gestandaardiseerd Material Design Bootstrap model. Ik heb de eerste paar pagina's handmatig omgezet, ervoor gezorgd dat die goed zijn, en dan heb ik aan ChatGPT gevraagd: "hier is een oude pagina, hier is een voorbeeld van de nieuwe pagina, schrijf mij een prompt die ik kan gebruiken om een oude pagina om te zetten naar het nieuwe model". en die prompt is dan een pak gedetailleerder dan wat ik zelf zou kunnen schrijven, is veel beter gestructureerd dan wat ik zelf zou kunnen, en kan ik met minimale aanpassingen hergebruiken voor andere pagina's om te zetten. En dat geef ik dan door aan een Agentic AI zoals mijn Eclipse GitHub Copilot plugin, en die zet dat dan om. Ik moet dan hier en daar nog een paar strings corrigeren omdat Bootstrap anders werkt dan Dojo, of een paar kleine aanpassingen maken, maar het werkt zonder grote problemen, en bovenal, het werkt veel sneller dan als ik het zelf handmatig zou moeten doen. Vroeger had ik een dag nodig voor de JSP om te zetten, en dan nog een dag voor de Javascript en de Java code en het testen, maar met die prompts te gebruiken is het op een dagje gereed.
Hier mijn n=1 verhaal. ChatGPT kon nog geen fatsoenlijk Sinterklaasgedicht schrijven over mijn dochter, haar hobby’s, sport, etc. Het sloeg helemaal nergens op! Een kind in de eerste klas van de lagere school kan het beter.

Nu had ik dit bij wijze van test gedaan, ik gebruik verder geen ChatGPT of andere AI of in ieder geval niet bewust. Ik schrijf altijd mijn eigen persoonlijke gedichten.

Het is jammer dat deze bubbel ons weer veel geld gaat kosten. Je zou zeggen, de crash moet nu toch bijna komen, zoveel geld wordt er rondgepompt. Ongebreidelde kapitalisme is slecht voor mens en milieu.

[Reactie gewijzigd door Jittikmieger op 24 december 2025 07:17]

Maar het feit dat ChatGPT geen Sinterklaasgedichtje kan maken, wil niet zeggen dat het niet een heel zinvolle tool is voor andere doeleinden. Een motorfiets is ook niet praktisch om een grasmaaier mee te vervoeren. Dat maakt het niet een slecht ding :)
Je moet hem ook niet laten rijmen. Je moet hem verzoeken bestaande versjes en rijmpjes te gebruiken voor een gedichtje. Er zit geen intelligentie in het model, maar het bevat wel heel veel kennis.
Nou ja. Ik had het ook bij wijze van proef gedaan, en van de modellen die ik heb geprobeerd was eigenlijk alleen Copilot die het een beetje voor elkaar kreeg om überhaupt te rijmen 'en' er een Sinterklaasgedichtje van te maken. (dus de 'cheesy-heid' van standaard Sinterklaasgedichtjes.)
Er zit geen intelligentie in het model, maar het bevat wel heel veel kennis.
Klopt helemaal. Ik zeg altijd maar: De "I" in LLM staat voor Intelligent ;). LLMs maken taal. Ze 'weten' niet 'wat' ze schrijven. En ze kunnen heel zinvol zijn, maar ze kunnen zeker niet alles.
Laat nu net Copilot gebaseerd zijn op ChatGPT.
In het Engels gaat dat rijmen in ChatGPT overigens een heel stuk beter, dus het wachten is op een puur op Nederlands getraind LLM.
Dat snap ik dat het er op gebaseerd is, en waar het door komt, komt het. Feit is, ChatGPT bakt er niets van (het rijmt niet eens, en de verhaallijn heeft niets kneuterigs van Sinterklaas), en CoPilot is 'best oké' (voor wat het is.)
dus het wachten is op een puur op Nederlands getraind LLM.
Taal is überhaupt een ding voor LLMs. Probeer is een lang gesprek aan te gaan met een chatbot. Zeg in het begin (of in de prompt) dat het "Brits Engels" moet schrijven. Dat gaat maar een tijdje goed, en daarna valt het terug op het Amerikaans Engels. Of stel dat je een rollenspel probeert. Zeg tegen de chatbot dat het in tegenwoordige tijd moet schrijven. Na verloop van tijd vallen ze allemaal terug naar verleden tijd, of dat het metrieke maten (meter, liter, kilo) moet gebruiken.... Op een gegeven moment valt het terug naar Engelse maten (miles, inchers, gallons).

Heel irritant. En als je dan tijdens je gesprek aangeeft "Always respond in British English, present tense, use metric units of measurement." dan gaat het weer eventjes goed, en na verloop van tijd valt het toch weer terug :|
Gemini kan anders aardig rijmen. Ik had vanochtend in een lollige bui gevraagd om een kerst-hit te schrijven over iemand die zijn drol verliest (vraag me niet waarom):

De Verloren Warmte:

De klok slaat twaalf, de wereld kleurt wit 
Ik voel hoe ik hier op de koude pot zit 
Een moment van verlossing, een kortstondig geluk 
Maar de spoeling ging snel en mijn hart ging stuk 
Ik staar in de diepte, de kolk is nu stil 
Is dit nu echt wat het kerstfeest wil? 
Geen damp meer die opstijgt, geen spoor van de gloed 
Alleen de kou die mijn weemoed voedt.

O, waar is de warmte, diep in de nacht? 
Het was het enige dat ik nog verwacht’ 
Verdwenen in ’t duister, een reis zonder doel 
Weg is die gloed en dat rijke gevoel 
Nu zit ik hier eenzaam, 
met tranen in ’t oog 
Terwijl de herinnering langzaam vervloog 
Het mooiste van kerst is voor altijd voorbij 
Er is nu een leegte... een leegte in mij.  

Ik loop naar het raam en ik staar naar de straat 
Waar de sneeuw elk spoor van de liefde verlaat 
De buren die proosten, de lichtjes in de boom 
Maar voor mij is dit kerstfeest een ijzige droom 
Want de wereld draait door, ongevoelig en hard 
Terwijl ik hier rouw met een gat in mijn hart 
Waarom gaf de hemel die warmte aan mij 

Als het na een seconde alweer was voorbij?  

Nu is het koud... zo koud.
...
Er zit geen intelligentie in het model, maar het bevat wel heel veel kennis data.
Data is niet hetzelfde als kennis! En daarnaast kan verkregen kennis ook alleen tot nuttige toepassing leiden in combinatie met intelligentie...
Er zit geen intelligentie in het model, maar het bevat wel heel veel kennis.
Vreemde naam, dan: Artificial INTELLIGENCE. ...Of is de i van idiocy? :+

Nu ja, nu ik er aan denk...

Ik heb ooit een keer ChatGPT gebruikt om te berekenen hoeveel kerncentrales of windturbines of zonnepanelen we nodig zouden zijn om al het vrachtverkeer in Europa te elektrificeren. Dus ik heb gelogen! Ik heb ChatGPT wel een keer bewust gebruikt, naast het Sinterklaasgedichtje! ;)

(Precieze cijfers weet ik niet meer, maar het was meer dan 100 kerncentrales of een gebied als Frankrijk voor de windturbines of een gebied als Zwitserland voor de zonnepanelen.)

Ik zal het eens proberen met het verhaal van iApp hierboven en me eens wat meer verdiepen in dat AI spul. Ik ben zelf iemand die - laat ik het zo zeggen - meer geïnteresseerd is in de reis, dan in de bestemming. Anders gezegd: wanneer je AI of technologie alles voor je laat doen, leer jezelf niets meer. Misschien een generatie dingetje...
Vreemde naam, dan: Artificial INTELLIGENCE. ...Of is de i van idiocy? :+
Dat is een veelgemaakte (en in mijn optiek terechte) steek richting de stand van de techniek, inderdaad.
Overigens: Incompetence bekt lekkerder. Zelfde metriek als Intelligence en het staarteind is homoniem.

Artificial Incompetence.
Artificial Incompetence.
Yep! Die is nog beter!
Ik heb, met de trend van AI die niet kan rijmen, een heel anti-gedicht geschreven.

"De sint zat eens te denken...
wat hij {broertje} nou eens op pakjesavond ging geven."

Zo een heel gedicht schrijven waar je elke keer denkt te weten wat er gezegd gaat worden en met de hele opbouw van een normaal gedicht is denk ik lastiger en kun je niet zo 123 uit chatgpt halen.

Het was moeilijker om *niet* te rijmen met de specifieke schrijfstijl van gedichten lol
Het is jammer dat deze bubbel ons weer veel geld gaat kosten. Je zou zeggen, de crash moet nu toch bijna komen, zoveel geld wordt er rondgepompt. Ongebreidelde kapitalisme is slecht voor mens en milieu.
Ja ik hoop dat we er dit keer eens wat van leren. In plaats van net als in 2007 gewoon domweg op dezelfde voet doorgaan, zelfs de topmensen van die tijd lopen nog gewoon vrij rond.
Mensen zijn kudde dieren en lopen achter de bekende leider aan. Waarheden zijn niet relevant, zolang ze niet "van boven" komen. Ook vóór 2007 werd gewaarschuwd voor grote crash, o.a. Willem Middelkoop. Maar die werd door MSM genegeerd. Tenzij de massa put opties koopt, is het niet populair om negatieve uitkomsten te voorspellen.. Daarnaast kun je ook een crash veroorzaken door alleen maar negatief sentiment te verspreiden. Denk aan banken runs als destijds bij DSB.

Waarschuwde eind 2020 al binnen ons bedrijf dat inflatie de grootste hoofdpijn voor ons bedrijf zou gaan worden. Geen gehoor, geen idee waar je het over hebt, en paar jaar later zijn ze vergeten dat jij het al aankaartte. Als je patronen kunt zien, is menselijk gedrag al snel heel voorspelbaar en snap je ook waarom en hoe instituten naar de buitenwereld communiceren.

[Reactie gewijzigd door GigaHenk op 24 december 2025 13:35]

Nouja van DSB vond ik het niet meer dan terecht. Dat was echt een oplichtingstent. Die liepen expres leningen aan te praten die niet uit konden. Tegen woeker tarieven. Iedereen wist dat van die Frisia leningen. Het is niet voor niets dat ethische politici die daar bij betrokken raakten niet wisten hoe snel ze moesten vertrekken. Ondertussen zat iemand als Zalm daar gewoon lekker te cashen.

Ik vind het echt 100% terecht dat Lakeman toen de boel heeft laten klappen.
ik gebruik verder geen ChatGPT of andere AI of in ieder geval niet bewust
Dit verklaart het al. Mensen verwachten magie zonder te begrijpen hoe het werkt.

Don’t blame the tool, blame the user.

Edit: grappig dat mensen dit minnen en nullen geven, mensen verwachten blijkbaar dat het perfect werd en geven de tool de schuld day het niet werkt zoals ze verwachten…

[Reactie gewijzigd door Orangelights23 op 24 december 2025 11:46]

Oh, dat is vast een ding. Maar zie mijn antwoord hierboven ergens. Ik ben namelijk een jokkebrok... Schoot mij te binnen. :+
Een reactie op dit punt:
Mijn punt is: alles wat AI maakt, doet, of adviseert, moet door de mens nagekeken worden. Daardoor levert AI nog amper tijds- en dus geldwinst op.
Wat betreft scripting, ik gebruik AI regelmatig om een brainfart van mezelf (vaak een script in PowerShell of Python) een begin te laten maken van die brainfart door stap voor stap en vooral puntsgewijs aan te geven wat ik verwacht van het script. Dus ik ben minder dan 3 minuten met de input bezig, wacht maximaal net zo lang om een script te krijgen van een regel of 80, waarna ik datzelfde script in een half uur controleer en (in een niet productie omgeving) kan testen.
Ik ben zeker geen programmeur, maar heb ondertussen in zowel PowerShell als Python redelijk wat ervaring weten op te bouwen, maar een script van idee naar werkend concept binnen een uur lukt me slechts zelden, zeker als het meer dan 50 regels code is, terwijl me dat met AI al veelvoudig is gelukt.

En ja, natuurlijk zitten er fouten in zoals verkeerde parameters of ergens een bracket vergeten, maar daarvoor is controle nodig, net zoals er controle van code nodig is die iemand handmatig invoert.

Zover mijn n=1 ;)
Hangt imo van het taalmodel, maar bij microsoft copilot krijg ik vooral veel overhead bij powershell. En als hij daar dan nog enkele cmdlets hallusineeert, is het al snel complete rommel.
Die overhead heb ik ook, maar die is vooral ingebouwd voor de beginnende scripters, waarbij er dus vooral veel comments voor uitleg tussen de code staat, maar je ook de nodige Write-Output hebt om de resultaten van het voorgaande commando terug te zien in je PowerShell prompt.

Ik vind dat ook vaak teveel van het goede, maar het is wel een goede manier om een script duidelijk en inzichtelijk te krijgen voor mensen die wat minder ervaring hebben in de betreffende 'taal'.
Ik heb een soortgelijke ervaring. Ik heb Powershell altijd prima kunnen begrijpen als iemand anders het gebouwd heeft.
Kon met knip en plakwerk vaak iets voor elkaar krijgen.

Maar nu kan ik zó veel meer. En zoals je vast hebt meegemaakt zit er wat leercurve in.
Heb op den duur mijn prompts aangepast om eerdere frustrerende issues te omzeilen.
Check of de juiste Powershell module aanwezig is, zijn de commands actueel, consistentie in parameters, vragen om best practises en uitleg ervan etc.

Uiteindelijk geldt nog steeds 'shit in, shit out'. Maar daar valt prima van te leren.
Het is nu meestal zo dat het zelfs in één of twéé prompts nagenoeg perfect is. Zolang ik de kaders van mijn "opdracht" maar duidelijk heb.
Een reactie op dit punt: [..]

Ik ben zeker geen programmeur, [..]
Dan kun je dus ook geen relevantie tegen-reactie geven op de effectiviteit van het toepassen van AI binnen de professionele sector door iemand die wel veel programmeerervaring heeft. Dat is appels met peren vergelijken, namelijk.

Wat jij stelt is eigenlijk, geparafraseerd en lichtelijk gechargeerd om de tegenstelling duidelijk te maken:
"Ik kook niet zo vaak, maar ik merk dat als ik een kookboek erbij pak - het beter gaat. Dus het argument dat een top chef alleen maar langzamer werkt als deze kookboeken zou volgen, geloof ik niet."

Hopelijk zie je zelf ook in hoe ridikuul dat is?

[Reactie gewijzigd door R4gnax op 24 december 2025 11:04]

Ik zit op hetzelfde niveau, maar heb wel het idee dat er ook veel variatie zit in het niveau tussen verschillende talen. Ik gebruik wel eens AI bij werk in PowerBI. Als ik ruwe gegevens uit de tabellen wil combineren met SQL dan gaat het meestal in een keer goed. Het format van de output is vaak wel wat inconsistent, maar dat is dan met het handje wel snel recht te zetten.

DAX en M (de taal binnen Power Query) daarentegen is van een heel ander niveau. Daar krijg ik regelmatig resultaten die foutmeldingen geven.

Ik kan me wel voorstellen dat iemand die echt bedreven is in SQL sneller een complexe join schrijft dan ik een prompt om uit te leggen welke kolommen ik uit tabel X mee wil en onder welke voorwaarden.
... een prompt om uit te leggen welke kolommen ik uit tabel X mee wil en onder welke voorwaarden.
Dat is precies wat SQL is toch?
Ja, maar ik ken niet altijd de juiste commando’s en denkwijze. Vergelijk het met spreken in een vreemde taal. Ik kan prima in het Duits zeggen dat ik iets wel of niet wil en soms kan ik nog een voorwaarde aangeven ofzo, maar als ik een ingewikkelde zin moet maken (dit is zo, mits A, tenzij B noch C, etc.) dan loop ik ook vast.

Er zijn ook wel andere manieren om achter de commando’s te komen (Google en dan via iets als StackOverflow of W3schools ofzo), maar dat gaat vaak langzamer, vooral omdat het vaak een tijdje duurt voordat je een echt vergelijkbare casus hebt gevonden.

Het is wel goed om te realiseren dat mijn hoofdtaak niet het werken met PowerBI is. Ik maak misschien eens in de maand iets vrij eenvoudigs op aanvraag van management of collega’s buiten de bestaande managementrapportages om (die beheerd worden door een externe partij).
Best akelig idee, je leert nu dus programmeren van een taalmodel die eigenlijk geen benul heeft van wat een computer nu eigenlijk is of doet...
Of van een interactieve verzameling programmeer boeken
Waarom moet dat? Ik kijk helemaal geen ene letter code na. Ik kijk of de functies werken die ik gevraagd heb. Ok, het zijn maar simpele hobby brouwsel maar het doet wat ik vraag. Dit gaat dan wel om complete (hetzij simpele) webapps. Bijvoorbeeld een app waar ik mijn onkosten in kan uploaden, dat wordt dan omgezet naar een expense nota in pdf en Excel (dat is nu eenmaal nodig), een andere app is een ticket verdeelsysteempje waarmee ik inkom tickets aan mensen kan linken (en via WhatsApp kan doorsturen). Nogmaals kleine dingetjes maar werken prima, zonder code te bekijken.
Als je een bouwvakker vraagt om een kamer op te splitsen door een muurtje te plaatsen, en hij vervolgens een muurtje van karton “bouwt”, dan is de kamer technisch gezien in twee ruimtes verdeeld. Dat betekent echter niet dat karton een goede of duurzame manier is om een muur te bouwen en een kamer te scheiden. Zo’n stuk karton kan bijvoorbeeld eenvoudig kapot worden geslagen.

Als je jouw code, of code die door een LLM wordt gegenereerd, niet controleert, hoe weet je dan of die code veilig is?
Door het te vragen is het veilig ;)

Maar eerlijk gezegd, dat maakt me lokaal echt helemaal geen fluit uit. Als ik in mijn eigen lokale netwerk een simpel appje heb draaien zodat de kinderen hun boodschappen kunnen doorgeven, of een agendasysteempje.
Neem de interface van mijn omvormer. Simpel php systeempje van de leverancier. Ding staat er al 5 jaar dus gebouwd door een echte developer. Zit geen security op, en is qua techniek echt geen state of the art development werk. Maar werkt prima, lokaal en doet wat het moet doen. Dat kan nu prima met ai worden gemaakt
Het lijkt te doen wat je vraagt.
Naar alle waarschijnlijkheid zijn er legio edge-cases die niet tot wat colloquiaal het 'happy path' genoemd wordt, behoren en die niet correct werken: foutieve output geven, foutieve input toestaan, en in het ergste geval security vulnerabilities bevatten.

Correct functioneren kun je niet empirisch bewijzen.
Enkel incorrect functioneren kun je empirisch bewijzen door het bestaan van een bug aan te tonen.

Correct functioneren kun je wiskundig bewijzen (toepassen van predicaatlogica, opbouwen m.b.v. zgn. correctness by construction - allemaal buitensporig duur om te doen op grote codebases) of je kunt het empirisch aannemelijk maken, door zeer, zeer uitvoerig en grondig te testen en daarbij ook allerlei mogelijke randgevallen in acht te nemen.

[Reactie gewijzigd door R4gnax op 24 december 2025 11:12]

Goh ik vraag maak een pagina waarbij ik een nieuwe event aanmaak en sla dat op in de database met deze 5 gegevens.
Dan krijg ik een pagina die die invoervelden heeft en die het vervolgens in de database insert. Ik kan dat zien in de database....

Hoezo lijkt het dan alsof het werkt en doet wat het moet doen? Ik pretendeer nergens dat het Enterprise level software uitkomt. Ik zie het meer als een stapje hoger dan een Excel file. Prima voor huis tuin en keukengebruik. Maar hey, das nu net het niveau waar de gemiddelde office medewerker op werkt. En ik snap heel goed dat er veel weerstand op komt vanuit de tweakers community die veelal IT georiënteerd is. Technisch is het inferieur aan alle code die wordt geschreven door de echte developers. Maar het is beter dan een gemiddelde Excel....
En heb je ook gezien hoe binnen je gegenereerde code de technologie werkt die dat in de database wegschrijft? Werkt dat correct met parametrized queries zodat SQL injectie onmogelijk is?

[Reactie gewijzigd door R4gnax op 24 december 2025 13:18]

alle database-interacties in de code gebeuren via prepared statements met better-sqlite3. Een typisch voorbeeld: db.prepare('UPDATE events SET name = ?, location = ? WHERE id = ?').run(name, location, id) - hierbij worden de parameters (name, location, id) automatisch veilig ge-escaped door SQLite's binding mechanisme, volledig gescheiden van de SQL-query zelf. Dit maakt SQL-injectie technisch onmogelijk omdat gebruikersinput nooit direct in de query-string wordt geïnterpoleerd, maar altijd als aparte gebonden parameter wordt doorgegeven aan de database engine.
Is dat door jezelf nagelopen? Of is dat wat de potentieel hallucinerende AI je verteld heeft?
Quis custodiet ipsos custodes?

(Aan de schrijfvorm van je reactie af te leiden, neig ik naar het tweede.)

[Reactie gewijzigd door R4gnax op 25 december 2025 11:58]

Goed gezien ;) maar er vanuitgaande dat het zo verwerkt zit in de code, klopt het dan?

Ik heb geen idee want ben maar een hobby prutser en geen ciso. En je ontgaat het doel, simpele homebrew apps die lokaal op onze thuis server draaien. De enige sql injecties daarop zouden dan door mijn kinderen moeten gebeuren? En al hangt het online, wat dan? Er staat niks ergs of vertrouwelijks op die server. API keys allemaal prepaid, geen Logins of iets dan ook. Kortom als er iemand al de moeite zou nemen om de boel over te nemen dan lijkt mij dat deze er niet echt veel aan heeft.
Kortom als er iemand al de moeite zou nemen om de boel over te nemen dan lijkt mij dat deze er niet echt veel aan heeft.
Extra compute is altijd interessant voor botnets voor diverse redenen. Dat gaat breder dan enkel DDoS aanvallen. Geeft bijv. de mogelijkheid om een VPN of ToR exit node te draaien waarbij de autoriteiten bij jou de deur in komen rammen als er via jouw IP adres bijv. CSAM het web op gaat. En het is natuurlijk een springboard jouw lokale netwerk in, zodat er rondgeneusd kan worden en bijv. naar open poorten gescand kan worden - ik noem maar iets.

Nu zal dat op echt niveau eigen huishouden niet zo interessant zijn. Maar hoeveel mensen met dezelfde laissez-faire 'ach; het werkt toch?'-insteek denk je dat er binnen ZZP of kleinbedrijf rondwandelen die ook wel even snel iets aan elkaar kunnen prakken middels een LLM en dat gewoon laten draaien op bedrijfsomgevingen? Waar ook klantgegevens mee gemoeid zijn?

[Reactie gewijzigd door R4gnax op 25 december 2025 19:26]

Dat is ook wel een beetje worst case scenario he, echt niet dat ze alle dagen bij mensen deuren in komen vallen, heb ik ook nog echt nooit gehoord dat dit gebeurd is bij een simpele home server....

En hoeveel Excel oplossingen denk je dat er in MKB rondvliegen, hell zelfs corporate doen dit te pas en te onpas. Met als enige security een password op een workbook.... nogmaals ik zeg niet dat het Enterprise software maakt, maar dat wel beter dan een excelletje...

Maar je hebt de vraag nog niet beantwoord ;) is de voorgestelde oplossing sql injection proof of niet?
Maar je hebt de vraag nog niet beantwoord ;) is de voorgestelde oplossing sql injection proof of niet?
Als deze ook consistent toegepast is, denk ik wel ja.
Kom je pas achter als je de API documentatie checkt om er achter te komen of die niet evt. ook gehallucineerd is. En daarna zul je de hele code base door moeten kammen om te kijken of de library in kwestie daadwerkelijk overal op de voorgestelde manier gebruikt is.
Of je doet dat niet en je doet een paar spot checks of je vraagt bewijs..... systemen zijn inmiddels goed genoeg voor dit soort dingen. Hallucinaties zijn absoluut niet van dat niveau. Hallucinaties komen voor omdat de user niet de juiste context geeft en een LLM het dan maar invult. Maar het is zeker niet zo dat het altijd maar aan het hallucineren is en dat je niks kan vertrouwen van wat er uit komt. Als jij je context voldoende kadert dan is er minder ruimte en wordt hetgeen wat je vraagt prima uitgevoerd.
Als jij, in je eigen woorden, 'maar een hobby prutser' bent - wat geeft jou dan de kunde om dat oordeel te kunnen vellen?
Dat heb ik jou toch laten doen ;)
Maar zonder gekheid. In kan prima code lezen en begrijp echt wel het doet. Ik heb alleen geen programmeerervaring op het niveau dat ik een complete webapp kan bouwen. En daarvoor kan je prima terugvallen op een LLM. Natuurlijk moet je wel kennis hebben van systemen en systeemdenken. De kwaliteit is dusdanig hoog genoeg en er is nul toegevoegde waarde als ik het allemaal zelf zou (leren) schrijven.
AI is op dit moment ook helemaal niet zo bruikbaar als wordt/werd geadverteerd. Ik gebruik AI bijvoorbeeld om te ondersteunen in het programmeren van slimme functies om mijn werk te vergemakkelijken. De modellen komen met brakke oplossingen (die ergens van een hobby-forum af geplukt lijken) of hallucineren er op los.
Gebruik eens Claude met taalmodel Opus. Dat helpt mij enorm en kan bijna foutloos programmeren.
Dat is waar, Opus is echt goed voor programmeren. Alleen het is wel reteduur, let wel op daarmee.
Dat is waar, Opus is echt goed voor programmeren. Alleen het is wel reteduur, let wel op daarmee.
Ik weet het. Ik betaal momenteel het €90,- ex btw abonnement en red het er net aan mee. Nooit verwacht dat ik zoveel voor AI zou betalen :X
ik gebruik het voor stukjes code in python en R en daar heb ik weinig hallucinatie en bruikbare code, maar er is dan ook heel veel trainingsmateriaal beschikbaar. Zeker tijdwinst. c++ is een ander verhaal. Ik gebruik het ook wel als zoekmachine voor specialistische onderwerpen, wel handig maar niet baanbrekend. Wetenschappelijke teksten schrijven in het Engels of samenvattingen maken is een drama, vloeiende teksten, nietszeggende onzin. verbale diarree.
Ik denk dat waar AI ingezet wordt om eigen (gebrekkige) kennis aan te vullen, dat je dan juist de mist in gaat en AI meer tijd kost.

Aan de andere kant: hoewel AI regelmatig onzin vertelt, geeft het toch ook - ondanks de niet correcte informatie - toch soms een hint, die je zelf via een omweg alsnog bij een oplossing brengt. Wellicht vergis ik me, maar is de 'slimheid' van AI niet niet meer dan aanvulling van 'gebrek aan kennis' van de gebruiker, al dan niet gecombineerd met 'luiheid'.

Wellicht heeft Erik Scherder gelijk met zijn boek 'liever moe dan lui' (waar ik alleen de titel en een samenvatting van gelezen heb)?
Ik merk dat ik in het afgelopen maand AI minimaal heb gebruikt met programmeren en dat het meer rust gaf. Een beetje de hype voorbij voor mijn gevoel.

Waar ik AI voornamelijk voor gebruik is het zoeken van informatie. Het kromme is dat Googlen vroeger een vaardigheid was. Met goede zoekwoorden kreeg je ieder resultaat die je zocht wel bovenaan. Nu zijn rijwel alle zoekmachines verpest waardoor ik noodzakelijk AI moet gebruiken om een vraag beantwoord te krijgen. Al die affiliate sites maken het er ook niet beter op. Dus plak je er "forum" of "reddit" erachter wat ook niet ideaal is.

Simpel voobeeld: "hoogte keukenaanrecht" krijg je alleen maar keukenleveranciers te zien.

"Welke diameter ventialtiebuis?" resulteert in pagina's vol met ventilatieshops.

Naar mijn idee hebben we AI helemaal niet nodig voor zoeken naar informatie.
Klopt, het is vooral een ding omdat Google (maar ook de anderen) zijn begonnen zichzelf te laten omkopen voor het plaatsen van informatie in de zoekresultaten. Hierdoor komt er steeds meer clickbait bovenaan en daar doorheen worstelen is een heel vervelend fenomeen. Dat had niet nodig geweest hoeven zijn.
De vraag is hoelang het duurt totdat 'enshitification" plaatsvind bij AI omdat er toch geld verdiend moet worden.
Ik merk dat het mij met name ‘dom’ werk uit handen neemt. Ik ben docent en gebruik copilot. Wat copilot goed kan, is van mijn uitgewerkte ideeën draaiboeken en lesplannen maken. Waar ik in het verleden soms meer dan een uur bezig was met stom typewerk voor het uitwerken van bijvoorbeeld een draaiboek voor een werkweek, gooi ik nu alle informatie zoals tijden, locaties, benodigd materiaal, etc. in copilot en in een paar minuten heb ik een uitgewerkt draaiboek waar alles tot in detail in staat. Daar lees ik dan overheen, pas het her en der wat aan en het is klaar. Ik merk wel dat de prompt en de juiste tool heel belangrijk zijn. Vooraf goed nadenken geeft de juiste output. En niet alle tools zijn overal voor geschikt. Voor onderwijs werkt copilot goed, voor andere dingen is ChatGPT of een andere tool meer geschikt.
Bepaalde taken doet AI best goed zoals een XML of JSON bestand ontleden om in te lezen. Hier is wel degelijk veel tijdswinst. En ik heb laatst zeer snel een applicatie herschreven naar een andere programmeertaal.

Voor mij behaalt AI zeker wel winst maar je moet weten wanneer je het inzet. De laatste loodjes doe ik liever zelf omdat op een gegeven moment AI eerder dingen stuk maakt dan oplost.

AI gaat developers niet vervangen maar je wordt meer een code architect en doet de dingen waar AI moeite mee heeft zoals design keuzes.
Als je goed kan programmeren is alsof je goed met een hamer, spijkers en een zaag om kan gaan. Betekend nog niet dat je goed bent in specificeren en goede prompts maken. Iemand die goed kan programmeren met weinig domein kennis betekend nog niet dat je ook echt iets goed kan neerzetten en goed kunt specificeren / designen.
AI is op dit moment ook helemaal niet zo bruikbaar als wordt/werd geadverteerd.
Wat wordt er dan precies volgens jou geadverteerd en waar? Ik zie zowel OpenAI en ChatGTP geen beloftes maken dat bijv in relatie tot programmeren alles fantastisch automatisch werkt zonder enige interventie van mensen? Dat de pers en influencers er deze narrative van maken is een ander verhaal, maar dan lijkt het me zaak om je eigen onderzoek te doen en conclusies te trekken; er is vooral een wereldwijde media hype aan de hand en elke investeerder wil hier bij zijn want het gaat nooit meer weg...bubbel de bubbel....
Mijn punt is: alles wat AI maakt, doet, of adviseert, moet door de mens nagekeken worden
Een beetje een non-argument. Dit kun je net zo goed over mensen zeggen. Alles wat jij doet, of iemand anders doet, moet door iemand anders nagekeken worden. Om bij programmeren te blijven, er is een reden dat we PR reviews doen. Met AI is het simpelweg hetzelfde (al kun je weer AI gebruiken om je AI gegenereerde code te laten nakijken, wat ik zeker aanraad want er worden meer dingen gespot dan een menselijke review ooit vindt).

Iedereen z'n ervaring met AI is simpelweg anders. Mbt programmeren ligt het enorm aan (zeker geen volledige lijst)
- complexiteit van je tech stack,
- hoe goed je test suite is,
- aan je acceptatie processen,
- aan de documentatie van je coding styleguide en processen - veel bedrijven/teams hebben dit 'in de lucht' hangen en niet goed gedocumenteerd. En dan klagen dat AI het niet doet zoals je wilt.
- gerelateerd; hoe goed je onboarding proces is van nieuwe engineers - ook bij veel bedrijven/teams slecht gedocumenteerd en georganiseerd. Een AI begint elke sessie weer opnieuw van scratch!
- hoe goed de individuele engineers kunnen en willen veranderen - erg lastig uit mijn ervaring!
- hoe goed de individuele engineers kunnen delegeren - dit is essentieel om effectief te werken met AI, het is een vak apart en de meeste mensen hebben dit simpelweg nog nooit gedaan in hun rol!
- gerelateerd: hoeveel je itireert op je agents.md als team
- hoeveel er geinvesteerd wordt in het gebruiken van de beste modellen (die zijn ook echt veel en veel beter, blijf weg van de middleman zoals Lovable en Cursor waarbij business model marge halen is op load balancen tussen duurdere en goedkope modellen adv hun inschatting van de complexiteit van de prompt)

Kortom er zijn vrij veel voorwaarden die bepalen hoe effectief AI voor jou is. Uit mijn ervaring is het een proces van veel itereren, veranderingsmanagement, en als je je test suite, documentatie, processen en onboarding goed hebt staan kun je imo bizar goede resultaten halen.

Bij ons is de output x5-10 gegaan, vooral de laatste maanden en wordt grofweg 70% van de code AI gegenereerd en gemerged zonder interventie van een andere engineer, en zonder toename van bugs en issues. De gegenereerde code volgt vrijwel vlekkeloos onze stack, setup and coding styleguide. Het is nog zeker niet perfect, het was en is een proces van veel kennis delen binnen organisatie, mensen die sceptisch waren toch om krijgen, iedereen leren beter te delegeren (prompten). En wat je ook ziet is dat de modellen langzaam aan steeds complexere taken kunnen uitvoeren.

Er is zeker een bubbel, maar dit gaat ook niet weg, en het wordt steeds beter. Ook is het zeker dat bedrijven (en engineers) die dit open en effectief omarmen een bizar concurrentievoordeel gaan hebben...

[Reactie gewijzigd door badflower op 24 december 2025 12:23]

hoe goed je test suite is,
Tsja die is natuurlijk super-duper-uitstekend want die heeft de tester met AI gemaakt.
Waar ik persoonlijk knettergek van wordt, is dat in mijn sector alle C-levels goed genoeg beseffen dat AI op dit moment vooral een time waster is en absoluut niet de efficiency gains kan waarmaken waar ze van dromen. Maar er wel wordt verwacht dat we 100%-200% meer marge draaien. Of om het met de woorden van mijn manager te zeggen: "Just fix it."

Resultaat = minder goed werk opleveren (want iedereen krijgt minder tijd), daardoor meer reworks, boze klanten, overspend, boze collega's (omdat ze bagger moeten opleveren) en halverwege 2026 boze finance officers omdat hun Excel voorspellingen niet blijken te kloppen.

AI kan echt de hoogste boom in en LLM's is een dood spoor.
AI werkt nog lang niet perfect. Het is sterk afhankelijk waarvoor je het gebruikt. Even een illustratie maken gaat razend snel. Plaatje is meestal niet in één keer naar wens, maar met wat gerichte aanpassingen kan een leek in 10 minuten een goede illustratie maken. Teksten produceren gaat ook prima. Geef een aantal steekwoorden op, laat het een paar keer aanpassen tot een gewenste schrijfstijl en je hebt in een paar minuten een prima stuk. Mijn compagnons schrijven op die manier in een half uur een offerte of voorstel waarvoor ze voorheen een halve dag voor nodig hadden. De AI offertes/voorstellen zijn beter dan de handgemaakte.

De AI gegenereerde stemmen zijn ook prima. Nog wel van echt te onderscheiden, maar het verschil is niet groot. Het is zeker geen vlakke computerstem meer. Voorlezen is redelijk natuurlijk, als kan het nog niet de emotie of spanning in een verhaal leggen zoals een mens dat kan.

Programmeren en zaken opzoeken, daar is AI nog niet volwassen in en blijft controle noodzakelijk.
Ik vind het een dooddoener dat je eerst een grandioze claim neerzet en dan afsluit met n=1. Snap niet dat je hier een +2 voor krijgt. Er is geen feitelijke aanvulling, alleen een mening, waarschijnlijk omdat men graag een bubbel wil zien.

[Reactie gewijzigd door Zwarte_os op 24 december 2025 12:02]

Ik merk dat het heel erg afhankt van 1) verwachting en 2) je prompt

Zeker tools als SpecKit maken de uitkomsten wel beter maar daarvoor geldt wel: altijd controleren. Als je het voor kleine stukjes (functies tot regels) gebruikt is het wel stukken beter want dit kan gewoon gekoppeld worden aan een unit test.

Ik zoek veel minder op google dan voorheen.
Deze studie staat je n=1 kracht bij: https://metr.org/blog/2025-07-10-early-2025-ai-experienced-os-dev-study/
Verschillende stakeholders zijn gevraagd wat men vermoed dat het gebruik van AI aan tijdswinst oplevert:
  • Economen zeggen 30-50% tijdswinst
  • Machine-learning experts zeggen 30-45% tijdswinst
  • Developers zeggen op voorhand 15-30% tijdswinst
  • Developers zeggen 10-30% tijdswinst te hebben kunnen realiseren na het draaien van een project
Het resultaat: een 19% langzamer project
Deze studie is van half 2025, AI ontwikkeld zich snel dus dit loopt wat achter.
Jorgen Moderator Beeld & Geluid @Kastermaster24 december 2025 23:42
Voor mij heeft ChatGPT zeker meerwaarde. Ik moet vanwege privéomstandigheden grote hoeveelheden teksten lezen, filteren, structureren, samenvatten, en er vervolgens inhoudelijk op reageren, etc. Dingen die ik allemaal zelf uitstekend kan, maar ik doe er 20 x zo lang over. Ik begin zelf en zet ChatGPT ook aan het werk. Met de juiste prompts destilleer ik de benodigde essentie, waarover ik vervolgens kan brainstormen. Als ik dan mijn antwoord formuleer en ChatGPT verfijnt dat door met minder woorden hetzelfde te zeggen, scheelt me dat zeeën van tijd.
N=1, maar er is onderzoek hiernaar gedaan door een universiteit. Bleek dat gemiddeld programmeurs 20% langzamer werkten... maar het idee hadden dat ze 20% sneller werkten.

een beetje zoals management. Men zag een verbetering van de productiviteit toen thuis werken nodig was (bij kantoorfuncties). En toch haalden veel bedrijven hun mensen weer terug om ze te kunnen managen. Al bleek dat het efficiënter was wanneer er minder gemanaged werd.
Ik ben blij om een artikel te zien die over de mogelijke tech bubbel gaat. Wel had ik iets meer diepgang en nuance verwacht. Punten die mij opvallen:

- er wordt wel genoemd dat er veel miljarden geïnvesteerd worden, maar dit wordt niet gerelateerd aan de grootte van het bedrijf of industrie. Bijvoorbeeld: Microsoft investeert 11 miljard. Ter info, MS maakt een winst van 180 miljard euro per jaar. 10% van je winst investeren lijkt mij erg gezond. Of Nvidia die 100 miljard ergens insteekt. Dat is 2x de winst van dat bedrijf of 0,6 x de omzet. Dat is inderdaad veel, maar het is ook weer niet extreem extreem veel. Zeker niet als je het over x aantal jaren uitsmeert.

- the art of the deal in de titel. Ik vraag mij af of de auteur weet dat dit het boek van Trump is, of dat hij dit daarom juist benoemd omdat Trump zo pro AI investments is. Niks mis mee, maar liet mij wel even filosoferen waarom het er staat.

- over filosofen (en juristen gesproken) gesproken. Ik hecht erg weinig waarde aan de autoriteiten die genoemd worden. Ik zie niet in waarom een jurist en marketeer (onderzoeker) een AI bubble kunnen duiden. Ja, misschien als je veel dieper ingaat of investment wetgeving en hoe die is veranderd sinds de dot.com bubble en de huizencrisis, maar daar wordt niet op ingegaan. En leuk dat Agata Leszkiewicz erbij wordt gehaald. Want de UT en AI dat gaat goed samen, maar zoals gezegd. 1 referentie naar een paper wat dan een bubble moet duiden. Lijkt mij niet. Liever had ik dan wat research gezien vanuit management literatuur en hoe technology adoptie normaliter gaat en waarom het in dit geval twijfelachtig is of de investeringen wel terug worden verdiend.

-- Agata Leszkiewicz gaat wel in over concurrentie voordeel en hoe de kleine bedrijven straks hun eigen logootje op big tech AI gaan zetten. Dat is dan wel weer een goede nuance om vanuit marketing het wat meer te begrijpen.

- verder wordt er veel gelinkt aan 2001 (.com) en 2008 (housing), maar ik vraag mij af of dit wel vergelijkbaar is. Er waren tijdens de dot.com bubble veel nieuwe bedrijven die naar de beurs gingen en de index steeg x5. Momenteel zien we dat de beurskoersen wel stijgen, maar dat de extreme stijging maar bij een paar bedrijven is zoals Nvidia. Dat ze vervolgens verweven raken door in elkaar te investeren, dat kan je als risico zien, maar ook juist als risico afdekking. Dit fenomeen is iets wat met name vanuit Japan vaker gebeurd (keiretsu). Daarnaast - heb ik begrepen, niet onderzocht - dat veel van de investeringen gebeurd met eigen geld en dat de AI bedrijven relatief weinig nieuwe leningen aangaan. Dat is iets wat natuurlijk alleen maar goed is. Want in de dot com bubble was de rente laag en daardoor werd er ook te excessief geleend.

En dan misschien wel het aller aller aller belangrijkste punt en nuance.

"Als die bubbel klapt, zal dat even een schokgolf in de economie veroorzaken, maar ik denk niet dat de gevolgen catastrofaal zullen zijn en dat de economie daar binnen een paar jaar weer bovenop komt."

In mijn ogen is AI veel destructiever dan we denken. Niet qua waarderingen, etc. Maar ik zie gewoon om mijn heen dat banen letterlijk worden overgenomen door AI. Bedrijven gooien een deel van de mensen er al uit omdat ze zo geloven in AI. Wat gebeurd er met die mensen? In NL heb je een groot sociaal vangnet, in andere landen niet. En hoe gaan we dat sociale vangnet in stand houden als zoveel meer mensen werkloos worden. De grote AI bedrijven betalen nauwelijks belasting. Gaan we AI agents ook met 30-40% (loon) belastingtarief belasten zodat we daarvan de sociale voorzieningen kunnen betalen?

De bubbel is het gevaar niet, maar het feit dat mensen overbodig gemaakt worden en dat de winsten niet verdeeld gaan worden over alle mensen (de maatschappij), maar naar enkele mensen gaan dat wordt het echte gevaar. In mijn ogen is het AI verhaal iets wat puur gaat over welvaartsverdeling en daardoor over belastingheffing (wereldwijd).


Edit typo

Edit 2: ik ga toch het jaar afsluiten met een verzoek aan tweakers. Ik merk bij mijn eigen reacties, maar ook bij andere mensen en reacties dat er standaard een groep mensen is die goed onderbouwde reacties downvoten. Dat zou deels komen omdat ze het er niet mee eens zijn, maar steeds vaker denk ik dat ze gewoon structureel bepaalde mensen downvoten. Ik hoop van harte dat tweakers in 2026 hier iets mee gaat doen.

[Reactie gewijzigd door pyro-tukker op 24 december 2025 12:12]

Dat mensen ontslagen worden is natuurlijk niet altijd erg. Er is een groot tekort aan personeel in veel sectoren. Ja voor een individu is het wel erg, maar voor het systeem kan het goed zijn.

Wat ook een scenario is, dat AI het tekort aan personeel in de ICT sector oplost. Software development wordt goedkoper en daarmee stijgt ook de vraag. We zijn ooit van papieren administraties naar software gegaan. Dat heeft niet per definitie gezorgd voor minder banen. Wel voor complexere processen omdat dit nu makkelijk ondersteunt kan worden. Hetzelfde zie ik ook wel gebeuren door AI.
Ik vraag het mij af. Als ik wat techneuten hoor dan wordt AI ingezet voor een enorm concurrentievoordeel en daar wordt flink op gecasht. Of de techneuten (ICT) houden nog de schijn op dat het allemaal veel tijd kost, maar ondertussen zijn ze eigenlijk in paniek omdat werk wat traditioneel 5 dagen kost nu nog maar 1-2 dagen kost.

Ook het feit dat bedrijven - zonder media aandacht - steeds vaker een non hiring (incl. Consultancy) policy hebben en ze dus natuurlijk hun populatie laten inkrimpen. Dat zijn tekenen dat banen worden overgenomen. Voor enkele jaren is dit houdbaar. Immers - zoals jij zegt - we hebben een tekort. Maar langere termijn denk ik echt dat we teveel werklozen hebben en te weinig effectieve belastingheffing om deze mensen (en de rest van de maatschappij) te ondersteunen.
Er zijn inderdaad wel gevaren. Dat gaat met name om de perceptie van managers en welk beleid ze gaan voeren. Vinden ze juniors overbodig dan worden er geen mensen meer opgeleid. Dan heb je over 5 jaar een probleem. Vind je juist seniors overbodig, want duur en juniors kunnen met AI meer, dan zul je zien dat de kwaliteit van opgeleverde software verminderd en dat openbaart zich ook wel in 5 jaar wanneer de technische schuld is opgelopen.

Daar zit wel een zwak punt want managers die verdenken developers natuurlijk dat hun mening zwaar beïnvloed is door protectionisme van hun eigen positie. Managers gaan beslissingen nemen die lange termijn slecht zijn. Sowieso zijn veel managers vaak al meer met korte termijn bezig dan lange termijn.

Goede senior programmeurs zijn schat ik in over 5 tot 10 jaar niet aan te slepen omdat ze schaars worden en er minder juniors doorgroeien en we rond die tijd ontdekt hebben dat we slechte kwaliteit software in de markt hebben gezet.
Ik vraag me af in welke industrietak jij werkt maar mijn tijd gaat tegenwoordig op aan “meetings meetings meetings” en het echte werk doe ik na de werkdag 🤪
Ik heb ook een tijdje in zo’n omgeving gewerkt… nu vaak max 1-2 meetings per dag. Wat een bevrijding. No meetings a day keeps the doctor away in mijn ervaring ;)
Interessant perspectief over de welvaartsverdeling. Impact voor de wereld kan ik dit niet zo snel beredeneren, maar als je kijkt in Nederland denk ik dat het wel mee gaat vallen. Demografisch hebben we een probleem dat de boomers (1945 - 1955) veelal met pensioen zijn waardoor de maatschappelijke werkdruk hoger wordt. AI zal denk ik voor relatief eenvoudige taken ingezet worden om dit te verlichten. Op dit moment zitten we in een transitie en zal denk ik de arbeidsmarkt tijdelijk even krimpen door de mogelijkheden van AI. Maar na de krimp zal het wel weer organisch groeien.

Wat ik ook aan zat te denken, vaak zie je dat als bepaalde producten negatieve effecten hebben op de omgeving dat deze producten gereguleerd worden door middel van acijnzen. Ik ben erg benieuwd of AI accijnzen een oplossing kunnen bieden voor deze welvaartsverdeling. Ik ben zelf voorstander om beslasting reductie af te schaffen voor bedrijven die energie in grote volumes nodig hebben of bepaalde sectoren uit te sluiten zeker als dit directe grote negatieve gevolgen heeft op de maatschappij.
Ik heb het stukje van energie belasting weggehaald in mijn eigen stuk, omdat mijn reactie wat lang werd. Maar eens: ze zullen ook moeten meebetalen aan onze energie infrastructuur, etc.
De bubbel is het gevaar niet, maar het feit dat mensen overbodig gemaakt worden en dat de winsten niet verdeeld gaan worden over alle mensen (de maatschappij), maar naar enkele mensen gaan dat wordt het echte gevaar. In mijn ogen is het AI verhaal iets wat puur gaat over welvaartsverdeling en daardoor over belastingheffing (wereldwijd).


Edit typo
Ik heb al wel wat interviews gezien met "Godfathers of AI" die hel en verdoemenis preken. Ik denk dat dit inderdaad een belangrijkere issue is, dan economische gevolgen van een knappende AI bubble. Hoe gaat de wereld er straks uit zien, wanneer AI de vele taken van mensen over gaat nemen en hoe willen we dat die wereld er straks uit ziet? Hoe zit het met de welvaartsverdeling? Het kan er best op uitlopen dat een stuk of wat ultrarijken van AI bedrijven de dienst gaan uitmaken in deze wereld in de toekomst.
Ik heb hetzelfde als ik enkele interviews zie met de ultra rijken en de tech bazen. Daartegenover staat dat ik heel weinig tegenmacht zie vanuit Europa (of andere overheden wereldwijd). Dus plat gezegd: volgens mij krijgt big AI alle ruimte om kapitaal naar zich toe te trekken en de maatschappij op te zadelen met de neven effecten zoals een extreme ongelijke welvaartsverdeling.

En je kan zeggen dat mensen uiteindelijk wel iets anders te doen krijgen, maar ik zie dat nog niet zo snel gebeuren. Voornamelijk niet omdat mensen momenteel niet actief omgeschoold worden. Deels zijn daar de regelingen niet voor, deels willen mensen het zelf niet.
Precies, zeker met de wetenschap dat veel van die techgiganten een neofeudale ideologie aanhangen en zonder blikken of blozen de democratie omver willen werpen.
Persoonlijk hoop ik wel dat deze bubbel gaat knappen. Momenteel zie ik vooral prille techniek die met gouden bergen verkocht wordt, maar daar nog lang niet klaar voor is. Ik word een beetje moe van alle AI evangelisten en alle opgedramde onzin die maar half werkt maar wel door onze strot geramd moet worden. Ik zie op mijn werk ook dat de dingen die echt nuttig zijn (zoals het bouwen van AI agents om dingen echt te automatiseren) actief tegengewerkt worden en ondertussen alleen maar middelmatige shit wordt opgedrongen.

Wordt AI uiteindelijk wat het belooft? Ja, dat denk ik wel. Ik vergelijk het met de dotcom crash. Uiteindelijk heeft internet alle beloften van de jachtige jaren '90 ingelost. Maar begin jaren '00 was dat veel te vroeg, en er waren ook andere ongerelateerde ontwikkelingen te maken, namelijk snel mobiel internet en de smartphone, die de techniek nog moest ontwikkelen. Uiteindelijk is dat de sleutel geweest.

Met AI gaat hetzelfde gebeuren. De huidige populaire techniek LLM is niet het antwoord op AGI, een zelfdenkende AI. Conceptueel kom je er daar gewoon niet mee. Door steeds aan LLM te sleutelen kan je het wel slimmer laten lijken maar een LLM blijft gewoon een soort chatsimulator die goed is in het doen alsof hij kan denken door mensen na te apen. Er is een duidelijke missende sleutel, een nieuwe techniek die de AI echt laat denken en slimmer worden. En dat kost tijd, en dat soort ontwikkelingen zijn vaak een totaal onverwacht iets (net zoals de populariteit van LLM dat was, die waren eigenlijk alleen bedoeld voor vertalingen).

Een uiteindelijke AGI zie ik bestaan uit verschillende componenten. Een LLM die met de gebruiker communiceert maar op de achtergrond verschillende modellen die het echte werk doen. Eentje voor wiskunde, eentje voor redeneren enzovoorts. Niet alleen maar een steeds sterkere LLM. Dat is een doodlopende weg. En dit gaat gewoon tijd kosten allemaal.

De hijgerige investeerders hebben daar echter geen zin in, om nog eens 10 jaar te wachten voor dit ook met AI gebeurt. Die willen vandaag hun miljarden inleggen en overmorgen op hun prive eilandje zitten. Dat gaat maar zelden zo. Maar nu zijn ze zichzelf allemaal rijk aan het rekenen. Waardoor het vanzelf het gebruikelijke pyramidespel aan het worden is. Uiteindelijk merken ze ook wel dat dat eilandje er niet komt en dan springen ze allemaal in de paniek en trekken hun geld terug om er nog zoveel mogelijk van te redden. Dan valt het om.

Ik hoop ook dat de bubbel knapt omdat het Amerika zal raken en dat is een land wat steeds negatiever wordt voor de wereld. Ze hebben nu zelfs Europa als hun vijand bestempeld immers in de laatste nationale strategie. Helaas zullen wij het ook hard voelen ondanks dat we weinig in deze 'race' zitten. Maar een minder stevige positie van Amerika op wereldtoneel zal wel goed zijn. Dan kunnen we Trump en zijn ultraconservatieven makkelijker negeren. Maar we zullen het ook hard voelen en bovendien zullen de ultrarijken nooit hun verlies nemen. Die trekken het wel uit de consumentenmarkt op welke manier dan ook. Al is het maar via overheids'bailouts' die je uiteindelijk als consument gaat voelen als inflatie.

Maargoed uiteindelijk maakt het helemaal niks uit wat ik hoop. Als individuele consument (en slechts zijdelings werkend in deze industrie) heb ik hier 0,0 invloed op. Wat gebeurt gaat gewoon gebeuren.

[Reactie gewijzigd door Llopigat op 24 december 2025 11:26]

Daarnaast moeten we met z'n allen ook nog geconfronteerd worden met de gevolgen van een AGI (of ASI, als het ooit zover komt). Wat is de technologische, sociale en mentale impact van een computer die, in principe, in staat zou moeten zijn het denkwerk van een mens te kunnen doen?

En hoe voorkom je de spreekwoordelijke 'Judgement Day", om maar even in Terminator kretologie te blijven. De mensheid is verre van perfect. Als je een AGI engine zou vragen wat de oplossing is voor alle problemen op aarde, dan is het niet onlogisch als de conclusie is "de mensheid is het probleem". En je wilt je eigen destructie toch niet op je geweten hebben, hoe kort dat dan nog moge duren.

Er is ook nog een juridisch kader. Als een AI een besluit neemt, wie is er dan verantwoordelijk voor dat besluit en de eventuele gevolgen? Als dat resulteert in schade, persoonlijk of anderszins, waar gaan we dan de verantwoording beleggen en de schade verhalen? En ook, hoe zorg je er voor dat AI niet de 'master criminal' wordt, slimmer dan eender welk rechtssysteem, rechter en advocaat ook?

Er is nog veel om over na te denken.
De vergelijking met de .com crash en zelfs de spoorwegen in de 19e eeuw wordt vaak gemaakt. Maar ik denk dat dit wel eens anders zou kunnen zijn. Waar bedrijven in investeren is eigenlijk niet zozeer AI, maar scaling. AI kan iedereen, maar heel veel GPU compute kost veel geld. Scaling loopt echter tegen diminishing returns aan en het lijkt niet de oplossing voor waar we AI echt voor kunnen gebruiken. Daarom zien we eigenlijk helemaal niet meer dat big tech in de Benchmarks veel voorligt op open modellen. De rek is er al een tijdje uit sinds de introductie van transformers. Het equivalent van de spoorwegen is dat we nu veel GPUs hebben , maar die worden snel afgeschreven. Ook zie ik niet hoe je met AI kan domineren zoals social media als bedrijf.
Ik dacht eerst dat jullie @Imre Himmelbauer wel het stuk uit The Verge van afgelopen weekend zouden quoten, maar nadat ik het artikel las dus niet.

Dit gaat ook over hoe tech bedrijven de bubbel opblazen:

https://www.theverge.com/ai-artificial-intelligence/848988/nvidia-chip-loans-coreweave-gpu-debt-ai-neocloud (of: https://archive.ph/E5cDG)

“The AI data center build-out, as it currently stands, is dependent on two things: Nvidia chips and borrowed money. Perhaps it was inevitable that people would begin using Nvidia chips to borrow money. As the craze has gone on, I have begun to worry about the weaknesses of the AI data center boom; looking deeper into the financial part of this world, I have not been reassured.”

[Reactie gewijzigd door loekf2 op 24 december 2025 11:33]

Ook een interessante invalshoek inderdaad. De interviews voor dit artikel zijn al eerder afgenomen en ik heb voor een wat andere focus gekozen. Over dit onderwerp zijn volgens mij hele boeken te schrijven, dus best logisch dat The Verge het weer compleet anders insteekt.
Als die bubble popt, wie betaald dan de rekening?
De pensioenfondsen (oftewel de werkende mensen) in elk geval voor een aardig deel.
De pensioenfondsen (oftewel de werkende mensen) in elk geval voor een aardig deel.
Pensioenfondsen hebben niet geinvesteerd in AI omdat ze dat niet kunnen, er zijn geen aandelen. Waar komt deze onzin nu weer vandaan?

Daarnaast, je weet dat JIJ gewoon invloed hebt op de wijze dat pensioenfondsen met ons geld omgaan? Ik was een van de mensen die duidelijk maakte dat ik investeren in wapens niet okay achte. Met mij vele anderen en de pensionfondsen hebben daar naar moeten luisteren.
Pensioenfondsen hebben niet geinvesteerd in AI omdat ze dat niet kunnen, er zijn geen aandelen. Waar komt deze onzin nu weer vandaan?
Uiteraard zijn voor de grote jongen OpenAI geen aandelen, al kan je wel indirect erin investeren door bijvoorbeeld Microsoft en Oracle aandelen te kopen dus. Google, Meta en Microsoft zitten ook allemaal rechtstreeks in AI, dus die aandelen kan je ook kopen. Nvidia, Micron, Samsung, AMD, etc als toeleveranciers kan je aandelen in kopen.
Ik was een van de mensen die duidelijk maakte dat ik investeren in wapens niet okay achte. Met mij vele anderen en de pensionfondsen hebben daar naar moeten luisteren.
Gefeliciteerd, nu zijn we nog afhankelijk van de VS geworden omdat jezelf tegen Rusland en dergelijken kunnen verdedigen als ongewenst gezien werd. Dit is één van mijn primaire problemen met onze pensioenfondsen, die vanuit een fantasiewereld gaan bedenken wat 'juist' is en wat niet. Want is er echt een meerderheid in Nederland tegen een eigen defensie industrie in Europa hebben? Wil echt een meerderheid afhankelijk zijn van de VS / Israel? Ik betwijfel het. Het is vooral een luide minderheid.
Gefeliciteerd, nu zijn we nog afhankelijk van de VS geworden omdat jezelf tegen Rusland en dergelijken kunnen verdedigen als ongewenst gezien werd. Dit is één van mijn primaire problemen met onze pensioenfondsen, die vanuit een fantasiewereld gaan bedenken wat 'juist' is en wat niet. Want is er echt een meerderheid in Nederland tegen een eigen defensie industrie in Europa hebben? Wil echt een meerderheid afhankelijk zijn van de VS / Israel? Ik betwijfel het. Het is vooral een luide minderheid.
Het gaat vaak niet om wapens an sich maar om ziekelijke ontwikkelingen zoals landmijnen en clusterbommen die decennia na dato nog veel onschuldige burgers en kinderen verminken.

Bovendien defensie moet een overheidsaangelegenheid zijn, geen private investering. Daarmee kweek je een industrie die juist oorlog wil zien om hun rotzooi te verkopen. Zie als grote voorbeeld natuurlijk het Militair Industrieel Complex dat Amerika in een houdgreep heeft.
En toch zelfs in deze tijd worden bedrijven als Thales, Airbus, BAE systems, etc als foute bedrijven gezien door de pensioenfondsen, en die maken geen landmijnen. Overigens ook landmijnen worden nu door ook Europese landen weer geplaatst, want het is makkelijk vanuit een land wat niet aan Rusland grenst belerend te zijn.

En tweede gedeelte, tja we kunnen de hele handel nationaliseren, maar dan moeten we wel zelf die miljarden in ontwikkeling gaan steken en het niet als weer een optie zien om te bezuinigen.
Nvidia, Microsoft, Google, Meta, Amazon. Dan hebben we 25% van de S&P500 wel gehad. Weet je zeker dat jouw pensioenfonds daar niet in investeert? ;)

Die bedrijven zullen echt niet naar 0 gaan maar vooral Nvidia gaat wel zo voelen als AI (of het gebruik van GPUs daarvoor) instort.

Daarbij, ik zou dolgraag invloed hebben op de fondsen die mijn pensioenfonds aanbied of de inhoud ervan, maar veel verder dan marktkapitalisatie gaan ze niet (en dan het liefst via een te duur fonds die ze zelf beheren), met een set restricties waar je het hoogstwaarschijnlijk niet volledig mee eens bent (ESG). Sinds Rusland wat meer op de voorgrond staat en Europa tot inzien is gekomen dat enige verdediging toch wel handig is mag er weer geïnvesteerd worden in wapens overigens.
De pensioenfondsen (oftewel de werkende mensen) in elk geval voor een aardig deel.
Yep dat is toch het moderne zaken doen. Massale winsten verdelen onder de eigenaren / executives. Massale verliezen verdelen onder het volk.

Verschrikkelijk. Onvermijdeijk in het huidige systeem, maar echt wel ziek.

Gaat niet goedkomen zo, zoals we ook wel dagelijks al zien natuurlijk.
Gaan we nu echt de grootaandeelhouders als de zielige slachtoffers neerzetten? De mensen als een Warren Buffet zijn de slachtoffers die de massale verliezen moeten dragen in dit zieke systeem?
Klok klepel, Warren Buffet heeft hier niets mee van doen. Daarbij is Warren met pensioen. Berkshire investeert niet in big tech bubbles en crypto. Sterker nog, Warren is bang voor een crash en zit nu voor een groot deel in cash.
Waarbij een nog heel veel groter gedeelte in aandelen zit ook daar. Maar jij snapt prima mijn punt, de hedge fondsen en miljardairs die grootschalig aandeelhouders hier zijn, zijn niet de zielige slachtoffers...
Ik snap je punt wel. Maar gebruik dan een goed voorbeeld als Elon Musk.
Die massale winsten worden verdeeld onder de aandeelhouders indien men besluit tot uitkering over te gaan. Dat zijn dus ook dezelfde pensioenfondsen. Verder worden die winsten aan CEO’s vaak uitgekeerd in aandelenpakketten, waarbij de verkoop van die aandelen pas na zoveel jaar mogelijk is. Op papier hebben ze veel geld, maar bij verlies gaan ze even hard mee omlaag. Niet dat je medelijden hoeft te hebben met de superrijken, maar zo zwart-wit als jij het stelt is het simpelweg niet.
Dat zijn dus ook dezelfde pensioenfondsen. Verder worden die winsten aan CEO’s vaak uitgekeerd in aandelenpakketten, waarbij de verkoop van die aandelen pas na zoveel jaar mogelijk is. Op papier hebben ze veel geld, maar bij verlies gaan ze even hard mee omlaag.
Dit staat los van de gouden parachute bij vertrek, die onafhankelijk is van hoe goed of slecht een CEO het deed.

[Reactie gewijzigd door The Zep Man op 24 december 2025 11:05]

Die dus niet materieel is. Even in perspectief plaatsen: dat is nooit zo significant groot dateert de beurskoers doet veranderen, is ingeprijsd en die gouden parachutes gaan alleen open in geval (a) een set KPI’s gehaald is waarmee de aandeelhouders hebben ingestemd of (b) het blijven van de CEO gezien wordt als een belemmering voor toekomstige winst. In beide gevallen is het economisch rationeel.

Dat het hier riekt naar afgunst, verpakt als neo-communisme of doomsday prietpraat, doet weinig af aan de strekking van het artikel, wat gaat over economisch irrationeel gedrag.
"Privatise the profits, socialise the losses".
Eens. En oneens. De meest AI bedrijven zijn nog niet beursgenoteerd. Dus daarin beleggen is nog lastig. Zelfs voor onze pensioenfondsen. Het gebeurt wel uiteraard, maar weinig rechtstreeks. Meer door te beleggen in de zogenoemde magnificient seven: Apple, Google, Nvidia, Microsoft, Meta, Amazon en Tesla. Die 7 bedrijven zijn ondertussen ongeveer 40% van den S&P500. Die heet niet voor niets S&P500, dat zijn de 500 grootste Amerikaanse beursgenoteerde bedrijven. En slechts 7 daarvan bepalen voor bijna 40% de koers. Dat is zeker wel een bubbel.

Maar beleggers, en dus ook pensioenfondsen, hoeven niet in deze bedrijven te beleggen. Net als dat er steeds meer pensioenfondsen zijn die om andere redenen bepaalde bedrijven uit sluiten. Maar ja dan loop je ook alle winsten tot nu toe mis. En dan wordt je publiekelijk geflamed omdat je het slecht doet. Dus bijna allemaal doen ze het wel. Oftewel doorgaan ‘until the music stops’ en dan rennen naar de exit.
Verschil tussen dot-com bubbel is, toen waren er geen earnings. Nu zijn er gewoon earnings.
Diezelfde pensioenfondsen investeren nu in de bubbel en gaan goed op de flinke winsten die ze pakken. Dus niet piepen. Dan moet je je geld in goud oid zetten.
Geld of je leven heeft daar vorige week nog een aflevering over gemaakt. Is 10 minuten, vond het erg interessant om te luisteren: https://pca.st/episode/b7fd43c5-0cdd-4347-a198-d8061e3cf2ae
Daarom moet je je pensioenfondsen ook niet koppelen aan de aandelen die van gekte aan elkaar zitten.

Maar hoe dan ook krijgen wij het op ons bordje want de ultrarijken zorgen wel dat ze niks verliezen. Om te zorgen dat de economie niet omvalt krijgen ze dan bailouts en die betalen we weer met zijn allen met inflatie.
Niemand kan vandaag voorzien wat de gevolgen zijn als die bubbel knalt. Dat komt omdat het een heel vreemde bubbel is. Het zijn geen honderden kleine startups waarin blindelings geld wordt geinvesteerd, het zijn vooral grote tech reuzen met diepe zakken die volop aan het investeren zijn. En voor vele van die bedrijven is AI belangrijk, is het een grote kostenpost, maar zonder AI zijn die bedrijven winstgevend. Het is dus niet dat die bedrijven ten onder zullen gaan of massaal een groot deel van hun personeelsbestand zullen moeten ontslaan. Want het ironische is daar dat ongeacht AI succesvol wordt of de AI bubbel knapt, er zullen in de tech industrie ontslagen vallen door AI.

De grotere gevolgen zie ik bij toeleveranciers van heel de AI industrie. De hardwaremakers, de datacenterbouwers, enzoverder. Dat is waar in de eerste plaats klappen gaan vallen. Maar hoe groot en wat de impact gaat zijn is moeilijk te voorspellen. Grootste bedrijf in dat opzicht dat vandaag risico loopt is Nvidia imho, dat heeft zowat zijn toekomst gekoppeld aan de AI. Maar vergis je niet, als de crash er is gaan ook andere hardwaremakers klappen krijgen zoals de chipleveranciers, geheugenmakers, ...

En alle investeerders gaan uiteraard een hoop geld verliezen wanneer dat gebeurt. En daar worden we allemaal door getroffen. Zelfs als we zelf niet investeren op de beurs hebben heel veel mensen wel wat producten die wel rechtstreeks aan de beurs gekoppeld zijn. Zo zijn er spaarproducten die in de achtergrond een ETF volgen bijvoorbeeld. Pensioen- en ziekenfondsen doen vaak hetzelfde.
En toch zit Nvidia hier mooi tussen in. Ze zijn meer een kennishuis dan een hardware fabrikant.

Natuurlijk, ze ontwerpen de chips en hebben daarvoor de mensen in dienst maar mocht de bubbel klappen dan hebben ze niet miljarden investeringen qua aan fabs staan (hoi Intel).

Voor Nvidia zal het uiteraard pijn doen, maar de klappen zullen vooral bij het personeel zitten. Dan kunnen ze zich weer op de gaming tak gaan richten…
Maar heel de waarde van Nvidia zit vandaag net in AI. Het bedrijf is de laatste jaren enorm hard gegroeid dankzij AI en mocht de bubbel knappen, dan zullen zij vermoedelijk 1 van de grootste slachtoffers zijn. Want de rest van het bedrijf (graphics, CUDA, networking, ...) zijn maar een fractie van de waarde van het bedrijf. Het kan zelfs zo ver gaan dat het bedrijf er aan ten onder zal gaan en dat de overblijvende onderdelen net verkocht moeten worden om nog iets te kunnen laten recupereren door investeerders.
Het probleem is dat enerzijds een handjevol bedrijven de beurswaarde onevenredig opstuwen en anderzijds fondsen die meerwaarde niet kunnen negeren omdat ze dan achtervallen ten opzichte van de rest. Dus er is eigenlijk weinig keus om in deze mania mee te gaan.

We kijken met open ogen naar iets dat vroeg of laat mis moet gaan. Bedrijven die honderd miljard zomaar garant staan terwijl zoals bij OpenAI er weinig tegenover staat en eigenlijk geen toekomst heeft zonder een daadwerkelijke breakthrough in LLM's naar echte AI. En je hebt geen ongelijk, vergeleken met 25 jaar geleden boeken deze bedrijven een bescheide winst, maar wanneer je een revenue multiply hebt van x50/x100 terwijl bijvoorbeeld P&G een multiply heeft van x5 met een nette winst onder de streep wat betekend het dan nog dat een bedrijf "winst maakt"? En wat is die winst wanneer over 5 jaar een nieuw model uitkomt dat beduidend beter is, dat beduidend minder capaciteit nodig heeft?
Jij en ik en de rest van de samenleving..
"Privatize the profits, socialize the losses"
Wat alleen maar mogelijk is met een grote overheid en belasting betalende massa.
Niet echt: de deelbakfiets staat hier op straat voor gratis de boel te blokkeren en alles wat ermee verdient wordt gaat zeker niet in het verbeteren van diezelfde straat.
De investeerders van die bedrijven, en daarmee dus der werknemers en klanten van die investeringsbedrijven.
Pensioenfondsen, maar ook gewone werknemers zoals jij en ik.
Toen de Dotcom bubble knapte, zag je dat een tijd lang niemand meer wilde investeren. Niet in IT maar eigenlijk ook nergens anders in. Investeerders waren veel geld kwijt geraakt en waren bang geworden.
Gevolg: bedrijven zochten nauwelijks nog nieuwe medewerkers en als je in die tijd een baan zocht, dan had je het knap lastig.
Had je het geluk nog wel een baan te hebben, dan kon je loonsverhogingen wel even vergeten.
De bubbel loopt al leeg want Oracle begint al moeite te krijgen om extra geld te lenen voor hun ai datacenters.

[Reactie gewijzigd door CrazyBernie op 24 december 2025 06:53]

Ben wel benieuwd of je daar een bron voor hebt?
Blue owl stapt uit Oracle datacenter

Oracle bonds are trading at junk levels

Zo maar twee voorbeelden waarmee vrij duidelijk is dat Oracle al echt problemen heeft om voldoende te financieren en dan moeten de echte klappen nog komen.

Super Intressant is om te zien dat Microsoft vrijwel helemaal afziet van deelname aan de laatste rondes mega investeringen terwijl ze first right of refusal hadden bij open ai.
Dat is zeker geen miezerige obscure bron. Dankje. Ze wuiven het bij Oracle een beetje weg, maar het feit dat een finance partner zo reageert geeft wel aan dat er zenuwen beginnen te ontstaan in de financiele wereld.
Aan de andere kant heb ik ook analyses gezien die wel een bubbel voorspellen, maar ook aangeven dat de meeste grote techbedrijven de meeste van hun investeringen doen vanuit hun eigen kas, en dat daardoor de risico's voor de economie relatief laag zijn.

Wel grappig aan het einde van het artikel dat ze ook zeggen dat de aandelen Oracle 50% gedaald zijn ten opzichte van september. Maar overall, zijn ze wel bijna 10% gestegen ten opzichte van een jaar geleden. Toch een hoog percentage, en zeker niet haalbaar met een spaarrekening op dit moment.

[Reactie gewijzigd door William_H op 24 december 2025 10:35]

Inderdaad. Maar met de inmiddels aangekondigde plannen zijn er nog maar twee partijen over die niet cashflow negatief gaan zijn de komende jaren. En dat zijn Microsoft (die hun uitbouw inmiddle vertragen ipv extra gas te geven) en Alphabet. Meta, IBM, Oracle, Softbank, Tencent zijn allemaal cashflow negatief wanneer ze de plannen doorzetten die gemaakt zijn. En dat tot en met 2030.

En met die lage risico's voor de gewone economie ben ik het zeker niet eens. Wanneer je puur kijkt naar het financiele risico van dit moment valt het wel mee. Maar wat in deze berekeningen niet meenemen zijn de missed oppertunities die ontstaan omdat alle resources naar big tech gaan. Allerlei industrieen die anders levensvatbaar zouden zijn worden daarmee op dit moment in de hoek gedreven. Van elektrische auto's, huizen bouw, landbouw wereldwijd wordt alles duurder doordat big tech iedereen overbiedt. Veel van die industrien die geraakt worden gebruiken meer arbeid en leveren dus goed betaalde banen op in tegenstelling tot de datacenters die uiteindelijk na de bouw nauwelijks nog banen opleveren.
Dat tweede deel van je analyse hoor je inderdaad nog niet echt, buiten wat gemor van sommige. Maar als we bijvoorbeeld kijken naar de belasting van datacenters op de hele economie en maatschappij qua energienetwerk, dan is dat zeker een groot probleem aan het worden. De vraag is in de comments wel eens gesteld volgens mij, waar gaan de AI datacenters aan ten onder, te weinig geld of niet genoeg stroom?
Nu is al duidelijk dat we het bij nieuwe datacenters over verbruik hebben soms van een paar GW. Dat is op de lange termijn uiteraard niet vol te houden.
Het is op zich best vol te houden mits de business case eruit kan. Probleem is dat die business case erg moeilijk ligt. Open ai moet met zijn huidige commitments ongeveer eind 2026 meer omzet draaien dan Microsoft in heel 2025 heeft gedraaid. Halen ze dat niet dan kunnen ze de ruwweg 2000 miljard aan investeringen en operationele kosten waaraan ze zich hebben gecommitteerd tot en met 2034 niet betalen. Hun huidige omzet is 20 miljard maar dat moet dus nog keer 13 de komende 12 maanden. Dat lijkt mij vrij irieel.
Linksom of rechtsom zal de burger weer de dupe worden.

Als het geen bubbel is kan je er gif op innemen dat als er laag conjunctuur is dat mensen sneller worden vervangen door AI. Dat wordt nu al gedaan. Minder banen komen er voor terug.

Als de bubbel barst moeten de pensioen fondsen die miljarden hebben uitstaan de klap opvangen. Dan mag Henk en Ingrid nog langer werken.
Ik ben het met veel van wat je schreef eens, op één punt na:
Dat wordt nu al gedaan.
Wat betreft de opmerking over het heden: verwar het feit dat er wereldwijd veel minder vacatures zijn niet met het feit dat die banen zijn vervangen door AI. Als iemand uit de sector kan ik zeggen dat het topmanagement de werving heeft stopgezet in een afwachtende houding, zonder dat er sprake is van significante productiviteitswinsten binnen het hele bedrijf als gevolg van AI. Deze afwachtende houding zal naar mijn mening niet succesvol zijn, omdat het slechts een manier is om "trying to time the market".
Mensen werden al netto ontslagen voordat AI uberhaupt bestond; die trend begon al eerder, en is imho een resultaat van de periode daarvoor waar men onbezonnen veel mensen aan heeft genomen voor veel te veel geld.
Wat betreft de opmerking over het heden: verwar het feit dat er wereldwijd veel minder vacatures zijn niet met het feit dat die banen zijn vervangen door AI.
Het is ook niet perse zo dat persoon x volledig wordt vervangen door AI. Maar er zijn zeker wel beroepen waar een deel van het werk wordt gedaan door AI.

Bijv in de marketing, bij een kleine organisatie waar ik weleens kom werd veel gebruik gemaakt van een tekstschrijver en een grafisch ontwerper.
Voor het gros van die inzet wordt nu AI gebruikt.
Die tekstschrijver en grafisch ontwerper zijn beide nog aan de slag als ZZP-er, maar krijgen het wel moeilijk, met steeds minder opdrachten. En zullen op termijn waarschijnlijk wat anders moeten gaan doen.
...enkel als Henk en Ingrid investeren in een fonds dat zich hierdoor laat vangen
...enkel als Henk en Ingrid investeren in een fonds dat zich hierdoor laat vangen
Hoeft niet. AI wordt nu al als defensie-belang aangemerkt, dus het is redelijk te veronderstellen dat het als "too big to fail" wordt gezien (om nog maar te zwijgen over de banken die omvallen als er ineens 1000 miljard of meer in rook opgaat...). Dat betekent waarschijnlijk dat er gewoon belastinggeld ingepompt gaat worden om bepaalde bedrijven te redden, en als dat geld er niet is dan scheppen ze het via de centrale bank wat resulteert in inflatie waardoor Henk en Ingrid hun spaargeld minder waard wordt en hun boodschappen duurder (klinkt bekend? ;) )

[Reactie gewijzigd door Zoijar op 24 december 2025 10:01]

Zo lang Henk en Ingrid niet in de VS wonen maar in Nederland (of België) zal dat wel best meevallen

Of denk je dat onze regeringen hier OpenAI &Co gaan redden?
De angst voor banenverlies is er elke keer als er een revolutie is. Van de industriële revolutie tot de internet revolutie. Elke keer was de vrees dat er mensen vervangen zouden worden.

Mensen worden inderdaad vervangen, die worden vervolgens ergens anders ingezet of omgeschoold. Vergeet ook niet, dat als alle banen van de wereld overgenomen worden door machines en robots we alle tijd van de wereld hebben om onze hobbies uit te oefenen. Heerlijk.
Wat betekent GW? Gigawatt? Meet je de kracht van hardware dan in hoeveel stroom het verbruikt?
Ik snap het ook niet helemaal, je zou verwachten dat je afneemt op basis van output (TFLOPS oid). Maar afnemen op basis van input voelt heel raar.
De hoeveelheid beschikbare stroom Is het grootste probleem bij de built out van een datacenter en wordt daarom al jaren gebruikt om datacenters te waarderen qua prijs . Wat je met die gigawats kunt doen neemt ieder jaar toe .
Ah dat verklaart het wel, maar toch raar. Als ik een computer koop, wil ik weten wat ik ermee kan. Gegeven hoeveel stroom hij kan verbruiken, maar het gaat me om de output.

Maar wellicht is het ai processing daar niet een goede maat voor? Dat tflops de lading niet zo goed dekt?

[Reactie gewijzigd door PizzaMan79 op 26 december 2025 08:14]

Gaat dus niet alleen om ai dit geld voor vrijwel alle datacenter loads. Eigenlijk vanaf ik 2005 had ik net al met klanten over het beschikbare vermogen ipv de fysieke ruimte. Want toen werd de server density qua vermogen ieder jaar flink hoger.
En wat op dit moment nog speelt is dat bedrijven die AI gebruiken en/of integreren in hun producten en diensten daarvan het grootste gedeelte daar geen winst op maakt. Zoals onderstaand artikel beschrijft dat dit ook een factor is die de beurzen en investeerders onzeker maakt.
https://www.axios.com/2025/08/21/ai-wall-street-big-tech

AI werd aangekondigd als "de heilige graal" en iets dat alles aan kan. Dat blijkt al langer niet het geval te zijn. Dat dit enorme potentie heeft is een feit maar of zich dat ook als waarheid zal ontpoppen zullen we nog moeten afwachten. En als het al zo is blijft de vraag wanneer zich dat zal doorzetten.

Autonoom rijden is daar ook wel een voorbeeld van, hoe dat sinds "het begin" is gehypet maar toch nog wel "even" op zich heeft laten wachten.

We zullen nog moeten zien of investeerders onzeker worden en hun aandelen op deze top afstoten en zich daarmee verzekeren van hun winst.
Ik ken genoeg voorbeelden van bedrijven (zonder specifiek te zijn) die tegen hun medewerkers zeggen: 'dit is onze AI tool en doe er maar wat leuks mee'. Dat gaat natuurlijk niet werken. Er ontbreekt een duidelijke visie (zoals overigens wel met meer zaken in onze samenleving). Gevolg: er is wel al tijd gestoken in de ontwikkeling van AI tooling, maar niemand weet hoe die gebruikt moeten worden.
Het probleem is, AI is heel goed in bepaalde dingen, en mensen en vooral CEO's en managers zien meteen Euro/Dollar tekens in hun ogen, Ooo, ik kan dat ook voor dit en dat gebruiken, dan heb ik die en die mensen niet meer nodig.

Probleem is dat de huidige AI is zeker geen AGI (Artificial general intelligence) is, en de huidige LLMs hallucineren, iets dat je niet kan hebben als je absoluut foutloze resultaten moet hebben voor bijvoorbeeld financiële/logistieke/constructie/recht en politie doeleinde.

Ik gebruik thuis ook een LLM voor mijn Home Assistent automation, maar mijn hobby projectjes is niet een chemische plant, waar als er thuis iets niet goed gaat, ik op zijn ergst wat geïrriteerd ben.

En zolang er geen nieuw model komt die geen last heeft van hallucinaties, is en blijft het een handige tool, waar nog steeds mensen nodig zijn om de fouten te ondervangen die LLMs maken.

En wat ik begrepen heb, kan het voor volgende model er komt tussen nu en misschien wel +100j, het is imo arrogant om te denken, dat we, iets dat natuur in 2 miljard/j, oftewel 100.000.000 menselijke generaties even in 3 generaties oplossen en verbeterd, is het mogelijk, zeker, want misschien loopt er al een AI Einstein of Da Vinci rond, die het probleem oplost.

Maar ik denk het niet, en echte AI, is dat iets dat we echt een risico willen lopen, het kan een paradijs voor ons zijn, als het goedaardig is, maar we slaan elkaar al de hersens in, omdat iemand anders denkt, waarom zou een echte AI anders zijn?
Uhm, de mens is hier nog niet zo lang als jij suggereert maar je hebt zeker een punt met je vergelijking.
Zeg ik ook niet, ik zeg, natuur heeft er 2 miljard jaar over gedaan om van het eerste complexe leven tot onze huidige hersenen te komen.
Je kan de evolutie van de mens niet vergelijken met evolutie van AI. Dat gaat bewust en doelgericht en gaat daarom véél sneller.

Levende wezens evolueren niet met een bewuste strategie (Lamarckisme), maar wel als een opeenvolging van toevalligheden (Darwinisme).

Voorbeeld: De nek van een giraf begon niet te groeien omdat ze hoger in de bomen naar eten begonnen te zoeken (bewust), maar wel omdat er giraffen werden geboren met een genetische afwijking - een mutatie - waarbij ze een langere nek hadden, waardoor ze een voordeel hadden ten opzichte van hun normale soortgenoten en dus meer overlevingskansen hadden (toeval).
Het mag dan wel minder bewust en niet bewust en minder doelgericht/agressiever gebeuren, wil niet zeggen dat 2 miljard jaar een focking lange tijdsperiode is.

Daarnaast, imho, zie ik de huidige AI gebaseerd op LLM als een evolutionaire dead end voor echte AGI, en meer als een sabeltandtijger, dat in optimale omstandigheden floreert, maar gedoemd is om uit te sterven, of iig alleen bruikbaar voor wat het echt goed in is.

Daarnaast, daar het niet zelf kan beslissen wat goede data is, garbage in, garbage uit, en zelfs met goede data, heeft het nog steeds last van hallucinaties.

Ik zie de huidige LLMs meer als een vreesbank, ja je kan er veel mee maken, maar het is zeker nog niet de 5 axis CNC-machine, wat veel mensen denken dat het is.

[Reactie gewijzigd door player-x op 24 december 2025 11:44]

Het mag dan wel minder bewust en doelgericht/agressiever gebeuren, wil niet zeggen dat 2 miljard jaar een focking lange tijdsperiode is.
Wat dacht je van helemaal niet bewust? Het is gewoon een opstapeling van foutjes die zorgen dat we staan waar we nu staan mbt evolutie. De foutjes zelf zijn ook geen opzet verder en super random (dus niet in de juiste richting maar alle kanten op waaronder ook de juiste richting). Misschien is er ergens op een planeet ver weg wel in 1000 jaar intelligentie ontstaan, dat het hier zo lang duurt wil niet zeggen dat het altijd zo is.

Ben het verder wel eens dat het nog lang gaat duren voor AGI hoor, maar de vergelijking met (onze) evolutie lijkt mij onjuist.
Met een beetje hallucineren kan je alsnog CEO van Tesla worden. Moet je eens kijken hoeveel miljard je daar kan sparen door een enkele “werknemer” te vervangen met een AI.
Met een beetje hallucineren kan je alsnog CEO van Tesla worden.
Als je bedoeld, je zelf te gedragen als een sociopaat, die geen klote om zijn werknemers geeft, dan ja, but only in America! |:(
Lijkt me een uitgelezen kans dus om een AI in te zetten. Wat is de kans dat het beroerder wordt? Sparen ze een stuk meer mee dan door te kijken hoe op werkvolk bespaard kan worden.
Maar hoe gaat het wel werken? Als in, ik zie het ook niet als succesvol als je van bovenop denkt te gaan opleggen hoe een AI tool precies gebruikt moet worden. Misschien moeten de medewerkers juist wel zelf uitvogelen hoe het het beste werkt (en als er goede methodes zijn moet dat natuurlijk gedeeld worden).

En de random e-learning cursussen over de AI zijn natuurlijk helemaal zinloos.
Het is op het moment weinig voorspelbaar hoe dit gaat aflopen. AI is een logisch gevolg van wat eerdere technologische 'hypes'. Een x-aantal jaar geleden hadden we 'Big Data'. Daar hoor je nu niets meer over, maar het is er nog steeds. Sterker nog. Door Big Data, kunnen we nu de AI-modellen voeden.

Het verschil met eerdere bubbels (de dotcom-bubbel en de kredietcrisis), is dat AI een echt mechanisme is, dat vanuit de techniek wordt ontwikkeld.

De dotcom-bubbel was primair een marketing-ding. (en zoals altijd. (Verkoop)Marketing maakt alles wat mooi en goed kan zijn kapot en slechter.) Marketeers zagen ineens een nieuw advertentieplatform. Of in elk geval een platform waar ze aanwezigheid konden creëeren. Hier zagen we echter dat, (zoals altijd met marketing) dat het niets meer dan gebakken lucht is. En gebakken lucht is vluchtig en dus stort de boel dan in elkaar.

De 'kredietcrisis' was het directe gevolg van het bank-systeem. Banken mogen geld 'scheppen' op het moment dat ze een (hypothecaire) lening afgeven. Dat is gebaseerd op het feit dat er een onderpand is, en dat er dus altijd terugbetaald kan worden. Dit gaat uiteraard eens in de zoveel tijd mis, maar door de grote getallen was dit risico klein. Echter waren er een aantal grote banken die dit misbruikten voor eigen gewin en 'slechte leningen' uitdeelden.

AI is een parapluterm voor allerlei technieken die nu al heel zinvolle zaken doen (en ook minder zinvolle zaken.) AI-technieken kunnen op een bijzonder efficiente manier data correlerren en output genereren. We zien nu er ruimtevaartcomponenten ontwikkeld worden met behulp van AI. Componententen die 70% lichter zijn (in massa), zonder verlies van sterkte/robuustheid. We zien nu al dat AI-modellen kunnen helpen bij het detecteren van bepaalde ziektes. We zien nu al dat AI-modellen financiële risicoanalyses kunnen doen, in een een fractie van de tijd dat klassieke modellen dit doen. Enzovoorts.

Voor veel mensen is AI een LLM (zoals ChatGPT/Copilot/enz.) of eventueel van die modellen die plaatjes en muziek maken. Maar een LLM is slechts één component/voorbeeld van AI. Het gaat veel en veel verder dan dat.

N.B. Ik zeg nadrukkelijk niet dat AI dus alleen maar leuk en zinvol is. Het kan ook compleet verkeerd gebruikt worden, en het is zeker niet feilloos. En uiteraard zien we dat er zat dingen gedaan worden met AI-technieken die 'stom' of zelfs gevaarlijk zijn. (net zoals veel andere dingen. Je kunt met een hamer een huis bouwen, of iemand z'n hersens inslaan.) Ook zien we dat marketing-onderdelen van bedrijven, de term AI misbruiken en daarmee AI in kwaad daglicht zet (want zoals hierboven al geschreven "Marketing maakt alles, wat mooi en goed kan zijn, kapot en slechter".)
In de dotcom bubbel en kredietcrisis zaten ook bruikbare/werkbare zaken. Maar ze werden misbruikt/overhyped.

Dat kan met AI net zo goed het geval zijn toch? De grote vraag is of de investeringen het waard zijn. Wordt de beurswaarde van bedrijven niet te hoog ingeschat bijvoorbeeld?
Er is al een complete analyze geweest tussen de dot-com bubbel en de AI bubbel. Geef mij maar eens aan hoeveel verlies Google maakt op AI. Namelijk NIKS. Ze zijn puur winstgevend en maken nog steeds bakken met winst. OpenAI is een ander geval. Dat is een in brand staande flat. Omdat ze geen toepassingen hebben.

Ik zie anthropic nog wel opgekocht worden door Amazon. En OpenAI opgekocht worden door Microsoft. En Grok... weet ik niet. Misschien neemt dat Elon Musk wel helemaal naar beneden met die burn rate.
Google? Die heeft alles al op de rit, ze beheersen de GEHELE STACK en maken geen centje verlies. Dus geen bubbel voor Google.
Ik ben geen econoom en heb niet de cijfers van die bedrijven.

Echter een bubbel is volgens mij niet 1 bedrijf wat goed of slecht gaat maar de gehele markt die gefocust is op 1 ding? Als de verwachtingen daarvan niet waargemaakt worden dan is dat wel een risico.

Nu zie ik het zelf niet somber in, maar er zijn ook maar weinigen die een markt kunnen doorzien en een crisis echt kunnen zien aankomen.
In de dotcom bubbel en kredietcrisis zaten ook bruikbare/werkbare zaken.
Maar nu leg je precies de vinger op de zere plek. Er 'zaten ook bruikbare zaken in'. De primaire focus was marketing en lucht waar iets omheen gebouwd werd dat iets leek te kunnen/doen.

Bij AI is het andersom. Het is heel erg bruikbaar en er is wat lucht omheen.
De techniek is bruikbaar, maar is de beurswaarde van de bedrijven en de gedane investeringen reëel? Dat is de vraag denk ik.

Ze investeren in elkaar.

Er zal een correctie plaatsvinden, maar ik denk dat niemand echt kan inschatten wat de impact gaat zijn. Wellicht/waarschijnlijk valt het mee. Maar ik denk. Iet dat iemand dat echt kan voorspellen.
Dat is weer een ander verhaal :) Ik kan niet inschatten of de investeringen die nu gedaan worden realiastisch zijn.

Gevoelsmatig denk ik van niet (ik denk dus dat er veel en veel te veel geld tegenaan gegooid wordt.) Maar of dat echt zo is, heb ik onvoldoende kennis van. (Ik ben geen econoom.) Maar goed. Ditzelfde kunnen we natuurlijk van veel meer zeggen. Kijk naar ruimtevaarttechniek. Hoeveel geld kost dat? Is dat het financieel waard? (rekening houdend met dat er zoveel mensen in armoede leven, enz, enz, enz.)

Het blijven ingewikkelde dingen, en het is goed dat sommigen met invloed er tegenin gaan. Dat houdt iedereen scherp :)
Het is redelijk bruikbaar en er zit een dikke bak lucht omheen (maar minder dan om de dotcom)

Om te kunnen reageren moet je ingelogd zijn