Door Kevin Krikhaar

Redacteur

Miljardenverlies per jaar: OpenAI richt zijn pijlen op 'laatste redmiddel'

12-02-2026 • 11:00

192

chatgpt

"Ik zie advertenties als een last resort voor ons als businessmodel." Dat zei OpenAI-ceo Sam Altman nog geen twee jaar geleden. Klaarblijkelijk zijn alle andere opties nu al uitgeput: sinds deze maand toont het bedrijf advertenties in ChatGPT. In eerste instantie gebeurt dat in beperkte mate en alleen in de Verenigde Staten, maar het is een kwestie van tijd voordat de ads ook verschijnen bij Europese gebruikers.

Dat OpenAI zijn pijlen nu al richt op zijn zelfbenoemde 'laatste redmiddel', lijkt opnieuw een teken te zijn dat het bedrijf dringend extra inkomstenbronnen nodig heeft. Sinds de release van ChatGPT bloedt het bedrijf jaarlijks miljarden dollars. Eerder ging de chatbotmaker al over naar een bedrijf met winstoogmerk om meer investeringen op te kunnen halen. Er is echter meer nodig om binnen een paar jaar winstgevend te worden.

Huidige verdienmodellen

Hoewel OpenAI geen volledige financiële gegevens deelt, gaf cfo Sarah Friar in december aan dat de 'jaarlijks terugkerende inkomsten' van het bedrijf in 2025 zo'n 20 miljard dollar bedroegen. Dat betekent niet dat het bedrijf ook zoveel omzet behaalde dat jaar.

Om aan dit bedrag te komen heeft OpenAI een omzet over een bepaalde periode (bijvoorbeeld één maand) simpelweg geëxtrapoleerd naar het hele jaar. Journalist Will Lockett vermoedt dat OpenAI in december bovengemiddeld veel omzet boekte (circa 1,66 miljard dollar) en dat bedrag vermenigvuldigd heeft met twaalf. In werkelijkheid komt de omzet van 2025 waarschijnlijk eerder neer op 11,9 miljard dollar, berekent hij.

Dat is alsnog een flinke toename ten opzichte van eerdere jaren. In 2024 realiseerde het bedrijf volgens The Information een totale omzet van zo'n 4 miljard dollar. OpenAI haalt zijn inkomsten momenteel voor een groot deel uit betalende ChatGPT-abonnees. In juli waren er 35 miljoen Plus- of Pro-abonnementen actief, meldt The Information. Ook de verkoop van api's van zijn AI-modellen aan ontwikkelaars levert een significant deel van de omzet op. In december was volgens Altman zelfs een miljard dollar van de totale omzet afkomstig van zijn api-tak.

ChatGPT-abonnementen

Stijgen of dalen de kosten?

Om aan de AI-top te blijven is het zaak om steeds krachtigere modellen te ontwikkelen. Die vereisen dus meer rekenkracht en dat is niet gratis. Zo kost een datacenter van 1GW naar schatting 80 miljard dollar om op poten te zetten en jaarlijks 1,3 miljard dollar aan elektriciteit. Ook hebben datacenter-gpu's mogelijk een operationele levensduur van slechts zo'n drie jaar.

Aangezien OpenAI momenteel 1,9GW aan computecapaciteit gebruikt, is het daaraan nu volgens schattingen van journalist Will Lockett 27,97 miljard dollar per jaar kwijt. Omdat OpenAI zijn capaciteit wil uitbreiden, is het logisch om te denken dat de kosten de komende jaren ook flink zullen stijgen.

OpenAI verwacht echter dat een deel van zijn jaarlijkse kosten flink zullen dalen. In een intern document laat het bedrijf weten dat het denkt dat AI-inference snel goedkoper wordt. Ook de kosten van het verkrijgen van trainingsdata zullen tegen 2029 gehalveerd zijn, zo stelt OpenAI.

Miljardenverlies

Toch zijn de verliezen vele malen hoger dan de omzet. Op basis van interne documenten die The Information onlangs heeft ingezien, verwacht OpenAI dit jaar 14 miljard dollar verlies te lijden. Over vorig jaar zijn geen volledige cijfers bekend, maar The Information schreef eerder dat het bedrijf in de eerste helft van 2025 al 13,5 miljard dollar verloor. Aangezien OpenAI volgens datzelfde artikel in die periode 4,3 miljard dollar omzet boekte, draaide het bedrijf voor iedere dollar omzet zo'n 3 dollar verlies.

Volgens een van de interne documenten verwacht OpenAI tot het eind van het decennium 200 miljard dollar uit te gaan geven. Zestig tot tachtig procent van dat bedrag zou worden besteed aan het trainen en draaien van AI-modellen.

OpenAI wil in 2029 100 miljard dollar omzet boeken. Het bedrijf verwacht vanaf dan break-even te draaien. Dat is een ambitieuze doelstelling: er zijn maar weinig bedrijven die zoveel omzet draaien. Google bereikte die mijlpaal pas in 2021. Nvidia, het waardevolste bedrijf ter wereld, boekte in 2024 130 miljard dollar omzet. Het wordt dus een knap lastige taak, al helemaal met alleen de huidige inkomstenbronnen.

Miljardeninvesteringen

De reden dat OpenAI momenteel in het geheel nog overeind staat, heeft vermoedelijk te maken met het feit dat het bedrijf veel investeringen heeft opgehaald van andere techbedrijven. Dit was ook de reden dat OpenAI vorig jaar besloot om zijn bedrijfsstructuur te wijzigen: van een non-profit naar een bedrijf met een beperkt winstoogmerk. Hiermee wilde de fabrikant aantrekkelijker worden voor investeerders. Bij een non-profitorganisatie zit er een grens aan de winst die bedrijven over hun investeringen kunnen behalen, maar na de herstructurering is die limiet er niet langer.

Deze stap heeft het bedrijf geen windeieren gelegd. Waar het bedrijf in 2024 nog 6,6 miljard dollar ophaalde tijdens een investeringsronde, haalde OpenAI tijdens de laatste investeringsronde naar verluidt een recordbedrag van zo'n 100 miljard dollar op. Vooral Nvidia heeft grote investeringen toegezegd. In ruil daarvoor belooft OpenAI weer om miljoenen Nvidia-gpu's te kopen. Over dergelijke circulaire investeringen op AI-gebied schreef Tweakers eerder al een achtergrondverhaal.

Toch advertenties

Je kunt er natuurlijk niet op blijven vertrouwen dat je techvriendjes je miljardenonderneming financieren. Voor OpenAI is het van groot belang om financieel gezond te worden. Deze week werd daarin een belangrijke stap gezet: het bedrijf is begonnen met het tonen van advertenties in ChatGPT. In eerste instantie gebeurt dat alleen voor Amerikaanse gebruikers en alleen als ze niet betalen voor de dienst of als ze het goedkoopste Go-abonnement hebben. Ook verschijnen de ads vooralsnog niet voor minderjarige gebruikers en niet bij gevoelige onderwerpen, zoals gezondheid en politiek. De reclames zijn te herkennen aan het label 'Gesponsord'.

Advertenties in ChatGPT

Extra verdienmodel: hardware

Binnenkort krijgt OpenAI er nog een extra inkomstenbron bij. De fabrikant wil in samenwerking met oud-Apple-ontwerper Jony Ive vanaf volgend jaar ook hardware gaan verkopen. Het eerste product wordt vermoedelijk een pen, al zijn er verder nog weinig details bekend.

De toevoeging van reclames is opmerkelijk te noemen. In mei 2024 kreeg Altman in een gesprek met Harvard-studenten de vraag of OpenAI, naast betaalde abonnementen, nog andere verdienmodellen overwoog. Toen gaf hij aan dat hij advertenties persoonlijk haat. "Ze zorgen er fundamenteel voor dat de drijfveren van gebruikers en die van het bedrijf uit balans raken", gaf de ceo aan. "Ik zeg niet dat OpenAI nooit advertenties zal overwegen, maar ik heb er niets mee."

Hij noemt advertenties in combinatie met AI 'uniek verontrustend', omdat gebruikers daardoor niet meer zeker weten of een antwoord van een chatbot wordt beïnvloed door adverteerders. Daarom stelt hij dat advertenties voor OpenAI een 'laatste redmiddel' zouden zijn. "Ik zou dat alleen doen als dat de enige manier zou zijn om iedereen ter wereld toegang te kunnen geven tot geweldige diensten."

ChatGPT is niet de enige chatbot met reclames. Zo staan er in gesprekken met Microsoft Copilot (eerder Bing Chat) al sinds 2023 advertenties. Perplexity introduceerde in 2024 gesponsorde vervolgvragen in chats. Ook Google toont al advertenties in de AI-modus van zijn zoekmachine, maar het bedrijf beweert dat er geen plannen zijn om ook reclames toe te voegen aan chatbot Gemini.

Eén AI-maker zegt heel stellig dat hij géén advertenties gaat gebruiken: Anthropic. Dat bedrijf bespotte de stap van OpenAI in een satirische Super Bowl-reclame, waarin een gepersonifieerde AI midden in een gesprek een sponsorpraatje houdt. De reclame sluit af met de tagline: "Reclames komen naar AI. Maar niet naar Claude."

Desondanks weet ook Anthropic dat het behoorlijk lastig is om je als techbedrijf staande te houden zónder uiteindelijk toch de toevlucht te nemen tot advertenties. Ondanks de sneer naar OpenAI houdt het bedrijf in een blogpost de deur daarom op een kier: "Mocht het nodig zijn om onze aanpak te herzien, dan zullen we daar transparant over zijn."

Redactie: Kevin Krikhaar • Eindredactie: Marger Verschuur

Reacties (192)

192
192
116
2
0
59

Sorteer op:

Weergave:

Waarom een bubbel die klapt? Er is gewoon belachelijk veel vraag en iedereen probeert de klanten aan zich te binden. Wie de diepste portemonnee heeft zal winnen.
ChatGPT heeft qua bekendheid gewonnen en sommige mensen gebruiken niet eens de term AI maar enkel ChatGPT. Volgens mij is het tijd om het gratis plan uit te faseren en te harken.

Snoeihard verlies maken om te groeien hoort er helaas bij. Kijk naar Picnic 🧺 en Amazon.

[Reactie gewijzigd door StormRider op 12 februari 2026 11:13]

Op het moment dat het gratis plan verdwijnt, verdampt ook een heel groot gedeelte van de gebruikers. Redelijk hardcore gebruikers betalen (al), mensen die het voor de lol toepassen gaan niet zomaar €20 per maand aftikken.
ehh...ik denk dat je verbaast zult zijn als je ziet wat wereldwijd software-bedrijven al betalen aan AI tooling van (vooral) Anthropic. Dan praten we over serieuze bedragen.

Ik werk zelf bij een Silicon Valley based global SaaS bedrijf (we bouwen CICD) en bij ons, en om me heen bij klanten en partners, is het gebruik van AI tools nu echt wel geadopteerd, zelfs bij de meest kritische engineers. Tuurlijk is iedereen nog aan het uitvogelen hoe en wat, maar dit gaat echt niet meer weg. Ik denk dat de echte klappen (en verdampingen) meer gaan vallen in de industrieen waar nu nog veel mens/handwerk zit dat voor een belangrijk deel door (gen)AI tooling vervangen kan worden (denk bv marketing bureaus die veel content maken voor merken)

[Reactie gewijzigd door olafmol op 12 februari 2026 11:29]

Waarom is vooral Anthropic populair bij software bedrijven? Ik weet in welke mate AI ingezet kan worden, maar ben vooral benieuwd wat Anthropic in dit geval speciaal maakt.
Ik gebruikte in het begin nog chatGPT 3.5 om hulp te krijgen met coderen, wat gevolueerd is tot coding agents die snappen wat er in je code base omgaat.


Nu gebruik ik vooral 4 modellen:
  • Opus 4.6
  • Sonnet 4.5
  • Gpt 5.3
  • GPT 5.3 codex
Als je dan kijkt naar de nuttige antwoorden....is voor alles opus gebruiken hiervoor nog opus 4.5, is echt gestoord hoe goed deze AI code kan schrijven en vragen kan begrijpen. (maar de prijs is er ook naar...). Nu om wat goedkoper te zijn gebruik ik vaak opus 4.6 om een plan te schrijven en dan GPT 5.3 codex om het uit te werken maar helaas moet ik met enige regelmaat toch terugvallen op sonnet 4.5.

Dus opzich kan ik wel begrijpen dat mensen vooral voor Anthropic betalen aangezien voor coderen het echt een blessing is en je bij GPT heel vaak in loops terecht komt dat hij je gelijk geeft en dan 10x hetzelfde blijft doen. Of de oplossing is gewoon vies en dan zelfs na het voorkouwen snapt hij het nog niet. Ik zeg niet dat opus en sonnet heilig zijn, maar daar gebeurd het gewoon zoveel minder...

Enige reden voor mij om toch af en toe gpt te gebruiken is simpelweg de prijs, je hoopt eigenlijk dat GPT het goed doet zodat je veel API tokens kan besparen.
Ik gebruikte in het begin nog chatGPT 3.5 om hulp te krijgen met coderen, wat gevolueerd is tot coding agents die snappen wat er in je code base omgaat.
Die agents 'snappen' echt niet wat er in je code base omgaat hoor. Geen AI agent can op dit moment logisch redeneren. Alleen omdat software erg goed te voorspellen is, werkt het goed. Maar als software ontwikkelaars al vallen voor dit gedachtengoed..
Ik denk dat de reden hiervoor is dat Claude de enige tool is die fatsoenlijke code kan genereren die ook daadwerkelijk werkt.

Oude link maar nog steeds relevant: https://terrateam.io/blog/using-llms-to-generate-terraform-code

Rest wel het probleem dat uiteindelijk niemand meer snapt wat de code doet en hoe het werkt, dat maakt troubleshooten lastig en geeft operationele risico's.
Geen enkele LLM genereert fatsoenlijke code. Ik wou laatst even lui een userscriptje omzetten omdat de site was verandert, en Claude 4.6 kwam in een paniekerige reasoning loop terecht die ik handmatig moest afkappen. Voor een userscriptje van 20 regels :+ .

LLMs zijn een zwaar, zwaar overtrokken hype en wanneer men wakker wordt van de hype komt de realisatie dat het gewoon een evolutie van autocomplete is.

Uit onderzoeken blijkt ook dat developers gemiddeld 20% langzamer werken terwijl ze het gevoel hebben 25% sneller te gaan. Dus bedrijven betalen zich het schompes om hun personeel minder productief te maken 8)7.

[Reactie gewijzigd door Halfscherp op 12 februari 2026 18:07]

Welk onderzoek als ik vragen mag?


Buiten de reasoning loop waar ik ook vaak inval, lost claud sommige dingen voor mij zeker sneller op dan ik ooit zelf had kunnen doen. Vraag is, is de quality hetzelfde, mwah. Maar ik vraag me af of dat nog uitmaakt.
Dit onderzoek. Is wel met een wat eerder model. En ze hebben zelf een hoop qualifiers toegevoegd omdat ze niet overspoeld wilden worden door haatreacties van alle AI bulls.

In principe heb je wel gelijk dat het voor one-off dingetjes best goed werkt. Zoals bijvoorbeeld een userscriptje (haha) maken of de juiste regex of command line invocation vinden. Alleen vind het lastig om dat echt onder de noemer "productiviteit" te scharen. En dan nog zijn er vaak simpele dingen die ze over het hoofd zien. Zo vergeten ze bij userscripts steevast om aan cache busting te doen. En een HTML regex (ja ja technisch gezien zou je moeten parsen) faalt vaak ook jammerlijk.

Claude heeft met een twintigtal Claude 4.6 agents een nieuwe C compiler geschreven. Maar die zijn natuurlijk getrained op o.a. de code van Clang en GCC. Nou zijn de modellen wel zo getrained dat ze dingen niet 1-op-1 uitspugen, maar de concepten achter de code zijn natuurlijk universeel en die worden wel als output gegeven. Ze geven zelf overigens ook toe dat het niet een kwalitatief hoogwaardige C compiler is, meer een proof-of-concept.

De Chinese vendors hebben een tijdje terug een heel interessante opmerking gemaakt: de afgelopen twee generaties zijn de modellen maar mondjesmaat beter geworden. Om die laatste procenten verbetering eruit te knijpen d.m.v. training heb je bizar veel compute nodig. De Amerikaanse vendors hebben het kapitaal om daar de compute (datacenters) voor op te zetten, terwijl de Chinezen een significant deel van hun capaciteit alleen al kwijt zijn aan inference (output geven).

Tenzij er een of andere onverwachte nieuwe doorbraak is hebben LLMs eigenlijk de piek van hun kunnen al bijna bereikt. De echte gains liggen voorlopig in efficiëntie, harassing, tooling, enz.

Je zal de komende jaren vooral zien dat het veel goedkoper wordt. Claude Max kost je nu nog $200 per maand, dat wordt binnen een paar jaar door efficiëntere modellen en marktwerking iets van $20 per maand, zo niet minder. En kleinere en daardoor lokaal draaiende modellen zullen gigantisch veel beter worden.

Excuus voor de lange reactie :X

[Reactie gewijzigd door Halfscherp op 12 februari 2026 21:42]

Bedankt voor je reactie , helemaal niet te lang. Dat hoort op Tweakers. Bovendien heb ik je samenvatting in ai gegooid, grapje. :Y) Ik ga morgen eens kijken naar dat onderzoek, leuk!
Dit is wel een goed punt inderdaad. Voor mij zit de meerwaarde van een Claude Code vooral in het heel snel kunnen genereren van een werkende proof of concept. Ik ben geen programmeur dus wat de AI produceert gaat ver boven mijn skill-level. Het snel kleinschalig kunnen testen van hele niche toepassingen zonder dat daar meteen een technische afdeling bij betrokken hoeft te worden is wel echt nuttig.
Goeie reactie, ik heb dit onderzoek recent ook gelezen en vind het heel typerend dat mensen dit maar niet in willen zien. Ik merk het ook in mijn werkomgeving, steeds meer collega's halen alles door LLMs, en als je dan vraagt waarom ze het op die manier gebouwd hebben, of opmerkingen hebt over bepaalde patterns etc die niet in de stijl van onze codebase passen dan wordt het altijd een heel vaag verhaal van "ja ik heb copilot gebruikt maar ook wel zelf gecheckt hoor!"

Uiteindelijk kost het dan alleen maar meer tijd omdat dit dan weer deels herschreven moet worden om in de codebase te passen en gaat de kwaliteit van de developer achteruit omdat hij niet meer zelf nadenkt, en de kwaliteit van de codebase omdat deze niet over nagedachte code er vaak toch in komt.

Ja, ik gebruik het zelf ook wel eens, maar het voelt bijna als een social media afhankelijkheid ofzo, ik raak er snel in verzeild, ga steeds meer aan AI vragen, en uiteindelijk denk ik dan zelf niet meer logisch na en wordt bijvoorbeeld het oplossen van een bug een heel proces van AI maar vragen blijven stellen, er na een uur achterkomen, terwijl het dan bij zelf nadenken zo te vinden had geweest. Dan gooi ik die extension weer uit de IDE en gebruik ik het een tijdje niet, maar wordt je toch weer verleidt omdat het nu eenmaal lekker lui en makkelijk is om het aan die AI te vragen.

Ik verwacht zelf dat er over een jaar of 5 een soort omslag gaat zijn waarbij we ineens met zijn allen er achter komen dat AI toch wel een troepzooi van je code maakt en we dan weer massaal het er uit gaan gooien en gaan refactoren om dit op te ruimen.

Het voelt soms echt alsof ik in een soort koortsdroom leef waarin mensen massaal trappen in het Wizard of Oz trucje van "kijk eens wat voor magie ik allemaal kan" en als je even iets langer kijkt en onderzoek leest het allemaal nep blijkt te zijn.
Overigens zegt dit niet dat het nooit nuttig is. Het kan wel nut hebben, ik gebruik het bijvoorbeeld wel eens om recepten op te stellen, en check deze daarna nog even met google om te controleren of alles echt klopt, vooral berekeningen in kcal of inhoud zijn nog wel eens fout. Of om SQL queries te schrijven als je ff snel iets moet migreren of meerdere tables tegelijk moet modifyen bij een live issue, dan is AI vlotter dan alle SQL statements weer zelf oprakelen, maar het gaat echt niet de developer zijn kennis vervangen.

[Reactie gewijzigd door 259tim op 13 februari 2026 20:58]

Dank voor je uitgebreide reactie! Ik begrijp nu een stuk beter wat de meerwaarde van de ene LLM tov de andere is.
Als je slecht prompt kom je niet ver nee. Ik heb helemaal geen problemen met de output van AI. Of het nou gaat om iOS (Swift) of Android (Kotlin), Web (React JS) of backend (springboot). Gewoon met chatGPT en of met Gemini.

"Complexe" PSQL queries schrijf je met een paar prompts. Dit kan gewoon niet sneller met de hand. Migratie naar een andere library of naar een hogere versie is met AI ook een fluitje van een cent (copy paste). Je moet zelf wel precies weten wat je wilt en dit dan ook zo beschrijven anders is het poep in poep uit.
Haha, altijd mooi hoe de AI-verslaafden met het "je prompt gewoon slecht" strawmannetje komen :O
Ik ben soms wat lui en probeer dan chatgpt als zoekmachine en samenvatter te gebruiken. Zo laatst om Omada Controller software te installeren.

Er waren officiële TP-Link tutorials te vinden maar alleen tot versie 5.15.20 en de zoekfunctie op de site was op zijn minst belabberd. Ik zocht iets voor Debian 12 of Ubuntu 24.04 samen met versie 6 van Omada.

Nadat ik op aanrader van ChatGPT een Debian 12 machine had geïnstalleerd bleek daar geen MongoDB beschikbaar voor te zijn. Hij raadde toen Debian 11 aan.. dat gaan we dus niet meer doen met nog maar een half jaar tot EOL.

Daarna maar een oude tutorial gevolgd. Uiteindelijk 2x zo lang bezig geweest dan zonder "hulp".

Het enige wat OK gaat is korte zinnen anders formuleren maar je moet alles tot op de punt nalezen en checken en vooral zelf na blijven denken. Ik ben er al te vaak ingetrapt en als een tekst cruciaal is kan je het beter gewoon met de hand nagaan.

Zelfs als veredelde zoekmachine en fancy autocorrect faalt ChatGPT gewoon keihard.

[Reactie gewijzigd door sanscorp op 14 februari 2026 08:47]

In ons geval werken we op een bestaande codebase, waarbij veelal TDD wordt toegepast, en we eerst een uitgebreid plan maken voordat er uberhaupt code wordt gegenereerd. Ook wordt alle code reviewed door engineers. Config zoals agent definitions, skills, rules etc worden gedeeld door teams en engineers.

Uitdagingen zijn nog steeds code bloat (omdat mensen ernaar moeten kijken is volume van genereerde LoC wel een issue), en cross-system integratie (zelfs cross-services). Ik vermoed dat er wel meer PACT tests ed zullen worden gebruikt, en synthetische API tests.

Uberhaupt gaat autonomous testing het grote ding worden om de bottleneck te kunnen wegpoetsen.
Wat voor ons de sleutel is geweest tot consistent goede code is Claude eerste test-cases te laten schrijven op basis van je beschrijvingen en dan code te genereren die daar aan voldoet (test-driven development). Dat werkt echt magisch goed en maakt onze development cycles echt een stuk sneller en betrouwbaarder.
Yups. Ik voorzie een grote toekomst voor/revival van BDD, PACT contract testing, synthetic API testing, en Canary releasing.
Hey! Dat klinkt inderdaad erg aanlokkelijk. Ga het eens proberen.
Voor Mistral moet je dan ook geen Mistral Le Chat Pro gebruiken om code te genereren. Dat is appels met peren. De naam zegt het al: Le Chat. Dat is equivalent aan ChatGPT.
Oude link maar nog steeds relevant:
Niet dus. De ontwikkelingen gaan gigantisch snel.

Zie Devstral 2 aankondiging van afgelopen december: https://mistral.ai/news/devstral-2-vibe-cli

Dit model is het beste qua open weight vibe coding, en voor een Europees product doet deze het ook relatief goed t.o.v. de proprietary Amerikaanse modellen die er veel meer VC tegenaan gooien.

Wat betreft dit bericht van Altman: dit is gewoon QQ van 'we kunnen niet anders' en 'we moeten wel advertenties tonen'. Natuurlijk kun je met de juiste connecties en praatjes zoveel geld lenen... tot je bubbel barst, of je winstgevend bent. Ik vind het best. Gooi de hele boel maar onder de advertenties. Des te aantrekkelijker wordt de concurrentie.
Daarom zit ik op Tweakers, ik ga deze codestral eens testdriven. Bedankt!
Fijn dat je het positief oppakt.

Codestral is een vorige iteratie van mei 2024 https://mistral.ai/news/codestral devstral kun je denk ik zien als opvolger. Small variant kun je zelf lokaal draaien maar lokaal moet je altijd met lokaal vergelijken (liefst zelfde aantal (b) parameters) en soortgelijke VRAM load). Een small lokaal versus een medium of large model dat op meerdere H100 remote draait is een oneerlijke vergelijking. Je kunt best meerdere modellen remote vergelijken maar dan weet je niet wat voor hardware ze gebruikten. Je weet hoogstens de kosten, hetgeen je ervoor neerlegt. Maar dan nog heeft USA VC een veel langere adem dan EU. Dus het zou mij niets verbazen als de Amerikaanse modellen veel meer kosten om te draaien.
Claude Code met Opus 4.5 (of 4.6 nu). Al zie ik ook voor multi-model orchestration steeds vaker Opencode of Kilo Code (Nederlandse roots met co-founder Sid van Gitlab) voorbijkomen. Zelf gebruik ik steeds vaker ook Opencode met een mix van modellen, afhankelijk van de doelstellingen.
Wat voor abonnement of model gebruik je dan, want ik ben helemaal niet (meer) zo'n fan van Claude (Pro).
Ik brand veel te snel door de rate limit heen, ook met Default (recommended) (Opus 4.6), op low effort.
Vooral vervelend is dat ie dan ook geen fijne status achterlaat om zelf of later mee door te gaan.

Doe mij tegenwoordig maar Cursor met Composer 1.5.
Het heeft geweldige tooling (met bugs dat wel). De modellen zijn ook goed zo niet het beste op het gebied van coderen. Het is wel enorm prijzig, daarom gebruiken de meeste het alleen op het werk. Thuis draai ik devstral 2 van mistral.
Ik kwam onlangs ergens de bewering tegen dat van het totale gebruik aan tokens van OpenAI diensten slechts iets van 5% voor programmeer taken gebruikt wordt. Als dat klopt dan betekent dat waarschijnlijk letterlijk iets van 80% of meer van al het OpenAI gebruik nu voor slop en gemakzucht is en niet voor taken die daadwerkelijk iets opleveren, want vooralsnog ben buiten programmeren ik nog geen enkele toepassing van AI tegengekomen die genoeg economische waarde toevoegt dat veel mensen bereid zijn er meer dan misschien een paar euro per maand aan zouden willen betalen. Plus dat voor dat soort toepassingen inmiddels een hele sloot aan andere modellen beschikbaar is die net zo goed werken als ChatGPT. Dus ik zie het business model van OpenAI totaal niet, en ben hen daarom ook wel eens met dit artikel dat ads een laatste noodgreep zijn, als dat niet voldoende gaat opleveren dan gaat OpenAI gewoon inklappen.

Anthropic is een heel ander soort bedrijf, die richten zich op een specifieke markt waar je veel duidelijker kunt aanwijzen waar de economische waarde is. Maar als ik even uit mijn eigen bubbel stap, in het grote geheel der dingen is software ontwikkeling ook maar een niche markt, sure er werken veel mensen in de software industrie maar zelfs als AI daar de helft van overbodig zou kunnen maken (waar ik niet in geloof), dan nog is dat een druppel vergeleken met de (inmiddels) duizenden miljarden dollars die er geinvesteerd worden. Ik denk dus dat er uiteindelijk maar heel weinig van de AI bedrijven gaan overleven.
Ik hoorde een kennis uit de MarCom hoek paar dagen geleden vertellen dat de grote merk/reclame-gedreven bedrijven inschatten dat ze van tientallen miljoenen euros aan marketing-budgetten terug kunnen naar onder de miljoen, omdat ze een groot deel van hun content (vooral fotos en videos voor reclames) kunnen laten generen door genAI en dus niet meer een reteduur reclamebureau hoeven in te huren. Of het daadwerkelijk ook zo gaat zijn weet ik niet, en of we straks allemaal 6-vingerige mensen met gesmolten gezichten op TV en op Abri's gaan zien weet ik ook niet, maar ik kan me er wel iets bij voorstellen dat hier grote klappen in gaan vallen.
Ja er gaan zeker grote klappen vallen, daar ben ik ook van overtuigd. En er gaan ook zeker succesvolle business modellen ontstaan voor AI bedrijven. Maar 'ChatGPT' als slop-generator of voor low-effort zoekopdrachten, dat gaat volgens mij niet een van die business modellen zijn. Het sterft nu al van de open-weight modellen die daar bijna net zo goed in zijn als ChatGPT dus er is gewoon geen moat voor OpenAI.

Van alle AI bedrijven heeft OpenAI by far het meeste aan investeringen en beloftes verzameld de afgelopen tijd, terwijl het (naar mijn mening) ook by far het minst interessante product en business model heeft van de hele AI wereld. Het enige wat ze aan USP hebben (en dat is op dit moment ook weer niet te onderschatten) is de merknaam.
OpenAI heeft denk ik als "claim to fame" de "chat interface" in de markt kunnen zetten als defacto standaard, met daaronder een van de leidende LLM modellen (GPT).

Om dit echt te kunnen monetizen moeten ze idd op zoek naar verdienmodellen. Zelf denk ik dat dat lastig wordt, maar ze zouden bv "de nieuwe google" kunnen worden, dat zie ik om me heen wel gebeuren dat mensen "chat" als de defacto zoekinterface gebruiken voor informatie, en dan meer als een dialoog. Maarja, google is daar met Gemini natuurlijk ook al flink opgedoken, dus OpenAI zal het lastig krijgen. Iets echt onderscheidend en beschermbaar als PageRank hebben ze niet.
OpenAI heeft ook veel onkosten per gebruiker, of deze nu betaald of niet. Die onkosten worden niet lager. Dan kun je wel trots roepen: "er zijn in Texas meer gratis gebruikers van ChatGPT, dan het totale aantal Claude (Opus/sonnet/code enz.) gebruikers". Anthropic, de makers van Claude hebben echter meer betalende klanten.

Net zoals OpenAI is Anthropic niet winstgevend. Nog niet. Investeerders zien dat echter wel gebeuren met Anthropic en hun produkten. Dezelfde investeerders zien dat niet gebeuren voor OpenAI. Niet omdat hun produkt zoveel slechter of beter is. Dat boeit bijna niet. De bedrijfsopzet en hoe alle zaken worden gefinancieerd, daar zit een enorm groot verschil.

Wat geheel ligt aan de leidinggevenden van beide bedrijven. OpenAI doet dit zo slecht, dat als er niet weer gauw tussen de 10 en 100 miljard aan USD aan hen word toegezegd, OpenAI binnen maximaal 1,5 jaar compleet failliet is. OpenAI kan doen wat zij doen puur en alleen omdat er nog steeds investeerders te vinden zijn. Maar de investeerders die er vroeg zijn ingestapt, die beginnen zich al te roeren over ROI.

Bij Anthropic zijn er weinig twijfels, bij OpenAI en vooral S. Altman, daar des te meer. Altman is sterk in het binnenhalen van investeringen. Maar een goede zakenman en/of CEO is hij niet. Ook al denkt hij zelf van wel.
De vraag is, of het grote publiek daar veel van gaat merken. AH adverteert voor pakweg 100 miljoen per jaar, maar er zijn dan ook 8,5 miljoen huishoudens die 5 tot 8K per jaar uitgeven aan boodschappen, waarvan 2 tot 3,5K bij Albert Heijn. Dus 100 miljoen lijkt veel, maar op een omzet van 17 à 29 miljard is het een half tot een kwart procent van de omzet van appie.

Naast dat die 100 miljoen niet helemaal door AI kan worden overgenomen en wat er overgenomen wordt, is nog steeds niet gratis, want AI moet ook terugverdiend worden en winst maken en aandeelhouders terugbetalen.

Sterker nog, als een AI-bedrijf hierdoor een monopolie-achtige positie krijgt, kon de marketing wel eens significant duurder worden. Doordat hun reclame effectiever blijkt, bijvoorbeeld.
Ik gebruik het ook stevig als developer. Maar ik bedoel de gemiddelde Facebookboomer die nu plaatjes zit uit te kakken, niet mensen die het gebruiken om geld mee te verdienen.
Tis dat Google Gemini heeft en nu ook "AI" in z'n search stopt. Maar ik denk daadwerkelijk dat veel mensen zowaar wel een paar euros per maand zouden aftikken voor ChatGPT als de free plans eruit gaan. Dat hoor ik tenminste de anti-tech mensen wel om me heen zeggen, die zitten volop in "de chat". Ik denk dat als ze, net als iCloud storage, of de kleinste netflix of spotify abbo's, een paar eurootjes per maand cashen, ze best wel een leuke business kunnen doen...maar wel high-volume, low margin.
Vraag is of mensen er tegen echte kosten nog zoveel zin in hebben. Je kunt niet zoveel chatten laat staan met multimedia voor een paar euro. Het zet er een rem op natuurlijk, maar je blijft bloeden. Het zal wel enshittification worden, ook betaald ads, bij meer dan een plaatje per week of meer dan 100 woorden output al schreeuwen om naar ultra te upgraden omdat je anders verder alleen nog antwoorden krijgt van gpt 3.666 turbo
We gaan het meemaken, maar dat er verschuivingen in die markt komen is nu wel helemaal onmiskenbaar
En nog worden er meer miljarden ingepompt en komt er bij geen van deze bots tot nu toe nog maar iets van winst uit. Dus zelfs met die afnames van besrijven, komen ze nog niet eens in de buurt van break even. Anthropic verwacht/hoopt het in 2 jaar te behalen, bij OpenAi is het minstens 4. En dan nog zijn dat erg optimistische schattingen voor wen breakeven (wat nog steeds geen winst betekend). En ik vermoed dat de bubbel er lang voor zal klappen.
jij kijkt nu verkeerd,

Het is Open AI die verlies leid want zij doen de training en investering, waar gaat het geld heen van de eindgebruiker,

Precies naar de middle man, al die websites en bedrijven die diensten aanbieden al dan niet op de betaalde API van Open AI, maar daar gaat maar 5% van de winst heen de rest blijft hangen bij de SAAS dienst verlener en die heeft keuzen uit heele hoop AI engines, dus als jij duur bent gaat ie wel naar de buurman.

Zelfde als een lithium mijn in congo niet echt super draait maar de autos als warme broodjes gaan.
Jij doelt nu op de dienstverleners als Huggingface, Openrouter en vele andere? Vraag me wel af of dit klopt, want de prijs per token is nou niet echt hoog te noemen daar. Voor een paar euro kun je maanden zoet zijn.
Ik doel mee op de enterprise services als Copilot etc. Ondanks dat ze draaien op OpenAI research ziet Open AI er weinig van terug.
Aha... kijk, dat wist ik dus niet. Ik was al die tijd in de veronderstelling dat MS een eigen AI had. Maar ze leunen dus op OpenAI hiervoor. Weer wat geleerd. :)

[Reactie gewijzigd door poktor op 12 februari 2026 15:49]

ja ja en nee,

In copilot kun je kiezen welke engine je wilt, en in Azure AI same als je een oplossing bouwt kun je kiezen welk model.

En Ja MS zal vast een eigen model hebben maar dat is door getrained op de OpenAI modellen, dus GPT 5.2 met extra training op code = GH copilot etc. GPT5.2+ securtity traiing is copilot for security etc.
Hoezo kijk het verkeerd? Het gaat hier ten slotte toch om ChatGPT en consorten en niet de middle men? Die zullen ongetwijfeld lekker boeren hier op. Als de ai bubbel klapt zegt dat nog niet dat ai zo maar weg zal gaan (net zo goed dat het internet er ook nog was na de dotcom bubbel burst), nog dat de miljarden business in data centra en eenbieders zo maar ophoud. Het zal wel flink terug schalen tenzij ze het op een andere manier weten aan te bieden (remote computing bijv, gepaard met huidige prijzen voor apparatuur ... dit kon nog wel eens met opzet zijn).

Hoe dan ook, ChatGPT heeft het moeilijk, heeft het nooit breed gehad eigenlijk, er moeten maar miljarden ingepompt blijven, en DAT komt er bij lange na niet uit, en dat gaat ze echt nog wel de kop kosten.
Het ding is echter wel dat het tot nu toe super makkelijk is om te switchen naar een concurrent. Er is niet echt een vendor lock-in. De vraag is of de “first mover” met een mega berg aan schuld nou echt voordeel heeft als de tech stukken goedkoper wordt en een concurrent voor 1/10 van de prijs 99% van de kwaliteit kan bieden omdat ze geen mega schuldenberg hoeven af te betalen.

Wat dat betreft is het wel echt super tricky: de functionaliteit is zeker geld waard maar of de huidige grote spelers het gaan winnen is maar zeer de vraag. Zeker als de switch kosten zo laag blijven als nu.
Je hebt het over professionele setting. Tuurlijk... Bedrijven willen best betalen voor goeie tools. Tijdswinst vermindert de kosten.
Joooost heeft het eerder over consumenten. Eens het niet meer gratis kan, lijkt het me inderdaad een correcte inschatting dat een grote hoop afhaakt.
Al denk ik niet dat het gratis model verdwijnt, net om die reden. Het zal eerder een beperkte ervaring zijn, als lokkertje. Beperkt tot X aantal prompts per dag bijvoorbeeld. Wil je meer, dan moet je een abo afnemen. Da's denk ik nu al bij een aantal AI's, denk ik. Mijn schoonmoeder ging onlangs naar een AI cursus voor senioren. Tijdens de oefeningetjes kon ze ineens niet meer verder 'spelen'.
De eerste reden dat er zoveel geld gestoken wordt in AI, is voornamelijk, omdat tech bedrijven zoveel hebben opgepot, in o.a. Ierland, en als ze dat geld terug naar de US willen halen als dividend, ze daar anders behoorlijk belasting over moeten betalen.

De tweede reden is, is dat niemand de boot wil missen, en daarnaast dat men al zoveel geld heeft gebruikt, dat er uitstappen, en uitleggen waarom, ook een steeds groter probleem wordt om te verantwoorden.

Zeg niet dat er geen plaats is voor LLM's gebaseerde AI, maar nog steeds zijn hallucinaties een groot probleem, en voor een hoop implementaties zelfs onoverkomelijk, en worden daar teruggedraaid.

Een zo'n probleem is bij software development zelf, het Junior dev. werk dat AI nu kan doen, voorkomt dat, beginnende software developers geen kans krijgen hun vak te leren, en er geen nieuwe aanwas van senior developers meer komt, want je kan die niet rechtstreeks uit school in huren, ervaring is iets dat je ontwikkeld, en niet uit een schoolboek leert.

Daarnaast schrijft AI matige code, dat daarnaast ontoegankelijk is voor mensen om te kunnen aanpassen, of te debuggen.
De kwaliteit van AI code is nog altijd ondermaats hoor (en dan is een dikke understatement). Triviale code = ja, grote projecten=no way in hell. Ik heb elk betalend abonnement al getest voor mijn saas app. Het is geen production ready code by miles, optimalisaties mag je helemaal vergeten, "lean & mean" code en een data model opbouwen op basis van wat je nodig hebt en om sneller te queryen, mag je vergeten. Wat kan het mij schelen dat iets 2x in een tabel voorkomt, zolang de queries maar snel zijn. En zo zijn er nog veel dingen dat ik dagelijks gebruik waar het gewoon compleet of faalt. Zelfs autocomplete van een lijntje slaat de bal dikwijls mis. Gebruik je een iets nieuwer framework ... nopes altijd een oudere versie. Wat wel makkelijk is ... Je moet niet meer in google gaan zoeken voor hoe werkt die functie weeral ... ken niet elke functie van elke taal/framework dat ik wil gebruiken, en zeker niet diegene die je niet zo dikwijls nodig hebt

Waar het wel voor werkt is (kleine) scripts maken en eventueel in mindere mate micro services. Ik heb ook meerdere micro services/cloud functions etc voor bepaalde dingen. En voor mensen die wel iets willen maken en ooit wat code geschreven hebben, die kunnen iets maken met behulp van AI, wat anders echt niet lukte. Maar de zon/zee/maan en de sterren moet in de correcte positie staan wil het werken. Zo werkt het helemaal niet

Ik kan niet zeggen dat ik productiever geworden ben met behulp van AI. De gemaakte dingen waren ondermaats en de tijd dat ik er in gestoken heb, had ik het zelf beter gemaakt. En elke 6 maand doe ik nu de test, mijn volgende test is in April, en elke keer hetzelfde formulier laten (slechts een formulier met bepaalde dingen in), en nee het is geen simpel contact formulier, maar meerdere mogelijk, en dat mag je vergeten. De vorige ronde heeft AI slechts 3x alles gewist en opnieuw begonnen, een paar x werkende code gewoon compleet vervangen door andere dingen.

Als ik les geef (avondschool, volwassenen, programmercursus) en voor zeer triviale code kan ik snel iets qua oefening op het scherm zetten. Aangezien ik zeker in het begin alles "live" maak zodat de studenten kunnen zien hoe je alles moet doen

De meeste studenten vorig jaar hebben zelfs op het einde van het jaar alle AI uitgezet gewoon omdat het niet sneller ging. Ze zeiden zelf in het begin was het nuttig, maar nu voor mijn eindwerk spendeer ik er meer tijd aan om dingen te fixen dan dat het mij helpt. Waar ze het wel nog voor gebruiken is dingen die ze niet kennen bijvoorbeeld (of geen onderdeel waren van de cursus), daar was het nuttig dat er iets uit kwam dat ze dan zelfs konden aanpassen
In mijn ervaring is de code die ze schrijven behoorlijk goed geworden. In zo’n 70% van de keren krijg ik de oplossing op mijn eerste prompt all. En soms doet het iets verkeerd maar dat is dan meestal omdat mijn prompt niet superduidelijk was.

het is wel belangrijk om dit in een IDE te doen. Ik gebruik zelf Cursor met daarin GPT 5.3 Codex in high of very high mode meestal, en daarnaast Claude Code met Opus 4.6 thinking. Op die manier wordt je code base direct gelezen en worden patches meestal binnen 1-4 minuten toegepast. En ik heb redelijk complexe functies in het compleet door A.I. gegenereerde Rust-script van 18000 regels dus het kan prima met een beetje doorzettingsvermogen.
Nieuwe dingen genereren is vaak niet het probleem, maar het refactoren/door-ontwikkelen op bestaande code, daar gaat het in mijn ervaring vaak (heel erg) mis. De context verdwijnt of wordt sterk gefilterd, zodra de codebase groeit.
Zelf denk ik ook dat een behoorlijk percentage van het AI-agents/tools gebruik komt door de verslavende kenmerken ervan: https://blog.dave.tf/post/coding-agents/
Dit is erg vaag "De context verdwijnt of wordt sterk gefilterd".
In elk geval.. het kan prima werken maar je moet wel extreem duidelijk zijn in wat je wilt; het is een goede oefening om zoveel mogelijk helder te krijgen wat je beoogde doel is met de aanpassing die je wilt en hoe je wilt dat jouw applicatie precies reageert in bepaalde situaties. Een simpele "maak XX functie beter" is niet voldoende.
“You’re doing it wrong” argumenten worden heel veel gebruikt in AI space. Maar ik kan je vertellen dat de engineers die ik ken die ermee bezig zijn echt wel weten wat ze doen en state of the art technieken en tools toepassen. Maar dan loop je nog steeds tzt tegen context compression aan. Hoeveel memory-banks en vector-dbs je er ook tegenaan gooit.
Kijk als het nog geen formulier kan maken op een week waar ik maximaal een dag over zou doen, dan is het waardeloos voor mij. En als ik iets helemaal moet voorkauwen, waarom schrijf ik het dan niet zelf in de eerste plaats. Zelfs daar slagen de duurdere niet in. En ik heb een "open" geest, ik wou gewoon zien als het daadwerkelijk wat kon produceren dat ermee "doorkan", maar dat was verre van. Ow ja kan je dit wijzigen ... gewoon bijvoorbeeld een kleurtje vervangen in alles van die specifieke dingen ... En dit faalt gewoon. Tsja geen idee waarom dit de hemel ingeprezen word. Maar zelfs search/replace werkt sneller en beter. Dat er iets uit komt is leuk. Maar als je wat kan programmeren, dan kan je het zelf wel sneller hoor (en beter), dus wat heeft dit dan voor meerwaarde ? En ik heb echt alles geprobeerd, bijvoorbeeld alles zo gedetailleerd mogelijk in 1x, werkt helemaal niet, nergens, was altijd een complete ramp. Dan stukje voor stukje opbouwen, dat "werkt" tot het wat groter is en je (een opzettelijke) fout wilt wijzigen, of nadien iets tussenvoegen. Daar gaat het altijd wel ergens fout... Ook neem voor elke wijziging een backup en vraag me dat niet meer gedurende de hele sessie... 4-5 vragen verder ... mag ik dit eerst bewaren en dan de wijzigingen uitvoeren ... Mag ik dit doen ... ja ik heb al 20x ja gezegd, dus ja nogmaals
Het lijkt erop dat je het het hebt geprobeerd in de standaard chat van LLMs. Probeer het eens in een IDE zoals Codex, dan heb je dit niet meer: "mag ik dit eerst bewaren en dan de wijzigingen uitvoeren ... Mag ik dit doen ... ja ik heb al 20x ja gezegd, dus ja nogmaals".
Ok maar dat is maar een stukje van het verhaal. En waarom zou ik iets anders dan VScode moeten gebruiken ? Daar zie ik helemaal het nut niet van in, ze hebben toch een VSCode plugin, ik verwacht dat dit hetzelfde doet. Maar zelfs als dit stukje zou opgelost zijn, de code is nog altijd verre van productie ready, werkende code wissen en/of vervangen zonder dat er enige aanleiding toe is, als het te groot word komt er niks meer uit en dit is in "kleine" projecten met niks legacy. In mijn 2 saas apps (steekt meer dan 10 jaar werk in) werkt het voor geen meter. Een microservice/cloud function maken waar niet teveel moet gebeuren lukt al met moeite. Zelfs als je gebruik de laatste versie van framework x zegt, dan komt er nog dikwijls code van vorige versies tevoorschijn. Autocomplete van een lijntje slaagt is hit and miss. Als je met moeite kan programmeren kan het nuttig zijn, maar als je wat kent, dan is dit echt in de huidige staat geen hulpmiddel hoor bij grotere projecten. En ik heb al fails gezien bij mijn testen van +-1500 lijnen waar het helemaal andere dingen ging doen dan gevraagd.

Maar hoe kan het ook werken ... we leren van publiek/opensource code (lees github etc). Daar staat ook gewoon veel rommel op. Daar gaan we dus nu meer rommel bijgooien en dan gaan we daar terug van leren. 2 jaar geleden dacht ik, dit kan wel wat worden, vorig jaar vond ik persoonlijk dat de kwaliteit gedaald was. En dit is er afgelopen test niet beter op geworden, op een paar vlakken zag het er beter uit deze keer, maar op een paar andere was het weer slechter. Dat het kan helpen: zeker maar niet als je echt wat kan programmeren. Ik werk er allesinds helemaal niet sneller door en ken genoeg mensen (ex collega's) die net hetzelfde denken/zeggen als mij.
Wanneer heb je het dan zo gedaan in VS code? En of je VS code of Cursor of een Jetbrains IDE gebruikt zou niet veel verschil moeten maken.

Ik werk persoonlijk aan een project met zo'n 20000 regels code nu, volledig gemaakt met ChatGPT, Gemini en Claude (want ik kan niet coderen) en over het algemeen werkt het prima, en er zit sommige behoorlijke complexe logica in. Ik heb wel geleerd over de laatste 3 maanden dat ik hiermee bezig ben geweest, dat ik zo duidelijk mogelijk moet zijn tegen de A.I. zodat het precies begrijpt wat ik bedoel en waar ik rekening mee moet houden. En het gaat zeker niet allemaal gelijk perfect. Vandaag was ik nog urenlang bezig met een paar problemen die verband houden met hetzelfde probleem, maar dan zeg ik iets in de trant van "voeg een geavanceerde log toe, die wordt opgeslagen na het uitvoeren van een bepaalde functie, die alles opslaat dat relevant is met betrekking tot het probleem dat wij nu hebben zodat wij daar het probleem uit kunnen halen". Dan upload ik dat bestand aan de A.I. en die kan daar tot nu toe altijd de oplossing in vinden.

Met de code die ik nu heb was het waarschijnlijk 10 specialisten die kunnen coderen het niet gelukt om dit in 2-3 maanden te schrijven zoals ik heb heb kunnen doen met A.I. en dat is inclusief regelmatig een deep research request via Gemini, die brilliant goed is.
20.000 lijnen ? ik heb modules die groter zijn. Maar hoe kan je nog specifieker zijn dan je moet alle ids in file x vervangen door id="x-id" bijvoorbeeld. Neem 20 werkdagen ... dat is 1000 lijnen code per dag, wat soms veel is, soms weinig hangt ervan af waar je aan werk, maar van die 1000 lijnen code zijn er most likely 95% "triviaal" en gewoon een loopje hier wat info ophalen ophalen en wegschrijven. Ik weet dat ik ooit eens voor een programma een hele nieuwe module geschreven heb op 3 weken tijd en dat was meer dan het dubbel. Ik programmeer wel al sinds ik +- 10 jaar ben (begonnen met scriptjes) en ben er nu 46, dus ik heb al wat jaartjes op de teller staan. Maar jij zei dus ik kan niet programmeren en als je weet wat je wilt kan je nu dus wel iets maken, zolang het niet te "complex" is. Complex is een zeer ruime definitie. Wat ik misschien complex vind, kan jij aanzien als code voor NASA en omgekeerd. Maar er is een groot verschil tussen een persoonlijk project en code die 24/24 7/7 moet draaien. En al zeker als je dat ergens moet gaan draaien en je de rekening mag betalen. Daar wil je 100% geoptimaliseerde dingen, want dat zal je rekening beïnvloeden en als ik de rekening moet betalen wil ik maximale winst. En met sommige van die keuzes kan AI voor geen meter overweg. Maar die bewering dat 10 mensen dat niet op 3 maand zouden kunnen, dat geloof ik niet, juniors die geen ervaring hebben misschien. Maar een "senior" profiel zou toch een applicatie moeten maken met 20k lijnen code op 3 maand hoor. Uiteraard hangt alles af van wat je moet doen. Een "simpele" CRUD applicatie moet wel bij iedereen lukken. Hardware aansturen/uitlezen is voor velen een brug te ver, iets met 3d ook misschien, of het moet zeer moeilijke materie zijn in een niche veld ofzo, maar dan nog. Ik weet van mezelf dat ik bijvoorbeeld geen programma kan schrijven om bijvoorbeeld "kapotte" data uit te lezen van een schijf. Als ik mij er effectief zou aanzetten zou het mij best wel lukken, zal dit lang duren: yups, maar ik zal er wel in slagen, maar op dit moment heb ik daar te weinig kennis van. Maar er is nog nooit iets geweest dat ik gemaakt hebt, waarvan ik zei ... nee dat zal me niet lukken, waar een wil is, is een weg. Moet ik perse daarvoor de materie kennen ... zeker niet. Als iemand mij zegt, ja dit moet zo, en dat moet zo, dan zal het programma dat ook zo afhandelen. Is het handig dat je iets begrijpt van die materie of van het veld waar je in bezig bent, zeker. Maar is dit 100% echt nodig, nee niet echt. Een student heeft ooit een eindwerk gemaakt voor zijn broer als opdrachtgever. Die broer doet wetenschappelijke expirementen met zeer dure machines en daar heeft hij data verwerking gedaan. Waar ze vroeger 2-3 weken bezig waren heeft hij nu teruggebracht to een uurtje. Snapte die student alles ... bijlange niet, maar net genoeg om te weten wat er moest gebeuren. Resultaten interpreteren zat er ook niet in, maar da tis ook niet nodig. Hij heeft wel de opdracht met glans volbracht

Maar een simpel "complex" formulier in html + javascript werkt nog niet en dan heb ik het over +- 1500 lijnen. En dat was verre van production ready code. En elke stap gedetailleerd beschrijven en alles voorkauwen en dan faalt het nog (althans voor mij met zowel claude, chatgpt etc). Een microservice lukt zelfs met moeite. En ik heb het hier niet over baanbrekende dingen. Maar ik dacht zeg laat ons eens een microservice maken (is een andere test) van eentje die ik al heb, en kijken als het beter kan. Sommige dingen was ik echt van ... leuk dit is "zeer goed" en andere dingen was dan ... ja dit werkt dan voor geen meter. Mits een beetje kennis is het meer een toevoeging die momenteel zeer weinig opbrengst heeft en de kostprijs het niet waard is.
Doe natuurlijk wat voor jou het beste werkt momenteel. Als de technologie in jouw ervaring nog niet volwassen genoeg is om die complexe dingen te doen, geef het dan een jaar, of misschien twee of drie en ik kan je haast garanderen dat het dan al een stuk beter werkt.

Ik heb zelf mijn IDE op "auto-accept changes" staan, maar dat hoef je niet te doen en dan zie je precies de code die de A.I. heeft geschreven en kun je zelf per stuk code zien wat is weggehaald voor wat of wat er is toegevoegd en per stuk code kun je dan goedkeuring geven.

Het helpt trouwens ook om in de instructies bij de settings van de A.I. die je gebruikt te schrijven wat het doel van je script is, hoe je structuur in elkaar zit en waar absoluut niet aan gerommeld mag worden etc. Dan houdt het zich daaraan en verminder je het aantal problemen ook significant. Ik heb dat ook pas na een maand of 2 gedaan maar het werkt wel beter nu.

[Reactie gewijzigd door Dynamix86 op 13 februari 2026 17:44]

het is meer dat als ze nu geld zouden vragen, dat claude of google het wel nog gratis blijft aanbieden (tegen verlies), dus dan gaat openAI failliet en daarna kunnen claude en google gewoon de gratis tier weer eindigen. Daarom werkt verlies leiden niet als optie in een markt met best veel competitie.
Het zou ook gekoppeld kunnen worden aan andere diensten. Bv dat je "gratis" ChatGPT toegang krijgt als je een vaste internet aansluiting van KPN hebt.


Elke opdracht die je aan ChatGPT geeft, verbruikt een significante hoeveelheid energie. Dat kost geld, dus iemand moet dat betalen. Misschien is het ook wel goed als gebruikers meer inzicht in de kosten krijgen, zodat ze ook wat langer (zelf!) nadenken voordat ze iets aan ChatGPT vragen.
Is ook een lager abonnement van 8 euro. Denk dat dat voor veel mensen genoeg bied
Indeed, mn vriendin heeft dat abonnement, en kletst nu meer met Chatgpt dan met mij..
Tja, als die gratis gebruikers alleen maar tot verlies leiden maakt dat niet zoveel uit. Codex is inmiddels zo nuttig dat die €20 een koopje is.
Ding is ook dat je geen 20 of meer per maand hoeft te betalen. Ik gebruik al lang gewoon APIs, vooral van open weight modellen en spendeer zelden meer dan 3 USD per maand.

Sam heeft lang geprobeerd om politiek te manipuleren zodat ze een monopolie konden bouwen, maar de realiteit is dat er veel meer aanbieders zijn en die gratis modellen aanbieden zoals (bijna?) alle Chinese providers. Dus is hem gelukkig zwaar mislukt.

Het mag van mij ook wel dat openai ten onder gaat. Ze zijn opgebouwd uit misbruik en leugens en is eentje minder die de AI bubbel volhoudt
Maar geldt dat niet voor heel veel op internet? Als bijvoorbeeld tweakers niet meer gratis is, en betaald wordt uit reclameinkomsten is het ook over en uit.
Denk je dat er veel van die vraag overblijft als ze naar een model gaan die kostendragend is? OpenAI heeft al aangegeven dat de abonnementen van €200 niet winstgevend zijn. De vraag vanuit gebruikers gaat niet aansluiten met de kosten (die nu nodig zijn) voor de eigenaren. Ik zie niet hoe generatieve AI in de huidige vorm ooit winstgevend gaat zijn terwijl er biljoenen worden rondgepompt, een bubbel dus.
Het is wedden op een aantal paarden tegelijk. De modellen worden steeds beter. Er komen steeds meer toepassingen voor. De modellen worden steeds efficiënter. De hardware om ze te draaien wordt steeds sneller en efficienter.

We zitten nu nog in de investeren in de toekomst fase. Dus niet gek dat er geld achteraan gegooid wordt, daar is ook geen investeerder verbaasd over. Over een paar jaar zit je op het punt dat je wel winstgevend bent, maar dan wil je al wel de kritieke massa aan jouw product hebben gebonden.

Of OpenAI de winnaar van dit alles zal worden, geen idee. De historie leert dat de doorbraken bij de kleinere partijen vandaan komen, maar de markt uiteindelijk naar een paar partijen gaat die de middelen hebben om én het menselijk talent, én de investeerders, én de hardware binden.

Langere termijn denk ik dat het met name bedrijven zijn die AI inzetten welke de cashcow worden. Niet zozeer de particulier die een zoekopdrachtje doet of een briefje schrijft. Net zoals ik als particulier geen SAP gebruik.

[Reactie gewijzigd door barbarbar op 12 februari 2026 11:59]

Ik zie niet hoe generatieve AI in de huidige vorm ooit winstgevend gaat zijn terwijl er biljoenen worden rondgepompt, een bubbel dus.
Echter zou je toch denken (of hopen) dat er een moment komt dat er veel minder kracht nodig is voor AI en dat daarmee ook de kosten zullen dalen, en dat het veel meer mainstream word

Als ze nu bijvoorbeeld de gratis versie weg doen, vraag ik me af met hoeveel de kosten zullen zakken. Want dan zullen er opeens een berg minder prompts worden gegeven.
Ja er is veel vraag...

Van investeerders. Die horen het woordje "AI" en gaan helemaal gek.

Ook sunk cost fallacy. Bijvoorbeeld Microsoft die miljarden in OpenAI blijft investeren omdat ze er uiteindelijk iets van verwachten.

Zodra de grote investeringen stoppen dan klapt het allemaal. De consument betaalt gewoon niet genoeg en gaat ook niet honderden euros per maand betalen voor ChatGPT. Zodra de goedkopere en gratis plannen verdwijnen verdwijnt ook OpenAI/ChatGPT. Dan klapt het.
De abo’s van meer dan honderd euro zijn niet voor “gewone” gebruikers maar voor professioneel gebruik, en die kopen dat echt wel. 200 euro per maand voor een veel hoger productiviteit is dat makkelijk waard voor bijvoorbeeld een software engineer. Als bedrijf met veel werknemers is er ook nog wel een dealtje te maken. Reken maar na: je bent zo meer dan een ton kwijt per jaar aan een werknemer, en dan is 2400 euro een probleem? Haal je er zo uit.

Ikzelf gebruik gewoon een normaal abonnement van 20 euro om een beetje te coden en dat is heel handig en bovendien leerzaam als je het goed instelt. Spotify kost ongeveer evenveel en dat is ook prima voor iets dat je regelmatig gebruikt.

Overigens is het daarmee hetzelfde verlopen. Eerst vele miljarden aan verliezen en veel mensen die er allemaal niet in geloven want het zou niet houdbaar zijn. Maar al dit soort diensten lijden eerst zware verliezen. Inmiddels hebben ze 750 miljoen gebruikers en maken ze winst op een enorme user base. Zelfde verhaal met Netflix.

Veel mensen blijven toch vasthouden aan angsten van de dotcom bubbel. Ja, er werd veel geld gestoken in diensten die nooit winstgevend konden worden, maar kijk naar de wereld van vandaag en de hele wereld draait op het internet. Er waren verliezers, maar met de tijd hebben de winnaars dat ruimschoots goedgemaakt.

OpenAI en Anthropic zijn geen Pets.com. De grote investeringen gaan niet stoppen, we gaan niet weer terug naar “googlen,” zelfs Google zelf beseft dat maar al te goed. Ja, er zijn ook veel nutteloze bedrijven die overal een AI label opplakken, dat is niet houdbaar en heeft geen toegevoegde waarde. Maar ook nu zullen er grote winnaars zijn die dat met de tijd ruimschoots gaan compenseren.
Spotify kost ongeveer evenveel en dat is ook prima voor iets dat je regelmatig gebruikt.

Overigens is het daarmee hetzelfde verlopen. Eerst vele miljarden aan verliezen en veel mensen die er allemaal niet in geloven want het zou niet houdbaar zijn. Maar al dit soort diensten lijden eerst zware verliezen. Inmiddels hebben ze 750 miljoen gebruikers en maken ze winst op een enorme user base. Zelfde verhaal met Netflix.
Behalve dat dit soort bedrijven met deels eigen media-bibliotheken concurrenten buiten de deur kunnen houden (of ze willen overnemen, hetgeen door met name de in de VS vaak lakse anti-monopolie toezichthoudende instanties te vaak wordt toegestaan, waardoor nog grotere monopolies ontstaan). LLM makers kunnen geen auteursrecht op algemene kennis of programmeertalen claimen, dus is het makkelijker een concurrerende service in de markt te zetten (is het niet vanuit de VS/Europa dan wel uit China). Als aanbieder A te duur wordt (volgens de bekende Netflix/Spotify route van prijsverhogingen van een veelvoud van het prijsindexcijfer) switchen we na verloop van tijd naar aanbieder X, Y, of Z. OpenAI heeft hierdoor geen schijn van kans, Anthropic misschien wel als die de Microsoft-strategie (Windows, Office) volgt. Maar dan heb je dus weer een monopolist.

[Reactie gewijzigd door aiDisCus op 12 februari 2026 15:47]

Dat 200 USD per maand een koopje is voor zakelijke doeleinden, dat ben ik wel met je eens. Maar Altman heeft met zijn eigen woorden allang aangegeven dat zelfs die abonnementen de onkosten niet dekken die OpenAI moet maken voor zo'n gebruiker. Dus de 20 USSD/per maand abonnementen zijn helemal niet kostendekkend.

Dat is wat OpenAI/Altman word verweten door de vroege investeerders. OpenAI zit vast in dure deals, en hebben weinig inbezittingen, waardoor alles praktisch gehuurd dient te worden. En omdat zij dit zo doen moeten zij hogere rente betalen op alles wat ze uit hebben staan.

In verelijking, Anthropic pakte dat ietwat beter aan. En geniet daardoor (veel) meer vertrouwen van investeerders. Google heeft behoorlijk goed werkende AI produkten, beitten ook hun eigen chip-ontwerpen en hardware, bezitten ook datacenters in hyperscaler-formaat over de hele wereld, bezitten ook verbindingslijnen tussen deze datacenters en hebben neveninkomsten. Dit alles maakt Google een (zeer) sterke speler in deze markt.

Microsoft heeft vorige week echter een waarschuwingsschot voor de boeg gekregen. Hun positie bij investeringsbank Stifel is naar beneden bijgesteld. Deze bank opereert al ruim 100 jaar als investeringsbank in zowel de VS en de EU en zij zijn steeds minder zeker dat Microsoft hun investeringen in AI en Azure ooit terug gaan verdienen. En als er 1 schaap over de dam is...

Waarom denk je dat Microsoft ineens berichten eruit perst over hoe ze weer gaan luisteren naar wat klanten willen van Windows?
De bubbel is het zoeken naar AI toepassingen die eigenlijk of niet kunnen, of niet gaan aanslaan. Er wordt nu veel meer geld in gestopt dan er ooit mee verdiend kan worden. Hence, de bubbel.
Er wordt nu veel meer geld in gestopt dan er ooit mee verdiend kan worden. Hence, de bubbel.
Dit is natuurlijk met elke grote technologie zo dat het lijkt dat het niet terugverdiend kan worden als de verliezen groter zijn dan de omzetten; maar precies deze mindset "het kan nooit terugverdiend worden" is de reden waarom we in Europa afhankelijk zijn van allerlei quasi-monopolies als techgiganten uit de VS. Amazon, Meta en anderen hebben jaren zo niet decennia geaccepteerd dat als je maar genoeg groeit jaar-op-jaar, het verlies dat je maakt voor lief genomen wordt. De interesse voor investeerders is dan hoog genoeg, en de schaalvoordelen worden zo ontzettend groot dat je de verliezen in een veelvoud terugverdient.

Ik vind het frappant dat elk AI artikel op tweakers, altijd wel posts hebben die enkel dit doen; benoemen dat er wel een bubbel moet zijn, op basis van subjectieve aannames van terugverdienmogelijkheden, maar verder niks inhoudelijks constructiefs melden. Wij tweakers, die toch meerdere golven actief heeft meegemaakt (internet, smartphone), waarbij de hele wereld sceptisch was, zouden, hoopte ik, beter moeten weten.

In plaats van te benoemen "het is een bubbel en die gaat knappen want absurde investeringen" kunnen we beter parallellen zoeken. Eigenlijk is de beste analogie mijns inziens medicijnonderzoek. Absurde bedragen, en soms komt het medicijn er niet eens, maar af en toe is het jackpot. Zo ook met AI; hoge bedragen, maar capex ten behoeve van AI is nu ook echt in onderzoeksstadium en sommige toepassingen van AI zullen niet interessant blijken. Maar dat er fundamenteel een heel scala aan mogelijkheden bijgekomen is (bv geautomatiseerd medicijnonderzoek, eiwitten vouwen dat soort dingen), maakt dat er voldoende is wat wel zou kunnen. En net als met internet na de dotcom bubbel, heb je daarna decennia om je imperium uit te bouwen en te monetizen.

[Reactie gewijzigd door A Lurker op 12 februari 2026 12:05]

Het is ook geen gekke trend. Maar wel een reeele en verklaarbare. Jij refereert naar Tech, maar het geldt eigenlijk wel voor elke opkomend markt. PAs recentelijk is de e-commerce markt verzadigd in Nederland. Veel partijen hebben hier substantieel in geinvesteerd om marktaandeel te verwerven. Dat is nu uitgespeeld. De groei is er een beetje uit. De grote partijen hebben hun aandeel verworven en we hebben afscheid genomen van een hoop kleintjes.


Het grote verschil met Tech en wat dus de "bubbel" creeert ,is de enorme bedragen R&D die er nodig is om te onderzoeken en te innoveren. Die ga je niet terugverdienen, maar kan je wel marktaandeel opleveren op de lange termijn.

Ik denk dat jij een te negatieve lading geeft aan het woord bubbel. Er is niks mis met een bubbel. Die is noodzakelijk om in een vaccuum lekker te innoveren. Maar we moeten ons wel realiseren dat niet alles wat je tegen die muur aan gooit blijft plakken.

[Reactie gewijzigd door DeBers op 12 februari 2026 18:03]

Precies. Investeringen en omzet lopen nog ver uit elkaar. Maar de vraag is al enorm voor een dienst die pas zo kort bestaat. En zodra AI een wezenlijk onderdeel wordt van automatisering, dan explodeert die vraag. En reken maar dat bedrijven ervoor willen betalen als dat personeelskosten bespaart. Dit is allerminst een bubbel.
Ik verwacht dat een groot deel van de inkomsten uit bedrijven moet gaan komen.

Als een AI agent er voor zorgt dat een persoon op kantoor 10% productiever is dan is het geen probleem voor een bedrijf om hier een paar honderd euro per maand voor neer te tellen.

Privé zou ik al bijvoorbeeld 20 euro per maand al veel vinden om voor AI uit te geven terwijl ik voor mijn werk Claude Code gebruik, en daar wordt de 200 euro per maand echt als een no-brainer word gezien.
Ja helemaal mee eens. Het is geen populaire visie, maar een bedrijf wordt echt niet zo blij van werknemers. Veel liever robots. Die hoeven geen vakantie, zijn niet ziek en wisselen niet zomaar van baan.
Er is gewoon belachelijk veel vraag
Dat valt dus vies tegen, er is lang niet zo veel vraag naar AI als dat er aanbod is. Vandaar dat ze het ook in praktisch alles proberen te stoppen, men mot het lang niet zo graag als dat de aanbieders gehoopt hadden.

Ook qua bekendheid gewonnen? In mijn professie zie ik juist meer Claude en wordt ChatGPT compleet genegeerd. Ook, anekdotisch, maar ik heb totaal niet het idee dat ChatGPT veel gebruikt wordt. Ja, door gratis gebruikers ja, mensen die er niet te veel moeite in willen steken en dus bij eerste bot terecht komen die ze vinden. Maar iedereen die ik AI wat professioneler zie gebruiken, die wat meer rondkijken, raken eigenlijk ChatGPT amper aan, of switchen net zo makkelijk naar een ander model. Geen loyaliteit dus.

Hoe dan ook, het levert met lange na niet de miljarden op die erin gestoken worden. Reclames zullen ook geen zoden aan de dijk zetten. Als de bubbel klapt, dan is OpenAI de eerste die eraan gaat, ik denk dat de rest, Gemini, Claude, het prima zullen overleven. Maar ook die zullen betere verdienmodellen moeten gaan verzinnen dat ze nu hebben.
Google heeft nog een pak andere dingen lopen, en die kunnen wel een tak veroorloven dat voor langere tijd mindere prestaties heeft. En die gaan Gemini echt niet opgeven. Maar als er geen profijt uit te halen valt, kan het zijn dat ze het intern wel blijven gebruiken bijvoorbeeld, en wie weet komt het ooit op het befaamde "killed by ..." lijstje te staan. Maar er zal toch ergens inkomsten moeten zijn. Maar Google kan gerust een long game spelen. Iemand die alleen AI doet kan het geen 20 jaar rekken met investeringen, daar zal ooit eens winst moeten gemaakt worden
Precies soortvan mijn punt. OpenAI is een one trick pony, als dat klapt bljft er weinig over voor ze. Maar een google? In het ergste geval belandt het idd op de “killed by google” lijst, maar ze kunnen het zeker een stuk langer voortzetten dan openai dat kan, zelfs met een bubbelpop.

Dus als de bubbel popt, dan is openai en chatgpt die er als eerste aan zullen gaan. Meeste anderen hebben niet zo all hun “eggs in one basket” zitten, die overleven de bubbelpop vast wel.
Grappig dat je Picnic noemt. In mijn omgeving zie ik juist dat men weer van het laten bezorgen af stapt. Niet omdat het niet handig is, maar om de kwaliteit achter blijft (spullen op de datum, terwijl je ze pas over drie dagen nodig hebt, alternatieven leveren waar je niet tegen kan en dus juist dat ene merk van wil hebben)

ook bij Amazon zijn de echt goede aanbiedingen ver te zoeken. Bij de aankoop van een camera was de lokale fotoboer maar een 10tje duurder dan Amazon, maar veel betere service. Die keuze is makkelijk

bij abbo’s op coding modellen zie je ook iedereen naarstig op zoek naar gratis varianten
Nou, volgens mij is het zo dat al die AI-bedrijven vooral proberen “belachelijk veel vraag” te creëeren en is het hen er vooral aan gelegen het beeld levend te houden dat we niet zonder AI kunnen. Na de circle jerks van afgelopen jaren ohgv van investeringen in elkaar (OpenAI, Amazon, Nvidia) kan het ook niet lang goed blijven gaan.
De vraag is er alleen als men het ook betalen kan. Het probleem is dat veel AI bedrijven hun diensten onder de kostprijs aanbieden om een first mover advantage te krijgen qua marktaandeel. Nu het steeds meer duidelijk wordt dat als men de ware kosten gaat rekenen die markt er waarschijnlijk niet gaat zijn - De prijselasticiteit is er niet - Is het waarschijnlijk dat veel AI bedrijven vroeger of later sterk moeten gaan downsizen of ten onder zullen gaan.
Er is gemaakte vraag naar. Door het overal in te stoppen en iedereen wijs te maken dat het een soort wondermiddel is, gebruiken mensen het. Maar er zijn al duidelijke barsten in dat mooie plaatje. De tekortkomingen en nadelen worden steeds duidelijker. Als ze straks willen cashen, zullen ze heel veel mensen zo gek moeten krijgen te gaan betalen voor het gebruik. En dat zie ik niet gebeuren.

Het probleem is dat ze er al te veel geld in hebben gestopt om zich meer te richten op daadwerkelijk praktische toepassingen, zoals medische ondersteuning en herkenning van aandoeningen op basis van goed geselecteerde input.
Achteraf weet je pas of iets een bubbel is of niet. Niemand kan met 100% zekerheid zeggen dat AI een bubbel is die gaat knappen, er zijn natuurlijk wel allerlei voortekenen.


Zolang als men er geld in blijft pompen zal het niet knappen maar zo gauw als investeerders zich terugtrekken heb je een probleem. En wat veel mensen vergeten is dat wanneer een bubbel knapt het niet automatisch betekend dat het onderwerp waar het om gaat ophoud te bestaan. "AI" zal altijd blijven of mensen dat nou leuk vinden of niet.
Dotcom bubbel moest ook klappen, niet omdat het internet een non functional uitvinding zonder toekomst was, maar omdat alle waarde zat in toekomstig perspectief die niet in zulke korte tijd waargemaakt kon worden.
Er is veel vraag of prof gebruik in sommige sectoren. Maar jan met de pet gaat er geen cent voor betalen. Als het vervuild word met reclame, gaat dat mogelijk ook nog problemen opleveren.


Het is misschien geen traditionele bubbel, maar of ze dit tempo van verlies en groei etc kunnen stand doen houden is toch echt een vraag. Of ze ooit break-even gaan spelen is maar de vraag, want er is altijd wel een beter hongeriger model om te trainen. Of mensen zien juist geen vooruitgang meer en stoppen het gebruik vanwege halicunatie of iets dergelijks.
Welke sectoren ? Programmeren is een ramp en is verre van production ready code, het kan een junior misschien helpen, maar een senior vervangen, niet echt nee. Vertalingen ... nog altijd een ramp, zeker als het wat technischer is ... Als het West-Vlaams kan vertalen mag je mij nog eens bellen :). Een tekst samenvatten ? Dat kan ik ook, alleen trager. Patronen herkennen en objecten herkennen in foto's etc, werkt het al een pak beter. Maar ik kom in nogal veel bedrijven in verschillende sectoren... en daar is toch maar zeer matig hoor als het over AI gaat.


Wat wel "leuk" is dat als je iets gaat googlen, je nu een samenvatting krijgt (al dan niet correct), en daar spaar je wel tijd mee uit (meestal toch) ipv op verschillende links te moeten klikken en dan nog te lezen. Daar zit wel tijdswinst in, voor iedereen. Maar ik heb dit toch ook al betrapt op verkeerde informatie
Programmeren is een ramp
Dan gebruik je zeker alleen oude gratis modellen. Het is niet altijd production ready. Maar de hoeveelheid output die ik kan maken die goed is, is schrikbarend veel hoger. Voer zo een AI een RFC protocol specificatie en vijf minuten later heb je een SMTP of Exchange server of SCIM of iets anders. En alhoewel zelden foutloos. Kan niemand het beter in die tijd. Beetje debuggen en klaar. De tests kan je ook laten uitschrijven de docu komt met mermaid diagrammen. Al dat spul kost mij anders tijd om zelf te maken.
Dat kan ik ook, alleen trager.
Heb je enige idee van "tijd is geld". Trager is cruciaal. Ik kan mijn output als senior developer verzoveelvoudigen, zonder kwaliteit verlies zonder junior te hoeven aannemen en begeleiden. Heb je enig idee van de economische voordelen? Bedrijven zoeken nu al seniors met AI talent. Die produceren gewoon meer in kortere tijd.

AI is meer dan LLM. ICT, ziekenhuizen (interpretatie MRI en rontgenfoto en huidvlekjes.... Allerlei interpretatie van rapportage.. Het neemt echt nog niet alles over, maar het gebruik word op sommige plekken steeds hoger. Ook in de wetenschap, de AI kan veel meer antwoorden vinden in de miljoenen papers die er zijn. Er gebeuren nu al vaak dingen als dat een wetenschapper vast zit op een probleem en een AI een obscure paper vind waar het antwoord toevallig al inzit, zelfs als het een totaal ander onderwerp verder is.


De google samenvattingen zijn overigens de slechtste die ik in dat landschap ben tegengekomen.


De LLM's zijn zeker niet perfect, maar dat zijn mensen ook niet. Als je weet hoe je de betaalde hoge kwaliteit modellen goed inzet kan je een heleboel nuttigs doen. Veel mensen hebben gewoon de verkeerde verwachtingen of weten niet hoe ze het goed moeten gebruiken. Slechte input is slechte output.
Als ik moet gaan betalen dan zijn ze mij als gebruiker kwijt. En met mij vele miljoenen. Onze data is geld waard want daar leert ChatGPT ook van. Ik corrigeer de AI regelmatig wanneer deze foute antwoorden geeft. ;)
Maar kijk ook naar bijvoorbeeld Netflix. Die hadden een ruimte voorsprong met streamen van video en maakte ook veel aanloopverliezen. Inmiddels zijn er veel grote spelers ingestapt en staat hun marktaandeel toch onder druk.
Daarnaast hebben Microsoft en Google bijvoorbeeld al een grote gebruikerskring waar zij hun specifieke AI tools aan kunnen slijten (al dan niet opgedrongen) waardoor deze groep mogelijk chat-GPT gaat achterlaten omdat andere producten beter geïntegreerd zijn in het besturingssysteem of software.
In het begin was ik -uiteraard- groot fan van ChatGPT. En nog steeds wel. Maar ik ben niet gebónden aan ChatGPT. Ondertussen ook Gemini, Copilot, Perplexity (icm Vodafone een jaar lang gratis Pro!), Le Chat, en zo zijn er nog wel een aantal die goed zijn in wat ze doen.
De gemaakte investeringen vragen om (toekomstige) opbrengsten. Die zijn er nu niet en een verdienmodel is er ook nog niet. Betalende bedrijven zijn niet genoeg voor AI die overal naar niet betalende consumenten is uitgerold. Open AI heeft dan verder nog het probleem dat zij ook geen andere opbrengsten hebben. Ik denk niet dat het allemaal klapt maar wel dat er een grote bijstelling komt.


De investeringen zijn gigantisch en het gaat om zaken die snel afschrijven, hardware in datacenters. Dat terugverdienen plus winst voor aandeelhouders is niet realistisch op de huidige omvang.
Een bedrijf als Anthropic doet het naar mijn inziens toch beter. Ze verwachten dat ze in 2028 winst zullen gaan draaien. Afgelopen jaar hadden ze $3 miljard meer uitgegeven dan dat ze binnen hadden gekregen, en het jaar daarvoor was het nog $5.6 miljard. Als je dat gaat vergelijken met bijvoorbeeld OpenAI, die in 2029 een verwachting heeft dat ze $115 miljard aan schulden hebben, dan weet je al genoeg. OpenAI is een bubbel, en het zal ook andere bedrijven met zich meenemen.
Er is juist geen vraag maar een overvloed van aanbod. Daarom gaat het klappen.

We zijn allemaal nog op zoek naar wat we werkelijk gaan doen met AI en hoe de consument dat moet betalen.

Het is leuk voor een enkele Dev om plaatjes, video, code en chatbots te maken maar dat gaat de reguliere consument nooit gebruiken.
Alleen neem je de kosten niet mee in je overweging. Er is heel veel vraag naar een magisch product dat veel werk uit handen neemt, zonder kosten, of met hele lage kosten. Als je zakelijk AI inzet kom je al snel tot het besef dat de kosten van al die tokens heel snel, heel erg uit de klauwen loopt. En dat terwijl ze het nog praktisch voor niets weggeven. Als je de werkelijke kosten voorgeschoteld krijgt is het verre van lucratief om het veelvuldig in te zetten. Met een enkele AI agent kun je per maand al tienduizenden euro's aan tokens er doorheen jagen. Iedereen denkt maar dat die AI's gratis, dan wel voor een paar euro per maand rendabel zijn. Dat is nu juist absoluut niet het geval.
https://www.rtl.nl/nieuws/economie/artikel/5515499/picnic-maakte-negen-jaar-een-verlies-van-bijna-1-miljard-euro

Op een dag wil iemand meer investeren en dan gaat de boel failliet. Je kan maar beperkt verlies blijven maken om te groeien, ergens moet je winst gaan maken. De wijze les van de Internet bubbel aan het einde van de vorige eeuw.
Een gratis plan is vaak wel belangrijk om te hebben. Dit trekt nieuwe gebruikers, die ChatGPT uit kunnen proberen zonder direct de portemonnee te moeten trekken. Ook mensen die maar zo nu en dan gebruik maken van de dienst kan men daarmee bedienen. Het is over het algemeen wel belangrijk dat de gratis dienst niet al te veel verlies maakt. Daarom zijn inkomsten uit advertenties gewoon noodzakelijk. ChatGPT probeert momenteel ook behulpzaam te zijn bij diverse aankopen en daar een graantje van mee te pikken.

Het lastigste is vaak om te bepalen wat en hoeveel je gratis aan gaat bieden en wanneer je geld gaat vragen. Daarbij moet je ook naar de concurrentie kijken, want als die goedkoper (of gratis) zijn, dan verlies je heel gemakkelijk klanten en daarmee nog meer inkomsten.
Er is gewoon belachelijk veel vraag en iedereen probeert de klanten aan zich te binden. Wie de diepste portemonnee heeft zal winnen.
Belachelijk veel vraag, bij de huidige prijzen.

Het voelt heel herkenbaar van de dot.com bubbel. Ook daar werd er met geld gesmeten en wilden providers alleen maar 'market share'. Dat zouden ze dan terug gaan verdienen met hun portal, hahaha.

AI biedt waarde, maar biedt het voldoende waarde en ook, biedt het voldoende waarde bij winstgevende prijzen?

Ook is er nog steeds het "DeepSeek" effect. Investeren in ontwikkeling kost bakken met geld. Vervolgens als het er eenmaal is, dan lijkt het vrij makkelijk te rippen... Dat betekent dat je als 'volger' wel de lusten, maar niet de lasten hebt...
Misschien kan OpenAI die geheugenchips verkopen die ze ongebruikt op de plank hebben liggen enkel en alleen zodat ze niet naar de concurrentie gaan? Goede investering met alle prijsstijgingen.
Dat is dus het grappige. Er liggen niet echt ongebruikte chips op een plank ergens.
De chips zijn nog niet gemaakt maar al gereserveerd met contracten bij de fabrikanten. Daardoor is er zeer weinig marketshare over voor consumentenproductie. Het contract heeft ook als doel om bijna 2x de huidige globale productie te bereiken in een paar jaar. Puur en alleen voor AI-datacenters.

De hoeveelheid chips die ongebruikt op de plank liggen zijn zelfs het afgelopen jaar af aan het nemen.

Linkje naar het artikel van Reuters:
https://www.reuters.com/world/china/ai-frenzy-is-driving-new-global-supply-chain-crisis-2025-12-03/
Maar dit gaat dus niet alleen om geheugenchips maar ook om bare wafers. Wat moet OpenAI met bare wafers?
Precies hetzelfde als wat @Tandurin al uitlegde: OpenAI heeft ook daarvoor al productiecapaciteit gereserveerd bij de fabrikanten. Uit die wafers kun je immers de geheugenchips maken die in de servers in de datacentra gebruikt gaan worden.

Wanneer de fabrikanten hebben toegezegd om bijna exclusief voor OpenAI te produceren, moet de concurrentie veel meer betalen om aanspraak te maken op de resterende capaciteit.
Zoals ik het overal las gaan Hynix en Samsung naast geheugen dus echt bare wafers leveren. Dat is hetzelfde als dat je Shell vraagt je ruwe olie te leveren omdat je verwacht veel benzine te gaan verbruiken.

Maar goed het zal dus wel inderdaad productiecapaciteit uitgedrukt in wafers zijn. Maar niet raar, ook gezien de reacties hier, dat dit tot verwarring leidt.
Een pure gok

Een wafer zal leiden tot een aantal chips. Deze chips kunnen onherstelbare defects hebben (voor de vuilbak), deze kunnen uitschakelbare defects hebben (low tier chips), deze kunnen werken, maar enkel op lagere frequentie (mid tier) en deze kunnen sillicon lottery geweldig zijn (top tier).

Als OpenAI zegt "ik wil x aantal top tier", dan weet de fabrikant niet hoeveel wafers hij gaat moeten maken, noch of hij afnemers zal hebben voor de andere chips.

Als OpenAI zegt "ik wil dat je x aantal wafers doet, ik koop alles, maar aan een prijs van low tot mid tier per chip", dan neemt OpenAI een risico in aantal onherstelbare defects vs top tier, maar heeft de maker een zekerheid in afname en prijs.
Ik vraag me wel af wat er met die afspraken gaat gebeuren als het vertrouwen in OpenAI verdwijnt. Er zijn miljarden in gepompt waarbij de verwachting is dat het zich terug gaat verdienen, maar zoals in dit artikel wordt aangegeven lukt het ze maar moeilijk om inkomsten (anders dan investeringen) te genereren.

Als ze vooruit hebben betaald dan zit het voor Hynix/Micron &co wel goed, maar als dat niet het geval is en OpenAI gaat op z'n plaat dan zitten ze straks met een flinke lading onbetaald geheugen
De geheugenfabrikanten zijn ook niet gek natuurlijk: bij zo'n deal horen harde bankgaranties.

OpenAI heeft ook gewoon het geld.
De investeerders in OpenAI hebben het geld. En was het niet NVidia die 100 miljard in OpenAi wil investeren zodat OpenAI daarmee NVidia hardware kan kopen/huren?

NVidia is wel een partner waarmee chip-fabrieken in zee willen gaan. NVidia kan dat bedrag ook daadwerkelijk ophoesten, mocht dat noodzakelijk zijn. Van OpenAI kan je dat niet zeggen.
Kun je niks mee, zijn echt alleen voor datacenters en ze zijn vooral geoptimaliseerd voor het uitvoeren van één type taak.
Het zijn ruwe wafers dus nog niet toegekend aan een specifiek doel:
No, their deals are unprecedentedly only for raw wafers — uncut, unfinished, and not even allocated to a specific DRAM standard yet. It’s not even clear if they have decided yet on how or when they will finish them into RAM sticks or HBM! Right now it seems like these wafers will just be stockpiled in warehouses – like a kid who hides the toybox because they’re afraid nobody wants to play with them, and thus selfishly feels nobody but them should get the toys!
https://www.mooreslawisde...-altman-s-dirty-dram-deal
Geheugenchips is allemaal Jedec standaard. Veel DDR5 dus, wat je kunt overal kunt gebruiken. HBM is wel specifiek voor servers.
Die liggen niet bij open ai op de plank maar liggen bij de datacenter partners die ze weer gekocht hebben op basis van de commitment van open ai.
Ze hebben ze niet op de plank liggen. Dat is het issue. Ze hebben nog niet bestaand geheugen gekocht voor nog niet bestaande servers voor nog niet bestaande datacentra.
Is dat een ding ja? Bron?
AI vraagt veel meer stroom dat een reguliere zoekopdracht. De advertentiemarkt is ondertussen compleet verzadigd en gaat niet meer inkomsten genereren. En dan was er volgens mij ook nog iets dat de advertenties veel meer zouden moeten gaan kosten.


Einde oefening, cq het begin van de consolidatie.
Er zit nog groei in de opbrengsten van advertenties. Google presenteerde laatst ook weer recordopbrengsten uit advertenties. Daarnaast is het adverteren in AI-tools wel een nieuw kanaal voor websites en bedrijven, dus is er best wel een punt van de advertentiemarkt af te snoepen.
Dat is meer omdat google de markt heeft op het gebied van ads, er is niemand zo machtig als google. De inkomsten per ad dalen dacht ik juist al jaren. Daarom zie je ook her en der steeds meer ads.

Ze compenseren de waarde daling per ad door een groter volume aan ads.
Dus is er nog geen verzadiging, want de maximale opbrengsten met advertenties zijn nog niet bereikt. En daarmee zou OpenAI mogelijk dus nog een deel van de markt die over is kunnen pakken en een deel van Googles marktaandeel kunnen pikken.
Ik hoop eigenlijk dat het gewoon allemaal klapt. Dat energieverbruik voor al deze onzin moeten we echt niet willen. Als ze dat niet drastisch naar beneden brengen maken we onze hele planeet kapot voor niks. Er is wel een goede aansporing om het energieverbruik omlaag te krijgen (iedere seconde kost immers geld), maar of de mogelijkheid er ook is, is maar de vraag.
AI als geheel klapt net zo hard als dat het internet ging klappen. Er zal wat instorten maar verdwijnen zal het absoluut niet. Alle legers zitten er al tot hun nek ik, alle content makers van klein tot mega zitten erin, programmeurs leren er dankbaar gebruik van te maken, zelfrijdende taxis en robots - in allerlei verschijningsvormen - zijn in of al uit de proef fase en zullen een deel van ons (productie)werk over kunnen nemen etc. Tis geen geest die terug in de fles gaat. Hoogstens uit de kinderschoenen ;)
Vraag me ook af hoe ze dat gaan doen.
Als ze reclame in antwoorden bakken betekent dit dat de AI niet meer vertrouwbaar is en op zijn minst stevig bias is.
Wie zal dat dan nog gebruiken?
Zit de toekomst dan in on premise AI?
Want iedereen ziet van ver dat die AI prijzen de komende jaren stevig zullen stijgen zodra iedereen er afhankelijk van is.
Zoals met streaming.
Ben benieuwd of de bubbel dit jaar klapt, of volgend jaar..

De vraag is niet of, maar wanneer.
Gezien alle communicatie over hardwareprijzen en wanneer dingen weer beschikbaar zijn is mijn glazen bol voorspelling eind 2027.
Ik denk dat als OpenAI klapt, het gebruik van andere diensten weer toe zal nemen en dus meer inkomsten binnen krijgen, waardoor andere bedrijven weer sterker worden.

Wat ik me wel afvraag is of de totale kosten van het in stand houden van het systeem niet groter zijn dan wat er aan te verdienen valt. Er zijn wel bedrijven die er voor betalen, maar hoeveel consumenten zouden honderden euros per maand aan zoiets uitgeven? Aan advertenties zitten ook grenzen. Als de totale kosten over de gehele industrie genomen hoger liggen dan de potentiële maximale inkomsten gaan ze uiteindelijk allemaal ten onder. Alleen big tech blijft dan over, want die compenseren hun verliezen door inkomsten uit andere sectoren. Dat Google om zou vallen hoef je je (helaas, ben ze liever kwijt) nog geen zorgen om te maken, maar losse aanbieders zoals OpenAI, Anthropic en de Chinezen hebben mogelijk een groot probleem.
Dat wordt gezegd over elke bubbel. Maar ondertussen zijn meerdere bubbels kunstmatig in stand gehouden (of gestopt met groeien) door een hoop geld vanuit overheden er tegen aan te gooien (lees: uw belastingcenten) zodat deze juist niét klappen.

Wat dat betreft zijn er sinds 2008 nog weinig bubbels 'geklapt', waarbij vele bubbels wel werden aangewezen en besproken.
Waarom zou de overheid (welke eigenlijk? die van de VS?) OpenAI gaan sponsoren om te blijven leven? Genoeg andere partijen in de markt.
Daar is een hele goede reden voor, de AI boom is het enige wat de Amerikaanse economie in de zwarte cijfers houd momenteel, als je de 7 AI en AI gerelateerde bedrijven niet meetelt gaat het gewoon slecht qua economie in de VS.
Je mixed alles op een grote hoop. Binnen die 7 bedrijven zijn er een flink aantal die gewoon winst maken, juist zonder de AI.
potato, potahto
Ofwel maakt het AI-bedrijf verlies(bv. OpenAI, Anthropic), ofwel maakt de AI-afdeling verlies(Gemini, CoPilot).
Feit is dat nog niemand winst maakt met AI.
Nee het is niet hetzelfde.

Een bedrijf dat in AI en data center capaciteit investeert vanuit de reeds behaalde winsten (Amazon, Microsoft, Google), is een kerngezond bedrijf. Dat bedrijf komt niet in de problemen wanneer de AI bubbel klapt. Ze schalen nieuwe investeringen gewoon af en blijven gewoon via de Business As Usual winst maken.

Een bedrijf dat investeert in AI en data center capaciteit met gelden die ze ophalen bij investeerders komt wel in acute problemen als de AI bubbel klapt, omdat ze geen winst maken. Zonder nieuwe investeringen krijgen ze problemen met de cash flow.
Als ze allemaal verlies maken zijn die cijfers ook maar een hallucinatie :+
Het gaat daarbij niet om de winst bij die bedrijven, maar om de investeringen die die bedrijven doen. Die investeringen leveren een hoop bedrijven omzet en die omzet laat weer mensen werken.
Investeringen die zichzelf niet terug verdienen noemen we "verlies", en een bedrijf kan niet leven op alleen verlies.
Je hebt uiteraard gelijk.
Maar ik bedoelde dat ze met dat verlies omzet genereren bij ander bedrijven. Dat zorgt voor economische activiteit.

Wanneer het verlies op termijn niet door inkomsten wordt gecompenseerd en de AI bedrijven zelf failliet gaan kan dat op dat moment negatieve economische gevolgen hebben. Maar op dit moment wordt de economie gestimuleerd.

Wat de economische gevolgen zijn wanneer de bubble klapt (of leegloopt) hangt af per inverseerder. Particulieren die zijn gaan speculeren met 'overtollig' spaargeld, raken dat spaargeld kwijt. Particulieren die zijn gaan beleggen voor hun oude dag, zullen op een houtje moeten bijten wanneer ze met pensien gaan, net als degenen die zijn aangesloten bij een pensioenfonds dat flink heeft geïnvesteerd in AI-bedrijven.
Voor een grote investeerder als Microsoft en nVidia heeft het veel minder impact. Ze investeren sowieso voor een groot deel in de waarde van diensten en producten die ze aanbieden aan AI-bedrijven, dus dat geld zijn ze niet kwijt, het heeft ze alleen minder inkomsten gekost, en de zakken van deze bedrijven zijn diep genoeg om niet in de financiële problemen te komen wanneer ze de gemaakte investering op de balans moeten wegstrepen.
Voor de leveranciers van bv. nVidia kan het wel grote gevolgen hebben. nVidia is hofleverancier aan de meeste AI-bedrijven, maar laat de chips door anderen produceren. Wanneer de AI-bubble barst zal het een flink deel van de omzet schelen en zal de beurskoers imploderen, maar als bedrijf zal het overleven. De leveranciers van de nVidia chips (en overige chips voor de AI datacenters) zien plotseling de vraag verdampen, waardoor alle investeringen in de recente uitbreidingen resulteren in stilstaande productiefaciliteiten (of verleisleidende productie van spotgoedkope chips).
Voor ASML kan het vervolgens weer tot minder vraag van chipmachines leiden en anulering van bestellingen. Maar voor de lange termijn kan het juist gunstig zijn. Wanneer de vraag naar chips terugvalt, zullen de fabrikanten eerst hun oudste machines afdanken, om te proberen hun nieuwste (en duurste) machines zo optimaal mogelijk te benutten, ook wanneer dat betekent dat chips op een procedé worden gemaakt die in feite te geavanceerder is dan nodig is voor dat soort chips. Wanneer de vraag op de langere termijn dan weer aantrekt, betekent dat de geavanceerde machines in gebruik zijn om minder geavanceerde chips te maken en dat groei moet komen door nieuwe geavanceerde machines te kopen.
Ja, de VS overheid, waarbij veel tech oligarch-, mijn excuses, 'lobbyisten' best wel veel belangen hebben om de AI industrie in Amerika 'hoog' te houden tegenover China. Als de AI bubbel van Amerika namelijk klapt, heeft Amerika een best wel groot probleem, zowel als concurrentie positie tegenover China, maar ook gewoon hun economische druk van de dollar.
De Amerikaanse overheid bloed al geld aan alle kanten. Ze hebben helemaal niet de resources om bedrijven als OpenAI van de afgrond te redden zonder het zinkende land nog sneller in de afgrond te storten.
Het hele senaat zit daar ook voor hun eigen hachje. Van Democraten tot Republikeinen, het is 1 pot nat dat alleen geeft om eigen beurs.
En de AI aandelen, maar ook positie tegenover andere landen, is daar wel 1 van.
Dus het zal mij niets verbazen als ze ergens een oplossing vandaan fabriceren om OpenAI maar overeind te blijven houden om zo ook die dollar koers maar gedeisd te houden.
Dus het zal mij niets verbazen als ze ergens een oplossing vandaan fabriceren om OpenAI maar overeind te blijven houden om zo ook die dollar koers maar gedeisd te houden.
Bijvoorbeeld door de kiezer te manipuleren: What Oligarchy Looks Like’: AI Giants Pledge to Pump $100 Million Into 2026 Midterms , om te voorkomen dat er wettelijke regels op het gebied van AI worden aangenomen.
Hoch, Denk aan de 70 miljard verlies in de metaverse.
Waar bedrijven miljoenen en miljarden gaven om een lapje virtuele grond die nooit iemand zag.
Of de miljarden die verdampten aan NFT's
Of FTX, Luna,...
Zelfs crypto staat op springen. Ze lijken steeds minder relevant.
Als de AI bubbel hard barst zal dit geschat rond de 500 miljard draaien.
Als je de onrechtstreekse bedrijven mee rekent zoals Tsmc of Nvidia kan dit verdubbelen.
Zet je dus maar schrap.
Tja, AI is leuk maar wie wil er voor betalen? Op internet zijn vele diensten sinds jaar en dag gratis. Betalen voor mensenwerk snappen de meesten nog wel maar betalen voor AI diensten zie ik weinig animo voor. Waar moet je bedrijf dan van leven?
Ik denk dat genoeg mensen ervoor zouden willen betalen, maar niet de bedragen die de tech-bedrijven er voor willen vangen. Ik merk zelf gewoon dat het 9 van de 10 keer beter en veel sneller werkt dan het gebruik van een traditionele zoekmachine. Die tijd die ik anders kwijt zou zijn is me best iets waard, maar geen twintig euro in de maand.
Ik hoor van best veel mensen juist andersom:
"Waarom zou ik nog betalen voor mensenwerk als een AI het voor heel veel minder doet?!"

Rondom dergelijke statements word overigens de kwaliteit van de AI resultaten steevast buiten beschouwing gelaten.
Als men niets zinnigs kan doen met de huidige modellen en tools, dan ligt dat aan het gebrek aan creativiteit van de gebruiker. Geen probleem natuurlijk, maar ik ken betalende gebruikers die er dingen mee doen die geld en/of tijd (tijd is natuurlijk ook geld) opleveren. Wel is er ook heel dom gebruik en daar gaat het nu nog mis en zitten we nog in een lastige fase (de AI-bubbel). Maar stellen dat AI alleen maar leuk met de vraag, 'wie wil hier nu voor betalen' gaat mij ver.
Het scheelt mij wel enorm veel tijd, ik wil er wel wat voor betalen. Voor non-professioneel gebruik vind ik 8 euro ofzo prima. Zaken gaan tig keer sneller als ik AI allerlei handleidingen door laat spitten of voor- en tegenstanders met elkaar laat vergelijken.
Mijn werkgever betaalt er voor
AI...de bubbel die op knappen staat?
Het zal de eerste keer niet zijn dat dit soort berichten de lucht in gaan voor manipulatie. Eerst zien knappen voor ik in dit soort geruchten geloof.
Ik vind die advertentie/commercial van Claude écht geniaal. Deze valt heel slecht bij OpenAI/Altman omdat het duwt waar het écht pijn doet. Dus nu krijgen we bij OpenAI niet enkel hallucinaties, maar ook reclame. Dus het gaat van "zoek de onzin" naar "zoek de onzin en de reclame" (wat ook vaak onzin is). Hoe ga je met zo'n product méér klanten en meer betàlende klanten vinden?
Wat OpenAI nu echt nodig heeft zijn twee dingen. Minder kosten en meer inkomsten. Dus als minder gebruikers hun gratis op reclame gebaseerd model gebruiken is dat een win en als een deel naar betalen wordt gefrustreerd (zoals Spotify bvb ook doet) is dat ook een win. Daarnaast als gebruik instort kunnen ze hier altijd op terugkomen en zeggen: we hebben naar jullie geluisterd.

Naast de kwaliteit van de modellen, die steeds dichter bij elkaar lijken te komen liggen, zal ook wie het langst een gratis model kan leveren dat gebruikers appreciëren bepalen welk bedrijf deze race wint. Maar dat is een dure aangelegenheid. Het zou kunnen dat OpenAI aanloopt tegen de limieten van wat investeerders willen verbranden aan kapitaal.

Finaal kan het kan nog altijd dat er ergens een verrassing opduikt in de vorm van een zeer efficient model (lage kosten) of goede marketing. Implementatie kan ook een factor zijn. Persoonlijk vind ik de Office en Windows integraties zo aangenaam als de zoekbalken en pop-ups die je overal tegenkwam in 2005, maar misschien worden ze door sommige gebruikers wel geapprecieerd en zorgen ze op een dag voor een voorsprong.

Daarnaast vraag ik me ook af wat de impact van wetgeving zal zijn. Deze bedrijven zitten niet alleen met modellen die leugens (hallucinaties) verspreiden en gestolen trainingsdata, maar ook op een berg persoonlijke data van hun gebruikers.

De wetgever zou dit aan banden kunnen leggen en eisen dat LLMs bepaalde kwaliteitstests doorstaan zoals
  • een extra stap die toetst of een een tekst leugens bevat,
  • geen data gedeeld wordt die kan gebruikt worden om wapens, bommen en vergif te maken,
  • niet opgeroepen wordt tot geweld (tegen anderen of de gebruiker tegen zichzelf),
  • geen discriminatie op basis van geloof, huidskleur, ...
  • Zelfs hoe de bot zich presenteert (momenteel als mens met emoties) is eigenlijk een leugen en zou in vraag gesteld kunnen worden door regulering.
Voor personen die het moeilijk hebben (puberteit, emotionele periode doormaken, ...) zijn deze grenzen belangrijk.

[Reactie gewijzigd door NoTechSupport op 12 februari 2026 13:04]

"Ook hebben datacenter-gpu's mogelijk een operationele levensduur van slechts zo'n drie jaar."

Dus over een jaar of twee kunnen we met ons allen voor een habbekrats tweedehands GPU's gaan kopen? (in hoeverre zijn deze uberhaupt geschikt voor gaming - bestaan er wel 'consumenten drivers' voor om het zo maar te zeggen?)
Ja en nee. Er zit geen hdmi op. Voor cloud gaming werkt het wel. Huren dus, niet kopen.
Nee, de GPUs die voor AI worden gebruikt in datacenters...die heeb 13 tot 14 TByte aan VRAM erop zitten. Allemaal HBM (wat niet op consumenten GPUs past. De GPU in het datacenter heeft ook andere controllers nodig . Ja het mag dan wel uit dezelfde "familie" van NVidia-pdukten komen, dat betekent niet dat deze onderling uit te wisselen zijn.

Oh, zo'n datacenter server kost gemakkelijk tussen de 150.000 en 200.000 Euro en kosten dus veel te veel in aanschaf + energie + onderhoud om deze stil te aten staan. Dus staan deze servers 24 uur per dag onder volle load. Deze zijn na 2 of 3 jaar letterlijk opgebrand. Soms al zelfs na 1 jaar.
Je kan het kraken van de zeepbel al horen. Het is een kwestie van tijd voordat de "PLOP" volgt.
AI is zoveel meer dan een Chatgpt die miljarden verlies maakt..
Ja, het is ook Gemini die miljarden verlies maakt, en ook Claude die miljarden verliest maakt. Etc. Geen van deze producten hebben ene positieve cashflow, waarvan ChatGPT de ergste is. Anthropic schijnt het stuk beter te doen dan OpenAI, maar ook bij hun nog jaren weg voordat verwacht dat het geld gaat opleveren in plaats van kosten (en dan nog eens schulden gaan aflossen). Als voor die tijd de bubbel begint te breken omdat OpenAI ten onder gaat, heeft dat invloed op de gehele markt.

Ik denk dat Google en Anthropic het wel een stuk gezonder doen, Gemini en Claude overleven de bubbel wel, maar ChatGPT? hoo boy ... die gaan het zwaar krijgen. Getuige ook dat ze de eerste zijn die dit soort wat wanhoperige stappen aan het nemen zijn.
De bubbel begint te knappen.
;)

Om te kunnen reageren moet je ingelogd zijn