'Advertenties in ChatGPT zijn drie keer duurder dan op platforms van Meta'

OpenAI vraagt naar verluidt 60 dollar per 1000 weergaven voor advertenties in ChatGPT, schrijft The Information. Dat is volgens het medium een stuk meer dan bij veel concurrenten. Zo zouden advertenties op Meta ongeveer 20 dollar per 1000 weergaven kosten.

In tegenstelling tot Meta en Google geeft OpenAI echter geen gedetailleerde informatie over de prestaties van advertenties, meldt Seeking Alpha op basis van The Information. Het bedrijf zal die data mogelijk in de loop der tijd wel introduceren, maar daarvoor moet het eerst geavanceerdere advertentietools in zijn platform integreren.

In eerste instantie geeft OpenAI naar verluidt alleen maar 'algemene' data, bevestigt een woordvoerder van OpenAI. Volgens een advertentie-inkoper die met meerdere adverteerders samenwerkt gaat het onder meer om het totale aantal weergaven van een advertentie en het totale aantal kliks. Het is nog niet duidelijk wanneer OpenAI precies tools wil introduceren die adverteerders gerichter inzicht geven in advertentiedata.

OpenAI kondigde eerder deze maand aan dat ChatGPT advertenties gaat tonen. Deze verschijnen vooralsnog alleen bij gebruikers in de Verenigde Staten met een gratis of Go-abonnement. Ze verschijnen bovendien niet in gesprekken waarin 'gevoelige' onderwerpen worden besproken, zoals (geestelijke) gezondheid en politiek. OpenAI zegt dat het de gegevens van gebruikers, waaronder de gespreksgeschiedenis, niet doorverkoopt aan adverteerders.

ChatGPT. Bron: NurPhoto/Getty Images

Door Imre Himmelbauer

Redacteur

26-01-2026 • 18:27

32

Reacties (32)

Sorteer op:

Weergave:

Lijkt me niet zo raar, ten eerste moeten ze het geld terugverdienen, want een AI response is vele malen duurder dan een search, en ten tweede kunnen ze veel meer gefocuste adds plaatsen, aangezien de AI weet wat er gevraagd wordt en wat het antwoord is.

Ik wil het niet goed praten, Ik haat ads, Maar ergens moet dat geld terugverdient worden. En het internet publiek accepteert niet in grote getalen, dat iets niet 'gratis' is.

Dus met abbonementen ga je er niet komen, als die niet honderden euro's per maand gaan kosten.. (en dan gaat bijna niemand die afsluiten).
Ja joh, chatgpt gaat helemaal niets worden. Het kost financieel ongelooflijk veel geld om in de lucht te houden en levert financieel amper iets op. Wat ze ook bedenken, het zal niet winstgevend worden zolang een antwoord van chatgpt zoveel geld kost om te genereren. De kosten per antwoord zullen echt heel erg veel omlaag moeten willen ze kunnen overleven.
Gemini 2.5 pro kost zo'n 3 wattuur per query. In Nederland betaal je als consument zo'n 25 cent per KWh, dus die 0.003 KWh zou een Nederlandse consument zo'n 0.075 cent kosten, ofwel 13 queries voor één cent. Reken maar dat de grote Amerikaanse bedrijven een fractie betalen voor de stroom aangezien ze het lokaal opwekken, en er dus geen net/leverancier kosten zijn. Als het via kernreactoren gaat, is het sowieso een stuk goedkoper dan hoe we in NL aan onze stroom komen.

Zodra de AI-wedloop een beetje tot rust komt, zal er worden gefocust op efficiëntie, en zal de gratis gebruiker goedkopere modellen krijgen die op dat punt even goed zijn als de huidige dure modellen.
Energie is niet de enige kostenpost. Veel belangrijker nog zijn de financieringskosten voor het bouwen van de data centers en afschrijvingen op de hardware.

Ze zeggen $1400 miljard te moeten investeren voor hun plan. Als darvan de helft naar hardware gaat is dat $700 miljard. Dat gaat 5 jaar mee, dus alleen de afschrijvingen zijn al $140 miljard per jaar.

$1400 miljard aan leningen krijgen ze nooit voor elkaar, dus moeten ze het op allerlei andere manieren doen met rare circulaire deals. Op een of andere manier kost het echter wel rente of verwatering. Maar stel dat het ze lukt... Ik heb de AI eens gevraagd wat de rente zou zijn. Die begon nog net niet te lachen...

Antwoord is dat het een junk status zou hebben en dat startups zonder winst typisch 12-20% betalen. Met 12% zou alleen de rente al $84 miljard per jaar kosten als ze de helft met leningen bij elkaar brengen en de andere helft met equity (aandelen uitgeven).

Dat is dus alleen al aan afschrijvingen en rente $225 miljard per jaar. Maar op zo'n lening moet uiteraard ook worden afgelost. Gezien de verwachte levensduur van de chips kan dat geen hele lange periode zijn. Stel 5 jaar lineair, dan moet er dus nog eens $140 miljard per jaar naar de bank... Dus pas na een positieve operating margin van $365 miljard per jaar draait Open AI dan winst. En na 5 jaar moeten ze weer opnieuw hardware financieren...

Ze hebben nu $13 miljard omzet per jaar en lijden daarop enorm verlies.

Ondertussen is het een nogal concurrerend speelveld. Dus heel uniek zijn ze ook niet en gebruikers kunnen gewoon overstappen naar een AI aanbieder die geen reclame pusht.

Ik heb zelf chatgtp al verwijderd, want via Office 365 heb ik ook toegang tot Copilot. Ook gebruik ik steeds vaker Le Chat of Perplexity voor zoekopdrachten. En eerlijk gezegd vind ik de resultaten voor complexere taken vaak nog weinig overtuigend.
Prima, Gemini is natuurlijk iets anders dan Chatgpt. Chatgpt maakt miljarden na miljarden verlies en er is geen zicht dat het tij gekeerd wordt. Microsoft en Google hebben andere cash bronnen en kunnen het nog erg lang uitzingen.
Gemini is echt exact hetzelfde concept als ChatGPT... GPT-4o zat ook op hetzelfde energie-verbruik als de cijfers van Gemini in mijn vorige reactie, en GPT-4o was een prima model.
GPT-5.2 is wat duurder, ja, omdat openAI de investeerder-dollars in de strijd wil gooien om de AI-wedloop tegen google te winnen. Daarom sloot ik af met de opmerking dat zodra deze wedloop tot rust komt, er meer op efficiëntie zal worden gefocust, en dat dit best mogelijk is om te realizeren.

Overigens, zelfs uitgaande van de duurste GPT-5 (high), zitten we op 22 Wh, dus met die (echt overmatig hoge) aanname van 25 cent per kwh is dit nog steeds een halve cent per query. Het verhaal is echt niet inherent anders bij ChatGPT dan bij Gemini. Als openAI de groei een beetje zou remmen (niet a priori 40% van de mondiale RAM opkopen, bijvoorbeeld) zouden ze met de 60 dollar per 1000 queries van dit artikel makkelijk winst kunnen draaien.

De extreme verliezen zijn typisch silicon valley, een kwestie van explosieve groei door middel van grote investeringen, verliezen accepteren om maar groot te worden. Dat hoeft echt geen teken te zijn dat ze op lange termijn verlies moeten blijven lijden.
Een server hosten kost wel meer dan alleen wat stroom...
Velen zijn onder de indruk dat de stroomkosten astronomisch zijn, dat vermoedde ik ook bij de opmerking waar ik op reageerde. De grond is praktisch gratis en de hardware koop je één keer voor vele jaren gebruik. Google heeft dit model al decennia zeer winstgevend, in casu google search, en LLM reacties zijn waarschijnlijk beter verkoopbaar aan adverteerders en amper computationeel duurder, zeker op lange termijn.
Mijn punt is simpelweg dat de "het is een bubbel, want het is niet winstgevend" argumenten niet echt stand houden. Er word verlies geleden omdat het kan, omdat er investeerders zijn. Niet andersom. Het kan best winstgevend, als dat zou moeten.
De hardware is natuurlijk ook maar een deel. Naast stroom is er wel meer nodig waar dat op draait; buiten staan ze ook niet en er zal toch ook personeel moeten zijn voor het onderhoud aan zowel de hard- als software.
De grond is praktisch gratis en de hardware koop je één keer voor vele jaren gebruik.
Ehm ... die hardware in al die nieuw te bouwen is natuurlijk wel high tech en extreem duur. Gezien de hw-ontwikkelingen is het ook nog 'ns van het grootste belang om continue te blijven investeren in nieuwe processors, GPUs, RAM, servers om de concurrentie bij te kunnen blijven benen. Die hardware is in een paar jaar tijd achterhaald, afgeschreven en moet vervangen/geupgradet worden. Als OpenAI de komende jaren 1400 miljard dollar wil gaan uitgeven, dan zullen ze daarna jaarlijks honderden miljarden moeten uitgeven aan vervangingen.

Dan is het toch nuttig om te beseffen dat OpenAI met het huidige businessmodel naar verwachting een schuld van 143 miljard dollar in 2029 zou hebben - maar dan nog zonder die geplande investering van 1400 miljard dollar meegerekend. Er is eigenlijk geen enkele manier waarop OpenAI ooit winstgevend zou kunnen worden zolang de enige manier om te groeien het uitgeven van steeds meer geld is.

Het is gewoon krankzinnig dat een bedrijf met 0 (NUL) kans op winstgevendheid in staat is om de hele ICT-wereld kapot te maken met het massaal opkopen van jaren aan RAM-productiecapaciteit.
De vraag die ik me echter meer en meer begin te stellen is of OpenAI dit tijdperk overleeft. Ze hebben naast hun AI tech werkelijk niks anders om inkomsten te genereren. Vandaar ook dat ze zo aan het zoeken zijn naar iets van inkomsten, want buiten de investeringen die ze krijgen komt er geen euro binnen.

Google heeft naast Gemini nog een pak business dat volledig winstgevend is. Ze kunnen dus wel even een kraantje aan dat geld lekt :). OpenAI echter is een one trick pony op dat vlak. Alle geld naar één product. Misschien wel de gouden pony, only time will tell.

Ik denk persoonlijk dat OpenAI het momentum verspeelt heeft. De grote jongens zoals Google hebben de achterstand die ze hadden weggewerkt, simpelweg doordat hun budgetten groter zijn, maar vooral denk ik door het feit dat ze gewoon veel meer ervaring inhouse hebben. Misschien niet met AI op zich, maar dat blijkt dan toch niet zo een groot probleem te zijn.

[Reactie gewijzigd door Powerblast op 26 januari 2026 19:43]

Precies. Apple gaat niet voor niets met Google/Alphabet in zee. OpenAI verliest nu heel snel momentum, als ze het al niet kwijt waren aan Google/Alphabet en Microsoft.
Er zit helaas nog iets meer in dan enkel een variable energiekost/query, Google heeft gewoon een heel grote buffer in tegenstelling tot OpenAi om het langer vol te houden los van deze efficiëntie. Werkelijke kosten voor beide zullen een stuk hoger liggen per Query.
Energie die kernreactors opwekken is in de verste verte niet goedkoper als je de bouw van een reactie meerekent. 4 keer duurder dan wind of zon

https://pointer.kro-ncrv....het-is-een-van-de-duurste
Volgens mij is stroom van kernreactoren helemaal niet zo goedkoop.
...aangezien de AI weet wat er gevraagd wordt en wat het antwoord is.
Je omschrijft nu wat Google al sinds de inceptie is.

[Reactie gewijzigd door merethan op 26 januari 2026 18:52]

Google weet 'waar' het antwoord is, OpenAI 'weet' de inhoud van het antwoord. Met Google geef je dus Google geld en ook elke site die je opendoet verdient aan hun eigen ads. ChatGPT is een one-stop-shop waar je zowel de korte expositie van een search result hebt maar ook de lange expositie om het antwoord te lezen.
Google is voor z'n Display Ads (per weergave) ook een stuk goedkoper dan zijn ads bij search waar ze inderdaad de vraag en antwoord weten. Het gaat bij deze vergelijking om weergaven bij content op de sociale platforms vs ChatGTP, een situatie waar een Meta gewoon minder weet dan een ChatGTP in dit scenario.
Inderdaad. En voor de mensen die dit niet willen: wat voor business model hebben jullie in gedachten?
Liever gewoon helemaal geen, opdoeken is prima. De hoeveelheid resources dat dit verstookt… Voor 20% van de gebruikers/prompts zal het vast waarde hebben hoor, maar mijn inschatting is dat 80% meuk is en onnodig resources verspild met vragen die ook prima met een simpele google zoekopdracht hadden gekund tegen een fractie van de resources.

Maar goed, zal wel in de minderheid zijn…
Nee hoor, helemaal met je eens. Het is niet haalbaar, de cijfers kloppen niet. Het alleen maar door de enorme speculatieve bubbel dat een bedrijf dat miljarden per jaar verlies maakt nog kan bestaan.
De tech sta ik achter en zie ik toekomst in. De manier van business voeren, lees: er is geen business model, of in ieder geval enkel eentje zolang langs de voordeur de goudstaven blijven binnenrollen, sta ik niet achter. Een normaal bedrijf had al lang de deuren gesloten met een dergelijk business model. Waarom de CEO dan ook nog eens lekker arrogant denkt over te kunnen komen naar kritische vragen, mij is het een raadsel.

De proporties dat het momenteel heeft, heeft mijn inziens niks meer met de mogelijkheden van de tech te maken, maar is het volgende speculatief middel waar sommige snel mee rijk hopen te worden. Komt eens om de zoveel tijd voor, daar niet van. Maar nu is het wel heel extreem.

Leuke tech en ik hoop dan ook dat de tech op zich deze bubble overleeft. Maar dan in een gewoon open source project organisatie of iets dergelijks waarin het langzaam aan kan groeien en er ook aandacht is aan, zoals je al aangeeft, energiegebruik en veiligheid.

[Reactie gewijzigd door Powerblast op 26 januari 2026 19:35]

ten tweede kunnen ze veel meer gefocuste adds plaatsen, aangezien de AI weet wat er gevraagd wordt en wat het antwoord is.
Dat is toch exact hetzelfde als met een search? Een LLM is zich niet meer "bewust" van wat er gevraagd wordt dan een goede zoekmachine.

De context die getoond wordt door een LLM of door een resultatenpagina als gevolg van een query is in beide gevallen bekend. Ik zie niet hoe een LLM hier een voordeel heeft. Sterker nog. In het geval van een LLM is een advertentie afleiding van het werk wat je probeert te doen terwijl bij een search een getoonde advertentie de potentie heeft om een nuttig antwoord te geven.

Ik denk bij advertenties in je LLM aan die advertenties uit de Truman Show film.
YouTube: The Truman Show - "Advertising Mashup" - 1998 (HD)
"What the hell has this got to do with anything?"
Maar dat is wellicht mijn gebrek aan inbeeldingsvermogen.
De waarde van een advertentie heeft weinig te maken met de kosten van het product. Een adverteerder betaald alleen wanneer het effectief blijkt.

LinkedIn in dacht ooit iets vergelijkbaars te kunnen doen door de bodem klik prijs op €1,20 te leggen. Velen waaronder ik testte dat, mar zagen dat het minder effectief was dan Google Ads waar de bodem op €0,01 lag (je betaald altijd meer want je betaald 1 cent meer dan het bos dat je moet overtreft).

Ik ben dus vooral benieuwd of mensen die ChatGPT gebruiken de Ads überhaupt zien staan. Dat is bijvoorbeeld Linkedin's probleem tot op de dag van vandaag ook. Mensen zijn niet bezig met wat de advertentie biedt.

En dan kan je het "branding" argument nog voeren. Maar ook dat is niet mega effectief.
Ik verwacht dat de gemiddelde gebruiker van ChatGPT over het algemeen meer geld te spenderen heeft, dan een gemiddelde gebruiker op een platform van Meta zoals Facebook.
Wat interessant zou zijn, is een vergelijking van het aantal clicks t.o.v. aantal weergaven, en nog interessanter de hoeveelheid omzet die ermee voor de adverteerder gegenereerd wordt.
Alleen dan is er iets zinnigs over te zeggen. Jammer dat OpenAI nog geen gedetailleerde informatie over de prestaties van advertenties geeft.
Ik heb er niet veel ervaring mee maar volgens mij is de AI van Meta ook een stuk minder betrouwbaar.

Daar zou ik waarschijnlijk al helemaal geen goed voor over hebben.
Ik verwacht dat de gemiddelde gebruiker van ChatGPT over het algemeen meer geld te spenderen heeft, dan een gemiddelde gebruiker op een platform van Meta zoals Facebook.
Ik zou daar niet zo zeker van zijn. ChatGPT wordt vrij breed gebruikt, zowel bij jongeren als volwassenen. Het is één van de weinige platformen die over bijna alle lagen van de bevolking wordt gebruikt, en waar momenteel de "opletendheid" van de gebruikers laag is.

Het is één van de grootste bedreiging voor bedrijven zoals Google en het advertentiemodel zoals het nu is. Direct je antwoord krijgen zonder advertentie ranking, zonder de website zelf te bezoeken, zorgt dat de macht bij AI, het injecteren van advertenties in resultaten zal effectief de enigste methode zijn, maar je kan hebt geen ranking - dus vaak maar één of twee links die ze refereren.

Dit model zal uitgemolken worden en er zal top dollar betaald moeten worden voor als je in een chat als "beste nieuwssite" naar boven wil komen. Zeker de top zoekopdrachten zullen goud waard zijn (beste IT leverancier, beste onlyfans model, enz)
Als die advertenties zo geïntegreerd worden dat ze als gewogen onderdeel van de respons overkomen, is dat het perfecte punt om te concluderen dat marktregulatie mislukt is. Consumenten kunnen zich hier absoluut niet tijdig voor wapenen.
60 dollar per 1000 weergaven, serieus? Dat is geen advertentietarief meer, dat is een abonnement op exclusieve illusies. OpenAI lijkt advertenties te prijzen alsof elk doorklikmoment je leven moet veranderen.

Drie keer duurder dan Meta.maar hé, misschien krijg je er een compliment van de AI bij over je klikgedrag.
OpenAI zegt dat het de gegevens van gebruikers, waaronder de gespreksgeschiedenis, niet doorverkoopt aan adverteerders.
Dat doet niemand. Je koopt geen data om te adverteren, advertentiebedrijven gebruiken deze data om de advertenties gerichter te kunnen leveren, waardoor de advertenties meer waard worden.
De meeste advertentiebedrijven verkopen de data zelf dan ook niet.
60 dollar per 1000 weergaven is echt heel veel... Zeker als je het vergelijkt met web advertenties bijvoorbeeld.
Ik snap het sentiment, maar denk onvermijdelijk dat dit er een keer aankomt. Ben wel benieuwd hoe het er uit gaat zien. Krijg je bijvoorbeeld een duidelijke banner? Een tekst advertentie met duidelijk label? Of geeft GPT je opeens enkel nog advies voor betalende merken? En krijg je opeens schoenen advertenties bij een chat over schoenen?

Enfin, benieuwd naar deze ontwikkeling. Ik hoop dat er een betaalbaar advertentieloos abonnement beschikbaar blijft.

Om te kunnen reageren moet je ingelogd zijn