OpenAI heeft 400 miljoen wekelijks actieve gebruikers

OpenAI heeft deze maand de mijlpaal van 400 miljoen wekelijks actieve gebruikers bereikt. Dit is een stijging van 100 miljoen, of 33 procent, ten opzichte van december 2024. Het bedrijf meldt daarnaast een verdubbeling van het aantal betalende zakelijke klanten.

De mijlpaal van 400 miljoen wekelijks actieve gebruikers werd in februari gehaald, zegt OpenAI's coo Brad Lightcap tegen CNBC. Begin december zei ceo Sam Altman nog 300 miljoen wekelijks actieve gebruikers te hebben. De groei zou voornamelijk komen door mond-tot-mondreclame, waarbij gebruikers steeds meer gebruiksscenario's voor onder meer ChatGPT zien.

De stijging van het aantal wekelijks actieve gebruikers zorgt ook voor meer zakelijke, betalende accounts, stelt Lightcap. Consumenten zouden na privégebruik van de tool aan hun werkgever voorstellen om de tool ook zakelijk te gebruiken. Het aantal betalende zakelijke klanten is nu twee miljoen, ongeveer twee keer zoveel als in september 2024. Ook het gebruik door ontwikkelaars zou in zes maanden tijd verdubbeld zijn.

Door Hayte Hugo

Redacteur

21-02-2025 • 07:51

69

Reacties (69)

Sorteer op:

Weergave:

Als dagelijkse AI-gebruiker maak ik mij wel wat zorgen om wat het doet met ons vermogen om na te denken en problemen op te lossen. Men ziet in een relatief kleine groep mensen na het gebruik van AI en een vrij korte tijd de vermogens om kritisch zelf te denken enorm afnemen.

AI draagt dus in potentie bij aan een enorme dumbing down - terwijl we daardoor dus steeds meer moeten vertrouwen op een AI-model waarvan we weten dat het:

- hallicuneert: aka onzin produceert/verzint
- bias based is: in het meest optimistische geval een vorm van beperking kent en in veel gevallen simpelweg gecensureerd is

De uitdaging voor ons onderwijssysteem blijft dus maar groeien zou ik zeggen. Kritisch denken als wapen tegen desinformatie en verdomming.
Ik maak zelf foundation models voor een Amerikaanse startup.

Ik - en al mijn collega's - vinden het bizar waarvoor mensen LLMs allemaal gebruiken. Allemaal use cases die we zelf nooit zouden overwegen, nooit zouden adviseren, en intern ridiculiseren.

Ik vraag me steeds meer af of het goed is om dergelijke technologie zó makkelijk beschikbaar te maken. Gebruikers zijn zó dom (excuses, maar het is echt zo), je moet ze tegen zichzelf beschermen met regelgeving.
Zou je een blik voorbeelden willen noemen? Bvd!
Zeker:

- ChatGPT gebruiken voor het opzoeken van bouwkosten door een vriend van mij: dat is zeer feitelijke informatie, zeer contextafhankelijk en zeer gevoelig voor fouten - er klopte dus ook niets van.
- ChatGPT gebruiken voor het opzoeken van verschil tussen honing en siroop en de voedingswaarde van die twee, feitelijk onjuist en elkaar tegensprekend.
- ChatGPT gebruiken voor opstellen due diligence lijst door een junior medewerker (advocaat in opleiding) bij een van de top firms (en er klopte dus niks van)
- ChatGPT gebruiken voor een programmeeropdracht voor een PhD positie waarbij mijn co-promotor natuurlijk de assignment zó had gemaakt dat ChatGPT het verkeerde antwoord gaf. Zeker 5 inzendingen (sollicitanten) die verbatim ChatGPT waren. Dit is dus voor een PhD positie! In data engineering nota bene. Manmanman.... En ja, het waren verder wel "gekwalificeerde" sollicitanten.

Uit mijn eigen werk (foundation models voor time series / forecasting):
- TimeGPT gebruiken voor bitcoin price prediction (als een aandeel, is praktisch een random walk)
- TimeGPT gebruiken voor FX voorspelling, en dan ook nog een paar weken vooruit (again, is een random walk)
- TimeGPT gebruiken om aandelenprijzen een jaar vooruit te voorspellen (ja echt).

[Reactie gewijzigd door oli4100 op 21 februari 2025 15:07]

Nu ben ik wel uiteraard benieuwd welke use cases je wel zou adviseren. :+
ChatGPT / LLMs: alles waar fouten "harmless" zijn: fictie (gedichten, proza, tekstjes), ondersteuning bij tekstvorming (marketing, HR), ondersteuning bij coderen (bijv docstrings worden best goed gegenereerd door CoPilot, sneller dan ik ze zelf kan copy-pasten vanuit een andere functie). Maar echt never nooit zou ik het gebruiken voor het opzoeken van feitelijke informatie.

TimeGPT: shit in = shit out. Dus een random walk er in stoppen, geeft poepantwoorden. Stop er iets in waar (op grond van echte kennis van het proces) een patroon te verwachten valt. Bijv. sales (demand) forecasting, electricity load forecasting. Daar zit gewoon echt een autoregressief patroon in de data, en dat kan zo'n model efficient herkennen en relatief goed voorspellen.
Dat met die aandelenkoersen slaat nergens op, maar is niet dommer dan TA
Interessant. Op het werk willen we ook meer AI gaan gebruiken. Over de gevaren ervan, hoor je relatief weinig. Zeker goed om eens in de gaten te houden.
wat leuk die phd positie, lol. Wij klrijgen in iede rgeval zat solicitatie brieven die overduidelijk met een LLM gemaakt zijn
Kan ik mij iets bij voorstellen. Voorbeelden die ik zie:

- recruiters die alleen nog maar ai gen meuk sturen
- advocaten die in de rechtbank op hun muil gaan omdat het precedent wat ze gebruiken door chatgpt verzonnen is (post van Arnoud Engelfriet op Linkedin met 46 pagina's uitleg)
- sollicitanten die brieven genereren maar niet weten wat erin staat

en uiteraard programmeurs die code gebruiken die inherent onveilig, inefficient of anderzijds niet voldoet.

Dus het is fantastisch wat we ermee kunnen, maar we onderschatten echt de kwaliteit van het werk en je AI zal altijd steevast heel overtuigend klinken tot je zegt 'maar dit dan' en dan veranderen ze ook prompt van mening. Het is een woordengenerator en geen intelligent wezen ofzo.

Aan het eind van de dag moet iemand het allemaal nog snappen en die mensen worden zo in rap tempo schaars.
Op zich maak ik mij er ook wel zorgen om, al weet ik niet of AI de directe oorzaak is hiervan.

Om even jouw originele studie erbij te pakken, dan lees ik het volgende:
Specifically, higher confidence in GenAI is associated with less critical thinking, while
higher self-confidence is associated with more critical thinking.
Om even onze oude goede vriend erbij te pakken "correlatie is geen causatie", lijkt het me eerder dat er een gemeenschappelijke oorzaak is: mensen die kritisch denken die zullen minder snel de waarheid van een AI aannemen.

Met andere woorden, dit laat niet zien dat het vermogen om kritisch te denken afgenomen wordt door GenAI.

Ik ben wel benieuwd wat het lange termijn invloed AI heeft op intelligentie, maar zelf blijf ik er nog redelijk positief bij: zolang je kritisch kan denken, zijn het erg handige middelen om te gebruiken.
Het hangt er zoals met alle tools vanaf hoe je het gebruikt. Ik gebruik onze interne AI tools om bijvoorbeeld sneller de relevante productinformatie te vinden. Dit kon natuurlijk met zoekmachines, maar dan moest je eigenlijk al behoorlijk goed weten wat je zocht. Nu kan je in gewone mensentaal iets vragen en toch de juiste antwoorden krijgen.
Precies, als ik wil weten welke albums Paul McCartney heeft gemaakt surf ik zelf wel even naar Wikipedia. En als ik een vraag heb typ ik die gewoon in de zoekbalk van de browser. Oke eerlijk gezegd boeit het me niet welke albums Paul McCartney heeft gemaakt maar het was de eerste artiest die in me opkwam :+
Crazy hoe snel dit gaat. Ter vergelijking: Google had pas 375 miljoen maandelijkse gebruikers in 2004, 6 jaar na launch. Dat was 40% marketshare in search vs chatgpt nu al 59% market share in ai chatbots. Ben benieuwd hoe ze uiteindelijk uit de kosten gaan geraken bij openai. Unpopular opinion maar ik had a la Google al lang context gerelateerde ads voor de gratis gebruikers verwacht. Openai maakte vorig jaar 5 miljard verlies bij 3,7 miljard omzet. Google haalde al in 2004 rond 4 miljard uit ads dus ads voor free users zou dat putje vullen.

Gebruiken dit sinds eind 2023 dagelijks in ons marketingbedrijf om dingen op 2 minuten te doen die vroeger uren kostten. En dat voor 20 euro per maand. Geen enkele software levert ons zoveel waarde op!

[Reactie gewijzigd door Nateno op 21 februari 2025 08:23]

Maar zodra ik merk dat je generatieve slop gebruikt in je marketing ben je mij ook kwijt als klant. En ik merk alsmaar meer ai-moeheid. Fast, cheap & easy staat zelden voor kwaliteit.
Hoe beter de modellen worden, hoe slechter jij wordt in het identificeren van AI gegenereerde teksten/images/video's... ;)
Inderdaad, binnen 2 tot 5 jaar kan je het niet meer onderscheiden. Wat eigenlijk ook gevaarlijk is want deepfakes kan dan alles namaken en dan kan je alles wat digitaal is niet meer geloven.
precies, we vinden onszelf zo kritisch, zo bewust van alles, zo scherp... laat me niet lachen. Als dat zo was zouden reclames geen enkel effect hebben.
Tis altijd een samenwerking. Brainstorming voor ideeën of scripts met ai, verder werken met menselijke teams voor de creatieve touch. Evolutie is helaas onstopbaar! Ik ben pro ai omdat het ongekende welvaart kan brengen. De echte vraag, en dat geldt eigenlijk altijd met technologie is hoe je die welvaart goed verdeelt!
Niemand gaat die welvaart verdelen want we leven in een kapitalistische maatschappij. Het is puur boerenbedrog en enkel de rijken worden nog rijker. UBI is een fata morgana en komt er nooit.
Daarom heb ik chatgpt mijn schrijfstijl geleerd door het met enkele teksten te voeden.
Hoe train je zoiets dan?
ik heb zoiets geprompt als:
Ik ga je tekst voeden in mijn schrijfstijl. Ik wil dat je dit analyseert en opslaat in je geheugen. Wanneer ik vraag gebruik mijn schrijfstijl, dan gebruik je deze stijl.

Zoiets. Hoe meer je voedt hoe beter die wordt uiteraard.
In 2005 waren er ook een paar miljard minder devices en mensen die dagelijks vele uren online doorbrachten.

Overigens vind ik dat ai assistents best nuttig zijn, mits kritisch gebruikt. Ik gebruik het bv voor samenvattingen, tekst structurering (altijd nalopen) en code schrijven (bizar hoe accuraat dat vaak ik, maar ook hier:nalopen)
Ik heb het een paar jaar terug gebruikt om de notulen te maken van een VVE vergadering. Het was niet perfect, maar beter dan als 1 persoon de notulen maakte.
Search bestond al wel voor Google en je vergelijkt qua market share in 2004 dan wellicht ook met startpagina's zoals die toen nog bestonden? Voor chatbots was OpenAI marktleider op de dag van launch, want dat was daarvoor geen bestaand product. (Het was voor hen ook geen product, het werd gelanceerd als research prototype.)
Maar jij spreek over maandelijks actieve gebruikers, hier spreken we van wekelijks actieve gebruikers. Dus dit is appelen en peren vergelijken.
Woeps! Gelijk heb je, nog spectaculairder in dat geval!
Wij de gebruikers maken de modellen steeds beter omdat wij in de chat direct feedback wat er niet goed was aan het antwoord. Jij maakt dus het systeem beter. Daarbij de grote partijen zoals openai, antropic en google vereisen allemaal een apart abonnement voor het gebruik van API. Daar zit momenteel het verdien model.

Nu vraag ik mij wel af hoe OpenAI het aantal gebruikers telt. Wat ik heb een abo bij chatllm waarbij ik voor 10 dollar per maand gebruik kan maken van alle bekende (en betaalde) chat modellen en ik dus indirect bijvoorbeeld o3-mini(-high), sonnet 3.5, Gemini Pro of DeepSeek kan gebruiken, daarnaast hebben wij meerdere profielen voor api wallets (1 per klant). Ook heb ik zelf een openai api account zodat ik via n8n/flowise zelf allerlei bots kan bouwen...
Het is een mooie tool om te brainstormen maar het is nog steeds te onbetrouwbaar om er echt op te bouwen. Ik vraag me ook af of dit inherent is aan de tool zelf en of dit ooit echt beter zal worden. Ondertussen begin ik mijn twijfels te krijgen of het echt iets gaat brengen in de toekomst
leer beter en preciezer prompten
Dit is echt wel kort door de bocht.

Probleem is dat ze een taal model ook wel promoten als veel meer. Als leverancier van feiten.

Stel je taal vragen, dan geen enkel probleem. Dit is mijn tekst, mijn context, mijn concept, maak er een mooie zachte tekst van. Nog zachter. Perfect.

Stel je een vraag gebasseerd op feiten dan loopt het mank.

"Is Amsterdam of Breda verder van Antwerpen? Geef afstand weer. Antwoord: Breda is met 15km verder van Antwerpen dan Amsterdam, dat op 200km ligt.

200km is toch verder dan 15km?

Ja klopt, Amsterdam is idd verder.

Waarom stelde je eerst dat Breda verder was?

Omdat ik ook tekening hou met voorkeuren en bezoeken enz. Amsterdam is een populairder hub dan Breda."

Dat is bijna letterlijk een sessie geweest met chatgpt. In your expert opinion, wat was er mis met mijn query?
Het gaat al mis door een nederlandse prompt, voor zover ik weet kan het wel, maar is het ver van zo goed als een vraag in het engels.

Jouw voorbeeld even door ChatGPT 4o gehaald:

Q: which city is further away from antwerp? Amsterdam or Breda?

ChatGPT said:
Amsterdam is further away from Antwerp than Breda.

Antwerp to Amsterdam: Approximately 160 km.
Antwerp to Breda: Approximately 55 km.
Breda is much closer to Antwerp compared to Amsterdam.
Precies dit. Wellicht verwoord ik het slecht, maar het is inderdaad mijn punt dat het gebruik van een LLM veel beperkter is dan hoe het nu word voorgedaan.
Dit is afhankelijk van de temperatuur van het model. De temperatuur bepaald hoe creatief de LLM mag zijn.
Reasoning modellen kunnen daarnaast ook de referenties terug geven welke zij gebruiken. Kwestie van zelf even nalezen of het klopt.

Maar net zoals je niet zomaar code moet copy/pasten vanuit de devschuur of reddit, moet je een LLM niet op zijn mooie blauwe ogen geloven. LLM's zijn een tool.

Je initiele vraag of wat verder is, is niet accuraat genoeg. A van Amsterdam ligt gramaticaal dichter bij de A van Antwerpen dan de B van Breda. Nergens ik je vraag heb je aangegeven dat je afstand bedoelde.

Prompt: Uitgaand van de plaats Anrtwerpen, welke plaats ligt in afstand dichtbij, Amsterdam of Breda?

Antwoord bij mij:
Om dit te bepalen, laten we de afstanden vergelijken:

Antwerpen naar Breda: ongeveer 50 kilometer
Antwerpen naar Amsterdam: ongeveer 155 kilometer
Breda ligt dus duidelijk veel dichterbij Antwerpen dan Amsterdam. De afstand Antwerpen-Breda is ongeveer een derde van de afstand Antwerpen-Amsterdam. Breda ligt net over de Nederlandse grens vanuit Antwerpen, terwijl Amsterdam veel verder noordelijk in Nederland ligt.
Het is een dooddoener, maar ‘shit in, shit out’.

Mensen verwachten wonderen ondanks dat ze hele beperkte prompts ingeven. Zonder context geeft een LLM ‘gewoon’ antwoord, maar inclusief context zijn antwoorden veel en veel beter. Het net alsof mensen klagen dat ze met een Allerhande opeens een topchef kunnen zijn. Gebruik een logische promptstructuur en het wordt al veel beter; een veelgebruikte structuur is:
- Doel (wat is de hoofdvraag)
- Format (hoe moet het antwoord eruit zien, van lengte tot tone of voice)
- Voorwaarden.


Edit: interessant dat mensen mijn reactie niet waarderen. Als je een tool incorrect gebruikt en boos bent over het eindresultaat, dan ligt het echt aan de user. Tweakers zouden beter moeten weten.

[Reactie gewijzigd door Orangelights23 op 21 februari 2025 10:28]

Nee het gaat vooral om de correctheid van antwoorden. Een simpel voorbeeld, als ik een lijstje van bieren invoer en vraag wat het alcoholpercentage van elk biertje is dan gaat het goed met Heineken maar bij de iets minder bekende bieren zitten er genoeg fouten tussen.
Net zo als de intellgentie van mensen dus. Er zijn immers ook genoeg mensen die niet durven te zeggen dat ze iets niet weten en dan maar iets gaan verzinnen :-)
Ah, dus nog steeds ‘shit in, shit out’ ;)

Je begrijpt niet wat een LLM is. Het is geen kennisbron namelijk, maar een voorspeller van tekst wat getraind is op data. Je moet je prompt aanpassen om bijvoorbeeld gebruik te maken van het internet.
Prachtig product. Ik draai prive een llm, maar gebruik chatgpt om daadwerkelijk iets te leren, voor mij werkt dit. Geen mens die het geduld had om mijn programmeer vragen te beantwoorden en te onderzoeken. Keerzijde, ik hoor links en rechts mensen die zeggen dat even snel een zakelijke usecase incl privedetails door chatgpt trekken, hoe kwalijk kan je het krijgen?
Mijn repos (prive) zijn toch allemaal gescand de afgelopen jaren, dus wat boeit die ene snippet die ik nu vraag?

Soms vraag ik om hulp voor iets mega specifieks (ik werk in een niche) en dan komt het met een super nauwkeurig antwoord, wat ik nergens kan vinden. Dat moest haast wel van concurrenten afkomen, of dat ding is veel slimmer dan we denken.

Maar ik weet hoe een LLM werkt dus slim… nee.
... Dat moest haast wel van concurrenten afkomen, of dat ding is veel slimmer dan we denken.

Maar ik weet hoe een LLM werkt dus slim… nee.
Hoe werken jouw hersenen bij een bevraging?

Bij mij krijg ik ook werkende code voor dingen die nog niet bestaan. Het is een transformer, dus als er relaties in de ene taal beschreven zijn (theoretische beschrijvende tekst aangeleverd door jou) en de transformer is goed getraind om de ene taal naar de andere taal te transformeren, is voor de GPT jouw invoer als het ware simpelweg het antwoord in een andere taal.
Ik vrees dat de kans dat je iets maakt dat nog niet bestaat wel zeer klein is. De kans dat de LLM het al gescanned heeft, is een pak groter...
Dat hoeft natuurlijk niet. Als jij vraagt om een stukje python code om de oppervlak van een Adidas Performance Tango Glider Bal voetbal te berekenen, dan kan een (goede) LLM zelf die code genereren op basis van gegevens als dat een voetbal een bol is, de omtrek van de betreffende voetbal, de formule om het oppervlak van een bol te berekenen en kennis van python.

Je kunt het ook zien aan de gegenereerde code als je een paar keer hetzelfde vraagt. Als de LLM een bepaald stuk code heeft gescand, dan zal je altijd hetzelfde resultaat krijgen.
Houdt die dan ook rekening met het feit hoe hard de bal is opgepompt...
De kans dat ik iets maak dat niet bestaat is vrij groot. Dat is een van mijn talenten. Is me meerdere keren gelukt en heb die ook in productie gebracht.

Een van die dingen zit in vscode en wordt bij veel ontwikkelaars dagelijks gebruikt.
Klopt, ik zat al jaren naar een aantal oplossingen voor mijn zelf geprogrammeerde CRM te zoeken.
Na wat heen een weer gegpted kwam hij/zij/het met een oplossing. Knap! Waarom? Jaren lang verschillende fora met knappe koppen gevraagd en die konden het niet oplossen.
Ik vind het een erg prettige techniek. Alleen merk ik bij mezelf dat ik lui wordt bij gebruik. Vergelijkbaar met vroeger op school, dat je bij rekenen 20+25 op je rekenmachine intoetste, omdat je rekenmachine toch op tafel ligt. Terwijl met mijn hoofdrekenen niets mis is.

Daarnaast vind ik de afhankelijkheid alleen wat zorgelijk: Bijvoorbeeld ook dit item:
https://eenvandaag.avrotr...-trump-kan-ons-chanteren/
Mij stimuleert dat in ieder geval om er nu al bewust over na te denken. Bijvoorbeeld de optie om dit soort modellen (kleintjes dan) op een eigen plek binnen het bedrijft te draaien.
Ik gebruik lokaal modellen, maar pak voor complexere dingen toch nog wel eens Mistral's aanbod erbij. Hoewel je het nooit zeker weet waar ze de modellen trainen, hebben ze in het verleden voornamelijk de Italiaanse Leonardo supercomputer gebruikt.
Sowieso geef ik data liever aan een Frans bedrijf dan een bedrijf buiten de EU. Ik heb er bij hun meer vertrouwen in dat als je aangeeft dat ze niet de interacties met het systeem mogen gebruiken om hun dienstverlening te verbeteren, dat het dan dus ook niet gebeurd.
Alle tools die we in de loop der eeuwen zijn gaan gebruiken maken ons lui. Maar het is nog steeds zaak om bij het gebruik na te blijven denken.

Met elektrische zaag gaat het werk veel makkelijker dan met een handzaag, maar als je niet goed nadenkt over het gebruik en het resultaat, sta je eerder bij de SEH....
Dat is ook wel te merken op bijvoorbeeld Instagram, je ziet tegenwoordig heel veel AI beelden in plaats van echte foto's helaas
Dan zit je in dát algoritme door er eens naar te hebben gekeken. Ik zie dat zelf namelijk niet (en kan het heus onderscheiden).
Als jij een paar klikt op bepaalde content dan krijg je dat inderdaad. Gewoon weer een paar keer op echte foto's klikken en je krijgt die weer meer te zien.
Ik gebruik het bijna dagelijks om te brainstormen in mijn creatieve process. Ik ben echt onder de indruk hoeveel ChatGPT daadwerkelijk mee kan denken.

Simpel voorbeeld; ik vraag of bepaalde akkoordenschema bij elkaar passen die niet zo gangbaar zijn en krijg vervolgens een duidelijk antwoord met ideeën en voorbeelden hoe ik het zou kunnen gebruiken.

Dit vind ik nou echt een toevoeging ipv al die AI apps die het creatieve gedeelte overnemen en voor jou muziek of een afbeelding maken. Dat is dan weer de doodsteek voor creativiteit wat mij betreft.
Excuses als mijn reactie te anekdotisch is, maar ik ben onlangs Claude (meestal de 'normal'-personality) gaan gebruiken voor taken waar LLMs toepasselijk zijn. Ik werk al een paar jaar met ChatGPT Teams. Gewoon dezelfde prompts, zelfde info, maar Claude's reacties en uitkomsten vind ik meestal stukken beter.

Het meer generieke punt dat ik op basis van het bovenstaande wil maken is: Ik had me lang vastgebeten aan één product. Dat moet ik niet doen, het is een heel bewegelijke wereld en het loont de moeite om een ander product uit te proberen. Claude's my guy op dit moment.
Hoe vergelijkt Mistral hier zich mee? Ik wil eigenlijk meer Europese producten gebruiken, maar in mijn beeld is ChatGPT nog veruit de beste
@Hayte
OpenAI heeft deze maand 400 miljoen wekelijks actieve gebruikers.
OpenAI heeft deze maand de mijlpaal van 400 miljoen wekelijks actieve gebruikers bereikt?

Da maand is nog niet voorbij, dus als statististiek ziet deze kop er een beetje apart uit.
Goeie, aangepast :)

Op dit item kan niet meer gereageerd worden.