ChatGPT heeft 200 miljoen wekelijkse gebruikers

ChatGPT heeft 200 miljoen wekelijkse gebruikers, beweert OpenAI. Het bedrijf zegt dat het wekelijkse gebruikersaantal sinds november vorig jaar is verdubbeld. Ook zou 92 procent van de bedrijven in de Fortune 500-ranglijst gebruikmaken van de diensten van OpenAI.

Ceo Sam Altman zegt tegen Axios dat de tools en diensten van het bedrijf 'nu een vast onderdeel uitmaken van het dagelijks leven'. Verder is het gebruik van ChatGPT's api door bedrijven sinds de release van GPT-4o Mini in juli verdubbeld. De kleinere, goedkopere versie van GPT-4o is bedoeld voor minder complexe taken, maar is even snel als GPT-3.5 Turbo.

Waarschijnlijk gaat het aantal ChatGPT-gebruikers nog verder toenemen met de release van iOS 18 later dit jaar, omdat Siri integratie met ChatGPT gaat bevatten. Gebruikers kunnen via een knop vragen sturen naar ChatGPT, dat op de achtergrond werkt met GPT-4o. ChatGPT kan onder meer tekst en foto's genereren binnen apps op iOS en iPadOS. Dat werkt ook met betaalde klanten van ChatGPT, die betaalde functies kunnen gebruiken.

Door Loïs Franx

Redacteur

30-08-2024 • 20:05

75

Lees meer

OpenAI test ChatGPT-app voor Windows
OpenAI test ChatGPT-app voor Windows Nieuws van 18 oktober 2024
Apple kondigt iOS 18 aan
Apple kondigt iOS 18 aan Nieuws van 10 juni 2024

Reacties (75)

75
72
24
2
0
33
Wijzig sortering

Sorteer op:

Weergave:

Ze waren de eerste en de beste, maar dat is lang niet meer het geval.
Ik raad iedereen claude aan, als je antwoorden wil krijgen waar je effectief iets mee bent.
Nu speel ik niet zo heel veel met de ChatGPT's, Claude's, Gemini's, Phind's op het internet. Maar speel wel behoorlijk veel met LLM's die ik zelf host. StableAI, Mistral, Llama, Phi en nog een paar meer waarvan ik me de naam niet goed herinner.

Wat ik merk is dat het behoorlijk wat uitmaakt hoe je een vraag stelt aan een LLM wat betreft de kwaliteit (en snelheid) van het resultaat.

Een goede litmus test is de vraag "geef me een recept met alleen bananen als ingrediënt"/"Give me a recipe with only bananas"....ligt eraan welke taal je LLM ondersteunt. Het enige goede antwoord is: gebakken banaan. Bijna geen enkele LLM, zelfgehost of de commerciële varianten, komt echter met dat antwoord. Ze komen praktisch allemaal met recepten waarin 3 of meer ingrediënten aan de lijst zijn toegevoegd.

Het helpt als je simpele (en korte) zinnen gebruikt, die je situatie beschrijven. Alleen daarna begin je je vraag te stellen. Context is in elke uitwisseling enorm van belang. Dat is met LLM's echt niet anders.
En bij het beschrijven van de situatie, krijg ik zelf al vaak ideeën om een probleem op te lossen. Vaak worden deze dan beaamt door de LLM en soms komt de LLM met extra details waar ik (nog) niet aan gedacht had.

Door deze aanpak merk ik weinig verschil tussen de LLM's die ik zelf host. Soms verifieer ik met de gratis "tier" van eerder genoemde commerciële LLM's en dan zie ik ook weinig verschil tussen de antwoorden van de commerciële partijen.Zelfgehoste LLM's zijn vaak wel minder langdradig.
Wat betreft je bananen prompt was ik toch even nieuwsgierig... GPT 4o lijkt hier geen enkele moeite mee te hebben, en schudt behalve het 'enige juiste antwoord' nog een paar juiste antwoorden uit de mouw: https://chatgpt.com/share...0f-4f42-81c0-0f264c5f98eb
Het zal ondertussen wel zijn getraind om het juiste antwoord te geven. Tussen de 9 maanden en een jaar terug, was geen enkele LLM er toe in staat,. ChatGPT 3 kwam het dichtste erbij.

Maar zoals ik al aangaf, ben de laatste tijd meer bezig met LLM's die zelf gehost kunnen worden.
Genoeg vragen die het nog niet doen. Vraag eens hoeven n's er in pineapple zitten bijvoorbeeld. Een simpele vraag met maar 1 juist antwoord.
The word "pineapple" contains 3 "n's".

Here's how it's broken down:

Pineapple
Pineapple
Pineapple
So, in total, there are 3 occurrences of the letter "n".

[Reactie gewijzigd door Captain Jorg op 1 september 2024 13:18]

Dit token probleem is door ChatGPT inmiddels gefixt bij die vraag :)
Ah hij geeft zojuist bij mij aan;
The word "pineapple" contains 2 "n's."
It's getting close 8)7
The word "pineapple" has **one** "n."
Ik vind het bananenvoorbeeld matig. Een LLM moet ook nuttige antwoorden geven. Daartoe komt er, net als mensen dat meestal doen, een interpretatie van wat iemand waarschijnlijk bedoelt. Dat leidt tot vergissingen, net als in menselijke gesprekken. Een AI die instructies altijd zo nauw mogelijk interpreteert lijkt me ook niet prettig werken. Bovendien kan je in je prompt gewoon aangeven dat je dat wel wilt door toe te voegen dat er echt geen andere ingrediënten in mogen (in dit voorbeeld).
Ik gebruik beide via de API en kan je hierin geen gelijk geven. Het is zeker waar dat Claude (3.5 Sonnet) zeer capabel is en in sommige gevallen andere en betere antwoorden geeft. Andersom is dit echter ook het geval waar de antwoorden van GPT-4o beter zijn dan die van Claude.

Wel vind ik beide modellen meestal beter dan de andere modellen waar ik ook mee experimenteer.

Om met meerdere commerciële modellen te experimenteren kan je gebruik maken van een dienst zoals OpenRouter die een reseller is van diverse LLM diensten. Waaronder ook openAI en Anthropic.

Overigens gebruik bovenstaande dienst niet voor productie zaken, het blijft een middleman dus qua data input heb je nu niet alleen te maken met de LLM aanbieder maar ook Openrouter. Deze bied wel de optie om trainen op je data uit te schakelen, maar ik vertrouw er nooit op.
Echter prima om mee te experimenteren met low risk data.
Claude is intelligenter als ChatGPT, maar als je grappige ideeën wilt of een brief moet formuleren is ChatGPT nlg altijd de beste naar mijn mening. Maar met Claude kan je uren lang over hele abstracte complexe zaken filosoferen en hij begrijpt alles en vult ook nog genoeg aan
Als je een LLM intelligent(er) gaat noemen en benoemt dat je ermee kunt filosoferen en zegt dat "hij alles begrijpt" dan heb ik écht mijn twijfels over jouw oordeel.

Een LLM is niet intelligent, heeft geen begrip en ik vind het niveau van filosoferen van een LLM ook bedenkelijk.
Ik vrees dat je de capaciteiten van de gemiddelde gebruiker overschat. LLM's overtreffen de gemiddelde gebruiker op superieure wijze in een omvangrijke reeks van disciplines.
Een LLM is 1 grote remix van alle data welke door de mensheid op het internet geplempt is.
“Begrijpen” is toch echt teveel credit.
Het is maar net waar je het voor wilt gebruiken. Ik ben knetter dyslectisch, ik laat het al mijn teksten op werk herschrijven, daar werkt ChatGPT echt fantastisch voor.
Hebben jullie afspraken gemaakt over het gebruik van AI?
Bij ons is het verboden.
Wij hebben een eigen chatbot (en meer) geschreven die werkt op private instances van OpenAI. Al onze data is hierdoor veilig. Het aantal unieke gebruikers per week is aanzienlijk en stijgt nog steeds. Kost net zoveel (minus het schrijven en onderhouden van de chat app) en is een prima alternatief. Wij halen hier superveel waarde uit. Ik kan het ieder bedrijf aanraden.
Het is maar de vraag of het echt een private instance is.
Ja. Zo kan je alles in twijfel trekken. Feit is dat het een contractuele afspraak is en als blijkt dat dit niet zo is dan kan Microsoft (en misschien ook OpenAI) wel inpakken. Fortune 500 gebruikt hetzelfde en die zijn heel goed in claimen. Het is in Microsofts belang om zich aan de afspraken te houden.
Ik trek het in twijfel vanwege de vele controversies rondom OpenAI, het bedrijf zou volgens de mission statement eerder nu iets heel anders moeten zijn. Het kan alleen groeien gebasseerd op hoogwaardige data, iets wat nu niet meer in het publieke domein te vinden is, want di tis toegankelijk voor elke andere partij. Microsoft zelf is ook vaak genoeg betrapt op problemen rondom privacy. Onze data zou ook niet meer in de VS opgeslagen mogen worden maar is door Microsoft toch voor een lange periode gedaan.
Ja, we hebben zo'n enterprise subscription waarbij onze data niet gebruikt wordt voor hun modellen.
AI is toegestaan, mits je verteld dát je het gebruikt. Gisteren heb ik samen met een studente haar code kunnen aanpassen zodat het model nu wél werkt.

Omdat we beiden geen ervaring hebben met het gebruikte framework vroegen we mistral en chatGPT naar mogelijkheden. Dat werkte in combinatie met de hints die we kregen naar de juiste documentatie termen.

We waren nu in twee uur een stuk verder, waar de student anders dagen aan kwijt was geweest, wat het beoogde leerdoel niet ten goede was gekomen.
We waren nu in twee uur een stuk verder, waar de student anders dagen aan kwijt was geweest, wat het beoogde leerdoel niet ten goede was gekomen.
Ik ken -uiteraard- de omstandigheden niet, maar ik heb als (casual) programmeur wel het gevoel dat je heel snel bij het (correcte/gewenste) resultaat komt, maar de opgedane kennis daarom niet even groot is als enkele dagen sukkelen.
Vandaar ook mijn laatste zin.

Het model werkend krijgen was/is prioriteit 1. Het leren van een framework an sich niet. Daar zijn wij dus nu mee geholpen.
Doordat we snel naar de juiste documentatie werden geloodst, hebben we voor ons probleem veel geleerd.

Als het doel is om het framework te leren is AI inderdaad niet de juiste route
Ik heb het zelfde probleem en laat ook mijn texten controleren.
verder heeft die me ook al goed geholpen met wat dingen oplossen in Excel
en ook MQL5 voor Metatrade 5 zonder veel problemen een Indicator voor mij in elkaar geflanst.
Met de gratis versie van Chatgpt.
Ik raad het af. Ze vragen om je telefoonnummer.

Nergens voor nodig.

[Reactie gewijzigd door Hatseflats op 30 augustus 2024 20:24]

Dat doet ChatGPT ook bij het aanmaken van een account, lol. Ik moest het in ieder geval wel invullen.

[Reactie gewijzigd door Anonymoussaurus op 30 augustus 2024 20:30]

Dual SIM toestel met een Lebara SIM erbij.
Voor sidechicks en AI :P
Adje? Ook natuurlijke producten dus :+
Je kan toch gewoon inloggen met je Google account?
Waar ik als antwoord iets mee ben?
Het probleem op dit moment is dat je door de bomen het bos niet meer ziet en heeft dus zo een “first adapter” enorm veel voordeel tot er eentje komt waar niemand om heen kan, een soort google van de zoekfunctie.

Volgens de benchmarks ligt Gemini ook net voor of iig zelfde level als ChatGpt, maar ik heb Gemini een paar keer geprobeerd en dat viel iets tegen. Dan gaat de boer toch eten wat ie wel kent…
Gemini heeft van de week een flinke update gehad, die al geprobeerd?
Haha nemen we die nog serieus sinds al die gekleurde nazi’s en Vikingen?
Nee, niet echt. Maar dat is het probleem, wie houdt alles nou bij? Ik ga het morgen nog een keertje proberen, why not…
Ligt Claude er nu net half uit, of ligt het aan mij?
Ik kan wel een vraag stellen, maar de server lijkt overbevolkt ofzo?
Als je echt iets wil met je eigen documenten, kun je ollama.com gebruiken. Gebruik ik nu ook en het llama3.1 model van meta is erg goed. Ik gebruik het 70b model op de cpu en moet ongeveer 10 minuten wachten op een gemiddeld response. Met tests is het uitlezen en omzetten van bestanden al gelukt (ast naar code). Je hebt voor dat model wel meer dan 40 GB geheugen nodig. Er is nog een beter model maar die gebruikt 800 GB, dat is mij te zwaar en te duur om op de ssd te draaien.
Ik gebruik ze op een enterprise GPU, maar ik moet zeggen dat het nogal hit&miss is. Ansible scripts produceren geven vaak foutieve resultaten.
Het ligt er aan waar je het voor gebruikt. Ik gebruik het met grote regelmaat voor genereren van afbeeldingen, en 1 op 1 live vertalingen mondeling. Daar blinkt het toch echt boven alles uit.
Heb je die mening door het nieuwsartikel welke net voor dit artikel gepubliceerd is of kan je meer concreets meedelen?
Ik gebruik tegenwoordig Perplexity, die geeft ook nog is de bronnen aan waar die de informatie op gebaseerd heeft.

https://www.perplexity.ai
Stiekem gebruik in het best wel vaak. Je krijgt eigenlijk direct een antwoord waar je verder mee kan werken zonder pagina's aan onzin op Google door te werken.

Laatst wilde ik even weten hoe lang het duurde als je met een 1500w verwarmingselement 500 liter water tot 80 graden op kan warmen. Het zou ook wel lukken zonder, maar ChatGPT spuwt het direct uit en laat zien hoe het aan de berekening komt. Het vroeg zelfs voor hoeveel liter ik wilde verwarmen doordat ik geen 500 in de prompt had gezet.

Het enige waar ik bang voor ben is dat ik zonder op te letten zo een halicunatie overneem. Maar gelukkig gebruik ik het niet voor business critical dingen. Meer ter verduidelijking en me een goede weg op te helpen.
Waarom stiekem? Mits je de beperkingen weet en goed kunt prompten super hulp die tijd bespaart en kwaliteit toevoegt. ChatGPT thuis voor de familie, eigen zakelijke versie op de zaak. Gebruik het minstens uur per dag netto (10x nieuwe sessie).

[Reactie gewijzigd door Highlands op 30 augustus 2024 21:07]

en nog steeds 100% onbetrouwbaar
Hoe kan je een percentage daaraan geven? En hoe verschilt dat met een vraag stellen aan een mens of zelf een beetje een halfbakken onderzoek doen op het internet?
Het probleem is dat geen bronvermelding is en als duidelijk uit het nieuw bleek laatst ook vaak foute conclusies getrokken worden door de software (journalist werd beschuldigd van de zaken waar hij verslag van deed).

je kunt niet checken dat wat hij zegt of het klopt zonder het zelf ook uit te zoeken, dus waarom heb je dan AI nodig?

LLM verzinnen verhaaltjes op basis van aangeleerde kennis, leuke gadget, maar ik vertrouw het niet.
Maar dan gebruik je het toch niet om verhaaltjes te typen?

En je bent er nog altijd zelf bij, dus als jij hem vraagt om een tekst die je net hebt geschreven samen te vatten, en in die samenvatting zie je fout, dan kun je dat gewoon aanpassen. Maar juist als je zelf de tekst aanlevert zal hij niet vaak halucineren.

Het is een hele goede grammatica- en spellingschecker en kan ook vrij goed teksten samenvatten en vertalen. En het kan je zeker veel tijd besparen daarmee.
Ik dacht "is 200 miljoen nou echt veel?" dus toch even een grove berekening gedaan.

Even er vanuit gegaan dat de relatieve percentages hier nog vergelijkbaar zijn en even kijken naar de US. 12% van 200 miljoen = 24 miljoen US gebruikers. Er zijn ruim 340 miljoen Amerikanen. Dus zo'n 7% van de Amerikanen gebruikt ChatGPT dan.

Vergeleken met de rest van de top "by region" zit de US daarmee op een relatief hoog percentage ChatGPT gebruiker per inwoner.

In het lijstje met "popular websites" is ChatGPT de enige die niet in de billions zit, dus ruim een factor 10 minder dan de "kleinste" op dat lijstje (Amazon).

Getallen over "cost of operation" en revenues zijn niet publiek beschikbaar, maar gelekt vanuit een interne meeting is een 3.4 biljoen revenues, tegenover schattingen van zo'n 8.5 biljoen uitgaven / kosten, een 5 biljoen verlies op jaarbasis.

Tenzij de operational cost drastisch dalen of het aantal betalende gebruikers heel hard stijgt / de inkomsten per gebruiker heel hard stijgt, zie ik OpenAI niet winstgevend worden. Ook omdat er meer en meer concurrentie komt en de meerwaarde van betaalde versies steeds minder wordt, voor zover er al interesse is in betaalde versies.
Worden alle Apple intelligence gebruikers niet indirect open ai users?
OpenAI gebruikt natuurlijk ontzettend veel resources, en moet hier ook in investeren (ook in hardware). Een AI trainen is een long game.

De cijfers zeggen echt helemaal niets, zo'n aantal. Wat is een gebruiker? Kijk je naar naar API keys? Of kijk je naar hits per IP adres? Kijk je naar username? En wanneer is een fortune 500 ook daadwerkelijk een gebruiker? Het zegt niets over de kwantiteit. Ook niet over het type functie waar ze het voor inzetten (ik gok op customer support :P woohoo daar ben je als klant blij mee ...)
Ja, wat nou precies een gebruiker is, is vrij vaag.

Waarom zo'n verdubbeling op zo'n manier aangekondigd / gecommuniceerd wordt snap ik niet zo goed. Wellicht is het niet meer dan indruk proberen te maken op een bepaald publiek. Als er nog geen 400 miljoen Amerikanen zijn en je roept (als Amerikaans) bedrijf (in Amerika) dat je verdubbeld bent naar 200 miljoen wekelijkse gebruikers klinkt dat best indrukwekkend. De niet al te kritische toehoorder denkt dan wellicht "wow, bijna iedereen gebruikt het".

Als je aankondigt dat je van 3.5% gegroeid bent naar 7% van de (US) bevolking klinkt dat toch minder indrukwekkend.

En inderdaad, wat een "gebruiker" precies is, is niet duidelijk. Zelfs als het om (geregistreerde) fysieke personen gaat, betekent dat nog niet dat het betalende gebruikers zijn.

Vrijwel zeker niet, overigens. Als je 8 biljoen per jaar kosten moet dragen met 200 miljoen betalende gebruikers hebben we het over 40 dollar per jaar, geen hoog bedrag, zeker niet voor professioneel gebruik.
Off topic, maar voor de helderheid: 1 billion in het Engels is 1 miljard in het Nederlands. Dus ik vermoed dat bovenstaande getallen met een factor 1000 verminderd moeten worden.
De getallen zijn allemaal in het Engels gezocht dus dat zou het rekenwerk niet moeten veranderen. Het stukje over revenues / spendings heb ik inderdaad de verkeerde term gebruikt, maar dat is binnen dezelfde eenheid.
Zou leuk zijn als ze konden aangeven waarvoor het werd gebruikt.
Want een groot deel is volgens mij voor het oplichten van mensen.

Zelf heb ik nog niet heel veel nut gehad aan Chatgpt e.a.
Soms eens een programmeer vraag maar hij heeft het vaak fout en is meestal niet in staat om zichzelf te corrigeren.
'this is wrong, i need X' en dan geeft hij vaak doodleuk nog een keer hetzelfde antwoord.
Ik gebruik het vrij vaak. Van programmeer hulp, tot schrijven van tekst opzetjes, tot bijvoorbeeld vragen wat je kunt doen bij een wespennest in je tuin. Het is niet perfect, maar soms echt wel beter dan 20 paginas afstruinen op google op zoek naar een antwoord wat toepasbaar is op jouw situatie...
Het lijkt op dit moment moeilijker om nog nieuwe capabiliteit in LLMs te vinden, dan om bestaande capabiliteit naar kleinere modellen te brengen. Naar beneden schalen lijkt makkelijk dan de andere kant op.

Dus je ziet heel hard dat er een race-to-the-bottom is wie huidig niveau chatbot en RAG naar steeds kleinere en goedkopere modellen kan brengen.

Voor context, GPT 3.5 Turbo was begin maart 2023 gelanceerd voor $2 per miljoen tokens. Ondertussen hebben ze dat model opgevolgd met een (vermoedelijk) veel kleiner GPT-4o mini model, wat tegelijkertijd op veel vlakken veel capabeler is. Voor $0.15 (input) / $0.60 per miljoen tokens.

Claude 3 Haiku was misschien wel een van de eerste modellen die liet zien dat kleine LLMs behoorlijk capabel konden zijn. Dit was slechts in maart dit jaar, en daarna ging het hard: Llama 3 in april met een 8B model (en 3.1 in juli), Gemini 1.5 Flash in mei, GPT 4o Mini in juli en Grok 2 mini is vorige week binnen X losgelaten en lijkt het ook niet slecht te doen. API pricing nog onbekend, maar komt nog deze maand aan (Elon time).

Gister nog kondigde Cohere een update van hun Command R series aan, waarbij ze niet alleen betere performance claimden maar ook de de prijs van het 35B Command R model verlaagde naar $0.15 / $0.60 per miljoen input/output tokens. Exact hetzelfde als GPT-4o Mini.

Ondertussen draait Llama 3.1 8B voor nog geen $0.05 / $0.08 bij partijen als Groq en Deepinfra, terwijl het 70B model ook al vanaf $0.35 / $0.40 beschikbaar is.

OpenAI heeft ook nog wel een leuk trucje bedacht, met de batch API geven ze 50% korting en krijg je je responses in maximaal 24 uur. Voor grote data-mining jobs natuurlijk prima, en het helpt OpenAI om hun servers continue bezet te houden.

Oftewel, LLM inference is goedkoop, en het blijft maar goedkoper worden. Claude 3.5 Haiku komt er in ieder geval binnenkort aan, Meta heeft de volgende alweer geteased, en cloud providers vinden manieren om deze open modellen als Llama efficiënter te laten draaien.
En how handig het ook is, het is gewoon een handige tool om informatie snel op te zoeken, wat op het web al bekend is. Een veredelde informatie echo zoekmachine.

Er zit geen schrijntje intelligentie bij, mocht dit voor sommigen nog steeds niet duidelijk zijn ;-)
Wat ik merk is dat veel mensen het als een soort van vervanger van Google gebruiken als het gaat om het vinden van informatie ergens over. Problematisch is dat dit zeker niet altijd goed werkt over specifiek inhoudelijke dingen. Als het gaat over algemene historische uiteenzettingen is het op zich best aardig in het neerzetten van een kort en bondig verhaal. Ook als het gaat om de technische uitleg van bepaalde zaken. Dat zijn immers zaken die heel concreet te vinden zijn. Gaat het echter om bijv. feiten die minder vaak opgetekend zijn of die je slechts kan vinden wanneer je drie fases moet doorzoeken (verband A en B, B en C, C en D, en dan gaat de vraag over A en D), met relevante feiten ertussen vaak fout. Dan krijg je bijv. een uitleg over een F1 coureur die nooit onderdeel was van een team functioneerde in dat team. Of dat omdat ergens een uitleg rond een SoC in een televisie anders uitgelegd staat, dat dezelfde SoC in verschillende televisies een andere samenstelling zou hebben terwijl dit niet zo is.

Dit is natuurlijk een probleem waar je altijd tegenaan kan lopen met een LLM, maar aangezien veel mensen het als een vervanger van Google gebruiken en niet als een stuk gereedschap, zie ik dit wel als een probleem.

Je ziet het ook bijv. op Nu.nl in de comments, waar mensen zogenaamd een inhoudelijk antwoord willen geven over iets en gewoon iets uit ChatGPT hebben en zonder het te controleren, kopiëren als antwoord zonder even te controleren of het klopt (terwijl je dit met een kleine google search wel degelijk kan doen).
ik gebruik chatgpt voor c++ of python code, of zijn daar betere voor?
Paar kleine woorden en je moet al gaan betalen lols.

Op dit item kan niet meer gereageerd worden.