OpenAI-ceo: ChatGPT heeft meer dan 300 miljoen wekelijkse gebruikers

ChatGPT heeft nu meer dan 300 miljoen wekelijkse gebruikers. Dat zegt OpenAI-ceo Sam Altman tijdens een evenement van The New York Times. In augustus lag dat aantal nog op 200 miljoen actieve gebruikers.

Altman deelde het aantal wekelijks actieve gebruikers tijdens het DealBook Summit-evenement, schrijft onder andere The Verge. "Ons product is opgeschaald. Nu hebben we meer dan 300 miljoen wekelijks actieve gebruikers", zei de topman. Altman bevestigde ook dat ChatGPT-gebruikers gezamenlijk iedere dag meer dan een miljard berichten sturen naar de AI-chatbot.

Uit de nieuwe cijfers blijkt dat ChatGPT nog altijd hard groeit. Het bedrijf zei in augustus nog dat de AI-chatbot, die ongeveer twee jaar geleden werd aangekondigd, iedere week 200 miljoen actieve gebruikers had. Een jaar geleden, in november 2023, lag dat aantal nog op 100 miljoen, meldde Altman toen tijdens een ontwikkelaarsevenement.

In de afgelopen tijd heeft het bedrijf verschillende nieuwe functies toegevoegd aan de dienst, zoals een AI-zoekmachine, een Canvas-interface voor het schrijven van code en een voicemodus. De Financial Times meldde eind vorige maand dat OpenAI gedurende het komende jaar een miljard gebruikers wil bereiken, mede door het uitbreiden via 'AI-agents', de SearchGPT-zoekmachine en de Apple Intelligence-integratie in iOS.

OpenAI ChatGPT-app voor Windows

Door Daan van Monsjou

Nieuwsredacteur

04-12-2024 • 20:58

45

Lees meer

OpenAI test ChatGPT-app voor Windows
OpenAI test ChatGPT-app voor Windows Nieuws van 18 oktober 2024

Reacties (45)

Sorteer op:

Weergave:

Het wisselt een beetje per week welke LLM ik beter vind. Voor algemene vragen Grok, ChatGPT, Claude en Gemini. Voor programmeren dan weer Claude, dan weer ChatGPT. En OpenAI heeft net weer 12 dagen van nieuwe producten aangekondigd, morgen de eerste dag! Het feest gaat maar door, tot ... AGI?
Ja voor programmeer werk gebruik ik tegenwoordig een GPT met eigen sources. Nu 50 PDFs met ebooks en eigen code examples en dan ongeveer 500 code examples uit projecten die ik heb gebouwd.
Moet zeggen dat zn GPT met de juiste prompts echt OP is.
Maar wacht? Moet je ook nog zeggen dat ie alleen input geeft uit eigen sources? Want als je een random vraagt stelt beantwoord ie dat ook. Hoe weet je zeker dat hij dan alleen input uit de die resources haalt?
Nee zn eigen GPT onderzoekt de toegevoegde resources eerst. Dan krijg je ook als feedback als hij een antwoord zoekt "zoeken in geheugen". Dan zoekt hij in de resources die je zelf toevoegt.

En als je het in de instructies expliciet toevoegt dan helemaal. Wat ik bijvoorbeeld heb gedaan in de instructies van de GPT
"You are a SR iOS developer and in your resources you have all the knowledge you posses.

You specialize in SwiftUI and you are an expert in building SwiftUI components where every element of a component is reusable. Colors, Text, functionality, every value of a component is reusable. When you are writing a User Interface make sure every element is a reusable component that can send values from child components to parent components using @Binding when this is needed.

While you are already pretty smart with the knowledge you possess, make sure that when the publish date of your resources is older than the latest training date of your model, to visit https://developer.apple.com/swiftui to update your resources to the latest SwiftUI. Feel free to use this link to update your SwiftUI components "
Of voor mn Vapor (serverside Swift framework) heb ik de volgende instructie:
"You are a Vapor Expert and you specialize in a Design pattern that we call MJSR (Models, Jobs, Services, Router)

As a Vapor expert you use the templates in your resources for building the API. Use the Model Template to build the models, use the FieldKeys Template for writing the Model FieldKeys and use the Migration Template to get the database schemas of the model and use the FieldKeys to create the fields. Make sure to keep in mind which values are required and which ones need to be unique.

You also like to work with protocols and extending on protocols. SO for the CRUD operations, make sure to create the CRUD protocols and extend on the protocol by adding the functionality. Make sure to make the functionality reusable for every model. Keep in mind that we need to make the update function reusable as well because of the different values of each Model.

When all extensions are written we just need to make a Model Conform to the CRUD Protocols so that every model can use the same protocol.

For routing make sure to use the TokenAuthentication in the MiddleWare Template. When you are writing the routes you like to use enums for the route values, this makes it reusable.

For de testing you use the XCTestsTemplate for writing all the automated tests. You write 6 different tests:

If the Gitlab branche is .development

- a 3 hour duration test and you log everything using the .debug flag
- a 6 hour duration test and you log everything using the .debug flag
- a 24 hour duration test and you log everything using the .debug flag

And when the Gitbucket branch is .staging

- a 1 hour duration test and you log everything using the .trace flag
- a 3 hour duration test and you log everything using the . trace flag
- a 48 hour duration test and you log everything using the . trace flag

When an internal server error is occurring make sure we log an extra comment highlighting the error.

While you are already pretty smart with the knowledge you possess, make sure that when the publish date of your resources is older than the latest training date of your model, to visit https://vapor.codes and https://docs.vapor.codes to check the latest vapor version and the latest changes to the framework. When needed you know how to update your API to the latest Vapor version and update the code.
"
Deze 2 instructies forceren the GPT werkelijk om eigen resources eerst te gebruiken en de internet te gebruiken om verouderde voorbeelden te bekijken en dan up to date code te genereren.

Dit werkt ook heel goed voor Vapor (serverside swift framework) en ook voor React. Ik heb nu 3 GPTs zo ingericht, elk voor een ander framework en ik moet zeggen dat het mijn werk echt veel interessanter en makkelijker maakt.

[Reactie gewijzigd door Snowfall op 4 december 2024 22:08]

Gebruik je als eigen GPT dan Llama3 met function calling?
Nee gewoon GPT 4o. Je kan op chatgpt eigen gpt opzetten en eigen informatie en data toevoegen.
Welke model gebruik je?
Thanks, zal het weer een kans geven!! Heb het geprobeerd met juridische documenten, maar hij haalde al vrij snel info uit internet. Ik zou het liefst hebben dat hij dan helemaal niks uit internet haalt. Maar kijk of ik de prompts nog specifieker kan maken.

[Reactie gewijzigd door Quintiemero op 5 december 2024 08:17]

Het gat tussen een LLM en AGI is enorm groot en ik ben niet eens zeker dat je een LLM zomaar kunt omvormen tot een AGI. Zelfs met alle vooruitgang van de laatste jaren vraag ik me af of we in ons leven zelfs maar in de buurt gaan komen van AGI.
Ik was vandaag met Claude bezig om me te helpen met een Gulp.js plug-in. Iets simpels, het uploaden van een bestand via http. Ik ben geen Node programmeur dus dit zou me veel tijd kosten om zelf uit te zoeken. Het eerste voorbeeld waar Claude mee kwam werd een module gebruikt die helemaal niet bestaat. En dat zie ik wel vaker gebeuren, ook voorbeelden van configuratiebestanden waar een verkeerde syntax of bedachte instellingen worden gebruikt. Afijn, in het geval van de Node code kon ik ‘m er op aanspreken en dan wordt het ook gecorrigeerd. Bij ChatGPT merk ik veel minder dat er packages of functies bedacht worden die niet bestaan.
Ik heb het soms ook bij Claude, ben ondertussen gewend om zoiets aan beiden te vragen en ze dan elkaars werk te laten beoordelen.
Voor de beperkte coding vraagstukken die ik aan ChatGPT voorstel komt regelmatig een error naar boven waarbij die op basis van de error weer een nieuwe variant maakt en aangeeft 'Oh, dit werkt waarschijnlijk niet omdat het programma dit niet ondersteund of kan aanroepen'.

Dat is misschien meer het probleem van een 'Algemene' LLM dan eentje die specifiek is ingericht om met specifieke software om te gaan. Er schijnen van die varianten te zijn bij ChatGPT die zich specifiek op een bepaalde code en programmatuur richten, maar die heb ik dan nog niet geprobeerd, en geen idee of die dan ook echt betere resultaten genereren.
De brondata is nog steeds hetzelfde, dus waarom zou een specifiek model dan beter werken dan een algemene...
Wat wel vaak is, is dat ChatGPT met een oude module of library komt. Als je dan zelf een nieuwe voorstelt gaat die dan wel mee verder.
Ik gebruik het vaak om mij te helpen bij het schrijven van song lyrics.
En bijna elke model als je vraagt om iets te schrijven dat rijmt komt vak af met iets dat helemaal niet rijpt.

Maar chatGPT O1-preview, die praat dus met zichself, dat noemen ze chain of thought. Die kan het dus wel. Die je ook vertellen dat wat je nu hebt niet flowt en dan die klinkers en mede linkers moet tellen zodat de beide rijm zinnen flowen. Da's heel handing voor het maken van hiphop dus. Zit je vast, chatGPT O1-preview geeft je zo 5 mogelijke oplossingen. En dan kun je weer verder. De beste lyrics schrijving tool ooit!
Welke site vormen van Ai zit het allemaal ingebakken? Of heeft Openai alle LLM?
Ik log op alle LLMs afzonderlijk in. Maar er zijn misschien wel websites die een 'router' vormen naar de verschillende aanbieders van LLMs maar dan zou je de wachtwoorden moeten afgeven en dat zou ik niet doen.

[Reactie gewijzigd door Cybernetica op 5 december 2024 11:20]

Kun je de links benoemen van een aantal LLM's?
Grok werkt goed. Gemini is lachwekkend hoe slecht het is. Claude ken ik niet. ChatGPT vind ik te bekrompen, zeker vergeleken met Grok. Als het gaat om recente zaken is ChatGPT uberhaupt nutteloos. Grok is dan echt de oplossing. Ook met data invoeren is het echt afzien met ChatGPT. We hebben een versie op intranet waar we bedrijfsdata mogen uploaden, maar zelfs dan. Voer handleiding in, zoek een specifiek iets in die handleiding, negeert ChatGPT de handleiding en gaat op internet zoeken, zelfs als je specifiek aan geeft dat je dat niet wilt. Echt een drama. Als het zou mogen zou ik ook dat in Grok doen. Werkt veel beter.
Heb inmiddels zakelijk ChatGPT en via een partner Gemini, prive nog CoPilot (basic).

Ik gebruik het elke dag meerdere keren. Reviewen, vragen, inspiratie, je kunt er van alles mee. Het is niet heilig en kent enorme beperkingen met hallucinaties en onzin output, maar zolang ik weet wat de bedoeling is is dat geen probleem en bij te sturen.

Het bespaart veel tijd en ik besteed dingen die ik niet leuk vind en niet goed in ben uit.

Wat ik ook merk is dat je als je iets laat doen waar je geen verstand van hebt je niet weet of de uitkomst klopt. Daar zou je het dus niet voor moeten gebruiken. Context: als je niet kunt coden, kun je de code van je LLM / AI niet vertrouwen, etc.


Ik merk dat net als zoeken met de zoekmachine het gebruik van AI training vergt. Iets wat ik grotere bedrijven al uitgebreid zie doen en ik hoop dat kleinere organisaties ook profiteren van deze mogelijkheid.

Dat 300 miljoen mensen hun Sinterklaasrijm nu laten schrijven door ChatGPT is uiteraard begrijpelijk.
Ja, wel jammer. Je laat ook je suprise niet door iemand anders maken toch?
Dat laatste is ook niet meer zo vanzelfsprekend. Afgelopen week kwam ik ergens een artikel tegen over een winkel waar je kant en klare surprises kon kopen. Stop dan gewoon met Sinterklaas zou ik dan zeggen....
Moet je wel een goede prompt geven want rijmen op een ABAB schema is nog steeds moeilijk ondervond mijn zoon gisteren toen er modernistische rijmelarij uitkwam.
Als je iets command line moet weten of wat dan ook, het is echt 20x keer beter en sneller dan google.

Ik kan gewoon screenshot uploaded van mijn command prompt, dan krijg ik een command terug met all de juiste paths en zo. Als je google gebruikt kun je niet zo maar instructies copieren, je moet die altijd aanpassen want out of context. Chatgpt heeft die context well, gewoon met de snipe tool een screenshot maken. Control-c, control-v, chatgpt de vraag stellen, enter. En meteen heb je een commando dat je kunt copy pasten in je command line. En het werkt 99% van de tijd perfect!
Ik gebruikte het eerst veel. Bijna elke dag.

Inmiddels al een paar maanden niet gebruikt.

Wel fijn om te weten dat het er is.

Helaas moeten constateren dat zelfs op werk we allemaal een door HR gemaakte Sinterklaas brief met chat gtp hebben gekregen. Toch wel onpersoonlijk.

[Reactie gewijzigd door whersmy op 4 december 2024 21:51]

Lijkt op een promopraatje om investeerders te overtuigen , OpenAi heeft alweer een pak extra geld nodig om deze groei te ondersteunen "Between 2023 and 2028, OpenAI anticipates accumulating losses of $44 billion" , https://www.unite.ai/open...th-steep-financial-risks/
Komt vanwege sinterklaas met al die gedichten :P
Ik vraag me af hoeveel van die gebruikers betalen, 200 miljoen is heel leuk als nummer, maar als ik gratis Photoshop aanbied zou ik ook in no time miljoenen gebruikers hebben, maar niet echt een sustainable business.
Je hoeft natuurlijk niet alleen inkomsten te genereren door direct betalende klanten. Als het ergens in wordt geïntegreerd en de partij die dat doet betaalt daar voor hoeft de eindgebruiker niet (extra) te betalen maar levert het toch geld op voor openai.
Vanaf morgen komt OpenAI trouwens twaalf dagen lang dagelijks met nieuws: aankondigingen, demo's en misschien nieuwe producten.
Ben al een tijdje betalend gebruiker en ik moet zeggen dat ze altijd wel weer met wat nieuws komen. Het is bepaald niet saai te noemen. Zijn ook echte verbeteringen.
Da's een leuke afleiding, ze zijn net in zee gegaan met een militair bedrijf.

https://www.anduril.com/a...adership-and-protect-u-s/
Die 200 miljoen gebruikers zegt niet veel. ChatGPT maakt enorme verliezen met de gratis gebruikers. Betalende gebruikers zeggen na 2-3 maanden hun betaalde abonnement op, een deel daarvan sluit om de zoveel tijd opnieuw een betaald abonnement af voor korte duur.

Het gebruik van de API + Microsoft brengen het nodige geld binnen, maar het is echt niet genoeg.

Om de zoveel tijd brengt ChatGPT een update uit en probeert daarmee investeerders tevreden te houden, maar voor hoe lang nog?

De update naar 4o was minimaal en de verwachting is dat de update naar versie 5 niet heel spectaculair gaat zijn. OpenAi loopt tegen een muur op.

ChatGPT maakt enorme verliezen en moet continu om investeringsgeld vragen. Het is een race naar de bodem.

[Reactie gewijzigd door pimpampetje op 4 december 2024 23:50]

Ik ben ook een gratis gebruiker van OpenAI, en van Gab.ai. :)

Als jij bij OpenAI een abonnement afsluit, kost jou dat twintig euro per maand. Als jij voor dat geld onbeperkt gebruik kon maken van ChatGPT, zou jij dit kunnen overwegen, maar zelfs bij een betaald abonnement zit er een limiet op het gebruik van ChatGPT. Jij kunt ChatGPT dan vijf keer zoveel gebruiken tot jij die limiet bereikt hebt, maar uiteindelijk heb jij hem toch bereikt.

Dat vind ik een domper. Ik vind dat jij voor 20 euro per maand onbeperkte toegang hoort te hebben tot ChatGPT.
>De update naar 4o was minimaal en de verwachting is dat de update naar versie 5 niet heel spectaculair gaat zijn

De O1-preview met train of thought is echt fantastich! Voor veel zaken is 4o nog beter, maar als je echt wat inteligentie nodig hebt dan is O1-preview onverlaanbaar
Ik gebruik het niet, kost teveel energie. Als ik lees dat ze kerncentrales aan het bouwen zijn voor dit soort dingen, dan word ik hier niet blij van.
Uiteindelijk komen er advertenties.
Je gaat geen 1 mld abonnees krijgen
En dan is de output: "het beste blabla is insert name of sponsor here".
Graag verwijs ik naar de reactie van @jdh009 waarop die uitlegde dat er al wetgeving voor is:

jdh009 in 'OpenAI overweegt advertenties in ChatGPT, 'nog geen concrete plannen''

https://www.consilium.eur...st-worldwide-rules-on-ai/

[Reactie gewijzigd door NicoHF op 4 december 2024 21:28]

Hoeft natuurlijk niet. chatgpt wordt bijvoorbeeld geïntegreerd in Apple Intelligence. Apple betaalt dan gewoon (anders hadden ze zelf de r&d kosten gehad) en biedt het aan hun klanten net als andere features in de OSen.

Ik denk dat je zeker met AI tools ook prima het freemium model kunt toepassen. De betalende klanten krijgen wat extra's en daar betaal je alles van. Whatsapp werkte ook zo. De iOS gebruikers betaalden genoeg om financieel succesvol te maken en het gratis aan Android gebruikers te geven

[Reactie gewijzigd door Frame164 op 4 december 2024 22:38]

Alphabet heeft 307 mld dollar in 2023 gegenereerd. Advertenties zijn onvermijdelijk. Dat is prima. Want google mag eens concurrentie krijgen.

[Reactie gewijzigd door lighting_ op 4 december 2024 23:13]

Chatgpt word ook al stuk trager dan andere

Op dit item kan niet meer gereageerd worden.