OpenAI maakt GPT-5 per direct beschikbaar voor Plus- en Team-gebruikers

OpenAI heeft tijdens een livestream zijn nieuwe GPT-5-model aangekondigd. Het bedrijf had eerder deze week al een teaser op X geplaatst die hintte op de release van het nieuwe model. Ceo Sam Altman noemt GPT-5 een 'superkracht op aanvraag'.

OpenAI toont tijdens een livestream dat GPT-5 in SWE-bench, een software-engineeringbenchmark, een score van 74,9 behaalt. OpenAI-onderzoeker Max Schwarzer zegt dat het bedrijf verwacht dat deze scores de prestaties van het model in de praktijk zullen weerspiegelen. GPT-5 behaalt volgens OpenAI een score van 88,0 op de Aider Polyglot-benchmark, die de capaciteit meet van een model om complexe functionaliteiten in verschillende programmeertalen te implementeren.

Tekst gaat verder onder de afbeelding.

Benchmarks GPT-5

GPT-5 behaalt een score van 84,2 in MMMU, een benchmark die test hoe goed AI-modellen complexe, visueel ondersteunde academische problemen kunnen oplossen over verschillende vakgebieden. In AIME 2025, een examen dat Amerikaanse middelbare scholieren maken om deel te nemen aan de Internationale Wiskunde Olympiade, behaalt GPT-5 een score van 99,6. Volgens OpenAI hallucineert het model ook veel minder dan voorgaande modellen.

GPT-5 is direct beschikbaar voor gebruikers met een Plus- of Team-abonnement. Volgende week zal het model ook te gebruiken zijn door Enterprise- en Edu-klanten. Het nieuwe model is ook per direct beschikbaar in de api van OpenAI. OpenAI meldt dat ook gebruikers met een gratis abonnement de beschikking krijgen over GPT-5, maar schrijft niet wanneer dat precies gebeurt.

Zodra gebruikers hun gebruikslimiet hebben bereikt, worden zij automatisch teruggezet naar GPT-5-mini, een lichtere, minder geavanceerde versie van GPT-5. Volgens het bedrijf presteert dit model echter nog steeds op veel vlakken beter dan o3. De gebruikslimieten voor Team-, Enterprise- en Edu-gebruikers zouden ruim voldoende zijn voor volledige organisaties.

Pro-gebruikers krijgen onbeperkte toegang tot GPT-5 en GPT-5 Pro, een versie van GPT-5 met 'uitgebreid redeneervermogen'. Team-, Enterprise- en Edu-klanten krijgen binnenkort ook toegang tot dit geavanceerdere model.Volgens OpenAI moet dat zorgen voor 'nog betrouwbaardere en meer gedetailleerde antwoorden' zorgen.

Benchmarks GPT-5 2

Door Imre Himmelbauer

Redacteur

07-08-2025 • 19:51

92

Submitter: SpiceWorm

Reacties (92)

92
92
43
4
0
37
Wijzig sortering
De discussie hier richt zich nogal op oninteressante "ik heb 'm al, ik heb 'm nog niet"-boodschappen. Maar wat ik eigenlijk wil weten: moet ik mijn software-integraties met ChatGTP omzetten naar model 5? Waar is-ie beter, wat is het voordeel, of wat zou een reden zijn om dat nog niet te doen?

Het zijn vooral nog ronkende marketing-termen 'sneller, beter, hoger' maar daar kan ik geen keuze op baseren om er bedrijfsmatig tijd aan te gaan besteden of niet.
Je kan alleen maar uitproberen en testen om te kijken of het 't waard is. Ik heb gisteren m'n hobby project even uitgeprobeerd (een web app met wat losse prompts voor data extraction en opschonen in een gestructureerd format). Ik gebruik doorgaans de allercheapste modellen (nano, mini) en probeer daar m'n prompts voor te optimaliseren en de boel zo op te splitsen dat het blijft werken. In dit specifieke geval lijkt 5 wel echt een verbetering!
Ik heb een aantal CustomGPT's (My GPT) gemaakt, eigenlijk een chat met een grotere system prompt en wat extra informatie. En aangezien die nu automatisch om zijn gesprongen naar GPT-5 moet ik zeggen dat zelfs mijn oudste CustomGPT's nu ineens een stuk bruikbaarder zijn geworden en ik ze niet hoef te herschrijven.

Het zal ongetwijfeld nuttig zijn om je CustomGPT's eens in de zoveel tijd te herzien maar ik was wel verrast dat het verschil zo groot zou zijn.

Een aantal van mijn use-cases: bug report guide en log analyze
Dat eerste grafiekje heeft een wel heel bijzondere schaalverdeling. GPT-5 zou dat beter doen, hoop ik.
Nou, zeg dat wel... ik ben zo vrij geweest om de grafiek vluchtig na te maken in Photoshop, met de juiste verhoudingen. :P
We staan aan het begin van een tijdperk waarin de kloof tussen rijk en arm niet alleen groter wordt door geld of kansen, maar straks ook door toegang tot intelligentie. De opkomst van superintelligente AI-modellen, zoals GPT-5 en verder, gaat dat verschil alleen maar versterken.

Die modellen gaan serieus geld kosten — denk aan abonnementen van duizenden euro’s per maand — maar ze leveren ook serieuze voordelen op: snellere besluitvorming, betere strategieën, meerdere bedrijven runnen tegelijk, en misschien zelfs een langer en gezonder leven door gepersonaliseerd advies.

Dat wordt het verdienmodel van bedrijven als OpenAI: niet alleen toegang tot kennis, maar toegang tot een strategisch brein dat jou slimmer, rijker en efficiënter maakt dan de rest. En wie kan betalen, krijgt die voorsprong.

Wat mij zorgen baart, is dat ik als niet-Plus gebruiker nu al voel dat ik achter begin te lopen. Alsof de boot vertrekt — en ik nog op de kade sta te wachten tot ik mee mag doen. En dan hebben we het nog niet eens over wat er gebeurt als deze AI’s straks echt het verschil gaan maken in levensverwachting, gezondheid en vermogen.
Waarom gaan ze duizenden euros kosten?
Omdat het met honderden euro's geen winst maakt, alle AI boeren maken nog steeds miljarden verlies en elk nieuwe model vraagt weer meer resources en kost dus ook meer. De prijs die bedrijven en consumenten momenteel betalen is veels te laag, puur zodat mensen het willen gebruiken. Als je de echte kosten zou moeten betalen, zou niemand het gebruiken. Lees de posts hier https://www.wheresyoured.at/ daar kan je er veel meer over lezen, met volledige onderbouwing.
Ik ben zelf vrij sceptisch tegenover AI, maar de link waar je naar vewijst lijkt met niet erg neutraal en geen goede bron.
Het is juist een erg goede bron. Geeft onderbouwing (met bronnen) voor al z'n beweringen én geeft de broodnodige kritiek op het compleet mislukte businessmodel achter generative AI, tegenover het halleluja-geluid wat je normaal gesproken leest en wat meestal een regelrechte copy-paste is van de marketingafdelingen van Anthropic en OpenAI, of een hersenspinsel van Sam Altman.

Kleine edit nog: je hoeft ook niet neutraal te zijn over de economics van generative AI om een goede bron te zijn, je mag daar prima kritisch over zijn, omdat het gewoon een érg érg érg slecht businessmodel blijkt te zijn (behalve voor Sam Altman & co, die worden er prima rijk van)

[Reactie gewijzigd door vickypollard op 8 augustus 2025 18:15]

Ze moeten ergens hun geld gaan verdienen? Nu is een enterprise abonnement al 200 euro, volgens mij kunnen al weinig mensen dat veroorloven. Laat staan wat het gaat kosten in de toekomst.
Een enterprise abonnement is dan ook niet voor jan en alleman maar voor grote enterprise bedrijven
Staat ook wel tegenover dat hele geavanceerde modellen, die relatief veel rekencapaciteit kosten, worden gebruikt voor totale onzin.

Tijdje geleden nog de melding dat berichtjes terugsturen als 'bedankt' al miljoenen per jaar kost op dit moment. Voor veruit de meeste huidige use-cases van AI is een GPT4o bijv. op dit moment nog steeds ruim voldoende. Echter, men moet natuurlijk wel het gevoel krijgen iedere keer weer met het nieuwste fancy speeltje aan de slag te mogen. Een boodschappenlijstje maken, een simpel mailtje tikken of een LinkedIn post schrijven, gaat écht niet ineens 10x beter door GPT5 in te zetten boven een kleiner / goedkoper model.

Dit soort tools moeten vooral intelligenter omgaan met de resources. Veel vragen / meldingen etc. hoeven echt niet constant over het hele model getrokken te worden. Zo'n 'bedankt' melding die ook nog eens de hele context meepompt is daardoor ontzettend zwaar en totaal onnodig, verkwisting van resources. Door efficiënter te kunnen werken en aan te roepen wat er werkelijk nodig is kan het AI werk een heel stuk goedkoper.
Ze moeten ergens hun geld gaan verdienen? Nu is een enterprise abonnement al 200 euro, volgens mij kunnen al weinig mensen dat veroorloven. Laat staan wat het gaat kosten in de toekomst.
Nee hoor, de efficientie van modellen is extreem aan het toenemen. Je kan tegenwoordig al heel goede modellen op een recente gsm zetten (zoals gemma 4nb) en voor laptops of pc's heb je Qwen/Qwen3-30B-A3B-Thinking-2507 (die zelf beter is dan die van chatgpt oss)

[Reactie gewijzigd door sebastienbo op 8 augustus 2025 10:11]

Hardware gaat erg hard nu en over paar jaar draai je de huidige modellen gewoon op je PC lokaal. Ze superintelligent noemen geeft aan dat je er weinig mee gedaan hebt. Ik vind het allemaal meer superdom. Handig als hulp en geeft wat meer productiviteit. Maar AI antwoorden staan bol van de domme fouten en omissies, je moet alles checken. En dan krijgen we een nieuwe industriele revolutie. Mooi toch? Of vond je slavernij, textielindustrie en dergelijke ook beter en moeten we terug in d tijd?
Verwacht je veel (positieve) ontwikkelingen in de shared memory architecturen? In de roadmaps staat er niet echt iets dat mij opviel.
Er zijn heel veel ontwikkelingen op dat gebied;

- GPU's krijgen steeds meer geheugen (niet shared)

- Geheugen delen tussen GPU's wordt steeds sneller (NVLink, PCIe..)

- Laptop's/desktop APU's krijgen steeds meer en sneller shared memory

- NVidea Grace Blackwell Desktop met veel AI rekenkracht

nieuws: Nvidia introduceert AI-desktopcomputer met Grace Blackwell-chip.

- Intel heeft een MAX serie waarbij 64GB werkgeheugen volledig heel snel HBM geheugen is (wel duur ;-)

etc..
Dit model Qwen/Qwen3-30B-A3B-Thinking-2507 werkt zonder problemen op een recente copilot pc of één met gpu, en is heel accuuraat.
De kloof tussen arm en rijk zal inderdaad toenemen, maar dan op een andere wijze. Voor iets te produceren of een dienst aan te bieden heb je altijd een combinatie van arbeid en kapitaal nodig. Door AI zal de verhouding wijzigen en zal het aandeel arbeid (sterk?) afnemen. Waardoor er enerzijds minder inkomsten naar de arbeiders (zonder kapitaal) zal gaan en anderzijds de overheid inkomsten zal missen omdat arbeid momenteel veel zwaarder belast wordt dan kapitaal (kapitaal belasten is ook veel moeilijker wegens o.a. kapitaalvlucht naar het buitenland).

Zonder extra inkomsten wordt de overheid zwakker die vaak een grote rol speelt in de herverdeling tussen rijke en arm door o.a. betaalbaar onderwijs, arbeidsrechten, bescherming bij ziekte enzovoort aan te bieden.

In principe zou dit probleem opgelost kunnen worden door arbeid duurder te maken (hogere lonen voor minder werk) en kapitaal (inkomsten uit AI) zwaarder te belasten. Maar in de praktijk hebben de overheden door de toenemende polarisatie, met als gevolg een versnipperd politiek landschap, veel aan daadkracht verloren. En hebben de kapitaalkrachtigen ondertussen voldoende influence "gekocht" om dit soort besluiten tegen te houden.
Totdat de grote meute het zat wordt en de vraag naar meer "natuurlijke" bedrijfsvoering een vraag wordt. Ook compleet subjectief wat dat precies is natuurlijk, maar wij mensen hebben maar wat graag een alternatief die er recht tegenin gaat.
Het doet me een beetje denken aan die terugkerende nieuwsberichten met “LP’s zijn weer helemaal hip”.

Dit blijft een nichemarkt, terwijl de rest gewoon z’n “natuurlijke” bedrijfsvoering volgt: altijd sneller, altijd “beter” en dat dus in "de toekomst" zonder mensen maar met AI.

Persoonlijk denk ik dat die trend niet meer te stoppen is – elke maand, of zelfs dagelijks, schuiven we verder door. Als we iemand anders het werk kunnen laten doen, pakken we die kans met beide handen aan.
Ik begrijp je zorgen. Echter, ze maken dit 'super' nieuwe model meteen beschikbaar voor zelfs de gratis tier. Bovendien stikt het van de goede open source modellen. Openai heeft er zelf ook een aantal dagen geleden een hele goede beschikbaar gesteld.
Comment gegenereerd met ChatGPT? (—-)

O-)
Waarschijnlijk een browser met geintegreerde AI 8)7
Ja natuurlijk! Corruptie is dan ook een centraal probleem. Corruptie door (ultra) rijke mensen die politici beslissingen laten nemen om zichzelf en de donor te verrijken. Zowel in het buitenland, denk aan: VS, als in Nederland waar bijvoorbeeld huisjesmelkers, chemiereuzen, agro-miljardairs en buitenlandse invloeden veel grip hebben gekregen op politiek en het medialandschap.
En zo is het met bedrijven die voor duizenden euros consultants, professionele belastingontduikers en andere adviseurs inhuren.... dit is niet anders dan eerder...
Het omgekeerde is toch waar? Iedereen heeft nu een specialist in alles tot zijn/haar beschikking. Los van hoe kundig, vroeger had je iemand met programmeer ervaring nodig om te leren programmeren. Nu kan dit echt helemaal zelfstandig en helemaal gratis. Natuurlijk, in de toekomst wellicht anders, maar nu is het juist exact het omgekeerde: iedereen kan nu alles leren en vragen.

Het kunnen leren van iets heeft ook met motivatie (extern) en andere factoren te maken - gegeven. Alleen kennis was nog nooit zo toegankelijk. En om dat dan te presenteren als een kloof, die mis ik echt helemaal.

Want trap niet teveel in de verkooppraatjes van OpenAI en andere AI bedrijven. En zie de eerste slide op 05:23 als bewijs: het bedrijf met een legertje aan PhD AI's kan niet eens een simpele grafiek correct tekenen. Lijkt me voldoende :)
Normaal heb ik al dagen (en soms weken) van te voren het model of nieuwe functie beschikbaar.
Nu zie ik nog niets terug van GPT-5 en ook niet van GPT-5-Mini.

Zal het een nachtje nodig hebben om overal uit te rollen? Maar zeg dan niet 'per direct beschikbaar voor Plus- en Team-gebruikers'.
Hier ook 5 niet beschikbaar. Ik heb nu Grok en GPT dat is simultaan gebruik. Grok maakt iets betere tabeloverzichten en begrijpt betere de fysieke wereld en als ik vraag om een product te zoeken en webshops af te schuimen naar de goedkoopste aanbieder dan heb ik ook betere resultaten out of the box.

GPT heeft ook een deep search functie maar dat is vaak overkill.

GPT kan dan weer beter afbeeldingen interpreteren maar het heeft het ook vaak flink mis terwijl Grok vaker zegt dat hij het niet weet. (Bijv wat is het merk en model van de fiets op de foto). Of soms wil ik een vogel of blad indentificeren. Gaat vaak goed maar vaak ook slecht.

Ook Code schrijven in GPT Canvas is soms lastig. Soms wordt een verkeerde parameter gebruikt, je haalt die er uit en 2 aanpassingen later zit die er weer in. Heel erg frustrerend.

Zodra je zeer specifieke code wil mist het gewoon finetuning op die use case. Het kent dan een library net niet goed genoeg om geen domme fouten te maken.

Het zou goed zijn dat je tevoren weet welke libraries gekend zijn door het model en welke niet want als je daar standaard Python-logica op los laat loopt het mis.

Hopelijk doet de 5 het beter en komen er opties om het te finetunen voor uw usecase.
Ik heb wel de email ontvangen dat GPT5 nu beschikbaar zou zijn voor mij, maar dit was niet het geval. Daar bovenop is GTP4.5 (op dit moment) ook niet meer beschikbaar, terwijl ik daar wel een lopende chat mee had die ik nog niet afgerond had, en ik hoop dat de historie hiervan beschikbaar blijft zodat ik deze kan voortzetten onder het nieuwe model. Zelf gebruik ik het voornamelijk voor boilerplate code en als hulp om sneller door documentatie van 3rd party libraries/frameworks te gaan voor assistentie/referentie, dit werkt voor mij vele malen sneller dan door pagina's aan doxygen en sample codes te bladeren. Ik gebruik een 'teams' abonnement met 2 leden, omdat ik het ook soms voor prive gebruik en niet wil dat mijn informatie gebruikt wordt om het model te trainen.
Hier ook 5 nu:

Mijn eerste vraag was natuurlijk over de rren in Raspberry: “ In Raspberry zit maar één R.
De rest zijn allemaal andere letters, ook al hoor je soms een rollend geluid in de uitspraak.”
Kinderspel: net hottentottententententoonstelling geprobeerd :+
Zelf heb ik ervaring met Claude, die erg handig lijkt te zijn met o.a. Github integraties en zelf documentatie aanleveren. En zelfs als die er niet is (lees: documentatie) maakt 'ie er vaak nog wel iets van.
Of misschien niet beschikbaar in Europa?
Dit staat er bij de help bij ChatGPT:

GPT-5 Rollout

We are gradually rolling out GPT-5 to ensure stability during launch. Some users may not yet see GPT-5 in their account as we increase availability in stages.
Ik heb hem niet in de app, maar wel al op de website.
Bij mij was het net omgekeerd, het was eerst in de app, en een uur later op de website. (Pro account)
Teams account (zelfde user) die had dan wel al de gpt5 webinterface.

Het is dus echt heel eigenaardig hoe die uitrol gebeurd. Duidelijk niet per user en ook niet per subscription type.
Ik heb 5 direct tot mijn beschikking! ChatGPT web (plus) en in de API
ik ook niet. Plus user hier.

Zullen in waves uitrollen.
Ben benieuwd of dit model ook snel in co pilot van Microsoft komt en in perplexity pro
Het zit per direct in copilot
Hoe en waar kan je dit zien?
In de berichtgeving van Microsoft. Linkje
Dat is Github Copilot, niet Microsoft Copilot. Microsoft Copilot heeft het wel.

[Reactie gewijzigd door supertanno op 7 augustus 2025 22:26]

Bij mij staat GPT-5 daar wel tussen, met de tag "preview". Dus ook voor sommigen beschikbaar op Github Copilot.

[Reactie gewijzigd door apokalypse op 8 augustus 2025 07:00]

Ik heb een abonnement op Github CoPilot (voor gebruik binnen Visual Studio), maar was me niet bewust van de site https://github.com/copilot ! Bedankt!

Daarnaast zie ik hier ook al GPT-5 bijstaan. Voor mij is het dus ook enabled.

Nu nog voor ChatGPT zelf... daar 'praat' ik het meeste mee, eigenlijk.
Jammer dat bij de benchmark scores de andere modellen niet weer worden meegenomen, om een snelle vergelijking te kunnen maken.


Ik ben benieuwd, ik zal het morgen maar eens gaan proberen, kijken of er grote verschillen zijn.
Ik heb sinds een tijdje geen X (ja, mij protest), maar bedankt voor het overzicht. Is er een reden waarom Gemini niet in dat overzicht zit?
Geen idee, lijkt de maker van Arc zelf te zijn dus zal ook niets achter zitten lijkt me.

De hele lijst staat zo te zien hier:

https://arcprize.org/leaderboard

[Reactie gewijzigd door jip_86 op 7 augustus 2025 22:26]

Kijk eens aan… dat is nog eens interessant, dankje!


Ik verwacht eerlijk gezegd wel dat Google binnenkort korte metten gaat maken met de concurrentie, gezien zij nu onbeperkt gebruik kunnen maken van synthetische data o.a via Genie 3.
Maak me wakker wanneer er een model uitkomt dat eerlijk kan antwoorden en durft te zeggen "dat weet ik niet" ipv mensen te gaslighten.
Maak me wakker wanneer er een model uitkomt dat eerlijk kan antwoorden en durft te zeggen "dat weet ik niet" ipv mensen te gaslighten.
Of op zijn minst aangeeft in zijn antwoord dat hij het doet op basis van beperkte kennis en niet zeker weet of dit de uitkomst is die hij zoekt, omdat zijn data niet of beperkt toereikend hiervoor is.

Het zou mij in elk geval helpen om sneller dubbel te checken. Alhoewel ik het laatste nog steeds veel doe.
Ik heb het nooit geprobeerd, maar wat als je in je vraag aangeeft dat hij moet aanduiden hoe zeker hij is van het antwoord? Misschien krijg je dan ook wel gewoon een eerlijk antwoord. Of zal hij zichzelf altijd een 100% score geven?
Best bijzonder, ik was altijd redelijk trouwe ChatGPT gebruiker, ondanks dat ik graag experimenteerde met andere systemen. Toen bij de Pixel 9 gratis een jaar hun Pro tier AI gekregen. Was zo slecht dat zelfs als ik bij ChatGPT naar het dommere model moest vanwege de free-tier, het alsnog beter was dan Google's beste model. Nu echt met Gemini 2.5 Pro is het best een flink verschil. Zeker met deep research en de gigantische context window 1M tokens.

Ben erg benieuwd om dit te proberen maar ze zouden eigenlijk een trial uitbrengen om dit te proberen, zou goeie zijn om klanten mee te winnen

edit:
Nouja bijzonder, mildly interesting

[Reactie gewijzigd door DamirB op 7 augustus 2025 19:57]

Voor wat voor werk zet je het in? Want per use case kan het gigantisch verschillen welke AI beter is.
Ik gebruik zelf ook Gemini 2.5 Pro en ben er oprecht van onder de indruk, maar die contextwindow van 1M komt toch wel met een serieuze voetnoot. Na ~250k tot 400k tokens begint hij te hallucineren en te vergeten. Ik moet zijn antwoorden op dat moment vaak meermaals corrigeren en hem bij elke promt herinneren aan eerder gemaakte afspraken ivm hoe het antwoord moet geformuleerd worden.
(ik gebruik het voor code reviews; text reviews; data analyses; en gewoon 'dingen vragen')
Ik heb laatst een boek van 800 pagina's (geen zorgen, heb de rechten) erin geüpload voor een vertaling. Deed alle 800 pagina's. Bizar
Natuurlijk doet hij alle 800 pagina's; ik heb ook nooit anders beweerd. Maar de kwaliteit van het eerste hoofdstuk vs het laatste zal beduidend minder zijn.

Zo zal bij de laatste hoofdstukken referenties of in geval van vertalingen 'specifiek taalgebruik' vanuit de eerste hoofdstukken niet meer consequent geweten zijn. Zeker bij vertalingen is context erg belangrijk.

Als je een vrouwelijk karakter hebt met de naam "Kim" in hoofdstuk 1 en deze komt later terug; kan het zijn dat Gemini naar "hij" overstapt omdat hij niet meer weet dat Kim vrouwelijk was. Ook een karakterbeschrijving kan hij vergeten en afhankelijk van de taal kan een Kim die in een rolstoel zit die in een later hoofdstuk naar een bakker gaat; vertaald worden als "wandelde naar een bakker".

Hij voltooit dus de opdracht, maar de kwaliteit laat soms te wensen over.

In jouw geval zou ik vragen dat hij per hoofdstuk een samenvatting maakt van alle belangrijke feiten om succesvol te vertalen; telkens in een afzonderlijke prompt en dan deze samenvatting aan te reiken samen met een hoofdstuk per prompt met de vraag om deze te vertalen. Zo blijft de kwaliteit zo hoog mogelijk.
GitHub had vanmorgen per ongeluk al wat van deze details gedeeld op hun blog (die daarna werd verwijderd).
Helaas voor mij als Plus gebruiker nog niet beschikbaar, maar ben erg benieuwd zodra het beschikbaar is. Hopelijk denkt het eens een stuk meer na dan bij het 4o model. Daar luistert het echt amper tot niet naar jouw input wanneer je hem wijst op fouten. Dat ging bij 4.5 al duizend keer beter, dus ben erg benieuwd bij GPT5.


Om te kunnen reageren moet je ingelogd zijn