'OpenAI wil GPT-5-model met o3-redeneercapaciteiten in augustus uitbrengen'

OpenAI zou het nieuwe model van ChatGPT, GPT-5, in augustus willen uitbrengen, schrijft The Verge op basis van bronnen die bekend zijn met de plannen van OpenAI. Tegelijkertijd wil het bedrijf ook mini- en nano-versies van het model uitbrengen.

The Verge schreef in februari al dat Microsoft de servercapaciteit opschaalde in aanloop naar de introductie van GPT-4.5 en GPT-5, die toen voor eind mei gepland stond. Nu meldt het medium dat GPT-5 'na wat extra tests en vertragingen' naar verwachting in augustus beschikbaar komt. OpenAI-oprichter Sam Altman zei vorige week al op X dat het bedrijf 'binnenkort' GPT-5 zou uitbrengen.

Naar verluidt geeft OpenAI GPT-5 ook de redeneercapaciteiten van het in april geïntroduceerde o3-model, in plaats van die in een apart model te verwerken. De bedoeling zou zijn om de modellen meer samen te voegen, zodat gebruikers niet voor elke taak het juiste model hoeven te kiezen. Zowel GPT-5 als GPT-5-mini komen volgens The Verge beschikbaar via de website en de api. GPT-5-nano zou alleen via de api gebruikt kunnen worden. OpenAI heeft nog niet gereageerd op de berichtgeving.

OpenAI zou van plan zijn om zijn openweighttaalmodel eind juli uit te brengen, nog voordat GPT-5 uitkomt. Dat model zou oorspronkelijk al in juni verschijnen, maar het bedrijf besloot de release uit te stellen. De laatste keer dat OpenAI een open taalmodel uitbracht, was in 2019 met de release van GPT-2.

Door Imre Himmelbauer

Redacteur

26-07-2025 • 09:49

55

Reacties (55)

Sorteer op:

Weergave:

Hopelijk worden de problemen met de website nou eens opgelost. Zoals het regelmatig moeten verversen omdat ik anders een corrupte afbeelding krijg. Of dat de knop verzenden opeens niet meer beschikbaar is. Of dat hij steeds terug valt dat een afbeelding niet gemaakt kan omdat het tegen de policy is. Wat je daarna dan ook probeert alles is dan opeens tegen de policy. Vervolgens moet je delen en werkt het opeens wel weer.
Tip: gebruik de applicatie.
Is dat niet gewoon een wrapper om de website? Ik kreeg die indruk in het begin en heb het daarna niet meer geprobeerd.

[Reactie gewijzigd door vickypollard op 26 juli 2025 10:09]

Nee dat is geen wrapper om de website. Op de Mac is dit merkbaar omdat deze versie functies mist. Op iOS en de web versie heb je bijvoorbeeld Codex, in de Mac versie niet.
Dat wil nog niet zeggen of het een wrapper is of niet. Functionaliteit kan ook worden uitegezet natuurlijk
Klopt, daarom heb ik er ook in gekeken. Het heeft ook geen Electron framework en lijkt wel specifiek voor de Mac geschreven te zijn.
Ik durf niet te zeggen of het een wrapper is. Maar hij werkt wel véél beter dan de web versie op Mac. Ook het feit dat het direct in applicaties kan meekijken is heel chill, als je dit zelf wil.
Moderne websites en apps zijn "wrappers" om een dezelfde api.
Applicatie is niet veel beter, Sora.com is de meest stabiele manier om afbeeldingen te creeeren
De applicatie geeft ook problemen met afbeeldingen downloaden. Moet applicatie ook sluiten en dan opnieuw opstarten. En ik krijg ook afbeeldingen die niet altijd af zijn gemaakt heel erg pixelerig.
Waar helaas geen officiële Linux versie van is, dus niet iedereen kan de applicatie gebruiken.
Via het werk heb ik copilot, maar ook github copilot. De browser versie trekt heel mijn ram en CPU vol (geen idee waarom), merk dat ook op mijn windows workstation (ook met de applicatie). Daarom gebruik ik nu alleen nog maar github copilot vanuit vscode. De gesprekken raken nooit ten einde en het belast het systeem niet zo.
Bijzonder hoe dat werkt.
Er is ook geen versie voor de commodore64, dus zelfs als er een linux versie zou komen kan nog niet iedereen de app gebruiken. 🫨
Dat gaan we eens proberen bedankt voor de tip!
Dit voelt alsof jij ChatGPT enkel gebruikt voor wat afbeeldingen te genereren. Dan kun je beter sora.com gebruiken.
Nee ook testen en ander dingen Tekst heeft die ook moeite mee als je aangeeft dat het minstens 5000 woorden moet zijn bijvoorbeeld liegt chatgpt. Zijn er vaak een stuk minder.
ChatGPT liegt sowieso bijna altijd. Dat moet ook wel, het probeert immers mensen na te doen qua antwoorden.
Als je een AHK script wilt maken, liegt ie aan één stuk door met woorden als correct, werkend.
Ik kan Perplexity aanraden, in ieder geval voor tekst. Naar mijn ervaring zijn de antwoorden van Perplexity beter onderbouwd, duidelijker en vaker correct dan bij Chat GPT.
Laten we beginnen bij chats eenvoudig copy/pasten, exporteren of printen.
En de Android app wil niet eens openen als je geen Google account ingelogd hebt. Dan opent hij Google Play op het inlogscherm en de app sluit zichzelf (play services heb ik er wel op staan maar gewoon niet ingelogd). Inloggen met een openai account (wat ik wel heb) kan dus ook niet in dat geval. Ze bieden "inloggen met Google" maar op de een of andere manier roepen ze dat verkeerd aan waardoor het niet werkt als je geen Google account hebt.

Het is de enige app die ik ken die dit doet. Zelfs die van Google werken gewoon. Het is al sinds het begin zo.

Dus openai verplicht hiermee dat je een account aanmaakt bij hun grootste concurrent 8)7

[Reactie gewijzigd door Llopigat op 27 juli 2025 03:47]

Ik denk dat openai geen tijd steekt in GPT 4.5.
Want stel je hem een uitgebreide vraag dan duurt het enorm lang tot je een antwoord krijgt, en vaak halverwege het antwoord krijg je internal server error en kapt ie ermee.

Ik probeer het al bijna sinds dag 1 van de release, maar er zit amper vooruitgang in. De antwoorden zijn wel top.
Vraag je de AI dan naar de zin van het leven of zo? Het is inderdaad wel zaak om gewoon met een simpele vraag te beginnen en daarop voort te bouwen. Dat werkt gemakkelijker en sneller.
Maar dat kan het ook een richting op sturen die volledig tege producties is. Zeker als je een probleem hebt en een oplossing zoekt. Dan kan een LLM ontzettend blijven hangen in een niet werkende oplossing werkend proberen te krijgen. Opnieuw beginnen en specifieker, en uitgebreider, vragen lost dat vaak wel op.
Ik had voor werk wat vragen, toen ik een heel uitgebreide vraag stelde, kwam er niet echt wat uit, maar bij een andere vraag pakte ik het opbouwend aan, dat werkte veel beter. Bij andere vragen gerelateerd daaraan weet ik nu de steekwoorden die ik moet zeggen om sneller tot een resultaat te komen vanaf vraag 1. :) Het is dus redelijk de kunst om de vragen die je hebt zo samengevat mogelijk te stellen.
Wat ook wil helpen.. is als dit met een verkeerd antwoord komt.. dat je tegen 'm zegt dat tie dom is en dat zijn antwoord nergens op slaat. mijn ervaring leert dat tie dan vaak wel de goede kant opgaat.
Naja. Ik krijg dan nog steeds vaak zat gewoon domme dingen of fouten hoor. Ook met pro is er nog zat af te dwingen op kwaliteit.
4.5 is niet het gangbare model hè, het is een research preview.
Huh ik heb juist de omgekeerde ervaring. Geef alle randvoorwaarden goed aan in je prompt en je krijgt meteen een goed antwoord in plaats dat je hem steeds moet bijsturen waarbij hij vaak de eerdere voorwaarden minder in acht neemt.

Vooral bij deep research belangrijk want dat is duur en als je het niet doet dan heb je een grote kans dat hij een kant op gaat denken waar je niet in geïnteresseerd bent. En dan verkwist je een hoop geld. Ik gebruik nooit abonnementen, ik gebruik de API van verschillende AI's met OpenWebUI, en ook wat lokale modellen erbij.

Dit is een stuk kosten effectiever voor wat ik doe. Simple taken lokaal (samenvatten of assisted search), ingewikkeldere in de cloud waarbij ik de output van meerdere modellen tegelijk kan checken en dat kost me dan per maand een euro of twee per provider.

Overigens nooit zulke problemen gehad.

[Reactie gewijzigd door Llopigat op 27 juli 2025 03:54]

dat is toch gewoon 42?
GPT-4.5 is een gigantisch groot model, iets van 10x GPT-4 (door voorloper van GPT-4o). Ze hadden gehoopt dat die dan ook heel veel meer kon leren. De verbeteringen aan de trainingsdata hebben ze in GPT-4o doorgevoerd. Er bleek nog heel veel ruimte om te leren in GPT-4o te zitten. De verschillen in antwoorden ten op zichte van GPT-4.5 zijn vrij subtiel, en eigenlijk niet de moeite waard..
Jammer dat er in het hele artikel niet gesproken wordt over wat GPT-5 (naast het samenvoegen van o3) nou aan extra functionaliteiten met zich meebrengt en de verschillen met 4.5.

voelt als een leeg artikel zonder inhoud of echt nuttige info.
Omdat het nog niet bekend is, maar een stap naar een nieuwe volledige versie (5 ipv 4.5) hoogstwaarschijnlijk weer een grote technologische sprong is.
voelt als een leeg artikel zonder inhoud of echt nuttige info.
Net als ChatGPT zelf :p

Maar ik zou idd graag een goed achtergrondartikel zien waarin nu precies de verschillen tussen alle modellen worden uitgelegd met praktische voorbeelden.

Ik ben namelijk nog steeds benieuwd of ik nu verkeerde modellen of verkeerde prompts gebruik gezien de resultaten - voor mij als schrijver/editor - over het algemeen compleet bagger zijn en me misschien net een half uur werk per dag besparen (omdat ik 80+% moet herschrijven)
Ja dat weten we dus nie want daar is niks over bekend. dus moeten ze dat gaan verzinnen ?
tot dus toe is 4.1 naar mijn mening het betere model voor scripting en programmeren. het houdt het gesprek beter vast (vergeet minder snel), doet minder snel fantaseren, is consistenter qua output.

o3 was een duidelijk mindere, dus verwacht ik niet veel van gpt5

[Reactie gewijzigd door Don Key op 26 juli 2025 10:11]

Mijn ervaring is als iemand die tientallen uren per week Python programeert zonder die taal te doorgronden dat o3 veel krachter is dan 4.1. Het probleemoplossend vermogen van o3 en refactor zonder verlies van functionaliteit is veel sterker. Nu moet ik wel zeggen dat bijvoorbeeld Grok of o3 in een Windsurf veel zwakker zijn dan in de browser. Doen overduidelijk veel minder moeite.
Mijn ervaring is als iemand die tientallen uren per week Python programeert zonder die taal te doorgronden <knip>
Bedoel je dat je tientallen uren per week Python code laat genereren zonder dat je zelf Python kan?

Want in dat geval ben ik dus echt super benieuwd wat je er dan mee doet. Is het voor professioneel gebruik of privé hobbies? Hoe bepaal je wat goed is, of goed genoeg? Gebruik je agents en zo ja wat is je workflow hiervoor?
Ik heb een winstgevende arbitrage bot draaien op een 15tal blockchains die in minder dan miliseconds transacties uitvoert, tot duizenden per dag. Oftewel prijsverschillen wegwerkt. Zit al meer dan 1000u programeren in maar nee ik kan nog steeds geen Python lezen, ik ben niet gemaakt voor programeren. Analytisch denken en kansen zien dat licht mij echter wel.

Wat goed is? Sneller zijn dan gisteren dat is goede code EN dat ik automatisch errors goed afhandel want die zijn er veel in traden op zulke hoge snelheid.
Is het als consument zijnde nog steeds mogelijk om een winstgevende arbitragebot te gebruiken? Ik dacht dat dit al een gespeeld spel was inmiddels en alle professionals ofwel snellere apparatuur hebben ofwel minder latency met de exchanges hebben (aangezien soms elke ms telt).


Nog sterker als zelfs een LLM dit kan doen want dan kan iedereen het. Zolang je maar goede integraties hebt met de blockchains

[Reactie gewijzigd door PaulHelper op 28 juli 2025 03:52]

Dat dacht ik ook altijd, tot ik toevallig langs een aantal kansen kwam en dat kon uitbouwen. Het is absoluut zo dat de grote spelers het overgrote deel van de koek pakken maar ook zij laten bewust of onbewust wat niche arbitrage liggen waar ik dankbaar gebruik van maak. Het zijn gezien de wallets waar ik zijdelings competitie mee heb absoluut kruimels.
Hmm interessant. Zeer nuttig inzicht, niet dat ik het zelf ga doen want ik denk dat ik er niet de tijd/zin voor heb. Wel een mooie (side)hustle natuurlijk als het na setup redelijk moeiteloos gaat. En hoe zit het qua fees, zowel qua inkoop verkoop als wisselen tussen exchanges. Is dat relatief veel of haal je dat makkelijk uit de arbitrage?

[Reactie gewijzigd door PaulHelper op 28 juli 2025 09:36]

Maar Python is ook totaal niet lastig. Tuurlijk kan een wat “minder” model daar dan in uitblinken.


Syntax in Python is erg simpel waardoor een LLM model daar ook veel makkelijker mee overweg kan.
Dan doet niets af aan mijn punt. Ik vergelijk grok3 met claude 4 en o3 en aangezien ik niet kan programeren zet ik vaak alle drie de modellen parallel in en laat ik ze elkaars oplossingen beoordelen. Meestal vinden alle drie de modellen dat de oplossing van o3 superieur is. Ook al ik 4.1 erbij gebruik. Dat is mijn manier van programeren als niet-programemeur. Geeft dezelfde context en vraag aan meerdere modellen tegelijk en laat ze elkaars suggesties beoordelen zonder uiteraard te zeggen dat de suggestie van een ander model komt.
De 4.1 nano en 4.1.mini zijn via de api uitstekend en goedkoop!


Met OpenWebUI in een docker en je kunt je openapi api delen met je familie. Ik doe dat met de 4.1 nano, echt mooi spul.
Wat is het voordeel ten opzichte van een gewone account?
Je deelt de open api via 1 kanaal met meerdere op tegeod basis, en het is goedkoper. Bovendien worden chats via de api niet gebruikt voor training doeleinden, aldis openai beleid.
Als de huidige nummeringssystematiek aanhoudt, bereiken we snel versies als OpenAI 20. Gezien de frequentie van updates met nieuwe nummeringen, zou het logischer zijn om de cijfers minder snel op te hogen en alleen bij zeer ingrijpende wijzigingen een nieuw hoofdcifra te introduceren.
Het is geen update o.i.d. het is een ander getrained model dus de benamingen zijn opzich best duidelijk (buiten om elke taferelen er eerder zijn gedaan)
Voor GPT5 worden de gewichten ook openbaar, dat wil je niet verwarren/mengen met andere modellen.
Wat is er mis met OpenAI 20?
Ze kunnen beter tijd steken in het verbeteren van de stabiliteit. Er zijn veel te vaak problemen. Zelfs ChatGPT Enterprise ligt er soms uren of zelfs dagen uit.
De term "binnenkort" is vrij rekbaar in het land van Altman en zijn zelotenleger. Maargoed, stakeholders moet je aan het lijntje houden, dus gooi er maar weer een belofte in.
ChatGPT is super vooruitstrevend maar heeft een beetje te lijden onder het succes (Wat is die voice chat GOED! Bizar). Het is een beetje een synoniem voor "AI toepassingen" geworden, en dat vind ik wel weer een beetje jammer. De hele EU ligt toch wel wat te slapen hoor... met name Nederland, sjonge jonge. Eerst even regels bedenken en dan kijken of we daar binnen nog wat kunnen innoveren. Goed, ik ben zelf developer en ik doe er ook geen fluit aan dus ik mag eigenlijk niets zeggen

Uit pure koppigheid gebruik sinds een tijdje "Le Chat" mistral.ai (Hon hon hon! Baguette niet meegleverd) - reageert bliksemsnel, kan zoeken online, researchen etc, maar als je een langer gesprek voert merk je dat hij last heeft van de toenemende grootte van de context. Het loopt echt 3 stappen achter op ChatGPT - maar 2 maand geleden was het nagenoeg onbruikbaar en zo dom als een kakkerlak. Ze optimaliseren het super snel. Het is goed genoeg voor al mijn "help mij met technisch probleem x y z"
'k denk dat Chatgpt en consoorten tegen een limiet zitten te lopen die ze niet opgelost krijgen met de wonderoplossing die hen de huidige resultaten heeft opgeleverd: gewoon meer en meer data toevoegen.

'k gebruik LeChat al even en moet zeggen dat voor wat ik die taalmodellen gebruik (taalverbeteringen), ze echt wel goed zijn. Misschien dat ik nog meer moet leren de meerwaarde er sneller en beter uit te halen, maar toch...dat je niet weet wanneer die eigenlijk gewoon woorden lotto speelt maakt het moeilijk om erop te vertrouwen over domeinen die'k ni beheers, en die da'k wel beheers stel ik hen geen vragen over...

Op dit item kan niet meer gereageerd worden.