Broncode van OpenAI-website noemt komst o3-, o4-mini en o4-mini-high-modellen

OpenAI werkt aan drie nieuwe taalmodellen die binnenkort moeten uitkomen. De modellen o3, o4-mini en o4-mini-high moeten nog voor de release van GPT-5 uitkomen. Dat blijkt uit code op de website van het bedrijf.

BleepingComputer spotte verwijzingen naar de drie modellen op de webpagina van ChatGPT. In de code staan verwijzingen naar modellen die o3, o4-mini en o4-mini-high heten. Veel informatie is daarover niet bekend, maar de naamgeving duidt op verbeterde versies van de huidige modellen.

OpenAI heeft momenteel het o3-mini- en het o3-mini-high-model. Die modellen kwamen in februari uit en zijn bedoeld als bredere redeneringsmodellen die tonen hoe ze tot antwoorden komen. De o3-mini-modellen zijn opvolgers van o1-mini. Daarvan zouden o4-mini en o4-mini-high weer verbeterde versies kunnen zijn, al is niet bekend hoeveel sneller of beter de modellen zijn.

Daarnaast noemt OpenAI ook het o3-model. Dat ligt aan de basis van o3-mini, maar een volwaardig model is daarvan tot nu toe niet uitgekomen.

De aanwijzingen komen niet helemaal als een verrassing. OpenAI-ceo Sam Altman zei eerder op X dat het bedrijf 'in de komende weken' o3 en o4-mini wilde uitbrengen. Dat zou nog gebeuren voordat GPT-5 uitkomt, want volgens Altman 'binnen enkele maanden' zou moeten gebeuren.

Door Tijs Hofmans

Nieuwscoördinator

11-04-2025 • 16:33

40

Submitter: wildhagen

Reacties (40)

40
40
12
0
0
27
Wijzig sortering
Misschien een stomme vraag maar waarom zoveel verschillende modellen? Hoe weet je nou welk model je moet gebruiken ?
Het is eigenlijk zeer simpel.

Hoger nummertje = beter.
Staat de "o" voor het nummer = reasoning model
Staat de "o" na het number = geen reasoning model.
Is hoger ook echt beter? Buiten om reasoning is o1 volgens mij ook beter dan GPT3 bijvoorbeeld.
Volgens mij zou elk nieuw AI model automatisch alle voorgaande modellen moeten omvatten waarbij het "nieuwe model" wordt gemaakt door slechts een set afwijkende condities.
Hoe echt is deze zakelijke hype?

[Reactie gewijzigd door blorf op 11 april 2025 18:14]

Nee want dan zou het altijd duur blijven. Kleine modellen zijn goedkoper, de truc is om te kijken (prompten) of jou usecase werkt op een zo goedkoop mogelijk model.
Generatief valt helemaal af. Dat is een veredelde zoekmachine. Waar het om draait is redeneringsvermogen. Ik moet zeggen dat ik nog weinig gezien heb wat daadwerkelijk voor ontwikkelen doorgaat. En dat is hoe dan ook een probleem want als bepaalde conclusies uit software een zekere waarde blijken te hebben gaat geen enkele for-profit AI-organisatie dat zomaar aan gebruikers geven.
Generatief valt helemaal af. Dat is een veredelde zoekmachine
Was het dat maar. Google search is nu voor het grootste gedeelte onbruikbaar geworden doordat het zo hard faalt in het geven van een correcte respons.

Google heeft zichzelf keihard in de vingers gesneden door google search resultaten gewoon heel slecht te maken.
Mijn voorkeur ligt nog steeds bij zoekmachine's. AI's geven zoveel onzin dat alles uiteindelijk meer werk is. Je kan plaatjes genereren op basis van een prompt en een random factor. Vraag vooral geen exacte technische informatie...
Zo simpel is het absoluut niet!!!
Wat je zegt in basis klopt wel, maar is verre van volledig, ivm varianten als mini, mini high, pro, deep research. En sommige functies stoppen ze willekeurig in het ene wel en andere niet. Zo heeft 4o die nieuwe image generator, en 4.5 nog de oude, en de andere modellen allemaal niet. Het ene model kan wel op internet zoeken en het andere niet. Per model is het ook verschillend of je wel of geen bestanden kan uploaden en welke. Sommige modellen kunnen wel exporteren naar word/excel, andere niet.....
Om het je nog moeilijker te maken.
Waarom zou je je keuzes beperken tot openAi. Terwijl je ook llama, Mistral, deepseek, grok, etc. hebt als model makers. En daarvan dan weer finetunes en afgeleiden.

En wil je dan de grote of kleine varianten hebben. Met 70 biljoen parameters of een kleinere 7Biljoen genoeg die je thuis mischien lokaal nog kan draaien op je goedkope Nvidia 4090. Maar geef toe. Echte stoere kinderen spelen met een cluster van 5 a 6x H100 AI acceleratoren. Voor dat geld kan je in Amsterdam een mooie garagebox kopen.

Dus ja... Veel keuze.

Maar wat openAI betreft.
Als je wilt dat je model een beetje nadenkt voor die begint met antwoord uitsturen, dan pak je het laatste reasoning o3 model. Wil je meteen antwoord of een grotere kennisbank pak je de laatste gpt. Wil je dat maar iets sneller, dan pak je de mini variant.

Echter zit de grote kracht van AI modellen in de integratie ervan met andere platformen en tools die het ter beschikking krijgt. Jij ziet dat niet als ChatGPT gebruiker. Maar als je ze gaat integreren binnen workflows, dan krijg je de keuzes van hoe duur een model mag zijn voor de taak die die heeft. Moet die een stappenplan gaan bedenken met de tools om een resultaat te maken, dan mischien een reasoning model uitproberen, moet die lekker beginnen, dan kan een gpt-4o-mini leuk zijn om mee te beginnen.

...
...

Dit antwoord help je niet hè. XD.
Dit antwoord help je niet hè. XD.
Maar doet mij wel beseffen dat er nog slimmerikken zijn gelukkig
Staat in de dropdown bij het kiezen van het model, waar het model specifiek goed in is.
Elke versie heeft zijn eigen specialiteiten. Ik gebruik bijvoorbeeld o1 voor het maken van scripts, het maken van handleidingen, het helpen configureren van servers, dat soort zaken. Ook denkt het o1 model meer na over zijn eigen antwoorden. Of zoals ze het zelf noemen; redeneren. Maar er zit echt 0,0 emotie in o1.

4o daarin tegen is prima voor 99% van alle doorsnee vragen wat vooral de doorsnee consument erg prettig vind. De virtuele psychiater, de wikipedia, de receptenkoning, maar echt nadenken over zijn eigen antwoorden en of ze echt kloppen doet het niet direct. Ook hem wijzen op fouten en hem zelf laten nadenken wat het goede antwoord dan wel kan zijn zit er bij dit model niet echt in.

Elk model heeft dus zo zijn eigen kracht.
Om dezelfde reden dat je niet met een sprinter de baan op gaat en met een Ferrari niet de weekboodschappen doet.

Het probleem zit m denk ik in het feit dat het niet mogelijk is om in één oogslag te weten welke mogelijkheden er zijn en welke het beste voor welke taak is.
Ze hebben al aangekondigd vanaf versien5 geen ingewikkelde modelnamen meer te gebruiken. Dan heb je slechts 1 model-interface die afhankelijk van je prompt en abonnementsniveau het juiste model selecteert.
Omdat elk AI lab zo snel als mogelijk zijn nieuwste model aan de wereld wil laten zien, de concurrentie is groot en nieuwe modellen komen op hoge snelheid uit.

Het is denk ik ook nog een beetje tussenfase / kinderschoenen, is denk een kwestie van tijd voordat er een soort mini model komt welke op basis van je vraag deze transparant doorstuurt naar het meest geschikte model en antwoord geeft zonder dat de gebruiker dit nog merkt
Sommige modellen zijn foundational models, dus basismodellen waarop andere modellen gebaseerd worden.

Bijvoorbeeld. GPT4 is een basismodel. Een groot en algemeen model. En o3-mini is een denkend specialistisch model, gespecialiseerd in programmeren en wiskunde. GPT 4o is een gedistilleerd model, dus een kleiner model met bijna even veel kennis en intelligentie als het foundational model waar het van gedistilleerd is. En GPT 4.5 is het nieuwste foundational model van OpenAI. Elk model heeft z'n eigen sterke kanten, voordelen en nadelen.

Nu is het nog zo dat we zelf kunnen kiezen welk model we voor welke taak willen gebruiken, maar vanaf GPT5 zal de AI die beslissing voor je maken. Ik kies liever zelf welk model ik voor welke taak wil gebruiken, dus hopelijk blijft dat mogelijk.

[Reactie gewijzigd door Arcane Apex op 13 april 2025 18:36]

Ik ben een beetje het overzicht kwijt wanneer je nou welke het beste kan gebruiken. Handig als je eerst je prompt/vraag zou kunnen stellen en dat hij dan zelf de beste zou adviseren/inschakelen. Maar hoop dat dat bij 5 gebeurt
Een model om te bepalen welk model je nodig hebt/het beste kan gebruiken :X
Dynamisch vaststellen hoeveel/of er tokens gespendeerd worden aan 'redeneren' is het hele idee van GPT-5 nieuws: OpenAI wil redeneermodellen en GPT-serie combineren in GPT-5

Maar daarnaast zal de overweging om voor bijvoorbeeld mini varianten te kiezen blijven bestaan, vaak is een minder goed maar 100x goedkoper resultaat prima.
Kunnen we niet gewoon aan het model vragen in zijn eigen source code te zoeken naar info over nieuwe releases?
Ja dat kan je wel vragen. Maar als de data er nooit in is gezet krijg je of dat als antwoord of hallucinaties.
Waarom zijn werkelijk alle AI bedrijven zo ongelooflijk slecht in naamgeving van hun producten?
Ik vrees dat dit een probleem is van bedrijven in het algemeen ;). Er zijn overal voorbeelden van inconsistente of onlogische naamgeving. Denk aan Apple met plus, pro, max, pro max, ultra; of Microsoft met Windows 95, 98, 2000, XP, Vista, 7, 8, 10 en 11. Talloze voorbeelden
Xbox, Xbox 360, Xbox one, Xbox series X...
Hoe zou jij ze benoemen?
Je kunt gewoon vragen aan ChatGPT zelf welk model het beste is voor jouw toepassing
Misschien hebben ze ChatGPT gevraagd om het volgende model te schrijven :+
Maar aan welk model moet je die vraag dan stellen? :P
Wat mij betreft sleutelen ze eerst eens aan de interface. Navigeren door de tekst zou ik al heel blij mee zijn.
Ze zouden toch alles samenvoegen tot 1 model?
Mijn eerste reactie was
'er is toch al een 4o en 4o-mini?'

Snel daarna kwam de realisatie dat het gaat om o4 en o4-mini, maar het is een praktisch voorbeeld van het bijhouden/onthouden van de wirwar aan modellen en hun namen.

[Reactie gewijzigd door stenkate op 11 april 2025 19:12]

Voor de echte AI tweakers, bestaat er een model waarbij AI plaatjes kan tonen uit geleerd materiaal? Bv plaatjes uit een boek? Mij is verteld dat dit niet kan met de huidige openbare modellen, maar zo moeilijk lijkt me dat niet?
Ik begrijp je vraag niet helemaal, wil je nieuwe plaatjes genereren op basis van eerder geleerde tekst, of zoek je een bronvermelding?
Nee eigenlijk heel simpel, een plaatje tonen welke al gemaakt is. Bijvoorbeeld een plaatje uit een boek. Dan vervolgens bij een bepaalde prompt dat AI dat plaatje kan laten zien.
Ah, nee dat kan inderdaad niet. Simpelweg door hoe de modellen werken. Deze slaan namelijk niet letterlijk de brongegevens op. Voor het voorbeeld zoals dit werkt voor tekst, maar het concept is hetzelfde voor afbeeldingen, video of audio. Er worden enkel verbanden opgeslagen in de vorm van vectoren.

Heel versimpeld gezegd wordt een stuk tekst (of ander soort data) dus opgeslagen als:

[0.0023574829, -0.0089263781, 0.0237461925, -0.0176429346, 0.0312587643,
-0.0045126537, 0.0198365471, 0.0276154389, -0.0134267583, 0.0087653291,
0.0312587643, -0.0278546193, 0.0187635492, -0.0098726354, 0.0245678912]

Waarbij dus enkel verbanden tussen woorden, afstand tot woorden, combinaties van woorden en dat in heel veel lagen opgeslagen. Kortom hieruit kan je nooit meet het origineel destilleren, maar nadat je terabytes aan tekst ingelezen hebt wel goed voorspellen wat het meest logische volgende woord (of antwoord) is op een vraag. Zodoende zou je LLM's dus oneerbiedig dus ook goede woord voorspellers kunnen noemen, dat is in feite wat het plat gezegd wat ze ook zijn. Deze zelfde techniek werkt dus ook voor afbeeldingen.

Wat uitgebreider: https://thenewstack.io/th...rs-tokens-and-embeddings/
Duidelijk. Toch jammer want het is naar mijn inziens een behoorlijke beperking. Een plaatje zegt soms meer dan duizend woorden. Het lijkt mij technisch gezien ook niet heel lastig, maar dat kan aan mij liggen.

Plaatjes worden dan zeer waarschijnlijk ook op dezelfde manier gemaakt door AI? Ik merk dat chatgpt hier enorme moeite mee heeft. Vooral plaatjes met simpele tekst is echt een drama. Dan heb je een perfect plaatje maar zijn een paar letters verkeerd en ben ik 30minuten aan het prompten om dat goed te krijgen. 9/10 lukt het gewoon niet en had ik het plaatje net zo goed zelf kunnen maken. Ook voor een cover van bv een boek is het een drama. Ook het genereren van een plaatje duurt erg lang dus je zit te wachten of je moet weer iets anders gaan doen ondertussen.

Ik blijf soms gewoon 30min hangen op 1 letter die verkeerd staat. En AI geeft duidelijk aan dat hij begrijpt wat ik bedoel, maar toch lukt het niet om het goed te krijgen. Is het eindelijk gelukt zijn de plaatjes corrupt na het downloaden. Ook al meerdere keren gehad. Kost echt zoveel tijd. Of ik doe iets verkeerd maar het kost mij nu meer tijd ivm dat het tijd oplevert.
Het nieuwe afbeelding model van openai (volgens mij ook in de gratis versie van chatgpt) doet het echt heel veel beter dan de vorige versie. Deze is +- 2 weken geleden gelanceerd en zeker de moeite waard om te proberen en kan je ook referentie afbeeldingen meegeven als voorbeeld.
Het zal misschien aan mij liggen maar dat model gebruik ik al (4o) en heb een premium account.
Ik ben erg benieuwd hoe deze modellen gaan presteren en hoe groot de verschillen zijn met de huidige modellen.


Om te kunnen reageren moet je ingelogd zijn