OpenAI heeft de openweightredeneermodellen gpt-oss-120b en gpt-oss-20b uitgebracht. De modellen zijn beschikbaar onder de Apache 2.0-licentie. Het 120b-model bevat in totaal 117 miljard parameters, terwijl het 20b-model 21 miljard parameters heeft.
De gpt-oss-120b- en gpt-oss-20b-modellen zijn beide beschikbaar via GitHub. Het gpt-oss-120b-model behaalt volgens OpenAI 'bijna' dezelfde resultaten als o4-mini op benchmarks voor kernredeneringen. Volgens het bedrijf kan dit model goed draaien op een enkele gpu van 80GB. Het gpt-oss-20b-model levert volgens OpenAI vergelijkbare resultaten als o3-mini en kan draaien op apparaten met 16GB vram.
Beide modellen maken gebruik van mixture of experts (moe), waarbij aparte submodellen van een model worden gespecialiseerd in een bepaalde input of taak. Dit zorgt ervoor dat er per invoer minder actieve parameters nodig zijn. Volgens OpenAI gebruikt gpt-oss-120b 5,1 miljard parameters per token en gpt-oss-20b 3,6 miljard.
Het is voor het eerst in zes jaar dat OpenAI een open taalmodel uitbrengt. Het laatste open taalmodel van het bedrijf was GPT-2, dat in 2019 verscheen. OpenAI kondigde eind maart aan dat het in de komende maanden een open taalmodel zou uitbrengen. In juni maakte het bedrijf bekend dat de release vertraging had opgelopen.