OpenAI zegt dat o3 meer hallucineert dan het o1-taalmodel. De AI-onderzoeksorganisatie zegt ook dat o4-mini minder nauwkeurig is dan o1. OpenAI schrijft dat er meer onderzoek nodig is om de oorzaken te achterhalen.
OpenAI heeft o3 en o4-mini naar eigen zeggen op nauwkeurigheid en hallucinaties getest via PersonQA. Dat is een evaluatietool met vragen en openbaar beschikbare feiten die niet enkel hallucinaties bij taalmodellen kan uitlokken, maar ook nagaat hoe nauwkeurig de antwoorden van de taalmodellen zijn.
Uit deze test blijkt dat o3 nauwkeuriger is dan zowel o4-mini als o1, maar ook dat het o1-taalmodel nauwkeuriger is dan o4-mini. "Dit is te verwachten", klinkt het bij OpenAI. "Kleinere modellen hebben minder wereldlijke kennis en hebben de neiging om meer te hallucineren." Het bedrijf heeft via de test ook opgemerkt dat o3 meer hallucineert dan o1. Het o4-mini-taalmodel zou ook meer hallucineren dan zowel o3 als o1.
OpenAI heeft o1 in het najaar van 2024 uitgebracht. Dit taalmodel gebruikt meer rekenkracht dan voorgaande modellen en kan hierdoor tot logischere antwoorden komen. O1 produceert ook een zogenaamde gedachtegang voordat het een antwoord aan gebruikers geeft. In december van 2024 werden o3 en o3-mini onthuld. Deze nieuwe AI-modellen zouden nog beter presteren dan o1. Het o3-taalmodel kwam midden april op de markt, samen met o4-mini. Dat laatste model is een kleiner taalmodel dat volgens OpenAI vooral uitblinkt in efficiënte redeneringen.
:strip_exif()/i/2007412274.jpeg?f=imagenormal)