xAI heeft zijn nieuwste taalmodel Grok 3 uitgebracht. Volgens het bedrijf gebruikte het trainingsproces tienmaal meer rekenkracht dan bij Grok 2. De training vond plaats in een datacenter in Memphis met ongeveer 200.000 gpu’s.
De Grok 3-familie bestaat uit verschillende varianten, waaronder een compactere 'mini'-versie die volgens xAI sneller maar minder nauwkeurig is. Daarnaast zijn er de 'Reasoning'-modellen: Grok 3 Reasoning en Grok 3 mini Reasoning. Deze varianten zijn geoptimaliseerd voor het methodisch doordenken van complexe vraagstukken, vergelijkbaar met OpenAI's o3-mini en DeepSeek's R1. Ook voegt xAI DeepSearch toe, een functie die het internet en het X-platform doorzoekt om samenvattingen te genereren.
Op technisch vlak claimt xAI vooruitgang op diverse benchmarks. Het model zou betere resultaten behalen dan GPT-4o op de AIME-wiskundetest en de GPQA-toets voor academische vraagstukken. De Reasoning-variant zou specifiek o3-mini-high overtreffen op de nieuwe AIME 2025-benchmark.
De modellen worden eerst beschikbaar voor X Premium+-abonnees. Daarnaast doen geruchten op sociale media de ronde dat er een SuperGrok-abonnement komt. Dit zou extra functionaliteit bieden zoals ongelimiteerde beeldgeneratie en uitgebreide zoekmogelijkheden, en 30 dollar per maand kosten.
xAI kondigt aan Grok 2 opensource te maken zodra Grok 3 stabiel draait, naar verwachting binnen enkele maanden. Daarnaast staat spraakondersteuning op de planning voor de komende weken, gevolgd door een enterprise-api met DeepSearch-functionaliteit.