Nieuwe variant van Grok-taalmodel moet beter zelfstandig kunnen programmeren

XAI heeft een nieuw model van llm Grok uitgebracht dat specifiek gericht is op programmeren. Grok-code-fast-1 is enkel getraind op code, waarvoor xAI zelfgecureerde datasets heeft gebruikt. Het model kan ook als agent werken in ide's, maar ook andere tools zoals terminals.

XAI schrijft dat het nieuwe model 'doelgericht gemaakt voor agentische programmeerworkflows'. Volgens het bedrijf zijn andere, soortgelijke tools vaak traag omdat ze moeten communiceren met andere tools en 'redeneringen' moeten toepassen waarbij de modellen soms in loops terechtkomen. Volgens xAI is dat bij grok-code-fast-1 minder het geval.

Het bedrijf zegt dat het model van de grond af aan is opgebouwd met uitsluitend programmeergerelateerde content; xAI zegt niet wat dat precies inhoudt. Verder heeft xAI datasets gebruikt die het zelf heeft gecureerd en die pullrequests en programmeertaken 'uit de echte wereld simuleren'. Het model is voornamelijk goed in TypeScript, Python, Java, Rust, C++ en Go, zegt xAI.

Grok-code-fast-1 kan omgaan met terminals en cli-tools zoals grep. Ook kan de tool bestanden aanpassen. Het model kan worden geïmplementeerd in ide's en kan in ieder geval in de testperiode gratis worden gebruikt binnen onder andere GitHub Copilot, Cursor, opencode en Windsurf.

Het model kost 20 dollarcent per miljoen inputtokens en 1,50 dollar per miljoen outputtokens. Ook kost het 2 dollarcent per miljoen gecachete inputtokens. Het model kan via de xAI-api worden gebruikt.

Door Tijs Hofmans

Nieuwscoördinator

29-08-2025 • 13:51

27

Submitter: slijkie

Reacties (27)

27
27
13
0
0
7
Wijzig sortering
Dit model is al een paar dagen beschikbaar als preview in GitHub Copilot.
Ben eens benieuw, toevallig deze week nog eens een paar testen gedaan ... Na een tijd als het wat groter wordt is de snelheid eruit en 4x gewoon project volledig onder handen genomen en een paar dingen gewoon gewist en gewijzigd ... Terwijl je simpel vraag pas x aan ... Voor triviale code: best ok, autocomplete zit er soms zelfs nog veel te veel naast, maar voor iets qua grootte ... Ik doe het zelf sneller. Maar dacht dus deze week laat ons eens iets doen en gebruiken wat we nooit gebruikt hebben, misschien kan ik er nog iets van leren. Conclusie: de tutorial volgen en het zelf maken had dus sneller geweest en heb ik ook gedaan
Op dit moment zitten we nog op het niveau dat je voor langlopende projecten het liefste een mens aan het roer houdt. Juist om deze redenen. De vraag is natuurlijk hoe lang dit nog het geval blijft. Ik ben nog steeds van mening dat je een persoon met kennis aan het stuur moet zetten om AI op een correcte manier in te zetten. Bepaalde architecturale beslissingen kun je gewoonweg niet enkel op basis van tekst invoer bepalen, helemaal niet als je met een hallucinerende AI te maken hebt.
De vraag is natuurlijk hoe lang dit nog het geval blijft.
Je zegt dit alsof er een trend is waar modellen daadwerkelijk intelligent worden en begrijpen wat ze lezen of zelf zeggen.
Daarentegen had ik een paar minuten prima boilercode voor een relatief complex project, waarna het zelf invullen van de gaten een pak sneller was omdat het hele framework van het project al gedaan was.
Grok-code-fast-1 is enkel getraind op code,
Dan kan het model dus waarschijjnlijk heel goed coderen, behalve dan dat het geen real world benul heeft van de oplossingen die de code teweeg moet brengen. Ik moet het nog zien.

(Wilt u geholpen worden door onze beste chirurg? Zij heeft alle boeken gelezen, maar nog nooit een patient gezien, laat staan daar een dialoog mee gehad.)

[Reactie gewijzigd door Recursio op 29 augustus 2025 14:44]

De vraag is, is het goed genoeg om een architectuur neer te zetten, of is het net 1 nivo boven autocomplete? Of wordt het toch weer gebruik maken van 2 modellen. 1 thinking model om de grote lijnen neer te zetten, en een goedkoop model als dit om de details in te vullen.

Een code only model heeft uiteraard wel als voordeel dat alle ethische schillen nauwelijks nodig zijn. Volgens mij besteed ai de helft van zijn tijd om de output te controleren op ethische afwijkingen.
Een code only model heeft uiteraard wel als voordeel dat alle ethische schillen nauwelijks nodig zijn. Volgens mij besteed ai de helft van zijn tijd om de output te controleren op ethische afwijkingen.
Wel een interessant punt. Waarbij wat mij betreft "ethisch" tussen "" mag, omdat het niet per se ethiek maar ook vaak compliance en/of risicomanagement betreft.
Maar als de AI geen benul heeft van bv “gdpr” en duizenden andere regelgevingen, hoe wil je dan dan het deze correct kan toepassen wanneer je vraagt om een applicatie te ontwikkelen die patientengegevens verwerkt ?
Met zoals Tesla auto’s nu foutlozer door steden rijden ondanks de onzinnige hoeveelheden uitzonderingen die je er manueel nooit ingeprogrammeerd krijgt. Trainen met veel data.
'k Hoop dat ze de code uit de vragen op stackoverflow niet gebruikt hebben om hun model te trainen...
Jouw opmerking krijgt een '0' score, maar ik vind deze juist wel heel relevant. Er is heel wat opensource code beschikbaar op Github die gebruikt kan worden als trainingsdata, maar daarbuiten hebben we nog veel meer code die in enterprise codebases zit. Simpele antwoorden kan hij uiteraard uit Stackoverflow halen, maar voor diepere architecturale vragen, da's andere koek...
Sorry maar de meeste code op github is toch niet helemaal wat het moet zijn. Ik zeg niet de grotere projecten ofzo. En stackoverflow, wel ik maak er al jaren gebruik van, maar je moet soms goed weten waar je mee bezig bent, want het is niet altijd copy & paste. En dan is er nog jij maakt gebruik van versie x waar het net weer wat anders is dan in versie y etc.
Xai had de release vorige week al uitgebracht onder een andere naam: Sonic
Werkt (via Cursor) best goed, tot nu toe weinig foutjes, alhoewel ik geen zeer complexe code nog heb aangevraagd, Claude is momenteel toch nog echt beter, echter xAI team kennende met Grok zal dit echt met een hoog tempo beter worden, althans, dat verwacht ik.

Fijn om beide opties te gebruiken.
Ik zal jullie programmeurs uit de droom helpen: er is in de nabije toekomst geen mens op deze aarde die AI kan verslaan wat programmeren betreft in welke taal dan ook.

Vergelijk het met een schaakcomputer. Er is niemand die kan winnen van een schaakprogramma die draait op een smartphone.
Mijn Bullshit Radar slaat rood uit. AI en code maken met AI is een hele leuke aanvulling, maar het heeft de creativiteit van een betonblok.

juist daar blinkt de mens in uit, echt creatieve oplossingen en misschien nog belangrijker:voorzien waar oplossingen nodig gaan zijn. Precies dát heb ik AI nog niet zien doen
Als het probleem of doel duidelijk kan worden omschreven, en de oplossing gebaseerd is op enkele simpele regels (zoals schaken), dan wel ja.

Veel problemen zijn echter niet zo simpel en eenduidig te omschrijven... Dus het probleem zal niet zijn dat een AI geen oplossing zou kunnen vinden of coderen, maar het probleem niet correct interpreteert.
Eens goed gelachen, sorry maar autocomplete voor een lijntje zit er al dikwijls naast. Het kan wel wat code produceren, maar production ready is verre van. Waar je wel tijd mee kan winnen is het volgende: ipv naar google te gaan daar je vraag in te typen en dan 2-3 pagina's te moeten bekijken, heeft het dikwijls wel een antwoord voor je klaar. Maar dan nog moet je goed weten waar je mee bezig bent. Kijk ik ken ook niet elke functie van framework x of y, maar ik weet wel wat het moet doen of wat ik wil, en daar kan je dus wel beetje tijd mee winnen. Zeker als je 200x per dag iets moet gaan opzoeken (wat bij mij niet echt het geval is). En kleine projectjes voor huis/tuin/keukengebruik ja. Maar dikwijls moet de zon/zee/maan dan in de correcte stand staan. Tevens gaat de AI leren van github code wat dikwijls niet optimaal is en daar dan verre van goed code bijzetten, die dan terug op github komt. Ik heb soms het gevoel dat het niet beter geworden is maar eigenlijk minder goed dan een jaar terug

En dan is er nog "architectuur". Het is niet omdat een AI voor jou een tabel kan genereren bijvoorbeeld dat het de best mogelijke keuze is. En als ik een AI moet uitleggen hoe hij het stap voor stap moet doen, sorry maar dan heb ik het zelf geschreven op minder tijd. Ik doe om de 3 maand eens een testje van een semi ingewikkeld formulier ... tot op heden nog nooit gelukt, zelfs niet stap voor stap. En dat is dan nog maar 1 stap van het proces.
Ik heb niet de indruk dat je begrijpt waar AI over een tijdje staat.
En toch schaken mensen nog en hebben dit niet "overgelaten" aan schaakcomputers. Schaakkampioenschappen zijn nog orde van de dag. Daarnaast is software ontwikkelen, dus niet paar regels code schrijven of een scriptje, zelfs wel een vorm van kunst. Het is minder lineair en eenduidig dan wat niet ontwikkelaars denken. Je kan denken van maar code doet maar 1 ding, net zoals een baksteen dat doet, maar het gaat om het hele huis en de vele soorten bakstenen.
Om een voorbeeld te geven van hoe AI momenteel werkt. Ik doe data-analyse, de AI zoekt naar de dataset maar vindt deze niet. In plaats van te zoeken waar de dataset dan wel staat, maakt de AI dan maar zelf de dataset aan en begint dan maar analyses te schrijven om de zelf uitgevonden dataset te analyseren.

Hele mooie code, maar compleet nutteloos.
AI is nog een kleuter. Denk aan omscholing voor het te laat is.
Afgelopen dagen wat geprobeerd in Cursor omdat het daar voor een aantal dagen vrijwel gratis te gebruiken is. Het is vergeleken met andere models erg snel maar wordt, zoals ook bij anderen aangegeven, naarmate de context vordert wel slomer, tot op het punt dat het vergelijkbaar is met of zelfs slechter is dan andere models. Op zich komt er wel aardige code uit maar komt ook vaak zat met een veel te complexe oplossing of iets wat juist helemaal niet toereikend is, gedrag wat ik overigens ook vaak bij andere models zie. Maar dit zou net zo goed door mijn eigen slechte prompts kunnen komen...
zelfgecureerde datasets
Zo kan je diefstal ook noemen, ja.


Om te kunnen reageren moet je ingelogd zijn