XAI brengt Grok 4-model uit en komt met AI-abonnement van 300 dollar per maand

XAI heeft zijn Grok 4-taalmodellen beschikbaar gemaakt. De geavanceerdste versie zou beter dan elk ander model scoren op de ARC-AGI 2-benchmark, die de 'algemene intelligentie' van llm's moet meten. Toegang tot deze versie kost 300 dollar per maand.

XAI heeft zijn Grok 4-llm's tijdens een livestream onthuld en direct beschikbaar gemaakt. Het bedrijf haalt in de stream verschillende benchmarks aan waarin de modellen beter zouden scoren dan concurrenten. Het grootste model, Grok 4 Heavy, scoort in de ARC-AGI 2-benchmark bijvoorbeeld beter dan alle andere llm's die momenteel beschikbaar zijn. Het model behaalt in deze algemene test, waarin de intelligentie van de AI wordt vergeleken met die van het menselijke gemiddelde, een score van 16,2 procent. Claude Opus 4 bezat hiervoor de hoogste score, van 8,6 procent.

Naast het reguliere Grok 4-model en Grok 4 Heavy zijn er ook modellen aangekondigd die specifiek getraind zijn voor programmeren en voor het houden van spraakgesprekken. Het reguliere model kan worden gebruikt door betalende Supergrok-abonnees. Dat abonnement kost 30 dollar per maand. XAI heeft ook een nieuw Supergrok Heavy-abonnement onthuld, dat 300 dollar per maand kost. Daarmee krijgen gebruikers toegang tot Grok 4 Heavy. In de toekomst moeten abonnees ook vroegtijdige toegang krijgen tot nieuwe AI-functies, waaronder de mogelijkheid om video's te genereren.

De release van Grok 4 volgt vijf maanden op de introductie van zijn voorganger. Onlangs kwam de chatbot in opspraak omdat deze ongepaste berichten verstuurde op X. De bot prees onder meer Adolf Hitler in meerdere posts. Op het moment van schrijven kan Grok enkel nog afbeeldingen posten op het socialemediaplatform. Kort voor de onthulling van het nieuwe AI-model stapte X-ceo Linda Yaccarino op.

Grok 4 benchmark

Door Kevin Krikhaar

Redacteur

10-07-2025 • 18:06

68

Submitter: tradax

Reacties (68)

Sorteer op:

Weergave:

Grok, was dat niet de chatbot die Hitler prees?

Wie gaat daar $300 per maand voor betalen?
Grok, was dat niet de chatbot die Hitler prees?

Wie gaat daar $300 per maand voor betalen?
Alles valt of staat natuurlijk met de prompting en de instellingen van het LLM. Elk model kan slechte antwoorden geven en rare uitspraken doen.
Precies dit. Het ruwe onderliggende model is bijzonder krachtig. xAI heeft echt een bizar gedreven team (gewoon hele slimme gasten) dat in recordtempo prestaties neerzet die de concurrenten bijna niet kunnen bijhouden. Wat ze in korte tijd voor elkaar hebben gekregen is ongekend: een gigantisch datacenter met 200.000 H100 GPUs (Colossus supercomputer) uit de grond stampen en tegelijkertijd modellen trainen die nu met Grok 4 beter presteren dan wat OpenAI en Anthropic tot nu toe hebben gelanceerd.

Het ruwe model is inderdaad prima in balans. Die controversiële outputs zijn niets anders dan een gevolg van onderliggende prompting waarbij het model bepaalde communicatiepatronen wordt opgelegd. Het model lijkt hier gevoeliger voor te zijn, wat in de praktijk juist voordelig kan zijn omdat je als eindgebruiker meer controle krijgt over de output. Helaas zullen anderen dit misbruiken voor moreel verwerpelijke doeleinden - dat is een risico bij alle steeds slimmer wordende frontier models.

xAI heeft voor Grok 4 hun gigantische GPU-cluster vooral ingezet voor reinforcement learning (RL) in plaats van alleen pre-training. Volgens eigen zeggen gebruiken ze 10x meer RL-compute dan welk concurrent model dan ook. Dit booste specifiek het redeneersvermogen. Het lijkt dat naast hoe langer, vooral ook hoe 'beter' je zo'n model laat "nadenken" via RL, hoe beter de prestaties worden. Er lijkt vooralsnog geen limiet aan deze scaling.

De benchmarkresultaten zijn biza goed: op de "Humanity's Last Exam" (PhD-niveau vragen) scoort Grok 4 Heavy meer dan 50% correct op tekst-gebaseerde problemen, waar andere modellen nog in de single digits zitten. Op ARC-AGI-2 haalt het 15,9% - dubbel zo hoog dan Claude 4 Opus.

De stappen die xAI zet zullen ongetwijfeld ook door OpenAI en Anthropic worden gevolgd, maar xAI heeft nu een significante voorsprong in RL-scaling. Hun Colossus infrastructuur geeft ze voor nu een heel groot voordeel.
Het is allemaal waar wat je zegt, en het is duidelijk kan de scaling laws enorme druk leggen op de gehele tech stack en infrastructuur.

Maar je kan dit niet plaatsen in een isolement. Het was voor hen heel makkelijk om de basis te kopiëren van de anderen en van hun fouten te leren en te begrijpen welke producten wel en niet werken. 2 jaar terug was iedereen gpu beperkt, OpenAI had de grootste moeite om capaciteit te verdelen tussen diensten en training. Die tijd is vooral voorbij en energie / data is het grootste probleem, laat Elon daar nou net een dikke vinger in de pap te hebben

Je zou zelfs kunnen stellen dat ze behalve schalen heel weinig hebben gepresteerd als het aankomt op het vak verder brengen. Ze hebben nog niks gedaan wat de rest ook niet doet qua model efficiency of architectuur innovatie (na mijn weten). Terwijl alle laps continue research publiceren.

Ik zou zelfs zo ver willen gaan dat xai wordt waar Elon bang voor was; een roekeloze, gehaaste gek, die daarmee een Frankenstein op de wereld gaat los laten waarvan hij claimed hem te controleren maar dat eigenlijk helemaal niet kan. Het eindigt met Elon die doodgemaakt wordt door zijn eigen robots die hem zouden moeten “dienen”.
Musk is er heilig van overtuigd dat je de AI vrij moet laten om tot waarheidsvinding te komen, volledig op z'n eigen houtje zonder dat je het model een bepaalde hoek in duwt. Hij 'voelt aan' dat dit uiteindelijk tot echte alignment zal leiden. Hij is ooit begonnen met OpenAI om te voorkomen dat Google straks een soort monopolie krijgt op AGI. Dit was een dusdanige angst en visie dat hij OpenAI oprichtte en het top talent uit die niche markt wist aan te trekken. Ilya Sutskever naar zich toetrekken was echt de grootste meesterzet die hij kon maken en heeft gezorgd dat we nu uberhaupt met dit soort modellen kunnen werken, massaal, als consument. Feitelijk heb je dit voor een groot deel aan Musk te danken.

Met xAI heeft die een soortgelijk doel. Nu is niet Google het gevaar, maar vooral ook zijn oude OpenAI welke moraal afglijdt tot het groot kapitaal en naar zijn zeggen "wokeisme". Leuk PR verhaal. In werkelijkheid is die volgens mij extreem zuur over het feit dat die de vruchten niet plukt van z'n investering omdat die vroegtijdig is opgestapt. Hij wilt er nu alles aan doen om met xAI te laten zien dat hij nog steeds 1 v.d. belangrijkste spelers is op het gebied van AI.

Wat xAI overigens (in mijn optiek) vooral laat zien is dat OpenAI en Google weinig meerwaarde bieden en dat elke dwaas met genoeg GPUs en data zulke modellen kan trainen. Waar ze echter wel in excelleren is om het zo doeltreffend en snel voor elkaar te krijgen en nu dus blijkbaar leading-modellen produceren en publiekelijk aanbieden, zowel aan de voorkant als via de API. Het is bijna onmenselijk om uberhaupt in zo'n korte tijd zo'n datacenter uit de grond te stampen dat ook nog eens presteert (hier was de CEO van Nvidia ook erg van onder de indruk).

Maar laten we het ook vooral niet te veel bagataliseren en af doen als een makkelijke prestatie. Een Grok 4 produceer je niet zomaar even zonder dat je echt weet waar je mee bezig bent. Het is niet vanzelfsprekend dat je als nieuwkomer al je concurrenten verslaat op alle benchmarks, ondanks resources en bestaande researchpapers.

[Reactie gewijzigd door Dannydekr op 10 juli 2025 21:36]

Het is ook zeker knap zoals ik al zei op het gebied van de infrastructuur.

Als Google het had gewild hadden ze dit met hun huidige gpu clusters al lang kunnen doen. Ze hebben nog steeds meer tpu power dan iedereen. Natuurlijk hebben ze alleen wel andere diensten te draaien.

Je doet nu net of het enige wat geld size is maar je weet denk ik ook wel dat dit echt maar 1 aspect is. Zie 4.5 (als was dat train time in plaatst van test time). Uiteindelijk gaat het om wat je met de modellen kan. Google is er niet heilig van overtuigd dat deze architectuur ons naar agi gaat brengen en blijft volop fundamenteel onderzoek doen. Tegelijkertijd zijn ze de enige die echt baanbrekend producten hebben opgeleverd met alpha evolve en alphafold. Beide al een jaar klaar! Elon gaf zelf ook aan dat grok dat nog niet heeft gedaan terwijl Google al de Nobelprijs er mee heeft gewonnen.

Deze Google successen zijn het effect van het ontwikkelen van echt nieuwe onderzoeken. Niet het opschalen van een bekende route.

[Reactie gewijzigd door resistme op 10 juli 2025 23:25]

Musk is er heilig van overtuigd dat je de AI vrij moet laten om tot waarheidsvinding te komen, volledig op z'n eigen houtje zonder dat je het model een bepaalde hoek in duwt.
Tot het moment dat AI het met hem oneens is. Zijn reactie op een antwoord van Grok die een antwoord gaf wat hem niet beviel was "Your sourcing is terrible, only a very dumb AI would believe [Media Matters] and [Rolling Stone]! You are being updated this week". Voor zover vrije waarheidsvinding dus, dat geldt alleen als Musk het antwoord goed dunkt.
volledig op z'n eigen houtje zonder dat je het model een bepaalde hoek in duwt. Hij 'voelt aan' dat dit uiteindelijk tot echte alignment zal leiden.
Alleen is dit typisch het gezwets van zijn wishful thinking. Alle AI training is gestuurd door selectie in data en trainingsprocessen. Er is geen neutrale of ongecensureerde AI, er hooguit AI waarin niet of slecht nagedacht is over het gedrag dat ervan verwacht wordt, voornamelijk omdat het ze niet kan schelen. Het leidt echt niet tot een soort ultieme waarheidsvinding. Het is namelijk een bak statistieken, geen spirituele entiteit.
Jorgen Moderator Beeld & Geluid @Dannydekr11 juli 2025 00:08
Dan hoop ik dat Grok-voor-normale-gebruikers ook snel beter wordt, want tot nu toe is het vaak herhalen van hetzelfde antwoord in een iets andere vorm en is het van de mij bekende taalmodellen (CoPilot, Gemini, ChatGPT en Grok) zeker niet de beste met empathisch reageren, begrijpen van grote teksten of inhoudelijke reacties schrijven. Op dat vlak is ChatGPT voor de gewone gebruiker nog ongeëvenaard.

Ik heb andere AI/LLM-modellen geprobeerd, maar die maakten er helemaal nog een rommeltje van.
Het hele Collosus project in Memphis lijkt mooi maar heeft een verschrikkelijke downside: vergiftiging van een groot deel van zuid Memphis. Die AI factory van Musk draait namelijk grotendeels op stroom opgewekt met gasturbines. De gevolgen voor de volksgezondheid zijn niet te overzien: https://tennesseelookout.com/2025/07/07/a-billionaire-an-ai-supercomputer-toxic-emissions-and-a-memphis-community-that-did-nothing-wrong/ en voor een korte docu: YouTube: We Went to the Town Elon Musk Is Poisoning

Wat vooral (onnodig) veel energie slurpt is het laten maken van AI video’s. Soms kan het genereren ervan wellicht minder energie kosten dan het laten maken van een ‘ouderwetse’ commercial, maar veel energie wordt gebruikt voor totaal idiote onzinvideo’s die 0,0 bijdragen aan de samenleving.

[Reactie gewijzigd door BertNL op 11 juli 2025 07:25]

Wat ze in korte tijd voor elkaar hebben gekregen is ongekend: een gigantisch datacenter met 200.000 H100 GPUs (Colossus supercomputer) uit de grond stampen en tegelijkertijd modellen trainen
Dat hebben ze oa. gedaan door schijt te hebben aan de wet. Dat datacenter is ergens neergegooid waarvan ze wisten dat er nooit genoeg spanning via het net te leveren was. Vervolgens heeft xAI een vergunning aangevraagd voor 15 mobiele gas turbines en er 24 neergegooid. Dat is kennelijk iets wat je kunt doen als je een legertje advocaten hebt. Een mobiele gas turbine is super inefficient invergelijking met een gas turbine in een energie centrale. De NOx uitstoot van die dingen is zo gigantisch dat de mensen die in de buurt van dat datacenter wonen nu opeens de hoeveelheid luchtvervuiling voor hun kiezen krijgen alsof ze naast een internationele luchthaven wonen.

Beetje raar om enkel de positieve kant naar voren te brengen en dit totaal buiten beeld te laten.

[Reactie gewijzigd door closefuture op 11 juli 2025 07:42]

Heb je hier ook bronnen bij?
Heb je überhaupt het Tweakers artikel gelezen? Daar staat al de helft in en de rest kan je niet missen op X op het moment.
Ik had het over de claims van Danny. En ik zit niet op X. Dus ik vraag om bronnen. Maar blijkbaar is om details vragen te vervelend.
Ja de fanclub is aanwezig, heb ik recent wel vaker gezien bij artikels over hem. Eén van de weggevers zijn de walls of text, vermoedelijk om anderen te ontmoedigen te reageren en lezers te ontmoedigen de nuancering te lezen. En dan gewoon upvoten op korte tijd. Geeft aan de meerderheid het gevoel dat ze alleen staan met hun kritische gedachten.
Ja viel me vrij snel op dit
Nou niet echt, Vexxon heeft denk ik wel degelijk een punt.
Het adagium garbage in, garbage out telt ook hier bij AI-modellen.
En als Grok vooral wordt gevoed door Twitter input, nou berg je dan maar.

[Reactie gewijzigd door bursche op 11 juli 2025 08:37]

Inderdaad, laten we maar zeggen dat het een soort van 'quality control' dingetje is geweest en iemand even is vergeten om Grok op tijd 'de mond te snoeren'.

Ik ben niet zo gewiekst met AI, zeg maar totaal niet, verkeerd data setje of zo ? Het is wel duidelijk dat er iets niet helemaal goed is gegaan.
Gigantische set aan data kan je moeilijk allemaal checken.
Elk AI training model heeft er last van
Wie gaat daar $300 per maand voor betalen?
Elke 'chatbot' heeft dit soort fouten gemaakt. Het zijn 'kinderen' die opgevoed moeten worden en moeten leren van dit soort fouten. Natuurlijk zal Grok altijd aan de rechterkant van het spectrum blijven hangen als je een mening vraagt, maar feit is dat het een van de beste AI machines op dit moment is.

$300 lijkt veel maar de AI machines verbeteren en de meeste analisten denken dat de uiteindelijke prijs voor eindgebruikers minstens tien maal zo hoog zal zijn als dat het nu is. Over tien jaar hebben de meeste mensen een persoonlijke bot die alleen voor jou zal werken. Hij weet wat je wil. Dat zal een stevige maandelijkse rekening zijn. OpenAI denk dat $50 per maand een goede instap is met accounts tot $100 voor alle functies. Lijkt veel maar als die bot een deel van je werk overneemt is het natuurlijk niet veel.
Dat gaat iedereen uiteraard declareren aan werkgever, dan wel de klant... (die 100)
Als die tijd aanbreekt, hoest ik zonder problemen die € 100+,- p/m op. Moet het wel een echte fysieke huurrobot zijn, die volwaardig mijn kleine huishouden kan overnemen en over wat jaren, als ik hoogbejaard ben, mijn billen wast. Als dat ding voor eeuwig in een desktop blijft wonen, zie ik er geen verdienmodel voor de eenvoudige consument in. Dan knutsel ik mijn eigen digitale hulpje wel in elkaar. Kan nu ook al, dus dat zal morgen nog veel beter en makkelijker kunnen.
Lees je reactie toevallig. Dan ben je optimistisch als jij denkt dat nog mee te maken. Een zodanige flexibele mensachtige robot die je bil kan doen zie ik pas over 110 jaar.
Sommige mensen laten zich niet zo beinvloeden door al het nieuws. Ik gebruik zowel ChatGPT, Grok als Claude, en vind regelmatig de Grok (3) antwoorden het best, niet altijd. En dan kan het mij echt aan de reet roesten als er ergens op deze aardkloot er een prompt uit is gekomen dat sommigen gulzig gebruik van willen maken want ‘Elon = duivel’.

Verder OT; ik heb vandaag Grok 4 eens lopen gebruiken en merk zowel verbeteringen als wat verslechtering, of mijn prompts zijn nog niet optimaal genoeg, dat kan ook.

Denk er sterk aan om mijn 300$ per jaar abbo te verhogen naar het $3000 per jaar ‘Heavy’ abbo. De besparingen die ik tot nu toe uit de verschillende AI applicaties heb kunnen halen is ruimschoots meer dan dat bedrag, wat het dus een zakelijk slimme keuze zou maken.
Waarom zou je je niet laten beïnvloeden door wat er gebeurt in de wereld? Waarom zou je insinueren dat er iets mis is met "het nieuws" (op een nieuwssite dan nog :-)).

Elon is de duivel niet, straw man, heet dat, maar Elon is wel serieus de pedalen kwijt. Of hij nu van Twitter een beerput maakt, massaal kinderen verwekt, zichzelf politiek compleet belachelijk maakt of niet, de man lijkt momenteel op de dool. Ik wens hem een serieuze comeback toe, hij lijkt het nodig te hebben.
Jullie soort mensen hadden natuurlijk Twitter/X nooit moeten verlaten, om in een echoput te gaan wonen uit boosheid. Zelfs deze website is in die onzin getrapt en zwerft doelloos op Bluesky rond.
"Jullie soort mensen" :)

Ik ben niet boos. Ik vind het jammer hoe het gelopen is.

Je moet hier op deze website die volgens jou "in onzin trapt" niet rondhangen.

Ik wens je, zonder ironie of sarcasme, een mooie dag toe zonder al te veel ergernis over hoe "die soort" mensen in "onzin trapt".

[Reactie gewijzigd door NoTechSupport op 12 juli 2025 13:19]

Jullie is denk ik een prima algemene term om anderen aan te duiden. Zit verder geen moreel oordeel achter, en moet u niet zo interpreteren.
Wat is jouw use case om $3000 per jaar te investeren in een bot die beter is dan bv gemini maar niet 1000x beter toch?
Grok, was dat niet de chatbot die Hitler prees?

Wie gaat daar $300 per maand voor betalen?
In een aantal gevallen omdat hij een uitspraak dat er "wel meer blanke kinderen mogen verdrinken in overstromingen omdat het toch maar toekomstige fascisten zijn" verwierp als "pure evil" en dus een sterke positie tegen racisme in nam. Toen hem gevraagd werd welk specifiek historisch persoon ook tegen zulke uitspraken zou optreden, tsja, toen was hij even niet zo tactvol. Maar het is lastig een taalmodel als "slecht" te bestempelen: what goes in, comes out. En wat er tegenwoordig in gaat is iedereen te pas en te onpas voor nazi wordt uitgemaakt, dus zal er meer data zijn waar mensen zeggen, "sure, call me a nazi, I dont care anymore" en daar leert hij natuurlijk van...

Maarja, niettemin was het wel een beetje beschamend natuurlijk, maar om er nou kwaadaardigheid achter te zoeken... lijkt me vergezocht.
Nazis 🤷‍♂️
Gebruikers doen heel erg hun best om een taalmodel foute dingen te laten zeggen en als het lukt zijn het taalmodel en de makers de slechterik. Terwijl het dezelfde dag opgelost is.

Afgezien van dat hitler gebeuren was het wel interessant om eens een ongefilterd model te zien. Het sprak nu zonder hinder over "controversiële" onderwerpen met onderbouwing.
Yep. Lekker gestuurd ding. Was helemaal niet een keuze van musk dit
Als het verder een goed model is... Van het Hitler "incidentje" kan ik de humor wel inzien. Ook is het erg vermakelijk om te zien hoe men brand en moord schreeuwt over een LLM zodra deze doet wat deze doet: Dingen van het internet halen, echter samengevat en/of duidelijker formuleren.

Zie het stukje "AI kan fouten maken. Door gebruik van onze diensten ga je akkoord met onze algemene voorwaarden en privacyverklaring" bij elke LLM :D :P
Youtubers die dit met 1 video terugverdienen.
Je zou nog verschieten hoeveel mensen Musk als de messiah zien en alles kopen wat hij heeft aangeraakt.
He's not the messiah, he's a very naughty boy!
Grok heeft inderdaad die uitingen gedaan. Maar het is in het verleden vaker gebeurd, zelf bij Microsoft...

https://www.cbsnews.com/news/microsoft-shuts-down-ai-chatbot-after-it-turned-into-racist-nazi/
Ik voldoe voor mijn use cases prima met mindere modellen maar merk wel dat er verschil zit. Gebruik veel github icm visual studio code en enkel voor kleine projecten maar begin al richting de limieten te lopen. Claude 4 is bijvoorbeeld beter dan openAI 4o maar heb binnen het goedkope abonnement beperkt aantal request (325 per maand). Kan me dus indenken dat het voor andere, zwaardere, wel uit kan.

Nu als het op is switch ik naar 4o die dus minder werkt = meer tijdverlies

300€ is dan snel terugverdiend (niet als je vraagt maak een gedichtje voor het 50 jarige trouwjubileum voor mijn opa en oma)
Vandaag een request aan Claude Sonnet 3.7 via GitHub copiloot in agent mode gedaan waar ie een uur mee bezig was. En aan het einde had ik een goed gedocumenteerde, goed functioneel en technisch geteste applicatie, incl. deployment documentatie, infra as code, front end, backend en app. Die aan alle security en accessibility en branding eisen voldoet.

Het schrijven van de prompt kostte me wel een minuut of tien, vijftien. Nog nooit eerder gehad dat ie zo lang met een request bezig is geweest.

[Reactie gewijzigd door djwice op 10 juli 2025 20:07]

Wow zo lang heb ik ze nog niet gemaakt! Prompts van 5-10 min is wel het grootste wat ik heb gezien! Maar wel verbazend hoe grote prompts goed werken! Betrap mezelf erop dat grote stukken eigenlijk wel werken maar voelt alsof ik minder controle heb. Dat terwijl ik met grote prompts resultaat krijg waarvan ik denk goh, das eigenlijk wat ik wilde!

Wat heb je gemaakt met een prompt van een uur? En waarom sonnet 3.7 en niet 4? En hoe maak je je prompt?

Ik doe soms ook prompts voorbereiden via chatgpt om die dan in copilot te gooien maar merk soms ook dat direct gewoon in copilot dat ik dan hetzelfde resultaat bereik!

Ben benieuwd naar je ervaring!
Waar ik werk is 4 nog niet goedgekeurd, dus gebruik ik 3.7.

Ik schrijf gewoon eerst alle technische eisen op. Dus aan welke standaarden hij moet voldoen.en welke testen en certificeringen hij moet voldoen.
Dan verwijs ik naar een goed voorbeeld van het huismerk implementatie en zeg dat ie die webpagina mag bezoeken. Dat kan ook een screenshot zijn of pdf met beschrijving.
En dan zeg ik welke architectuur eigenschappen nodig zijn. En dat ie eerst BDD etc. moet maken en zo veel mogelijk modulair moet werken.
En dan beschrijf ik de eindgebruiker, doel platform en tools en componenten. En dan wat de eindgebruiker er mee wil doen etc.

Ik ontwerp altijd ook de caching lagen en security lagen en eisen aan de interfaces zeer strict, en wil dat de interacties zo veel mogelijk logisch en automatisch en een malig zijn voor de gebruiker. Dat deed ik normaal al zonder AI omdat de eindgebruiker dan de meest soepele ervaring heeft. Dat zorgt voor hoge SEO en betere conversie en extreem hoge klant tevredenheid. De applicatie voelt dan als vanzelfsprekend aan.

Ik zorg altijd dat ik als bij het eerste ontwerp alle mogelijke volgende wensen implementeer, zodat je eigenlijk nooit nieuwe functies meer hoeft te bouwen na oplevering. En maak alles generiek, van user interface tot aan data model.
Dat maakt dat de applicatie consistent blijft, zowel in verwerking als interactie als beheer. Dat zorgt voor zeer lage beheer kosten en zeer weinig call center contacten. Mensen begrijpen als het ware van nature wat er verwacht wordt en waar ze wat kunnen vinden.
Ik ontwerp altijd voor out-of-order verweking en parallèle verwerking en duplicaten.
Dat maakt het systeem zeer robust.
Door de consistentie zorg je ook dat er zo goed als geen verstoringen zijn en geen congestie of race condities.
Door het stricte ontwerp van input tot output is er zo goed als geen kans op hacks en leaks.
Logs altijd op een andere hardware cpu verwerken dan de applicatie. User refereren tot aan de database en storage. Federatie haar via een aparte laag buiten de applicatie code om, zo kan bij een breach van de service de hacker alleen bij de data van die ene gebruiker en heeft ie geen invloed op het wisselen naar een andere gebruiker.
De services hebben alleen toegang tot data die op dat moment nodig is voor die de eindgebruiker.
Als het systeem het toe laat aparte sleutels per gebruiker in de databron.
Zo is de kans op data misbruik zo goed als onmogelijk of in iedergeval zeer beperkt.
Log alles: 80% van je systeem kosten is Log verwerking en opslag.
Gebruik waar mogelijk server less infrastructuur. Dan blijven je kosten laag, alleen als je altijd(!) een hogere belasting dan 50% voor al je resources kan het andere goedkoper zijn in vaste kosten, beheer en update kosten zijn dan nog niet mee genomen. Typisch pas bij 85% volle belasting year round is niet serverless goedkoper.
Least privilege..


Dit is het ongeveer.
Bedankt voor de uitleg! Dat is wel een niveau hoger dan mijn hobby/stand alone werk! Ik maak simpele apps voor mijn gebruik, dus weinig om load balancing en alles te doen. Qua security werk ik op ipadres en simpele ssh Logins of het draait gewoon 190% lokaal.

Gezien je uitleg neem ik aan dat je een developer bent? Er zijn al meerdere topics omtrent programmeren en AI geweest. Meeste tendens van commentaar die je op tweakers leest is dat de code slecht is en nooit goed kan zijn (veel geziene mening hier....). Ik kan niet programmeren maar begrijp wel wat de code doet als ik het lees, maar ik kan het dus zelf niet challengen. Wat is jouw mening op gebied van de code die gecreëerd wordt?
Ik ben typisch architect op projecten, maar leidt ook hele communities van een paar honderd mensen en directies / standaardisatie organisaties naar verbetering.

Op m'n 11e assembler geleerd, op m'n 13e onderzocht ik bestandsformaten en op m'n 21ste leerde ik op de universiteit anderen om een eigen OS en programmeertaal te schrijven, en op m'n 17e beheerde ik de 300ste internet aansluiting in Nederland voor school.

Dus programmeren is voor mij meer voordoen en laten zien hoe het moet/kan aan anderen. Het is voor mij weinig uitdaging. Ik weet wat kan. En soms bedenk ik wat nieuws en maak het om anderen te inspireren. Soms duurt het 5 jaar voordat de rest het snapt, ook al zijn het nog geen 1000 regels code waarvan nog geen 100 logica.
Bij mij heeft elke regel een overwogen noodzaak en bewuste positie in de code, ik wil code zo min mogelijk met conditionele logica, want dat vertraagd. Dat is voor veel mensen soms mind blowing, je moet dan echt de hele context van de software begrijpen om te weten waarom het foutloos werkt. Vaak geloven ontwikkelaars niet dat de simpele code die ze zien alle cases afdekt. Vandaar dat ik alles voorzie van scenario testen, en dan nog blijft het ongeloof, dit kan toch niet? Dus zoeken ze eerst naar code die tests moet misleiden.
Totdat ze er aan wennen, dan worden ze super enthousiast en nemen de stijl over, dan kan ik alles aan ze over laten, want ik weet dat de mindset is geland.

Als je altijd op elk moment, ook voor je homebrew zo werkt, het zo aanpakt, heb je begrepen wat de essentie is waarom je het zo doet: nooit meer debuggen, altijd zeker weten dat de code doet wat jij verwacht, en dat het sneller is dan welk ander voorbeeld anderen ook geven.
De code wijzigd dan niet meer als je het moet schalen of ineens op ARM gaat draaien.

Code van mij draait bijvoorbeeld al bijna 10 jaar zonder hack of update voor publieke API's die miljoenen mensen gebruiken.
De laatste code is een voorbeeld voor een klant die dacht dat hij twee programmeurs nodig had voor 4 maanden, maar dat was voor mij dus iets minder dan 2 uur met AI. Met een veel hogere kwaliteit en modulariteit, schaalbaarheid en lagere infrastructuur footprint in het eind product dan verwacht en gevraagd.

Het is soms best lastig te bepalen hoe en wanneer ik de resultaten communiceer. Te snel geeft ongeloof en devaluatie van het werk, langer wachten maakt dat ik m'n interesse verlies. En vaak zit er veel meer in dan de klant überhaupt had kunnen bedenken te willen, dus ook dat kan voor brainfog bij de ontvanger leiden, te overweldigend om te kunnen overzien. De ander voelt zich dan dom of overpowered, met allerlei gedrag tot gevolg. Van macho testosteron, macht of positie duidelijk willen maken, onderdrukking of ondermijning , stiekum na willen bouwen achter m'n rug om (en na maanden falen, zonder überhaupt gewoon om hulp of tips te vragen), rechten misbruik om code of data modellen 'ongemerkt' (zo dom: ik log alles, maar laat ze vaak maar in hun waarde, doe net of ik het niet weet) in te zien, tot paniek, ongeloof en beweringen van leugens, misleiding etc.
Sommige wilden zelfs letterlijk met me op de vuist.

Ik heb de perfecte mix nog niet gevonden.

[Reactie gewijzigd door djwice op 11 juli 2025 10:04]

Gelukkig hoef je een project nooit te onderhouden en heb je daarna geen ai meer nodig om die code die je niet zelf begrijpt te kunnen bijwerken
Niet waar. Senioren ontwikkelen hierdoor sneller.
Je kan ook een stukje code kopiëren en vragen waar het probleem zit.
Overigens is het probleem wat jij beschrijft niet nieuw. Of dacht jij dat cobol programmeurs in overvloed zijn?
Niet per sé, volgens dit onderzoek is het tegenovergestelde waar. Ik zeg niet dat dat de absolute waarheid is, maar aannemen dat code kloppen sneller gaat met AI is dat ook niet.
Goh. Er is een artikel geschreven die bij jouw argument past.
Lees eens de ervaringen van leden in deze thread. Ik hecht daar meer waarde aan dan een artikel van wie???
Er waren ook genoeg azijn zeikers over het internet eind jaren 90

[Reactie gewijzigd door lighting_ op 11 juli 2025 11:18]

Model Evaluation & Threat Research, hier is de wetenschappelijke publicatie. Het artikel vat het mooi samen, leest wat makkelijker.
De artikel man dus
Leest alleen maar artikelen ipv zelf te ervaren

[Reactie gewijzigd door lighting_ op 11 juli 2025 11:26]

Grok is beter dan ChatGPT in mijn ervaring: meer kennis, minder censuur, betere interpretatie van data.
Waar ChatGPT je vraag ontkent (want controverseel en schaars) gaat Grok wel informatie leveren met heldere bron verwijzingen.
Wat zijn zoal vragen en opdrachten waaraan je dat merkt?

ik denk dat ik met mijn LLM-gebruik daar niet zo snel tegenaan zou lopen. Voor zover ik weet zoek ik niet zo snel controversiële dingen op. En schaarse dingen geven volgens mij gewoon hele slechte antwoorden. Althans, dat is mijn ervaring. En ik zie wel vaker onzin voorbij komen. Ik gebruik vooral Claude.
Ik zal hier geen expliciete voorbeelden geven vanwege de gevoeligheid van onderwerpen.
Maar denk bijvoorbeeld aan minder bekende oorlogswreedheden door bepaalde groeperingen.

ChatGPT gaat ontkennen, trekt daarbij stellig verkeerde conclusies. Grok speurt betrouwbare bronnen op, legt verbanden en komt met bevestiging en interpretatie.

Het voelt alsof ChatGPT meer een ijverige student is en Grok de ervaren professor.

[Reactie gewijzigd door JJ Le Funk op 10 juli 2025 21:22]

Hey zegt genoeg dat ze slechts zeer beperkt info delen over Grok want zo goed is hij niet. Terwijl andere modellen multi-modaal worden staan ze met Grok trots te wijzen naar zijn tekst vaardigheden...
Dat is geen geheim he, werd gewoon gezegd in de presentatie. Ze zijn nu aan het trainen voor een beter model voor afbeeldingen.
Volgens mij heeft Grok al een tijdje ondersteuning voor het verwerken van bijvoorbeeld plaatjes:
https://x.ai/news/grok-1.5v
Writing code from a diagram {foto van tekening}
April 12, 2024

[Reactie gewijzigd door djwice op 10 juli 2025 20:12]

Het is toch wel indrukwekkend om te zien hoe snel XAI stappen zet. Als je ziet hoe laat ze instapten en hoe ze nu gewoon concurreren met OpenAI is gewoon echt knap.

Wel jammer dat Musk aan het roer zit.
Ik voorspel dat de ranglijst de komende tijd erg grillig gaat zijn. Sommige grote namen van nu ga je in de toekomst niet weer terug zien.
Wellicht dat het net doordat Musk aan het roer zit Xai het zo goed doet? Bovendien lijkt de bemoeienis van Musk vrij beperkt. Hij weet vooral de juiste mensen aan te trekken en hen tot het uiterste te laten gaan, of het nu Tesla, Xai, SpaceX is. Hij pusht op technologisch zo vooruitstrevend mogelijk, zo goedkoop mogelijk. Hij werkt als een bezetene aan technologische vooruitgang. Dat vooral aan de linkerzijde mensen daar tegen zijn is historisch goed te zien. De weerstand tegen industrialisering, de weerstand tegen automatisering, de weerstand tegen kernenergie, eigenlijk de weerstand tegen vooruitgang komt vooral van de linkerzijde van het politiek spectrum. DPG media heeft vooral een linkse bias, Als je maar genoeg DPG media leest (en dat is vrijwel onvermijdelijk in NL en BE) dan ga je (als je niet kritisch blijft denken) hier slaafs achterna lopen. Ik doe dat niet, en ik wordt hier vaak verrot gescholden. Prima. Ik zwijg niet.
Helemaal mee eens.

DPG kreeg 220miljoen subsidie van de EU om een bepaald narratief te verkondigen. Totaal niet onafhankelijk.
Ja, maar dat is natuurlijk fake nieuw voor de volgzame schapen hier.
Als je voor een project van twee maanden met een budget van 3000 euro dankzij Grok in minder dan een maand klaar kunt zijn, dan is 300 euro een meer dan verantwoorde investering.
Musk noemt Grok4 beangstigend.

Vanaf 2026 verandert de wereld.

Grok4 zal onze huidige natuurwetten wegwuiven en met nieuwe komen.

Hij maakt binnen 30sec een complete speelfilm.

Musk. YouTube: xAl's Mind Blowing Grok 4 Demo w/ Elon Musk (FULL REPLAY)

[Reactie gewijzigd door Ruud888 op 13 juli 2025 16:35]

Op dit item kan niet meer gereageerd worden.