1. Laagste prijs
    € 3.698,99 bij CAPS
    Wacht je op een prijsdaling?
  2. Specificaties | Gebruikersreviews
  3. Willen (15) Hebben (3)

Bekijk alle reviews

ASUS Ascent GX10-GG0003BN Review

10 april 2026, laatste update op 10 april 2026, 19 views Rapporteer
Product gekocht +1

Het lokaal LLM's draaien op de Asus GX10 levert vele voordelen op:

* geen tokenlimiet (abo)
* geen prijs per token (api)
* data blijft binnenshuis (dus je kan vrolijk je terminal logs in de prompt dumpen)
* vrije modelkeuze

Ik weet dat het altijd gekker, groter, en duurder kan, maar voor mij was dit een erg interessant "tussenstation". Ik gebruik de Asus alleen om modellen te draaien. Qwen3-Coder-Next-FP8 is op dit moment mijn favoriet. In combinatie met vLLM werkt dit razendsnel als code assistant.

Decode snelheid staat genoemd als minpunt, maar onderschat niet het gemakt van een razendsnelle prefill fase. In de praktijk is dit gewoon echt snel genoeg voor wat ik ermee doe. En ik draai modellen die op mijn macbook met 24 G gewoonweg niet zouden passen.

Pluspunten

  • Qwen3-Coder-Next-FP8
  • Prefill stage is snel
  • Veel modellen beschikbaar die precies passen
  • Herrie valt enorm mee

Minpunten

  • Decode stuk trager dan GPU's
  • Decode trager dan moderne macs
  • SSD van 1T is echt snel vol

Eindoordeel

5 van 5 sterren (Uitstekend)
De Asus staat hier nu een paar weken op mijn bureau, naast mijn testlab (stapel van 3 NUCjes met proxmox, zie mijn andere review), en naast de Mac Studio M3 Max 512GB die ik te leen heb.

Er zijn meerdere varianten van dit platform, de Asus GX10 is slechts één van de implementaties van de GB10 Grace Blackwell Superchip met 128 GB LPDDR5X "unified memory". Dat laatste is meteen één van de killer features, net zoals bij Apple Silicon kun je dus helemaal los gaan met grote AI modellen op deze computer, en de GPU kan een groot deel van het geheugen rechstreeks aanspreken.

Allereerst, het is best interessant om verschillende modellen uit te proberen. Er is veel te ontdekken in de wereld van open source of free modellen (zie huggingface). Hoeveel context heb ik nodig om te programmeren? Bij hoeveel context raakt het geheugen vol, en wanneer raakt het model zelf de draad kwijt? Welke model presteert goed voor taak X. Welk model kan ik draaien als ik een moeilijke onderzoeksvraag heb? Werkt een model op 4-bits precisie nog net zo goed? etc.

De native support van NVFP4 moet wel genoemd worden in deze review. Jammer dat Nvidia z'n zaken nog niet op orde heeft (het is nu april 2026), maar ik reken erop dat ze gaan komen met goed werkende container images. Maar tot die tijd, is het aanprutsen: verschillende versies van "vLLM" proberen, soms een daily build, soms zelf een container bouwen, om dan tot de conclusie te komen dat de software wel werkt op de hardware, maar precies het model wat je wilt draaien, die snapt vLLM vervolgens niet. Zie dit als een kleine winstwaarschuwing. Je moet er wel een beetje trek in hebben om dingen uit te zoeken. (Wat dan overigens weer uitstekend gaat met Claude Opus achter de hand)

Maar ... die NVFP4 is meteen ook de reden dat ik dit platform enorm kan waarderen. Als je model kunt vinden en aan de praat weet te krijgen (!), en de GB10 rekent native met NVFP4 support, krijg je wel een flinke performance boost.

Een scherpe lezer heeft het al gezien bij de pluspunten, één model springt er voor mij persoonlijk uit: Qwen3-Coder-Next. Dit is een model wat voor mij heel goed werkt binnen VsCodium en Cline. Echter, ik heb dus de "FP8" variant draaien (40-50 tokens/s) omdat het met de NVFP4 versie simpelweg nog niet gelukt is.

Ik denk dat dit de meest eerlijke boodschap is: ja ik ben er erg blij mee, en ja ik moet er hoop aan sleutelen om modellen werkend te krijgen. Verwacht dus niet teveel een turn-key AI doosje. Voorbeeld: je laadt een te groot model, en in plaats van een fout of een OOM-killer, loopt het systeem vast en moet je een hardware powercycle doen.

Tot slot nog de Mac Studio, ja gaaf, enorm grote modellen zijn dan mogelijk. Maar ik moet ook eerlijk zeggen dat ik het "killer-model" om een Mac Studio met 512G te ambieren nog niet ben tegen gekomen. In de praktijk is de Asus misschien toch wel de juiste grootte en de juiste prijs. Over de prijs van de Mac zullen we het maar niet hebben...

Alle afbeeldingen

Beoordeel deze review:

Heb jij ook een ASUS Ascent GX10-GG0003BN?

Deel je ervaringen en help andere tweakers!

Schrijf review

Reacties

Sorteer op:

Weergave:

Er zijn nog geen reacties geplaatst


Om te kunnen reageren moet je ingelogd zijn