1. Laagste prijs
    € 3.649,- bij Axitech
    Wacht je op een prijsdaling?
  2. Specificaties | Gebruikersreviews
  3. Willen (17) Hebben (3)

Bekijk alle reviews

ASUS Ascent GX10-GG0003BN Review

10 april 2026, laatste update op 10 april 2026, 339 views Rapporteer
Product gekocht +2

Het lokaal LLM's draaien op de Asus GX10 levert vele voordelen op:

* geen tokenlimiet (abo)
* geen prijs per token (api)
* data blijft binnenshuis (dus je kan vrolijk je terminal logs in de prompt dumpen)
* vrije modelkeuze

Ik weet dat het altijd gekker, groter, en duurder kan, maar voor mij was dit een erg interessant "tussenstation". Ik gebruik de Asus alleen om modellen te draaien. Qwen3-Coder-Next-FP8 is op dit moment mijn favoriet. In combinatie met vLLM werkt dit razendsnel als code assistant.

Decode snelheid staat genoemd als minpunt, maar onderschat niet het gemakt van een razendsnelle prefill fase. In de praktijk is dit gewoon echt snel genoeg voor wat ik ermee doe. En ik draai modellen die op mijn macbook met 24 G gewoonweg niet zouden passen.

Pluspunten

  • Qwen3-Coder-Next-FP8
  • Prefill stage is snel
  • Veel modellen beschikbaar die precies passen
  • Herrie valt enorm mee

Minpunten

  • Decode stuk trager dan GPU's
  • Decode trager dan moderne macs
  • SSD van 1T is echt snel vol

Eindoordeel

5 van 5 sterren (Uitstekend)
De Asus staat hier nu een paar weken op mijn bureau, naast mijn testlab (stapel van 3 NUCjes met proxmox, zie mijn andere review), en naast de Mac Studio M3 Max 512GB die ik te leen heb.

Er zijn meerdere varianten van dit platform, de Asus GX10 is slechts één van de implementaties van de GB10 Grace Blackwell Superchip met 128 GB LPDDR5X "unified memory". Dat laatste is meteen één van de killer features, net zoals bij Apple Silicon kun je dus helemaal los gaan met grote AI modellen op deze computer, en de GPU kan een groot deel van het geheugen rechstreeks aanspreken.

Allereerst, het is best interessant om verschillende modellen uit te proberen. Er is veel te ontdekken in de wereld van open source of free modellen (zie huggingface). Hoeveel context heb ik nodig om te programmeren? Bij hoeveel context raakt het geheugen vol, en wanneer raakt het model zelf de draad kwijt? Welke model presteert goed voor taak X. Welk model kan ik draaien als ik een moeilijke onderzoeksvraag heb? Werkt een model op 4-bits precisie nog net zo goed? etc.

De native support van NVFP4 moet wel genoemd worden in deze review. Jammer dat Nvidia z'n zaken nog niet op orde heeft (het is nu april 2026), maar ik reken erop dat ze gaan komen met goed werkende container images. Maar tot die tijd, is het aanprutsen: verschillende versies van "vLLM" proberen, soms een daily build, soms zelf een container bouwen, om dan tot de conclusie te komen dat de software wel werkt op de hardware, maar precies het model wat je wilt draaien, die snapt vLLM vervolgens niet. Zie dit als een kleine winstwaarschuwing. Je moet er wel een beetje trek in hebben om dingen uit te zoeken. (Wat dan overigens weer uitstekend gaat met Claude Opus achter de hand)

Maar ... die NVFP4 is meteen ook de reden dat ik dit platform enorm kan waarderen. Als je model kunt vinden en aan de praat weet te krijgen (!), en de GB10 rekent native met NVFP4 support, krijg je wel een flinke performance boost.

Een scherpe lezer heeft het al gezien bij de pluspunten, één model springt er voor mij persoonlijk uit: Qwen3-Coder-Next. Dit is een model wat voor mij heel goed werkt binnen VsCodium en Cline. Echter, ik heb dus de "FP8" variant draaien (40-50 tokens/s) omdat het met de NVFP4 versie simpelweg nog niet gelukt is.

Ik denk dat dit de meest eerlijke boodschap is: ja ik ben er erg blij mee, en ja ik moet er hoop aan sleutelen om modellen werkend te krijgen. Verwacht dus niet teveel een turn-key AI doosje. Voorbeeld: je laadt een te groot model, en in plaats van een fout of een OOM-killer, loopt het systeem vast en moet je een hardware powercycle doen.

Tot slot nog de Mac Studio, ja gaaf, enorm grote modellen zijn dan mogelijk. Maar ik moet ook eerlijk zeggen dat ik het "killer-model" om een Mac Studio met 512G te ambieren nog niet ben tegen gekomen. In de praktijk is de Asus misschien toch wel de juiste grootte en de juiste prijs. Over de prijs van de Mac zullen we het maar niet hebben...

Alle afbeeldingen

Beoordeel deze review:

Heb jij ook een ASUS Ascent GX10-GG0003BN?

Deel je ervaringen en help andere tweakers!

Schrijf review

Reacties (4)

Sorteer op:

Weergave:

Mooie hardware. Maar als Claude Code Max subscription gebruiker, vraag ik mij af wat voor voordeel dit kan geven. Tenslotte zijn deze lokale modellen een stuk minder krachtig dan Opus/Sonnet. Wat is jou ervaring / use case?
Mijn belangrijkste overwegingen waren, in volgorde van belang: (1) nieuwe technologie leren die relevant is binnen mijn vakgebied, (2) data alleen lokaal kunnen verwerken, en (3) het gemak voelen van flat fee / eindeloos prompten.

Voor pittige analyses kan ik inderdaad beter een abonnement gebruiken (ik heb Claude Pro en ChatGPT Plus). Het is voor mij geen zwart-wit verhaal waarbij ik bijvoorbeeld het niveau van Claude Opus thuis zou willen evenaren.

Ik weet nog niet of ik mijn abo's ga opzeggen. Met bijvoorbeeld GLM 5.1 op de Mac Studio, kom ik wel echt heel erg ver. Met Qwen3-coder-next zou ik denk ik wel wat tekort komen, en dan dus vaker op Claude Opus gaan leunen voor bijvoorbeeld code reviews en architectuur vragen.

De Mac Studio heeft vaak 10+ minuten bedenktijd (pre-fill fase) nodig met grote modellen zoals GLM 5.1, voordat er tokens gegenereerd worden. En ondanks die tekortkoming, hij kan wel echt gave dingen i.c.m. opencode.

Om je vraag te beantwoorden, als je je niet druk hoeft te maken over het lekken van prive en bedrijfsdata, en je voelt je op je gemak bij abonnementen, dan kun je daar denk ik met eigen hardware nooit tegenop. De terugverdientijd van een Mac Studio zou vele malen groter zijn dan de economische (technische) levensduur. Dat is wel de realiteit.

Maar ik wil bijvoorbeeld ook prive data gaan verwerken zoals een archief van foto's ("beschrijf deze foto" x heel veel foto's) zodat deze doorzoekbaar worden. Of podcasts vertalen naar tekst, en deze dan doorzoekbaar maken. Dat soort zaken. Er komen echt nieuwe toepassingen bovendrijven als je er anders naar gaat kijken, omdat je niet meer per token hoeft af te rekenen.
Thxs,

Voor privacy perfect natuurlijk. Maar idd dit waren ook mijn inschattingen. Misschien dat je met finetuning e.d. op opensource modellen wellicht ook nog dingen mogelijk kan maken die je nooit bij de hosted AI providers zou mogen doen.
Eens, het wordt steeds beter. Met quantization, kv cache optimalisatie en zo.

Modellen worden ook steeds beter, dus mijn verwachting is dat je over tijd steeds meer uit je hardware kunt halen...but hey, noob here ;-) Ben net de rabbit-hole ingedoken.

Om te kunnen reageren moet je ingelogd zijn