AMD's Ryzen AI Halo-mini-pc verschijnt in juni, concurreert met Nvidia DGX Spark

AMD brengt in juni zijn eigen mini-pc uit, genaamd de Ryzen AI Halo. Hij beschikt over een Ryzen-chip met zestien cpu-cores en een krachtige ingebouwde gpu. AMD gaat hiermee de concurrent aan met Nvidia's DGX Spark-mini-pc voor ontwikkelaars.

AMD kondigde het Ryzen AI Halo-systeem in januari al aan tijdens de CES. Het bedrijf sprak toen al over een release in het tweede kwartaal. De chipmaker bevestigt nu dat de mini-pc volgende maand op de markt komt. Volgens VideoCardz gebeurde dat tijdens AMD's AI DevDay, dat afgelopen donderdag plaatsvond. De prijs van de Halo-mini-pc is vooralsnog onbekend, al zal hij waarschijnlijk niet goedkoop worden.

Volgens AMD is de Ryzen AI Halo speciaal bedoeld voor AI-ontwikkelaars. Hij is dan ook geoptimaliseerd voor verschillende AI-modellen. Hij kan zowel Windows als Linux draaien; volgens VideoCardz draaide het demomodel tijdens AMD's DevDay bijvoorbeeld op Ubuntu.

De pc is gebaseerd op de Ryzen AI Max+ 395, die we op de redactie al meermaals zijn tegengekomen in systemen als de Framework Desktop. Die chip beschikt over 16 Zen 5-cores, een ingebouwde gpu met 40 RDNA 3.5-compute-units, en maximaal 128GB werkgeheugen. Mini-pc's met de Ryzen AI Max+ 395, die in 2025 al op de markt kwam, kostten bij release vaak 2000 euro of meer.

De Ryzen AI Halo wordt door AMD gezien als een concurrent voor de DGX Spark, een soortgelijke mini-pc van Nvidia. Ook de DGX Spark is speciaal bedoeld voor AI-ontwikkelaars en beschikt over 128GB werkgeheugen, maar dan met een Arm-cpu en Nvidia-gpu. Dat systeem is beschikbaar voor ruim 3000 euro.

AMD Ryzen AI Halo
De Ryzen AI Halo. Bron: AMD

Door Daan van Monsjou

Nieuwsredacteur

01-05-2026 • 19:31

15

Reacties (15)

Sorteer op:

Weergave:

Wat zijn "AI-ontwikkelaars"?

Ontwikkelaars welke uit AI Agents bestaan?
Ontwikkelaars welke AI Agents gebruiken?
Ontwikkelaars welke AI ontwikkelen / modellen trainen?
De doelgroep is mensen die AI ontwikkelen of met AI ontwikkelen (vb. programmeurs die een lokaal LLM model willen ofwel trainen of draaien). Het is relatief goedkoop als je een model wilt draaien die binnen de limieten van het doosje passen. Je kunt gemakkelijk doorheen honderden euros per maand aan tokens draaien voor zelfs simpele code-assistentie, een 5000 euro doosje heeft zich dan snel terugbetaalt.

Het probleem met deze "alternatieven" is dat de ondersteuning zelfs voor de DGX Spark niet echt denderend is binnen zowel NVIDIA containers als "third party" (PyTorch/Tensorflow), deze gelimiteerde GPUs met gedeeld geheugen zijn gewoon niet goed ondersteund tov een volwaardige Blackwell met dedicated geheugen in een x86 omgeving.

Daar stapelen we nu op dat de ondersteuning voor AMD GPU in het algemeen niet zo denderend is binnen de bovenstaande frameworks (het is geen CUDA, als je geluk hebt OpenCL, en ROCM is karig), omdat AMD niet echt investeert in de ondersteuning/ontwikkeling van software (vergeleken met NVIDIA). Een klein voordeel en tegelijkertijd groot nadeel is dat de AMD Ryzen AI(whatever) een x86 (laptop) chip is, de ARM CPU van NVIDIA, net als Apple kunnen veel meer rekenen met veel minder verbruik, zelfs voor 'gewoon' rekenwerk (compileren, docker build etc)

[Reactie gewijzigd door Guru Evi op 1 mei 2026 20:17]

Weinig problemen met rocm/llama op een machine als deze. Wellicht dat vllm of sglang minder goed werken maar dat is op een doosje als dit ook niet echt nodig.
Taalnazi, ik weet het, maareh… zullen we weer gewoon “die” gaan gebruiken?
Die eerste zou nog kunnen omdat het niet over personen gaat. :+
Klinkt interessant, als het echt werkt. Wist niet dat AMD al op een dusdanig niveau was dat ze kunnen concurreren met NVidia.
Ben reuze benieuwd naar de performance en ik denk dat alles valt of staat met de bandwidth van het geheugen. Heb zelf een Macbook M4 Max met 128 Gb geheugen. Leuk om grote modellen in te laden maar de inference speed is om te huilen zo traag. De fans maken overuren als ik iets met AI probeer. Enige voordelen zijn dat je grote modellen kan inladen door het unified memory en ook een hele grote context size gebruiken en daarnaast verbruikt de laptop beduidend minder stroom dan een beetje NVidia kaart. Maar helaas is de performance voor AI bedroevend. En helaas is 128 GB niet echt behoorlijk veel als het om AI gaat.
Ben benieuwd hoe dit met de AMD box zal gaan.
En met dat de 128GB RAM niet superveel is, zijn de 2(!) QSFP-poorten op een DGX welkom. DIe zitten denk ik niet op deze Ai Halo Mini PC.
Die lijken leuk als je tensor parallel wilt doen. Maar eigenlijk wil je dan toch gewoon rtx6000 want het geheugen op de spark (en de amd 395 bakjes) is ongeveer 250gb/s. Ofwel 2 tokens per seconde als je een 122b model op q8 hierop draait.
als AI trainen je ding is zou ik niet zo snel inzetten op een AIO build, maar zou ik veel eerder gaan proberen om de verschillende layers uit elkaar te trekken, een tool als VLLM bijvoorbeeld schijnt grote modellen ook over verschillende gpu's te kunnen verdelen zolang de individuele layers maar kleiner zijn dan het vram.

dan werken 4x 8gb kaartjes ineens net zo goed (of beter) dan 1x 32gb, en zit je alleen nog met de initialisatie lag die je bij low-bandwiddth soms hebt. (bron verschillende yt vids - die ik even niet terug ga zoeken)
Nou, de prijzen van de goedkoopste spark zijn al bijna 4000 euro. Dus vanaf 3000 euro is nogal... pre memory hausse.

uitvoering: ASUS Ascent GX10-GG0003BN

Ben wel benieuwd wat de prefill en geheugenbandbreedte zijn, dat laatste gaat de DGX spark nat op.
Heb de asus ascent gx10, het recept goed samenstellen is heel belangrijk. Daar gaat wel wat zoekwerk soms inzitten, gebruik vllm dat helpt ik wil ook niet te snel iedere keer van llm wisselen. Je weet wat hebt maar niet wat je krijgt 🥸.

toevallig wel net overgestapt op de qwen3.6 die is goed, had wel moeite om deze in het goede window te krijgen. Dit lijkt nu goed te gaan.

Heb altijd nemotron 3 super 122b achter de hand als het context window boven 250k nodig heb. Deze kan alleen text verwerken, de Qwen is wat breder in toepassing
Ik heb het verhaal nou 3x gelezen, maar wat is nu precies het verschil met de Halo Strix mini pc's met 128GB en exact dezelfde CPU?
Zit hier een andere iGPU in?

Of is dit gewoon een versie van exact dezlfde mini pc's alleen nu van AMD met misschien wat meer AI software support?
Ik denk dat je het moet zien zoals een soort "founders edition" bij nVidia.
Ik wacht op de custom chips die hopelijk komen voor snelle inference 😁

Om te kunnen reageren moet je ingelogd zijn