MSI's AI Edge-mini-pc kan 96GB ram toewijzen aan gpu

MSI brengt een serie desktop-pc's uit die bedoeld zijn voor 'AI-toepassingen'. De serie heet AI Edge en er komt direct een pc met die naam beschikbaar. Dat is een mini-pc met een inhoud van vier liter waarin een Ryzen AI Max+-processor zit, die AMD deze week aankondigde.

MSI begint met een nieuwe lijn, de AI Edge Series, die het bedrijf tijdens de CES-beurs in Las Vegas aankondigde. De AI Edge Series wordt een reeks desktops die 'specifiek gebouwd is voor AI-toepassingen'. De AI-elementen omvatten vooral de processor en dat er meer koeling dan gemiddeld in het apparaat zit, maar ook de manier waarop het geheugen in het apparaat zit.

Dat is in ieder geval zo bij de AI Edge, de eerste mini-pc in de reeks die het bedrijf tegelijk aankondigt. Die heeft een AMD-processor, specifiek een Ryzen AI Max+ 395 van vorig jaar. Dat is het topmodel van de Zen 5-apu's, al bracht AMD eerder deze week ook de minder krachtige AI Max+ 392 en 388 uit, naast de Ryzen AI 400-serie. De AI Max+ 395 heeft een gpu met 40 compute-units en een npu die maximaal 50Tops haalt.

De AI Edge heeft verder ook opvallend veel geheugen. Het gaat om maximaal 128GB aan Lpddr5x-8000-geheugen. Omdat het apparaat een Strix Halo-processor heeft, kan tot 96GB exclusief door de gpu worden gebruikt, zegt MSI, waardoor het mogelijk is llm's lokaal te draaien met 15 tokens per seconde. Gebruikers kunnen volgens MSI retrieval-augmented generation inzetten om die llm's te koppelen aan externe databronnen via de software in de mini-pc. MSI zegt niet wanneer het apparaat beschikbaar is en wat het moet gaan kosten.

MSI AI Edge MSI AI Edge

Door Tijs Hofmans

Nieuwscoördinator

08-01-2026 • 12:32

21

Reacties (21)

Sorteer op:

Weergave:

Een Strix Halo heeft niet opvallend veel geheugen als het 128GB betreft, dat is juist de meest verkochte/gewilde variant. Zie bijv de Framework Desktop

En waarom lijken Tweakers redacteurs toch steeds het verschil niet te (willen) kennen tussen hardware en software.

Hardware is niet automatisch Windows hardware.

Onder Linux kan je 128GB toewijzen aan de GPU. Bestandje aanmaken /etc/modprobe.d/strix-halo.conf:
## This specifies GTT by # of 4KB pages: 120(GB) x 1024 x 1024 / 4

options ttm pages_limit=31457280

options ttm page_pool_size=31457280
Reboot

Onder Windows kan je maximaal 96GB toewijzen aan de GPU.

De titel doet de hardware dus geen recht.

Jammer dat er nog geen prijs bekend is? Strix Halo's 96GB kan je al (nog) voor €1500 kopen (Bosgame M5).

https://strixhalo.wiki/Guides/Buyer's_Guide

gpt-oss-120b kan je er vrij goed op draaien: ca 25t/s

[Reactie gewijzigd door Jan121 op 8 januari 2026 13:12]

Dit moet genuanceerd worden: je wijst niet 128GB toe aan de GPU. Linux laat je toe om dynamisch, at runtime, geheugen te mappen naar zowel de GPU als de CPU met zo goed als geen performance nadeel.

Dit heet GTT. De config opties die je aanhaalt, daar stel je het maximum van de GPU in. Dit kan enkel bij het opstarten van de grafische driver en in mijn ervaring krijg je boven de 115GB geheugen allocatie fouten op Strix Halo.

En je onderschat de gpt-oss-120b throughput, ik heb net even opnieuw getest en krijg 45t/s.
Klopt, maar ik hield de formulering van Tweakers aan.

Overigens vreet de GPU wel alles op wat je hem toewijst, als ie honger heeft, dus je moet hem niet alles toewijzen :), want dan gaat wordt het geheel instabiel.
Ik heb op mijn strix tot 124gb stabiel gekregen (kleine context)
Is dit niet een beetje mierenneuken? Je kan het altijd wel toewijzen maar het gaat om specifiek de halo strix variant waarbij het gedeelde geheugen veel sneller werkt en beter geïntegreerd is voor zover ik dat weet
Mierenneuken? Wat bedoel je?

Juist bij de Stix Halo is alle RAM ook VRAM. Alleen de GPU bandbreedte VRAM (praktisch) is ca 228GB/s, een stuk sneller dan voor de CPU.

De hoeveelheid VRAM die de GPU kan aanspreken dien je in te stellen. Voor Windows in de Bios (statisch), voor Linux kan dat tijdens het booten, en dat is dan de max waarde, want het is dynamisch.
Ik heb je comment opnieuw gelezen, ik begreep je verkeerd. Excuus!
idd, onder linux kun je bijna alles toewijzen aan de gpu. Je moet wel rond 1gb toewijzen voor de linux OS.
In je BIOS/UEFI kan je een maximum hoeveelheid ram toewijzen aan je dedicated GPU, maar die limiet is eigenlijk niet relevant. Want wat doet een GPU als zijn VRAM vol loopt? Dan schakelt hij over naar het systeemgeheugen.

Bij een dedicated GPU is dat een drastische performancedrop want je gaat van supersnel GDDR videogeheugen naar relatief traag DDR systeemgeheugen.
Bij een APU echter, maakt het niets uit want als je het maximaal toegewezen geheugen vol loopt, dan gebruikt hij gewoon meer van hetzelfde systeemgeheugen.

Dat is gemakkelijk aan te tonen door in de BIOS/UEFI maar 64MB ram toe te wijzen. In principe zou je PC dan onwerkbaar moeten zijn met zo weinig geheugen, maar toch is dat niet zo (bron), hij zal even snel zijn als anders.

Dat toont aan dat de APU zich niets aantrekt van de limiet die jij instelt. Sterker nog, het is zelfs beter om maar voor 64MB te kiezen, want hoe meer je reserveert voor de GPU/IGP, hoe minder er overblijft voor de rest van het systeem.

De Ryzen AI Max+ zal dus los van iedere limiet die je instelt, altijd het maximaal beschikbaar geheugen kunnen gebruiken. Het zou bij deze APU in functie van lokale llm's zelfs logischer zijn dat het omgekeerde mogelijk is, namelijk dat je het het geheugen kan beperken voor de CPU i.p.v. de GPU.
Want wat doet een GPU als zijn VRAM vol loopt? Dan schakelt hij over naar het systeemgeheugen.
Onzin, in ComfyUI krijg je dan een OOM (out of memory).
Als de overstap naar systeemgeheugen ervoor zorgt dat het de prestaties volledig te geniet doet, dan zullen bepaalde toepassingen inderdaad geen systeemgeheugen aanspreken, maar standaard is dat in Windows wel zo.

Maar hier gaat het om een APU, waarbij de CPU en de IGP beiden van hetzelfde systeemgeheugen gebruik maken, waardoor je enkel een Out of memory foutmelding zal krijgen als het volledige systeemgeheugen vol zit, ongeacht hoeveel geheugen je hebt toegewezen aan de IGP.

[Reactie gewijzigd door ShaiNe op 8 januari 2026 22:32]

Rare titel, dat is toch simpelweg een feature van de gebruikte Ryzen AI Max+ ?
Ja inderdaad alle AI Max+ PC's hebben dit. Ik heb er zelf een ervaring mee en is nog wat geklungel om modellen te runnen. Veel programma's inclusief AMD's eigen AI studio proberen modellen eerst volledig in de CPU te laden, maar daar is dan geen RAM voor omdat de GPU bijna al het RAM heeft. Dus dan moet je eerst uitvinden dat het alleen met LM Studio werkt en je bepaalde settings aan moet zetten etc. Initieel dacht ik dat de 128GB shared was tussen de GPU en CPU maar dat is het dus niet. Niet ideaal.

[Reactie gewijzigd door Osiummaster op 8 januari 2026 12:55]

Dat zijn dan toch echt pure software limitaties, want op Linux + AMD + UMA is het wel degelijk mogelijk om RAM geheugen read/write te mappen zodat zowel de CPU als de GPU er direct bijkunnen. Er zijn dan wel limitaties aan de bandbreedte en welke read/write patronen die efficient kunnen werken omdat de caches van de CPU en de GPU niet geunificeerd zijn, en bijvoorbeeld uncached random access CPU reads van data die door de GPU is geschreven extreem traag is. Maar het geheugen zelf kan volledig geshared worden zonder dat je alles heen en weer hoeft te kopieren.
Ik ging gelijk even op zoek voor mijn Intel NUC. Maar blijkbaar kan dit ook. Binnenkort even testen.
96GB RAM? Dat klinkt als een erg dure hobby. :+
128GB aan DDR5 RAM zelfs. Woei.

AI-Alsof het niets kost.
(Energie, Water (volgens de krant van gisteren en kei harde euro's voor het RAM dus).
heb je wel een tweede hypotheek voor nodig tegenwoordig ;)
nee, derde.

de tweede ging al naar de GPU. :)
Er zijn al geoptimaliseerde AI's voor deze processor https://www.youtube.com/@FastFlowLM-YT met een focus op de NPU, in deze benchmarks lijkt dat vaak veel sneller te gaan als de GPU.

Om te kunnen reageren moet je ingelogd zijn