GMKtec-mini-pc met Ryzen AI Max+-cpu en 128GB ram kost 1999 euro

GMKtec brengt begin mei de EVO-X2 uit. Het is een van de eerste mini-pc's met AMD's nieuwe Ryzen AI Max+ 395-processor. Met 64GB ram kost het systeem 1499 euro, met het maximum van 128GB ram is dat 1999 euro.

De Ryzen AI Max+ 395-processor beschikt over 16 cores en 32 threads, met een maximale kloksnelheid van 5,1GHz. De 4nm-chip heeft een tdp van 140W. De computer bevat een Radeon 8060S-gpu met 40 cores. De geïntegreerde npu levert volgens GMKtec 50Tops aan rekenkracht voor AI-toepassingen, wat in combinatie met cpu en gpu zou neerkomen op 126Tops. Het systeem zou grote taalmodellen tot 70 miljard parameters kunnen verwerken.

De EVO-X2 is leverbaar met 64GB of 128GB lpddr5x-geheugen op 8000MHz en een PCIe 4.0-ssd tot 2TB, uit te breiden naar 4TB. De connectiviteit omvat Wi-Fi 7 via een RZ717-chip en Bluetooth 5.4. Het systeem heeft aan de voorzijde twee USB 3.2 Gen 2-poorten, een USB4-aansluiting, audio-uitgang en SD-kaartlezer. Achterop zitten DisplayPort 1.4 en HDMI 2.1, USB 3.2 Gen 2, twee USB 2.0-poorten, USB4 en een 2,5Gbit/s-ethernetaansluiting.

De mini-pc is vanaf begin mei beschikbaar. Een exacte datum geeft GMKtec niet. Bij een pre-order moet er een borg van 200 euro worden betaald; de rest van het aankoopbedrag moet op 7 mei betaald worden.

GMKtec EVO-X2
GMKtec EVO-X2

Door Andrei Stiru

Redacteur

15-04-2025 • 14:28

55

Reacties (55)

55
55
19
5
0
30
Wijzig sortering
@Tomas Hochstenbach ben wel benieuwd hoe deze in de AI uitvoerd 128GB klinkt alsof er grote modellen op passen.

Met de https://www.asus.com/event/asus-ascent-gx10/ voor €2364,- is het natuurlijk de vraag of je niet liever die zou hebben.
Ik ook! Ik heb een review sample aangevraagd, fingers crossed!
als je hem krijgt, zou het mogelijk zijn flux mee te nemen in de testen? Mogelijk door https://community.amd.com...-resolution-a/ba-p/697374
Ondersteunt die ook LoRa modellen boven op flux.1 of state diffusion?
Onbekend - het gaat mij meer om de inference performance vergeleken met grafische kaarten, iedere reviewer verdomt het om flux even te testen, of zelfs een SD 1.5 of SDXL test te draaien.
Waarschuwing: dit bedrijf antwoord niet op emails. Doe geen zaken met deze partij. Mijn order bleef vastzitten en kreeg geen gehoor. Pas nadat ik een geschil indiende via PayPal kreeg ik reactie.

[Reactie gewijzigd door BasZer op 15 april 2025 19:02]

Lijkt me heftig voor een miniPC ...wat zou de doelgroep hiervoor zijn ? Ik lees veel over "lokaal LLM's draaien", maar ben ik de enige die dit niet doet ? Wat zijn de use cases om dit te doen ?
Er zijn eigenlijk twee doelgroepen:
  • Als je met grote AI-modellen speelt is de hoeveelheid geheugen erg belangrijk. Past het model in je geheugen, dan heb je goede performance. Heb je dat niet, dan stort je performance totaal in. De kracht van de GPU is dan niet eens meer relevant. Van deze 128GB hoef je maar 10GB-16GB aan je CPU toe te kennen dus dan hou je 100GB+ over voor je GPU, wat ruimschoots meer is dan een losse high-end videokaart.
  • Voor een gamer die het formaat van een PC echt belangrijk vindt, bijvoorbeeld om de PC in zijn TV-meubel te zetten, is het leuk als je geen losse videokaart nodig hebt. Deze IGP is ruimschoots krachtiger dan alle concurrentie. Al zal die groep klein zijn, want je betaalt zo 2-3 keer meer dan even krachtige hardware in een mATX-PC.

[Reactie gewijzigd door bwerg op 15 april 2025 15:21]

Is die 128GB en een dikke npu niet een beetje zinloos als je er op wilt gamen op je TV? Ik mis even waarom iemand in het tweede scenario dat ie schets niet een wat meer gamegericht systeem aan zou schaffen. Kloten met llms op je tv settup lijkt me namelijk ook niet bepaald handig
Ja, de 128GB is totaal overkill. 32GB is redelijk, 64GB is leuk en toekomstgericht. Zeker omdat dit geheugen vastgesoldeerd zal zijn.

Maar het gaat dan niet zozeer om de hoeveelheid geheugen, maar meer omdat deze IGP 40 compute units heeft, terwijl het maximum in desktop-APU's nu 12 compute units is. En dat samen met het unified geheugen met hogere bandbreedte dan regulier DDR4/DDR5, zodat de geheugenbandbreedte geen bottleneck is.
Het gaat duidelijk over AI modellen draaien en dan is 128Gb unufied niet speciaal veel.

Ook een specifieke NPU van 40TOPS is echt niet speciaal meer. Een Iphone 16 heeft er ook 38 en veel laptops halen ook die 40 Tops.

Wat hier uniek aan is, is dat je veel geheugen en een redelijke NPU + GPU kan combineren in een kleine behuizing.

Wat de use case is weet ik niet. Alvast mensen die lokaal AI willen draaien en geen compacte Apple pc willen aanschaffen.
"Het gaat duidelijk over AI modellen draaien en dan is 128Gb unufied niet speciaal veel. "
Ik reageerde dan ook op een POST waarin het specifiek over gaming ging, dus daar ging het duidelijk niet over. ;)

"Wat hier uniek aan is, is dat je veel geheugen en een redelijke NPU + GPU kan combineren in een kleine behuizing. "
Oftewel, 40 CU's in een APU.

[Reactie gewijzigd door bwerg op 15 april 2025 17:22]

Hoe zit het eigenlijk met windows zit deze erbij of moet je die ook nog los aanschaffen?
Als je met grote AI-modellen speelt is de hoeveelheid geheugen erg belangrijk. Past het model in je geheugen, dan heb je goede performance. Heb je dat niet, dan stort je performance totaal in. De kracht van de GPU is dan niet eens meer relevant. Van deze 128GB hoef je maar 10GB-16GB aan je CPU toe te kennen dus dan hou je 100GB+ over voor je GPU, wat ruimschoots meer is dan een losse high-end videokaart.
Hoe doe je dat eigenlijk concreet ? swapfile maken over een ramdisk ? BIOS/EFI setting zoals in de AGP (Aperture) tijd destijds ? En is de latency winst die je van mem -> cpu haalt echt zo belangrijk want je kan toch van mem -> pcie -> gpu vram op een GPU met een goede TOPS/vram verhouding voor de job ?
Waarschijnlijk in BIOS/UEFI hoeveelheid geheugen teagewezen aan de gpu instellen. Ik zou in dit geval 112 GB aan de GPU cadeau doen. Ik heb met een minisforum onlangs iets gelijkaardigs gedaan.
En is de latency winst die je van mem -> cpu haalt echt zo belangrijk
Als je naar het linkje doorklikt zie je dat dat inderdaad heel belangrijk is. ;)

Als je applicatie om de haverklap van je RAM via je CPU naar je videokaart moet staat je videokaart gewoon driekwart van de tijd te wachten en dus niks te doen. Je hebt niks aan rekenkracht als die rekenkracht aan het niksen is. Verplichte auto-vergelijking: een fiat panda op een lege weg gaat sneller dan een ferrari in de file.

Je noemt een "TOPS/vram verhouding", maar er is geen reden dat die verhouding iets nuttigs zou betekenen. Te weinig VRAM maakt je rekenkracht nutteloos, het is niet alsof dat oke is als je je rekenkracht ook wat verlaagt. En andersom, als je genoeg VRAM hebt hoef je die niet verder op te hogen om meer rekenkracht te kunnen benutten.

[Reactie gewijzigd door bwerg op 15 april 2025 22:01]

Als je naar het linkje doorklikt zie je dat dat inderdaad heel belangrijk is. ;)
Welk linkje, die van het product zelf ?
Als je applicatie om de haverklap van je RAM via je CPU naar je videokaart moet staat je videokaart gewoon driekwart van de tijd te wachten en dus niks te doen. Je hebt niks aan rekenkracht als die rekenkracht aan het niksen is. Verplichte auto-vergelijking: een fiat panda op een lege weg gaat sneller dan een ferrari in de file.
Maar moet dat nog ... er zijn toch nieuwe technologieen zoals RDMA via PCIe/CXL ?
Je noemt een "TOPS/vram verhouding", maar er is geen reden dat die verhouding iets nuttigs zou betekenen. Te weinig VRAM maakt je rekenkracht nutteloos, het is niet alsof dat oke is als je je rekenkracht ook wat verlaagt. En andersom, als je genoeg VRAM hebt hoef je die niet verder op te hogen om meer rekenkracht te kunnen benutten.
Ja die metric/ratio heb ik even uit mijn kont gezogen denkende dat er per model-size/model approach een ideale TOPS/vram verhouding kon bestaan die de constante batch moves van data in RAM via PCIe bus naar VRAM kon minimaliseren. Niet dat dat is hoe het werkt - maar wel hoe ik denk dat het zou moeten kunnen werken "sort of".

[Reactie gewijzigd door goarilla op 15 april 2025 22:57]

Welk linkje, die van het product zelf ?
Die in de post waar je op reageerde... tweakers heeft nou net precies je vraag beantwoord door middel van benchmarken.
er zijn toch nieuwe technologieen zoals RDMA
Dan nog is er latency van je RAM naar je GPU. En die latency is er niet als je hele rekenmodel in het VRAM past.

[Reactie gewijzigd door bwerg op 15 april 2025 23:01]

Dan nog is er latency van je RAM naar je GPU. En die latency is er niet als je hele rekenmodel in het VRAM past.
Nee en VRAM is normaal gezien ook veel veel veel sneller dan RAM en met deze iGPU zit je toch aan gewoon RAM vast albeit dichter maar dan betwijfil ik of de extra latency via PCIe/CXL bus zoveel toevoegt. Zeker als je weet dat dingen zoals dit (https://www.smartm.com/product/cxl-aic-cxa-8f2w) misschien ook terug aan het komen zijn voor AI use cases.
Hoewel het niet iets is wat ik persoonlijk doe, is het toch zeker wel iets waar genoeg vraag naar is. Kijk maar naar de reacties onder Tweakers GPU benchmarks, of zelfs gisterochtend nog een heel artikel over de snelheid van lokale LLMs op nieuwe GPUs.

Voor mensen die toch LLMs willen gebruiken maar niet afhankelijk willen zijn van cloud/grote tech bedrijven lijkt mij dit toch best handig.
Het is niet niet interessant. Het is een eigen vlooienmarkt.
Een orakel in je machine.
omdat het kan, spelen met de tech, ...
Heb bij me thuis zoveel staan dat overkill is voor thuis, maar is een hobby als een ander
Denk ook aan MKB die gevoelige data van zichzelf of klanten niet mag of wil delen. Voor 2000 euro (+stroom) kun je toch je personeel gebruik laten maken van verschillende LLM’s zonder enige beperkingen.
Ik doe het aan de ene kant voor hobby, aan de andere kant om kosten te besparen(krachtige pc heb ik sowieso al), en daarnaast uit privacy overwegingen. Als je, net als ik LLM's iedere dag gebruikt, dan leert een Chatgpt/Gemini/Whatever je best goed kennen. Vraag maar eens "Wat weet je over mij". Je kan je afvragen of dat wenselijk is. Op mijn lokale LLM voel ik mij veel vrijer om "alles" te vragen/deponeren.

Daarnaast hou ik zo ook mijn code "uit de cloud".
Een model als Gemma3-27B, doet voor general chat nauwelijks onder voor Gemini of ChatGPT en er zijn daarnaast aardig wat coder modellen om uit te kiezen voor codeer ondersteuning.
Use cases zijn o.a.
- Niet afhankelijk zijn van cloud diensten mochten deze de prijzen flink omhoog gooien, over je schouder meegluren, fair use policy op token verbruik forceren etc.

- Als je prive zaken wil bespreken met de LLM waarbij het onwenselijk is dat je de controle over deze data verliest in de cloud. Lokaal blijf je baas over eigen data. Denk bv aan medische of psychologische consulten en info. Je kunt een RAG database eraan koppelen die alle chats en info onthoudt en kan oproepen wanneer dat relevant is, en deze prive houden.

- Voor ontwikkelaars kan het lonen als een LLM lokaal draait. Er komen steeds meer goede LLMs die middelgroot zijn (ie onder de 100B parameters) die goede coding eigenschappen laten zien. Vooral voor erg grote aanpassingen met hoog token verbruik kan het interessant zijn. Of als je grote hoeveelheden data/tekst wil vertalen of transformeren etc.

- Als je wilt experimenteren met fine tunen van modellen. Een volledig nieuw groot model trainen gaat niet lukken, maar fine tunen zou zeker mogelijk zijn.

- Naast je gewone PC een mini box hebben waar je deze LLMs op draait zodat je op je workstation zonder vertraging andere dingen kunt doen. Ik heb al heel wat issues gehad met vastlopende apps, games, webbrowsers etc als het geheugen vol zit met LLM gecachete data en er te weinig vram over is.
Wat ook kan is de LLM op een 128GB snelle LLM pc te draaien en een lichte text to speech en speech to text op je lokale PC draaien, dan kun je real time met een model kletsen. Om dat allemaal op 1 kaart of PC te doen kan wat traag worden, en vergt veel geheugen zowel vram als ram.

Maar deze AMD gepowerde machine vind ik zelf nog wat te traag voor middelgrote LLMs gezien de lage TOPS. Je wilt minimaal 1000 tops, zeker met grotere modellen. De blackwell GB10 machines die in de zomer uitkomen lijken meer in deze richting te komen.
Doel groep is
data privacy
censuur vrij
abbo loos

en dus mijden van Cloud base data graaiers Google MS. En china cloud AI cencuur daar boven op. Naast dat grote US diensten ook wel wat censuur hebben. Denk dat bedrijven dat vaker willen. Je wilt niet je bedrijfs geheimen in chinese cloud hebben. Ook niet bij google of MS.
ben wel benieuwd naar benchmarks.. Kan je hier net zo snel een LLM mee draaien als via OpenAI?
Leuke homeassistant mini pc....
Voor letterlijk 10% van het geld kun je al een mini pc kopen (nieuw) die Home Assistant ruim kan draaien, waarom zou je ooit deze mini pc voor Home Assistant gebruiken?
Dat ligt er natuurlijk ook aan wat je wilt. Nu gebruik ik sowieso geen Assist. Maar als ik een krachtige (maar zuinige) server zou hebben zou ik Assist wellicht wel overwegen als ik de speech-to-text, LLM, en text-to-speech lokaal kan draaien. Want ik hoef dat echt niet in de cloud te hebben en ga er ook niet voor betalen (gewoon door gebrek aan interesse).

Maar als je een systeem als dit over X jaar voor sub €500 kunt kopen en het idle verbruik onder de 10W ligt zou ik het wel overwegen. Uiteraard ook gecombineerd met andere "AI" toepassingen dan ("Paperless-NXG" is volgens mij ook een soort van AI uitbreiding van, om maar eens wat te noemen. En ook daarbij zou ik echt niet mijn facturen, belastingaangifte, ... uploaden naar een ChatGPT voor interpretatie van het document).
Maar uiteraard zie ik het niet snel gebeuren dat dit relatief goedkoop en "zuinig idle" beschikbaar komt (uiteraard kun je het nu ook met GPUs, maar dan neemt het idle stroomverbruik ook fors toe).
€500 en 10W idle is wel een heel ander verhaal dan €1999 en 140W TDP (dat zal idle natuurlijk minder zijn). Met €500 kom je al aardig in de buurt van een goedkope N100 mini pc, als die machine dan ook nog voordelen heeft boven een N100 mini pc is de keuze natuurlijk snel gemaakt. Dus ja, als het veel goedkoper en zuiniger wordt zou ik het ook overwegen, maar ik vrees dat de mini pc uit het artikel nooit in de buurt gaat komen.
Ik denk dat je een N100 minipc tegenwoordig al voor €150 hebt. Daarboven gaat het natuurlijk exponentieel voor elke stap hoger, tot nu deze €2k (of 15k als je de macs meerekent)
Dat zijn LLM specialisaties, voordeel daarvan is dat ze kleiner zijn en hebben dat deel voor je use case. Inference local service zou dan met zuinigere nuc achtige mini pc kunnen.
Deze mini pc is al stuk zwaarder naast dat LLM ook steeds verbeteren correcter efficiënter worden.
omdat het kan...

zit al een tijdje te denken aan een cluster ms01...

paar vm's
paar containers.

gewoon voor de leuk..

zelfs mijn 10 jaar oude dell 7270 is overkill voor HA
Dat is zeker leuk (ik gebruik N100 mini pc's voor hetzelfde doel), maar het prijsverschil tussen een MS-01 en de mini pc uit dit artikel is gigantisch. Het wordt al snel minder leuk als je €1500-2000 per machine kwijt bent, denk ik.

Wat betreft de MS-01, ik heb even snel gezocht en kwam op €500+ per machine uit. Je kunt ze wel configureren met flink meer power dan een N100, maar voor €500 kun je 3 N100's bij AliExpress kopen. Je moet natuurlijk zelf weten waar je je geld aan uitgeeft, maar in ieder geval voor mijn use case is zelfs 1 N100 goed genoeg. Extra machines voegen vooral redundantie en wauw-factor toe.
Ik denk dat je dan beter gewoon een N100-N305 kastje kunt kopen voor minder. Zoveel power voor 2000 euro heb je niet nodig. Ook de goedkopere voor 1499 is daar te duur voor. Kun je beter kijken naar een Intel/Asus NUC voor de helft van de prijs.
Hij is er ook voor 1499, met 64GB en 1TB.
Ik wilde graag de Framework Desktop kopen. Echter toen ik de prijzen zag schrok ik wel. Ik wilde het eigenlijk gebruiken als normale Game-PC voor minder grafische spellen. Echter denk ik dat de Tweakers 1440p build toch beter en goedkoper is voor mij.
Bij Framework koop je voor ongeveer deze prijs alleen het moederbord. Nou zitten CPU en RAM daarop geintegreerd, en een SSD, kast en voeding kosten op zich de kop niet, maar dat is dus wel wat duurder.

De levertijd van losse framework-moederborden is trouwens wel flink later.

[Reactie gewijzigd door bwerg op 15 april 2025 15:44]

Ja, ben dan helaas alsnog duurder uit, maar ik bouw zelf wel iets met een m-atx. Heb ik voor hetzelfde geld alsnog meer performance, of kan de 1080p build nemen.
Bijzonder design!

Let even op met levertijden. Vaak staat er op hen website dat het op voorraad is maar levering kan dan alsnog lang duren.
4x de K8 plus besteld, 2 werden in 2 weken geleverd, de resterende 2 in 5 weken.
Had ik nu expliciet dit model besteld omdat ze op voorraad waren :'(
Wat mij betreft bijzpnder lelijk. De valt niet in de trend van de laatste tijd om mooie (zeer subjectief) kasten te maken die gezien mogen worden.
Deze valt in ieder geval af
Aziatisch design. Nadruk op de verkeerde dingen leggen.
Had jij toevallig ook van de EU site besteld? Ik zit namelijk al een maand te wachten op de K8 plus.
De staat al vanaf het begin op "Order processed by shipper" en verder niets.
Ook geen gehoor op de mails die ik gestuurd hebt.
Nee gewoon via .com. Gewoon mailen, dan kan het wel snel. Na 5 weken wachten stuurde ik een klaagmail, 3 dagen later had ik de laatste units binnen.
Durft iemand voorzichtig iets te roepen over Linux compatibiliteit van deze machine? Bij een Framework heb ik er vertrouwen in, maar bij deze vind ik het enigszins spannend. De Framework is wel een pak duurder.
Onder de motorkap is dit een AMD-APU, met een ryzen-CPU en AMD RDNA 3.5-GPU. De ondersteuning daarvan zal dus wel goedkomen.
Bijna alles zit 'm in de APU, als je een foto bekijkt van het Framework Desktop moederbord zie je dat er naast de APU en RAM, eigenlijk vrij weinig aan chips op het moederbord zit waar nog aparte drivers voor zouden moeten worden geschreven voor Linux. Volgens mij gaat het dan alleen om geluids- en netwerkchips.

De WiFi + Bluetooth kaart is overigens dezelfde als die in de Framework 13 AMD 300 modellen zit. Qua audio en Ethernet chips zijn er niet echt hele exotische in gebruik meer tegenwoordig, dus ook dat moet wel goed zitten qua support. Compatibiliteit zou dus vergelijkbaar moeten zijn met de FW Desktop.
Oorspronkelijk had ik interesse in een amd hx 395 mini pc door de krachtige igpu kan je hiermee deftig gamen op je tv met een klein en stil toestel. Ik heb nu reeds al een hx370 laptop en deze bewijst dat het kan. Maar 1500eur hiervoor is gewoon brutaal te duur. Misschien een jaartje of 2 wachten en zien wat er gebeurt met de prijs.
Waarschijnlijk zal er nog wel een kleine prijscorrectie komen naar mat deze chips meer beschikbaar komen.

Ik hou het zelf ook een beetje in de gaten aangezien dit een perfecte cpu lijkt voor een volgende laptop. Enige probleem daarmee is dat ik kwaliteit van een MacBook Pro casing gewend ben en dat andere merken vaak toch ruim minder zijn.

Op dit item kan niet meer gereageerd worden.