Ryzen AI Software komt in beperkte bèta uit voor Ubuntu Linux

AMD brengt een bèta uit van zijn Ryzen AI Software voor Linux en beperkt die nu tot gebruikers die zich hebben geregistreerd bij de processorproducent. De ondersteunde Linux-distributie is de langetermijnrelease (LTS) van Ubuntu 24.04.

Bij de vereisten voor het draaien van zijn AI-tools geeft AMD aan dat minimaal 32GB geheugen nodig is, maar dat 64GB wordt aangeraden. Qua software is Linux-kernel 6.10 of hoger nodig en versie 3.10.x van programmeertaal Python. De ondersteuning voor het opensourcebesturingssysteem zit in de nieuwe versie 1.6.1, meldt Phoronix. De bètasoftware is alleen beschikbaar voor gebruikers met een account bij de Ryzen AI Software Early Access Lounge.

Ryzen AI voor Linux ondersteunt het compileren en draaien van AI-modellen op de Neural Processing Unit (NPU) van AMD in zijn Ryzen AI-processors. De nu uitgebrachte release ondersteunt verschillende soorten AI-modellen in verschillende opstellingen voor prestatievermogen of juist efficiëntie. Het gaat om bijvoorbeeld cnn-modellen, wat staat voor convolutional neural networks, in de dataformaten INT8 en BF16. Daarnaast kunnen Linux-gebruikers Ryzen AI Software gebruiken voor AI-modellen die menselijke taal verwerken, zogeheten natural language processing (nlp) en voor grote taalmodellen (llm's).

Door Jasper Bakker

Nieuwsredacteur

09-11-2025 • 09:44

20

Submitter: TheVivaldi

Reacties (20)

Sorteer op:

Weergave:

Ubuntu 24.04 zit standaard geen Linux kernel 6.10 in. Die komt standaard met 6.8.0.
Klopt, maar er zijn wel manier om die eenvoudig te installeren, bijvoorbeeld aan de hand van de HWE-pakketten of de Mainline Kernel PPA. Als je toch al gaat experimenteren met AI-bètasoftware, maakt dat niet zo veel uit.

[Reactie gewijzigd door TheVivaldi op 9 november 2025 13:26]

correct, maar er zijn wat need to knows rond mainline kernels, zoals dat secure boot uit moet staan ( tenzij je de kernel signed en keys in tpm steekt ).

maar ja, als je beta software gaat draaien is de kans al wat groter dat je dit allemaal weet :)
Ja, is allemaal eenvoudig, maar het staat niet in het artikel en ook niet in de documentatie die e.e.a. eenvoudig moet maken.
Het gaat hier om een stuk software wat niet alleen bèta is, maar wat ook nog eens alleen verkrijgbaar is (in elk geval deze bèta voor Linux dan) als je geregisreerd bent bij de early access van AMD (zie artikel). Als je zo ver bent dat je op je npu AI-modellen kunt compileren en draaien, weet wat het woord ‘bèta’ inhoudt én je hebt het voor elkaar gekregen om je bij AMD te registreren in het specifieke early access-programma, dan weet je echt wel wat je aan het doen bent. Mijns inziens is het dan ook overbodig om in het artikel aan te geven hoe je een andere kernel installeert. In de documentatie zou het wel mogen staan, dat ben ik met je eens.

[Reactie gewijzigd door TheVivaldi op 9 november 2025 13:26]

Ubuntu 24.04.3 zit op 6.14. Mijn Ubuntu desktop switch altijd automatisch naar de HWE variant, na een point release, zodat ik meelift op de backported kernel van de latere Ubuntu releases. Het kan zijn dat je op de server variant dit handmatig moet doen.
Het is dus ook vanaf 6.1. dus geen enkel probleem.
Maar je hebt wel de officiële HWE kernel die hoger dan 6.10 zit. Die word 'geleend' van de opvolgende non LTS releases.
Oorspronkelijk wel ja, maar volgens mij komt Ubuntu 24.04.3 LTS (de nu recente release) met kernel 6.14
https://nl.ubunlog.com/Ubuntu-24-lts-arriveert-met-Linux-04-Mesa-3-en-andere-verbeteringen-van-de-afgelopen-zes-maanden/

Ubuntu werkt de kernel best wel vaak bij op deze manier.

https://ubuntu.com/download/desktop?version=24.04&architecture=amd64&lts=true

[Reactie gewijzigd door MulMonkey op 9 november 2025 15:07]

Goed nieuws!
Ik heb een pc en nas die dezelfde apu hebben, de Ryzen AI 370. Onder windows kan in LLMs draaien op de npu met fastflow en op de nas moet dan onder Linux met ollama op de iGPU. Qua snelheid zit het elkaar niet ver uit de buurt maar het verbruik is vele malen lager op de npu. Ook kan die door de architectuur makkelijker het shared ram alloceren voor het draaien van de llm. Ben erg benieuwd hoe dit beter gaat worden hiermee.
Draai je rocm? Of vulkan op je Ryzen 370?. Ik kreeg rocm niet echt werkend met mijn Ryzen op rocm 7
Ja, rocm idd. Ging relatief makkelijk op docker met het ollamarocm image.
Benieuwd hoe sneller het hiermee nu wordt
Ubuntu wordt toch alleen maar trager hierdoor?
Niet perse, het gebruik/utilization van NPU's is nog laag.

Dit artikel duidt aan dat het draaien van lokale ai modellen sneller zouden kunnen, althans aannemelijk. Alleen zie ik geen vergelijking met hoeveel beter het zou kunnen zijn.

Daarnaast is AMD ROCM support voor ai inference nogal onfortuinlijk. Hopelijk is dit een goeie push
Nee hoor Ubuntu zal precies in het midden lopen hier mee.
In het midden lopen?????

Ubuntu wordt toch trager met AI geinstalleerd, niet sneller.
Zolang de AI op de achtergrond niet automatisch opstart. Zal dit geen verschil maken.


Om te kunnen reageren moet je ingelogd zijn