AMD wil lokaal draaien van AI versimpelen met 34GB-bundel

AMD biedt een compleet AI-pakket aan waarmee technische maar ook creatieve gebruikers AI-modellen kunnen maken en draaien op hun eigen computers. De Adrenalin Edition AI Bundle, een download van 34GB, bevat alle benodigdheden en werkt op Ryzen-cpu's en Radeon-gpu's.

De download is als optie aan te vinken bij versie 26.1.1 van AMD's driversoftware Adrenalin. De chipmaker stelt hiermee het maken en gebruiken van lokaal draaiende AI-modellen eenvoudig te maken. Volgens AMD vertraagt de complexiteit van AI-omgevingen de reis van idee naar uitvoering, voor zowel technisch onderlegde ontwikkelaars als creatieve pc-gebruikers. Zij moeten 'jongleren' met driverinstallaties en Python-configuraties, de juiste frameworks opzoeken en compatibiliteitsproblemen oplossen. "AMD verandert dat", claimt de cpu- en gpu-maker.

De AMD Software: Adrenalin Edition AI Bundle geeft gebruikers in één keer de benodigdheden voor lokale AI, gebaseerd op grote taalmodellen. De download van 34GB bestaat uit het PyTorch-framework voor Windows, AI-interface ComfyUI voor het genereren van multimodale output, de api-tool Ollama, LM Studio voor het lokaal draaien van AI-modellen, en beeld- en videogenerator Amuse van AMD.

Topmodellen gpu’s en AI-cpu’s

Voor het draaien van AMD's AI-pakket is een videokaart vereist uit de Radeon RX 9000- of 7000-serie (vanaf de 7700), of een processor uit de Ryzen AI 400-, AI 300- of AI Max-serie. AMD geeft gebruikers instructies hoe ze aan de slag kunnen met de componenten van zijn AI Bundle. Daarbij biedt het ook links naar externe community's voor de diverse softwaretools. Na het downloaden van het AI-pakket moeten gebruikers nog wel AI-modellen kiezen en die downloaden, maar de AMD-software reikt daarvoor opties aan, schrijft Videocardz.

AMD toont het gemak en de snelheid van zijn AI Bundle, vergeleken met los downloaden, installeren en configureren van de benodigde AI-software om llm's lokaal te draaien:

Door Jasper Bakker

Nieuwsredacteur

22-01-2026 • 14:44

49

Reacties (49)

Sorteer op:

Weergave:

Ik vraag me af met welk doel de tweakers een lokaal draaiende AI model gebruiken, buiten wat spelen? Misschien is het wel heel nuttig voor bepaalde zaken maar ik heb het nog niet gevonden (ik gebruik AI soms voor het werk maar privé totaal niet).
Is 90% van wat tweakers doen niet primair wat spelen, onderzoeken, voor de lol etc? Daarvoor ben je tweaker.
Persoonlijk ben ik er ingerolt in 2019 met de lokale versie van AI Dungeon, dat was letterlijk spelen want het waren oneindige text advonturen waar je alles kunt doen. Sinds dien ben ik betrokken bij KoboldAI wat oorspronkelijk hetzelfde doel had en nu diverser is geworden.

Gebruik verschilt heel erg en wat je kunt doen hangt natuurlijk af an je hardware. Ik heb inmiddels er twee 3090's voor dus ik kan het ook gebruiken met een 100B model en dan begint het leuk te worden ook als programmeer assistent.

Maar denk bijvoorbeeld aan een kaart die Skyrim in VR draait, en mijn andere kaart doet dan de personages om de game diverser te maken. En dan weer een andere dag genereer ik een plaatje en weer een andere dag gebruik ik het voor een script.
Maar hoeveel daarvan kan je met de 34 gb bundel uit het artikel?

Van wat ik over AI lees kan het van alles, van vraagbaak/ leraar in Blender en ghostwriter tot up scaling van foto en video - maar heeft alles zijn gespecialiseerde software., en moet alles eest trainen voordat je er wat nuttigs mee kan.

Is dit een alles in een pakket met trainings data, of alleen de AMD tegenhanger van Cuda waar je vervolgens de modellen op kan draaien? ( die je eerst moet kopen/ trainen)

[Reactie gewijzigd door mbb op 22 januari 2026 19:31]

Wat simpele coding opdrachten via aider met devstral. Dat werkt best prima. Ik gebruik ook open modellen als ik een vraag heb over hoe iets moet in windows powershell (ben niet super bekend in die omgeving) en dan na wat heen-en-weer werkt het en soms zelfs in een keer.
Ai beschrijvingen van detecties van mijn camera’s, waardoor alles semantisch zoekbaar is.
Ik gebruik Obsidan voor notities.

Ik gebruik nu lokale LLM om adressen te parsen en te mappen naar de frontmatter. Hetzelfde geldt voor tags.

Ook handig als spellingchecker / proofreader.
Ik gebruik AI lokaal als een 'art-form'.
In feite is het een complete fotostudio, schildersdoek en lokatiemanager voor over de hele wereld in een.
Met de juiste prompt kun je elk idee in je brein vorm laten geven. Vereist wel wat inlezen (en leren) in de materie, maar daarna kun je leuke dingen doen. En je creaties kun je aan de muur hangen of verkopen.
Volgens mij is LMStudio ( https://lmstudio.ai/ ) ook al behoorlijk gebruiksvriendelijk. Binnen no-time heb je een model draaiend en kan je er mee aan de slag.

Maar altijd goed als er te kiezen is!
Maar altijd goed als er te kiezen is!
Dat lijkt me hier het probleem. Ik wil kiezen voor een driver en los daarvan kiezen voor een LM-omgeving. Nu worden die twee door AMD aan elkaar gekoppeld, dus er is minder keuze.
Nu worden die twee door AMD aan elkaar gekoppeld, dus er is minder keuze.
Je wordt toch niet verplicht dit mee te installeren?
De download is als optie aan te vinken
Dit is een extra keuze die je nu hebt als je lokaal AI wilt draaien, ik snap niet echt wat je bedoeld met minder keuze?

[Reactie gewijzigd door Sinester op 22 januari 2026 15:19]

Je hebt gelijk, het is waarschijnlijk louter cosmetisch. In feite heeft AMD software optioneel gebundeld middels de installer. En dat worden we allemaal beter van, als er willekeurige lichtelijk gerelateerde software gebundeld wordt aan drivers,. misschien kunnen ze ook wat Internet Explorer toolbars aanbieden 😝

Zij die na de eeuwwisseling geboren zijn weten wellicht niet hoeveel troep er vroeger met installers werd meegeleverd.

[Reactie gewijzigd door 84hannes op 22 januari 2026 15:40]

Het 'voordeel' is dat de software eventueel is voorgeoptimaliseerd. Veel van de betreffende tools kun/moet je afconfigureren voor je hardware. Met een beetje mazzel heeft AMD dit nu gedaan :)
Minder keuze als in dat je enkel kunt kiezen uit de twee grote spelers die AMD heeft gekozen en nu via de driver installer hun kant op wordt bewogen. Projecten die ook AMD ondersteunen en waar iemand misschien voorkeur voor heeft worden op die manier buiten spel gezet. Terwijl als iemand zelf gaat zoeken naar leuke AI oplossingen die een veel ruimer aanbod heeft aan AI tools.
LMstudio heeft een hele slechte interface. Het vinden van modellen en settings per model veranderen is belabberd. Maar het is voor AMD momenteel de enige keuze.
Nee hoor. KoboldCpp ondersteund ook AMD via Vulkan net als andere alternatieven.
Het is dan ook compleet niet nodig om dit te bundelen in de installer en het is demotiverend voor de andere projecten die AMD ondersteunen (ondanks dat AMD dat niet makkelijk maakt). LMStudio is gewoon de exe dubbel klikken en het is geinstalleerd en hetzelfde geld voor Ollama. Het dan bundelen met de driver installatie is compleet onnodig, als mensen dergelijke software willen draaien kunnen ze dat gewoon vanaf de officiele website downloaden en zonder problemen uitvoeren.

Zelf draag ik bij aan KoboldCpp welke net zo makkelijk te installeren is, althans wij hebben niet eens een installatie nodig. Je start het programma en of je nu AMD of Nvidia hebt je kunt meteen aan de slag want hij is portable. Je hebt enkel een model nodig.

Dus persoonlijk lijkt me dit iets waar niemand op zit te wachten. De gamers zullen het storend vinden dat opnieuw AI zo wordt gepromoot. En de AI enthousiastelingen hebben dit niet nodig omdat ze gewoon zelf de software naar keus kunnen downloaden zonder problemen. En de gene die aan dergelijke projecten willen werken hebben er nadeel van omdat nu twee grote spelers worden voorgetrokken terwijl AMD zijn SDK's niet eens op orde heeft (Ik zie nog steeds geen ROCm 7 HIP SDK voor Windows).

Het komt bij mij dus erg over als een stukje koppelverkoop ondanks dat de drivers en de producten die ze promoten gratis zijn.
Dank voor het bijdragen aan Koboldcpp! Top applicatie, kan er niets anders van maken. Veelzijdig en gebruiksvriendelijk, ook voor een niet expert.
Dit klinkt veelbelovend! Totale n00b verder wat betreft lokaal draaien van AI, maar hoe verhoudt deze oplossing van AMD zich met 'de grote jongens' die draaien in de cloud?
Appels en peren.

De cloudomgeving is enterprise spul dat enorme modellen kan draaien, met 100en gigabytes aan geheugengebruik.

Jouw videokaartje is dat niet, en kan alleen kleine tot middelgrote modellen draaien (whatever er in je VRAM past)
Kan dat dan ook op een Nvidia Tesla GPU? Ik heb een server met 128GB DDR4 en genoemde Tesla GPU. Doet ie ook nog eens wat.
Afhankelijk van CUDA ondersteuning en de hoeveelheid VRAM, waarschijnlijk.
De grote "open source" modellen zoals bijvoorbeeld DeepSeek hebben tussen de 450 en 500GB aan RAM nodig

[Reactie gewijzigd door ManIkWeet op 22 januari 2026 19:14]

De 'oplossing' van AMD is gewoon het bij elkaar rapen van software (wat je al een tijdje handmatig bij elkaar kan rapen). Een soort totaalpakketje dus aan software die je nodig hebt om vervolgens AI te kunnen draaien.

Wat AMD bied is zelf dus geen AI oid, het model wat je in die software vervolgens kiest is de 'AI' en dat model bepaald de kennis en je PC hardware bepaald de snelheid (icm het model, want niet elke is even snel). Genoeg benchmarks te vinden als je dat interessant vindt!

[Reactie gewijzigd door watercoolertje op 22 januari 2026 15:16]

Oeh, in eerste instantie las ik "ging ermee stoppen". :)
Dit is een geweldig initiatief om te stoppen met wát de RAM/gpu crisis veroorzaakt. Immers, veel lokale LLM's zijn al vrij snel op het niveau van ~80 á 90% van de kwaliteit van de "globale" centrale AI modellen (die bovendien een lading privacy bezwaren, de rampocalypse, energiekosten, en meer meenemen).

Zodra mensen weten dat ze deze dingen vrij eenvoudig lokaal kunnen draaien, kunnen we hopelijk vrij snel naar "pop" gaan zonder dat we de echte meerwaarde kwijtraken. Dit is wel een IMMENS pakket (immers ALLES rondom AI zit er in, niet alleen chat, comfyUI is huge bijvoorbeeld)

De volgende stap is de mensen helpen die het niet kunnen, zeg maar de "pa met een 8600K met IGP die nog goed genoeg is voor zijn foto hobby". Zodra je een soort van seti@home/ folding@home, of iets met die 'kern' er achter via platformen als Steam kan aanbieden, waarmee mensen mensen van hun keuze (vrienden/familie of publiek in ruil voor steam cosmetic meuk ofzo) zou je ook die pa/ma/facebooktante kunnen helpen met "overgebleven GPU tijd"... zodat hopelijk die hyperscale datacenters knallen, de jetturbines en enorme watereisen met pensioen kunnen, en de hardware weer bij de eindgebruiker zelf terecht kan komen. Een soort van democratisering van compute ipv de hypercentralisatie van een paar bedrijven (en hun miljardair eigenaars).

Ik denk dat qua "AI" (beter: tekstvoorspelmodellen en afbeeldingdiffusors) de geest wel uit de fles is, los van de discussie over inhoud, kwaliteit, en dat soort dingen, maar de vraag van "waar" en "door wie" kunnen we hopelijk iets aan doen.

Wat dat betreft is dit weer een van de redenen dat ik voor m'n volgende GPU privé waarschijnlijk AMD gebaseerd ga maken, en ik de software leveranciers waar ik professioneel mee werk altijd zal vragen: "Leuke software, werkt het ook op niet-nvidia hardware?"
De grote compute honger van de AI bedrijven zit, zo ver ik weet, vooral op de training/maken van de "basis" modellen.
Daar gaat dit weinig aan veranderen want die basis taalmodellen zijn nog steeds nodig.
Onderschat de inference niet, die SOTA (state of the art) modellen zijn vaak groter dan 600B parameters, bijv. Mistral Large 3 is 675B MOE met 41B actief (heb Mistral als voorbeeld omdat die ook regelmatig open weights publiceren net zoals dat vaak gebeurd met de Chinese modellen).
@foobar79 De inference zal inderdaad vele malen meer energie gaan kosten dan de training.

[Reactie gewijzigd door TV_NERD op 22 januari 2026 17:50]

Ik had exact het zelfde :)
Ja, "integreert" zou wellicht beter passen :9
Same, "voegt toe" was beter geweest.
Misschien kunnen we Aai om ern betere titel vragen
zo begreep ik het ook :P
Wat grappig, ik had 8 jaar geleden hetzelfde probleem

84hannes in 'Microsoft stopt functionele taal F# in Visual Studio'

Maar toen werd ik keihard onderuit gehaald (18 keer -1), fijn dat jij wel serieus genomen wordt, misschien is de community relaxter geworden!

Desalniettemin, hier is de feedback-knop voor, dan kan @JaspB het aanpassen.

[Reactie gewijzigd door 84hannes op 22 januari 2026 15:13]

AuteurJaspB Nieuwsredacteur @84hannes22 januari 2026 17:01
Tsjek. En eindredacteur @Marger was me dus voor. 👍
Wat een geheugen :D Moest gelijk aan Sheldon Cooper uit The Big Bang Theory denken.
Dat is er inderdaad ook in te lezen. We hebben het wat duidelijker geformuleerd!
AMD wil lokaal draaien van AI versimpelen met 34GB-bundel
Dacht even, 34 GB DDR5, dat is een aparte hoeveelheid.
Zo las ik hem ook! Op de homepage dacht ik dat ze een nieuwe bundel met CPU, moederbord en geheugen gingen uitbrengen.

Toen klikte ik door en dacht ik dat ze er ondertussen alweer mee gestopt waren.... (nieuwe titel is 'AMD stopt omgeving voor lokaal draaien....').

Mag ik zeggen dat ik het erg verwarrend vind dat de titels op de homepage niet meer overeenkomen met de titels van de artikelen? Mijn hoofd kan daar niet goed tegen en vindt dat erg verwarrend.
Oh gaaf. Ik ben benieuwd hoe een comfyui met een 9070 xt 16gb performt tegen een comfyui op mijn nvidia 5060 ti 16gb.

Ik ga opzoek naar een geschikte amd kaart.
Gelukkig een aparte bundel - er zit al zoveel 'hippe' meuk in die driver packages tegenwoordig...
Allemaal leuk en aardig maar het zou erg fijn zijn als ze het draaien van AI modellen op Linux voor Ryzen AI chips wat beter zouden ondersteunen. Dat is nu echt een drama.
Let overigens ook op de drivers, je hebt nu een `b` en `c` distributie die verschillende ondersteuning voor kaarten trackt.
Kan het verkeerd gelezen hebben maar voor zover ik weet zit er al sinds 2025 in de Adrenalin software de AI mogelijkheid in. Is dit hetzelfde of iets nieuws?

En ja de titel is enorm verwarrend. Dacht ook al van serieus stoppen ze er nu al mee? @auteur Valt mij de laatste 2 a 3 maanden op dat er steeds vaker een titel gekozen word die op meerdere manieren te interpreteren is. Is er niemand op de redactie die ervoor zorgt dat de schrijfstijl uniform is?

Om te kunnen reageren moet je ingelogd zijn