Tom's Hardware: AMD verhoogt prijs Radeon 9000-gpu's met 10 dollar per 8GB vram

AMD verhoogt de prijzen van Radeon 9000-gpu's naar verluidt met 10 dollar per 8GB vram. In januari 2026 zou er nog een prijsverhoging gepland staan. Momenteel is geheugen, waaronder videogeheugen, zeer duur vanwege de grote vraag vanuit de AI-industrie.

Distributeurs melden aan Tom's Hardware dat AMD de prijsverhoging inmiddels heeft doorgezet. Vooralsnog zouden alleen Radeon RX 9000-serie videokaarten door de prijsverhoging getroffen zijn. Het is aannemelijk dat deze prijsverhoging wordt doorberekend aan consumenten.

Het gaat in theorie om een prijsverhoging van 10 dollar voor de 8GB-varianten van de 9000-serie videokaarten, tot maximaal 20 dollar voor de 16GB-topmodellen. Dat zou een verhoging van 3 tot 5 procent zijn op basis van de huidige videokaartprijzen. Uit gegevens van de Tweakers Pricewatch blijkt echter nog niet eenduidig dat dit nu al aan de videokaartprijzen te merken is. Mogelijk heeft een verhoogde voorraad na Black Friday hier iets mee te maken.

Onlangs schreef Tweakers dat AMD ook de cpu-prijzen zou verhogen. Zowel Ryzen 9000-cpu's als oudere processors zouden duurder worden. Tom's Hardware sprak ook hier betrokkenen over en ontkracht deze geruchten.

Door Yannick Spinner

Redacteur

04-12-2025 • 20:58

38

Reacties (38)

Sorteer op:

Weergave:

Dat valt nog wel mee dan? Als je naar ram prijzen kijkt betaal je 3 tot 4 keer meer in vergelijking met enkele maanden terug.
Dat is 10 dollar per 8GB voor de AIB partners. Daar komt dus nog de marge etc overheen voordat het de eindgebruiker haalt.
edit:
Speciaal 1 lettertje gewijzigd voor watercoolertje. Autocorrect doet soms niet wat je wil.

[Reactie gewijzigd door OMD op 5 december 2025 08:41]

Gebruik ajb GB zodat het duidelijk blijft, 8Gb is namelijk maar 1GB.
Scheelt een factor 8 dan ja. Dan is het ineens 10 dollar per gig. Dat wordt met 12-16GB VRAM toch zuur geld.
Een marge van wat, 10%? 50%? Zelf met 100%, dus €40 extra voor een 16 GB kaart zou ik het nog mee vinden vallen.
Dat is jouw mening. 40 euro op een 9060XT is meer dan 10%. Laten we hopen dat het dus niet 40 euro zal zijn.
Nu een verhoging en dan in maart weer eentje....
Weten we dat zeker? Want zowel AMD als nVidia geven toch ook adviesprijzen uit voor hun chips / configuraties?
Denk dat je even alle reacties moet lezen. Ik reageer op iemand die aangeeft 40 euro. Dat bedrag heb ik niet verzonnen. Ik geef enkel aan dat de prijs per 8GB $10 verhoogd wordt. Daar komt dan nog de marge overheen + BTW etc. Ik heb geen idee wat de uiteindelijke prijsstijging gaat zijn natuurlijk.
Ah, ik denk dat ik het nu snap, het is de prijsstijging voor RAM in het algemeen. Nou ja, maakt ook niet uit, niet in de markt voor een nieuwe kaart - ik ga het wel zien.
Kan goed zijn dat ze relatief veel ingekocht ram hebben voor de komende tijd en hun probleem vrij beperkt is. €10 per 8GB is imo redelijk verwaarloosbaar bij de huidige GPU prijzen.

[Reactie gewijzigd door Tortelli op 4 december 2025 21:09]

En toch blijven de mensen videokaarten kopen.
Op wat slaat die 'en toch'? Hij zegt nergens dat videokaarten (te) duur zijn en vindt deze verhoging meevallen.
De meest mensen kopen een videokaart die tussen de 200 en 300 kost. Ik zie maar weinig mensen die een 5090 hebben.
Dat zijn woekerprijzen. Ik zie dat niet zozeer als een prijsstijging, maar als een nagenoeg lege voorraad waarbij rijke lui de optie krijgen om nog de laatste beetjes te kopen. Voor het gewone volk is het gewoon uitverkocht.
Die AI bubbel kan niet snel genoeg klappen. Kunnen we weer resources spenderen aan nuttigere zaken.
Natuurlijk kan je dan nog bedenken of gaming een nuttig zaak is.

Aan de andere kant, in mijn ogen nog steeds nuttiger dan "AI".
Tja eigelijk is dan niks nuttigs.
Vermaak en ontspanning zijn zeker nuttige zaken in mijn ogen
Zeker. Om op het werk goed te presteren heb je ook ontspanning nodig, en gamen is een vorm daarvan :) Daarnaast zijn er genoeg andere zaken waar GPUs nuttig voor zijn, zoals het renderen van videos, 3D modeling en protein folding. Hoe je er ook naar kijkt zijn alle gebruiken voor een GPU anders dan grootschalig AI gebruik (dus denk aan hele serverparken die hiervoor in gebruik worden genomen) nuttiger, ethischer, duurzamer, efficienter en schaalbaarder (inclusief de complete supply chain). Vooral op de laatste drie is AI echt een enorm gedrocht.

[Reactie gewijzigd door LizardBloke op 5 december 2025 14:51]

Na AI komen robotica en autonome voertuigen die gebruik gaan maken van al die AI. Het probleem blijft bestaan. Ik betwijfel ook of gaming daadwerkelijk nuttiger is dan AI, hoe leuk het ook is.
Ik betwijfel ook of gaming daadwerkelijk nuttiger is dan AI, hoe leuk het ook is.
Dat is niet echt een goede vergelijking. Je richt hier op dat een van de twee nuttiger is dan de ander, en er daarom gekozen moet worden voor een van de twee. Of het daadwerkelijk nuttiger is is discutabel, gezien onspanning nodig is voor een gezonde werk-leven verhouding, maar dat terzijde.

In plaats van te kijken naar beoogd nut zou ik eerder kijken naar de complete ecologische voetafdruk en de schaalbaarheid van de complete supply chain om dan wel gaming mogelijk te maken, of AI mogelijk te maken.

De meeste gamers hebben één computer, één GPU en gamen op één apparaat tegelijkertijd voor een paar uur per week. Daarnaast zullen ze ook enkelvoudige aankopen maken als zij upgraden, en wanneer ze dat doen schaalt hun verbruik veelal niet op (d.w.z. dat ze niet opeens op meerdere computers tegelijkertijd gamen).

Om AI te realiseren moeten er meerdere serverparken gebouwd worden die bestaan uit een meervoud servers met een meervoud aan GPUs, CPUs, grootschalige hoeveelheden RAM en grootschalige vormen van opslag. Alleen al het verbruik van OpenAI alleen baart enorme zorgen, en de huidige plannen zijn om het verbruik alleen nog maar op te schalen (en op een of andere manier wordt dat soms toegejuigd alsof dat een goed ding is). Dit gaat hoe dan ook jou als consument raken op al die gebieden: prijs en beschikbaarheid van computercomponenten, maar ook prijs en beschikbaarheid van elektriciteit.

Door je te richten op het beoogde nut van AI versus gamen sla je compleet de plank mis. Het gaat daar helemaal niet over, en het opent de discussie voor een mogelijke ad hominem. Waar het om gaat is dat deze industrietak compleet onschaalbaar is maar het toch blind wordt gedaan. De daadwerkelijke vraag is is of dit op mondiale schaal het waard is voor je, en of jij staat achter de gevolgen die deze industrie heeft op jouw leven en die van andere burgers.

[Reactie gewijzigd door LizardBloke op 5 december 2025 15:22]

Dit is enkel het begin.
Gaat niet (snel) gebeuren imo

AI gaat echt wel blijven, wat wel kan veranderen is dat het hopelijk voor meer nuttige dingen ingezet gaat worden, maar ook voor nuttige dingen is heel veel rekenkracht nodig, en zolang er een vraag naar is blijft hey ontwikkeld worden, en zolang het ontwikkeld blijft worden is er steeds meer kracht voor nodig
AMD heeft tenminste videokaarten met redelijk vram waar Nvidia achterblijft...
Volgens mij is bij dit jaar release juist beide even veel Vram per segment. Waarbij amd geen tegen hanger heeft van de 5090 met 32gb vram. Ook heeft amd niks met zelfde aantal vram als de PRO blackwell of ada kaarten (Natuurlijk zijn dit niet je gaming kaarten maar server grade) Al vind ik wel dat de 5080 minimaal 24GB had moeten hebben.

[Reactie gewijzigd door TheProst op 4 december 2025 22:36]

Volgens mij is bij dit jaar release juist beide even veel Vram per segment.
Vergeten we 5070 t.o.v. 9070?
Zelfde segment, zelfde prijspunt, 5070 12GB en 9070 16GB.
Volgens mij... ;)
@HuisRocker @Sp3ci3s8472 Klopt jullie hebben gelijk. Ik ben de 5070 vergeten. Bij de 5060 Ti heb je ook in 16GB variant.

Ik zeg ook niet dat AMD geen server grade GPU's heeft maar dacht dat deze niet meer vram hadden maar even veel of net iets minder
Als je naar prijs kijkt dan zit AMD vooral in de lage segmenten er eigenlijk altijd boven. Vergelijk een RTX 5070 12GB met een RX 9070 16GB en het zelfde met een RTX 5060 Ti 8GB en een RX 9060 16GB.

Natuurlijk heeft AMD wel server kaarten als tegenhanger voor de jouw genoemde kaarten en die verkopen ze ook prima, namelijk de Instinct lijn die ze hebben en gebaseerd is op de CDNA architectuur.
Euhm .

AMD Heeft strix halo? 128 GB APU's een compleet systeem maar goedkoper dan een enkele 5090 met maar 32 GB

Ja ze zijn iets langzamer maar je hebt veel meer geheugen. Hierdoor bij grote modellen heel veel sneller En laten we het niet over the King of Ai hebben APPLE er komt niks in de buurt kwa hoeveelheid geheugen. M3 ultra met Max 512 GB
Maar die M3 Ultra met 512 GByte van Apple is een 10.000 USD kostende computer. De AMD Strix Halo met 128GB was zo'n 2.000 USD. Prijzen van voor de RAM gekte.

Een appels met peren vergelijking dus.

Is de Strix halo slomer dan deze M3 Ultra chip, welke Apple niet heeft kunnen reproduceren in hun M4 line-up van processoren en waarvan ik mijn twijfels heb of de M5 chips dit ook kunnen. Apple noemt chips uit de M4/M5 series wel Ultra, maar het M3 chipontwerp en de mate waarin het was op te voeren waren de naam Ultra waardig.

Voor een 1e poging is de Strix halo competent en een verdomd goedkope mogelijkheid om voor de hobbyist met grotere 70b/80b/120b modellen te kunnen spelen. Of vele kleinere modellen die met elkaar samenwerken en zo te leren om met agenten en verregaande automatisering om te gaan. En schijnt daarnaast ook behoorlijk goed te zijn met gamen. Wat die dure M3 Ultra dus bij lange na niet zo goed doet.

Geef mij die Strix halo machine over de M3 Ultra elke dag van de week en 2 keer op zondag.
Wat kopen fabrikanten precies bij AMD voor videokaarten? De GPU en het VRAM (blijkbaar)? En dan plakken ze dat zelf op een PCB met een eigen fan?
Volgens mij is dat hoe het ongeveer werkt. Eerder bij Nvidia ook maar die leveren sinds recent alleen de GPU
AMD rekent zelf hogere prijzen, Nvidia is gewoon gestopt met leveren van bundels waarbij geheugen erbij zit. Het is nu aan de boardparners zelf om geheugen te kopen, met als nadeel dat ze waarschijnlijk veel minder goede prijzen kunnen afdwingen dan een Nvidia of zelfs AMD omdat het aantal veel lager ligt.
EVGA had het dus goed bekeken om die lui gedag te zeggen.
"Uit gegevens van de Tweakers Pricewatch blijkt echter nog niet eenduidig dat dit nu al aan de videokaartprijzen te merken is."

Ik heb een 9070xt gekocht in de afgelopen week en dus ook de prijzen gevolgd. Laagste prijs in de weken voor Black Friday was 630,- en ik heb de kaart gekocht voor 599,- paar dagen daarvoor bodemde het op 588,-). Ik heb ook een 49" monitor gekocht voor 550,- die daarvoor (en nu) 710,- kost. De prijzen zijn misschien niet gestegen van de AMD kaarten, maar ik heb zeker geen Black Friday achtige daling gezien, het was dit keer meer kleingeld wat de kaart betreft. Dus het viel mij meer op dat de daling achterbleef en dat is zeker ook als een effect te noemen.
Waarom moet de klant er altijd voor opdraaien?
Waarom beslist zo'n groot bedrijf niet gewoon om 10 euro/dollar minder winst te maken per kaard?
Om dezelfde reden dat vrijwel niemand gelukkig wordt van minder inkomen terwijl zijn kosten stijgen...

Als ik rekeningen af kon schuiven naar andere (die dat vrijwillig betalen, want je moet niks kopen natuurlijk) zou ik dat ook doen. Hou ik meer geld over voor mijzelf en daar kan ik weer meer leuke dingen mee doen :)

[Reactie gewijzigd door watercoolertje op 5 december 2025 13:38]


Op dit item kan niet meer gereageerd worden.