Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

Gerucht: Nvidia levert aan videokaartmakers geen geheugen meer bij zijn gpu's

Nvidia zou vanwege stijgende prijzen niet langer geheugenchips meeleveren bij de gpu's die het verkoopt aan videokaartfabrikanten. Die fabrikanten moeten hierdoor ieder voor zich GDDR6X‑ of GDDR7‑chips inkopen, wat de prijzen kan verhogen en kleinere producenten kan buitensluiten.

Nvidia zou daarmee het gangbare leveringsmodel loslaten waarbij het gpu's met bijpassende geheugenchips als compleet pakket levert aan fabrikanten van videokaarten, schrijft VideoCardz. De site baseert dit op geruchten die de Chinese hardwareleaker Golden Pig Upgrade Pack deelt.

Als Nvidia geen geheugenchips meer meelevert bij zijn gpu's voor videokaarten, zou dat fabrikanten van die uitbreidingskaarten dwingen om zelf geheugenchips in te kopen bij chipfabrikanten. Daarbij vallen het schaalvoordeel en eventueel prijsvoordeel van een grote, centrale inkoper als Nvidia weg. Dat kan leiden tot hogere kosten voor de geheugeninkoop door individuele videokaartproducenten, die dat dan mogelijk doorberekenen aan pc-fabrikanten en consumenten.

Verder zou de overgang van centrale Nvidia-inkoop naar individuele afname van geheugenchips door videokaartmakers problematisch kunnen zijn voor kleinere producenten. Zij hebben niet altijd de benodigde relaties en sluiten dan als nieuwe en bovendien kleine partij aan in de keten van geheugenchips. Dit kan ertoe leiden dat zij niet aan bod komen en dus geen geheugenchips kunnen inkopen, speculeert de leaker.

Door Jasper Bakker

Nieuwsredacteur

27-11-2025 • 12:54

51

Submitter: Scribe

Reacties (51)

Sorteer op:

Weergave:

Als dit gerucht klopt, dan schuift Nvidia de gevolgen van de eigen marktdominantie en de enorme vraag naar AI-hardware door naar anderen in de keten. Nvidia jaagt wereldwijd de vraag naar snelle geheugenchips op door zijn AI-producten, maar als ze vervolgens geen geheugen meer meeleveren met hun GPU-dies, dan leggen ze het leveringsrisico en de inkoopproblemen volledig bij de add-in-boardpartners neer. Grote partijen kunnen dat nog wel organiseren, maar kleinere fabrikanten worden zo praktisch buitenspel gezet. En uiteindelijk belandt dat risico natuurlijk bij de consument in de vorm van hogere prijzen of minder keuze.

Het blijft speculatie, maar het past wel in het bredere beeld van Nvidia’s steeds grotere marktmacht en de druk die dat veroorzaakt op de rest van de industrie.
Dus je schrijft dat Nvidia bezig is met het privatiseren van de winsten en het socialiseren van de kosten? Dat is een verrassing. Dat had ik nooit verwacht van een beursgenoteerd bedrijf, laat staan Nvidia.

OK, nu even zonder sarcasme. :P Dit is het logische gevolg van hoe de markt beweegt. De goud AI-koorts is in volle gang. Zonder regulering zal hier niet snel verandering in komen.

[Reactie gewijzigd door The Zep Man op 27 november 2025 13:08]

Waarom zou je dit willen reguleren? Bovendien geen afnemer zal chips kopen zonder het geheugen dus de markt corrigeert zichzelf wel.
Waarom zou je dit willen reguleren?
Ik schrijf nergens dat ik iets wil reguleren. Wel zal zonder regulatie (van AI of van productstromen) niet snel iets veranderen. De vrije markt beweegt traag, en zelden in het voordeel van kleinere partijen.
Ten eerste is dit nog steeds een gerucht. Daarnaast gebruiken de AI chips HBM, geen GDDR6/7, dat is voor de gaming modellen. Een beetje vreemd dat de schuld op AI wordt gestoken, het probleem is echter dat meerdere fabrikanten verschuiven naar HBM omdat GDDR een enorm kleine winstmarge heeft, de consument wilt er niet veel voor betalen en er zijn zoveel aanbieders die dit goedkoop aanbieden. De prijs voor gaming kaarten is de laatste paar jaar in elkaar gestort waardoor o.a. EVGA uit de markt gestapt is.

Een voordeel, moest dit waar blijken is natuurlijk dat ze van meerdere fabrikanten kan inkopen ipv vast te zitten aan de overeenkomsten van nVIDIA, dit leidt tot meer concurrentie wat de prijzen verder doet zakken of nieuwe fabrikanten die de vraag vervullen. De vraag naar dit geheugen verandert niet, je krijgt echter wel meer diversiteit in het aanbod.

[Reactie gewijzigd door Guru Evi op 27 november 2025 13:31]

HBM komt echter uit dezelfde wafers, in de zelfde fabrieken, en delen een flink stuk dezelfde logistieke keten. Meer HBM = minder UDIMM's en losse 32-bit VRAM BGA packages. Immers, er zijn maar zoveel Xnm wafers/maand om rond te gaan. Als je ziet wat die clubs aan HBM inkopen, en dat dit te kosten gaat van de rest van de DRAM wereld... denk aan dit soort artikelen:

OpenAI's Stargate project to consume up to 40% of global DRAM output — inks deal with Samsung and SK hynix to the tune of up to 900,000 wafers per month | Tom's Hardware
GDDR is “oude” tech, een 10nm chip rolt niet van het 3nm process van HBM. De kosten, vraag en winstmarges voor GDDR liggen te laag om concurrentie te stimuleren.

De analyse in het artikel zegt dat dit door AI is, het probleem is niet AI voor deze doelgroep, maar te weinig vraag, te kleine winstmarge, fabrikanten die uit de markt stappen. NVIDIA geeft al langer indicaties dat het niet gezond is in de gamingmarkt en het is maar een heel klein deel van hun winstmarges. Het zou mij niet verwonderen moest NVIDIA helemaal uit de gaming kaarten stappen en enkel maar de chips aanleveren met suggesties voor de bordjes.
En ze kunnen zelf lekker de chips houden en dan voor hun datacenter chips gebruiken...
Het is dus inderdaad 2-ledig:

1) de prijzen gingen al omhoog

2) nu moeten de fabrikanten ook nog zelf naar de geheugenfirma’s en daar geheugen kopen, waar ze hoogstwaarschijnlijk een veel slechtere positie hebben dan Nvidia. Daardoor gaat de prijs dus nog extra omhoog.

En ondertussen heeft Nvidia gewoon de contracten en gebruikt het Vram zelf zeker, voor hun AI-kaarten!?
Gevolg gaat zijn dat ze op de lange termijn hun eigen omzet misschien wel stuk gaan maken. Bij geen geheugen heb je ook niets aan de chip, dus die omzet gaat naar bedrijven die beide kunnen leveren of organiseren. Ook zullen de prijzen gaan stijgen van het totaal chip en geheugen.

[Reactie gewijzigd door Jumpman op 27 november 2025 13:51]

Je gaat er vanuit dat NVidia enige biet geeft om de consumenten GPU markt...
Het is misschien net zo goed de vraag of de marktdominantie van Nvidia niet al zorgde voor negatieve effecten op de markt voor geheugenchips. Als bij een fabrikant daarvan bijna alle verkopen opgaan aan een klant dan heeft die klant ook een hele grote macht. Zo'n grote klant raak je liever niet kwijt want dan raak je ook meteen een groot deel van je omzet kwijt. Het feit dat Nvidia met de grote inkoop de prijzen kon drukken was daar het gevolg van. Fijn voor de fabrikanten van boards en de consument maar minder ideaal voor de fabrikanten van geheugenchips.
Ik denk dat ze het doen omdat extreem duur geheugen inkopen een groot risico is. Als de prijzen morgen dalen moeten ze de kaarten heel duur verkopen. Nu zitten de kaartenbouwers met dat risico.
Kunnen ze nu meer RTX 6000 Pro Blackwell en B200's leveren. Waar later 3Gb modules op komen als de stroomaansluiting in het DC is uitgebreid en het grid kan leveren.

Zo zijn de 2Gb chips van nu niet nodig en hebben de kopers later meer video geheugen.

En kan potentieel de prijs van geheugen juist weer normaliseren.

[Reactie gewijzigd door djwice op 27 november 2025 14:05]

Dit klinkt mij niet goed in de oren. Als iedere videokaartfabrikant zelf zijn geheugen moet inkopen, lijkt mij dat je enorme verschillen in kwaliteit en betrouwbaarheid zien tussen kaarten van verschillende merken. Het centrale pakket van Nvidia zorgde er juist voor dat alles meer uniform was, nu kan het zomaar dat sommige kaarten beter presteren of stabieler zijn dan andere, puur afhankelijk van welke chips een fabrikant kan bemachtigen.
Kan dus ook betere kaarten opleveren gezien nvidia misschien niet altijd het beste van het beste meelevert, en fabrikanten dat nu zelf kunnen bepalen.

Sowieso zijn nu ook al meerdere merken geheugenchips op hetzelfde model te vinden (niet op 1 kaart door elkaar maar het model ansich) en is er ook altijd al wel iets van verschil daartussen (vaak overclockt het ene merk beter dan het andere).

[Reactie gewijzigd door watercoolertje op 27 november 2025 13:18]

Het kan inderdaad beter uitpakken, maar het is afwachten of het gerucht klopt en wat de gevolgen zullen zijn. Volgens mij merk je bij één merk zelf al dat er flink wat verschil in performance kan zitten tussen kaarten, althans dat is wat ik vaak lees en in benchmarks zie. Zou dit niet alleen maar dat verschil vergroten?
Die kans is klein als je in gaat zien wat voor macht Nvidia nu al heeft op de markt :)
Als het in China lukt om 2x zo grote modules op nvidia kaarten te solderen en daar werkende GPU mee te maken met dus 2x zoveel geheugen als nvidia ze zelf aanbiedt dan valt die macht dus wel mee :)
En de prestaties gaan door de tijd heen fluctueren als fabrikanten andere geheugen chips gebruiken voor nieuwe batches. Dan zijn benchmark resultaten dus ook onbetrouwbaar aan het worden.
Valt wel mee hoor. Dat geheugen komt praktisch altijd van Samsung of SK Hynix. Beiden zeer betrouwbaar.
Kan het als dit waar is niet zijn dat dat juist kan veranderen?
Krijgen we nu Samsung RTX 5070 kaarten met 24GB geheugen?
Misschien heeft NVIDIA ondertussen ook aandelen in Samsung en SK Hynix op het oog :/
Hopelijk doet AMD dit niet, waardoor er misschien meer kaarten van AMD worden verkocht.

Natuurlijk heeft AMD geen 5090-killer, maar dat is maar een klein deel van de markt
Ik denk niet dat het veel zou uitmaken.

Het probleem bij AMD is al vele jaren hetzelfde: hun drivers/software is gewoon niet op het niveau van NVIDIA. Dit is waarom NVIDIA Cuda heeft en AMD niet. Dit is waarom NVIDIA als eerste met frame-gen en AI upscaling kwam. Dit is waarom NVIDIA met mindere hardware soms betere prestaties levert dan AMD.

Begrijp me niet verkeerd; ik zit zelf op een 9070XT en het is een hele goede kaart voor gaming. Maar wanneer je ziet dat YouTube filmpjes haperen omdat de AV1 decoder van AMD een issue is dan weet je weer dat je een AMD kaart gebruikt.

Zolang ze bij NVIDA significant meer geld en developer tijd blijven steken in hun software zal AMD altijd achter de feiten aan lopen. Iemand moet bij AMD het roer om gooien en budget vrij maken voor betere software.
Lastige is dat dit een negatieve spiraal is voor AMD. Door de veel slechtere driver ondersteuning wordt AMD minder voor AI aangeschaft, dus heb je minder ontwikkelaars die voor AMD optimaliseren. En omdat dat allemaal zo slecht werkt zijn de verkopen een stuk lager, dus heb je minder budget om te spenderen aan het ontwikkelen van je AI driver.

Omgekeerd gaat Nvidia enorm goed, CUDA is top en dat merken we al als je kijkt naar hoe we het kunnen ondersteunen. In KoboldCpp (fork van llamacpp) compilen we voor generieke architecturen aan de nvidia kant, en de driver weet dat vervolgens om te zetten naar de specifieke video chip die een gebruiker heeft en dat werkt zowel op Windows, Linux en WSL. En ze doen dit zelfs goed voor kaarten die niet in de versie van de compiler zitten die we gebruiken, zo goed dat we die bewust niet hebben geupdate zodat de software op zo veel mogelijk machines draait zonder driver updates.

AMD is een compleet ander verhaal, daar moeten we het compileren per chip en ontbreekt de ondersteuning vaak of is deze simpelweg niet af. Zo zit in onze laatste ROCm binary een workaround die oudere CDNA GPU's trager maakt. Waarom? ROCm 7 had die functie ineens niet meer werkend voor die GPU's. Als mensen de volle snelheid willen hebben moeten ze het zelf bouwen met ROCm 6. Dergelijke zaken zijn dus echt niet op orde, je moet er van op aan kunnen dat als je een videokaart koopt ROCm ondersteund wordt en goed werkt. Wil je het op Windows gebruiken? Dan zijn er nog minder ROCm GPU's die werken, en WSL is al helemaal om te huilen dat zijn er nog minder.

Gevolg? Ik heb zelf een AMD Vega 64 (Die momenteel niet werkt) en een AMD 6800U laptop iGPU. Kan ik ROCm gebruiken om te testen of onze ROCm implementatie goed werkt? Nee. Vega 64 wordt niet meer ondersteund in ROCm en de iGPU was al nooit ondersteund in hun distributie van ROCm. Mijn oude maxwell videokaart uit 2015? Die werkt prima en hoewel die in CUDA13 niet meer wordt ondersteund werkt die in CUDA12.9 prima en had die dus tot een paar maande geleden alle updates (Voor zo ver die hardware de compute functionaliteit had, maar hij had genoeg om het mee te laten werken en we kunnen hem waarschijnlijk nog een lange tijd ondersteunen).

Dus je kan stellen dat AMD er een zooitje van heeft gemaakt, maar ze moeten wat. Nvidia heeft het slim gespeeld door de architectuur van de datacenter kaarten gelijk te houden aan de gamer kaarten. Dat gaat AMD nu eindelijk ook doen zodat het minder RND kost. Maar dan nog zit er een enorm gat in hun budget ten opzichte van Nvidia die op volle vaart kan innoveren.
Gelukkig dan dat de meeste pc gamers nog steeds beweren dat >8GB op een GPU overbodig is 😜
Gelukkig dan dat de meeste pc gamers nog steeds beweren dat >8GB op een GPU overbodig is 😜
Dat valt wel mee, toch? Ik denk dat de meeste gamers geen mening erover hebben maar gewoon spelen op wat ze hebben.
Deze stelling is pas sinds de laatste 2 generaties echt een issue, daarvoor liep de gpu core al op zijn tenen voordat de ram groote Überhaupt een probleem was.

Maar goed schijnbaar vinden mensen het belangrijk om met 30 fps en stutters op 4k een game te kunnen spelen met een kaart welke daar absoluut niet voor gemaakt is.

Al vanaf de 30 series hebben we meer ram op de top kaarten, als voorbeeld mijn 3080ti welke met zijn 12gb vram nog steeds niet tegen de limieten aanloopt tenzij de fps naar onacceptabele waardes zakt.
Ik weet niet hoe het op deze website is maar op andere tech sites hebben mensen letterlijk topics geopend hierover waarin ze beweren dat games maar 6GB kunnen gebruiken, ik zal een voorbeeld zoeken
Kunt een hoop beweren wat kant nog wal raakt.
Met de huidige games heb je zomaar 8GB nodig. Zeker op 4K. En ik heb het voor elkaar gekregen om 22GB van de 24 op mijn 7900xtx vol te krijgen met indiana jones. Alles tot de max opengeschroeft op 4K.
Totaal onspeelbare fps, maar welke mooie plaatjes ;p
Hallo! dat is een goed voorbeeld maar niet helemaal strekkend!

Het probleem met VRAM is dat VRAM wordt gebruikt voor alles wat over de GPU heen loopt. Dus niet alleen de game die je speelt. Alles met Hardware acceleratie gaat over de GPU. het is ook een ontzettend ingewikkelde discussie.

Neem Battle field 6, I nde settings heb jeen VRAM grafpiek, In deze grafiek kan ik zien dat mijn RTX 3080 10G echt precies op het randje zit met totale Vram gebruik. En waarom is dat een probleem? Nou... Grafisch gezien is BF6 niet eens zo heel bijzonder. Mooie game, maar geen raytracing oid. dus alles is Rasterized en toch geeft het aan dat ik op het randje zit met 10GB vram op 1440 een mix van med to High settings. met Anti Aliasing op DLAA. Dit komt omdat "Other apps" de overige hoeveelheid in neemt. Natuurlijk wordt dit gemanaged, maar het geeft wel iets aan.

Buiten dat is dit topic ook onderzocht door onze Australische helden Hardware Uboxed, hele interessante video om te zien!
YouTube: How Much VRAM Do Gamers Need? 8GB, 12GB, 16GB or MORE?

En in deze video onderzoeken ze hoe PCI-E bandwidth VRAM beinvloed... en dit maakt het hele gesprek niet makkelijker omtrent hoeveel VRAM er "Nodig" is.
YouTube: GeForce RTX 5060 Ti PCI Express 3.0, 4.0 & 5.0 Comparison (8GB vs. 16GB)
Meer geheugen is vaak wel nodig als je een game op hogere (of maximale) settings icm hoge resolutie wilt kunnen spelen. Maar voor het spelen ansich is het niet nodig, je bent ook niet verplicht om 4k te gamen en op de hoogste instellingen toch?

[Reactie gewijzigd door watercoolertje op 27 november 2025 14:01]

Nouja bij mijn 6800XT loopt die 16GB nooit vol maar ligt de beperking van de kaart toch echt ergens anders, om uitleg zouden andere tweakers even moeten reageren daar heb ik (te) weinig verstand van.
Volgens mij blijken ze op medium te spelen vaak en eindigt het met dat ze geen verschil zien in textures en daarom deden alsof alles op ultra stond
Blij dat ik nog net vorige week een hellhound rx 9070 voor 499 heb kunnen kopen. De GPU prijzen zien er over een maand of 2 denk ik een stuk anders uit. Had mijn Pulse rx 9070 teruggestuurd, maar mocht Amazon hem niet terugnemen met de 14 dagen regel, dan ga ik die mooi doorverkopen over een paar weken. Denk dat ik er dan wel de aankoopprijs voor ga terugkrijgen.

Jammer genoeg van de zomer geen DDR geheugen gekocht. Dat koste toen echt geen drol. Nu laat ik dat lekker links liggen komende tijd
Dus theoretisch koop je een AMD met 3Gb geheugen chips en zet ze over op NVIDIA.
Wat een leuke hobby is het toch ook de laatste jaren :')
Volgende aankondiging gaat zijn dat allemaal aan de thin-client gaan/moeten. Want die PC? Die heb je toch niet echt nodig deze tijden he. Neem een AWS/Azure/Google/... subscription waarbij je een Virtual Desktop kan booten en kan linken aan je eigen account (uiteraard ook gehost bij said provider). Gamen? Doe je toch makkelijk via Geforce Now. Kan die dure videokaart ook ineens de "Vraag en aanbod" in. Geheugen heb je ook amper nog nodig. Wat een voordelen zijn dit toch! /s

Een gigantische vendor lock-in en de natte droom van de huidige elite.
"You will own nothing and you will be happy"

[Reactie gewijzigd door Myri op 27 november 2025 13:18]

Nee, dat is juist de fase waar we net uit komen. Er verschenen juist steeds meer lokale AI. Zelfs sinds deze maand zijn er kastjes te koop - zoek op NVIDIA GB10 - die de NVIDIA cloud GPU lokaal beschikbaar maken, zelfs met 128GB geheugen. Het je offline een NVIDIA cloud GPU (of 4 want hij kan opgesplitst worden in vGPUs).

Maar even de filosofische kant: wat je niet hebt kun je niet verliezen en hoef je ook geen aandacht te geven, dat kan inderdaad rust geven.

[Reactie gewijzigd door djwice op 27 november 2025 13:57]

Slecht plan… dan zie ik een teken dat we Nvidia minder gaan vertrouwen. Bovendien vindt Meta echt niet leuk als Nvidia AI kaarten zonder geheugen aan Meta levert.
En ook gaan de beurshandelaren de aandelen van Nvidia verkopen, daardoor zal het koers van Nvidia flink dalen.

Bravo, je hebt het flink verpest ALS het gerucht waar is.
Dus NIET DOEN!!!
Meta neemt de kaarten direct bij Nvidia af volgens mij, dat is de reden dat ze misschien geen geheugen leveren aan de 3rd party kaart bakkers.
Zou niet weten waarom handelaren dit een probleem vinden. Die zien gewoon 20x zoveel winst gemaat worden op hetzelfde geheugen. 0.5% meer dividend en die staaan alweer in hun handjes te wrijven met kwijl uit de mondhoeken.

Aandeelhouders hebben echt nul langetermijnvisie die willen gewoon gisteren nog cashen en hebben niet eens door dat 500% groei niet realistisch is jaar op jaar.
Dit alles me denken aan vroeger. Hab een ATI mach 64 gehad met 1MB VideoRAM.
Bij lokale pc boer 1MB VideoRAM gekocht (500 gulden!!) en er zelf bij geprikt. Moest wel lang wachten want was lastig aan te komen. Ik denk een half jaar of zo :P
Maar uiteindelijk kon de kaart meer kleuren (32bit ipv 24bit) en hogere resolutie aan.

Om te kunnen reageren moet je ingelogd zijn