Gerucht: Nvidia levert aan videokaartmakers geen geheugen meer bij zijn gpu's

Nvidia zou vanwege stijgende prijzen niet langer geheugenchips meeleveren bij de gpu's die het verkoopt aan videokaartfabrikanten. Die fabrikanten moeten hierdoor ieder voor zich GDDR6X‑ of GDDR7‑chips inkopen, wat de prijzen kan verhogen en kleinere producenten kan buitensluiten.

Nvidia zou daarmee het gangbare leveringsmodel loslaten waarbij het gpu's met bijpassende geheugenchips als compleet pakket levert aan fabrikanten van videokaarten, schrijft VideoCardz. De site baseert dit op geruchten die de Chinese hardwareleaker Golden Pig Upgrade Pack deelt.

Als Nvidia geen geheugenchips meer meelevert bij zijn gpu's voor videokaarten, zou dat fabrikanten van die uitbreidingskaarten dwingen om zelf geheugenchips in te kopen bij chipfabrikanten. Daarbij vallen het schaalvoordeel en eventueel prijsvoordeel van een grote, centrale inkoper als Nvidia weg. Dat kan leiden tot hogere kosten voor de geheugeninkoop door individuele videokaartproducenten, die dat dan mogelijk doorberekenen aan pc-fabrikanten en consumenten.

Verder zou de overgang van centrale Nvidia-inkoop naar individuele afname van geheugenchips door videokaartmakers problematisch kunnen zijn voor kleinere producenten. Zij hebben niet altijd de benodigde relaties en sluiten dan als nieuwe en bovendien kleine partij aan in de keten van geheugenchips. Dit kan ertoe leiden dat zij niet aan bod komen en dus geen geheugenchips kunnen inkopen, speculeert de leaker.

Door Jasper Bakker

Nieuwsredacteur

27-11-2025 • 12:54

96

Submitter: Scribe

Reacties (96)

Sorteer op:

Weergave:

Als dit gerucht klopt, dan schuift Nvidia de gevolgen van de eigen marktdominantie en de enorme vraag naar AI-hardware door naar anderen in de keten. Nvidia jaagt wereldwijd de vraag naar snelle geheugenchips op door zijn AI-producten, maar als ze vervolgens geen geheugen meer meeleveren met hun GPU-dies, dan leggen ze het leveringsrisico en de inkoopproblemen volledig bij de add-in-boardpartners neer. Grote partijen kunnen dat nog wel organiseren, maar kleinere fabrikanten worden zo praktisch buitenspel gezet. En uiteindelijk belandt dat risico natuurlijk bij de consument in de vorm van hogere prijzen of minder keuze.

Het blijft speculatie, maar het past wel in het bredere beeld van Nvidia’s steeds grotere marktmacht en de druk die dat veroorzaakt op de rest van de industrie.
Ten eerste is dit nog steeds een gerucht. Daarnaast gebruiken de AI chips HBM, geen GDDR6/7, dat is voor de gaming modellen. Een beetje vreemd dat de schuld op AI wordt gestoken, het probleem is echter dat meerdere fabrikanten verschuiven naar HBM omdat GDDR een enorm kleine winstmarge heeft, de consument wilt er niet veel voor betalen en er zijn zoveel aanbieders die dit goedkoop aanbieden. De prijs voor gaming kaarten is de laatste paar jaar in elkaar gestort waardoor o.a. EVGA uit de markt gestapt is.

Een voordeel, moest dit waar blijken is natuurlijk dat ze van meerdere fabrikanten kan inkopen ipv vast te zitten aan de overeenkomsten van nVIDIA, dit leidt tot meer concurrentie wat de prijzen verder doet zakken of nieuwe fabrikanten die de vraag vervullen. De vraag naar dit geheugen verandert niet, je krijgt echter wel meer diversiteit in het aanbod.

[Reactie gewijzigd door Guru Evi op 27 november 2025 13:31]

HBM komt echter uit dezelfde wafers, in de zelfde fabrieken, en delen een flink stuk dezelfde logistieke keten. Meer HBM = minder UDIMM's en losse 32-bit VRAM BGA packages. Immers, er zijn maar zoveel Xnm wafers/maand om rond te gaan. Als je ziet wat die clubs aan HBM inkopen, en dat dit te kosten gaat van de rest van de DRAM wereld... denk aan dit soort artikelen:

OpenAI's Stargate project to consume up to 40% of global DRAM output — inks deal with Samsung and SK hynix to the tune of up to 900,000 wafers per month | Tom's Hardware
GDDR is “oude” tech, een 10nm chip rolt niet van het 3nm process van HBM. De kosten, vraag en winstmarges voor GDDR liggen te laag om concurrentie te stimuleren.

De analyse in het artikel zegt dat dit door AI is, het probleem is niet AI voor deze doelgroep, maar te weinig vraag, te kleine winstmarge, fabrikanten die uit de markt stappen. NVIDIA geeft al langer indicaties dat het niet gezond is in de gamingmarkt en het is maar een heel klein deel van hun winstmarges. Het zou mij niet verwonderen moest NVIDIA helemaal uit de gaming kaarten stappen en enkel maar de chips aanleveren met suggesties voor de bordjes.
De analyse in het artikel zegt dat dit door AI is, het probleem is niet AI ...
Wat? De gigantisch gestegen prijzen van (alle vormen van) DRAM zijn voor de volle 100% toe te schrijven aan AI, en dat is geen kwestie van 'maar een mening', dat is een vaststaand feit:

OpenAI's Sam Altman heeft in 2 deals, met Samsung en SK Hynix, gelijktijdig en zonder medeweten van die 2 partijen, 900.000 wafers oftewel 40% van de totale wereldwijde DRAM productie opgekocht.

Iedereen die na dat feit nog steeds durft te beweren dat AI 'niet het probleem is' heeft 'boter op z'n hoofd'...

edit: schrijffoutje

[Reactie gewijzigd door HuisRocker op 27 november 2025 14:51]

gebruiken de AI chips HBM, geen GDDR6/7, dat is voor de gaming modellen.
Fout. Zo beschikt de €8.000 kostende RTX PRO 6000 over 96 (!) GiB GDDR7.

[Reactie gewijzigd door DvanRaai89 op 27 november 2025 15:03]

Dat niet alleen, van de rest van zijn ideeën/verhaal klopt ook niks...
Alle soorten DRAM stijgen namelijk gigantisch in prijs, de reden; 40% van de wereldwijde DRAM wafer productie is onlangs, in 1 klap, door OpenAI opgekocht. Er blijft dus voor alle andere partijen veel te weinig over...
Met deze complete paniek en bizarre prijzen voor alle soorten DRAM tot gevolg!
Dat is een workstation of vWS kaart, een AI kaart zoals de H200 klopt tegenwoordig tegenaan de 29k per kaart, en de ‘nieuwste’ kun je zelfs niet in een kaart vorm kopen, je moet direct een rack van 9 miljoen (zonder koeling) neertellen.

[Reactie gewijzigd door Guru Evi op 29 november 2025 23:00]

Dus je schrijft dat Nvidia bezig is met het privatiseren van de winsten en het socialiseren van de kosten? Dat is een verrassing. Dat had ik nooit verwacht van een beursgenoteerd bedrijf, laat staan Nvidia.

OK, nu even zonder sarcasme. :P Dit is het logische gevolg van hoe de markt beweegt. De goud AI-koorts is in volle gang. Zonder regulering zal hier niet snel verandering in komen.

[Reactie gewijzigd door The Zep Man op 27 november 2025 13:08]

Waarom zou je dit willen reguleren? Bovendien geen afnemer zal chips kopen zonder het geheugen dus de markt corrigeert zichzelf wel.
Waarom zou je dit willen reguleren?
Ik schrijf nergens dat ik iets wil reguleren. Wel zal zonder regulatie (van AI of van productstromen) niet snel iets veranderen. De vrije markt beweegt traag, en zelden in het voordeel van kleinere partijen.
Klinkt leuk maar als kleine speler betekent dit gewoonweg dat ze moeten stoppen met hun business en zich moeten failliet laten gaan?

Geen chips afnemen betekent dat je geen product meer hebt om te verkopen namelijk.. Wil je een wedstrijdje houden met Nvidia om te zien wie dit het langste kan volhouden? Dat loopt fout af voor iedereen buiten Nvidia. Hun enige focus is de AI goudmijn en de rest is zo'n grote bijzaak geworden voor Nvidia dat ze dit kunnen en durven.

Geheugen koop je niet zomaar in als fabrikant, dit gaat over jaarcontracten met volumes en vastgelegde prijzen en dergelijke. De capaciteit die Nvidia had ingekocht gebruiken ze waarschijnlijk liever zelf voor hun dure chips die ze zelf verkopen en de rest mag het uitzoeken.

Vergelijk het als putje winter je goedkope 3 jarige gascontract kwijtspelen terwijl de gasprijs aan het exploderen is. Succes met het proberen afsluiten van nieuwe contracten in deze tijden van geheugen schaarse. Echt een rot actie van Nvidia als dit klopt.

Boycotten en allen iets van AMD kopen..
Hoezo niet? Voor afnemers die hun eigen PCBs maken is die GPU gewoon een van de vele onderdelen op een BOM, waar die onderdelen vandaan komen zal hun verder niet benieuwen...
Maar die gaan niet een halve BOM inkopen om er daarna achter te komen dat ze geen geheugen kunnen krijgen en dus met dat materiaal gaan blijven zitten, dat risico kunnen dat soort partijen over het algemeen niet lopen met de vaak flinterdunne marges in PC hardware. Die zullen dan hun inkoop strategie aanpassen en pas andere componenten afnemen wanneer ze weten dat ze de schaarse componenten (in dit geval geheugen) kunnen krijgen voor een prijs waarbij het eind product niet onverkoopbaar zal worden.
Ja daar ben ik het helemaal eens, maar dat verhaal sluit verder niet aan bij "niemand zal de chips kopen zonder het geheugen". Misschien dat bedoelt werd dat alle chips geheugen nodig hebben dus niemand zal kaarten produceren waar wél een chip maar géén geheugen op zit. Dat zou ik het ook mee eens zijn... Maar het werd gebracht alsof niemand ooit GPU-chips zal kopen zonder daar automatisch geheugen bij geleverd te krijgen.
Nvidia bezig is met het privatiseren van de winsten en het socialiseren van de kosten
Ten eerste: Nvidia produceert zelf geen DRAM, dus heeft hier geen baat bij.
Ten tweede: vertel mij maar eens welke kosten hier worden gesocialiseerd...

[Reactie gewijzigd door DvanRaai89 op 27 november 2025 14:58]

Hoe wil je het uberhaupt reguleren.

Nvidia lapt nu al de handelsverboden met China aan hun laars.

En het is niet alsof het Westen echte druk kan uitoefenen over zo'n bedrijf of op Jensen. Het is hier en in de VS China niet, waar Jack Ma nadat hij teveel noten op zijn zang kreeg 3 maanden op heropvoedingscursus ging bij de staat.
En ze kunnen zelf lekker de chips houden en dan voor hun datacenter chips gebruiken...
Het is dus inderdaad 2-ledig:

1) de prijzen gingen al omhoog

2) nu moeten de fabrikanten ook nog zelf naar de geheugenfirma’s en daar geheugen kopen, waar ze hoogstwaarschijnlijk een veel slechtere positie hebben dan Nvidia. Daardoor gaat de prijs dus nog extra omhoog.

En ondertussen heeft Nvidia gewoon de contracten en gebruikt het Vram zelf zeker, voor hun AI-kaarten!?
Gevolg gaat zijn dat ze op de lange termijn hun eigen omzet misschien wel stuk gaan maken. Bij geen geheugen heb je ook niets aan de chip, dus die omzet gaat naar bedrijven die beide kunnen leveren of organiseren. Ook zullen de prijzen gaan stijgen van het totaal chip en geheugen.

NVIDIA haalt ongeveer 8,7% van zijn totale omzet uit de Gaming-segment, wat primair de consument-GPU-markt omvat (GeForce-kaarten voor pc-gaming). Dit percentage geldt voor het fiscale jaar 2025 (eindigend januari 2025), met $11,35 miljard gaming-omzet op een totaal van $130,5 miljard.​ Bron: https://bullfincher.io/companies/nvidia-corporation/revenue-by-segment.

[Reactie gewijzigd door Jumpman op 27 november 2025 15:02]

Je gaat er vanuit dat NVidia enige biet geeft om de consumenten GPU markt...
Het is misschien net zo goed de vraag of de marktdominantie van Nvidia niet al zorgde voor negatieve effecten op de markt voor geheugenchips. Als bij een fabrikant daarvan bijna alle verkopen opgaan aan een klant dan heeft die klant ook een hele grote macht. Zo'n grote klant raak je liever niet kwijt want dan raak je ook meteen een groot deel van je omzet kwijt. Het feit dat Nvidia met de grote inkoop de prijzen kon drukken was daar het gevolg van. Fijn voor de fabrikanten van boards en de consument maar minder ideaal voor de fabrikanten van geheugenchips.
Ik denk dat ze het doen omdat extreem duur geheugen inkopen een groot risico is. Als de prijzen morgen dalen moeten ze de kaarten heel duur verkopen. Nu zitten de kaartenbouwers met dat risico.
Kunnen ze nu meer RTX 6000 Pro Blackwell en B200's leveren. Waar later 3Gb modules op komen als de stroomaansluiting in het DC is uitgebreid en het grid kan leveren.

Zo zijn de 2Gb chips van nu niet nodig en hebben de kopers later meer video geheugen.

En kan potentieel de prijs van geheugen juist weer normaliseren.

[Reactie gewijzigd door djwice op 27 november 2025 14:05]

Maar geef ze eens ongelijk, ze hebben geen verplichting aan de gaming industrie.
Ondanks dat ik het ook jammer vind, ben zelf ook een gamer, maar dit past volledig in het kapitalisme waarin we leven en ons ook veel heeft gebracht!
Je vraagt er nu gewoon om om AMD hier een flinke vinger in de pap te gaan steken & Intel ook met haar Arc.
Is het niet vreemd dat Nvidia om te beginnen al geheugen mee leverde met hun GPU's?
Wie maakt die chips? Wat heeft NVIdia te maken met die geheugenchips?
Deze explosie is niet veroorzaakt door Nvidia, maar OpenAI. Blijkbaar hebben die een schokkende hoeveelheid aan productie opgeeist. Dat zorgde voor paniek bij overige bedrijven....en slecht voorbeeld doet goed volgen. Dus iedereen heeft uit angst de markt overvraagt.

Dus of...het geheugen wordt aan de grote jongens geleverd die de reserveringen hebben gemaakt, of die bedrijven kunnen hun opschaal-ambities niet waarmaken.

Dus....de explosie blijft nog een jaar met idiote prijzen voor geheugen, of er is ergens komend jaar een crash als het opschalen iets tegenvalt. Boom or bust.

Wil je een grafische kaart en was je nog "even" aan het wachten. Niet doen...nu de juiste deal scoren. Het zou wel eens dik een jaar kunnen duren voor er weer normale prijzen komen. Zeker als je de officiele waarschuwing van AMD serieus moet nemen dat GPU in prijs gaan stijgen en de geruchten dat refreshed configuraties uitgesteld worden.
Het antwoord hierop is wederom, net zoals in alle andere gevallen waar fabrikanten / bedrijven er een bende van maken, heel simpel. Geen cent meer uitgeven aan de producten van deze fabrikant. Een andere manier is er niet. Koop je het wel, dan accepteer je dus ook wat ze doen.
Hopelijk doet AMD dit niet, waardoor er misschien meer kaarten van AMD worden verkocht.

Natuurlijk heeft AMD geen 5090-killer, maar dat is maar een klein deel van de markt
AMD meer kaarten verkopen? Zonder productie-capaciteit hebben zij net zo goed last van de hogere prijzen.

Intel had/heeft eigen productie-capaciteit met hun eigen fabs. Wat een dure hobby bleek, maar zoals de situtie zich heeft ontwikkeld (door NVidia's handelingen) zijn eigen fabs ineens een wapen waarmee je markten over zou kunnen nemen, als dat je bedrijfskeuze zou zijn geweest.

Want wie door eigen capaciteit 200 tot 300 USD onder de prijs van van naaste concurrenten kan gaan zitten, die gaat een enorm marktaandeel krijgen. Intel zou dus meteen weer een speler van betekenis worden.

AMD heeft al jaren geleden afstand gedaan van Global Foundries, Intel heeft nog capaciteit en NVidia heeft zo'n beetje alle capaciteit van TMSC ingekocht.
Ik denk niet dat het veel zou uitmaken.

Het probleem bij AMD is al vele jaren hetzelfde: hun drivers/software is gewoon niet op het niveau van NVIDIA. Dit is waarom NVIDIA Cuda heeft en AMD niet. Dit is waarom NVIDIA als eerste met frame-gen en AI upscaling kwam. Dit is waarom NVIDIA met mindere hardware soms betere prestaties levert dan AMD.

Begrijp me niet verkeerd; ik zit zelf op een 9070XT en het is een hele goede kaart voor gaming. Maar wanneer je ziet dat YouTube filmpjes haperen omdat de AV1 decoder van AMD een issue is dan weet je weer dat je een AMD kaart gebruikt.

Zolang ze bij NVIDA significant meer geld en developer tijd blijven steken in hun software zal AMD altijd achter de feiten aan lopen. Iemand moet bij AMD het roer om gooien en budget vrij maken voor betere software.
Lastige is dat dit een negatieve spiraal is voor AMD. Door de veel slechtere driver ondersteuning wordt AMD minder voor AI aangeschaft, dus heb je minder ontwikkelaars die voor AMD optimaliseren. En omdat dat allemaal zo slecht werkt zijn de verkopen een stuk lager, dus heb je minder budget om te spenderen aan het ontwikkelen van je AI driver.

Omgekeerd gaat Nvidia enorm goed, CUDA is top en dat merken we al als je kijkt naar hoe we het kunnen ondersteunen. In KoboldCpp (fork van llamacpp) compilen we voor generieke architecturen aan de nvidia kant, en de driver weet dat vervolgens om te zetten naar de specifieke video chip die een gebruiker heeft en dat werkt zowel op Windows, Linux en WSL. En ze doen dit zelfs goed voor kaarten die niet in de versie van de compiler zitten die we gebruiken, zo goed dat we die bewust niet hebben geupdate zodat de software op zo veel mogelijk machines draait zonder driver updates.

AMD is een compleet ander verhaal, daar moeten we het compileren per chip en ontbreekt de ondersteuning vaak of is deze simpelweg niet af. Zo zit in onze laatste ROCm binary een workaround die oudere CDNA GPU's trager maakt. Waarom? ROCm 7 had die functie ineens niet meer werkend voor die GPU's. Als mensen de volle snelheid willen hebben moeten ze het zelf bouwen met ROCm 6. Dergelijke zaken zijn dus echt niet op orde, je moet er van op aan kunnen dat als je een videokaart koopt ROCm ondersteund wordt en goed werkt. Wil je het op Windows gebruiken? Dan zijn er nog minder ROCm GPU's die werken, en WSL is al helemaal om te huilen dat zijn er nog minder.

Gevolg? Ik heb zelf een AMD Vega 64 (Die momenteel niet werkt) en een AMD 6800U laptop iGPU. Kan ik ROCm gebruiken om te testen of onze ROCm implementatie goed werkt? Nee. Vega 64 wordt niet meer ondersteund in ROCm en de iGPU was al nooit ondersteund in hun distributie van ROCm. Mijn oude maxwell videokaart uit 2015? Die werkt prima en hoewel die in CUDA13 niet meer wordt ondersteund werkt die in CUDA12.9 prima en had die dus tot een paar maande geleden alle updates (Voor zo ver die hardware de compute functionaliteit had, maar hij had genoeg om het mee te laten werken en we kunnen hem waarschijnlijk nog een lange tijd ondersteunen).

Dus je kan stellen dat AMD er een zooitje van heeft gemaakt, maar ze moeten wat. Nvidia heeft het slim gespeeld door de architectuur van de datacenter kaarten gelijk te houden aan de gamer kaarten. Dat gaat AMD nu eindelijk ook doen zodat het minder RND kost. Maar dan nog zit er een enorm gat in hun budget ten opzichte van Nvidia die op volle vaart kan innoveren.
Ik heb al lange tijd een AMD gpu (7900XT) en haperingen in youtube filmpjes heb ik zeker niet. Er is een tijd geweest dat AMD inderdaad slechte drivers had, echter heeft NVidia nog niet zo lang geleden ook problemen gehad met zijn drivers. Dit zijn echt perioden waarin beide fabrikanten het soms niet goed doen. Op dit moment zitten ze beide echt wel ok met de ondersteuning van de gpu's.

NVidia is wel eerder met DLSS en dergelijke technieken. Maar wat AMD op dit moment heeft met FSR4 is gewoon vergelijkbaar.
Dit is het zelfde als na gevecht degene die ligt voor rot trappen.
ATI begon sterk met gpgpu. Nv was toen netgens. Toen kwam hun 1st gen Cg gen later Cuda. Maar nV zette sterk in op software stack. Ati volgde dat niet op. Net als infinityFX vs Charisma waren marketing kreten die mythisch werden . Wat idioot is.
Maat nv had toen momentum.
ATI werd overgenomen met als doel APU. Maar AMD global foundry liep chronisch achter dus wat ever cpu architectuur AMD bracht met node of meerdere achterstand kom je niet mee cliënt mobile server. Je heb over bedrijf tegen faillissement aanhing.
Core business . Radeon werd opgeofferd. TSMC is de kern van AMD comeback. Met GF zou wat ever AMD zou opleveren op ouwe node komen. Ondertussen ging nV door met hun software stack en deed alles buiten standaarden om.

We zijn nu afhankelijk van nV die AI markt veroverd heeft. Software stack closed voor alle markten. Daar kom je zonder miljarden strijd kas niet meer te boven en dan is nog geen garantie.
Want hardware is probleem niet. Je moet vet betaalde AI software engineers weg kopen bij top bedrijven en dus meer bieden.
En nV heeft die luxe om AI software engineer gurus te betalen. Een AMD niet.
Volgens de geruchten van diverse leakers heeft AMD's Radeon divisie zich nog slechter voorbereid op deze situatie dan Nvidia en zouden zij nog minder voorraden en contracten voor toekomstige leveringen hebben dan Nvidia.
Dit klinkt mij niet goed in de oren. Als iedere videokaartfabrikant zelf zijn geheugen moet inkopen, lijkt mij dat je enorme verschillen in kwaliteit en betrouwbaarheid zien tussen kaarten van verschillende merken. Het centrale pakket van Nvidia zorgde er juist voor dat alles meer uniform was, nu kan het zomaar dat sommige kaarten beter presteren of stabieler zijn dan andere, puur afhankelijk van welke chips een fabrikant kan bemachtigen.
Kan dus ook betere kaarten opleveren gezien nvidia misschien niet altijd het beste van het beste meelevert, en fabrikanten dat nu zelf kunnen bepalen.

Sowieso zijn nu ook al meerdere merken geheugenchips op hetzelfde model te vinden (niet op 1 kaart door elkaar maar het model ansich) en is er ook altijd al wel iets van verschil daartussen (vaak overclockt het ene merk beter dan het andere).

[Reactie gewijzigd door watercoolertje op 27 november 2025 13:18]

Het kan inderdaad beter uitpakken, maar het is afwachten of het gerucht klopt en wat de gevolgen zullen zijn. Volgens mij merk je bij één merk zelf al dat er flink wat verschil in performance kan zitten tussen kaarten, althans dat is wat ik vaak lees en in benchmarks zie. Zou dit niet alleen maar dat verschil vergroten?
Die kans is klein als je in gaat zien wat voor macht Nvidia nu al heeft op de markt :)
Als het in China lukt om 2x zo grote modules op nvidia kaarten te solderen en daar werkende GPU mee te maken met dus 2x zoveel geheugen als nvidia ze zelf aanbiedt dan valt die macht dus wel mee :)
Dat gebeurt alleen omdat er importrestricties naar China zijn van Nividia kaarten en ze dus totaal geen boodschap hebben aan wat Nvidia wil, want alle GPU's moeten toch via het illegale/grijze circuit verkregen worden. Board partners kunnen dit niet gaan doen, dan gaat Nvidia direct op de achterste benen staan als ze buiten spec gaan, en zij zijn nog wel afhankelijk van directe leveringen van Nvidia.
En de prestaties gaan door de tijd heen fluctueren als fabrikanten andere geheugen chips gebruiken voor nieuwe batches. Dan zijn benchmark resultaten dus ook onbetrouwbaar aan het worden.
Valt wel mee hoor. Dat geheugen komt praktisch altijd van Samsung of SK Hynix. Beiden zeer betrouwbaar.
Kan het als dit waar is niet zijn dat dat juist kan veranderen?
Misschien. Maar niemand maakt op zulke schaal GDDR7 memory buiten die twee grote spelers. En geen fabrikant wil onbetrouwbaar geheugen gebruiken met risico op imagoschade.
Krijgen we nu Samsung RTX 5070 kaarten met 24GB geheugen?
Misschien heeft NVIDIA ondertussen ook aandelen in Samsung en SK Hynix op het oog :/
Logisch. Nvidia snapt ook dat de AI markt enorm overgewaardeerd is en doet dus alles om de risico's van een crash te beperken. Kapitaal vastzetten in geheugenchips is geen core business, dus dat laten ze graag aan anderen over.
Gelukkig dan dat de meeste pc gamers nog steeds beweren dat >8GB op een GPU overbodig is 😜
Gelukkig dan dat de meeste pc gamers nog steeds beweren dat >8GB op een GPU overbodig is 😜
Dat valt wel mee, toch? Ik denk dat de meeste gamers geen mening erover hebben maar gewoon spelen op wat ze hebben.
En anders tweak je wat settings in de ini files etc. Zodat games wat lichter/sneller lopen.
Deze stelling is pas sinds de laatste 2 generaties echt een issue, daarvoor liep de gpu core al op zijn tenen voordat de ram groote Überhaupt een probleem was.

Maar goed schijnbaar vinden mensen het belangrijk om met 30 fps en stutters op 4k een game te kunnen spelen met een kaart welke daar absoluut niet voor gemaakt is.

Al vanaf de 30 series hebben we meer ram op de top kaarten, als voorbeeld mijn 3080ti welke met zijn 12gb vram nog steeds niet tegen de limieten aanloopt tenzij de fps naar onacceptabele waardes zakt.
Hallo! dat is een goed voorbeeld maar niet helemaal strekkend!

Het probleem met VRAM is dat VRAM wordt gebruikt voor alles wat over de GPU heen loopt. Dus niet alleen de game die je speelt. Alles met Hardware acceleratie gaat over de GPU. het is ook een ontzettend ingewikkelde discussie.

Neem Battle field 6, I nde settings heb jeen VRAM grafpiek, In deze grafiek kan ik zien dat mijn RTX 3080 10G echt precies op het randje zit met totale Vram gebruik. En waarom is dat een probleem? Nou... Grafisch gezien is BF6 niet eens zo heel bijzonder. Mooie game, maar geen raytracing oid. dus alles is Rasterized en toch geeft het aan dat ik op het randje zit met 10GB vram op 1440 een mix van med to High settings. met Anti Aliasing op DLAA. Dit komt omdat "Other apps" de overige hoeveelheid in neemt. Natuurlijk wordt dit gemanaged, maar het geeft wel iets aan.

Buiten dat is dit topic ook onderzocht door onze Australische helden Hardware Uboxed, hele interessante video om te zien!
YouTube: How Much VRAM Do Gamers Need? 8GB, 12GB, 16GB or MORE?

En in deze video onderzoeken ze hoe PCI-E bandwidth VRAM beinvloed... en dit maakt het hele gesprek niet makkelijker omtrent hoeveel VRAM er "Nodig" is.
YouTube: GeForce RTX 5060 Ti PCI Express 3.0, 4.0 & 5.0 Comparison (8GB vs. 16GB)
Meer geheugen is vaak wel nodig als je een game op hogere (of maximale) settings icm hoge resolutie wilt kunnen spelen. Maar voor het spelen ansich is het niet nodig, je bent ook niet verplicht om 4k te gamen en op de hoogste instellingen toch?

[Reactie gewijzigd door watercoolertje op 27 november 2025 14:01]

Idd, als je tevreden bent met 320*200 en geen postprocessing etc dan kun je het prima af met een oude pci kaart van 4MB.

Denk alleen niet dat dat de discussie is.
Zoals mijn strekking aangeeft je komt op onacceptabele framerates en vooral stabiele rates voordat vram een issue is.

Ik ga er voor het gemak even vanuit dat je in een shooter als bf6 graag 100+ fps hebt en omdat dit te bereiken op 1440p loopt je core usage eerder op zijn randje dan het vram een issue is.

Veel van de, "mijn 24gb vram" staat vol opmerkingen is doordat de game simpelweg ongebruikte data niet flushed.

En zoals ik ook aangeef pas de laatste 2 generaties begint 8gb een issue te worden waarbij de kaarten in het hogere segment welke bedoelt zijn voor 2k/4k meer vram hebben.

He gaat toch ook niet een caravan slepen met een 1 litertje, zolang de kaart in balans is zie ik er niet zo een probleem in.

Gecastreerde geheugen bussen zijn een veel grotere issue naar mijn idee, leuk een 16gb 5060ti maar uiteindelijk gaat de controller over zijn nek vanwege de bandbreedte beperking. Met verschrikkelijke stutters als gevolg.
Ik weet niet hoe het op deze website is maar op andere tech sites hebben mensen letterlijk topics geopend hierover waarin ze beweren dat games maar 6GB kunnen gebruiken, ik zal een voorbeeld zoeken
Kunt een hoop beweren wat kant nog wal raakt.
Met de huidige games heb je zomaar 8GB nodig. Zeker op 4K. En ik heb het voor elkaar gekregen om 22GB van de 24 op mijn 7900xtx vol te krijgen met indiana jones. Alles tot de max opengeschroeft op 4K.
Totaal onspeelbare fps, maar welke mooie plaatjes ;p
Net als cache werkt vram als lokale buffer.
Dus als je texture pool 60GB en gelijktijdig 7GB daadwerkelijk vereist zal 8GB kaart constant de niet direct gebruikte flushen. Een RTX pro 6000
Zal daar relaxer mee zijn en minder flushen. Dat maakt dat meer ram altijd ook gebruik van wordt gemaakt.
Ook om fragmentatie te voorkomen
Ik reageer op het feit dat er gezegd word dat er niet meer als 6GB vram gebruikt kan worden. En dat is klinkklare onzin. Hoef je ook niet voor in 4K te spelen.

En verder is natuurlijk meer cachen gewoon vloeiender gameplay. Alles wat niet gestreamd hoeft te worden kan ook geen microstutters veroorzaken.
Nouja bij mijn 6800XT loopt die 16GB nooit vol maar ligt de beperking van de kaart toch echt ergens anders, om uitleg zouden andere tweakers even moeten reageren daar heb ik (te) weinig verstand van.
Blij dat ik nog net vorige week een hellhound rx 9070 voor 499 heb kunnen kopen. De GPU prijzen zien er over een maand of 2 denk ik een stuk anders uit. Had mijn Pulse rx 9070 teruggestuurd, maar mocht Amazon hem niet terugnemen met de 14 dagen regel, dan ga ik die mooi doorverkopen over een paar weken. Denk dat ik er dan wel de aankoopprijs voor ga terugkrijgen.

Jammer genoeg van de zomer geen DDR geheugen gekocht. Dat koste toen echt geen drol. Nu laat ik dat lekker links liggen komende tijd
Dus theoretisch koop je een AMD met 3Gb geheugen chips en zet ze over op NVIDIA.
Op de korte en middellange termijn zijn dit vervelende ontwikkelingen voor pc-enthousiastelingen. Ik tel daar ook het steeds meer dichtgetimmerde (qua activatie-opties) en AI-opdringerige Windows bij op. Benieuwd hoe de situatie over een jaar of 5 is, misschien valt het mee.

Off-topic: waarom wilde je de Pulse niet meer? (ben een tevreden gebruiker)
Wat een leuke hobby is het toch ook de laatste jaren :')
Volgende aankondiging gaat zijn dat allemaal aan de thin-client gaan/moeten. Want die PC? Die heb je toch niet echt nodig deze tijden he. Neem een AWS/Azure/Google/... subscription waarbij je een Virtual Desktop kan booten en kan linken aan je eigen account (uiteraard ook gehost bij said provider). Gamen? Doe je toch makkelijk via Geforce Now. Kan die dure videokaart ook ineens de "Vraag en aanbod" in. Geheugen heb je ook amper nog nodig. Wat een voordelen zijn dit toch! /s

Een gigantische vendor lock-in en de natte droom van de huidige elite.
"You will own nothing and you will be happy"

[Reactie gewijzigd door Myri op 27 november 2025 13:18]

Nee, dat is juist de fase waar we net uit komen. Er verschenen juist steeds meer lokale AI. Zelfs sinds deze maand zijn er kastjes te koop - zoek op NVIDIA GB10 - die de NVIDIA cloud GPU lokaal beschikbaar maken, zelfs met 128GB geheugen. Het je offline een NVIDIA cloud GPU (of 4 want hij kan opgesplitst worden in vGPUs).

Maar even de filosofische kant: wat je niet hebt kun je niet verliezen en hoef je ook geen aandacht te geven, dat kan inderdaad rust geven.

[Reactie gewijzigd door djwice op 27 november 2025 13:57]

Slecht plan… dan zie ik een teken dat we Nvidia minder gaan vertrouwen. Bovendien vindt Meta echt niet leuk als Nvidia AI kaarten zonder geheugen aan Meta levert.
En ook gaan de beurshandelaren de aandelen van Nvidia verkopen, daardoor zal het koers van Nvidia flink dalen.

Bravo, je hebt het flink verpest ALS het gerucht waar is.
Dus NIET DOEN!!!
Meta neemt de kaarten direct bij Nvidia af volgens mij, dat is de reden dat ze misschien geen geheugen leveren aan de 3rd party kaart bakkers.
Zou niet weten waarom handelaren dit een probleem vinden. Die zien gewoon 20x zoveel winst gemaat worden op hetzelfde geheugen. 0.5% meer dividend en die staaan alweer in hun handjes te wrijven met kwijl uit de mondhoeken.

Aandeelhouders hebben echt nul langetermijnvisie die willen gewoon gisteren nog cashen en hebben niet eens door dat 500% groei niet realistisch is jaar op jaar.

Op dit item kan niet meer gereageerd worden.