'Nvidia hervat productie RTX 3060 wegens tekort aan geheugen'

Nvidia zou van plan zijn om zijn oudere RTX 3060-gpu's opnieuw in productie te nemen, in het eerste kwartaal van dit jaar. De chipmaker zou dit doen in reactie op grote en groeiende tekorten aan geheugenchips, veroorzaakt door de AI-hype waarin Nvidia zelf een grote speler is.

Nvidia heeft videokaartfabrikanten laten weten dat de RTX 3060 terugkomt, meldt technieuwssite Wccftech. Dit nieuws is afkomstig van leaker hongxing2020, die eerder plannen van Nvidia correct onthulde. Het is nog onbekend of het gaat om RTX 3060-videokaarten met 12GB of met slechts 8GB geheugen.

De RTX 3060, die in 2024 werd uitgefaseerd, gebruikt het oudere geheugentype GDDR6. Prijzen voor GDDR7-chips zitten in de lift, waardoor modernere videokaarten zoals de RTX 5060 en RTX 5090 fors duurder dreigen te worden. De 60-serie van Nvidia's gpu's is bedoeld voor de massamarkt, waar prijsstijgingen een grotere impact op de verkoop kunnen hebben. De RTX 3060, die in 2021 uitkwam, is volgens het hardwareonderzoek van gameplatform Steam nog altijd de meestgebruikte videokaart.

Door Jasper Bakker

Nieuwsredacteur

05-01-2026 • 10:26

103

Submitter: TheProst

Reacties (103)

Sorteer op:

Weergave:

Waarom dan de 3060 en niet de 4060? Die gebruikt ook gddr6 (iig mijn laptop versie, neem aan desktop versie ook)
Er gaan berichten rond dat Samsung extra klanten krijgt omdat TSMC helemaal volgeboekt zit. De GPU van de 3060 wordt op een oud samsung 8nm procede gemaakt, die van de 4060 op 4nm van TSMC. Dus dat zou de reden kunnen zijn.
Sterker nog, waarom niet gewoon de current gen RTX5050 meer gaan procuderen i.p.v. oude generaties weer opstarten; die gebruikt ook GDDR6 en is ook sneller dan een 3060.

De verklaring van andere Tweakers dat ze de 3060 nog op het oudere Samsung 8nm procede kunnen maken klinkt logischer dan vanwege GDDR7 uitsparen alleen
Sterker nog, waarom niet gewoon de current gen RTX5050 meer gaan procuderen i.p.v. oude generaties weer opstarten; die gebruikt ook GDDR6 en is ook sneller dan een 3060.

De verklaring van andere Tweakers dat ze de 3060 nog op het oudere Samsung 8nm procede kunnen maken klinkt logischer dan vanwege GDDR7 uitsparen alleen
De optelsom maakt het nog logischer. TSCM zit vol, Samsung's 8nm niet. GDDR7 is duur, GDDR6 minder duur. Double whammy. En de schaarste maakt de marges extra aantrekkelijk.
Ik vraag mij wel af hoe aantrekkelijk het nu is om een 3060 te kopen.
Het zal afhankelijk zijn van de prijs maar ik kan mij niet bedenken (Nvidia kennende) dat die heel aantrekkelijk zal zijn.
Het zou me dan ook niks verbazen als veel van dit soort kaartjes in instap gaming-georiënteerde lijnen van een Dell, HP en consorten zou belanden.
Inderdaad. Bij de Mediamarkt kijkt niemand naar de chip, daar telt enkel het merkje en eventueel de hoeveelheid RAM. Een 16GB Nvidia GPU was tot voor kort sowieso een zeldzaamheid, dus dan moet het wel goed zijn toch?

Knollen voor citroenen verkopen is kinderspel wat dat betreft en al jaren gemeengoed in die branche.
Kan je er net zo goed een Radeon RX 6650 XT in proppen. Stuk beter dan een 3060.
Ik heb Vega 56
Mijn nieuwe rig november 9060XT 16GB.
Als ik de Vega 56 upgrade en budget 300,- is waarom niet.
Al zal ik eerder voor AMD gkaart gaan.
Ik vraag mij wel af hoe aantrekkelijk het nu is om een 3060 te kopen.
Het zal afhankelijk zijn van de prijs maar ik kan mij niet bedenken (Nvidia kennende) dat die heel aantrekkelijk zal zijn.
Als er niets anders beschikbaar is, voor een enigszins betaalbare prijs... dan zijn mensen snel genoodzaakt.

laten we wel wezen, de GPU markt is compleet verziekt momenteel.
Maak er maar PC markt van.

GPU's gaan duur worden.
dram stijgt nog steeds elke dag in prijs.
NVME SSD's stijgen in prijs.

Ik denk dat over 5 jaar iedereen Chinese hardware gaat/moet kopen, want die zijn nu keihard bezig om fabs op te zetten.
GPU markt valt reuze mee vergeleken met de Covid periode 4-5 jaar terug..
GPU markt valt reuze mee vergeleken met de Covid periode 4-5 jaar terug..
Alleen werd het toen veroorzaakt door schaarste. (geen productie, en geen logistiek). En dat was een calamiteit.

Nu wordt het veroorzaakt door pure hebberigheid, het najagen van een winst-illusie. Dat kan veel langer duren en veel schadelijker zijn. (even los van dat die bubbel straks een enorme plop gaat doen)
Ja idd. Ik denk naast ram ook 8nm ipv 4 nm.
Ik zou veronderstellen omdat 3060 op 8nm bij Samsung kan ingekocht worden vs 4nm via TSMC en dat ook een stuk goedkoper versta winstgevender is.
De 4060 is nauweljks sneller en wat @Thekilldevilhil, de 3000 series kunnen ze bij Samsung laten maken ipv TSMC.
30 serie is volgens mij op samsung 8nm gebakken, dus ook daar spotgoedkoop, want niemand wil dat proces nog.

Samsung 8nm was bij 30 serie launch al nvidia cheaping out, tsmc 7n was veel zuiniger/beter, nu zoveel jaar later krijgen ze die chips waarschijnlijk heeeeeeel goedkoop
30 serie is volgens mij op samsung 8nm gebakken, dus ook daar spotgoedkoop, want niemand wil dat proces nog.
dat is misschien voor high-end producten zo, maar die fabrieken blijven heus niet leeg nadat ze niet meer op de laatste nieuwe node draaien. Er zijn nog veel andere industrieën die chips nodig hebben.
Samsung 8nm was bij 30 serie launch al nvidia cheaping out, tsmc 7n was veel zuiniger/beter, nu zoveel jaar later krijgen ze die chips waarschijnlijk heeeeeeel goedkoop
vergeet dat maar, ze zullen waarschijnlijk goedkoper zijn dan toen, maar wees er maar zeker van dat Samsung z'n broek er niet aan zal scheuren.
wacht even , ligt er dan nog zoveel vooraad van dat oude geheugen op de planken??

ook oude geheugen gaat men niet voor een prikkie nu nog maken , en ook als het op de plank ligt is het markt werking en ga je het voor een hoge prijs verkopen , Kijk maar naar DDR 4 en 5 zijn bijde in prijs gestegen.
Vermoedelijk wordt dat oude geheugen nog geproduceerd. Dan geven ze consumenten liever oud geheugen zodat ze het nieuwe geheugen naar datacenters gaat.
ja maar dat is al net zo hard ini prijs gestegen als het nog producerend is atm.

dat is juist het punt.
Als Nvidia deze stap zet dan hebben ze daar natuurlijk wel naar gekeken. Misschien zit de waarheid in het midden: GDDR6 zal inderdaad niet supergoedkoop zijn, en zal niet meer maximaal geproduceerd worden zoals jaren terug, maar kan wellicht alsnog een deel van het tekort opvullen. Zoiets moet het bijna zijn, want Nvidia heeft een stuk meer data om deze beslissing te nemen dan wij hier in de reacties, over de productie-bottlenecks, marktomstandigheden en technische details. Als het echt geen enkel nut zou hebben voor hun omzet of winst dan zouden ze het niet doen (áls ze het gaan doen dan, want dit is nog een gerucht uiteraard).

Hoe dan ook is het een bizarre keuze: een GPU van twee generaties terug aanbieden omdat er zulke grote tekorten zijn. De AI-markt krijgt echt totaal de voorkeur momenteel, en gamers worden zowat voor gek gezet met zulk oud spul. Dit laat wel zien hoe erg de markt over de kop licht zolang AI-bedrijven 40% of meer van de productieruimte voor geheugen inkopen voor absurde prijzen. En dat lijkt tot 2028-29 te gaan duren.

Straks wordt de 3Dfx Voodoo 3 weer van stal gehaald? Gamen alsof het 1999 is :+
Misschien moeten we bij Tweakers maar eens gaan kijken wat we allemaal nog op zolder hebben liggen... :) Antiek wordt weer geld waard!
top idee,

EEN Retro LAN party,

Alleen maar te bezoeken met hardware uit pre 2000 :)
Dat hangt af van het productie proces. Als je dat oudere geheugen kan produceren op bijvoorbeeld een net zo oude node (of zelfs ouder) als dat je de 3060 kan produceren kan het heel goed zijn dat dit geheugen en die 3060's nog wel relatief goedkoop geproduceerd kunnen worden. Want leading edge AI datacenter chips zullen over het algemeen niet meer op oudere 8/10nm class nodes gefabriceerd worden en daar kan dus potentieel ruimte over zijn nu.

Dat kan dan best betekenen dat het wel iets duurder wordt (AMD, dat ook nog GDDR6 gebruikt, hintte bijvoorbeeld naar een 10-20% prijsstijging). Maar dat het niet zoveel stijgt als de honderden procenten die je nu ziet bij DDR5 (en mogelijk ook GDDR7)

[Reactie gewijzigd door Dennism op 5 januari 2026 12:16]

Vermoedelijk wordt dat oude geheugen nog geproduceerd.
GDDR6 wordt zeker nog geproduceerd, omdat AMD het gebruikt in de RX 9060 (XT) en RX 9070 (XT), en dat zijn gewoon courante kaarten.
10% ipv 'kan helemaal niet meer' is het verschil.

Tuurlijk zal GDDR6 ook duurder worden, maar dat is niet zo'n issue als GDDR7.
Het ligt waarschijnlijk niet op de plank maar ze kunnen dan machines voor een oud procede blijven gebruiken die nog niet volgeboekt zijn voor het produceren van het modernere geheugen.
en dat gaan ze doen tegen een lagere prijs,

Tuurlijk niet die is gek, alle andere zoals AMD hebben al aangekondigd dat ook GDDR6 veel duurder is dus prijs stijgingen.
En dan voor het volle pond verkopen zeker? Ze liggen daar in een deuk. Al die onwetende consumentjes kopen toch wel.
Wetend of onwetend, als je een betaalbare GPU nodig hebt, heb je niet echt heel veel opties op't moment. Een van de meest gebruikte kopen is denk ik nog best een goede keuze, ook al is het een oud model.
En dan voor het volle pond verkopen zeker? Ze liggen daar in een deuk. Al die onwetende consumentjes kopen toch wel.
Weinig aanbod, veel vraag. Dat drijft per definitie de prijzen omhoog. Dat is hele normale marktwerking.
Het rondpompen van miljarden aan niet-bestaand kapitaal binnen de AI-bubbel en het daaruit resulterende gebrek aan producten is geen "normale marktwerking", dat weet jij zelf ook wel 🥲
Het rondpompen van miljarden aan niet-bestaand kapitaal binnen de AI-bubbel en het daaruit resulterende gebrek aan producten is geen "normale marktwerking", dat weet jij zelf ook wel 🥲
Het bubbel creëren is iets wat ze keer op keer doen, dus blijkbaar is het wel normaal. (in amerika althans). Het grote probleem is het kruislings investeren, net zoals met de dotcom bubble.

en ok, het is geen normale marktwerking als bepaalde partijen hele partijen wafers opkopen zodat het niet op de markt komt. (OpenAI, blijkbaar). Maar dat de schaarste de prijs opdrijft: dat wel.
Ik hoop dat dit ook betekend dat de driver support ook verlengt wordt.
dat was ook mijn eerste idee, hopelijk dan voor heel de 3xxx-series zodanig dat m'n 3070 er ook nog van kan mee profiteren :)
Betekend dit ook dat de 30 series langere driver support gaan krijgen aangezien deze nu een rerelease krijgen?

Beetje zuur als je kaart na 5 jaar geen updates meer krijgt.
Ik vind het wel bijzonder dat de meeste reacties op het nieuws van die prijsstijging zo heftig zijn. Het is pas als zoiets absurds gebeurt dat iedereen ineens nieuw RAM of een nieuwe videokaart nodig lijkt te hebben. Die fabrikanten liggen allemaal in een deuk, nog een tientje erbovenop, nog een honderdje extra, de consument koopt toch wel weer.
De reacties zijn heftig omdat deze absurde prijzen nog best wel even aan kunnen gaan houden. Dus het raakt mensen die nu wilden upgraden, maar ook mensen die het de komende 1 á 2 jaar willen doen. Net voordat de GPU prijzen de pan uit rezen had ik besloten een nieuwe PC te willen kopen. Toen ik eenmaal duidelijk had wat ik wilde hebben waren GPU's niet meer leverbaar of stervensduur. Pas 2 jaar later waren prijzen weer wat acceptabel.

Bedenk ook dat dit verder gaat dan RAM en GPU's. Dit raakt álles wat gebruikmaakt van RAM, GPU's en zelfs SSD's. Zelfs iets als een Samsung 990 EVO Plus 2TB is 100 euro duurder dan een paar maanden terug. Ik snap de reacties dus wel, omdat enorm veel mensen zien dat dure producten nóg duurder gaan worden, alleen omdat er momenteel enorme vraag is dat naar bepaalde hardware om te voldoen aan de bizarre honger van AI-datacenters.
ik was ook van plan dit jaar iets nieuws te kopen, maar denk ik het maar nog iets langer moet uithouden met mijn 7,5 jaar oude dell laptop met een 1050ti.
Mijn vrouw heeft een acer nitro met een 1050ti die ik af en toe gebruik om WoW classic te spelen als de kinderen domme filmpjes kijken op mn mooie tv. Ik kwam er laatst achter dat als je de render resolutie omlaag doet en daarna weer laat upscalen dat je nog prima door kan met oude hardware ^_^

Zo speel ik dus ook met matige hardware op 4k 120hz als ik op mn pc speel met mn ryzen 3600x en rx5700xt (niet native maar ik zie het niet hoor, die game is toch te oud om het mooier te maken)


:twk
RTX 3060 12GB is nog een prima videokaart, kan prima 1080P met grafische settings op hoog of ultra aan. Sommige games werken ook op 1440P met ~60FPS. En anders gebruik maken van DLSS4, alleen geen Frame Gen.

Wat betreft de prijzen, die zullen wel weer omhoog gaan vrees ik.
Het is een prima GPU, maar een 5 jaar oude GPU opnieuw gaan produceren is wel echt te treurig voor woorden. We leven wat dat betreft in een rare tijd, waarbij oud spul steeds langer mee moet, regelmatig een refresh krijgt en zelfs alleen maar stijgt in prijs in plaats van dat het daalt.
Het ironische is dat de 5060 niet eens zo veel krachtiger is dan de 3060, ondanks de leeftijd 8)7
Veel nieuwe technologie vereist ook nieuwe software. In sommige gevallen toch 30% extra performance, zoals te zien is in de video die @cem. linkt.
Ik vind het niet zo raar dat producten langer mee moeten gaan. Ik heb het altijd maar raar gevonden dat producten van decennia geleden een langere levensduur hebben dan de wegwerprommel van tegenwoordig. Het wordt tijd dat we weer eens wat gaan doen aan die wegwerpmaatschappij. Vooral alles waar ze “smart” voor hebben gezet is bedroevend slecht. Na een paar jaar stoppen ze de ondersteuning en moet je een nieuwe kopen terwijl de oude nog prima werkt.
Ja en nee. In veel gevallen ben ik het met je eens hoor, maar in het geval van GPU's, CPU's, RAM en andere aanverwante hardware kun je niet simpelweg altijd makkelijk 10+ jaar doen met ze. Ofja, het kan wel, maar dan moet je aanzienlijk inboeten op allerhande zaken zoals kwaliteit van weergave en framerate als je games speelt bijvoorbeeld. Of je kunt minder snel werken wanneer je je bezighoudt met iets als videografie.

Ik heb echt lang gedaan met m'n GTX1060, maar die kwam op een gegeven moment gewoon niet meer mee. Nu heb ik een 3070 (tweedehands gekocht overigens). 1440p gaat prima, maar VR wordt steeds veeleisender. Dus een prima GPU, maar die redt het niet nog eens 5 jaar voor waar ik hem voor gebruik.
Het is eerder dat je sommige games niet kan spelen op 1440p met +60FPS. Met de meeste games kan dat gewoon. Frame Gen is softwarematig gelocked door Nvidia. Ik gebruik Nvidia Frame Gen op mijn RTX2070 super.

@bob harley je bent aan het overdrijven imo.
Net als framegen is dat software matig gelocked. DLSS4 werkt vanaf de RTX2000 serie, als je het een klein duwtje in de rug geeft.
[...] En kom op 1080p, een resolutie die al in 2008 werd gebruikt. Nog nooit heeft pc land zolang met een resolutie gedaan.
https://tech4gamers.com/1080p-resolution-dominates-2025/
Resolution Nov 2024 Share Nov 2025 Share Change
1920×1080 55.98% 52.83% −3.15%
2560×1440 19.75% 20.79% +1.04%
2560×1600 4.62% 5.20% +0.58%
3840×2160 4.21% 4.83% +0.62%
3440×1440 2.51% 3.06% +0.55%
1366×768 2.90% 2.40% −0.50%
https://store.steampowere...e-Survey-Welcome-to-Steam
In december 2025:
1920 x 1080 - 53.68%

Lijkt me toch nog een groot deel dat 1080p gebruikt.
wat een gekke lijst. 2560×1600 zijn dan hoofdzakelijk mensen die met een Mac spelen?

Verbazingwekkend weinig aandeel voor 4K. Want dat zal de resolutie van de monitor zijn toch? Niet de resolutie waarin mensen games draaien.
Nog nooit heeft pc land zolang met een resolutie gedaan.
Wanneer heb je het laatst een DVD gekeken? Niet een rip van 300MB, maar een echte DVD? Het is 480p resolutie maar je mist niks. Je ziet geen blokken zoals we associeren met de 480p videos van Youtube, gewoon goed te doen.

Voor 3D rendering wil je iets meer hebben, omdat de hogere resolutie wat afleidende artifacts kan wegwerken. Maar in principe is 1080p scherp zat. Tekst is goed leesbaar, en details flikkeren niet.

Zolang het niet afleid, is alles daarboven een luxe.
Nou, ik ben met je eens dat een fatsoenlijke DVD er beter uit ziet als wat oudere series op streamingservices, maar het komt toch niet in de buurt van zelfs een beetje 1080p van een doorsnee service.
Het is niet dat je het verschil niet ziet, maar dat er niet duidelijk iets mis mee is. Daardoor haakten veel consumenten af van de resolutie-race. Blu ray werd pas populairder dan DVD toen de meesten overstapten naar streaming.
Met kerst gremlins op dvd. Ik kan het niet aanraden op een 4k tv, veel pixels en weinig details.(miss heeft het ook met het oled panel te maken)

En daar ben ik het totaal niet mee eens. Als je op 4k gamed en dan terug gaat naar 1080p dan schrik je echt. Ook weer veel minder details en veel meer pixels wat ook logisch is.

Waar 1080p wel goed voor is is handheld gaming.
je bent je er van bewust dat een 5080 ook op 1080P games moet spelen?

er staat 4K, maar DLSS performance dan loopt die game gewoon op 1080P of zelfs lager met ultra performance profielen.
Nee ikzelf heb geen 5080 maar een 7900xtx en ik speel alles op 4k resolutie met high/max instellingen.(miss niet de nieuwste games, ik weet niet)

Wel heb ik hogwarts, final fantasy rebirth, palword met een 4060 4k medium/high gespeeld en upscaling wat goed werkte.

Ook daar weer, dit is toch geen vooruitgang. Upscaling en techniek is eerder een afbreuk dan vooruitgang. En menig kenner is het daarmee eens. Althans ben ik niet de enige die inziet dat het niet de goede kant opgaat.
probeer moderne games maar op 4k native te spelen, gaat je niet lukken.
Als je upscaling gebruikt, verlaag je al de resolutie waarop je speelt, performance 4k = 1080P.

1080P wordt zelfs door de high-end nog steeds gebruikt, direct of indirect door upscaling.
Alweer? Deden ze dit niet ook vorig keer?

Hoe dan ook dit is wel echt zielig dat de impact zo groot is dat we weer oude kaarten moeten gaan maken.
Volgens mijis de gtx1050 idd teruggebracht tijdens de crypto-apocalypse
De 30 serie was een "slechte" serie van Nvidia doordat er inefficiënte 8nm Samsung chips op zaten die erg heet werden met als gevolg hoog energieverbruik i.p.v. de efficiëntere TSMC chips te gebruiken.

Zoek maar op Youtube m.b.t praktijk energieverbruik tijdens gamen 20 serie vs 30 serie vs 40 serie dan springt de 30 serie er behoorlijk bovenuit.

Spellen hebben tegenwoordig 12gb vram nodig bij 1440p, de 3060 kwam ook met 12gb vram, alhoewel ik de 3060 meer een 1080p kaart vind.

Ben benieuwd wanneer spellen makers neural texture compression gaan implementeren.

[Reactie gewijzigd door mr_evil08 op 5 januari 2026 13:51]

Als je wat minder benchmark videos op internet kijkt en gewoon je computer gebruikt om spelletjes te spelen kom je erachter dat dit in de praktijk gewoon helemaal geen enkel probleem is. Als gebruiker van een RTX 3080 met maar slechts 10GB VRAM heb ik gewoon helemaal nergens last van op 3440 x 1440, ook niet met de nieuwste titels. Terwijl als ik het internet moet geloven ik een onspeelbare ervaring zou moeten hebben.
Het gaat om de vergelijking 2, 3 en 4 serie.

10gb vram is niet meer voldoende met een 3080, genoeg game's gaan er overheen waardoor je flink terug moet schroeven in kwaliteit om daar onder te blijven, DLSS verzacht wel de pijn.

Wel is het zo dat iedereen een eigen standaard heeft, de één vind 40fps prima terwijl de ander 100fps, bij mij ligt de standaard op minimaal 75fps want daaronder zie ik te duidelijk.

[Reactie gewijzigd door mr_evil08 op 5 januari 2026 14:11]

genoeg game's gaan er overheen waardoor je flink terug moet schroeven in kwaliteit om daar onder te blijven, DLSS verzacht wel de pijn.
DLSS gebruikt juist ook weer vram...
Niet alles op ultra/max willen draaien is ook een optie,
Meestal lever je op "high" bizar weinig in aan eye candy, terwijl t toch heel wat GPU power kan schelen. ipv meteen alles op lowest te gooien, of terug te gaan naar 640*480
(HUB en DF hebben hier genoeg videos over)

draai hier nog prima voor de games die ik wil spelen, op 1440p, met een 3060ti 8G
DLSS upscaled de zaak waardoor vram gebruik daalt ondanks DLSS zelf een beetje neemt.

Nvidea weigert fatsoenlijk vram te plaatsen op nieuwere series bij laptops bijv, frame gen is onbruikbaar op een 4060/4070/5060/5070 vanwege 8gb vram(laptops).

De GTX1060 had al 6gb vram...

Ja 8gb vram wil maar vaak koop je een product waar je een tijdje mee vooruit kan.

[Reactie gewijzigd door mr_evil08 op 5 januari 2026 19:21]

Nvidea weigert fatsoenlijk vram te plaatsen op nieuwere series bijv, frame gen bijvoorbeeld is onbruikbaar op een 4060/5060/5070 vanwege 8gb vram(laptops).
succes met t kopen van een laptop met amd Dgpu met voldoende video geheugen...
Dat is precies de reden, ze weten heel goed dat ze een monopolie hebben.
RAM is zo duur geworden dat Apple nog maar slechts 75% van het bedrag dat ze ervoor aanrekenen als marge overhouden.
Ik kan mij nog tijden herinneren dat een geheugenupgrade voor een Dell systeem in verhouding tot losse-module-prijzen in de huidige RAM-prijzen markt zou betekenen dat je beter een 2e systeem zou kunnen kopen en daar enkel het geheugen uit gebruiken en de rest van het systeem bij het grof vuil te zetten én alsnog goedkoper uit zijn dan met een geheugenupgrade... /s

Om te kunnen reageren moet je ingelogd zijn