Nvidia brengt RTX 3060 mogelijk weer uit in plaats van 9GB-versie van RTX 5050

Nvidia zou de release van de RTX 5050 met 9GB geheugen toch uitstellen. Het is volgens leaker MEGAsizeGPU helemaal maar de vraag of die videokaart nog wel op de markt komt. Maar daar staat wel tegenover dat Nvidia mogelijk de RTX 3060 weer nieuw leven inblaast.

Dat stelt MEGAsizeGPU, ofwel Zed Wang, op X. Die leaker heeft vaker betrouwbare informatie uit de aanleverketen van videokaartmakers. De leaker zegt dat de RTX 5050 met 9GB 'vertraagd' is. "Het uitbrengen wordt erg onzeker nu", zegt hij.

Er gingen eerder al geruchten, overigens van dezelfde leaker dat Nvidia rondom Computex een nieuwe gpu wilde uitbrengen. Dat zou een 9GB-versie zijn van de GeForce RTX 5050, die nu alleen nog met 8GB GDDR7-vram beschikbaar is. De kaart zou drie geheugenchips van 3GB krijgen en een 96bit-geheugenbus met een kloksnelheid van 28Gbit/s, voor een totale geheugenbandbreedte van 336GB/s. Dat is meer dan het huidige model, dat maximaal 320GB/s heeft.

Maar dat lijkt nu allemaal irrelevante informatie, want Nvidia zou dat model mogelijk dus helemaal niet meer uitbrengen. De leaker zegt niet waarom, maar de geheugentekorten lijken een logische boosdoener. Zo gingen er in december al geruchten dat de RTX 50 Super-serie zou worden uitgesteld vanwege die geheugentekorten.

Daar staat wel tegenover dat MEGAsizeGPU zegt dat Nvidia de RTX 3060 nieuw leven in wil blazen. De leaker zegt dat die 'rond juni' van dit jaar uit moet komen 'om het gat te vullen' van de RTX 5050. Dat is dan waarschijnlijk tijdens Computex. De leaker bevestigt verder dat het dan gaat om een 12GB-model, in plaats van het 8GB-model.

GeForce RTX 5050 8GB

Door Tijs Hofmans

Nieuwscoördinator

17-04-2026 • 17:42

52

Submitter: MineTurtle

Reacties (52)

Sorteer op:

Weergave:

Als het ook weer door Samsung op 8 Nm wordt gebakken dan zit je wel met een kaart die een hoog verbruik / prestatie verhouding heeft, niet krachtig is en dan wel 12 GB geheugen heeft maar dat is dan natuurlijk ook weer GDDR6.

Als ze een RTX 3060 Super kunnen maken door dezelfde chip naar 4 Nm te porten en dan wel GDDR6 maar sneller geheugen, dan zou dat al een stuk beter zijn.

Maar ze hadden dan net zo goed een 12 GB versie van de RTX 5060 kunnen maken met 3 GB chips om tussen de 8 GB RTX 5050 en 16 GB RTX 5060 Ti te vallen. Dan zou de RTX 5060 12 GB voor 349 dollar MSRP worden aangeboden wat eigenlijk nog te duur is voor zo'n kaart maar beter dan een 2 generaties oude kaart voor 300 Euro in de winkel terwijl een goede tweedehands je zo'n 200 kost.
Het lijkt me niet dat ze de chip gaan aanpassen, gok dat ze gewoon het oude ontwerp blijven gebruiken. Het is zeker mogelijk een chip van het Samsung proces over te zetten naar die van TSMC. Maar dan heb je in principe een compleet nieuwe chip ontworpen die je ook weer moet laten testen, dan ben je waarschijnlijk alweer een jaar verder. Daarna nog een paar miljoen aan voorbereidingen doen om die chip in productie te krijgen. Het lijkt me dat ze alles hetzelfde houden, dat is sneller en veel goedkoper voor NVIDIA.
Ik denk zelf ook dat ze dat gaan doen, maar dat betekend dus een trage chip met lage kloksnelheden en een relatief hoog verbruik, die ook 2 generaties oud is en een hoop features die je op de 4000 en 5000 serie wel bij krijgt (of die nuttig zijn is een aparte kwestie) dus ja leuk die 12 GB aan geheugen maar als de kaart meer dan 200 Euro gaat kosten zijn er tweedehands opties die goedkoper zijn en nieuwe waar het prijsverschil te verantwoorden is omdat je er qua prestaties flink op vooruit gaat.

Persoonlijk vind ik dit dan ook een vreemde keuze, zowel qua wat je krijgt voor wie weet hoeveel (het lijkt me sterk dat het onder de 200 wordt en zeer waarschijnlijk meer dan dat) en als je naar de kosten kijkt voor NVidia, maar goed de RTX 5050 9 GB en de Super kaarten waren ook allemaal dingen die geroept werden, dus dit kan ook net zo goed een idee zijn wat nooit geproduceerd wordt.
Ik verwacht dat Samsung zijn volwassen 8N node tegenwoordig gewoon heel goedkoop is. En daar lopen ze ook geen andere producten in de weg. En het geheugen is relatief makkelijk te krijgen. Dus het klinkt meer als een kans om makkelijk en snel wat geld te verdienen.
Als ze een RTX 5060 12 GB zouden maken dan hebben ze al de GPU, de PCB, het geheugen en de koeler dus een investering van letterlijk nul qua productie. Het enige wat ze hoeven te doen is de BIOS en driver aanpassen, wat ook zeer makkelijk is en bijna niets zou kosten. Reken meer voor het geheugen dan het je kost en je hebt niet alleen winst zonder enige investering, maar ook meer winstmarge per product.

Bij een herlancering van de RTX 3060 12 GB zit je dus met alle productiekosten en heb je een product dat je niet voor een hoge prijs kan aanbieden en maar de vraag is of het verkoopt of in de aantallen die NVidia verwacht en als Samsung ze maakt dat verwachten zij ook een minimale afname dus minstens 10,000 wafers plus het geheugen in bulk.

Je kan het argument maken dat NVidia meer winst op het GDDR7 geheugen maakt als ze die op Quadro kaarten steken, dus dat ze GDDR6 kunnen gebruiken is inderdaad een voordeel, maar ook het enige voordeel.

Maar goed we zien wel of NVidia ook daadwerkelijk de RTX 3060 12 GB opnieuw uit brengt. Als dat zo is duurt het toch zeker wel een half jaar voordat het in de winkel ligt en tegen die tijd kan er van alles gebeurd zijn ( kijkt met scheef oog naar OpenAI ) en ziet de markt er heel anders uit. Tot die tijd is alles wat er over te zeggen valt puur speculatie op basis van een gerucht.
Waarom zou je voor deze prijzen en oude klasse gaan als je voor Intel Arc kan gaan? Als het puur om gaming te doen is, is dit toch een beter alternatief?
Krijg je ook nog de vraag heeft Samsung of TSMC nog productie ruimte op het betreffende procedé ? Als dat al vol of nagenoeg vol zit heb je dat probleem weer, ook weer stijgende kosten en worden ze nog oninteressanter denk ik. Maar goed, afwachten of er überhaupt IETS van komt en voor welke prijs.
Niet onbelangrijk is ook het feit dat de kaart eigenlijk uit 2021 stamt, je moet ook erbij nadenken dat de driver ondersteuning omstreeks 2030 (over 4 jaar dus) zal beëindigen, want de driver ondersteuning voor games is vaak circa een jaar of 9-10. Niet dat het daarna niet werkt overigens, maar tegen die tijd zullen de meeste nieuwe games er wel niet meer er fatsoenlijk speelbaar op te doen zijn, al zal dat nu al knijpen zijn soms, de 12GB versie zal vast nét doorkunnen.
Je mag ervan uitgaan dat zelfs Nvidia niet nu uitgebrachte kaarten na 4 al end of life geven. Ondanks dat het ouder modellen zijn.
Realiteit is toch weerbarstiger, ze zijn gebaseerd op oudere architecturen, uiteindelijk houdt de ontwikkeling daarvoor gewoon op, daarom had de GTX750 bijvoorbeeld tot later driver ondersteuning dan de veel krachtigere 780Ti videokaarten en de rest uit die modellen reeks puur omdat het gebaseerd was op de nieuwere Maxwell architectuur.

Ik zou me er toch niet op vastpinnen dat die ondersteuning een extra verlenging gaat krijgen, daar hebben ze allang een business case van gemaakt wat de kosten en baten zijn van zoiets en dat passen ze niet zomaar aan.

Heb even geen zin om de 'game ready' support specifiek uit te pluizen maar hier ruwweg de totale driver ondersteuning inclusief 'legacy' ondersteuningstermijn voor een aantal voorgaande series:
  • GeForce 6-series: ~8 jaar & 10 maanden
  • GeForce 7-series: ~9 jaar & 8 maanden
  • GeForce 8-series: ~9 jaar & 4 maanden
  • GeForce 9-series: ~8 jaar & 1 maand
  • GeForce 200-series: ~7 jaar & 9 maanden
  • GeForce 400-series: ~8 jaar & 9 maanden
  • GeForce 500-series: ~8 jaar & 2 maanden
  • GeForce 600-series: ~12 jaar & 6 maanden
  • GeForce 700-series: ~15 jaar & 5 maanden
  • GeForce 900-series: ~14 jaar & 1 maand
  • GeForce 1000-series: ~12 jaar & 5 maanden
De termijnen voor met name de 600 t/m 900-series zijn best absurd lang te noemen, maar dan moet je er wel vaak een aantal jaar aftrekken voor de legacy support en dan kom je al snel door de bank genomen uit rond die 9 á 10 jaar, en dat ligt ook een beetje aan het model dat gelanceerd is want een GTX1080 is een jaar ouder dan een GTX1080Ti om maar een voorbeeld te geven, maar dat betekent niet dat de GTX1080Ti dan nog een jaartje extra krijgt.
Is niet relevant voor deze (theoretische) case waarin ze een oude kaart opnieuw zouden lanceren. Ze kunnen die drivers best langer onderhouden als ze willen. Die onkosten gaan heus wel mee in zo’n besluit.
Als ze na 10 jaar een game nog niet geoptimaliseerd krijgen, tsjah...
Het probleem zit em in de gebruikte geheugenmodules en beschikbaarheid van foundries, daarom dus de 3060 en niet eens de 4060.
Als deze trend van oude dingen nieuw leven inblazen zo door gaat, krijgen we nog een nieuwe remake van GTA-V voordat 6 uit is. Te spelen op je gloednieuwe 5800X3D en GF3060.
De remake van gta 5 is er al
Dat is net de grap.
Gta v remake nu te spelen op je gloednieuwe voodoo 2 videokaart
dan wil ik ook wel terug een soundblaster erbij!
iemand nog op zoek naar een tweedehands seriële muis mét bal? Slechts 83€ (lichte gebruikssporen)
Dat was toch wekelijks een eitje koken :+
Ben wel benieuwd eigenlijk wat ze er met moderne engines en kennis uit weten te halen TBH. Als je ziet wat ze nu uit oude consoles zoals de N64 weten te wringen, dan zou het mij helemaal niet verbazen als ze met de Voodoo twee's nog een aardige GTA V beleving weten te creeeren.
Ik ben nog niks tegen gekomen dat op mijn 5800x3D met 3060ti niet vlot draait op 1440p UW mits enig getweak in de settings.

Met de huidige prijzen zie ik Nvidia nog in staat voor een 3060 mee te vragen dan ik indertijd voor mijn ti heb betaald.
Wat dacht je van de nieuwe Commodore 64?
Ik vind het prima. De RTX 3060 heeft een mooie featureset en word door game engines nog lang niet optimaal gebruikt. Ik hoop alleen dat gameontwikkelaars de bui al enigzins zagen hangen en niet massaal next-gen games aan het ontwikkelen zijn.
Wanneer komt mijn oude GTX1080 weer uit?
Dat zou wel een cashgrab galore zijn, want die is EOL en krijgt geen driver updates meer. Nog wat extra schaarste erbij om de tegenvallende verkopen te verbergen en tis compleet!
Tja, mijn 1080Ti, gaat inmiddels ook al 8.5 jaar mee. Ondanks dat is het nog steeds een best robuuste kaart.

We moeten ook niet vergeten dat de PS5 en XBOX series X ook 'maar' rond een 2070 zitten en daar wordt ook niet echt het maximale uitgehaald, mede omdat veel ook nog op de vorige generatie moest draaien. En laten we wel wezen we hebben ook te maken met diminshing returns van graphics.
De 1080ti is een robuuste kaart en een 5060 is een stuk sneller maar dat is dan weer niet de moeite volgens velen :+

Uiteindelijk zijn de meeste high end kaarten vooral LOL of minecraft aan het renderen.
Waar gaan al die GDDR7 Memorychips met oneven Gigabits dan heen? Ik dacht dat die niet geschikt waren voor AI / data center usage. Of is de productie ervan gewoon vervangen door HBM?
De marches op alles wat industrie gericht is, is vele malen groter dan wat je voor gamers of particulieren bouwt. Zo de consument kan F- zichzelf
Die worden op kaarten zoals de RTX 6000 96 GB gezet, dat is een RTX 5090 met minder afgeknepen cores dus meer in totaal en 3 GB chips in een sandwich constructie, dus 48 GB aan elke kant i.p.v. de 32 GB aan 1 kant die de RTX 5090 heeft.

De RTX 6000 wordt meestal rond de 8000 Euro verkocht dus 5000 Euro meer dan een RTX 5090, dus tel uit je winst. Dit is de reden waarom NVidia liever de 3 GB chips voor zulke en de Quadro kaarten gebruikt die ook stervensduur zijn dan op de gaming kaarten.

GDDR6 is goedkoper, makkelijker te krijgen en per definitie alleen geschikt voor budget en mid range kaarten dus is het logisch en financieel beter om dat te gebruiken op kaarten onder de 500 Euro, maar aangezien AMD en Intel alle kaarten GDDR6(X) geven en NVidia alles buiten de 5050 (op basis van een oude chip) op GDDR7 heeft draaien, hebben ze dus 2 keuzes: Een oude chip hergebruiken op een nieuwe PCB met GDDR6 (net als de 5050 dus) of een oude kaart opnieuw uitbrengen.

Als dit gerucht klopt, dan zou NVidia blijkbaar denken dat de RTX 3060 12 GB opnieuw uitbrengen voor hun de meest winstgevende optie is, maar wel op de gok dat genoeg mensen het kopen voor de prijs die hun vragen. Persoonlijk denk ik dat een chip die GDDR6(X) ondersteund op een nieuwe PCB een veel veiligere optie zou zijn en meer winstgevend, maar dat is mijn mening gebaseerd op wat ik zie.
De 3060 is voor grafisch desktopwerk op een 4K monitor op 100Hz nog wel te doen. Maar de rek is er uit voor gaming lijkt mij, tenzij 1080p op low fi-settings zonder V-sync acceptabel is.
Natuurlijk is het voor 1080p. Wat dacht jij dan?
das alsof je kiest voor CGA in een EGA wereld terwijl VGA al in opkomst is.
Blijkbaar is er vraag naar dus is het verder niet relevant wat je mening erover is.

Wat in Nederland in opkomst is is niet hetzelfde als wat in bijvoorbeeld Venezuela in opkomst is.
Misschien moet je dat even ondertitelen voor hen die niet al vóór pakweg 1990 iets met computers deden...😊
4 kleuren in een 16-kleurenwereld als er ondertussen al 256-kleurenkaarten zijn.
Hangt puur van de game af. Ik speel Hades 2 op een 1060 gtx op 1080p en dat draait super soepel.
Ik heb m’n oude soundblaster alweer tevoorschijn gehaald :)
heb zelf de GTX 3080 10Gb ..heerlijke kaart

Ben een af en toe gamer..met niet al te grote eisen, maar in vergelijking met mijn vorige GTX1080i is dit een hele verbetering 8-)

[Reactie gewijzigd door scorpio op 17 april 2026 18:38]

Psst, ik heb hier nog n mooie HD 3870 liggen, zgan. Over te nemen voor n mooi inflatie en marktkrapte gecorrigeerde "vriendenprijsje"
Ik heb nog een RTX2080Ti met 12GB DDR, iemand kopen voor 2000?
Ik zie net een 5060TI met 16GB voor 549,- in de pricewatch. Wil je die kopen van mij voor 2001 ?
Ik bied 2002 voor de 2080Ti

Om te kunnen reageren moet je ingelogd zijn