'Nvidia schrapt RTX 50 Super niet, maar stelt release wel uit'

De RTX 50 Super-serie zou volgens een nieuw gerucht niet geschrapt, maar alleen vertraagd worden. Eerder op vrijdag gingen er geruchten dat Nvidia overwoog de RTX 50 Super niet uit te brengen, maar de bekende leaker MEGAsizeGPU zegt nu dat de release later plaatsvindt.

De bekende leaker MEGAsizeGPU, die vaker correcte informatie over videokaarten en componenten heeft, zegt op X dat Nvidia de release van de gpu's heeft vertraagd. Die zouden niet al in het eerste kwartaal van volgend jaar uitkomen, maar pas in het derde kwartaal.

MEGAsizeGPU reageert daarmee op geruchten van eerder op vrijdag. De Chinese techsite Uniko's Hardware schreef toen dat Nvidia niet voldoende 3GB-GDDR7-geheugenchips kan inkopen. De prijzen daarvan stegen sinds oktober hard vanwege tekorten.

Het is niet duidelijk of Nvidia de kaarten tijdens de CES-beurs wil aankondigen, maar dan later in het jaar wil uitbrengen. De beurs vindt in januari plaats in Las Vegas.

Door Tijs Hofmans

Nieuwscoördinator

07-11-2025 • 20:12

46

Submitter: Scribe

Reacties (46)

Sorteer op:

Weergave:

Is dit dan het resultaat van de AI economie? Geheugen is zoveel opgeslokt door datacenters en pro-GPUs dat consumer GPUs de laagste prioriteit krijgen en gewoon maar uitgesteld worden?

Erg triest, maar ook niet geheel onverwacht van Nvidia. Het jammere is dat dit ook bij AMD/Intel gaat gebeuren dan, tenzij zij nog een generatie met GDDR6 uitbrengen ipv GDDR7.
Is dit dan het resultaat van de AI economie? Geheugen is zoveel opgeslokt door datacenters en pro-GPUs dat consumer GPUs de laagste prioriteit krijgen en gewoon maar uitgesteld worden?
Ik heb geen bron gevonden maar ik legde ook dat verband. Het klinkt zeer plausibel. GDDR7 brengt per Gb meer op in en AI GPU dan op een gaming GPU.

AI-kaarten zijn 10x tot 20x,30x duurder. En per verkochte GPU verdient Nvidia nog aan de hele netwerkinfrastructuur die gepaard gaat met zo’n AI datacenter.

Zodra er een tekort is moeten ze wel de beste betaler voorrang geven of ze verliezen inkomsten in hun belangrijkste markt. Ook geeft GDDR7 een grotere performance boost in AI dan in games.

Hopelijk is er voor gamers ook een voordeel want door de opkomst van AI gaat de technologische revolutie in chips en software sneller dan ooit. Maar zolang die nieuw tech niet betaalbaar wordt en enkel voor AI dient hebben gamers er natuurlijk niets aan.

Ik vermoed dat Sony achter de schermen nu alles op alles aan het zetten is om voor de PS6 voldoende goedkope GDDR7 chips te bemachtigen via hun partners. (Amd)
AI kaarten gebruiken HBM niet GDDR
To be fair, er zijn ook kaarten zoals de RTX pro 6000, die voor professionele doeleinden bedoeld zijn maar gewoon GDDR7 gebruiken. De RTX pro 6000 is eigenlijk een variant op de rtx 5090 met o.a. meer geheugen, maar is veel duurder (9k - 10k). Je kunt er donder op zeggen dat dat soort kaarten ook veel voor AI gebruikt zullen worden.
GDDR7 en HBM komen uit dezelfde pipeline van Samsung/SK Hynex/Micron. En het is niet eens enkel de pipeline, ook voor wafers concureren ze als het ware.
RTX Pro 6000 Gebruikt GDDR7.

Ook Tomshardware maakt de link: https://www.tomshardware....aluable-for-consumer-gpus
De vraag is denk ik ook, waarom zouden ze supers uitbrengen?

De 5000 serie voelt nog heel vers, is het snelst, misschien wachten ze even omdat AMD toch niet echt een antwoord heeft.
Naar mijn idee heeft AMD een beter antwood dan Nvidia. Misschien niet op de 5090 of 5080. Maar voor de normale consument zijn die kaarten toch niet te betalen.
De 5070 is flink goedkoper als de 9070XT en heeft betere features en feature adoptie in games. En de 5070 ti is wat duurder maar ook sneller en heeft wederom verschillende voordelen. Zeker als je games streamed of opneemt kan je niet eens om Nvidia heen. Daar zijn ze gewoon op alle fronten superieur. Er is gewoon geen enkele reden momenteel om AMD te kopen. Die kaarten zijn veel te duur en dat waren ze al sinds dag 1 van de release. Dat het de enige kaart is in de afgelopen 7 a 8 jaar die gewoon leverbaar was bij zo goed als iedere winkel ongeacht de relatief lage oplage zegt al genoeg. Mensen moeten echt stoppen met amd een veer in de kont proppen eant ze doen op gpu vlak gewoon heel veel fout en hebben enorme kansen gemist. Op 499 en 549 incl btw waren die kaarten van de schappen gevlogen maar helaas die kens hebben ze gemist.
Tenzij je graag van Windows afwilt en een out of the box zorgeloos Linux gaming systeem wilt hebben.

Dat er geen enkele reden is klopt dus niet.
Ik heb een Asus TUF 9070xt gekocht om te gamen op 4k en bevalt mij uitstekend! 750 euro vs 1050 euro voor de Asus TUF 5070ti. Van dat verschil nog een mooie nieuwe ssd gekocht.

Weg met Nvidia en lang leve AMD!! Top kwaliteit voor top prijs.
Ik was voorheen altijd fan van ATi videokaarten, ben nu wel aan het twijfelen of ik voor een 5070ti of zelfs een 5080 te gaan, maar de RX9070xt trekt me ook wel, vraag me alleen af of die voldoende is voor Ultrawide 1440p
Dit vooral ook ja. Op de 5070 na hebben ze al evenveel geheugen als de AMDs. Ze domineren de GPU markt compleet. Waarom zouden ze meer geld naar de geheugen fabrikanten sturen (immers dat extra geheugen is niet gratis), als dat niet hoeft?

De enige reden die ik zie voor Nvidia om dat te doen is om degene die nu aan het afwachten waren te overtuigen toch een nieuwe kaart te komen. Maar niet omdat het nodig is vanwege concurrentie.
de 4080( super ) zit er echt nog best dichtbij met heel vel games op de meeste resoluties de 4090 maakt gehakt van de 5080 dus ja de enige kaart die echt sneller is en een generational leap is de 5090 en die is echt alleen interessant voor .... ( vul zelf maar in )
Is dit dan het resultaat van de AI economie?
Het is meer het resultaat van gebrek aan concurrentie in het hogere segment. Als je de Steam survey als bron neemt is het aandeel AMD een druppel op de gloeiende groene plaat. Die ook niet lijkt te veranderen. Bij CPU zie je duidelijk een gestaagde verschuiving richting AMD waardoor het aanbod mooi begint te nivelleren richting 50/50.

Waarom zou men tijd en moeite investeren als de huidige kaarten nog steeds goed verkocht worden? Zo lang de verkopen niet minderen en men dus de huidige prijs-product accepteert heeft het voor Nvidia weinig nut om nu een refresh uit te brengen. Als de prijs redelijk gelijk blijft koopt niemand meer een niet-Super kaart.
Nvidia heeft ook geen motivatie ervoor zolang er geen echte concurrentie is.. Ze kunnen idd veel meer geld verdienen op andere (AI) markten tegenwoordig..
Ik denk ook dat dit zal betekenen dat de RTX 6000 GPUs waarschijnlijk pas laat in 2027 gaan uitkomen.
Er zit altijd twee jaar tussen, dus de 6000 zal eind 2026, begin 2027 verschijnen.

Dat een GPU wordt uitgesteld en/of moeilijke voorraad dat mensen maanden moeten wachten, geeft Nvidia totaal niks om.

Maat van mij heeft toen een RTX 3080 besteld op release, en kreeg pas maanden later omdat de voorraad toen gewoon bagger was. Hij heeft hem een half jaar en toen kwam de 4000 serie alweer uit.
Dat is heel wat anders dan een release hebben vlak na elkaar. Je gaat geen 5080 super uitbrengen om vervolgens met een 6070 te komen die goedkoper en sneller is.
De enige keer dat een nieuwe 70 GPU een vorige generatie 80 GPU deed overtreffen, was de RTX 4070 die sneller was op alle fronten dan een RTX 3080. Daar was toen ter tijd ook veel ophef over, omdat mensen soms tot een jaar moesten wachten, om dan vervolgens binnen een jaar nadat ze hun kaart hadden gekregen, een goedkopere en snellere variant hadden aangekondigd.

Als ik ga kijken tussen de 4080 en 5070, outperformed de 4080 de 5070. Dus hoe jij aan de informatie komt dat een 5080 super trager is dan een 6070, is mij een raadsel. Er is nog niet eens bekend welke specificaties de 6070 gaat krijgen. Gaan we weer hetzelfde zien als tussen de 3000 > 4000 series? Geen idee, dat zullen we eind 2026 of ergens in 2027 gaan zien.

De kloksnelheid mag misschien iets sneller zijn en nieuwe geheugen, maar je vergeet wel dat een RTX 4080 meer VRAM, geheugenbandbreedte, betere geheugenbus breedte en nog meer heeft dan een RTX 5070. En dan praat ik over de gewone variant, niet de Super versie. Userbenchmark geeft voor een RTX 5070 een average score van 98,5% en de RTX 4080 122%.

Wat wel zo is dat de RTX 5070 nieuwe technologieën aanboord heeft. Maar als je kijkt naar raw performance, legt de RTX 5070 toch af tegen de gewone RTX 4080 16gb.

Ik zou je wel meteen gelijk geven als je zegt, "die paar extra% performance is voor mij het niet waard om zoveel meer uit te geven". Dan zou ik ook meteen voor een 70 versie gaan.

Ik vind het ook niet waard om elke twee jaar een nieuwe GPU te kopen. Pas een generatie later begint het aantrekkelijk te worden. Ik heb nu zelf de 4080, en de performance verschil tussen de 4000 en de 5000 is mij gewoon niet waard om weer minimaal 1200 euro uit te geven. De 6000 wordt dan wel weer aantrekkelijker en dan sla ik de 7000 weer over.

[Reactie gewijzigd door Toonen1988 op 8 november 2025 05:02]

Je zeg het zelf. De 4000 serie was sneller dan de 3000 serie omdat die op een kleinere die was gemaakt. De 5000 serie zat op dezelfde die als de 4000 serie. de 6000 serie gaat weer naar een kleinere die. Dus de verwachting is dat die weer dezelfde leap gaat hebben als de 5000 serie. Natuurlijk is het speculatie omdat we de cijfers nog niet hebben.

Maar nog nooit heeft Nvidia 3 maanden na een release van een nieuwe serie (de supers) meteen een compleet nieuwe serie (in dit geval de 6000) gereleased. Als ze dat doen maken ze de supers gewoon meteen oninteressant om aan te schaffen. Ook nog nooit heeft Nvidia een complete dominantie gehad op het high end spec. Ik zou het dus raar vinden als ze de 6000 releasen begin 2027 als de supers van de 5000 serie eind 2026 komen.

Ik verwacht dan ook dat de 6000 serie naar eind 2027 gaan of zelf begin 2028 als ze dit doen. Daarnaast gaan ze dan dus veel 3gb ram gebruiken op de supers die ze dan niet kunnen gebruiken voor de 6000 serie.

Al om al lijkt het erop dat Nvidia door hun dominantie in het high end spec ook de doorlooptijd van hun producten verlengt om zoveel mogelijk winst te pakken. Een 6000 serie zou dan nog niet nodig zijn want AMD heeft nog geen antwoord op de 4090 en de 5090 dus high end users gaan toch voor nvidia. Als AMD met antwoord komt op de 5090 dan releasen ze de 6000 serie die zeker sneller gaat zijn.
Dat verwacht ik ook ze gaan zeker niet binnen een half jaar twee grote releaeses doen
AI onzin sloopt echt alles. Het vreet in een uur meer stroom als dat ik in 600 jaar gebruik, verspilt enorm veel hardware voor mediocre algoritmes is een jasje die we AI noemen en alle gegenereerde content is meer slecht voor mensen als goed.

En na de onzin van minen nu dus deze AI bagger bubble. Ondertussen moeten wij energie besparen... Lachwekkend.

[Reactie gewijzigd door computerjunky op 8 november 2025 05:02]

Je hebt wel een goed punt waar ik het mee eens ben.

Ik gebruik mijn videokaarten alleen maar voor gaming. Niet voor mining en niet voor AI.

Maar jouw verhaal geldt voor gamen ook en daarvan kun je zeggen dat het helemaal niets bijdraagt behalve wat ontspanning/escapism en esports. Wat ik wel doe is in de zomer mijn kaarten zwaar underclocken en in de winter de klok wat meer richting stock/overklok. In de zomer kost het extra stroom omdat de airco dan harder moet werken, maar vaak heffen de zonnepanelen dat weer op. In de winter heb ik er wat geringe verwarming door.

Ik hoop wel dat de gamers onthouden wat Nvidia allemaal flikt zodra/als/wanneer de AI bubbel barst.

[Reactie gewijzigd door HugoBoss1985 op 8 november 2025 10:01]

Energie besparen? Dat is zo 2024. Je moet straks betalen om terug te leveren met al die zonnepanelen. Overdag volop laten draaien levert je meer op dan “besparen”
Mensen gaan simpelweg offgrid systemen meer bouwen, zie je nu al. Het is lichtelijk over met de energievoorziening vanuit overheid. Als je een groot bedrijf bent met een groot dak, vol zonnepanelen en een grote batterijinstallatie ernaast en je kan voort.
Misschien heeft het uitstellen van GTA 6 hier nog wat mee te maken?

In de consumentenmarkt gaan mensen voor GTA 6 een nieuwe pc kopen of bestaande pc willen upgraden. En uitstel van GTA 6 is dus voorlopig nog geen upgrade, dus kunnen ze veiliger nog even wachten met uitbrengen en zo eerst meer verdienen aan de AI producten.
GTA 6 komt eerst alleen voor console, heeft er niks mee te maken
En wat als blijkt dat Nvidia het trucje van Epic heeft afgekeken en een grote zak met geld op tafel heeft gelegd om exclusiviteit voor z’n cloud gaming dienst af te dwingen? ;)

Nergens op gebaseerd hoor. Maar ik zie wel kansen voor ze.
Voor cloud gaming heb je geen monster gpu nodig, alleen een scherm en goed internet
Daarom, een eventuele Nvidia GPU schaarste voor gamers is dus geen probleem, een hoge prijs, of onaantrekkelijk aanbod. De oplossing bieden ze een deurtje/linkje verder aan, zeker zolang de concurrentie ook steken laat vallen.

[Reactie gewijzigd door Cid Highwind op 8 november 2025 09:47]

Ik verwacht als Nvidia wel zo op AI inzet en de consument gamer gaat verminderen, dat AMD en Intel meer in dat gat zullen springen de komende jaren. Een bedrijf zoekt altijd de plekken waar goed geld te verdienen is, voor Nvidia is dat AI nu, voor een Intel kan dat meert toekomstige GPU markt zijn.
Kan niet wachten op de €4000 5090Ti Super
En een 2000 watt voeding 😆
En goede connectie op de videokaart die al die stroom aankan (en niet zoals 5090/4090).
Heeft het nog nut om hierop te wachten? Als je de tijd meerekend dat het duurt voordat de kaarten daadwerkelijke MSRP zijn is het al bijna 2027.
Tja of je wilt wachten hangt af van de situatie. Als je nu een upgrade wilt doen, waarom wachten, tegen de tijd dat deze beschikbaar is er weer iets anders in het verschiet. Zo kun je elke generatie wachten op een nieuwer model of een prijsdaling en weer een nieuwe generatie etc.

Those who always wait, will never have.
Aan de andere kant kan de vraag naar data center gpu afnemen i.v.m. elektriciteitsaansluiting.

Denk aan 135kW per rack of 14kW per server.
Als ze weer 12vx6 high volt power connector gebruiken dan sla ik over. Nu de 9070xt van AMD ook een versie heeft met die connector en die ook al doorbranden ben ik er zeker van dat die connector bagger is en die komt er dus in mijn systeem ook niet in.
Waarom zou Nvidia wat dan ook uitbrengen, bij absoluut gebrek aan concurrentie kunnen ze het prima nog een poosje uitstellen.

En dat doen ze dus ook.
Ik ben ook in de markt voor een upgrade. Nu heb ik de 3090FE die ik in 2020 heb bemachtigd toen die kaarten vrijwel niet te krijgen waren. Destijds was het probleem de mining van crypto's. Soms dropten er kaarten voor MSRP en ik was een van de gelukkigen.

Ik wil MSFS 2024 in VR spelen met een Pimax Crystal Super Micro-OLED (13,6 mln pixels per oog). Dat vraagt een stevige CPU en GPU. Ik denk aan de AMD 9800X3D met of een 5090 of 5080 (of misschien een 4090). De 16GB VRAM op de 5080 vind ik wat weinig (MSFS gebruikt heel veel VRAM). De 5090 is nog steeds belachelijk geprijsd tov de rest.


Om te kunnen reageren moet je ingelogd zijn