'Nvidia werkt aan Super-varianten van RTX 5070 en 5070 Ti met meer geheugen'

Nvidia werkt aan twee nieuwe desktopvideokaarten in de RTX 50-serie, zo claimt de bekende Nvidia-leaker kopite7kimi. Het gaat om een RTX 5070 Super en RTX 5070 Ti Super, die allebei meer vram krijgen. Wanneer de videokaarten uitkomen, is nog niet bekend.

De Nvidia GeForce RTX 5070 Super krijgt 18GB GDDR7-geheugen. Dat schrijft kopite7kimi, die een uitstekende trackrecord heeft op het gebied van aanstaande Nvidia-gpu's, op sociale media. De huidige RTX 5070 is voorzien van 12GB geheugen. De ophoging wordt vermoedelijk behaald door het gebruik van 3GB-geheugenmodules; de 'gewone' RTX 5070 gebruikt geheugenchips van 2GB. Die upgrade maakt de geheugentoename van 50 procent mogelijk

De leaker zegt dat dat geheugen weer geklokt wordt op 28Gbit/s, en dat de gpu nog steeds over een 192bit-geheugenbus beschikt. Dat levert gezamenlijk een geheugenbandbreedte van 672GB/s op, net als bij de huidige RTX 5070. De Super-variant moet daarnaast 6400 CUDA-cores krijgen; dat zijn er 256 meer dan de huidige RTX 5070. Kopite7kimi spreekt verder over een tgp van 275W.

De Nvidia GeForce RTX 5070 Ti Super krijgt op zijn beurt 24GB geheugen, meldt kopite7kimi. Ook dat is een toename van 50 procent ten opzichte van de gewone RTX 5070 Ti, die over 16GB vram beschikt. Het betreft wederom GDDR7-geheugen op 28Gbit/s, hoewel de kaart dankzij zijn 256bit-geheugenbus een hogere bandbreedte van 896GB/s haalt dan de 5070 Super. De kaart krijgt 8960 CUDA-cores en krijgt daarmee exact hetzelfde aantal cores als zijn non-Super-tegenhanger. De tgp wordt wel opgehoogd van 300 naar 350W.

Er gaan al langer geruchten rond over de komst van een reeks RTX 50 Super-kaarten. Kopite7kimi deelde eerder al de vermeende specificaties van een RTX 5080 Super. Die krijgt dezelfde gpu als de huidige 5080, maar krijgt ook een geheugenupgrade naar 24GB GDDR7. Dat geheugen wordt ook sneller, voor een totale bandbreedte van 1024GB/s. Kopite7kimi maakt nu meer specificaties van de 5080 Super bekend, waaronder een concrete tgp van 415W.

Specificaties vermeende RTX 50 Super-desktopvideokaarten
Videokaart CUDA-cores Geheugen Geheugenbus Geheugenbandbreed Tgp
RTX 5070 6144 12GB GDDR7 (28Gbit/s) 192bit 672GB/s 250W
RTX 5070 Super 6400 18GB GDDR7 (28Gbit/s) 192bit 672GB/s 275W
RTX 5070 Ti 8960 16GB GDDR7 (28Gbit/s) 256bit 896GB/s 300W
RTX 5070 Ti Super 8960 24GB GDDR7 (28Gbit/s) 256bit 896GB/s 350W
RTX 5080 10.752 16GB GDDR7 (30Gbit/s) 256bit 960GB/s 360W
RTX 5080 Super 10.752 24GB GDDR7 (32Gbit/s) 256bit 1024GB/s 415W

Door Daan van Monsjou

Nieuwsredacteur

30-06-2025 • 08:32

130

Submitter: Scribe

Lees meer

Reacties (130)

130
129
59
2
0
56
Wijzig sortering
Kan iemand uitleggen waar het geheugen tegenwoordig zit op een videokaart? Is de GPU zelf samen met geheugen in 1 package, of zitten de geheugenchips los op de videokaart?

Met andere woorden... kan een videokaart-fabrikant - Gigabyte, Asus, XFX enzo - niet zelf bepalen hoeveel geheugen hij aan de GPU vastknoopt?
Oh, heel makkelijk, Chinezen doen dat al volgens een recent LTT filmpje. Die halen de GPU en geheugen chips van de board af (gaat reselijk eenvoudig blijkbaar, northwestrepair kanaal op youtube), en combineren vervolgens zelf, op een eigen gemaakte PCB, dezelfde chip met (veel) meer geheugen. Die specifieke kaarten zijn niet zo boeiend voor gamers, maar als je daarmee wel lekker grote LLM's in kan stoppen...

Maar als officiele packagers van de NVidia GPU daarin afwijken van wat NVidia toestaat, worden ze natuurlijk heel snel van de distributielijst afgeknikkerd.
Dus als je, zoals @NESFreak ook zegt, graag extra veel VRAM wilt om een grote LLM lokaal te draaien en niks om games geeft dan moet je bij de Chinezen zijn? Goed om te weten.
Volgens Nvidia moet je dan bij de Nvidia workstation kaarten zijn, zoals de "RTX PRO 6000 Blackwell".

Vergeleken daarmee lijkt de 5090 echter ineens schappelijk geprijsd. En dat is gelijk ook waarom Nvidia niet toestaat dat videokaart-fabrikanten meer geheugen dan de door Nvidia bepaalde hoeveelheid op de kaarten doen. Nvidia wil de markt voor hun workstationkaarten niet kannibaliseren.
Heheheh... dingen veranderen he? Ooit moest ik vanuit Enschede met mijn Sony Playstation (1) van ƒ 300,- (o.i.d.) naar Lelystad reizen om een chip in te laten bouwen om gekopieerde games ermee te kunnen spelen. Een tijd later om de hoek een Nintendo WII laten ombouwen met een speciale SD-kaart erbij voor hetzelfde doel. Tegenwoordig moet je naar China reizen om je GPU van € 800,- bottleneck-free te maken. ;) :D
heb je daar een voorbeeld linkje van?
DrBashir heeft het over deze video.
Jazeker kunnen ze grotendeels dat zelf. In china is zelfs een hele markt voor het modden van 4090 kaarten van 24GB naar 48GB.

Alleen kun je GPU chips alleen bij nVidia zelf kopen en als die ziet dat je dat doet als AIB, dan zul je nooit meer een chip geleverd krijgen. Dan zul je dus net als de chinezen andermans kaarten uit elkaar moeten schroeven om nog chips te kunnen krijgen.
Geheugenchips zijn apart maar de gpu heeft een fysieke aansluiting voor een aantal chips. Je zou dan kunnen zeggen dat leveranciers gewoon de 3gb chips erop kan zetten, maar Nvidia heeft diepe controle over wat ermee mag gebeuren (en de bios moet het ook accepteren)
Als je kijkt naar bijv. de 9060xt, dan zie je dat ze die 16GB halen door niet alleen aan de bovenkant, maar ook aan de onderkant van printplaat geheugen te plaatsen. Zolang de GPU genoeg adreslijnen naar buiten heeft lopen, kun je 'gewoon' meer chips toevoegen.
Het maakt natuurlijk voor de hoeveelheid geheugen helemaal niets uit waar je die chips zet, aan de voor of achterkant.


Waar het om gaat is dat bv een 9060 een 128 bit bus heeft en daar kunnen standaard maximaal 8 chips op om de geheugenbus te vullen.

Het enige moment dat je chips kunt toevoegen is, als de gpu-chip zelf meer werkbare datalijnen heeft dan voor het geheugen gebruikt worden.

Dat gebeurt alleen als een gpu bijvoorbeeld een 256 bit databus heeft en ze ook een 192 bit lagere variant willen uitbrengen.

Maar dan worden de resterende geheugencontrollers gewoon gefused, waardoor ze niet meer werken.

Dus de kans op de mogelijkheid om daadwerkelijk toevoegen van extra chips is nihil.


Er kunnen grotere chips op (3 GB per stuk ipv 2 GB per stuk zoals hier gebeurt) of de geheugenchips kunnen gestackt worden, maar dat moet wel door de gpu ondersteund worden.
Dat maakt zeker heel veel uit. De configuratie waar naar verwezen wordt is een zogenaamde clamshell configuratie. Daarbij delen geheugen chips samen een uplink, ze delen dus de bandbreedte. Per definitie gebruikt clamshell plaatsing aan beide kanten van het bord om dit mogelijk te maken. Elke chip heeft individueel de helft van de beschikbare bandbreedte, maar omdat alle chips tegelijk kunnen worden aangesproken blijft de totale bandbreedte gelijk. Zie het al een soort Raid 0 van vroeger.

[Reactie gewijzigd door sdk1985 op 30 juni 2025 11:28]

Het ging over het aanpassen van een PCB door er meer chips op te zetten en dat is dus niet mogelijk.

Het is wel mogelijk de huidige chips te vervangen door grotere, wat dus bij die 4090 gebeurt, zodat je die naar 48 GB of zelfs 96 GB kunt aanpassen.

Ik wist dat er iets speciaals was met "2 geheugenchip op de plek van 1, een sandwich", zo zou er ook een professionele 9070XT 32 GB op de kaart komen, door middel van deze constructie. Dank voor de uitleg van het fenomeen clamshell.

De Radeon RX 9060XT heeft overigens geen clamshell-design. Die heeft gewoon 8 losse 2 GB geheugenchips.
De 9060XT heeft dus wel een clamshell. Dat moet ook wel want het is een 128 bit kaart en dan kun je maximaal 4 keer een chip van 32 bit aansluiten. Zie hier PCB foto's: 4 chips aan de voorkant, 4 aan de achterkant: https://www.techpowerup.c...x-9060-xt-nitro-oc/5.html

Vandaar dat er ook een 8 en een 16GB variant is. De 16 GB variant is de dubbeldekker met chips aan de achterkant. Zie hier foto's van de 8GB variant: https://www.techpowerup.c...060-xt-reaper-8-gb/5.html

Kaarten met een bredere bus hebben meer geheugenchips per kant. Zo heet de 9070 XT een 256 bit bus en die kan dus 8 chips aansluiten en die heeft dan ook 8 chips aan één kant van de PCB. AMD zou met clamshell een 32GB variant kunnen uitbrengen. Zie hier de PCB foto's: https://www.techpowerup.c...n-rx-9070-xt-nitro/5.html.

[Reactie gewijzigd door sdk1985 op 30 juni 2025 16:58]

Ik had de volgende conclusie getrokken:

1) GPT gaf aan dat bijna alle DDR6 VRAM een 16 bit databus had.

Dat zou dan dus gewoon (128 bit bus/16 bit per chip=) 8 chips zijn op een kaart (geen clamshell nodig).

2) De 9060XT heeft H56G42AS8DX-014 geheugenchips, zie:

https://www.techpowerup.com/review/xfx-radeon-rx-9060-xt-swift-oc-16-gb/5.html

Volgens Skynix:

https://product.skhynix.com/products/dram/gddr/gddr6.go

Is dat 16 Gb per chip, 2 GB dus, dus bij 8 chips, 16 GB.

(Ik zie overigens nu pas in wat CS betekent bij Product Status bij die chips (zal wel ClamShell zijn).


Maar inderdaad, het is niet logisch om 2 kaarten te maken met dezelfde busbreedte en dan bij de kaart met meer geheugen een volledig nieuw ontwerp te moeten doen omdat er meer chips op zitten. (van 4x32 bit naar 8x16 bit zg maar).

Vroegùh stopten ze er gewoon 8x 16 bit bus met VRAM-grootte X, en de lagere variant had dan gewoon kleinere geheugenchips.

Maar minder chips is minder groot PCB, minder complexe datalijnen.


Dank voor de uitleg!
Inderdaad 16 Gb = 2 GB per chip en dan 4 chips per kant = 8 GB per kant. Verder hebben die chips dus een 32bit uplink, niet 16. GDDR3 was al gestandaardiseerd op 32bit, dus ik denk dat chatgpt dan zijn dag niet heeft.

De reden dat ze dit doen is dat hoe smaller de geheugenbus des te zuiniger en goedkoper de chip te maken is. Eigenlijk gooit zowel AMD als Nvidia een groot deel van de winst die we zouden kunnen behalen met nieuwe GDDR versies weg door de bus steeds smaller te maken. We krijgen wel betere prestatie/watt daardoor. Tevens zijn er wat technieken die het (deels) compenseren zoals meer cache en betere delta color comrpession technieken.

[Reactie gewijzigd door sdk1985 op 30 juni 2025 19:11]

Als dit uiteindelijk klopt dat zijn dit flinke verbeteringen. Nu hopen dat de prijzen niet even hard meestijgen.


Ik ben ook benieuwd of ze dit doen omdat de verkoop van de normale 5070 tegenvalt? Of omdat er langzaamaan toch meer concurrentie komt vanuit de rode en blauwe hoek?


In ieder geval een goede ontwikkeling

[Reactie gewijzigd door BestevaerNL op 30 juni 2025 08:36]

Aardig wat extra stroom verbruik weer. En deze generatie was al niet zo zuinig
Vermoed dat Nvidia de klokfrequenties van de 5070Ti/5080 Supers flink gaat verhogen, zodat de supers het in benchmarks daadwerkelijk beter doen. Want in de meeste games van nu is 24GB nog geen echte meerwaarde boven 16GB dus ga je tegen het 'probleem' aanlopen dat de Supers het in benchmarks niet beter doen de normale kaarten wat niet bepaald goede reclame is natuurlijk. Meeste mensen, zeker Amerikanen niet, kijken totaal niet naar verbruik.

Ga er vanuit dat ze je zelf altijd iets terug kunt klokken om het verbruik weer gelijk te krijgen als de bestaande varianten.
Denk dat je gelijk hebt mbt klok frequenties. Maar daar mogen we net als bij de 9070 XT best kritiek op hebben als de performance/watt daar flink onder te lijden heeft.

Even als vergelijk, de 9070 XT kan 30% zuiniger zijn met 5% minder performance met een undervolt.

Dan jaag je er gewoon meer stroom doorheen dan wat stock zou moeten zijn. Overigens prima als de eindgebruiker kiest voor extra performance voor een hogere stroomrekening. Maar hou het product optimaal. En niet zo dicht als mogelijk bij een duurdere concurrent.
Even als vergelijk, de 9070 XT kan 30% zuiniger zijn met 5% minder performance met een undervolt.

...

Maar hou het product optimaal.
"Het product optimaal houden" (v.w.b. efficiëntie) heeft AMD deze generatie weldegelijk ook gedaan, maar wel alleen bij de 9070 (non-XT)... ;)
Klopt, die is qua clocks en stroom verbruik helemaal dikke prima. Maar die heeft aanzienlijk minder shaders
Dit blijft telkens onderbelicht in heel veel reviews, goed punt.
Als je altijd en alleen op 4k ultra graphics met 240 FPS en ultra raytracing speelt misschien, zodat je altijd het maximale uit de kaart moet halen. Maar sinds de upgrade van mijn oude 3080 naar de 5080 verbruik ik minimaal 150W minder. De 3080 draaide tussen de 300 en 330W op 1440p144 high/ultra zonder RT. De 5080 zit op 1440p144 ultra settings vaak ruim onder de 200W. Eerder rond de 150-170W dan richting de 200.

Leuk dat een TDP waarde gegeven wordt voor die kaart van 360W maar dat heb ik in geen enkele game nog gehaald. Zelfs niet als ik in de Cyberpunk benchmark met alle toeters en bellen aan het verbruik check. Ik kom amper aan de 320W piek, gemiddelde ligt rond de 290. Mijn 3080 gebruikte met lagere instellingen in CP2077 gewoon bijna altijd 330W.
Ze hadden de kaarten standaard met meer geheugen moeten voorzien. Maar, zoals iedereen al had voorspeld was dit natuurlijk de strategie. Vooral benieuwd wat dit met de prijzen gaat doen van de huidige kaarten
Ja en nee. Ze hadden direct 3 GB modules kunnen gebruiken maar die waren aan het begin van het jaar nauwelijks beschikbaar dus dan was er sprake van een echte paper launch zonder voorraad. ze hebben maar voor een tussenoplossing gekozen: We brengen eerst de varianten met de 2GB modules uit om zoveel mogelijk gamers een 'relatief' slecht aanbod te geven en een half jaar later brengen we de goede kaarten uit. AMD gaat waarschijnlijk hetzelfde doen.

[Reactie gewijzigd door Mol_1248163264 op 30 juni 2025 09:24]

Bedankt voor het stukje context. Dat is wel logisch, 3 Gb is een stukje minder gangbaar maar mij lijkt dat we, nu het exponentioneel schalen niet meer zo lekker lijkt te gaan, dergelijke tussenoplossingen misschien wel wat vaker gaan zien.


En gezien de klandizie die Nvidia heeft, snap ik de keuze ook volledig. Vanuit commercieel perspectief dan, niet vanuit die 12GB accepterende klant.
maar die waren aan het begin van het jaar nauwelijks beschikbaar
Die 'launch', of wat daar voor door moet gaan, had natuurlijk helemaal niet per se in Januari hoeven plaatsvinden. Alles wat Nvidia doet lijkt in de eerste plaats bedoeld om de markt te manipuleren i.p.v. een degelijk product voor de consument neer te zetten.

Het is niet zo dat die Super varianten iets nieuws zijn en vanaf launch zijn er genoeg mensen geweest die aangaven dat de specs van de nieuwe GPU's, zeker voor de gevraagde prijs, niet bepaalt aan de verwachtingen voldoen. Normaal zou je denken dat mensen daarom de kat uit de boom kijken, de huidige kaarten laten passeren en wachten op de Supers, die daarmee misschien ook wat minder prijzig worden.

[Reactie gewijzigd door centr1no op 1 juli 2025 07:41]

Ik vind dit persoonlijk een beetje onder de noemer "too little, too late" vallen. Nvidia heeft wat mij betreft echt de plank compleet misgeslagen de laatste paar releases. Het geluid van reviewers en de gaming community was luid en duidelijk.

Ik moet er wel bij vermelden dat ik niet het publiek ben voor Nvidia en waarschijnlijk ook niet snel meer zal aanschaffen. Ik zit zelf op Linux en AMD kaarten werken daar gewoon vele malen beter. En aan de rode kant is het geheugen op de kaarten uberhaupt geen probleem.

That being said, in mijn kringen hoor ik vooral dat over de afgelopen generaties de performance sprongen te klein zijn, in Nvidia's geval het geheugen te weinig en de kaarten te duur om de aanschaf te verantwoorden.
Ik weet niet of het klopt wat je zegt, maar ik vind het eigenlijk wel een goede gang van zaken: laat die mensen met een VRAM obsessie maar upgraden zodat er een leuk tweedehandsaanbod van kaarten met 12 en 16 GB ontstaat :p

(En IMHO ben je hier early-adopter voor: meer betalen om een relatief slechter product te krijgen. Iedereen had aan kunnen zien komen dat er weer super-varianten zouden komen, en natuurlijk gaan die meer kosten)
Iets van een jaar geleden waren deze voorspellingen er al. Het was nogal een inkopper dat Nvidia van 2GB naar 3GB modules zou gaan voor de Super varianten. En waarom? Tja het is een hele makkelijke aanpassing voor hun, die nog meer de wind uit de zeilen van AMD haalt, dus kunnen ze ook makkelijker meer ervoor vragen.

Maar concurentie van het rode kamp valt erg tegen deze generatie. Het zijn geen slechte kaarten, en het zijn prima opties, maar niet meer dan dat. Het is niet dat het een inkopper is om nu een AMD kaart te kopen, en dat betekend dat of het nou door marketing komt, of door features zoals DLSS, veel voor Nvidia gaan. (En ja je hebt FSR4, die ook goed schijnt te zijn, maar heb je daar veel aan als DLSS bij heel veel meer spellen daadwerkelijk ondersteund wordt?).

En het zegt echt niet alles, maar veel betere opties hebben we niet: Op de Steam charts van deze generatie staat de 5070 bovenaan, gevolgd door 5080 en 5070Ti. 5060Ti ook nog ergens aan de onderkant van de lijst, maar die is natuurlijk later geintroduceerd. Geen AMD kaart van de nieuwe generatie is op de lijst te vinden. Ik ben bang dat Nvidia zich maar druk maakt erover dat als ze AMD helemaal weg concurreren ze waakhonden achter zich aan krijgen, dan dat ze bang zijn voor AMD die hun marktaandeel afsnoept.
Altijd dat gekijk op alleen Steam Charts maakt me wel een beetje moe. Helemaal als ze niet goed worden geanalyseerd.

De Steam Charts zijn overduidelijk niet representatief. Ik zie de nieuwe kaarten van AMD niet eens vermeld. Dus die vlieger gaat niet bepaald op. Hier wordt ook massaal over gepost online dat dit al 3 maanden zo is.

Ik vermoed dat juist veel mensen de AMD kaarten gebruiken, gezien AMD de productie niet bij kan benen t.o.v. de vraag naar de kaart.

Bronnen:

Link 1

Link 2
Altijd dat gekijk op alleen Steam Charts maakt me wel een beetje moe.
Daarom noemde ik ook specifiek:
En het zegt echt niet alles, maar veel betere opties hebben we niet
Er is genoeg af te dingen op de Steam charts, maar zonder betere opties is het iig een bron. En dat de nieuwe AMD kaarten er niet op staan kan je als bewijs zien dat Steam Charts niet representatief zijn. Je kan het ook als bewijs zien dat de nieuwe AMD kaarten gewoon niet goed verkopen. Want ik weet niet of je nu andere bronnen wilde linken, maar degene die je hebt gelinkt bevestigen enkel wat ik al schreef: Er is geen AMD kaart van de nieuwe generatie op te vinden vooralsnog.

En helaas laten andere bronnen vergelijkbare dingen zien, eg in Q1 had AMD een nieuw dieptepunt gehaald met 8% marktaandeel voor GPU tov 92% voor Nvidia. (https://www.tomshardware.com/pc-components/gpus/amds-discrete-desktop-gpu-market-share-hits-all-time-low-as-nvidia-extends-its-lead). En nu kan je denken dat pas in de loop van Q1 de RX9070's kwamen, en dat is zo, tegelijk zijn die getallen gebaseerd op leveringen aan hun partners. En die zullen heel Q1 kaarten in elkaar aan het schroeven zijn geweest.

Onder de streep is dat ook één data punt, en ik ben benieuwd naar Q2, maar dat gaat nog wel even duren. Maar ik zie weinig wat erop zou wijzen dat AMD marktaandeel aan het winnen is.
En helaas laten andere bronnen vergelijkbare dingen zien, eg in Q1 had AMD een nieuw dieptepunt gehaald met 8% marktaandeel voor GPU tov 92% voor Nvidia. (https://www.tomshardware.com/pc-components/gpus/amds-discrete-desktop-gpu-market-share-hits-all-time-low-as-nvidia-extends-its-lead). En nu kan je denken dat pas in de loop van Q1 de RX9070's kwamen, en dat is zo, tegelijk zijn die getallen gebaseerd op leveringen aan hun partners. En die zullen heel Q1 kaarten in elkaar aan het schroeven zijn geweest.
Uhm... De release van de RX kaarten zijn begin maart (6 maart om precies te zijn) geweest. Een 8% marktaandeel op Nvidia gebaseerd op een 24 dagen beschikbaarheid van de kaart is niet echt een goede vergelijking. Neem daarbij in acht dat de kaart bij release compleet verkocht is, levertijd en tijd om er op te gamen voor de statistieken, tijd voor de productie van extra kaarten bovenop de release voorraad allemaal in die 24 dagen meegenomen moet worden. Dus ook daar is niet mee te vergelijken IMO.

Als we het volgende datapunt moeten geloven, is half gamend Japan overgestapt op de AMD kaarten, dus ik vermoed dat er júíst veel op wijst dat AMD Nvidia aan het aftroeven is.

Bron:

TechPowerUp
Nogmaals, die getallen zijn gebaseerd op de dies die Nvidia / AMD aan hun partners hebben verkocht. Dat is dus over een veel langere tijd geweest dan dat wij als consument die kaarten hebben kunnen kopen. En juist AMD was degene waarbij de partners al wat voorraden hadden, en dus waarschijnlijk langer toegang hadden tot de dies dan bij Nvidia kaarten het geval was.

Zoals ik schreef ook al, nog steeds is het eerste kwartiel als er net nieuwe kaarten zijn waarschijnlijk niet het beste datapunt, maar het is wel waar we het nu moeten doen. Net als dat op de Steam survey wat af te dingen is, maar als letterlijk elk objectief punt wat we hebben erop wijst dat Nvidia ook deze generatie compleet domineert, dan is dat misschien simpelweg het geval.
Als we het volgende datapunt moeten geloven, is half gamend Japan overgestapt op de AMD kaarten, dus ik vermoed dat er júíst veel op wijst dat AMD Nvidia aan het aftroeven is.
Dan lees jij dat een stuk optimistischer als ik. Punt is dat bij release de Nvidia kaarten bijna niet beschikbaar waren. AMD had juist behoorlijke voorraden doordat ze release was uitgesteld (zeer waarschijnlijk). Dus dan is het niet heel moeilijk om bij de release grote aantallen te verschepen. Maar dat is dus grotendeels geweest vanwege de voorraden plus dat Nvidia kaarten helemaal niet beschikbaar waren. Nu is dat wel anders, beide zijn goed beschikbaar, en Nvidia daadwerkelijk voor of onder MSRP, en bij AMD is dat nog steeds niet / nauwelijks het geval.
Altijd dat gekijk op alleen Steam Charts maakt me wel een beetje moe. Helemaal als ze niet goed worden geanalyseerd.

De Steam Charts zijn overduidelijk niet representatief. Ik zie de nieuwe kaarten van AMD niet eens vermeld. Dus die vlieger gaat niet bepaald op. Hier wordt ook massaal over gepost online dat dit al 3 maanden zo is.

Ik vermoed dat juist veel mensen de AMD kaarten gebruiken, gezien AMD de productie niet bij kan benen t.o.v. de vraag naar de kaart.
Dat komt vooral omdat AMD nauwelijks volume draait op videokaarten. Kijk maar eens naar de financielen cijfers. Nvidia doet vorig kwartaal 3800 miljoen omzet met gaming. AMD noteert 647 miljoen en die omzet is naast Radeon óók alle console chips (semi-custom). Radeon zal dus maximaal zo rond de 325 miljoen omzet behalen daar waar Nvidia 3800 miljoen haalt. Voor elke Radeon kaart verkoopt Nvidia er dus al snel een stuk of 10.

[Reactie gewijzigd door sdk1985 op 30 juni 2025 11:26]

Kijk maar eens naar de financielen cijfers. Nvidia doet vorig kwartaal 3800 miljoen omzet met gaming. AMD noteert 647 miljoen en die omzet is naast Radeon óók alle console chips (semi-custom). Radeon zal dus maximaal zo rond de 325 miljoen omzet behalen daar waar Nvidia 3800 miljoen haalt. Voor elke Radeon kaart verkoopt Nvidia er dus al snel een stuk of 10.
Als je het op die manier redeneert, dan moet je natuurlijk die 647 miljoen * 3 doen. Want de nieuwe radeon kaarten zijn dus maar 24 dagen uit in het eerste kwartaal. Want je moet dan wel eerlijk over een heel kwartaal rapporteren. Dus de omzet van de nieuwe radeon kaarten over een heel kwartaal is 1950 miljoen?


Ook dat is echt een domme financiële gedachte. Ik hoop dat u geen financieel adviseur bent ;)

Wacht maar eerst tot er een financieel verslag komt over een compleet kwartaal, in plaats van 24 dagen (wat nog geen 1/3 van een kwartaal is). Productie zou nu pas op stoom moeten komen.
Die omzet gaat niet ineens een enorme sprong maken en dat heeft meerdere redenen.

De eerste is dat de release eigenlijk veel eerder geplanned stond en AMD die release naar achtere heeft geschoven waardoor er al weken lang voorraad werd uitgeleverd, die niet verkocht mocht worden, en vervolgens alsnog binnen een paar dagen de deur uit ging.

Maar belangrijker is dat zowel AMD als Nvidia gelijktijdig nog kaarten uit eerdere series verkopen dus dat lijkt mij volstrekt onzinnig om daarvoor te gaan corrigeren

Verder zie je ook al jaren een beeld van weinig omzet bij Radeon. Sterker nog, AMD is na een jaar of 2 na overname van Ati Radeon er mee gestopt om de omzet van Radeon los te vermelden en sindsdien pakken ze hem samen met ófwel de processor tak ófwel de semi-custom tak.

Dit is wat AMD in hun rapporten laat zien:
  • 563 miljoen (March 29, 2025)
  • 922 miljoen (March 30, 2024)
Pakken we het rapport van q1 24 dan zien we daar:
  • 1368 miljoen (December 30, 2023)
  • 1757 miljoen April 1, 2023
AMD geeft in 2024 ook netjes aan waarom:
Gaming segment revenue was $922 million, down 48% year-over-year and 33% sequentially due to a decrease in semi-custom revenue and lower AMD Radeon™ GPU sale
AMD doet echt bijna niks met Radeon. Dat verklaart ook direct waarom AMD niet rijk is geworden tijdens de twee mining hypes.

Steam bevestigt deze omzetcijfers, niet dat dit nodig is. Maar het is dus te verwachten dat Radeon nauwelijks voorkomt in de Steam survey.

[Reactie gewijzigd door sdk1985 op 30 juni 2025 13:17]

Tuurlijk zullen die prijzen dan net zo hard mee gaan, is dat in de afgelopen 3 generaties van Nvidia niet gebeurd dan? Helaas is dit wat Nvidia nu is, een relatief goeie reeks uitbrengen met beperkingen en die tegen een meerprijs onder super uitbrengen voor de super(dure) prijs erbij.
Als ik een blik werp op de steam hardware survey, valt de verkoop van de 5070 nog wel mee tegenover de andere 4000 en 5000 serie kaarten. Wat ze daadwerkelijk zijn weet ik dan niet. Met name de 5070 en 5080 is overal terug te vinden in nieuwe systemen. Ook is de 5070 volgens de survey stijgend in procent, tegenover andere modellen die dalen. De 5060 ti is overigens ook met een stijging begonnen.

Nu is de 3060 nog steeds koning gevolgd door 4060 en 1650.
In 2024 was volgens mij de 3060 ook al nr 1.
en in 2023 was dit de GTX 1650.

Denk als daadwerkelijk de verkoop tegenvalt of slecht is, dit mede door de slechte leveringen komt welke ze paar maanden terug hadden. Hier had de 4000 serie ook last van. Daarnaast zal niet iedereen met een GPU 3060 van 4 jaar of nieuwer zomaar upgraden naar een nieuwere serie. De 3060, 3060 ti, 3070, 4060, 4060 ti, 4070 zijn nog steeds overduidelijk het meeste in gebruik, kijkend naar steam hardware survey.

Zelf deze maand overgestapt van reguliere 2080 naar 5080.
Dat is niet zo vreemd toch? De Steam cijfers zijn cumulatief. Jaren aan gpu verkopen zitten verwerkt in die cijfers. Je moet dus énorm veel verkopen om een flink aandeel te behalen, je concurreert immers met alle bestaande aankopen.
Wie zegt dat de verkoop van de rtx5070 tegenvalt?
Geen idee? Dat is ook mijn vraag.
Hoeveel GPU RAM heb je tegenwoordig nodig om een beetje toekomstbestendig te zijn met een nieuwe kaart? Volgens mij is 16GB nu een beetje het minimum. Maar als je 4-5 jaar met een kaart wil doen, moet je dan bijvoorbeeld 24GB nemen?
4-5 jaar dan wil je inderdaad op 24GB zitten, dat is waar de nieuwe console generatie ongeveer op zal gaan zitten. Dat wil je als maatstaf gebruiken, omdat dit de grootste afzetmarkt is. Vandaar dat nu ook 8-12GB te weinig is in de meeste games, omdat consoles 16GB unified hebben.
Deze consolegeneratie word nog wel vijf jaar ondersteunt. Denk dat je met 16 prima zit voor ongeveer die periode.
Vandaar dat nu ook 8-12GB te weinig is in de meeste games, omdat consoles 16GB unified hebben.
Er zijn maar weinig games waar 8 echt te weinig is. 12 is altijd voldoende. Consoles hebben inderdaad 16GB unified, waarvan minimaal 2GB naar het OS gaat, en nog een flinke portie voor de game zelf. Meer dan 8GB VRAM allocation zal niet snel gebeuren op consoles.

Vergeet daarnaast niet dat 8GB kaarten nog steeds het meest worden verkocht. Ontwikkelaars moeten hier wel voor optimaliseren. Maar 30% van de gamers heeft meer dan 8GB aan VRAM en dat schuift nauwelijks op.

[Reactie gewijzigd door Wolfos op 30 juni 2025 09:55]

Nee je kunt nu heel veel games aanwijzen waar het niet genoeg is. Ik zit nu zelf een AA/indie game te spelen, Eternal Strands, met een cartoony look, en zelfs daar is 8GB te weinig.

En nee ontwikkelaars optimaliseren niet meer voor 8GB, en dat zou ik ook niet doen als developer. Anders blijft Nvidia en AMD de prut verkopen en komen ze nooit verder.

Serieus, ik denk dat hardware unboxed dit argument nu wel meermaals begraven heeft. De slappe argumenten blijven herhalen is nu wel echt irritant.

[Reactie gewijzigd door Majestici op 30 juni 2025 10:00]

8GB is voor mij genoeg. Menig game speel ik op 4k of 1440p NATIVE aan 60 of 120 FPS of 1080p aan 240FPS. Ik ben maar 1 game tegengekomen waarbij je zou kunnen zeggen dat 8GB te weinig is en dat is Oblivion Remastered - al bijten de beste PC's zich daarop stuk: YouTube: Oblivion Remastered PC: Impressive Remastering, Dire Performance Problems

Zoals met zo'n beetje alles in het leven, is het relatief. Wat doe je met je GraKa? Welke games speel je? Ik speel vooral oudere AA(A) en indie games, mijn RX 6600 voldoet daar prima voor. Lekker koel, lekker stil, weinig verbruik - max. 100W - en 8GB is genoeg voor wat ik ermee doe.

Wil je graag de nieuwste van het nieuwste games spelen en/of ben je toe aan een nieuwe GraKa? Dan zou ik met een HÉÉÉÉLE GROTE BOOG om 8GB GraKa's heenlopen en die dingen laten liggen! Kies minimaal 16GB. https://www.youtube.com/watch?hardware%20onboxed=p0rCA1vpgSw&t=179s

Back on topic: ik vind het verbruik van die 50xx serie kaarten veel te hoog.Sowieso een probleem van menig moderne GraKa.
Daarom spreek ik er ook mijn mening niet voor uit, maar leg ik het technisch uit. Hardware unboxed heeft al talloze video's gemaakt met talloze voorbeelden van games met slechtere prestaties op de 8GB varianten van de videokaarten.

En aangezien de verschillen ergens tussen de 20% en zelfs 500% slechtere prestaties liggen, en het verschil in prijs maar 50 euro is, is het officieel klaar met 8GB kaarten. In zowel instap, midrange als high-end. Enkel bij budget e-sports kaarten van onder de 150 euro is het nog te rationaliseren. Maar aangezien die niet meer bestaan, is dat ook een non-argument.
Precies. 16Gb is veel meer toekomst gericht en in die zin flexibeler. ...En inderdaad, voor die paar tientjes prijsverschil tussen 8GB en 16GB kaarten, hoef je het ook niet te laten om geen 16Gb kaart aan te schaffen. Het is wat mij betreft dan ook over en uit met 8GB kaarten. Ik raad mensen in mijn familie/ vrienden/kennissenkring minimaal 16GB aan om bovengenoemde redenen.
En nee ontwikkelaars optimaliseren niet meer voor 8GB, en dat zou ik ook niet doen als developer. Anders blijft Nvidia en AMD de prut verkopen en komen ze nooit verder.
Nogal ironisch, om te claimen dat andere prut verkopen omdat je te lui bent je eigen code een beetje te optimaliseren, dus dat je een ongeoptimaliseerde prut zooi aan het verkopen bent zelf.

Verder eens met @Wolfos , 8GB is nu op het randje, soms is het te weinig, bijna altijd kan je er prima mee weg komen. Maar als je nu een nieuwe kaart koopt in een beetje midden segment of hoger, wil je daar natuurlijk niet mee beginnen (eg een 5060Ti 8GB zou ik nooit aanraden). 12GB is eigenlijk zo goed als altijd nu voldoende. Met 16GB ben je meer voorbereid op de toekomst.

En ja, als je nu een spel gaat uitbrengen die 16GB VRAM nodig heeft, dan zou ik niet op al te hoge verkopen hopen, want het percentage spelers wat geschikte hardware daarvoor heeft is klein.
[...]

Nogal ironisch, om te claimen dat andere prut verkopen omdat je te lui bent je eigen code een beetje te optimaliseren, dus dat je een ongeoptimaliseerde prut zooi aan het verkopen bent zelf.
Dat heeft helemaal niets met code optimalisatie te maken. Een videogame heeft nu eenmaal assets zoals geometrie en textures, en die moeten in het videogeheugen te staan voor een dispatch/drawcall om te completen. Tenzij je in 2016 wilt blijven steken met assetquality, en totdat er een veel efficiënetere compression technique komt (zoals bijvoorbeeld neural compression), is er een balans die je moet raken tussen compute (CPU) om je assets uit te pakken en size op VRAM als developer. Ergens moet je heen zodra je je games iedere generatie mooier wilt laten uitzien.

Je kunt toch niet zo mid zijn om te denken dat als er een simpele manier was om alles binnen 8GB te proppen dat gigantische AAA studio's, Nvidia zelf, of modders dit niet allang gedaan hadden?

En ze verkopen ze, mensen met 8GB kaarten zitten gewoon te janken op forums als deze dat 8GB genoeg moet zijn en zeggen dat developers lui zijn. Nee, 640KB is niet genoeg voor iedereen, Gates.
Niet om je verhaal te ontkrachten. Maar bijvoorbeeld een game zoals Fallout 4 (pre 2016) waar ik zo'n beetje alle assets/texture vervangen heb met 4k varianten. Meshes met een hogere poly count. Vervolgens klap ik Afterburner open, en tikt vram gebruik misschien een keer 6,5gb aan in downtown boston.

Is dit dan een voorbeeld wat modders en optimalisatie kunnen doen? Snap dit dit misschien een wat oude game is inmiddels. Maar je kunt hem eruit laten zien als modern AA zonder die 8Gb grens aan te tikken.

Overigens vind ik 12gb ook wel de sweet spot voor uitschieters.
[...]

Dat heeft helemaal niets met code optimalisatie te maken. Een videogame heeft nu eenmaal assets zoals geometrie en textures, en die moeten in het videogeheugen te staan voor een dispatch/drawcall om te completen. Tenzij je in 2016 wilt blijven steken met assetquality, en totdat er een veel efficiënetere compression technique komt (zoals bijvoorbeeld neural compression), is er een balans die je moet raken tussen compute (CPU) om je assets uit te pakken en size op VRAM als developer. Ergens moet je heen zodra je je games iedere generatie mooier wilt laten uitzien.

Je kunt toch niet zo mid zijn om te denken dat als er een simpele manier was om alles binnen 8GB te proppen dat gigantische AAA studio's, Nvidia zelf, of modders dit niet allang gedaan hadden?

En ze verkopen ze, mensen met 8GB kaarten zitten gewoon te janken op forums als deze dat 8GB genoeg moet zijn en zeggen dat developers lui zijn. Nee, 640KB is niet genoeg voor iedereen, Gates.
Ironisch genoeg was optimalisatie nu juist wél het ding bij de game die is gebruikt om 8GB 'obsolete' te verklaren. Bij The Last of Us hebben ze alle textures opnieuw gemaakt en ziet medium er tegenwoordig beter uit dan het high tijdens launch. Zie YouTube: The Last Of Us Part 1: Has Naughty Dog Fixed The PC Port?.
Eternal Strands draaide hier prima op de ROG Ally met 6GB allocated.

Maar goed, bekijk de statistieken eens;

12 GB 18.83%

16 GB 5.90%

24 GB 2.40%


Als je als ontwikkelaar binnen vijf jaar met 24GB als minimumeis komt wens ik je veel succes met het vinden van een nieuwe baan 8)7

[Reactie gewijzigd door Wolfos op 30 juni 2025 11:08]

Maar zeggen dat 8GB genoeg is betekend dat games niet vooruit kunnen. Ga maar eens zoeken hoeveel developers klagen om games gemaakt voor 16GB consoles op 8GB prutkaarten draaiende te moeten krijgen.
Maar zeggen dat 8GB genoeg is betekend dat games niet vooruit kunnen. Ga maar eens zoeken hoeveel developers klagen om games gemaakt voor 16GB consoles op 8GB prutkaarten draaiende te moeten krijgen.
[sarcasme]

8GB kaarten zijn geweldig en perfect!

Voor AMD/ NVIDIA aandeelhouders...

Wanneer gamers games niet (goed) kunnen spelen met hun 8GB VRAM kaarten en ze die games toch fatsoenlijk willen spelen, verslaafd als ze zijn, kopen ze weer nieuwe GraKa's en deze keer met 16GB VRAM of meer! Briljant, toch!? KAAATSJING! Weer kassa voor AMD/ NVIDIA!

Je moet niet vergeten: aandeelhouders zijn de belangrijkste mensen op deze aardbol. De rest is allemaal ondergeschikt. ;)

[/sarcasme]
Is 8 GB echt te weinig? Of te weinig voor ultra settings? Ik vind dat nog wel een verschil namelijk...

Nou heb ik zelf tegenwoordig een 7900XT met 20 GB vram dus voor mij niet zo aan de orde, maar ik heb het idee dat je vaak toch de settings iets lager kunt zetten zodat het wel nog lukt terwijl de impact op de werkelijke beeldkwaliteit meestal wel meevalt.

Eternal strands heb ik nog niet trouwens maar ik zie dat hij op de steam deck nog heel goed speelbaar lijkt te zijn... En die heeft maar 16 GB shared memory. Dat wordt dynamisch gealloceerd maar ik denk niet dat er meer dan 8 GB naar de gpu gaat.

[Reactie gewijzigd door Finraziel op 30 juni 2025 11:20]

Het probleem is vaak dat juist VRAM niet echt schaalt met settings. Je moet namelijk anders voor elke kwaliteitsinstelling aparte assets/meshes gaan toevoegen wil je echt VRAM reduceren, dat kost niet alleen veel meer werk met development maar doet ook de game size opblazen.

Veelal zie je dat een game die op utlra over de 8GB limiet gaat, dat ook met medium doet. Vaak moet je echt performance upscaling en lowest settings gebruiken om binnen de 20% margin van een kaart met genoeg VRAM te komen.

Zie ook de talloze videos van Hardware Unboxed erover. Timestamped:

YouTube: RTX 5060 Ti 8GB - Instantly Obsolete, Nvidia Screws Gamers
YouTube: RTX 5060 Ti 8GB - Instantly Obsolete, Nvidia Screws Gamers
De stukjes die je aanhaalt laten wat mij betreft juist zien dat 8 GB niet te weinig is voor die games. Ja het kost performance en/of grafische kwaliteit, maar dat ziet er nog steeds prima speelbaar uit.

Wat je zei is dat het voor de meeste games nu al te weinig is. Wat je dan te weinig noemt is natuurlijk vatbaar voor persoonlijke interpretatie maar ik zou zelf zeggen dat het echt te weinig is als je de game niet meer comfortabel kan spelen. Ik heb het idee dat het zelfs in veel gevallen nog steeds beter loopt dan op die consoles die de beperking zouden zijn op dit moment.

Dat wil overigens absoluut niet zeggen dat ik vind dat het ok is dat Nvidia die kaarten nog met 8 GB verkoopt! Voor dat geld mogen we echt wel beter verwachten. Ik ben het alleen niet helemaal eens met dat 8 GB nu al echt te weinig zou zijn om games nog te kunnen spelen.
Het is dezelfde GPU, 50 euro verschil, en zelfs op medium settings in 2017 titels is het aan het hakkelen. En zelfs in de meest gunstige scenario's (low settings) zit je nog aan de 20% verschil. Ik weet ook dat microstuttering en hitching een van de meest irritante fenomenen is als je aan het spelen bent, dat is ook de meest voorkomende post op forums als de performance niet goed is. Mensen zeuren niet over 5fps minder, maar wel over slechte 1% en 0.1% lows. Wat je dus krijgt met te weinig VRAM.

Denk nu AUB eens na voordat je wat neer typt.

[Reactie gewijzigd door Majestici op 30 juni 2025 13:45]

Waar vind je precies dat ik meer over na moet denken? Ik zeg toch ook dat ik vind dat het verkopen van 8 GB modellen niet ok is en ik raad het ook niemand aan. Maar kun je nog hedendaagse games spelen met een 8 GB kaart? Ja dat wel. Koop je nu een nieuwe dan zou ik inderdaad ook wel meer adviseren.

Je lijkt nogal moeite te hebben met het verschil tussen dat een 8 GB kaart kopen nu een slechte deal is en dat je er hedendaagse games helemaal niet meer op zou kunnen spelen. Dat kan zeker wel nog, maar dat betekent niet dat je dus maar gewoon zo'n kaart moet kopen nee.
edit:
Overigens had ik zelf nog een 3070 8 GB tot twee jaar geleden. Dat hakkelen van 2017 titels herken ik niet en lijkt me schromelijk overdreven. Wellicht sommige titels of bij hoge settings, maar tot starfield had ik weinig problemen (en die game was gewoon vreselijk slecht geoptimaliseerd).

[Reactie gewijzigd door Finraziel op 30 juni 2025 13:52]

Het probleem is vaak dat juist VRAM niet echt schaalt met settings. Je moet namelijk anders voor elke kwaliteitsinstelling aparte assets/meshes gaan toevoegen wil je echt VRAM reduceren, dat kost niet alleen veel meer werk met development maar doet ook de game size opblazen.

Veelal zie je dat een game die op utlra over de 8GB limiet gaat, dat ook met medium doet. Vaak moet je echt performance upscaling en lowest settings gebruiken om binnen de 20% margin van een kaart met genoeg VRAM te komen.

Zie ook de talloze videos van Hardware Unboxed erover. Timestamped:

YouTube: RTX 5060 Ti 8GB - Instantly Obsolete, Nvidia Screws Gamers
YouTube: RTX 5060 Ti 8GB - Instantly Obsolete, Nvidia Screws Gamers
Huh wat? Als er iets makkelijk schaalt dan is het VRAM gebruik via de texture details preset. Jaar en dag hebben we in elke game een instelling die je naar harte lust kunt wijzigen. Daarom zijn games ook steeds groter geworden. Voor elke texture preset bevat je game een volledige set aan textures. Sommige games hebben tegenwoordig een aparte ultra DLC waarmee je de ultra textures apart kunt downloaden.
16GB uified is wel gedeeld tussen cpu en gpu. En zelfs daarvan zal een deel van die 16 al wegvallen voor het OS. Denk dat er geen console game is die meer dan 10 a 11 GB kan inzetten puur voor de GPU.
Maar het hoeft niet via een PCI-E bus heen en weer gekopieerd te worden door de CPU. Dat is het verschil. Daarom zie je ook verschillen tussen PCI-E3.0, PCI-E4.0 en 5.0 zodra de 8GB buffer overschreden wordt. Evenals de snelheid van de CPU.

Zo'n console heeft daarom dus een veel simpelere memory heuristic, het hoeft niet zoals bij een PC rekening te houden met HDD's, SSD's, System memory, PCI-E speed en VRAM en hun verschillende snelheden. Het opdelen in CPU en GPU is daarom een beetje zinloos, aangezien er niet echt een heuristic is. Het is gewoon één snelle memorypool, wat ook een stuk simpeler is voor de developers.

[Reactie gewijzigd door Majestici op 30 juni 2025 12:06]

Het blijft een gegeven dat de CPU + OS ook een deel van geheugen moet gebruiken naast de GPU. Dat het niet apart is opgebroken in een dedicated stuk ram per onderdeel, staat helemaal los dat ze het dus moeten delen dus shared 16 GB = 16GB totaal. Dus again, focus leggen op de 16GB aan geheugen op een console blijft het een feit dat dit niet helemaal gebruikt kan worden door de GPU alleen, zelfs niet voor even. Een losse videokaart met 16GB zal dat wel helemaal kunnen vullen. Daarom kun je rustig dan een console niet 16GB, maar ca 10GB aan VRAM heeft voor de GPU.
Dat staat er helemaal niet los van, het is het meest belangrijke aspect van het feit dat het unified is. Je maakt het argument simpelere zodat je je gelijk nog kunt halen.

Het feit dat de consoles hun hele pool op dezelfde snelheid kunnen gebruiken is het voordeel. Een PC kan 32GB werkgeheugen hebben, en 8GB VRAM, dus in totaal 40GB, tov de 16 van een console. Maar die console kan nog steeds veel hogere quality/texture settings doorduwen omdat het méér dan 8GB kan gebruiken voor de drawcalls/dispatches zonder te moeten pageswappen vanuit andere memorypools via een retetrage interface.
Ik maak het simpel omdat het simpel is. 16GB = 16GB. En daar ben ik je al 2 keer op aan het wijzen meer niet. Nergens claim ik dat 8GB genoeg is als je nu een videokaart koopt of hint ik daar naar. Ik nuanceer enkel je vergelijking van 8GB vram op de videokaart met 16GB unified in een console omdat die laatste nooit de volle 16GB kan inzetten voor de GPU alleen, juist omdat het unified is.
Ik snap die redenatie, tegelijk is daarmee de stelling dat de enige toekomstbestendige kaart die nu bestaat van deze generatie de RTX5090 is. En granted je hebt nog een RTX4090 + 7900 XTX, maar dat zijn sowieso oudere generaties die zaken missen (eg FSR 4).

En het lijkt mij toch onwaarschijnlijk dat je over een paar jaar een spel gaat uitbrengen die of de nieuwste GPU nodig heeft, of van de vorige generatie een 5090.
Ook ik denk dat consoles leidend zijn hoeveel Vram je nodig hebt, maar hoeveel jaar na release van de PS5 heeft het wel niet geduurd voordat ontwikkelaars de PS4 gedropped hebben? Historisch lang volgens mij.6 en 8GB werd namelijk ook pas te weinig zodra games exclusief voor de PS5 gemaakt werden en niet direct na de release van de console.

Het is heel erg koffiedik kijken maar de meeste bronnen gokken op 2027 voor de PS6, en ga er maar vanuit dat het dan nog wel een jaar of 3 duurt voordat de AAA niet meer op de PS5 uitkomt. Dan zitten we al in 2030 :+

Verwacht dan zelf eigenlijk dat minimaal 12GB voldoende gaat zijn om alles wat op de PS5 kan draaien zonder problemen te spelen, 16GB als je iets meer pracht en praal wilt.

[Reactie gewijzigd door !mark op 30 juni 2025 10:12]

Daarom wacht ik zelf op de 9080/9090XT als die er komt. Zo niet, jammer dan.
Dat zal vooral liggen aan hoe nieuwere games worden ontworpen en met geheugen om gaan. Beetje kip en ei zeg maar. Als alle moderne kaarten veel geheugen hebben zullen ontwikkelaars van games daar minder aandacht aan besteden.
Ligt er aan wat je er mee wil doen.

Gamen: Sja, het moet een beetje voorop liggen bij consoles, maar die lopen altijd al achter op losse GPUs.

AI: Voor AI heb je nooit genoeg VRAM. Voor Deepseek R1 70B heb je 32, maar ideaal 48GB video geheugen nodig. Dit moet dus met een multi GPU gedaan worden.
Als je 48GB wil halen heb je òf 2x 24GB kaarten nodig, of 3x 16GB kaarten (of 4x 12GB kaarten).

In dat geval kun je het af met minder GPU's, als dat op je wensenlijst staat.
Koop wat je nu nodig hebt, koop in de toekomst wat je dan nodig hebt.

@Sissors Geeft het al goed aan. De enige GPUs die echt future proof zijn, zijn de high-end Nvidia GPU's. Ik zou voor de 4090 en 5080S nog wel een theoretische lans kunnen breken.

Met 16GB zit je in ieder geval tot de komst van de volgende generatie consoles nog wel goed. Maar als nu de prestaties van een 5070 / 9070 afdoende zijn, zou ik gewoon in dat segment winkelen, en dan over een jaar of 2-3 eens kijken naar een leuke opvolger in hetzelfde segment.

Sowieso ligt het in de lijn der verwachtingen dat we weer een lange cross-gen periode tegemoet gaan. Dus 16GB zal nog wel eventjes relevant blijven. Tenzij je natuurlijk grootverbruiker van de Nexusmods bent :)
Thanks. Ja ik zou met een 9070 wel iets langer dan 3 jaar willen doen vandaar. Prima dat ik dan over 4 jaar niet meer alles op high kan spelen, als nieuwe games nog maar wel speelbaar zijn op minimaal 60fps.
edit:

Ik stel overigens geen hele hoge eisen aan graphics. Het hoeft van mij geen native 4K te zijn bijvoorbeeld. Ik vind PS5 level graphics goed genoeg. Minimaal 60fps vind ik wel belangrijk, terug naar 30fps wat jarenlang gewoon was in console land dat trek ik niet meer :P

[Reactie gewijzigd door addictive_rhymz op 30 juni 2025 11:53]

@AverageNL volgensmij klopt je tabelletje niet, 5070s met 28gb en de 5070tis met 16gb net als de niet super?
AuteurAverageNL Nieuwsredacteur @Pimmetjuuh30 juni 2025 08:38
Typfoutje! Die hebben respectievelijk 18 en 24GB inderdaad. Is aangepast, thanks :)
Moet inderdaad 18gb zijn i.p.v. 28gb en de super 24gb

Aangepast :)

[Reactie gewijzigd door thisisjazz op 30 juni 2025 08:44]

Zou deze in een maand of twee uitkomen?
Nee, ga maar eerder uit van op zijn vroegst ergens december of begin volgend jaar.
Misschien moeten er kaarten met uitwisselbaar geheugen komen. Dat zeg ik om meerdere redenen.
  1. De maximaal haalbare kwaliteit van een beeld is gekoppeld aan VRAM. De maximale FPS is meer gekoppeld aan GPU. Afhankelijk van of men meer FPS of meer resolutie wil is de keuze anders. En als men hobbymatig rendert is kwaliteit belangrijker dan snelheid.
  2. Van wat ik begrijp heeft (nog) bijna niemand echt meer dan 16 GB nodig voor gaming. Dat kan in de toekomst veranderen. Als ik voor 150 euro later 8-16 GB kan bijprikken is dat toekomstbestendiger.
  3. Een kaart die in een spel van nu 120 fps haalt haalt over een aantal jaren nog steeds een speelbare 40 fps in een 3x zo zwaar spel zolang het genoeg VRAM heeft. Een goede GPU van nu heeft dus waarde zolang de toekomstige spellen en GPUs binnen een factor 3 blijven en het VRAM voldoende is.
  4. GDDR geheugen kan in prijs dalen, waardoor men later goedkoper uit kan zijn.
Gaat om technische redenen nooit gebeuren. Videogeheugen is absurd snel en dat kan alleen door die chips zo dicht mogelijk tegen de GPU aan te plaatsen en direct op de PCB te solderen vanwege signaal kwaliteit.

Je ziet het zelfs met DDR5 ook een beetje nu, laptops met gesoldeerd geheugen kunnen het geheugen op hogere snelheden draaien dan die met DIMM slots. En videogeheugen op kaarten als deze is een factor 10x zo snel :P
Heb anderhalve maand geleden een RTX 5070 Ti gekocht maar aangezien ik op 1440p game denk ik dat ik met die 16GB voorlopig wel vooruit kan. Behalve 8GB meer geheugen biedt die Super variant voor zover ik kan zien geen performance verbeteringen, aantal CUDA cores blijft gelijk evenals de geheugenbus & bandbreedte. Voordat 16GB op 1440p een bottleneck gaat zijn zijn we hopelijk al wel weer een jaar of 5 verder.
Mooi ontwikkeling, maar bizar dat ze de normale 50-serie met zo weinig geheugen hebben uitgerust.
Ik acht de kans echter zeer miniem dat deze kaarten voor een normale prijs in de markt worden gezet gezien de vraag en verschrikkelijke houding van nvidia.
Gezien hun borige super varianten, zullen deze niet bijzonder veel duurder worden.
Echt net nadat ik een 5070 ti had besteld. Misschien dan toch retour sturen en nog eventjes wachten. Zal vooral voor foto en videobewerking worden gebruikt, extra geheugen is welkom
Waarom geen AMD AI PRO R9700? Dan heb je 32GB.
Omdat die waarschijnlijk wel een heel stukje duurder zal zijn?
Ik vermoed dat je de 9070 bedoelt anders kom je uit op de echte 9700 met 128MB DDR 310 Mhz geheugen en een core op 325Mhz. Wel leuk kaartje was dit. Deze kon je met een aangepaste bios gemakkelijk naar de 9800 doen. Zelfs naar de 9800XT. Dan had je wel de beperking van het geheugen (werd niet opeens meer). Je moest wel voor voldoende koeling zorgen.
Oe die kende ik nog niet. Komen wel erg veel varianten zo
Ik ben dus wel heel benieuwd of AMD een gaming variant daarvan tegenover de Supers gaat zetten. En dat AMD met de 9070 en 9070XT dan dus van 16gb naar 32GB gaat. Maar misschien houden ze het voor de gaming kaartjes bij 24GB. AMD kan ook van GDDR6 naar GDDR7 gaan en dan kunnen alle huidige heatsinks/koelers (van AIB's) ook hergebruikt worden. Dan hebben ze niet alleen een VRAM hoeveelheid increase maar ook een prestatiewinst. 9075XT, 9080XT? :P Verder ontopic over dit artikel: dit voelt weer heel erg als een naaistreek richting de early adopters van de 5000 series non-super kaarten want het gaat nogal om een flinke VRAM increase. Maar men blijft er dan ook intrappen met Nvidia kopen voor gamen. Ik riep het al op release day: "als de supers dadelijk komen wordt het huilen om de karige hoeveelheid vram". A 5080 16gb is not going to age well.

[Reactie gewijzigd door HugoBoss1985 op 30 juni 2025 09:51]

Sterker nog, de 9070XT is zo bandbreedte gelimiteerd dat GDDR7 een must-have is voor significant snellere chips. Zonder GDDR7 zijn ze DOA voor het hogere segment, met GDDR6 gaan ze in 4K tests erbarmelijk scoren anders.

[Reactie gewijzigd door Majestici op 30 juni 2025 09:58]

Er zijn geruchten dat ze allang een 9080, danwel hoger in de pijplijn hebben liggen, en die vind ik best aannemelijk. Ook dat ze hem alleen uitbrengen als er vraag naar is.

AMD heeft ook door dat ze beter kunnen mikken op het lagere- en middensegment gezien daar het meest verkocht word. Hoeveel 295x2, Fury's, Radeon VII, 6800XT's en 7900XTX kaarten hebben ze verkochts vs het aantal 270/480/580's, 6600's en 7600's?

Het heeft pas nu voor ze om een nvidia flagship kaart proberen aan te vallen als ze 25-30% beter kunnen presteren dan hun Nvidia counterpart voor dezelfde prijs, en dan nog zal het gros voor Nvidia kiezen, tenzij deze slecht leverbaar zijn of ze weer een "GeforceFX" scenario hebben...
AMD zal dadelijk wel moeten en dan komt dan doordat Nvidia de Supers gaat uitbrengen met meer VRAM.

Alleen de prijs blijft wel het probleem, met name de prijzen in Europe lijken niet laag genoeg te zijn. De Euro/Dollarkoers wordt hier niet verrekend en/of de webshops doen er nog teveel bovenop. AMD's MSRP (gecorrigeerd naar Euro) is nog steeds vrijwel niet-bestaand.

Eigenlijk vind ik dat je deze Nvidia generatie wel een GeforceFX scenario kan noemen, want er is veel mis op software- en hardware gebied. De vooruitgang (stilstand)op VRAM (gaat met Supers veranderen), prestaties en hardware is er niet en/of nauwelijks. Maar men slikt het gewoon voor zoete koek. Connectors die door kunnen fikken? Geen probleem; we betalen gewoon +€2K voor een 5090! En de algemene tendens dat AMD slechte drivers maakt en Nvidia niet kan ook de prullenbak in.

[Reactie gewijzigd door HugoBoss1985 op 30 juni 2025 11:08]

Die kan idd de prullenbak in, daarnaast worden dergelijke claims vaak gemaakt door de "het moet gewoon werken"-groep. Degene die als ze wisselen van kamp geen DDU draaien, geen settings willen tweaken en alsof het de nintendo/sega console wars betreft elkaar met termen en features om de oren slaan waarvan ze zelf niet weten wat het inhoud, maar alleen dat het andere kant het niet heeft.
Eerste keer dat ik lees over die AMD kaart, zal als ik thuis ben even rustig ervoor zitten om het allemaal te lezen. Ik had voor de 5070 ti gekozen vanwege de encoders en decoders voor 10 bit 4:2:2 video en de prijs/kwaliteit verhouding. Prijs is helaas nog niet bekend van die AMD kaart
Vermoedens zijn rond de 1000 euro, maar kan zijn dat ze lastig te leveren worden vanwege LLM.
Ah ja dat is wel weer een stuk duurder. €827 voor de 5070 ti betaald. Misschien hou ik het daar gewoon op, het zal in ieder geval een heel stuk sneller gaan dan m'n 13600K met iGPU :P
Het is een kaart voor de zakelijke markt, een vervanger voor kaarten die al gauw 2000 euro kosten. Ik kan mij niet voorstellen dat AMD die voor "slechts" 1000 euro op de markt zal zetten.
Ja niet heel interessant voor mij dan. Het stoorde me dat Lightroom zo lang deed met hun AI tools, denoise op 1 foto duurde rond de 5 minuten. Denk dat een 5070 ti daar aanzienlijk sneller mee is. En video bewerken zonder haperingen, moet goedkomen
Qua image en video AI - stable diffusion, WAN, flux etc. - is AMD momenteel geen redelijke optie momenteel helaas.
Ik denk dat 1000 euro hoogst optimistisch is. Het gaat om een kaart gericht op de zakelijke markt en bedoeld als een vervanger voor de Radeon Pro W7800 waar de 32GB versie zo'n 2000 euro doet. Het zou mij verbazen als je de Pro R9700 voor minder zou kunnen krijgen.

[Reactie gewijzigd door jumbos7 op 1 juli 2025 13:10]

Als hij voor 2 ruggen weggaat neemt iedereen simpelweg een 5090.
Diegenen die willen gamen en 2000 euro willen besteden aan een GPU kunnen dan inderdaad beter een 5090 nemen, maar de zakelijke klanten van AMD die nu de W7800 hebben of interesse hebben daarvoor zullen verwacht ik ook voor die prijs een R9700 overwegen.

Ik heb hierin graag ongelijk maar ik zie niet hoe ze 2 jaar nadat ze een 32GB RDNA3 versie voor $2499 hebben uitgebracht nu een 32GB RDNA4 voor de helft zullen uitbrengen. De oudere 32GB RDNA2 had een adviesprijs van $2249 dus het is ook niet dat je steeds minder hoeft te betalen voor een 32GB variant. Maar we zullen het binnenkort moeten weten, want de R9700 PRO zou deze maand uit moeten komen.

[Reactie gewijzigd door jumbos7 op 1 juli 2025 16:19]

Er zal altijd een nieuwere en betere kaart uitkomen. En meestal op het moment dat je inderdaad net een besluit hebt genomen.

Ik zou zeggen. Geniet van je 5070ti, er is een reden dat je deze gekozen hebt lijkt me.

Daarbij is er nog geen idee van wanneer de genoemde kaarten uit gaan komen en wat de prijs zal zijn. Dat weet je nu allemaal wel.
Idem hier, al moet ik zeggen dat de 5070ti wel een enorme stap voorwaarts is t.o.v. wat ik had.
Vraag me wel af wat de komst van die nieuwe 24gb variant met de prijzen doet van de 16gb 5070ti. Als die echt significant daalt zou ik met die kennis toch nog even hebben gewacht.
Ik zou 'm houden. Het is nog afwachten wanneer de nieuwe varianten komen en zelfs dan is het de vraag hoe lang het duurt voordat ze betaalbaar zijn. Omdat deze kaarten interessant zijn voor AI zou het goed kunnen dat de prijs maanden lang zeer hoog blijft en/of dat ze amper te krijgen zijn. En dan zal je zien ze de 16 g kaarten uit de productie nemen zodat je die ook niet meer kan krijgen. Een dergelijke situatie hebben we nu zovaak voorbij zien komen..
Ja dat is zo, ik krijg 'm pas vrijdag, maar zal al een enorme upgrade zijn dan wat ik nu heb
Dat tabelletje, iets met haastige spoed.

Als ze nu eens die 5060 12gb gaven, evenals die 5050. Daar heb je wel wat aan.

Op dit item kan niet meer gereageerd worden.