Gerucht: Nvidia GeForce RTX 5060 en RTX 5060 Ti komen in maart beschikbaar

Nvidia's GeForce RTX 5060 en RTX 5060 Ti komen naar verluidt in maart beschikbaar. Dat beweert Chaintech, een Taiwanese gpu-leverancier voor Colorful.

Chaintech noemt de releasemaand van de Nvidia GeForce RTX 5060 en RTX 5060 Ti in een presentatie over zijn winstprognose, merkte @wxnod op. Dat bedrijf levert videokaartontwerpen aan Colorful, een van de grootste gpu-makers in China. Het is onduidelijk hoe Chaintech aan deze informatie komt. Het kan zijn dat het slechts om een placeholder gaat.

Nvidia heeft de RTX 5060-videokaarten nog niet officieel aangekondigd, maar de RTX 5090, RTX 5080, RTX 5070 Ti en RTX 5070 al wel. De 5090 en 5080 zijn afgelopen week uitgebracht, terwijl de RTX 5070-gpu's naar verluidt in februari aan de beurt zijn.

Volgens een eerder gerucht krijgt de RTX 5060 Ti 16GB aan GDDR7-geheugen, terwijl de reguliere 5060 wordt uitgerust met 8GB geheugen. Ze zouden allebei een GB206-gpu van de Blackwell-generatie krijgen, evenals een 128bit-geheugenbus en een geheugenbandbreedte van 448GB/s.

Vermeende releasemaand Nvidia GeForce RTX 5060/5060 Ti

Door Kevin Krikhaar

Redacteur

02-02-2025 • 11:34

191

Lees meer

Reacties (191)

Sorteer op:

Weergave:

8 GB VRAM in 2025 is echt afgrijselijk, zelfs voor een instapkaart. Er zijn al meerdere games zoals Indiana Jones, Spider-Man 2, Final Fantasy XVI, Star Wars Outlaws, Hellblade 2, Avatar Frontiers of Pandora, Star Wars Jedi Survivor, The Last of Us Part 1, Resident Evil 4, Hogwarts Legacy, Forspoken en andere games die zelfs op 1080p met de allerlaagste preset meer dan 8 GB VRAM nodig hebben. En ook al zijn sommige van deze games dusdanig ontwikkeld dat ze in principe ook met minder overweg kunnen omdat ze indien nodig dynamisch settings aanpassen, dan nog heb je nog altijd een slechtere ervaring met 8 GB kaarten omdat je spel er slechter uit ziet. Nvidia's finest Granny Peach Tea...
8 GB VRAM in 2025 is echt afgrijselijk, zelfs voor een instapkaart. Er zijn al meerdere games zoals Indiana Jones, Spider-Man 2, Final Fantasy XVI, Star Wars Outlaws, Hellblade 2, Avatar Frontiers of Pandora, Star Wars Jedi Survivor, The Last of Us Part 1, Resident Evil 4, Hogwarts Legacy, Forspoken en andere games die zelfs op 1080p met de allerlaagste preset meer dan 8 GB VRAM nodig hebben. En ook al zijn sommige van deze games dusdanig ontwikkeld dat ze in principe ook met minder overweg kunnen omdat ze indien nodig dynamisch settings aanpassen, dan nog heb je nog altijd een slechtere ervaring met 8 GB kaarten omdat je spel er slechter uit ziet. Nvidia's finest Granny Peach Tea...
Deze statement klopt niet. Sterker nog een deel van de games die je noemt doen zelfs 4K met 8GB vram en ultra.

The last of us sinds: Debunked:
The Last Of Us Part 1: Has Naughty Dog Fixed The PC Port?
Sinds patch 1.05 verbruikt de game letterlijk nog geen 6GB vram op high.

Spider-Man 2: Debunked
Hardware Requirements
Without ray tracing, hardware requirements are pretty manageable, even at highest details. In order to reach 60 FPS at 1080p, Max settings, no RT, no upscaling, you need a RTX 3060 Ti, RX 7600 XT or RTX 4060.
Final Fantasy XVI: debunked:
Our benchmarks confirm that even at 4K with 8 GB there is no VRAM bottleneck in actual gameplay—the RTX 4060 Ti 8 GB runs at virtually the same FPS as the RTX 4060 Ti 16 GB.
Indiane Jones: Debunked
NVIDIA RTX 20xx series graphics cards with 8GB of video memory provide the power Indiana Jones and the Great Circle only in resolution 1920x1080 at maximum settings. Their performance and memory capacity are only sufficient for Full HD, since ray tracing, which is active by default, requires significant resources
Star Wars Outlaws: debunked
Our VRAM testing shows that Star Wars Outlaws will use a ton of memory—when it's available. On cards with less VRAM it does a reasonably good job at memory management. Our results confirm this, the RTX 4060 Ti 8 GB runs at virtually the same FPS as the RTX 4060 Ti 16 GB, even at 1440p and 4K
Hellblade 2: Debunked:
For lower resolutions 8 GB is plenty though. Once you turn on Frame Generation, the VRAM usage increases by 2 GB, like in most other games. For lower resolutions, the VRAM requirements are a bit on the high side, because even 1080p at lowest settings reaches around 8 GB, which could make things difficult for older 6 GB and 4 GB-class cards.
Avatar Frontiers of Pandora: Debunked
The Snowdrop engine is optimized to use as much VRAM as possible and only evict assets from VRAM once that is getting full. That's why we're seeing these numbers during testing with the 24 GB RTX 4090. It makes a lot of sense, because unused VRAM doesn't do anything for you, so it's better to keep stuff on the GPU, once it's loaded. Our performance results show that there is no significant performance difference between RTX 4060 Ti 8 GB and 16 GB, which means that 8 GB of VRAM is perfectly fine, even at 4K.
Star Wars Jedi Survivor: Debunked
The higher presets can hit VRAM pretty hard, even with the 3.5 patch, especially with the Epic quality textures and shadows. 12GB of VRAM is basically the minimum for a decent experience at Epic settings and 4K. But the difference between Epic and High quality textures and shadows probably isn't worth the VRAM tax, so if you have a 12GB or even 8GB card, don't feel bad about dropping Shadows and Textures down a notch.
Er is een vertekend beeld ontstaan doordat er in 2023 een aantal console ports uitkwamen die slecht vram management hadden en een youtube kanaal daar bovenop sprong.

[Reactie gewijzigd door sdk1985 op 3 februari 2025 00:31]

Feit is dat 8GB kaarten de vooruitgang tegenhouden. Dankzij Nvidia zitten we al jarenlang op 8GB VRAM in het mainstream segment.

Moet je voorstellen dat je nu nog met 4 of 8GB systeem RAM zou zitten. Dat wil niemand. Maar als het op VRAM aankomt dan zijn er altijd mensen die het verdedigen. Onzin is het.

Prijs van 8GB VRAM is peanuts op de vraagprijs van een GPU. Er is geen redelijk argument te maken voor slechts 8GB op een GPU van honderden euro's. Zie bijvoorbeeld:
https://www.tomshardware.com/news/gddr6-vram-prices-plummet
Dat is GDDR6, maar de 50x0 serie waar het hier over gaat gebruikt GDDR7. We weten dat NVidia gestopt is met de productie van 4080/4090, de grootverbruikers van GDDR6, en de 4060 zal ongetwijfeld snel volgen. Ên met het verdwijnen van een grote afnemer is een prijsdaling logisch.
Dat artikel is van juni 2023. Toen al was er geen goed argument om slechts 8GB VRAM op een GPU te hebben.

GDDR7 schijnt op dit moment zo'n 20% duurder te zijn als GDDR6. Dat veranderd dus helemaal niets aan het verhaal. Er is simpelweg geen goed argument te maken om 8GB kaarten te verdedigen.
Denk je niet dat dit meer te maken heeft met het feit dat nvidia liever game ontwikkelaars "dwingt" om DLSS te ondersteunen?

Het feit dat het toevoegen van VRAM zo makkelijk en goedkoop is, zegt mij dat er iets anders speelt dan kosten besparing.

AMD springt graag in het gat, dan koop je dat!
Ik heb een 1070 en ik kan iig Spiderman re4 en Hogwarts legacy makkelijk draaien. Op 1080p dan he
Dat is mijns inziens een beetje vreemd geredeneerd. Het maakt niet uit dat er titels zijn die wel fatsoenlijk om kunnen gaan met lagere VRAM configuraties. Verder hebben we het nu over games die al uit zijn terwijl we spreken over videokaarten die nog moeten komen.

Vanaf welk bedrag mag men meer dan 8 GiB verwachten? Als de 5060 straks 350 euro kost, wat niet vreemd zou zijn gezien de huidige prijsopzet, is het dan echt onredelijk als klant om toch wel 12 GiB te verwachten?
Lang verhaal kort, 8GB is fine als je er geen moeite mee hebt om:

A. Eventueel te wachten op patches die het tekort aan VRAM oplossen middels memory management
B. Eventueel te wachten op een patch die de kwaliteit van textures dynamisch schaalt, zodat je deze gewoon op ultra kan laten staan, terwijl de game ze vanzelf wel terugschaalt naar low indien noodzakelijk
C. Gewoon op de koop toeneemt dat er eventueel geen oplossing komt en de hoogste kwaliteit textures op jouw GPU niet ter beschikking zullen zijn, of dat deze je framerate omlaag slepen
D. Op de koop toeneemt dat je nieuwe Nvidia GPU mogelijk dankzij z'n krappe VRAM helemaal geen gebruik kan maken van de nieuwe framegeneration features, die juist als selling point worden gepromoot voor deze generatie

Kudos voor het aanhalen van de tests en data, daar steekt werk in. Maar getallen en benchmarks alleen zijn natuurlijk slechts één kant van het verhaal. Beeldkwaliteit, iets wat vaker en vaker dynamisch geschaald wordt, en wat je dus niet terugziet in die getallen, is de andere kant.

offtopic:
Ook dat het "virtually" hetzelfde is of een "reasonably good job" doet, klinkt alsof er nog ergens een voetnoot bij hoort. Hetzelfde met de conclusie van Star Wars, welke natuurlijk ook een sign of things to come is: "Doe de settings wat lager en het werkt ook".

Wanneer we werkelijk die kant opgaan qua argumentatie kan je natuurlijk hetzelfde argument gaan hanteren bij de getallen. 10% fps meer of minder maken die wel werkelijk uit? Het spel doet het toch?
Om het maar niet te hebben over RT settings op non-ultra, en wat dat wellicht zou kunnen betekenen voor de benchmark resultaten.


Nu vind ik het statement dat 8GB op een instapkaart "afgrijselijk" is wel hyperbool van de bovenste plank. Het is gewoon erg krap bemeten en zorgt er voor dat je dus compromissen dient te maken. Of dat erg is, moet ieder voor zich weten. Het hangt in mijn optiek volledig van de prijs af.

We bevinden ons nu eenmaal in een erg lastige spagaat: Geef je de instappers 16GB mee, gaat het xx70 publiek los over het feit dat men slechts 12 GB krijgt. Geef je de xx70 kaarten 24 GB mee, gooi je mogelijk andere glazen in, vanwege het potentiële nut voor professionele en/of niet-gaming doeleinden.
Dat neemt niet weg dat 8gb vram krap is, ja de meeste games zorgen dat het werkt, maar ray tracing, frame gen, dat soort dingen vallen er dan sneller buiten, ook zul je eerder de textures omlaag moeten zetten. of laad de game vanzelf lagere kwaliteit in.

Dit gaat zeker niet overal op, maar er speelt meer dan alleen fps.
We mogen dan ook best wel meer verwachten van nieuwe gpus, ook al is het voor veel games niet belangrijk op dit moment.

De hoeveelheid vram voor goedkopere kaarten stagneert en dat hoeft niet.
Een voorbeeld:
in Spider-Man 2 haalt de RTX 3060 (12GB) meer FPS dan de RTX 4060 (8GB) als je DLSS en Ray Tracing gebruikt.\
Maakt niet uit of het 1080P, 1440P of 4K is.

Een ander media liet dat ookal zien met Horizon Forbidden West. Bij 1080P Max settings haalt de RTX 3060 meer 1% FPS dan in theorie snellere kaarten met minder VRAM.
Maar als je dsll 4 gebruik dan heb je 75% minder ram nodig.

Hoe heb je dat verwerkt in jouw beeld
Voor die claim van 75% VRAM reductie heb ik dan toch een bron nodig. Dan zou 8GB met DLSS presteren als 32GB VRAM zonder DLSS?
https://developer.nvidia....ered-graphics-innovation/

https://www.techradar.com...s-calmed-some-of-my-fears

het is zelf in sommige gevallen 7x zo weining ram nodig

[Reactie gewijzigd door Scriptkid op 2 februari 2025 20:34]

Mooi "wij van wc eend" verhaal dit.
Natuurlijk je kan de textures gewoon op 320p renderen en dan upscalen naar 2k, dan is het inderdaad 7x minder, dat het spel er dan voor geen meter meer uitziet, dat zeggen ze er niet bij. :+
ik heb geen demo gezien waar 7x minder verbruik te zien was kun je die linken?

Verdubbeling betekent verder ook niks, het is allemaal hetzelfde met upscaling, je levert kwaliteit in voor performance.
Je kiest zelf hoe veel kwaliteit je inlevert en hoe meer dat is hoe minder geheugen er zal worden gebruikt.
De rest is allemaal marketing.
DLSS ziet er beter uit dan native met TAA dus je levert helemaal geen kwaliteit in.
Upscaling ziet er altijd slechter uit dan native.
Ik verbaas me er iedere keer weer over dat er mensen zijn die dat ontkennen of die zelfs beweren dat het er beter uitziet, iets dat gewoon technisch onmogelijk is.
Een goed voorbeeld van de kracht van marketing denk ik. :+

Heb je nog nooit een video gezien die is geupscaled van 320p naar 1080p?
Ziet hij er beter uit? Zeker! Maar ziet hij er beter uit dan als de video echt in 1080p native was opgenomen? Absoluut niet.
Bij DLSS werkt het niet heel anders.

Vergelijk het met een puzzel waar willekeurige stukjes ontbreken.
Vervolgens ga je die missende stukjes weer inkleuren en dat doe je door te kijken naar de omliggende stukjes.
In het beste geval eindig je dan met exact hetzelfde als het origineel, maar hoe minder detail er aanwezig is hoe minder aangrenzende stukjes je hebt om mee te vergelijken en hoe slechter het eindresultaat wordt.
Upscaling ziet er altijd slechter uit dan native.
Komop man. Digital Foundry heeft al meerdere malen bewezen dat dit gewoon pertinent onwaar is.

Taa is veel slechter dan dlss in het terugbrengen van details. Sterker nog TAA is vaak een blurry mess. Dlss fixt dat. Zeker met DLSS4.

Kijk alsjeblieft wat filmpjes van Digital Foundry over dit onderwerp.

Nee Native is niet perse beter dan dlss.

Net zoals muziek beter kan klinken met EQ, of foto's er beter uit kunnen zien na nabewerking bijvoorbeeld.

[Reactie gewijzigd door James Pond op 4 februari 2025 12:20]

DLSS is wat een "blurry mess" veroorzaakt, vooral bij snelle bewegingen..
Ik heb motion sickness en ben enorm gevoelig voor blur en artifacts in het beeld dus ik weet er alles van.

TAA gaat over anti aliasing en heeft niets te maken met upscaling, ik vind het zelf ook geen fijne techniek dus daarin zijn we het wel eens.
DLSS Gebruikt overigens ook Temporal AA dus een beetje een vreemde vergelijking.
Gelukkig zijn er zat andere vormen van AA die wel prima bruikbaar zijn zoals MSAA.

Digital Foundry heeft nooit geclaimd dat upscaling beter is dan native.
Ik denk dat je doelt op video's van een aantal specifieke spellen waar het eindresultaat beter is, maar dat zegt dan meer over de implementatie van de developer dan over de techniek zelf.
Er zijn namelijk net zo veel videos waaruit het tegenovergestelde blijkt.

Ik ben ook al een aantal keer tegen dit probleem aangelopen bijvoorbeeld in Starfield.
Dat spel ziet er echt lelijk uit als je DLSS uitzet, maar dat komt dus niet door wel of geen upscaling maar door een combinatie van post processing effects die je niet zelf aan of uit kunt zetten.
Enorm storend en het zorgt voor misinformatie in de discussie.

[Reactie gewijzigd door xenn99 op 4 februari 2025 16:57]

Hier een voorbeeld van taa native vs dlss

https://imgsli.com/MzQ1ODM0
Waarom brengt Nvidia dan een 16 GB Vram versie uit voor de 5060 ti dat zelfs hoger ligt dan de 12 GB van de 5070. Waarom dan niet gewoon 8gb om de kosten te drukken? Sterker nog waarom geef je de 5080 dan niet gewoon 4gb vram als die tech zo goed werkt?

Dit verhaal over compression vertelden ze ook bij de RTX 3000 series wat mij had overgehaald om de 3070 te kopen ipv de RX 6800. Big mistake want het was gewoon marketing BS.
Waarschijnlijk omdat dat dan niet lekker verkoopt als ze de GB omlaag schroeven. dan koopt met liever een 4080 omdat dat vertrouwd is en ze de nieuwe tech nog niet vertrouwen.
Dat slaat nergens op natuurlijk. Als Nvidia vertrouwen heeft in hun tech en zegt dat je veel minder Vram nodig hebt moeten ze het ook bevestigen door het niet te leveren.
De consument heeft geen keuze als de line-up bestaat uit 2GB, 4GB en 8GB kaarten.
Ik neem aan dat hij bedoelt dat je een resolutie van 1080p opschaalt naar 2160p. Helaas werkt VRAM niet zo, en is het meer op welk resolutie je je textures hebt, je draw distance e.d.
Maar je wilt helemaal geen DLSS 4 gebruiken onder de 80 fps dus dan moet je flink gaan schalen.
DLSS 4 is wat anders dan MFG.

Dlss is een upscaler. MFG is de multiframe generation. MFG kan je input latency verhogen, dlss doet dit niet.
DLSS is een performance boost in ruil voor lagere beeldkwaliteit. Als je al 80fps hebt lijkt het me niet heel nuttig om DLSS aan te zetten tenzij je echt perse 120fps wil en het je niet uitmaakt dat je dat kwaliteit kost.
(Voor competitief wil je geen vertekening in het beeld dus daarvoor is DLSS ook niet geschikt.)
Misschien een domme vraag maar moet je actief je resolutie lager zetten in de game settings?
Nee er is een speciale instelling voor DLSS, bij sommige spellen kun je daar zelf de resolutie instellen die DLSS gebruikt om te upscalen, maar niet altijd, de implementatie verschilt een beetje per spel.

Bij sommige spellen krijg je simpelweg een percentage keuze zoals hier bij wu kong
In dat geval betekent 50% dat het spel op de helft van de gekozen resolutie wordt gerenderd, en vervolgens wordt geupscaled naar de resolutie die je hebt gekozen in je instellingen.
Voor competitief zou ik eerder een snellere input latency hebben (120fps of hoger) dan een lijntje dat “verkeerd” getekend is. Dus DLSS kan zeker werken bij competitieve games.
Tjah dat ligt eraan.. als dat verkeerde "lijntje" toevallig net iemands hoofd is waar jij bijvoorbeeld met een sniper rifle van grote afstand op mikt wordt het toch wel vervelend.
Competitief wil je 100% betrouwbaarheid van het beeld, dan kan elk verkeerd lijntje er een teveel zijn.
Natuurlijk kan je het aanzetten, maar ik zou dan eerder andere details in het spel lager zetten die niet direct invloed hebben of zelfs een positieve invloed, bijvoorbeeld VFX, Grass rendering of Foliage.

Input latency heb ik bewust niet genoemd omdat DLSS geen input latency veroorzaakt mits je frame generation uit hebt staan. Dus dat is geen factor die je hoeft mee te nemen in de overweging om wel of geen DLSS te gebruiken.
DLSS gebruikt juist meer vram
Tenzij je dus 1080p speelt maar 4k beeldjes genereerd. Maar de 1080p met dlss upscaling gebruik dus meer ram als native 1080 zonder dlss. Maar 4k native nog meer dan beide eerdere scenarios.

[Reactie gewijzigd door SactoriuS op 3 februari 2025 08:20]

Hogere fps maar nog altijd even hoge latency. Dus je hebt er niets aan.
Dat is alleen bij framegen
Klopt, daar doelde ik op, dat is ook wat meestal bedoeld wordt met dlss4.

Ik ben wel benieuwd naar de betere kwaliteit van dlss4 door het gebruik van Transformers.
Is dat niet een beetje zoeken om je punt te maken? Je behaalt dan 46 fps op 1080p. Beter laat je raytracing gewoon uit. Zowel de 4060 als 3060 zijn simpelweg niet bedoelt voor 1080p ultra met ray tracing.

Hoe reëel is het überhaupt om te verwachten dat de goedkoopste kaarten alles op de hoogste details kunnen draaien? Dat kan alleen wanneer we een stagnatie van de game graphics hebben.

Uit de conclusie
Hardware Requirements
Without ray tracing, hardware requirements are pretty manageable, even at highest details. In order to reach 60 FPS at 1080p, Max settings, no RT, no upscaling, you need a RTX 3060 Ti, RX 7600 XT or RTX 4060.
Daar raden ze letterlijk drie 8 GB kaarten aan.

[Reactie gewijzigd door sdk1985 op 2 februari 2025 20:08]

Het punt is dat Nvidia achterblijft met VRAM. Niet een beetje, maar nu al heel erg beperkt. Zeker de budgetkaarten. En die zijn niet eens budget, je betaalt een premiumprijs voor te weinig VRAM. En dat zal ervoor zorgen dat deze kaarten over 3-5 jaar nagenoeg e-waste zijn als het aankomt op nieuwe games.
Op 1080p resolutie wel. Zeker voor de bedragen die ze er voor vragen.

En ja graphics stagneren een beetje omdat we alweer bijna 5 jaar op dezelfde console generatie zitten. Gebrek aan concurrentie voor nvidia enz.
Die stagnatie komt natuurlijk ook niuet helemaal uit de lucht vallen. Sony en Microsoft zijn natuurlijk al lang bezig met het ontwerpen van een nieuwe generatie. Maar onderdeel van de planning is ook een inschatting van de kosten. En blijkbaar kunnen Sony en Microsoft net zoals NVidia ook geen grote stappen maken. Het lijkt fundamenteel, en niet een NVidia-intern probleem.
Dat argument hoor je vaker (op tweakers), maar de realiteit is dat 8GB gewoon nog steeds de standaard is. De meeste verkochte kaarten hebben 8GB, en daar worden games op afgestemd, niet andersom. Dit was ook het geval toen de 3060 Ti (8GB) uitkwam, veel tweakers riepen dat het te weinig zou zijn en de kaart na een jaar al EOL zou zijn, maar in de praktijk draait alles er nog steeds prima op.
"Hoe reëel is het überhaupt om te verwachten dat de goedkoopste kaarten alles op de hoogste details kunnen draaien?". Als old skool, begonnen met Pong, tape, floppies kan ik je vertellen ergens is iedereen de marketing gaan geloven. Er is een periode waar je met de 'standaard' upgrade (betaalbaar) alles max kon spelen voor minimaal een tot drie jaar. Van af een bepaalde periode is men meer en meer gaan segmenteren, geen prijs reductie op voorgaande modellen. Tot het punt waarop de fans die grof geld hebben betaald hun aankopen online rechtvaardigen met feiten. De leeftijd van 14 tot 35 is de big spender groep. Dus ja, een paar euro meer op de kaart plakken, levert gelijk tientjes op. Zie aandeel Nvidia. Het is raar dat je een media set + console kan kopen voor 1 gpu kaart. Nog vreemder is om het normaal te vinden.
Ik denk dat je de periode vergeten bent waarbij we géén standaardisering hadden. Je moest op de achterkant bij elke game kijken of het bijvoorbeeld niet zo was dat 800x600 de minim resulotie was (age of empires), terwijl jij thuis een 640x480 monitor had staan. Of dat er meer dan 100MB opslagruimte nodig was terwijl jij een C schijf van 100MB had (Red Alert). Dat een bepaald soort videokaart was vereist of juist een soundblaster. Vroeger was de kans heel groot dat de systeem vereisten bepaalden of je een game uberhaupt kon opstarten.

Tegenwoordig start een game op elke pc op. Hoe meer je betaalt, des te hoger je frame rate.
Dat vind ik apart. Want ik heb van dat lijstje enkel Hogwarts Legacy gespeeld, maar volgens jouw stelling is dat op 1080p met laagste preset eigenlijk niet te spelen. En ik heb op '4k' (lees: DLSS upscaling) met redelijke presets gespeeld op mijn RTX3070. En wil ik zeggen was er geen enkele keer een stottertje? Nou het gebeurde, maar of dat VRAM gerelateerd was of niet weet ik niet, en het was echt helemaal prima te spelen.

Ik ben het ermee eens dat nu nog een 5060 uitbrengen met 8GB VRAM wel twijfelachtig is. Maar als ik het internet moet geloven is mijn RTX3070 hooguit nuttig als boekensteun nog, en verder een compleet waardeloos ding. En toch doet hij het prima. Ook bij nieuwere spellen zoals een Helldivers 2.
Hogwarts Legacy is één van die games waarover ik het had die bij tekort aan VRAM automatisch begint met lagere kwaliteit aan textures in te laden. Je moet maar eens in deze video van Hardware Unboxed de kwaliteit in textures tussen een GPU met 8 en 16 GB vergelijken: YouTube: 16GB vs. 8GB VRAM: Radeon RX 6800 vs. GeForce RTX 3070, 2023 Revisit
En dan zou hij dynamisch naar minder dan de laagste preset op 1080p gaan? Want je hebt een valide punt hoor, maar in het filmpje wat je linkt bekijken ze het op ultra quality en ray tracing high. Waarbij je je sowieso kan afvragen in hoeverre een 5060 dat trekt, maar het is dus zeker niet op laagste instellingen die je kan krijgen qua presets.

Nogmaals, ik vind 8GB ook niet bepaald iets om blij van te worden in 2025, ook bij een xx60 kaart niet. Maar het veranderd ook niet dat volgens 'het internet', ik zelfs op allerlaagste instellingen daar niet mee kan spelen.
Het is ook wel zo dat TPU (waar ik mijn VRAM cijfers vandaan heb gehaald) VRAM test met een RTX 4090, dus een kaart met 24 GB VRAM. En Hogwarts Legacy schaalt niet alleen settings naar lagere kwaliteit bij tekort aan VRAM, maar kan ook het omgekeerde doen indien er meer VRAM beschikbaar is dan nodig. Daarnaast wordt VRAM niet altijd direct leeggemaakt en afhankelijk van de test kan dat leiden tot een hoger VRAM verbruik dan strikt nodig.
Hoe betrouwbaar zijn de huidige reviews eigenlijk nog?
Als games zelf de settings gaan aanpassen, de gpu automatisch de resolutie verlaagd om dan te upscalen,... wat ben je dan nog aan het vergelijken?
Ik speelde Hogwarts op launch met een 3070 op 1080p dlss op quality en bij mij stoorde ik me flink aan de fps dips. (Raytracing stond uit) Wat ik toen deed was met dlss swapper de nieuwste dlss versie updaten. Dat werkte heel goed. Waarschijnlijk hadden de devs dit later ook door middel van een update gefixed.
Nou nee iemand die nu nog 8GB gaat speelt niet de nieuwste games. Backlog player barginbin gamer. Meer casual gamer. Meer retro . Indie games. 2d games.
Die vervangt 1060. Of eerder PC omdat na 7 jaar die 3de win versie te zwaar werd ivm sata hdd. En wat weinig sysmem.
Je zal verbaast zijn hoe een splinternieuwe pc met een oude videokaart nog goed werkt.
Mijn 1660super met een flinke oc pakt de meeste games nog erg goed op medium high settings. De tijd waarbij je constant een nieuwe videokaart nodig hebt om mee te kunnen gamen is voorbij. Je koopt minder goede specs maar kan met 8GB de meeste games op high ultra draaien.

Maar met 8GB zit je voorlopig nog wel goed. Zolang je binnen het geheugen blijft met je game heb je een rete strakke fps.

Laat ik het anders stellen, als ik een 8GB 1660super zou kunnen vinden zou ik die kopen.

Sowieso zijn hoge textures belachelijk als het gaat om geheugen gebruik. Morgen kunnen ze al textures uitbrengen waarvoor je 24GB nodig hebt. Het verschil zie je tegenwoordig vanaf medium/high niet meer.

[Reactie gewijzigd door StormRider op 2 februari 2025 14:24]

Die uitspraak wordt vaker gedaan dat high en ultra bijna niet van elkaar te onderscheiden zijn en in wat meer fast-paced kan je je gaan afvragen of je daar ook op let. Verwaarloosbaar maar wel bron-vretende instelling. Ik durf bijna zelfs te zeggen dat "ik draai 4k/ultra" voor de borstklopperij dan dat het praktisch toegevoegde waarde heeft.
Ik heb er eentje in mijn emulatiesysteem aan de TV zetten en de 1660super (icm Ryzen 5600X en 16Gb DDR4 3600 Mhz geheugen) presteert daar nog prima. (PS2/WII/Xbox in 4K) Maar het heeft dus 6Gb en mij zijn eigenlijk geen 8Gb versies bekend. Het was de laatste generatie zonder RTX dus het heeft iig geen extra geheugen nodig voor Raytracing, want dat ondersteunt het niet goed. Voor de lol ben ik er ook oa Halflife 2 4k in Bazzite gaan draaien en dat draait het ook iig prima.

[Reactie gewijzigd door AtariXLfanboy op 3 februari 2025 17:27]

Nou nee iemand die nu nog 8GB gaat speelt niet de nieuwste AAA(A) games.
Fixed. Er komen veel meer spellen uit die minder dan 8 GB aan VRAM gebruiken dan die meer nodig hebben.
Nog steeds niet fijn om €350 voor een nieuwe GPU te besteden om vervolgens nieuwe games niet te kunnen spelen. Hoe je het draait of keert, het is teleurstellend.
Je kunt de nieuwste games wel degelijk spelen, alleen niet op de hoogste settings en niet op 4K maar dat wist je al toen je een videokaart kocht van deze prijsklasse.
Zelfs op 1080p bij de laagste instellingen zijn sommige games niet speelbaar op een kaart van 8 GB VRAM.

Overigens, in een tijdperk waarin Intel als nieuwe speler op de markt een GPU kan releasen van 220 dollar met 10 GB VRAM en een andere GPU met 12 GB VRAM voor 250 dollar is het echt een zwaktebod van Nvidia om hun instapkaart die waarschijnlijk 300 EUR of meer zal kosten met minder VRAM dan hun instapkaart van 2 generaties terug had...
Zelfs op 1080p bij de laagste instellingen zijn sommige games niet speelbaar op een kaart van 8 GB VRAM.
Welke games zijn dit dan?
Nvidia zal als verweer kunnen bieden dat zij 8GB aan GDDR7 (op 28Gbps) gebruiken en Intel 10GB of 12GB aan GDDR6 (op 19Gbps). En dat zij een compressiealgoritme gebruiken waardoor je met 8GB meer kan dan bij vorige generaties. Het zou goed zijn dat zoiets vaker wordt meegenomen in de reviews om te bekijken hoeveel daarvan waar is.

[Reactie gewijzigd door jumbos7 op 2 februari 2025 22:25]

Geloof je dit echt zelf? Beetje kritisch zijn op marketing cool-aid kan geen kwaad...
https://www.techradar.com...s-calmed-some-of-my-fears

https://developer.nvidia....ered-graphics-innovation/

Laat het 50% overdreven zijn dan nog zit je met een 50% boost dus 16Gb als vergelijking.
Dan ben je weer van developers afhankelijk om het te implementeren. Nee danku. Nvidia moet gwn eens een deftige kaart uitbrengen.
dat doen ze toch,

je kunt een 5090 kopen veel deftiger kan het niet
Nee want de prijs is niet deftig
Allemaal een AMD kaart kopen (of niks) anders gaat Nvidia hier gewoon mee door.
Zijn AMD kaarten dan zoveel goedkoper en/of beter dan Nvidia kaarten? En voor welke doeleinden is dat dan het geval?
Nog steeds niet fijn om €350 voor een nieuwe GPU te besteden om vervolgens nieuwe games niet te kunnen spelen. Hoe je het draait of keert, het is teleurstellend.
Je kan zat nieuwe spellen spelen op een GPU van 350 EUR. Wellicht niet alle spellen, met name die brak geoptimaliseerd zijn. Niet iedereen is geïnteresseerd in AAA(A). Of een nieuwe GPU een teleurstelling is ligt aan wat je voorkeur heeft qua spellen en of je voldoende onderzoek hebt gedaan voordat je overging tot aanschaf.

[Reactie gewijzigd door The Zep Man op 2 februari 2025 21:51]

Juist daarom is het goed dat deze... prut... uit komt, als dit voor dat soort prijzen uitkomt hoop ik dat dit de markt een beetje destabiliseert en nieuw (en/of tweedehands) scherper wordt geprijsd.

Een ander iets zou kunnen zijn dat al die "8GB"-kaarten eigenlijk ook meer bestemd is voor de Aziatische markt en andere minder kapitaalkrachtige landen kan bedienen, even los van de "te weinig voor dat en dat type spel"-discussie.

Mogelijk ook dat er wat restpartijen kleinere gddr6 modules zijn waar men van af zou willen, dan is dit ook een manier.
Je bedoelt die AAA garbage? Zat nieuwe games die op een 1060 draaien hoor.
Ik betwijfel of je voor zulke games de processing power van een 5060 nodig hebt. Die mensen kunnen beter voor een rx 6600 o.i.d. gaan. In mijn optiek is het ook niet zozeer de 8GB zelf die het probleem is, maar de combinatie van die 8GB met de prijs en processing power van een 5060 die me niet logisch lijkt.
Zit met een RX 6650 XT OC en moest Cyberpunk onderklokken. Werkt nog steeds uitstekend.
Ik speel al die nieuwe games prima in 1440p op mn 3070ti met 8gb vram. Je hoeft niet altijd alles op ultra te draaien.
Is daar iets mis mee???
Aan de andere kant.... iemand die zo infrequent zijn kaart vervangt, kijkt misschien wel naar hoe lang de kaart redelijkerwijs mee kan...
Ik ben het type gamer dat je beschrijft en ben nu stilaan aan het kijken om mijn 4970k+GTX1070 te upgraden (het systeem is instaat om Tombraider of Assassin's Creed 1 op full hd met vol detail te draaien, maar dat zijn oudere spellen, en wellicht de laatste generatie spellen die dat systeem nog vlot aan kan) . Ik volg nu wel wat de discussies om te zien naar wat ik moet upgraden om weer goed te zitten voor de volgende 5 jaar - met mijn gebruik indachtig. :-)
nzall noemt enkele games die ik, als barginbin gamer, heb in mijn steamlibrary. Ik ben erg blij dat ik voor een relatief nette 300,- een B580 heb, want dit speelt een stuk beter dan mijn 6650XT die ik hiervoor had.
Ik verwacht dat in de toekomst de bigwig studio's doorgaan met games maken die 10gb+ nodig hebben, games die ik oppak wanneer of een sale gaande is, of de keys erg goedkoop zijn om welke reden dan ook.

Om mijn idee wellicht beter te verwoorden: Waarom minder eisen van een bedrijf dat de mogelijkheid heeft om beter te presteren? Wie heeft hier baat bij? Niet wij, de consument, zover ik zie.
Gelukkig hoef je het niet te kopen..
Ik vraag me altijd af in hoeverre games kunnen worden geoptimaliseerd om geheugen gebruik terug te dringen en hoe hard het echt nodig is om 8Gb of meer aan geheugen nodig te hebben.
Tjah, developers hebben niet oneindig de tijd om een game te maken. Meer met minder is vast mogelijk, maar dat gaat ten koste van tijd die ergens anders kan worden besteed.
Het is ook al heel lang duidelijk dat 8GB simpelweg niet meer genoeg is maar Nvidia blijft daar nu al vele generaties plakken.
Jammer want een hoop kaarten van NVIDIA zouden simpelweg beter zijn met iets meer VRAM zoals duidelijk is te zien wanneer de RTX 3060 12GB in sommige gevallen beter presteert dan een RTX4060 en RTX 3060 TI.
het gaat er meer om hoeveel jij ziet,

1080P heb je al een heel groot scherm nodig om high res textures te kunnen zien.

bij 4k wordt dat alleen maar groter.

Ik heb nog een 24" scherm dat 1900 resolutie draait. Ik zal nooit dat verschil zien dus boeit het ook niet en is 6Gb VRAM meer dan genoeg.
Er zit een ontzettend simpele reden achter de Beperkte VRAM van een gamers videokaart, zorgen dat men geen gamersvideokaarten voor LLM's kan gebruiken, want daar hebben ze heel veel duurdere kaarten voor. Daarom, geloof het of niet, zijn op dit moment de meest betaalbare opties om lokaal LLM's te draaien Apple computers die tegenwoordig behoorlijk snelle GPU's hebben die grote hoeveelheden unified memory kunnen gebruiken.
Klopt, Nvidia levert te weinig Vram bij de instapkaarten, maar AMD levert te zwakke ray tracing prestaties. (Wat echt een probleem begint te worden nu we steeds meer titels beginnen te krijgen waar ray tracing niet uit kan, zoals Star Wars Outlaws, Indiana Jones, Doom the Dark Ages en Assassin's Creed Shadows.)

In het verleden betaalden consumenten schijnbaar liever 50 tot 100 euro voor een Nvidia kaart met dezelfde prestaties maar wel acceptabele RT performance (misschien wel begrijpelijk, als je honderden euro’s uitgeeft aan een GPU wil je in waarschijnlijk ook de optie hebben om wat moderne effecten aan te kunnen zetten). Ergo bijna 80% marktaandeel voor Nvidia…

Maar anno 2025 wordt ook dat lage Vram een probleem en heb je als consument die opzoek is naar een instapkaart eigenlijk geen goede optie als je ook de nieuwste games wilt spelen…

Hopelijk komt Intel met een verassing, of misschien presteren de aanstaande AMD mid range kaarten wel fatsoenlijk op het vlak van RT… Ik hoop het want Nvidia heeft duidelijk concurrentie nodig.
De zwakkere RT prestaties van AMD vallen enkel op in games die zeer zwaar hierop leunen. In veredelde tech demo’s als Cyberpunk zie je dat AMD zwaar lijdt, maar ook wanneer RT verplicht is, betekent het niet automatisch dat het op een manier aanstaat die de prestaties volledig in doet kakken.

Sterker nog RT stuwt ook de VRAM eisen omhoog. En laten het nu net de 8GB Nvidia kaarten zijn die hun RT stokpaardje niet uit kunnen spelen in Indiana Jones, juist om die reden.
In elke game die ray tracing gebruikt, zakken de prestaties van AMD-kaarten significant in. Sterker nog, wanneer RT in de mix zit, veranderen de verhoudingen. Een RX 6800 concurreert in Cyberpunk met ray tracing (niet eens path tracing) in dat geval niet met een RTX 3080, en zelfs niet met een RTX 3070, maar met een RTX 3060, bijvoorbeeld.

Games leunen steeds vaker en steeds zwaarder op RT. Sterker nog, in de set games die ik hierboven heb genoemd, is het niet eens meer optioneel. Daarmee wordt het spelen van nieuwe games een steeds groter probleem. Hetzelfde geldt inderdaad voor het VRAM-gebrek bij Nvidia, dat wordt ook een steeds groter probleem.

Ik hoop dat de aankomende AMD-kaarten betere prestaties zullen bieden wat betreft RT, óf dat ze significant goedkoper zullen zijn dan het Nvidia-alternatief. (Dus niet slechts 50 tot 100 euro, want dat zet duidelijk geen zoden aan de dijk; bijna 80% van de consumenten kiest dan nog steeds voor Nvidia in het dedicated GPU-segment.) Anders zie ik het somber in

[Reactie gewijzigd door DLSS op 3 februari 2025 00:01]

Nee, dat is nu net het punt.

https://www.techpowerup.c...rformance-analysis/4.html

Er zijn games die gebruik maken van RT op een manier die niet enkel op Nvidia nog halfweg acceptabel draait. Dat RT verplicht is, betekent dus ook niet per sé dat AMD als merk afgeschreven kan worden.

Indiana Jones draait ook gewoon goed op AMD hardware. Als je graag meer concurrentie wilt zien op de GPU markt, is het belangrijk wel genuanceerd te blijven.
De resident evil implementatie is zeer minimaal, dat is waarom je een minimaal effect ziet. Simpel gezegd, er is weinig RT dus je bent ook gewoon weinig RT aan het testen. Dat dan het verschil met geen RT kleiner is, is logisch. En zelfs dan zie je AMD kaarten inzakken.

(Dit is trouwens ook het type implementatie dat RT een slechte naam bezorgt. ‘’Ik zie geen verschil’’. Soms denk ik dat developers dit doen om maar het vinkje’ RT te kunnen hebben)

Ik denk dat je met een gerust hart kan zeggen dat, voor wat betreft future proofing, de AMD RX6000 en 7000 kaarten een groot probleem hebben met nieuwe en aanstaande RT only games.

(Overigens zakken de AMD trouwens ook gewoon flink in bij Indiana Jones, voor wat ik zie. De RX 7900XTX haalt bijvoorbeeld met moeite een RTX 3080 in bij 4k. De resolutie waar je zo’n kaart voor koopt)

AMD heeft iets meer dan 20% marktaandeel in de dedicated GPU markt. Denk je dat dit, bij een gelijke situatie, beter of slechter wordt nu games steeds meet op RT leunen en er opeens zelfs games opduiken waar het niet meer uit kan?

Dus moet AMD óf kaarten introduceren die wel fatsoenlijk mee kunnen komen in moderne games met moderne effecten óf zeer goed geprijsd zijn. Zó goed dat de consument ze niet kan laten liggen voor het Nvidia alternatief.

Wat mij betreft is de laatste optie het tofst, dat zou misschien ook de drempel tot PC gaming wat verlagen. Vraag bijvoorbeeld $400 voor de RTX 5070 (die $550 gaat kosten) concurrent.

Als het straks $450 of $500 wordt zou ik er niet gek van opkijken dat weer 80% van de consumenten voor Nvidia gaat. (Zeker nu RT een grotere factor aan het worden is). En dat moeten we eigenlijk niet hebben vind ik.

Maar goed, ik heb goede hoop voor RX 9000, het gerucht gaat dat RT beter is. Misschien kan er een mooi prijs/prestatie mix uit komen.

[Reactie gewijzigd door DLSS op 3 februari 2025 14:15]

Ik haalde Resident Evil ook expliciet aan, om dus duidelijk te maken dat er geen relatie hoeft te bestaan tussen of RT verplicht is of niet, en in hoeverre dit de prestaties beperkt. Men kan het bij een RT GI implementatie houden om de moeite van alternatieve belichting te kunnen sparen, zonder dat men zich verder druk maakt om volledige path tracing en dergelijke.

De 7900 XTX merkt natuurlijk in Indiana Jones de impact van RT, maar deze doet nog gewoon 60fps+ op een resolutie van 2160p, zie ook: https://www.pcgameshardwa...rks-Test-Release-1461366/

Wordt deze hier ingehaald door de 4080 Super, ja. Is de 4080 Super significant duurder, ook ja.
De 6000 serie gaat het natuurlijk lastig krijgen, de lagere 7000 serie zal de impact ook vast merken. Maar die zijn voor de komende jaren niet meer van relevantie, de vraag is dus at de 9000 serie gaat brengen, voor AMD.

Daarnaast zal het natuurlijk ook in AMD's voordeel werken dat ze de console hardware leveren. Er zal dus altijd een RT-light setting ontwikkeld moeten worden, om games op de Playstations en Xboxen speelbaar te houden. Ik denk dus dat de RT soep zeker niet zo heet gegeten zal worden. Maar wederom, ook daar zal je met toekomstige 8GB Nvidia GPU's dus eveneens tegen beperkingen aan kunnen gaan lopen, die dus technisch gezien de RT wel kunnen trekken, maar daarbij hun videobuffer doen laten overlopen.
Dus moet AMD óf kaarten introduceren die wel fatsoenlijk mee kunnen komen in moderne games met moderne effecten óf zeer goed geprijsd zijn. Zó goed dat de consument ze niet kan laten liggen voor het Nvidia alternatief.
AMD hééft kaarten die fatsoenlijk meekomen in moderne games. Men moet alleen de fixatie op 4K / Max / RT even laten gaan, iets wat sowieso alleen prettig is op Nvidia GPU's in een prijsklasse waarin AMD niet eens GPU's aanbiedt.

De door jou aangehaalde 3090 Ti presteert overigens op het niveau van de 7900 XT (op 1440p ultrawide), en is op 2160p zo'n 11% sneller dan de 7900 XT, maar nog altijd een krappe 5% langzamer dan de 7900 XTX. De 3080 Ti is in alle scenario's langzamer, en de reguliere 3080 is er niet meegenomen. Misschien is het de moeite waard ook meerdere bronnen te bekijken?

Kijk je een klasse lager, daar zie je een 4060Ti tussen de 400 en 500 Euro in de Pricewatch staan. De gelijkgeprijsde 7800 XT speelt Indiana Jones met 20% hogere framerates, ondanks dat RT verplicht is.

Maar zolang de massa volhoudt dat het zonder DLSS en max RT geen fatsoenlijk gamen is, graaft men toch echt collectief z'n monopoliegraf en kiest men blind voor het gelijkgeprijsde (maar minder presterende) of duurdere Nvidia equivalent, omdat iedereen elkaar maar naroept.

[Reactie gewijzigd door Cid Highwind op 3 februari 2025 14:30]

k haalde Resident Evil ook expliciet aan, om dus duidelijk te maken dat er geen relatie hoeft te bestaan tussen of RT verplicht is of niet, en in hoeverre dit de prestaties beperkt.
Mijn punt is dat RE nauwelijks RT toepast. Dat de impact daarbij minimaal is, is logisch. Je bent namelijjk niet echt RT aan het testen.
De 7900 XTX merkt natuurlijk in Indiana Jones de impact van RT, maar deze doet nog gewoon 60fps+ op een resolutie van 2160p, zie ook: https://www.pcgameshardwa...rks-Test-Release-1461366/

Wordt deze hier ingehaald door de 4080 Super, ja. Is de 4080 Super significant duurder, ook ja.
Je moet ook even kijken naar de settings van de benchmark die je bekijkt: Vulkan, -no Path Tracing-, max. possible Texture Pool Size, TAA - Dit is zonder path tracing met max texture pool size, dus best case scenario voor AMD en worst case scenario voor Nvidia. (en dan nog zit de 4070ti de 7900XTX op de hielen. 1,8 fps verschil. En die kaart is goedkoper dan de 7900XTX)

In de 4k benchmarks die ik tegen ben gekomen (ook zonder path racing overigens, dus nog steeds gunstig voor AMD) wordt de 7900XTX niet alleen ingehaald door de 4080S, maar ook door de 4080 en zelfs door de 4070ti S. En eerlijk gezegd is deze game alsnog een van de best case scenario's voor de 7900XTX.
Maar zolang de massa volhoudt dat het zonder DLSS en max RT geen fatsoenlijk gamen is, graaft men toch echt collectief z'n monopoliegraf en kiest men blind voor het gelijkgeprijsde (maar minder presterende) of duurdere Nvidia equivalent, omdat iedereen elkaar maar naroept.
Hier ben ik het niet mee eens. Nogmaals, als je honderden euro's uitgeeft aan een nieuwe videokaart, mag je best verwachten dat je nieuwe games kunt spelen met de nodige toeters en bellen. De meeste mensen kopen geen splinternieuwe kaart voor honderden euro's om oude games te spelen.

En ja, DLSS is nu eenmaal een stuk beter dan FSR. Dat is ook een nadeel voor AMD. Maar ook hier heb ik goede hoop. Digital Foundry had een initial impression en was redelijk onder de indruk. Ze verwachten niet dat het de kwaliteit van DLSS zal halen, maar wel dat het flinke stappen vooruit maakt.

Het is niet mijn intentie om AMD te bashen; sterker nog, ik heb jarenlang AMD-kaarten gekocht. Als AMD een betere kaart neerzet dan Nvidia, koop ik 'm meteen, zelfs als die wat duurder zou zijn (zoals Nvidia nu). Ik hoop juist dat ze stappen zetten om Nvidia eens het vuur aan de schenen te leggen.

Ik ben het spuugzat dat we generatie na generatie geen echte keuze meer hebben in het high-end segment en ik ben het spuugzat dat instap kaarten generatie op generatie veel te duur zijn (AMD kruipt niet in het gat) Ik wil dat de drempel lager wordt, niet hoger. Intel maakt mooie stappen, misschien dat zij dat segment met hun derde generatie kaarten kunnen vullen (als er een volgende generatie komt).

Maar het valt moeilijk te ontkennen dat AMD-kaarten gewoon niet goed meekomen met moderne features zoals RT (je moet serieus actief zoeken om voorbeelden te vinden waar het 'een beetje meevalt'. Ze doen het overal slechter, de vraag is alleen nog hoeveel slechter) en dat wordt een steeds groter probleem in de toekomst.

Zelfs nu kiest de consument al massaal voor de kaart met de betere feature set, betere upscaling en betere RT-prestaties. Die zaken zijn nu eenmaal relevant in moderne games. Ik hoop dat AMD de strategie aanpast want met dezelfde strategie zou het niet gek zijn als ze wederom geen deuk in een pakje boter slaan op de dedicated GPU markt.

[Reactie gewijzigd door DLSS op 3 februari 2025 15:49]

Indiana Jones is vooral een interessant voorbeeld omdat het dus een game betreft die wél RT verplicht stelt, maar waarbij AMD dus niet compleet het onderspit delft.

Je haalt de 4070 Ti aan, maar dat is dus ook een GPU die reeds 900-100 Euro kost. Even duur dus als een 7900 XTX. Vandaar dat ik dus aandraag dat het een misverstand is dat AMD geen competetief aanbod heeft. Ook uit de door jou aangehaalde test kan ik niet afleiden dat AMD geen attractieve kaarten in het gamma heeft. De 7900 XTX en 7900 XT lopen netjes in de pas met Nvidia wanneer je naar prijs/prestaties kijkt. De aan de RTX 4070 gelijk geprijsde 7900 GRE presteert ook niks beter. Al kan je daar de beeldkwaliteit van DLSS nog opvoeren als verkoopargument.

En kijk je naar alles van de Radeon 6800 en sneller, kan je vaststellen dat die op 1440p ook nog steeds op native resolutie, ultra settings, de game met ruim meer dan 60 fps draaien. Ook gewoon meer dan acceptabel.

Terug naar de resultaten van PCGH, ja, dat mag dan in een gunstig scenario zijn, maar het is eveneens een realistisch scenario. Als je verder scrollt hebben ze dus ook nog de path tracing test. Alleen op 1080p is dat speelbaar met een 4070Ti Super of sneller. Een 3090 Ti is ook op 1080p al geen speelbare optie meer. En dat is reeds met DLSS Quality.

Ik kan RT prestaties dus niet werkelijk als verkoopargument zien voor dit segment GPU's en dus ook niet om Nvidia boven AMD te prefereren. Of het is dusdanig licht dat AMD niet te sterk benadeeld wordt. Of het is dusdanig zwaar dat ook de lagere Nvidia GPU's er niks mee kunnen. Ze zijn dan in de basis al te langzaam voor de volledige featureset, en de 8GB VRAM zal een verdere nagel in de RT kist zijn.

Het feit dat een 4060 alsnog massaal verkocht wordt is niet omdat dit zo'n geweldige GPU is, maar simpelweg omdat men een Nvidia GPU wil. Net zoals men lange tijd blind een Intel CPU heeft gekocht. Onbekend maakt onbemind, en niet iedereen zit dusdanig diep in de benchmarks als jij en ik :)

Ik deel je hoop dat AMD deze mindset inderdaad kan draaien met hun nieuwe upscaler. Beeldkwaliteit is belangrijk, bij iedere review te moeten horen dat de prestaties wel in orde zijn, maar dat FSR ondergeschikt is aan DLSS, waar de laatste wél op native lijkt, terwijl FSR met shimmering en alles te maken heeft, dat doet gewoon pijn als je graag gezonde concurrentie wilt zien.

[Reactie gewijzigd door Cid Highwind op 3 februari 2025 16:08]

Ik vind dit een erg leuk gesprek, haha 😛.

Laten we het erop houden dat we allebei hopen dat AMD (en Intel) meer marktaandeel gaat pakken, het instapsegment voordeliger wordt en het high-end segment meer keuze gaat bieden.

Ik lees mooie dingen over de RX 9070-kaarten… Ik hoop echt dat ze dit keer iets aan die prijs gaan doen. Ongeacht de oorzaak van de marktverhouding (en dat is echt niet alleen de naam die Nvidia heeft opgebouwd), is het prijsverschil te klein bij de 7000-serie. Dit is de uitgelezen generatie waarin ze Nvidia kunnen pakken in de mid-range, en misschien kan de volgende generatie dan het high-end segment aanvallen
Dat gebeurt wel eens, wanneer het er niet om gaat gelijk te krijgen, maar het gewoon over gedeelde interesses te hebben. Heb ook de waarheid niet in pacht, maar hoop dat meelezers in ieder geval wat met onze informatie kunnen, alleen daarom is het me een dergelijk gesprek / discussie al waard :)

De 9070 serie klinkt enorm veelbelovend. Het enige wat AMD verkeerd kan doen is eigenlijk de prijs. FSR waardeer ik als initiatief, het zal ongetwijfeld ook een goede basis hebben gevormd voor hun nieuwe techniek, of in ieder geval voor veel kennis gezorgd hebben. Maar Nvidia heeft wel aangetoond dat hun DLSS en de achterliggende insteek gewoonweg niet te kloppen zijn.

Jammer dat we nog even geduld moeten hebben, ik ben weliswaar niet in de markt voor een nieuwe GPU, maar het is een interessante markt :D
Wat bedoel je precies met meer dan 8 GB VRAM nodig hebben? Ik zie genoeg gamers die het prima lukt om de spellen die je noemt op een videokaart met 8GB VRAM te spelen op hogere settings en resoluties dan 1080P en met 60FPS+ framerates.

Nvidia claimt overigens dat VRAM op de 5000-series efficiënter wordt ingezet door de AI texture compression, al moet maar blijken hoeveel het in de praktijk scheelt.
In order to get more out of the available VRAM, RTX Neural Texture Compression uses compression (obviously enough) to fit more game textures into the RAM on the graphics card.

Here’s the key boast from Nvidia: “The neurally compressed textures save up to 7x more VRAM or system memory than traditional block compressed textures at the same visual quality.”

https://www.techradar.com...s-calmed-some-of-my-fears
NIET waar. Ik heb met een 4060 8gb prima Indiana jones gespeeld op een prima (90+) fps gespeeld met echt prima settings (niks ingesteld, zag er prachtig uit).

Forza 5 is tot nu toe de enige game waarbij ik echt een optie niet kon selecteren.
Er zijn alternatieven maar op de een of andere manier wil niemand een kaart van AMD.
En dan ook, als je deze games zou willen spelen zou ik sowieso geen instapkaart in mijn pc doen.
Ik speel Avatar FOP op een 4060 (2560x1080) en dat werkt als een tierelier?
Jedi Survivor loopt prima op m'n 2080 Super met 8GB..op 1440p..
Sorry dat is gewoonweg niet juist. Zowal al die gales zitten op lager dan 8gb vram op 1080p als je settings aanpast.

Je kan dat zien doordat zelfs met die ze veel sneller blijven dan oudere kaarten met meer vram.
Ik heb Resident Evil 4 op een HD7970 met 3GB uitgespeeld (omdat het kon) :P
Na 7 jaar gaan we dus van een 1060 gtx 6GB naar een 5060 met 8GB. Dan zijn we niet echt opgeschoten. :'( Maar inmiddels gaat mijn 1060 wel bijna met pensioen. :)
Inderdaad 6GB GDDR5 is natuurlijk geen verschil met 8GB GDDR7. :+

Om even een vergelijking te geven. GDDR5 is 5 gbps, terwijl GDDR7 28 gbps is. Toch een behoorlijk verschil en toch een vooruitgang.


Om alleen over vram te praten, geeft een vertekend beeld. Je mag er ook best wel bij posten om welk soort vram het gaat. Je kunt een GPU niet alleen beoordelen op vram. Sterker nog, andere specs zijn net zo belangrijk of zelfs nog belangrijker, afhankelijk van de software dat je gebruikt.

Ik hoor niemand praten over de kloksnelheid, cuda cores, tensor cores, Ray tracing cores, shading units, textures mapping units etc. De GTX series heeft nog niet eens cuda of Ray tracing cores.

Ook nieuwere software matige toepassingen wordt niet ondersteund door de GTX series. Om te zeggen dat we niet echt zijn opgeschoten door alleen vram erbij te betrekken, geeft echt een vertekend beeld.

[Reactie gewijzigd door Toonen1988 op 2 februari 2025 13:39]

Leuk verhaal, maar dit voelt als excuses zoeken voor NVIDIA. Het maakt namelijk helemaal niets uit welk VRAM het is als je te weinig hebt, en daar doelt Mol natuurlijk op. Het is gewoon sneu dat de 5060 nog steeds 8GB VRAM krijgt, het soort is irrelevant voor het gestelde probleem.

Overigens schijnt micron 3GB GDDR7 modules te gaan maken, dus op zich zou NVIDIA best een 12GB 5060 kunnen maken op een 128bit bus.

[Reactie gewijzigd door Thekilldevilhil op 2 februari 2025 13:49]

Apart dat een GTX 1080 (8gb) beter presteert in rasterisatie zonder upscaling technieken tegen een RTX 3060 (12gb).

Apart dat een GTX 4080 (16gb) de RTX 3090 (24gb) er compleet uitduwt. Dit heeft toen ter tijd ook veel ophef gezorgd bij Nvidia.

Het draait niet alleen om het vram, maar ook om andere specs. Dit zijn geen excuses, maar gewoon de waarheid. Ik snap best dat het aantal vram GB kan tegenvallen, en dat heb ik bijv. met de RTX 5080, maar het draait niet alleen om het geheugen.

Het kan best wel eens zo kunnen zijn dat 8gb GDDR7 makkelijk spellen kunnen draaien die 12gb vragen, wegens de hogere snelheid van 28gbps.

Het kan misschien ook zo zijn dat 12gb of 16gb GDDR7 gigantisch de prijs omhoog gooit voor een instap model. We praten hier ook over een compleet nieuwe generatie vram.

[Reactie gewijzigd door Toonen1988 op 2 februari 2025 14:11]

Klopt, de GPU zelf is altijd leidend. Bovendien kan je in een Vram heavy scenario meestal het probleem in 5 minuten oplossen door textures een tandje lager te zetten.

Maar het schijnt (volgens de poster bovenaan dit bericht) dat er inmiddels games zijn waarbij je zelfs op low setting de barrière van 8gb overschrijdt. Dán is het natuurlijk wel een issue.
Als je nieuwe games speelt met die 1060 is dat inderdaad wel nodig want steeds meer games kan je niet meer draaien zonder ray tracing. Maar als dat niet het geval is en je niet op de hoogste settings speelt kan die 1060 toch nog wel mee? Of wat is de reden dat je wil upgraden?
En een 5060 gaat vele malen sneller zijn, geen idee wazrover je klaagt.
Als ik het mij goed herinner, bestaat er geen 1060 Ti, omdat de 1060 voor toendertijd "erg veel ram" kreeg, namelijk maarliefst 6GB, teveel voor veel games van toendertijd, waarmee het als het ware de 1060 Ti representeerde. Wellicht daarom eerlijker om de 1060 (Ti) nu te vergelijken met de 5060 Ti :)
Als de 5060 Ti 16GB geheugen krijgt snap ik nog steeds niet waarom de 5070 nog steeds maar 12gb krijgt :'(
Smallere geheugenbus vaak en mss zelfs niet eens gddr7….
Planned obsolescence en Moore's law maken het steeds moeilijker om meer prestatie uit een chip te halen. Deze generatie biedt een boost van 10-15%, wat nog steeds erg goed is. Dus ja, als je binnenkort maar 5% betere prestaties krijgt, zullen mensen waarschijnlijk geen nieuwe kaart kopen, tenzij iets begint te limiteren, bijvoorbeeld als VRAM niet meer genoeg is om toekomstige taken goed uit te voeren. In dat geval moet je upgraden, zonder keuze.

Edit Vram

[Reactie gewijzigd door Eren op 2 februari 2025 14:01]

... bijvoorbeeld als NVRAM niet meer genoeg is om toekomstige taken goed uit te voeren.
NVRAM = non-volatile random-access memory
VRAM = video random-access memory (en is waar je te weinig van kan hebben op je videokaart)
Dat wordt bepaald wat mainstream is. Voor games is dat consoles.
Die hebben een 30 60 max 120fps omdat PS5 en de pro 16GB UMA +/- 500GB/s
En PC volgt. Recommended spect is meer 1080p 60fps medium/high.
En dan is 12GB g-kaart zat. Uitgezonderd ruk ports. Of ver-edelde tech demo games.
En mod heavy games.
Ruk ports is niet nv probleem
Veredelde tech games pushen gpu hardware. Misschien nv langs geweest is. Wel hun probleem.
Mod heavy games is dat modders zelf het high-end pc top-end g-kaart gebruikers zijn.
Deze generatie biedt een boost van 10-15%, wat nog steeds erg goed is.
De doctrine heeft effect gehad.
verkrijgbaar! Yea right xD

het ging ook zo goed met RTX 5080/5090 |:(
Ik ben benieuwd of ze alle 10 examplaren die daarwerkelijk beschikbaar zijn ook deze keer 1 uur voor de verkoop start al verkocht hebben, voor een veelvoud van de waarde. Of misschien zijn er deze keer veel meer exemplaren beschikbaar - misschien wel dubbel zo veel?

[Reactie gewijzigd door rboerdijk op 2 februari 2025 11:45]

Komen in maart verkrijgbaar? 🥹
Jaja, Nvidia speelt weer een leuk spelletje.
Eerst foutieve statements maken over de performance van de 5xxx series t.o.v. 4xxx, dan als diverse reviewers en techneuten erop induiken, blijkt dit niet zo te zijn. Grafiekjes worden bij Nvidia weer aangepast. Vervolgens is er op social media behoorlijk wat negativiteit over de wijze waarop Nvidia dit heeft gebracht en branden de kaarten af. Er lijkt een grotere interesse te onstaan in de oudere 4xxx range (waar Nvidia mee gestopt is te produceren) en AMD.
Vervolgens zou de 5090 en 5080 o.a. al in de VS te krijgen moeten zijn voor die mooie adviesprijzen, maar de shipment is ontzettend laag! veel lager dan logisch, gezien de chips op hetzelfde procede van de 4000 series wordt gemaakt. Die overgang zou dus niet zo drastisch zijn.
Het lijkt er meer op dat Nvidia doet lijken alsof er veel vraag is naar de 5000 series en vervolgens wordt die lage adviesprijs keihard opgedreven.

Verder ook nog de scalpers waar echt niets aan gedaan wordt.
Nvidia echt stop die kaart maar in een diep donker gat.

Ik zat echt uit te kijken naar de 5xxx series, maar dit soort geintjes doen me eerder een AMD kaart kopen.
Ik sla de 5000 serie over. Erg teleurgesteld in de 5080. 16 gb vram? mwueh. Ga wel wachten op de 6000 serie. Tot die tijd kan m'n 3080 nog wel even mee.
Beschikbaar? Wahahahahaha!
Ik ben in de markt voor een nieuw systeem, ik vraag me af er voor rond de 300 euro iets komt met 16gb ram want voor minder ram blijf ik liever met onboard aan klungelen, Want 8gb is niet meer van deze tijd. Veel meer geld besteed ik liever aan andere upgrades voor het systeem gezien nieuwe games spelen niet het primaire doel gaat zijn.

Misschien een paar gerenaties over slaan als de corona prijzen weer gedaald zijn.
Een tweede hands RX6800 is de killer choice voor rond dat bedrag. Mogelijk enkele tientjes meer tellen.
Het nadeel van bij miners populaire videokaarten (ik weet niet zeker of dat RX6800 ook is?) lijkt dat dus de tweedehands markt na een paar jaar overspoeld wordt met deze kaarten en is dus de restwaarde sneller minder als bij andere videokaarten? Nou vind ik sowieso 2e hands hardware veel te duur geworden, maar dat is een ander probleem.
Ik ben de laatste 10 jaar elke upgrade (beetje rekening houdend met inflatie) nog verdubbeld in prestatie tov prijs. Ruwweg was dat zo van GTX960, GTX1660S, naar RTX4060. 5 a 6 jaar lijkt een goede 'gebruikstijd' te zijn, maar ook erna heb ik voor beide weer een eigen toepassing gevonden (Iemand nog belang bij een 650ti? ;) )

[Reactie gewijzigd door AtariXLfanboy op 3 februari 2025 03:21]

Misschien een paar gerenaties over slaan als de corona AI prijzen weer gedaald zijn.
16 gig vram onder 300 eu ziek niet snel gebeure, zeker als de 5060ti ook gddr7 krijgt. maar je had de 3060 12gig, 4060ti 16gig, allemaal net ff iets duurder, maar ik zou daadwerkelijk kijken ipv enkel weer klagen want meer dan 8 gig vram, als dat een vereiste is, is toch echt te vinden.
als je persee 16gig wil, dat kan vanaf 320 euro bij team blauw of rood...

categorie: Videokaarten
Intel B580 is een goede, wel 12GB maar dat is voor de meeste games prima om op 1440p te spelen.

Anders even de 9070(XT) release afwachten, kan best zijn dat de 7800XT, 7900GRE en 7900XT in prijs gaan dalen door die release, dat zijn overigens ook prima kaarten.
Intel is wat mij bereft de grote verassing in het instapsegment. Ze hebben flinke stappen gezet ten opzichte van de voorganger. Hopelijk gaan ze voor een derde generatie waar ze misschien nvidia en amd het vuur echt aan de schenen kunnen leggen…
In welke resolutie game je dan? Voor 1080p of 1440p met dlss is 8gb genoeg hoor
Op 1440, maar met mijn huidige systeem met onboard gpu van 9 jaar terug kan loop ik er tegen aan dsg games niet meer werken (cities skyline bijvoorbeeld)

Als ok een nieuwe gpu neem moet die ook wel lang mee kunnen gaan, over 5 jaar zou ik nog games , al dan niet op low settings willen spelen. Dus meer dan 8gb ook vooral vanwege langere bruikbaarheid van de kaart.
dat is een xx060 of equivalent van amd en gelijk hoeveel vram 1440p de volgende 5 jaar nieuwste games native zit er niet in voor 300 euro. Je zal dus op zaken als dlss en fsr moeten rekenen.

Op dit item kan niet meer gereageerd worden.