Door Reinoud Dik

Redacteur

Zelfs Nvidia wil geen test van deze gpu

GeForce RTX 5060 Review

21-05-2025 • 16:10

184

Singlepage-opmaak

Conclusie

Bij de conclusie van de RTX 5070-review schreef ik dat de vooruitgang van de RTX 50-serie ten opzichte van hun voorgangers steeds minder indrukwekkend wordt naarmate je lager kijkt in Nvidia's portfolio. Met de RTX 5060 zijn we aan de onderkant van de RTX 50-serie aangekomen en hier bewijst deze kaart niet helemaal te voldoen aan de genoemde regel. De 5060 is zonder raytracing 22 tot 24 procent sneller dan de RTX 4060 en 12 tot 21 procent sneller met raytracing ingeschakeld. Dat is een wat grotere sprong vooruit dan de RTX 5070 en 5060 Ti maakten ten opzichte van hun voorgangers.

Positief nieuws dus voor het instapsegment, want voor de prijs van een RTX 4060 krijg je nu RTX 4060 Ti-prestaties. Deze vooruitgang laat echter vooral zien hoe karig de RTX 4060 met zijn AD107-gpu eigenlijk uitgerust is. De chip van de RTX 5060 bevat zelfs in zijn deels uitgeschakelde vorm nog 25 procent meer rekenkernen dan de RTX 4060 en de geheugenbandbreedte is met bijna 65 procent toegenomen. Vanaf zo'n matig referentiepunt als de RTX 4060 is elke verbetering al snel noemenswaardig, maar de RTX 5060 blinkt nergens in uit als je de specificaties in het achterhoofd houdt.

In de specificaties is de hoeveelheid videogeheugen een heikel punt, want deze bedraagt slechts 8GB. In 2025 is deze hoeveelheid vram lastig te bestempelen als toekomstbestendig. In onze testresultaten geeft Doom alvast een voorproefje van hoe dat er op termijn in steeds meer games uit zal gaan zien. Alle 8GB-kaarten gaan met raytracing ingeschakeld onderuit in dit spel, inclusief de RTX 5060 en 5060 Ti. De ruim vier jaar oude RTX 3060 met 12GB geheugen is dan plotseling sneller dan zijn opvolgers. Een gemiddelde prestatiewinst van 30 tot 50 procent voor de RTX 5060 ten opzichte van de RTX 3060 klinkt dus goed, maar moet gepaard gaan met de toelichting dat een vram-gebrek desastreus is voor hoe vloeiend en speelbaar een spel kan aanvoelen.

Nvidia's houding tegenover de techpers bij de introductie van de RTX 5060 is jammer en ook onnodig, want de nieuwe GeForce presteert in zijn segment gemiddeld genomen niet onaardig, met de besproken beperkingen in het achterhoofd. Voor de adviesprijs van 324 euro heeft de RTX 5060 namelijk ook pluspunten, zoals de hoge efficiëntie en features zoals de kwalitatief goede upscaling die DLSS biedt en de ondersteuning voor multiframegen. Voor nu is het nog even wachten wat concurrent AMD met zijn recent aangekondigde Radeon RX 9060 XT gaat doen, die wat betreft prijs lijnrecht tegenover de RTX 5060 wordt neergezet en op 5 juni uitkomt. Daarvan lees je uiteraard ook op Tweakers weer een review.

Redactie: Reinoud Dik Testlab: Joost Verhelst Eindredactie: Marger Verschuur

Reacties (184)

184
181
72
8
0
96
Wijzig sortering
Naar verluidt zijn enkele techpublicaties wél benaderd door Nvidia om al eerder met de RTX 5060 aan de slag te kunnen, maar daarbij zouden restricties gelden op wat er wel en niet getest en gepubliceerd mocht worden. Zo zou er enkel getest mogen worden op 1080p Ultra met raytracing, upscaling én multiframegen ingeschakeld. Ook zou de RTX 5060 enkel vergeleken mogen worden met de RTX 3060 en RTX 2060, terwijl AMD-kaarten niet zouden zijn toegestaan in de vergelijking.
Vind dit wel echt kwalijk. Dit soort eisen opleggen aan onafhankelijke review sites is gewoon machtsmisbruik. "Eerder reviewen mag, maar alleen onder onze voorwaarden anders krijg je geen review exemplaar". Top dat Tweakers hier niet aan meewerkt, en wederom bevestiging dat Nvidia geen sympathiek bedrijf is. Mijden die partij wat mij betreft.
Voor expliciete claims van een techpublicatie, hier is een video van Gamers Nexus waarin ze claimen dat Nvidia dreigt met het stoppen van het leveren van reviewmodellen en andere samenwerkingen als ze niet bepaalde aspecten in hun reviews doen (zoals het meer promoten van framegen, door bijvoorbeeld niet-framegen vergelijken met framegen resultaten).
Yariva Moderator internet & netwerken @Decimae21 mei 2025 17:03
Even los van of technisch het product wel goed is (mijn mening: nee. De 8GB is een te grote bottleneck over de levensduur van deze kaart en zie die straks maar eens 2dehands te verkopen) moet je als consument nu wel echt even 2x achter de oren krabben voordat je een Nvidia product koopt. Dit soort gedrag kan en wil je toch niet belonen. Moet je eens opletten wat voor smerige trucs ze dan gaan uithalen met de 6000 serie.

Intel, AMD en NVIDIA zijn allemaal bedrijven die geld willen zien. Dat begrijp ik. Maar inmiddels kan je je toch niet meer blind staren naar de feiten die op tafel liggen. Nvidia laat hier de allergrootste middelvinger ooit zien naar consumenten en reviewers. Ondertussen timmert AMD aan de weg met hun nieuwe range aan GPU's in de 9000 serie, FSR welke open source is in plaats van de tegenhanger van Nvidia, FSR 4 welke nu daadwerkelijk goed te gebruiken is in tegenstelling tot 2 en 3 en een comeback in raytracing prestaties.

Mijn punt is: ik snap heel goed dat je aan Nvidia vast zat wanneer het om performance ging. Tuurlijk, je had de RX7900 XTX. Kwam dichtbij de RTX4080 met ruwe kracht. Maar zodra je RT functionaliteit aanzette dropte je FPS als een baksteen naar beneden. En FSR3 kon niet op het niveau van Nvidia komen. Maar nu zijn er voor deze dingen eindelijk alternatieven beschikbaar!

Echt stem met je geld mede-Tweakers. Dat is de enige manier om Nvidia te raken. Je ziet het terug in hun strategie met deze launch: ze hebben jou geld helemaal niet nodig. 90% van de omzet komt uit AI en datacenter producten, waarschijnlijk nog meer winst ook. En vervolgens zijn de gamers die het bedrijf jarenlang hebben geholpen niks anders dan afval geworden. Ga ze daar dan ook niet voor belonen, laat maar (net zoals de reviewers) zien dat je dit niet pikt.

[Reactie gewijzigd door Yariva op 21 mei 2025 17:06]

8GB voor een 1080p en net aan 1440p kaart lijkt me wel ok. Krijg je de vram wel vol met standaard niet 4K textures?
Ja zeer zeker. Je kreeg 8GB al bijna vol met GTA V op 1080P. Volgens mij zat ik op iets van 7130MB ofzo.

GTA V is 12 jaar oud. Dat spel komt uit 2013...
De meest populaire 8GB GPU's waren er ook al in 2013 (Sinds de geforce 700 series)
Je kunt je vast wel inbeelden dat games van nu heel wat meer vereisen dan een spel uit 2013.

De remaster van the last of us raadt minimaal 8GB VRAM aan voor 1080p.
Dat je iets met 8GB of minder kunt spelen betekent niet dat het dan op z'n best loopt. Je CPU gaat heel wat meer werk krijgen en je RAM ook, om te compenseren voor de eigenlijk te kleine hoeveelheid VRAM.
Desondanks moet ik toegeven dat mijn 10gb 3080 een stuk langer meegaat dan ik had verwacht. Destijds vond ik "maar" 10GB echt bullshit. In de praktijk ben ik daarmee nog tegen geen enkele frustratie aangelopen... Maar ik ben geen graphical enthousiast en speel zelden de allernieuwste games. Zelfs als ik dat doe, zet ik de settings vaak lager om stroom te besparen of niet mijn hele huis te willen opwarmen midden in de zomer... In de winter zet ik soms de settings hoger, hihi.

Maar, back to the point; Games welke meer dan 8GB nodig hebben zonder 4K textures (om er maar een paar te noemen)

Kerbal Space Program 2
Dead Space Remake
Redfall
Dead Island 2
Star Wars Jedi Survivor
Far Cry 6
Doom Eternal (nét erboven met 8.2gb)
Cyberpunk 2077 (Ja, 12GB of 10GB maakt hierbij een enorme performance impact tegenover 8)
Resident Evil 4
Hogwarts Legacy
The last of us part 1 (Remaster)
Forspoken
MS Flight Simulator (Voor zover dat een 'game' is)
A Plague Tale: Requiem
The callisto protocol.

--- Nogmaals, het is niet zo dat je deze games niet kunt spelen met 8GB, dat kan prima. Het is zo dat ze duidelijk minder soepel draaien.
"Dat je iets met 8GB of minder kunt spelen betekent niet dat het dan op z'n best loopt. "

Dat is de kern. Als je je verwachtingen (en de instellingen) aanpast aan het feit dat je de laagst gepositioneerde en goedkoopste kaart koopt, krijg je volgens mij veel waar voor je geld.

Gooi er honderd of duizend euro extra tegenaan en natuurlijk loopt het dan beter?

De xx60 serie leent zich trouwens IMHO al 10+ jaar perfect voor 1440p gaming, zelfs met minder dan 8 GB - je moet alleen geen Ultra settings, RT of fps fetish hebben. :+
Je hebt wel een redelijk punt (expectation management) maar waar mensen pissig over zijn is dat de kaart qua performance veel beter kan presteren en het RAM, wat zo ongeveer het minst complexe en dure gedeelte van de kaart is, een bottleneck vormt waardoor de kaart in verschillende situaties zijn eigen potentie niet volledig kan benutten.

Daarnaast is het soort bottleneck ook extra vervelend omdat het microstutters kan veroorzaken. Wat minder fps hebben is niet hetzelfde als input lag of system-wide stutters omdat je videokaart alle bandwith van je lanes aan het opslurpen is omdat hij extern geheugen moet gebruiken omdat Nvidia 50 cent wilde besparen op 4gb meer geheugen.
4 GB meer geheugen was geen optie voor de 5060. Zie de 5060Ti - de enige optie is 8 GB meer. Voor een 12 GB model heb je meer chips nodig, en een bredere bus, en dan kom je bij de 5070 uit.

Overigens zijn de kosten zo'n $20 per 2GB chip, dus $40 voor 4 GB. Tel daar nog het duurdere PCB bij, en je zit zo op $50 - honderd keer zo veel als jij veronderstelt. Zelfs GDDR6 is nog $4/GB dus $16 voor 4GB.
Dat was altijd zo, maar er komen nu ook geheugenchips uit met 3GB, waardoor je zonder de geheugenbus te verbreden toch je hoeveelheid geheugen maal 1,5 kunt doen, in plaats van maal 2.

Zie de aankondiging van de RTX 5080 met 256bit bus, maar 24GB videoram.
Bedankt voor de exacte cijfers. Het was ook puur symbolisch bedoeld.

Het was voor mij puur bedoeld om te zeggen dat de kaart qua rekenkracht gewoon een veel krachtiger beestje is dan de 8GB RAM, en dus uit balans. Wat anderen zeggen over verwachtingsmanagement (je koopt de laagst geprijsde kaart) is dan ook gewoon fair.
50cent? GPU-ram is wel ietsje duurder dan dat. Ik vermoed dat ze geen 50cent maar €15 besparen doe dat maar de marge en de consument betaald tientallen euro’s minder.

Je zit dus vele malen naast de grootorde.

Daarnaast is het helemaal niet zo erg dat zoals jij schetst. Ja er zijn games die settings hebben voor 12Gb kaarten maar je kan dat in settings wat meer op ‘medium en high’ te zetten ipv ultra.

Ook in autoland is men er schuldig aan. Exacte de zelfde motor maar net iets andere turbo of turbodruk en bam meer vermogen die ze dan veel duurder in de catalogus zetten.

Niet dat ik 8Gb zou aanraden maar ik heb ook 8Gb gekocht omdat die goedkoper was en als ik in de problemen kom met fps pas ik de settings aan. Ik maak er zo geen drama van.

Wat wel een drama is, is het gebrek aan concurentie want Nvidia kan veel te veel vragen voor hun GPU’s.
De xx60 serie leent zich trouwens IMHO al 10+ jaar perfect voor 1440p gaming, zelfs met minder dan 8 GB - je moet alleen geen Ultra settings, RT of fps fetish hebben. :+
Dus eigenlijk zeg je dat als je een slechte kaart koopt ook lage kwaliteit mag verwachten. Sterk. 324 euro voor stront, dat is een prima reden om deze kaart te kopen natuurlijk.
Dat is niet wat hij zegt en de kaart is ook niet wat jij zegt als je naar de resultaten en prijs kijkt.
Bedankt voor de uitgebreide reactie. Ik heb zelf altijd kaarten gehad zoals de 2080TI en nu de 4080 bijvoorbeeld dus ik heb een ander beeld van zaken aangezien ik de restricites niet voel. (nou ja, de 1070 heeft het lang volgehouden).

Mijn stelling was meer om de mindset van mensen die deze kaarten kopen. Als in, zetten ze dan ook alles op ultra of high om zoveel mogelijk beeldkwaliteit er uit te persen, en dus het VRAM vol te gooien of moeten ze wellicht op iets lagere settings spelen.

Op die manier probeer ik te peilen of wellicht voor die mensen die ook wat mooie graphics willen het een goed idee is te investeren in iets duurders, of dat ze wellicht genoegen moeten nemen met lagere graphics.

Kijk als mijn 4080 de helft van het geheugen had dan kan ik het heel goed begrijpen dat het VRAM een bottleneck wordt, en zou het gek zijn dat ik op medium moet spelen. Maar als je dan een 4060 hebt kan ik me voorstellen dat je door beperkte gpu snelheid sowieso de graphics moet bijstellen naar beneden en dat daarbij dus het VRAM gebruik ook afneemt.

Hoop dat dit mijn stelling wat verduidelijkt, want sommige reacties hierop zijn ietwat kortaf.
Dat een paar van die games meer dan 8GB VRAM nodig hadden zonder 4K leek me sterk dus ik heb het zelf getest met wat ik nu toevallig geinstalleerd heb staan.

Doom Eternal : Zowel 1080P en 1440P , ALLE settings op "ultra nightmare" behalve texture pool size. Deze op low gezet. Game gaat niet voorbij 7.4 GB VRAM. En ik had nog een relatief zware level getest (de super gore nest)

Cyberpunk 2077 : 1080P, alle settings maxed out, geen RT, geen DLSS, res scaling off. Het enige wat niet maxed out is, is texture quality. Deze op medium gezet. Keihard rondrijden door night city .. 7.4GB max.
Van 1080P -> 1440P was ik na 2 mins rondrijden bij maximaal 7.9GB gekomen als uitschieter, maar de game houd het zelfs na een paar minuten hard rondrijdende en schietende vanuit de auto, netjes onder de 8GBVRAM. En dan is er nog de "Low" texture setting mocht je nog minder VRAM willen gebruiken.

Jedi Survivor en RE4 heb ik op m`n laptop uitgespeeld toen ik vaak op reis was op een G14 Asus, en dat had maar 8GB VRAM.

Enfin de 5060 is dus voornamelijk een 1080P kaart (helemaal als je wel alle settings wilt maxen) en 8GB voldoet. Tuurlijk kan je zeggen "krap" etc. maar hey, voor wat het voor bedoeld is (1080P) voldoet het.

Een 5060 is ook een zeer aantrekkelijke kaart als je een dedicated emulatie bak inelkaar wilt zetten, voordeel v.d efficientie kwa energie verbruik. 8GB VRAM is meer als zat om Switch, PS3 etc. te emuleren. En voor emulatie ben je beter af met een Nvidia kaart dan AMD.
Vind dit wel interessante informatie, maar laat het wel duidelijk zijn dat je texture quality omlaag zetten een berg VRAM scheelt en niet vergelijkbaar is met 4k vs 1080p textures renderen.

Desondanks ben ik verbaasd dat je de games zo soepel kon spelen (hoewel je geen FPS of stability benoemd hebt?)

Mijn 3080 10GB zit zo vaak over de 8GB en ik speel weinig van de nieuwste games. (Ik speel op 1440P)

Ook ben je niet erg duidelijk in je test-setup, en zou ik daar graag meer over weten? Gebruikte je wel een GPU met meer dan 8GB VRAM? Want het is nogal logisch dat je er niet overheen gaat als je niet meer hebt :')

Lijkt me vrij obvious, maar het kan nooit kwaad om te vragen, toch?
Jazeker wel. Simpelweg door even buiten de PC-tuin te kijken genaamd consoles. Die Playstation 5 bestaat ook al 5 jaar, en die beschikt over 16GB GDDR6 geheugen. Daarvan is een aanzienlijk deel beschikbaar als GPU geheugen (richtlijn 10GB). De Pro heeft bovendien nog 2GB dedicated geheugen gekregen, dus reken er maar op dat die vrijgemaakte 2GB GDDR nuttig in gezet gaat worden voor extra toeters en bellen zoals upscaling, raytracing, enzovoort.

8GB is echt te krap. Je kan dan niet eens meekomen met de console platforms van 5 jaar geleden. Ondertussen kan je een PS5 aanschaffen voor onder de 500 euro, of een losse RTX4060 met de "vrije markt"-tax.

Ik heb zelf een RTX3080 GPU, en die is flink sneller dan deze kaart, maar daar begint de 10GB VRAM pool al regelmatig een beperking te worden. En bij die launch werd ook al opgemerkt dat 10GB voor zo'n kaart nog wel eens heel snel krap kan gaan worden (Ze hebben gelijk gekregen!). Nu zien we dit truukje weer opnieuw uitgehaald worden met de RTX5060.. nadat we dat ook bij de RTX5060Ti 8GB hebben gezien, en de RTX5070, en de RTX4070, de RTX4060, en de RTX4060Ti, en de RTX3070(Ti), enz.

NVIDIA maakt best rappe GPU chips, maar door ze te weinig VRAM mee te geven is er een korte houdbaarheidsdatum opgeplakt. Natuurlijk zodat je weer snel een nieuwe GPU moet kopen, want anders blijven mensen jarenlang op zulke GPU's teren. Het is alsof je een salade klaar maakt maar er bewust eieren in stopt die vanmiddag al bedorven zijn.

Dat bedrijven er mogelijk meer AI op willen draaien zal er wellicht ook iets mee van doen hebben. Maar ik heb daar weinig boodschap aan, zeker op deze tragere GPUs. Bovendien zou ik als LLM hobbyist niet eens meer een losse AMD/NVIDIA kaart overwegen, maar direct een Mac Studio aanschaffen die al relatief betaalbaar is met 64GB "VRAM".

[Reactie gewijzigd door Hans1990 op 21 mei 2025 21:10]

Waarom zou je though? Je kan ook gewoon een AMD-kaart kopen. Echt, schijt aan Nvidia had ik al jaren vanwege hun monopoliegedrag, maar nu nog meer met dat anti-consumer gedrag van ze.
Wil je met 8gb nog even vooruit kunnen zou je nog een 720p scherm op de kop moeten tikken 8)7 8)7
Het interesseert Nvidia volgens mij geen biet wat een paar Nederlandse consumenten gaan doen. Als je kijkt waar hun omzet vandaan komt [1] verbaast het mij dat ze de moeite er nog in steken om dit soort fratsen uit te halen. Ik zou willen dat het zou werken en ben het met je eens, maar helaas denk ik dat het geen indruk maakt.

[1]: https://www.investopedia.com/how-nvidia-makes-money-4799532

[Reactie gewijzigd door Lampiz op 21 mei 2025 18:03]

Yariva Moderator internet & netwerken @Lampiz21 mei 2025 18:24
Jou argument haal ik ook aan in mijn commentaar, Nvidia gaat het amper voelen. Alhoewel ik je punt wil weerleggen dat enkel een zooi Nederlanders in de protest modus schieten, dit lijkt meer een globale beweging.

Mijn punt is dat het de enige mogelijkheid is om Nvidia te raken. Ook al is het een speldenprik. Er is geen andere manier.
Als 90% van de inkomsten uit ai komt zoals je zegt, heeft stemmen met je portemonnee precies 0 zin. Je kunt ze toch niet raken. En over het algemeen hebben ze toch echt nog steeds de beste hardware. Ik snap heel goed dat tweakers dat graag anders ziet, maar het is gewoon niet zo. Je kunt dan beter andere initiatieven steunen zoals GN, hij heeft wél invloed. Jan met de pet met zijn videokaart....neuh.

[Reactie gewijzigd door Visgek82 op 21 mei 2025 18:29]

Yariva Moderator internet & netwerken @Visgek8221 mei 2025 18:44
Ze hebben zeker het beste platform, maar als daar maar 2% van de gebruikers in is geïnteresseerd is dat ook maar een speldenprikje. Ik draai nu sinds dit jaar op een 9070XT en haal 80FPS met een spel zoals Alan Wake 2 op 3440*1440. En dat is met alles opgeschroefd, FSR4 en RT op high ;) Zonder RT haal ik native met gemak 120+ FPS. Kortom op zo'n resolutie met zoveel prestaties in het AMD kamp kan gewoon! :)

Verder eens dat je dan een platform zoals GN kan steunen welke een veel groter bereik hebben :)

[Reactie gewijzigd door Yariva op 21 mei 2025 18:47]

Eens. Ik vraag me af of dit ook komt omdat juist de gaming tak nu bij nvidia intern onder druk staat. De mensen die bij nvidia verantwoordelijk zijn voor de verkoop van gaming gpu's hebben het moeilijker dan normaal. Want ze moeten een relatief slechte generatie aan videokaarten verkopen, tegenover een booming AI business in hun eigen kamp, en een AMD die het weer beter doet. Kat in het nauw gevoel krijg ik er bij. Niet nvidia in het geheel, maar specifiek de sales afdeling van gaming gpu's

[Reactie gewijzigd door Catrinus op 21 mei 2025 18:38]

En hier zie ik toch serieuze kansen voor AMD. Die hebben met de 9070 een hele leuke kaart neergezet met prima performance en wél met genoeg geheugen.

Het is jammer dat het zo moet lopen en je kunt in principe alleen een goede koop doen als je er verstand van hebt en je weet wát je koopt. :/
Ik snap je emotie maar de rest van je analyse vind ik niet persé passend bij de feitelijke situatie.

De realiteit is dat de goedkoopste nieuwe videokaart van AMD de 9070 van 649 euro is. Dat is meer dan dubbel de straatprijs van een 5060 welke nu al vanaf 324 euro beschikbaar zijn. AMD gaat nog met de 9060 komen maar ook daarvan komt een 8GB variant; nieuws: AMD brengt Radeon RX 9060 XT-videokaart op 5 juni uit vanaf 320 euro. Met andere woorden, ook AMD ziet blijkbaar het nut van een 8GB model.

Wat zou dat nut zijn van die 8GB kaarten? Want als ik de reviewers en vele tweakers mag geloven kun je die kaarten beter in de prullen bak gooien. An sich hoeven we daar niet zo heel lang over na te denken. Eindstand heeft VRAM anno 2025 vrij weinig meer te maken met hogere resoluties, maar alles met de detail presets. Met name de textures vreten vram, een hogere resolutie is meestal beperkt tot 300-1200MB extra. Eindstand betekent dit dat het er op neer komt dat in ieder geval Nvidia van mening is dat wanneer iemand games op ultra wil draaien ze een duurder model nodig hebben dan een 5060.

Persoonlijk kan ik daar nog wel in mee, mijn gaming laptop heeft een 3050 4GB en eindstand verbaast het mij hoeveel je daar mee kunt. Natuurlijk geen ultra, maar bijvoorbeeld wel high in forza 5. Die laptop was nog geen 800 euro. Wil je meer, dan betaal je simpelweg meer. Mijns inziens zijn we de laatste jaren vooral verwend geraakt dat doordat games een stagnatie hebben meegemaakt in graphics. Ineens konden midrange kaarten alles op ultra draaien. Is dat echt iets dat we willen? Voor mij is dat niet persé nodig, ik zie de industrie liever door ontwikkelen. Niet voor kaarten van rond de 300 euro.

Stel je bent wel van mening dat een 5060 alles op ultra moet kunnen draaien dan kunnen alleen AMD of Intel daar voor zorgen. Tot heden zie ik dat niet gebeuren. Hoe positief de 9070(XT) ook zijn ontvangen, het verkoop volume blijkt uit de omzet cijfers van AMD (circa 600 miljoen voor zowel GPU als consoles) nihil. Ook in de steam survey van april zien we nog altijd geen enkel RX 9xxx model opduiken. Ondertussen beginnen de rtx 5xxx modellen binnen te stromen en zijn ook de gaming omzet cijfers met 2.5 miljard in één kwartaal behoorlijk indrukwekkend. Met andere woorden Nvidia verkoopt als een trein. Het hele AI verhaal verandert daar tot heden helemaal niets aan. Ze zijn nog altijd circa factor 8 groter dan radeon.

Ondertussen is de realiteit dat Nvidia momenteel de deur onwijs open zet voor AMD. Het enige dat AMD hoeft te doen is meer VRAM bieden dan Nvidia en vervolgens zal de pers en youtube ze bejubelen. Daarna moeten ze nog het volume gaan draaien om aan de vraag te voldoen. De vraag is AMD deze kans grijpt, of dat ze weer conservatief productiecapaciteit gaan inkopen. Hoe dan ook ligt de bal duidelijk bij AMD. Nvidia zou hun AI geld ook kunnen gebruiken om radeon volledig weg te drukken, nu doen ze het tegenovergestelde.

(Dit alles even los van het verhaal over reviews beinvloeden, dat is natuurlijk niet goed te praten mocht dat kloppen).

[Reactie gewijzigd door sdk1985 op 21 mei 2025 19:23]

Er zijn al games waarbij 8 GB VRAM zelfs op 1080p low niet genoeg is voor 60 FPS. Kijk maar naar Indiana Jones. dat spel draait gewoon vierkant met slechts 8 GB VRAM, zelfs op 1080p. Dat is het geval met zowat alle RT always on games tegenwoordig, die vereisen gewoon meer dan 8 GB VRAM.
Eerste resultaat dat ik opzoek haalt gemiddeld 93 fps op een RTX 4060 met 8GB op low. Dus ik weet niet waar jij dat op baseert??? Verder beschikt de game over een systeem waarbij het achteraf hogere resolutie textures kan inladen; YouTube: Indiana Jones and the Great Circle - PC Tech Review - Best Settings,....

[Reactie gewijzigd door sdk1985 op 22 mei 2025 16:27]

Mijns inziens zijn we de laatste jaren vooral verwend geraakt dat doordat games een stagnatie hebben meegemaakt in graphics. Ineens konden midrange kaarten alles op ultra draaien. Is dat echt iets dat we willen? Voor mij is dat niet persé nodig, ik zie de industrie liever door ontwikkelen. Niet voor kaarten van rond de 300 euro.
Ja en die stagnatie is er ondanks dat de studio's budgetten krijgen die een "James Cameron" film kunnen financieren (in de jaren 90 wel ~ Titanic) tenzij "Star Citizen, en dat brengt risico's met zich mee en uit zich niet in goede en toffe games. Ik heb er geen probleem mee dat midrange kaarten alles op ultra kunnen spelen ... geen. En ik hekel ten zeerste de verplichting opgekregen te krijgen om hier en daar raytraytracing, framegen whatever te gebruiken om grafisch vooruit te raken (we hebben toch ook geen verplichtingen gekregen voor: FSAA en consorten, Bump Mapping, S3TC, Bloom, Motion Blur, ...) ? En wat is er mis met minder energieverbruik voor eenzelfde prestaties ? Uiteindelijk gaan spullen toch kapot.
Eigenlijk wel toch? Vroeger had je bijvoorbeeld eisen als opengl of hardware t&l op je games staan. Vergeet niet dat de eerste voodoo kaarten alleen konden 3d renderen en je nog een aparte 2d videokaart nodig had. Later werd alles meer uniform maar ik weet nog goed dat ambient occlusion de eerste jaren véél te zwaar was. Dat is voor mij het raytracing van toen.
MMmm je hebt daar wel een punt. Er was de oorlog om de APIs en shader -en versievereisten. Maar heeft ambient occlusion zoveel bijgebracht. Ik zie raytracing als iets kwistvol en MFG als cheaten :D

edit:
spelling

[Reactie gewijzigd door goarilla op 22 mei 2025 17:07]

Ambiant occlusion en dan ook nog vol anti aliasing willen was echt veel en veel teveel gevraagd van de toen gangbare videokaarten. Ik zeg (net zoals) jij altijd dat de ambiant occlusion van toen nu de raytracing is. Dit geld ook voor anti aliasing want dat was pas echt een heavy load. Nu is AA een bijzaak en heet het DLAA (niet DLSS want dat is AA met schaling en DLAA is louter AA op volle resolutie).

Ik blijf in mijn handjes knijpen dat 1080p 360Hz gaming op een rtx4080 heel waardevol is. Ik hoef geen rekening te houden met settings en ik kan alles op ultra spelen ongeacht welk spel, raytraced of niet. Het blijft vloeiend werken ;)
De andere kant van het verhaal is wel dat veel review site ook de producten scheef gingen vergelijken en idd niet altijd next Gen technieken mee name terwijl dat wel hoorde dus ja snap ook de kant van Nvidia wel.

Je moet wel testen waar een product gepositioneerd wordt.
Weet iemand of er een reden is waarom er geen grafische kaarten zijn met een geheugen uibreidingsslot? Kan dat niet met GDDR geheugen? Zou ideaal zijn voor de levensduur.
GDDR is inderdaad ontworpen voor maximale snelheid, en geen marge voor dingen als uitbreidingssloten. De PCB sporen moeten daarom tegenwoordig met micrometer precisie worden ontworpen.

Heeft je GPU extra geheugen nodig, dan kan er gewoon DDR5 gebruikt worden via de PCIe5 bus. Maar dat is dus traag - omdat je niet de directe verbinding hebt die GDDR7 wel heeft.
Eens met je stelling hoor - maar het effect van kiezen met de portomonee is dus bij voorbaat al niet zo groot als ze 90% van hun omzet elders halen (en dan misschien ook nog meer winstmarge).

En eerlijk gezegd is het ook te verwachten dat een bedrijf geen echte waardering heeft voor haar 'trouwe' klanten. Dat zouden bedrijven overigens wel moeten hebben (waardering/respect voor hun klanten). Het stomme is namelijk dat als de prijzen en specificaties van produkten overeenkomen met die van concurrenten, het opeens toch weer een echt 'gun-model' wordt. Zoals veel aankopen ook worden gedaan eigenlijk.
Als men zich aan dit soort eisen van fabrikanten gaat houden verwordt men tot een soort reclame-platform. Goed dat Tweakers en andere tech-sites niet op de eisen zijn ingegaan en nog beter dan Gamers Nexus de eisen van Nvida openbaar heeft gemaakt.
Nvidia is met smerige 'spelletjes' niet alleen de media maar ook met zaken zoals hun GPP al langere tijd leveranciers onder druk aan het zetten. Onofficieel is het al lang bekend dat Nvidia dreigt met het blokkeren van reviews door het weerhouden van hardware en/of drivers. Hardware Unboxed heeft hier enige tijd geleden ook een stuk over gepubliceerd nadat ze waren geblacklist omdat ze (terecht) kritisch waren over de slechte resultaten van de eerste generatie DLSS.

Jammer dat het zo lang heeft geduurd voordat dit aan de grote boom wordt gehangen en dat er genoeg grote namen zijn die in alle talen zwijgen. Enige manier om dit aan te pakken is om gezamenlijk op te trekken als tech review media en dit soort praktijken an masse publiek maken.
Er zijn amper publicaties waar de lezer betaalt voor de informatie. Dan blijft over dat een fabrikant of retailer betaalt of bepaalt.
Kijk maar eens op een videoplatform wat daar aan "reviews' voorbijkomt. Of aan product placement.
Als een fabrikant achter zijn spullen staat, dan moeten ze ook de gok durven nemen om reviewers de vrijheid te geven om te melden wat ze er echt van vinden. Een begeleidend schrijven over het doel van het product en de doelgroep die men voor ogen heeft en wellicht een opsomming van de producten waar het mee zou moeten concurreren moet voldoende zijn.
Voor reviewers zou ik willen zeggen: trap niet in de marketingval van Nvida en andere bedrijven die er gelijksoortige praktijken op nahouden. Een review voordat een product op de markt komt heeft niet zo heel veel waarde. Dat komt vaak als reclame over. De kopers van het eerste uur letten toch niet op die reviews, die kopen het product toch wel zo snel mogelijk. Een eerlijk review van een paar weken later is voor de consument veel meer waard. Dat zijn de mensen die echt op zoek zijn naar een goed presterend product binnen de gestelde eisen en budget.
Persoonlijk zie ik liever een review van een kritische tester die het product zelf heeft gekocht (en wellicht na de test weer retour zendt).
hardware unboxed had het wel leuk gedaan. Gewoon een kaart van MSI geleend op computex en een eigen review op de hotelkamer gemaakt.
In een ideale wereld weigert iedere reviewende partij dat, dan heeft nVidia ineens 0 reviews voor hun product bij launch. Maar ja, de meeste zullen wel weer akkoord gaan :X
Misschien is nul reviews ook meteen nul slechte reviews en daarom toch beter [voor nVidia]?
En als je dat voortzet kun je makkelijk overdreven eisen neerleggen... niet netjes natuurlijk maar het leuke is dat ook reviews zelf door andere reviewers worden beoordeeld en die zullen natuurlijk wel in de gaten hebben dat er iets niet klopt met de vergelijkingen/randvoorwaarden...
Dan moet er wel een hele goeie reden zijn waarom er geen reviews zijn lijkt mij.
Hiervoor is maar één oplossing. Een totale boycot op Nvidia door ALLE reviewers en review sites. Met een overduidelijke melding in een video (per uitgebracht item van dit merk) dat dit niet review waardig is vanwege de idiote voorwaarden en het advies om dit niet te kopen.

Dit soort idioterie toont maar één ding aan: bedrijven denken dat ze alles maar kunnen maken. Ze hebben het lak aan wet (ook al is dat hier niet persé van toepassing) en regelgeving. Dit valt niet zozeer onder één van die twee, maar wel onder fatsoenlijk ondernemen.
Los van de dreigingen wat natuurlijk niet ok is, valt het me wel op dat veel reviewers weigeren, of in ieder geval weinig moeite doen, om DLSS4 te testen. Terwijl dat juist voor dit soort kaarten een prima methode kan zijn om tegen een lagere prijs nog mee te kunnen spelen. Ik hoop dan ook dat we in de toekomst iets meer terugzien in de individuele benchmarks wat die technieken doen.
1080p is de resolutie waar de kaart het best op werkt en waar hij voor gemaakt is. Ik snap wel dat Nvidia dan deze route wil proberen, laat eerst de kaart op zijn best zien voordat de andere reviews binnen komen met de tekort komingen van de 8Gb geheugen. Wel fijn dat niet veel reviewers daar op in zijn gegaan.
Iedereen - de gebruikers en reviewers - weten dat de kaart bedoeld is voor 1080p. Het probleem is dat de 5060 met 8gb hetzelfde presteert als een 3070 met 8 gb. Precies hetzelfde! Nu is met een 3070 ook nog redelijk op 1440p te spelen met spellen die vijf jaar geleden uit kwamen. Als er echter nu nieuwere spellen uit komen met zwaardere technieken of raytracing aan(of misschien wel slechte optimalisatie?), dan kan zowel de 3070 als de verse 5060 het zwaar gaan krijgen, zelfs op 1080p.

Nvidia's productlijn heeft een goede naam, maar ze proberen de winst te maximaliseren, en de markt te dicteren met hoe reviewers hun product behandelen. Het is grappig te zien hoe AMD en Intel proberen de markt/spelers te charmeren met kaarten met iets meer werkgeheugen, zelfs al heeft de grafische chip zelf iets mindere features. Maar waar AMD en Intel proberen bang voor de buck te geven, stelt Nvidia zich autoritair op naar de markt en reviewers. De dag dat AMD en Intel langszij komen met hun product, zal de markt de gedragingen van Nvidia nog zeker niet zijn vergeten.
Men is het over kaar helemaal vergeten, en de massa eerder. Paar hardcore met hoge principes laten nV links liggen. Maar dat druppel op hete plaat om intel en AMD gpu markt aandeel te doen groeien.
Waarschijnlijk wel en als we echt de principes moeten laten gelden, zouden wee eerder de Intel's moeten kopen ondanks mindere prestaties en jonge drivers. AMD heeft een goed functionerende CPU productlijn om omzet te genereren.

Intel zit in de shit. En Nvidia is de gorilla die iedereen onder druk zet. En hopelijk gaan Intel en AMD dan ook hun producten voor de Desktop deftig maken ipv hopen de AI markt uit Nvidia's handen te trekken. Je hebt noch de performance, noch de software-support op dit moment. CUDA CUDA CUDA !
Sommige 1080p spellen hebben ook gewoon moeite met 8GB Meeste spellen zullen het nog redden maar voor hoelang?
Dat is denk ook niet het punt waar men over struikelt.

Echter de moet met multi Framegen. Wat de oudere Nvidia kaarten niet hebben. Is ronduit beschamend en schofferend.

Daarnaast geen concurrentie? Zoals de B580 of de RX 7600 XT en RX7700 XT

Geen eens vergelijking met hun eigen beter presterende modellen.
Ik vond het geweldig!

We weten nu per direct welke websites en news outlets je kunt vertrouwen en niet!
:Y) 8-)

@Yariva Dit lijkt mij dan ook (collectief) als onafhankelijke reviewers juist de goede aanpak.
Massaal niet aan zulke programs mee doen.
Als namelijk alle main channels dit doen (en de grootste YT kanalen gaan dat zeker niet doen), en dus massaal reviews later binnen komen is het heel snel heel duidelijk wat te vertrouwen is en wat niet.

Zie het als een onofficieel keurmerk.
Misschien moeten we dat zelfs gewoon gaan introduceren.

[Reactie gewijzigd door B_FORCE op 21 mei 2025 17:18]

Ja, een "Not kissing nVidia's ass!" sticker of zo. :+
Hahaha, nou ik wilde het iets professioneler inzetten met iets als "member of independent reviews" program.
Is er al ergens een lijst met reviews die ingegaan zijn op het aanbod van Nvidia?
Die zou ik graag zien dan weet ik dat ik die voortaan links kan laten liggen.
Geen idee, je zou eventueel gewoon naar publicatiedatum kunnen kijken van een review of artikel.
Dan weet je ook direct of ze zijn ingegaan op het aanbod van Nvidia.
Waarom? Goede reden kan ook zijn dat de drivers nig niet op orde waren en dat ze zeker weten dat bepaalde reviewers wel daar netjes rekening mee houden en anderen niet omdat een negatieve review schrijven vaak meer views/kliks oplevert dan een gedegen review.
Sorry, maar dit zegt helemaal niets. Misschien juist dat degene die nu schreeuwen juist vermeden moeten worden omdat die meer op views en kliks zitten te azen dan serieus een review willen schrijven.
Ik denk dat mijn volgende GPU echt wel een AMD GPU wordt, ook al was mijn vorige ervaring met AMD niet echt denderend.... Ik hoop dat ze de volgende generatie terug een model hebben dat probeert te concurreren met de high-end lineup van Nvidia.
Ik had ook een paar slechte ervaringen met AMD, in software vooral dan... Maar heb nu bijna 2 jaar een 7900XT en die is dikke prima. Ik denk dat we die ervaringen ondertussen wel los kunnen laten.
Maar inderdaad ik hoop ook dat ze volgende generatie iets hebben wat echt een mooi upgrade pad biedt vanaf die 7900XT...
Mijn problemen waren toen denk ik niet eens met drivers. Ik dacht eerst van wel omdat ik bijna een half jaar lang niet de recentste drivers kon gebruiken, maar toen ik voor een probleem met de hotspot tems mijn GPU binnendeed voor garantie bleek er dus meer aan defect te zijn dan enkel oververhitting, want ik kreeg gewoon mijn geld terug van PowerColor. Als het gewoon een probleem was met de thermal pads zou dat denk ik niet gebeurd zijn.
Mwa, kan ook dat dit gewoon goedkoper was dan repareren en naar jou retourneren (niet per se per individueel geval maar dat ze voor het complete proces er voor kiezen om liever gewoon geld terug te storten wanneer nodig ipv alles inregelen om rma's te tracken en terug te bezorgen na reparatie)
Amd hd 6970, Rx 480, 6900xt. En nog nooit problemen gehad. Bedoeld als anekdotaal tegengeluid tegenover "amd drivers suck" papagaaien.
Als of nVidia geen ruk drivers op het net zet momenteel? Genoeg geluiden van o.a. reviewers die alleen al flinke segmenten hebben gemaakt over de afnemende kwaliteit van de drivers. Heb er zelf ook last van gehad met mijn laptop dat ie random afsloot als ik YT keek. Met de laatste drivers een clean install gedaan en tot dus ver geen probleem meer gehad.
Dit soort zaken, dat GeForce Partner Program geouwehoer en 2 doorgebrande GeForce kaarten in laptops, uiteraard net buiten de garantietermijn, is dat ik al jaaaaaren geen nVidia meer in mijn PC's of laptop wil. Ze kunnen in de spreekwoordelijke feces zakken daar in het groene kamp.
Spijtig genoeg, zijn er voor mij, momenteel geen alternatieven, indien ik zou willen upgraden... En als simmer, in VR, is de top, eigenlijk, net niet goed genoeg.
Wat een onzin toch weer, oh oh wat erg dat ze niet zomaaralles mogen testen als ze eerder willen reviewen, oh dat is het einde van de wereld. Reden zou goed kunnen zijn dat de drivers gewoon nog niet op orde zijn voor een algehele review. Uiteindelijk ligt de kaart wat betreft performance increase ten opzichte van de vorige gewoon in lijn met eerdere xx60 releases.
Ik lig er echt niet wakker van dat de kaart niet op release een volledige review heeft gehad, meeste mensen kopen em toch niet op release.
Als je niet snapt waarom het kwalijk is dat OEM's onafhankelijke tech pers haar wil oplegt onder druk van uitsluiting, dan zijn we uitgepraat. Gaat om het principe en dat het machtsmisbruik is, niet om dat er op de dag van release een volledige review ligt. En de performance ligt dus niet in lijn met eerdere xx60 releases. Dit soort praktijken zorgen daarmee voor verkeerd geïnformeerde consumenten. En daar is niets onzinnigs aan. :)
De performance ligt wel in lijn, zie de vergelijkingen in deze review.
Echt onvoorstelbaar. Das inderdaad reden voor een boycot hier. Hoe haal je het in je hoofd zulke voorwaarden te stellen. Dat tweakers die geruchten zelfs bevestigt door aan te geven in het verleden niet op dergelijke voorstellen in te gaan, is voor mij genoeg informatie.
Na dit artikel van Gamers Nexus was ik wel benieuwd hoe de volgende reviews uit zouden zien. De gelinkte video is IMHO de moeite waard (wel met de typische Steve-inslag), en geeft tegenwicht aan hoezeer nVidia druk legt op reviewers om de kaarten beter uit de verf te laten komen.
En Tweakers, chapeau dat jullie dit benoemen, en de kaarten niet in een vals positief daglicht zetten.

In een wereld waarin triple A (lees: luie games) steeds meer VRAM vreten is de verkoop van nieuwe 8GB kaarten nog nét te verdedigen, maar ze marketen als "geweldig voor high-end gaming" is gewoon een leugen geworden. En dat zie ik in promotiemateriaal van nVidia ook hier gewoon terugkomen: hun eigen site heeft na wat scrollwerk een klein item over de nieuwe 5060 kaart, en dat item linkt door naar de algemene RTX 50-serie site die je gouden bergen belooft.

Even stilstaan bij de PCIe configuratie: In jullie tabel staat duidelijk dat deze kaart gebruikt maakt van PCIe 5.0 x8 bus. Concreet betekent dit dat deze kaart als drop-in upgrade in een ouder systeem (PCIe 4 of 3!) gewoon geknepen wordt en niet de volle performance haalt. Dit mag zeker meewegen in jullie oordeel, want juist deze kaarten worden vaak als upgrades gebruikt.

[Reactie gewijzigd door TheGreatAtuin op 21 mei 2025 16:40]

Marketing bestaat per definitie voor een groot gedeelte uit liegen en bedriegen.. Mensen dingen proberen aan te smeren die ze helemaal niet nodig hebben en dus inderdaad ook vaak wat je probeert te verkopen er veel mooier en beter uit te laten zien dan het in werkelijkheid is.. Enige manier om er geen slachtoffer van te worden is zelf voldoende kennis op doen over wat je nodig hebt en wilt kopen.. Helaas nemen de meeste mensen o.a. niet de moeite die kennis op te doen en is "goede" marketing dus erg effectief..

[Reactie gewijzigd door Inflatable op 21 mei 2025 17:17]

Yep, er is helaas geen grens in het grijze gebied tussen een product beter afschilderen dan het is, en gewoonweg liegen over wat een product kan. Het is wel duidelijk dat nVidia op dit moment aan de slechte kant van dit grijze spectrum zit. Wat een enorm verschil met RTX 1000/2000 generatie toen de marketing neerkwam op "see for yourself, wij staan volledig achter deze goede kaarten".

Spreekt ook boekdelen dat nVidia zelf ook geen marketingmateriaal voor deze kaart heeft. Ze staan liever op Computex zevenhonderd keer het woord "AI" te schreeuwen en kaarten met 32+ GB VRAM te showen.

[Reactie gewijzigd door TheGreatAtuin op 21 mei 2025 17:29]

Puur technisch gezien liegen ze niet want ze vertellen er bij dat de getoonde prestaties alleen met de hulp van AI mogelijk zijn.. Zoals met het verhaal van 5070 met 4090 prestaties.. Ze misleiden alleen wel door dan een 5070 met alle AI features zoals DLSS en MFG te vergelijken met een 4090 zonder, of 2xMFG met 4xMFG vergelijken.. Mensen met kennis prikken daar wel doorheen, maar de grote massa niet.. Helaas volgt maar een klein gedeelte van de markt bronnen als Tweakers of tech YouTube kanalen..

Ik vind het los daarvan trouwens wel mooie technieken.. Het blijft bijzonder dat je daardoor games als Cyberpunk 2077 in volle glory met pathtracing aan etc kan spelen met 200+fps.. Ze moeten er alleen wel eerlijk over zijn en het hele verhaal vertellen, zoals ook iets hogere input-latency en mogelijke artifacts etc..

[Reactie gewijzigd door Inflatable op 21 mei 2025 23:44]

Het is inderdaad doodzonde dat glorieuze nieuwe technieken zo verkeerd in de markt worden gezet.
Ik ben een fan aan het worden van DLSS, fake frames, etc maar nVidia krijgt het gewoon voor elkaar deze technieken op de verkeerde manier aan te prijzen. Chapeau voor hun belabberd marketingteam.

Ze hadden gewoon volledig moeten inzetten op de efficiëntie (fps/watt is fantastisch bij de 5070/5060 kaarten), en moeten inzetten op een glijdende schaal tussen inputlag en grafische schoonheid. Wil je competitieve frames of wil je voor een RPG juist betere graphics?

't is helaas veel te nuchter en vraagt ook wel veel kennis van zaken.
Wat ik al zei ze moeten gewoon beter en eerlijker uitleggen hoe het precies werkt, met ook de nadelen van de technieken i.p.v. alleen maar flink roeptoeren over de voordelen.. Ook uitleggen waarom je voor 8GB VRAM kiest.. Maarja, dat is dus marketing, alleen kletsen over wat er goed aan is om het te verkopen en het negatieve negeren of bagitaliseren.. Dan krijg je dus dat mensen zelf met termen als "fake frames" etc gaan komen wat meteen weer zo negatief klinkt en door sommigen ook behoorlijk overdreven wordt.. Het is nu vooral de PR afdeling bij Nvidia die er een zooitje van maakt.. Quote van Tweakers uit de conclusie van deze review:
Nvidia's houding tegenover de techpers bij de introductie van de RTX 5060 is jammer en ook onnodig
100% eens..
Goed opgemerkt ivm de PCIe 5.0 x8
Deze kaarten zullen sneller gebruikt worden door iemand die nog een PCIe 3 of PCIe 4 heeft zoals je aangeeft.

Testen van de 5060Ti wezen al op serieuze problemen. Dit zal hier inderdaad niet anders zijn.
Absoluut niet aan te raden voor wie nog op AM4 zit of bijvoorbeeld een intel 8700k / 9900k heeft.
deze kaart gebruikt maakt van PCIe 5.0 x8 bus. Concreet betekent dit dat deze kaart als drop-in upgrade in een ouder systeem (PCIe 4 of 3!) gewoon geknepen wordt en niet de volle performance haalt.
"Geknepen"? Waar heb je het over? Een lager model GPU heeft minder van alles - geheugen, cores, en ook PCIe lanes. Dat is ook bepaald niet nieuw. De 4060 had dat ook al.

Ja, in een PCIe 3 systeem begint het wel te knellen, maar voor zo'n oud systeem is een tweedehands GPU dan ook de betere upgrade.
Waar ik het over heb, is dat deze kaart fysiek 8 lanes van de 16 PCIe lanes gebruikt.
Grofweg is PCIe 5.0 twee keer zo snel als PCIe 4.0, wat twee keer zo snel als PCIe 3.0 is.
Als maar 8 van de 16 banen gebruikt, en je een oudere standaard gebruikt, ben je het haasje.
Voor fabrikanten (zowel nVidia, AMD en misschien ook een Intel Arc kaart) is het goedkoper om maar 8 PCIe lanes in hun PCB te stoppen, en ze vertrouwen dan op de snelheid van PCIe 5.0.

Toen de RTX 3080 uitkwam waren er reviews dat de kaart *nipt* langzamer was op PCIe 3.0 dan op 4.0. Dit was letterlijk 1%, maar het was meetbaar.

Er zijn nu verschillende reviews die duidelijk aantonen dat midrange kaarten zoals de 5060 ti trager zijn op PCIe 4.0. Deze 10% verschil op PCIe 4.0 betekent gewoon gewoon dat de 5060 Ti dus meer dan 50% trager is op PCIe 3.0!

Dus, als je deze kaart koopt om je oud PCIe 3.0 systeem te upgraden, niet doen. Ik zou dat niet willen benoemen als "begint wel te knellen" maar "je laat de helft op tafel liggen". En dat terwijl er nog voldoende prima Ryzen 2000 systemen zijn die maximaal PCIe 3.0 aan kunnen. Mijn advies: oudere kaart kopen met volledige x16 interface.

[Reactie gewijzigd door TheGreatAtuin op 22 mei 2025 11:43]

En dat terwijl er nog voldoende prima Ryzen 2000 systemen zijn die maximaal PCIe 3.0 aan kunnen.
Wow ik ben het gaan opzoeken en je hebt absoluut gelijk. Ben ik eventjes blij
dat ik een Ryzen 5 3600 en x570 heb en niet de 4xx series. Ik ging er ergens vanuit dat DDR4 ook altijd met PCIe4 kwam.
Met zo'n budgetkaart is raytracing niet relevant lijkt me. Solide 1080p prestaties wel!
Het gaat er niet zo om hoe capabel zo'n kaart is.
Budget of niet, je wilt toch gewoon in kaart (lol pun) kunnen brengen (in cijfers en getallen) waar de grenzen van zo'n product liggen?

Er zijn nu al games waarbij ray-tracing niet uitgezet kan worden.
Als je dus OF voorbereid wilt zijn OF zulk soort spellen wilt spelen kun je beter zo'n kaart niet kopen.
Die conclusie kun je echter alleen objectief geven door daadwerkelijk de cijfers te laten zien.
Ik zou zelfs stellen dat de enige interessante benchmarks zijn. Of je nou 95 of 105 FPS haalt in Assetto Corsa boeit niet zoveel, maar als je door trage ray tracing de nieuwste games op 30FPS moet draaien, of door te weinig VRAM dips naar 15FPS hebt in sommige games zul je veel eerder merken.

Dit zijn geen edge cases meer, ray tracing is gewoon onderdeel van de aanbevolen instellingen en soms ook de verplichte in populaire games. Naar mijn mening moet het dus gewoon in het gemiddelde meegenomen gaan worden, en geen ultra testen meer waar ray tracing selectief uit staat. Het is geen 2018 meer en het is geen exotische feature.

[Reactie gewijzigd door Wolfos op 21 mei 2025 18:20]

Ben ik helemaal met je eens.
Sterker nog, als we even het idee aannemen dat FPS heel erg zouden uitmaken, dan gaat dat alsnog met een logaritmische schaal.
Dus om enig voordeel te zien in bijvoorbeeld latency, zul je van 60fps, naar 120 en dan naar 240fps moeten.
Eventueel kun je dan nog zeggen, we gaan in het midden zitten, dus 90fps en 180fps plus je wilt wellicht wat overhead.
(aan de andere kant kun je settings ook iets terugschroeven)

Dan houdt het toch echt wel op.
Puur persoonlijk zie ik niet veel voordeel voor een gemiddelde amateur om hoger dan 120fps te gaan. Misschien voor bragging rights. lol :D
Mocht je echt een professional zijn, dan snap ik dat je uiterste uit de kan wilt halen.

Met dat idee in het hoofd, zie ik nou ook niet heel veel veranderingen in hardware de laatste jaren.
Zoals je zegt, is het daarom ook niet bijster interessant om het hogere segment te vergelijken.
Het is gerommel in de marge, op de meeste ideale systemen.
(iets waar ik veel kritiek op heb bij de meeste reviews overigens).
Je kunt wel over 15% winst praten, als dat echter nog steeds betekent dat je OF je resolutie niet omhoog kunt schroeven OF dat je niet in de volgende FPS bracket zit, voegt het letterlijk niks toe.

Nouja, behalve dan eerder om te kijken of bepaalde producten echt falen, zeker tegen een bepaalde prijs (5060 Ti 8GB is wel echt diep en diep triest bv).

Ik ben het trouwens met je eens dat raytracing absoluut niet nieuw meer is.
Het valt mij wel op hoe slecht de implementatie nog steeds is na AL DIE JAREN.
Vooral qua performance is het vrij droevig.

In sommige gevallen weet ik ook niet of het echt iets toevoegt?
In de eerste paar minuten is het vaak wauw, maar perfecte spiegelachtige reflecties zonder enige vuiltje halen mij persoonlijk behoorlijk uit het moment zeg maar.

Veel games lock ik gewoon hard op 60fps.
Als een beetje vingervlugheid vereist is, lock ik op 120fps of anders 90fps.
Daarboven zie ik gewoon echt geen enkel voordeel.
In de woonkamer zie ik daarnaast ook weinig verschil tussen native 4k en 1440p upscaled.
Tenzij ik echt ga pixel peepen, maar wie speelt op die manier nou een spel? :?

Met een bureau en monitor is de nuance iets anders, vooral omdat je met je neus er bovenop zit.
Een iets kleiner scherm met hogere pixeldichtheid kan dan bv ook een oplossing zijn 8-) :Y)

[Reactie gewijzigd door B_FORCE op 21 mei 2025 18:46]

Afhankelijk van game architectuur kunnen sommige games zeer extreem fluctuaties in frame rate hebben dus met V-s7nct of 25 en 121 frames gemiddelde van 71
Met vsync on heb je niet stabile 35-60 fps en koelere gpu.
Andere games zijn v-sync on stabieler in framerates 55 - 73 of 75-90 of 92 -111
V-sync on 57-60 of 72 of 90 fps.

Free sync/ g-sync helpt met egaliseren van frame times als te vaak de sync net niet gehaald wordt.
Nieuwe games vereisen steeds vaker ray tracing, dus het is altijd relevant. Overigens schijnt de nieuwe DOOM prima te draaien op deze kaart.
Is dat zo, hoeveel zijn er 12 nieuwe of zijn het er 1 of 2.
Naast ga je huidige aankoop 3 tot 5 jaar mee dus sla 1 a 2 gens over.
Dan is lage instap g-kaart sowieso al slecht in RT.
En al helemaal niet future proof. En kom je dan in de vaak upgrader.
Ten zij je die zware nieuwe RT eisende triple A games niet speelt.
Barginbin backlog indie casual gamer bent.
Ik val niet in die categorie. Maar dat is zeer grote deel van de markt. Ook ouderen.
Competive games speel casual op console meer hardware gelijkheid en minder cheaters.
G-kaart sla ik sowieso gen 1 of 2 over en cpu ziet 2 gens of gpu. Met covid crypto oorlog is dat 7 jaar geworden voor cpu en g-kaart. Ben meer console gamer geworden.
Omdat voor mij future proof belangrijk is en er Starcitizen op moet draaien en langer mee moet is een RX9070XT beste keus ipv 2 gen instappers.
Covid crypto oorlog, dan heb je de 980Ti periode gemist, was toen nog erger vond ik, geluk gehad dat ik hem op tijd gekocht had toen.
Blijkbaar wel als je naar de Doom Eternal 1440p dxr prestaties kijkt. De rtx 3060 loopt 115+ fps terwijl de 5060 nog niet eens 90 fps haalt.
Met 12 of 16GB had de 5060 de 3060 waarschijnlijk verslagen.
Waarom is er geen mogelijkheid bij de benchmarks om naar believen videokaarten toe te voegen aan de vergelijking? Ik heb een 3080 Ti, dus ik ben benieuwd in de prestaties van deze 4060 vs de 3080 Ti , maar de enige 30-serie kaart in de lijst een een 3060.
Dat is een goede.. Zou een mooie nieuwe feature kunnen zijn die Tweakers zou kunnen toevoegen.. Maar dan moeten al die oudere GPU's ook wel onder dezelfde omstandigheden getest zijn.. Dat wordt denk ik beetje lastig aangezien de rest van de testbench qua CPU en geheugen etc ook evolueert..
Als je terug kijkt zijn er wel test met de 3080Ti en de 4060(Ti) terug te vinden op een vorig test systeem, als je dan daar de vergelijking maakt, en dan de vergelijking maakt met de 4060(Ti) hier kom je een held eind met de vergelijking 5060(Ti)8GB/16GB, alleen je moet zelf een klein beetje moeite doen.

Oudere kaarten testen op een nieuw test systeem heeft niet heel veel nut, en het kost veel extra tijd, dus denk niet dat ze dat gaan doen tenzij er iemand zich als vrijwilliger aanbied om zo een mega test te doen.
Hardware unboxed heeft de 30 reeks in de vergelijking van gisteren zitten.
Alleen jammer dat je UserBenchmark als voorbeeld pakt, met stipt dé slechtste ''benchmark'' website op het internet. Het is zo erg dat subreddit r/pcmasterrace een bot gebruikt die gebruikers automatisch waarschuwt wanneer een link van UserBechmark wordt gedeeld:
You seem to be linking to or recommending the use of UserBenchMark for benchmarking or comparing hardware. Please know that they have been at the center of drama due to accusations of being biased towards certain brands, using outdated or nonsensical means to score products, as well as several other things that you should know. You can learn more about this by seeing what other members of the PCMR have been discussing lately. Please strongly consider taking their information with a grain of salt and certainly do not use it as a say-all about component performance. If you're looking for benchmark results and software, we can recommend the use of tools such as Cinebench R20 for CPU performance and 3DMark's TimeSpy and Fire Strike (a free demo is available on Steam, click "Download Demo" in the right bar), for easy system performance comparison.
Kijk voor de lol even naar de 9800X3D review, wat momenteel als de beste gaming processor wordt gezien. Op subreddits zoals r/Intel en r/AMD is UserBenchmark al jaren verbannen. Hier een paar dingetjes uit de UserBenchmark FAQ, als kers op de taart:
Why does UserBenchmark have negative trustpilot reviews?

The 200+ trustpilot reviews are mostly written by virgin marketing accounts. Real users don't give a monkey's about big brands.

Why don’t youtubers promote UserBenchmark?

We don't pay youtubers, so they don't praise us. Moreover, our data obstructs youtubers who promote overpriced or inferior products.

Why does UserBenchmark have a bad reputation on reddit?

Marketers operate thousands of reddit accounts. Our benchmarks expose their spiel so they attack our reputation.
8)7

Kortom: vermijd UserBenchmark.
In deze prijsklasse vraag ik mij af hoeveel beter/slechter is de ARC B580 bijvoorbeeld. Is dit een goed alteratief in deze prijsklasse
Daar ben ik ook benieuwd naar, zeker nu de B580 in prijs gezakt is. In de review van de B580 werd destijds gesteld dat die kaart overbodig zou worden zodra de 5060 uitkwam. Toen vond ik het al apart om dat op voorhand als minpunt te noemen, nu lijkt die conclusie ook veel te voorbarig te zijn.

[Reactie gewijzigd door FSte op 21 mei 2025 17:04]

Ben het er helemaal mee eens, de ARC B580 had er ook bij moeten staan omdat het in deze klasse videokaarten zit.
het lijkt erop alsof ze die gewoon niet hebben
8GB is inderdaad wat magertjes, maar het kan een tussenstap zijn naar een wat duurdere kaart (tot de prijzen weer wat zakken. Al valt dat wel tegen de laatste jaren)
Bouw je een nieuw systeem en speel je meestal wat oudere games is 8GB VRAM genoeg in 1080p.

Maar speel je ook recente games in 1080p heb je al snel een 12GB VRAM nodig en om de volgende jaren verder te kunnen is 16GB VRAM wel aan te raden.

Een Nvidia RTX5060Ti 16GB VRAM of een AMD Radeon RX 9060 XT 16GB VRAM (die heel wat goedkoper is) is dan ook geen overbodig luxe.
Ligt natuurlijk helemaal aan op welke settings je probeert te spelen, meeste nieuwe spellen werken ook zonder problemen op 8GB met lage settings. Je moet wel realistisch blijven dat je niet met zulke kaarten op de hoogste settings kunt spelen.
Zelf heb ik een 3080 met 10GB, en gerbuik ik deze op 3440x1440p ultrawide. Heb nog geen een keer een VRAM cap geraakt, ook met moderne spellen.
Speel geen Alan Wake 2 ofzo, maar Helldivers 2 en Cyberpunk 2077 kunnen allemaal makkelijk op ultra textures zonder dat ik de limiet raak.

Dus ik snap de hype voor minstens 12 of 16GB echt niet. Het is niet alsof performance verminderd als de VRAM op 90% zit ofzo..
Yariva Moderator internet & netwerken @Wouterie21 mei 2025 16:51
Ik liep al een paar jaar tegen problemen aan met mijn GTX 1080. En dan vooral VRAM, niet eens de grafische chip die nou dermate slecht presteerde. Nu draai ik op een AMD RX 9070 XT met 16GB en kan veel meer grafische kwaliteit in textures en kwaliteit van gras, schaduwen en water etc.

Kortom persoonlijk zou ik nooit een 8GB kaart anno 2025 kopen. Die GTX1080 heb ik 7 jaar mee gedraaid, ik hoop dat zelfde trucje opnieuw te kunnen doen met de 9070XT. 3 jaar geleden liep ik tegen problemen aan met een vol geheugen, ik neem er vergif op dat dit de aankomende jaren alleen maar vaker zal gebeuren met een kaart zoals de GTX 5060.
Maarja, jij bent dan ook niet de doelgroep waar deze kaart voor is. De GTX1080 waz een highend kaart in die tijd, de 9070xt is al minstens dubbel de prijs van de 5060. En jij loopt ook niet tegen problemen aan als je de instellingen wat lager zet, in lijn met de instellingen die bedoelt zijn voor de kaart die je koopt. Zie nog steeds veel te vask mensen instellingen hoger zetten en dan verwachten dat die net zo goed presteert als een vele duurdere kaart.
De 5060 is bedoelt voor de casual gamer die niet de hoogste instellingen nodig heeft omdat die toch meestal oudere of niet intensieve games spelen, en dat is nog steeds een hele grote groep.
Yariva Moderator internet & netwerken @SuperDre23 mei 2025 18:35
Mijn punt is dat spellen alleen maar zwaarder zijn geworden door de loop van tijd. En dat zal blijven gebeuren, ook voor een casual gamer die niet alles op ultra zet. Zo niet nu dan wel over 3 jaar wanneer we vandaag de dag al spellen hebben die je niet op ultra hoeft te draaien om door het VRAM te knallen.

Dan blijft de vraag wat goedkoper is. 2 grafische kaarten om de 3 jaar kopen of nu voor 1 gaan die het langer vol houdt en je nu meer prestaties levert. Dat is aan de consument. Ik volg het advies echter wel op van meerdere reviewers die waarschuwen over hoe feature-proof de kaart blijkt te zijn met maar 8GB. Ook op lagere resoluties. Om maar niet te spreken over de restwaarde.
Restwaarde is iets waar ik dus nooit rekening mee hou, want ik verkoop mijn hardware toch niet, of ik geef het weg of de gpu gaat in de kast voor het geval mn nieuwe kapot gaat en ik dus tijdelijk een vervanging nodig heb tot een nieuwe weer in huis is.
nVidia is erg anti-consument bezig met hun manipulatieve gedrag, misleidende marketing en opleggen van ondermaatse standaarden. Om die reden vind ik nVidia geen voor de hand liggende keuze in dit segment.

Maar de stap vooruit van de 5060 tov zijn voorganger is best OK. Als deze kaart wederom 279,- kost rond Black Friday, net zoals de 4060 vorig jaar, dan is dat echt wel weer een prima deal. Ik ben erg benieuwd naar de verhouden tot de RX 9060 en 9060 XT, én de Battlemage ARC B770 en B780. De 8GB VRAM zal de kaart wel echt nekken voor 1440p gaming.

Het wordt steeds interessanter in het lagere segment. En dat is goed voor PC gamers.
hoeveel consumenten zullen dit zien?

Ik heb geen idee. want vroeger had iedereen een PC en werd er veel zelf gemaakt. Maar nu heb ik geen idee wat het aantal PC gamers is. En welk aandeel daarvan zelf PC bouwt.

Misschien dat iemand cijfers heeft hiervan want dat zal bepalen wie deze kaarten koopt. En of het mogelijk gewoon een kaart is die heel slecht gaat verkopen.
Veel consumenten zullen niets weten van de impact van het beperkte videogeheugen. En ze zullen blij zijn dat ze een PC met een 5060 hebben gekocht. Of dat ze een nieuwe, losse videokaart hebben kunnen kopen.
Die blijheid zou wel eens snel kunnen omslaan bij gebruik. En dit kan zich in de toekomst tegen Nvidia keren (en bij uitbreiding de ganse tech industrie een slecht imago bezorgen).

Nvidia lijkt vooral hogere winst op korte-termijn belangrijker te vinden dan de gevolgen op termijn. Misschien dat ze rekenen dat mensen toch snel vergeten. Of dat ze hopen om op langere termijn helemaal een monopolie te hebben, of gewoon enkel nog de zakelijke klanten nodig te hebben.
Maar hoeveel mensen die een PC kopen zijn nog onnozel?

Bij laptops ja zeker, maar bij PC's. Ik heb geen idee ik zou dit oprecht graag willen weten.
Ik heb geen cijfers, maar ik denk dat er zo nog héél veel mensen zijn. Ik ben zelf werkende in softwareontwikkeling en heb genoeg collega's die graag gamen, maar die er zo goed als niets van kennen en bij mij komen voor advies en hulp. Een "niet-tweaker" is er volgens mij echt niet mee bezig.
Een normale gebruiker kijkt niet zo naar specs. Een instap videokaart als 5060 voldoet dan prima.

En die zullen prima blij zijn met dit soort kaarten ook over 2 jaar.

Er wordt teveel een hetze nu tegen Nvidia gemaakt (kritisch zijn prima, maar men gaat al veel te ver en laat zich meeslepen door YT), maar ik kan je garanderen dat de 5060 naar topposities gaat in Steam.
Wat is dan zo'n ondermaatse standaard? Die 8GB VRAM? AMD komt daar ook gewoon weer mee hè.. Je kan ook gewoon een videokaart kopen met meer VRAM, maar die zijn dus duurder.. Komt door gebrek aan concurrentie op de GPU markt.. En wiens schuld is dat? Tja..

Als ik nu een videokaart van rond de €700-1000 moet kiezen dan kocht ik nog steeds gewoon een Nvidia videokaart.. Een RTX 5070Ti 16GB om precies te zijn, wat ik ook gedaan heb ruim een maand geleden.. AMD (en Intel) leveren simpelweg niks wat beter is voor dat geld.. Zaken als AI upscaling en raytracing worden steeds belangrijker in games, en dat zijn precies de zaken waarmee Nvidia nog steeds (ver) voorop loopt.. Ondertussen loopt de zogenaamde tech-media nu te zeiken over Nvidia's marketing en PR.. Iets wat eigenlijk helemaal niet boeit en belangrijk is.. Ga eens nadenken en begrijpen waarom Nvidia zich zo gedraagt en kan gedragen.. Pak AMD ook eens wat harder aan, waarom ze helemaal niks beters bieden dan een 9070XT die nog onder een 5070Ti uitkomt.. Waarom ze maar achter blijven lopen qua raytracing prestaties, waarom de ondersteuning van FSR etc zo achterblijft in veel games.. Waarom ze ons daarmee infeite overgeleverd laten aan Nvidia die kan doen wat ze willen omdat er amper tot geen concurrentie bestaat.. Uiteindelijk bestaan al die chip-bedrijven (AMD, Intel, Nvidia) alleen maar om geld te verdienen op de beurs, niks anders.. Kies daarom gewoon wat het beste is voor jouw wensen qua prestaties, ondersteuning en prijs en negeer alle onzinnige ruis rondom marketing en PR, allemaal totaal niet belangrijke zaken..

Waarom heeft AMD de koppositie op de CPU markt opvergenomen van Intel? Niet vanwege marketing of PR, maar puur omdat ze een beter product produceren en leveren.. Daar gaat het om.. Ik heb nu voor het eerst in mijn leven een AMD processor in mijn PC zitten, sinds begin jaren 90 altijd Intel gehad.. Een Ryzen 7 9800X3D nu.. Wat gaan ze doen om ervoor te zorgen dat ik weer eens wat anders dan Nvidia ga kopen als videokaart?!? Laatste was een ATI geloof ik (nog voordat AMD ze overnam)..

[Reactie gewijzigd door Inflatable op 22 mei 2025 15:06]

Ik bedoelde het opleggen van de 12VHPWR kabel connector op de videokaart.

Prijs/kwaliteit is de 9070 XT ook erg goed.
Veel mensen zien het verschil tussen RT aan/uit niet, maar de significant lagere FPS wel.

Verder is DLSS 4 misschien iets beter dan FRS 4, maar als ik 800 euro uitgeef aan een videokaart wil ik gewoon native kunnen gamen. Dat is per definitie mooier dan upscaled.

Ook valt er iets te zeggen over de negatieve impact van DLSS en FG op de gamingmarkt in zijn geheel. Kwaliteit lijkt bij veel nieuwe releases eerder achteruit te gaan, dan vooruit.

[Reactie gewijzigd door Dekar op 22 mei 2025 15:35]

De B580 is meer in deze categorie, de B770 zal richting de 5070 gaan.
En ik heb in 2019 nog 370 euro moeten betalen met black friday voor de goedkoopste 2060super, dus om nu al de 5060 voor 324 in de webshops te zien liggen vind ik enorm meevallen, dus met blackfriday zal die wel rond jouw gewenste prijs liggen.
Beetje duur voor deze prestaties....
Vind je? Prestatie sprong ligt in lijn met de sprongen tussen eerdere xx60 kaarten. Enuh als ik zo rondkijk, dan is deze zelfs nu een stuk goedkoper dan de 2060super die ik indertijd met een black friday aanbieding kocht, wat toen ook nog eens sowieso de goedkoopste te krijgen was, en een nogal onbekend merk. Dus al met al als je gewoon nuchter nadenkt is er niets mis met de prijs die de kaart nu kost (324).
De hele 5000 lijn sla ik over. Ik ben niet geïnteresseerd in nepframes, achteruitgang (geen PhysX ondersteuning, iets oudere games lopen voor geen meter) of smeltende connectoren. Ik zit nog wel effe goed met mijn 3080. Ik koop elke twee jaar normaal gesproken wel een gpu, maar de vooruitgang is voor mij nog steeds niet groot genoeg (met echte frames).

Ik heb het liefst ook gewoon 2x 8 pins connectoren (zoals de meeste 9070 xt van amd wel hebben bv), maar ook die vooruitgang vind ik niet groot genoeg. In ieder geval niet voor die prijs. Weer een jaar wachten en hopelijk is er dan wel iets interessants. Hopelijk wordt het energieverbruik minder, dat zou wel een goede reden zijn misschien.
Ik zat eigenlijk al te kijken naar de 4080, maar gaf niet veel meerwaarde tov de 3080-12GB die ik nu heb. 5080 sla ik ook over vanwege problemen. Meerdere mensen die deze kaart in een wat ouder moederbord stoppen moeten PCI-E 4.0 naar PCI-E 3.0 zetten om de computer stabiel te krijgen/op te laten starten. Zelfs al een geval met een threadripper systeem (1950?) dat niet op 3.0 wil werken maar alleen op 2.0 anders start de computer niet door. Zo zijn er nog wel meer problemen. En ik heb ook geen zin in die smeltende connectoren/risico daarop.

Heb eigenlijk elke keer een generatie ge-updrade, GTX1080->RTX2080->RTX3080 (heb ze allemaal nog).
Ook leuk om te zien dat de stap omhoog best flink is in benchmarks.
Dacht ik eerst ook, maar framegen is een prima techniek hoor. Stel je haalt als 60 fps dan voelt het als 144hz dankzij framegen. Zelf heb ik de artifacting nauwelijks door. Latency ook niet. Voor een competitive shooter is het uiteraard niet weggelegd.
Oh voel me in ieder geval een stuk beter over mijn 7700XT aankoop zo'n 16 maanden geleden. Al had ik er toen beter een 7800xt 16gb van kunnen maken haha.
Ahja. Voorlopig geen nvidia voor mij. Ray tracing is na 7 jaar nog steeds niet goed en fake frames vind ik niet zo fijn aangezien ik voornamelijk multiplayer speel.

En nu de mandatory 8gb haat; 8gb hoort 199,- te zijn. Anders is het puur kwaad en de duivel zelf.


Om te kunnen reageren moet je ingelogd zijn