Door Reinoud Dik

Redacteur

Welke gpu leunt het minst op je cpu?

Een nieuwe videokaart in je oude pc

06-03-2023 • 06:00

179

Singlepage-opmaak

Conclusie

Bij een pc is het upgraden van de videokaart een stuk makkelijker dan overstappen naar een nieuwe processor met een nieuw moederbord. Het zal dus best weleens voorkomen dat je jouw game-pc van een snellere videokaart voorziet terwijl je de oude processor nog wat langer blijft gebruiken. Hoe de videokaarten van Nvidia, Intel en AMD zich verhouden in zo'n scenario, hebben we in dit artikel uitgezocht.

Radeon vereist geen snelle processor

Samengevat komt het erop neer dat AMD in de geteste games minder afhankelijk is van de processor dan Nvidia en Intel. De Radeon RX 6700 XT toont een veel minder groot prestatieverschil als de snelste processor uit deze vergelijking wordt vervangen door de langzaamste. Met de traagste cpu is de RX 6700 XT zelfs sneller dan de RTX 3070. Het lijkt er dus echt op dat de driver overhead van AMD de laagste is. Van de geteste games illustreert Spider-Man Remastered dit waarschijnlijk het beste. Die lagere overhead is ook in het energiegebruik terug te zien, wat bij Shadow of the Tomb Raider het meeste opvalt. Heb je een iets ouder gamesysteem en overweeg je een gpu-upgrade, dan haal je met een Radeon-kaart dus het meeste uit je investering.

GeForce gaat niet zomaar aan het werk

Waar de RX 6700 XT relatief weinig profijt heeft van snellere processors, geldt het tegenovergestelde voor de RTX 3070. Een trage cpu stemt het GeForce-kamp niet bepaald vrolijk, maar een echt rappe gamingprocessor zoals de Ryzen 7 5800X3D kan de RTX 3070 fors helpen. In alle geteste games is op ultra-instellingen de RTX 3070 dan ook de snelste videokaart van het drietal.

Een stapje terug naar de Ryzen 5 5600 is soms ook al snel genoeg, zoals The Callisto Protocol en F1 laten zien. In Shadow of the Tomb Raider komt de RX 6700 XT dan echter gelijk uit met de RTX 3070, en in Spider-Man Remastered is de AMD-kaart zelfs sneller. Die laatste twee games hebben niet per definitie een voorkeur voor Radeon-hardware, aangezien de RTX 3070 in combinatie met de 5800X3D ook daar de snelste blijft.

Arc-driver hangt aan de cpu

De Intel Arc A770 zet resultaten neer die per game en grafische setting uiteenlopen. In The Callisto Protocol op ultra schaalt de Arc niet verder met iets snellers dan een Ryzen 5 3600. Daarbij liggen Intels prestaties bovendien niet zo gek ver van die van AMD. In F1 zien we echter lage framerates in vergelijking met de concurrentie, en dit schaalt stroef door met snellere processors, wat een indicatie is dat de driver niet bepaald meewerkt. De A770 lijkt vooral door de traagste processor te worden tegengehouden, en ziet tegelijkertijd relatief weinig verbetering met de snelste cpu die we in de vergelijking hebben meegenomen.

Met dit artikel hebben we geprobeerd om meer inzicht te geven in de prestaties van de genoemde drie videokaarten met vier verschillende, in snelheid variërende processors. Vanwege deze behoorlijke rits hardwarecombinaties is het aantal geteste games beperkt gebleven, en bovendien draaien ze allemaal op DirectX 12. Daarnaast is er voor dit artikel enkel met Ryzen-processors getest. Voor een opvolgend artikel willen we daarom ook Intel-processors en DirectX 11-games onder de loep nemen, om te achterhalen hoe de verhoudingen tussen Nvidia, Intel en AMD dan zijn. Heb je suggesties voor DX11-games die je daar graag in terug ziet komen? Laat het weten in de reacties.

Reacties (179)

179
179
92
3
0
74
Wijzig sortering
Kijk, dat is nog eens nuttig onderzoek en voor zo ver ik kan nagaan behoorlijk uniek ook!
  • Nuttig: want in de afgrelopen periode met de torenhoge GPU-prijzen heeft menigeen wel een nieuw systeem gebouwd, maar zonder of met een oudere GPU.
  • Uniek: Ik ken niks echt vergelijkbaars bij b.v. Tomshardware, Anandtech of de bekendere YT kanalen (LTT of GamersNexus)
Hulde!
Dit is al eerder aangehaald op verschillende sites, het kan zelf zo erg zijn dat een 6650 XT sneller is als een 4090 als de CPU te traag is.

https://youtu.be/JLEIJhunaW8?t=1
https://youtu.be/JH8UTc6lwX8

Wel mooi dat Tweakers dit nu ook aankaart, want dit driveroverhead gebeuren is al erg lang bij nVidia, maar weinig mensen schijnen dit maar te weten.

[Reactie gewijzigd door Sinester op 22 juli 2024 18:52]

Wat ik mis in het verhaal is de cpu load.
Ik heb nu een ryzen 7 1700 met een gtx1080. In meeste games loopt m'n cpu op 30% max. Mijn conclusie is dat ik dus prima m'n gpu kan upgraden. Echter dit artikel doet anders vermoeden?
Een Ryzen 7 1700 bottleneckt de meeste spellen best wel hard en ook de GTX 1080. Heb ik eerstehand ervaring mee:

Planet Coaster, spelletje uit 2016 alweer (niet goed geoptimaliseerd voor Ryzen maar toch)
GTX 1050ti + Ryzen 7 1700 haalde ik ~30fps, low/medium settings. Upgrade naar de RX 6600 die qua prestaties vergelijkbaar is met de GTX 1080, haal ik 40fps. Upgrade naar de Ryzen 7 5700X, game trekt nu makkelijk 60fps zonder enige frame drops.

Ook als je CPU niet op 50/100% load staat (50% is alle cores aan het werk, met Intel Alder en Rocket Lake ligt het wat hoger vanwege de P en E cores) kan je CPU nog steeds de bottleneck zijn.

Hier een video die demonstreert dat een geoverklokte i9-10900K een RX 6600 bottleneckt :o en de Ryzen 7 1700(X) komt hier ook aan bod icm met de RTX 3090ti. Zie ook hier dat de CPU load hangt tussen de 20 en 30% op de i9 en toch een bottleneck heeft.

Als je weer voor een nieuwe dikke grafische kaart gaat zou dit perfect passen met een Ryzen 9 upgrade in je bestaande moederbord, 5900X of 5950X. Echt een wereld van verschil als je upgrade van Zen 1 naar Zen 3!
Alle cores, of staan er een paar 100% en de rest idle,, niet alle games multithreaden goed. in dat geval loont het wel te upgraden.
Hmm ik zie een grote sprong ook bij de videokaart van AMD als je van een Ryzen 5 1600 naar een Ryzen 5 3600 gaat. Nu vraag ik me af hoe de Ryzen 5 2600 zich daartoe verhoudt: zie die daar midden tussenin zitten? Die heb ik zelf toevallig.
Nee, zit net iets hoger dan de 1600, is namelijk zen+ wat een refresh is van zen (1) en zen 2 (3600) is een stuk sneller dan zen(+).
A okee, dank. Dan zou het voor mij dus wel lonen om ook een nieuwe processor erin te steken als ik een nieuwe videokaart wil kopen, zal t.z.t. eens kijken welke Ryzen er nog in mijn moederbord past.
Als je op Ryzen 1000/2000 zit, is dat Socket AM4. Daarin passen cpu's van de 3000 serie die nu tweedehands betaalbaar verkrijgbaar zijn (en ik héél toevallig eentje van verkoop) en een mooie upgrade geven. Daarnaast passen er in sommige gevallen 5000 processors in, die nog weer een goede stap sneller zijn - maar ook nieuwer en daardoor duurder. Fysiek passen die 5000 allemaal, maar niet alle moederborden ondersteunen ze en misschien moet je de BIOS eerst updaten.

Ik ben zelf een paar jaar terug van een 1700 naar een 3700X gegaan, en nu net een weekje naar een 5800X3D, op een Asus Prime X370 Pro (wat een naam...) moederbord.

[Reactie gewijzigd door cPT.cAPSLOCK op 22 juli 2024 18:52]

Dank voor de samenvatting. En een 4000-serie bestaat niet? Mocht ik een keer gaan upgraden zal ik dit ter harte nemen.
Als ik me niet vergis zijn de 4000-cpu's voor laptops bedoeld, en hebben ze integrated graphics. Volgens mij zijn ze voor desktop eigenlijk niet aan de orde, maar dat weet ik niet volledig zeker.
Kan je het veroorloven, koop dan de 5800x3D. Dat is een beest van een gaming CPU waar vooral je lows (1% en 0.1%) van zullen genieten. Als "budget" optie is de 5600X er nog, maar eerlijk gezegd is de 5800X3D zijn prijskaartje wel waard en zou ik niet iets anders aanraden.
Dank voor de tip, al denk ik niet dat ik zo'n sterke processor nodig heb hehe.
Het was ook voor lange tijd andersom. Ik sta hier bijvoorbeeld wel even van te kijken, want had het andersom verwacht.

Toegegeven, dat komt uit de GCN tijd en daarvoor.

Maar wel een wijze les.
Voor mij met een zen+ systeem gaat dit de keuze tussen een 6650xt en een rtx3060 misschien wel makkelijker maken.
De oorzaak zit hem in het feit dat AMD een scheduler in de hardware heeft zitten en nVidia doet het in de drivers.

Als je CPU dan dus druk is, heeft deze minder tijd om je gpu van scheduling data te voorzien en zakken de prestaties in wat er zelfs voor kan zorgen dat een 7900 XTX ruim sneller is dan een 4090 in zeer CPU intensieve games zoals aangetoond door Hardware Unboxed in hun hogwarts legacy video.
Ik wacht nog 1gen CPU's af, maar m'n 2080 super was echt aan vervanging toe.
Ben voor werk nog altijd afhankelijk van cuda stack, dus moest met team groen gaan,
Zag de prijzen van de 4080 series.... 4090 it is.

Op een i9900K 64GB (DDR4 3600) Was compleet klaar voor choke fest !
Well sheeeet, Warzone 4k 144FPS Ultra, no spang, Flight Sim 90FPS Ultra 2k ? No spang, zelf Harry Potter (meer als bench, gekocht maar draai de non Devueo versie I might add) Easy ....

Did not expect.
Wat je bij nuttig omschrijft (nieuwe cpu met oude gpu) is precies het omgekeerde van wat hier is getest. Daarnaast vind ik het jammer dat 1440p niet is meegenomen in de test. We weten allemaal dat het verschil op hogere resoluties lager is, maar hoe klein de verschillen worden ben ik juist benieuwd naar.
Idd, als je dan een upgrade doet naar een RTX 3070 kan je misschien ook 1440p 60fps ambiëren en verlaat je het Full HD pad.

Ik begrijp dat je sommige shooter graag op 120fps+ speelt maar voor veel games is alles boven 60fps overkill. Dus als je 120fps hebt staan dan ga je meestal de graphics wat hoger zetten om wat fps in te ruilen voor Raytracing of betere textures etc.

Het ziet er naar uit dat een duurdere CPU geen enkele meerwaarde heeft voor een 60fps gamer. Al kan ik dat natuurlijk niet met 100% zeggen.
Dat hoeft niet zo te zijn, het gaat niet alleen om de average maar ook om de mins (1% en 0.1%). De 5800X3D is hier een goed voorbeeld van dat qua average niet veel beter deed dan de flagship van intel van dat jaar maar lows echter een stuk beter. Hogere lows = minder stutters = fijner game-ervaring.
Ik denk dat je me verkeerd begrijpt: ik bedoel dat velen de afgelopen jaren systemen met oude GPU's (of APU's) hebben gebouwd en nu een bijpassende GPU kopen van een meestal net wat nieuwere generatie dan ze hadden kunnen doen toen ze hun systeem samenstelden.
Zelf heb ik dat ook gedaan: een 5900X eerst gecombineerd met een 5700XT en nu met een 7900XT.
Wat destijds (ten tijde van de bouw van de pc) een nieuwe CPU was, zal inmiddels een oudere CPU zijn van één of twee jaar oud. In dat geval is dit artikel dus precies passend bij de situatie.
Eens. Ik zou heel graag 1440p en 4K tests toegevoegd zien aan de test. Ik snap dat 1080p makkelijker is om te testen omdat de CPU eerder de bottleneck is, maar tegelijkertijd is het ook enigszins irrelevant omdat ik vermoed dat de gemiddelde tweaker die een GPU van deze prijsklasse heeft, niet zal gamen in 1080p.
Ik mis echter een diepere technische analyse. Bijvoorbeeld, waarom is de RTX3070 zo afhankelijk van de CPU? Komt dat omdat de 3070 minder L2 of L3 cache heeft, of een grotere memory bottleneck? Er is een conclusie maar geen wáárom.
Omdat Nvidia een boel van de scheduling op in de driver doet sinds de 600 generatie. AMD doet dit voornamelijk op de gpu.
Beide hebben voor en nadelen; NVidia heeft betere multithreading met DX11, AMD zal het qua cpu gebruik altijd beter doen in moderne api's zoals DX12, Vulkan en dergelijken. Gezien de toekomst de moderenere api's zijn heeft AMD nu het voordeel.
Nvidia doet vanaf Turing ook meer aan hardware scheduling geloof ik. Waar Pascal nog vaak prestatie verlies had in DX12 mode doet Turing het iets beter in DX12 mode.
Klopt, maar nog niet op het niveau als ze met de 4xx generatie hadden of wat AMD doet.
Dit zou inderdaad een welkome toevoeging zijn geweest :Y)
Juist alle bekende techkanalen op Youtube doen vergelijkende tests alleen heeft Tweakers er voor gekozen om dit vanuit het oogpunt van de GPU te doen, terwijl dit soort vergelijkende benchmarks bij andere kanalen vaak worden gedaan bij de release van nieuwe CPU reeksen... maar onder de streep blijft de uitkomst uiteraard hetzelfde.
ACM Software Architect @MicGlou6 maart 2023 10:00
Bij CPU-reviews doet ook Tweakers een hele rits aan game-tests, maar dan maar met 1 videokaart.

En bovendien gaat het niet zo ver terug als nu. Je kan niet in ieder geval niet zomaar de resultaten van een nieuwe CPU-review vergelijken met een oudere; er is in ieder geval geen garantie dat sindsdien de games, drivers en/of het OS geen updates hebben gekregen.
Tweakers ja... maar als ik kijk naar bijvoorbeeld LTT of GamersNexus, die doen toch wel vaak een combinatie van GPU's en CPU's om een sweetspot aan te kunnen geven.
Hardware Unboxed heeft de laatste tijd een paar van dit soort testen gedaan.
Het is wel interessant om te zien dat amd in deze test meer zelfstandig lijkt te zijn en minder leunt op de cpu en dat nvidia meer op de cpu leunt. Dit zie je dus terug in de performance overall. Ik heb geen achtergrond kennis maar het vermoeden is dat dit ook de reden is waarom amd altijd een stapje achterloopt op nvidia. Het lijkt alsof amd constant te veel op zijn bordje neemt wat impact heeft op de performance. Daarnaast is het de vraag of je een gpu cpu berekeningen moet laten doen om de cpu te ontlasten. Cpu's zijn veruit niet de duurste componenten meer. Als je daardoor 20 fps uit een game meer kunt halen door een midrange videokaart te kopen en voor 75 euro een nieuw mobo en een middelmatige cpu dan denk ik dat je beter voor de 3070 kan gaan.

Maargoed ik ben wat partijdig in deze kwestie. Ik zelf koop namelijk (als ik upgrade) altijd het snelste wat er op dat moment is. Ik heb nu al 8 jaar de 980ti en dat ding kostte toen een vermogen. Maar het geld zeker waard. De reden dat ik nu niet upgrade is omdat ik een 4070 of 4080 gewoon niet snel genoeg vind en een 4090 gewoon nog steeds schofterig duur is. Maar leuk om eens een test te zien op deze manier. Jammer dat er alleen met amd cpu's is getest dat wel. Mijn gevoel zegt dat nvidia's beter werken met intel cpu's maar of dat waar is geen idee. Dit is meer zomaar een gevoel.

[Reactie gewijzigd door sygys op 22 juli 2024 18:52]

Inderdaad heel interessant en nuttig, iedereen die dacht dat alleen een gpu upgrade nut had weet nu dat dat zeker niet het geval is.
Nu is een upgrade van 3600 naar 5600(x) of wellicht 5800X3D gelukkig goed te doen, zelfde platform, etc, alleen waarschijnlijk een bios update en je kunt weer jaren vooruit! :)

Ben ook zeer benieuwd hoe dat zit met oudere vs nieuwe Intel Core i5 cpu's ;)
Vond deze benchmarks heel leuk omdat ik een 6750xt heb icm een Ryzen 3600 en de 5600 overweeg gezien de lage prijs en ik op het platform kan blijven. Maar ik was eigenlijk niet zo heel erg onder de indruk van het verschil.
Jawel hoor, dit gebeurd geregeld maar is wat verminderd omdat met het krachtiger worden van CPU en de resolutie in gaming die omhoog gaat dit wat minder relevant geworden is.
ja mee eens. Echt een goed idee deze test!
Beter dan 20ste waar al de standaard bottlenecks zoveel mogelijk zijn weg gehaald.
Hardware Unboxed heeft vergelijkbare onderzoeken en conclussies. Laat niet weg dat dit goed is dat Tweakers hier ook naar kijkt omdat niet iedereen bijv. HU kent.
Nee hoor hardware unboxed doet dit al een tijd. Die kwamen er ook al een van de eerste achter dat nVidia kaarten meer cpu overhead hebben. Vooral de 3090 en 3090 Ti topmodellen worden flink bottlenecked op tragere CPU's.

[Reactie gewijzigd door Astennu op 22 juli 2024 18:52]

Dit was ook al eens eerder gedaan, geen idee meer wie waar. Maar nV is duidelijk toen al cpu afhankelijk. Dat maakt al die high-end cpu bench reviews voor mainstream stuk minder relevant dan het al was. Ik zit met mijn ouwe TR op Zen1
Wat je nu mist is low power 13th intel low power gen zen4
Wat brengt intel cpu schaling in de mix. En hoe schaalt rtx40 en rdna3.

Naast die TR systeem van mij Zen1 koste vermogen dus het is niet vanzelf sprekend dat daar low budget of midrange g-kaart in komt.
Maar cpu schaling doet er ook niet toe met Zen1 TR met top rdna3 kaart omdat er dan ook eens een cpu upgrade met mobo en mem zal komen. En onbalans is dan tijdelijk. En g-kaart zal dan daar dienst doe . Al stel ik dat mogelijk nog langer uit. Navi32 of instap navi31 of toch navi33. Onbalans is niet erg. Omdat mijn upgrade cyclus lang is ga ik voor g-kaarten met veel vram. Ipv vaak upgraden ook liever tier hoger.
Moet je kijken naar Hardware Unboxed op Youtube. Ontzettend veel benchmarks.
Ik heb zelf m'n 1600x voor een 5700 vervangen met een zeer merkbare verbetering als gevolg. Mijn grote raadsel is op dit moment hoe ik de bottleneck had kunnen meten. CPU liep nooit op 100%, ook niet als je met HW-Info maxima bekeek na een half uurtje gamen. Iemand enig idee hoe je, zonder daadwerkelijk de boel te verbergen, kunt weten waar je bottleneck zit?
Game engines gebruiken vaak maar 1 en soms misschien 2 cores dus als je ziet dat 1 core bijna constant op 100% zit en je gpu maar voor bijvoorbeeld 70% word gebruikt duid dat meestal wel op een CPU bottleneck.

Percentage voor gpu gebruik is puur fictief alles onder de "100%" zou op een bottleneck kunnen duiden.
HWinfo splitst dat inderdaad uit per core, zelfs daar geen 100% te bekennen destijds. Ik dacht een tijdje dat het misschien aan het moederbord lag, maar gezien alleen de CPU is vervangen was dat het dus ook niet.
Wat vaak ook een rol gaat spelen is hoe snel de data naar je CPU komt, vooral bij oudere systemen zie je dit terug met langzamer geheugen iets dat toen nog geen rol speelde maar nu steeds belangrijker wordt. Dit zie je ook terug bij ddr5 vs ddr4 op het Intel platform en AMD is hier nog gevoeliger voor wat betreft subtimings en latency kan het zo 20% schelen.
De engine zelf kan ook gewoon de bottle neck zijn. Als je dan een cpu hebt met een snellere core dan kan je hier dik profijt van hebben ondanks dat die core misschien qua utilisatie niet veel doet.
Moeilijk te zeggen wat de oorzaak was zonder alle details te kennen. Welke games, welke resoluties, welke settings? Welke/hoeveel RAM en moederbord gebruik je? De 1600x verschilt op een heel aantal fronten met de 5700(x neem ik aan) op manieren die je niet persé gaat terugzien in de belasting van de CPU zoals Windows dat meet. Hogere turbo, ondersteuning RAM frequenties, lagere TDP (waardoor turbo langer kan), ondersteuning PCIe 4.0, meer L2 en L3 cache zijn een paar dingen die allemaal effect kunnen hebben.
Er is een max thread load (%) in Hwinfo64.
Anoniem: 420148 @DarkBlaze6 maart 2023 09:20
Game engines gebruiken vaak maar 1 en soms misschien 2 cores dus als je ziet dat 1 core bijna constant op 100% zit en je gpu maar voor bijvoorbeeld 70% word gebruikt duid dat meestal wel op een CPU bottleneck.
Beetje verouderd 2008-sentiment denk ik. De meest gebruikte game engines hebben tegenwoordig multi-core support. Games als The Witcher, Elden Ring, Dying Light, etc. rammen zeker wel op alle cores.
Zeker maar er is nog steeds vaak maar een main thread en als die dus een core maximaal belast zit je alsnog met een bottleneck vandaar ook dat ik aangeef dat dit vaak voor 1 of 2 cores geld en het dan niet uit maakt dat de rest maar op 50% zit bijvoorbeeld.
Ligt aan het type spel. Grote open wereld spellen zoals bijvoorbeeld Rust leunen nog steeds heel erg hard op een core. Er blijft altijd een 'loopje' die uiterst zwaar belast word. Je kan dan zaken zoals rendering etc deels parallel doen maar je loopt altijd achter de feiten aan.
Ik gebruik zelf een 10850K, en in de meeste games zie ik dat er hooguit 4 cores echt zwaar gebruikt worden. Ook op recente games is dat het geval.
Moderne CPUs hebben hyperthreading. Als je CPU meer dan 50% gebruikt, heb je een cpu bottleneck.

Zelfs als je geen 50% in gebruik heb, kan er een bottleneck zijn. Je kan het gewoon nooit zien in windows explorer. Je kan ook kijken naar GPU gebruik: Als je GPU niet 100% draait continue, dan is er een CPU bottleneck (of je hebt v-sync aan)

[Reactie gewijzigd door Gamebuster op 22 juli 2024 18:52]

Als je een quad core hebt en je cpu is 12,5% in gebruik, dan kun je al een bottleneck hebben.
Er zijn namelijk 8 mogelijke threads die tegelijk lopen.

Die 50% is nergens op gebaseerd.

Het kan zelfs zijn dat je cpu op 99% draait en je (net) geen cpu-bottleneck hebt. Dan heb je wel een game die exceptioneel goed multithreading ondersteunt, maar goed, het is als voorbeeld.
Voor beide jullie voorbeelden kun je alleen CPU-bottlenecks zien in theoretische gevallen. In het geval van jouw 12,5% zou 1 thread op 100% kunnen draaien en de rest 0%, in het voorbeeld van Gamebuster zouden 4 threads op 100% kunnen draaien en de andere 4 threads 0% (bij een quad core met HT). Er is zover ik weet niet één moderne game die de load precies zo verdeeld, in de meeste gevallen is het dus lastig te zien puur op basis van thread load.

Sommige games hebben een overlay voor CPU en GPU latency (Tarkov dacht ik bijvoorbeeld), door die te vergelijken kun je veel beter zien of je een CPU bottleneck hebt. De CPU latency zal dan hoger zijn dan de GPU latency, waardoor je GPU op je CPU moet wachten.
Er is zover ik weet niet één moderne game die de load precies zo verdeeld, in de meeste gevallen is het dus lastig te zien puur op basis van thread load.
Als mijn vrouw Fallout 76 speelt op haar 7700k, zie je dat alle 8 "cores" rond de 60% hangen. Dat zie je bij verassend veel games op haar systeem.

Speel je diezelfde game op een modernere CPU, dan zie een heel ander plaatje, met vooral load op 1-2 cores.

Ik heb er geen logische verklaring voor, maar bij haar PC zie ik heel goed dat de CPU vrij consistent alle cores op >=50% heeft in games.

De maatstaaf die ik dan aanhoud is gewoon GPU gebruik zonder frame-limiter. GPU niet op 95%+, dan heb je een CPU bottleneck

[Reactie gewijzigd door Gamebuster op 22 juli 2024 18:52]

Komt dat niet ook doordat Windows de threads heel snel tussen de verschillende cores wisselt? Ik meen dat het in principe zo kan zijn dat één thread eigenlijk 100% van een core aan het trekken kan zijn maar als deze steeds tussen 4 verschillende cores verplaatst wordt zie jij dat als 4 cores op 25%. Ik weet niet of er methodes zijn om hier omheen te werken, maar je kunt dus in ieder geval niet zomaar uitgaan van wat taskmanager je vertelt.
Daar lijkt het soms wel op ja
Mijn bericht spreekt jou niet tegen. Ik geef alleen aan dat als je ziet dat je (oude, waarschijnlijk quad-core) CPU op >=50% zit, dat je waarschijnlijk een cpu bottleneck hebt.
De oorzaak zit hem in het feit dat AMD een scheduler in de hardware heeft zitten en nVidia doet het in de drivers.

Als je CPU dan dus druk is, heeft deze minder tijd om je gpu van scheduling data te voorzien en zakken de prestaties in wat er zelfs voor kan zorgen dat een 7900 XTX ruim sneller is dan een 4090 in zeer CPU intensieve games zoals aangetoond door Hardware Unboxed in hun hogwarts legacy video.
Sorry maar zo werkt hyperthreading niet, er is geen hard percentage van 50% omdat de core 2 threads bedient. Cores hebben zelfs met alle cache layers van tegenwoordig nog steeds een percentage idle wacht tijd op zaken als memory. Die tijd wordt eerst ingevuld door de andere thread, hyperthreading maakt core gebruik dus efficienter. Intel heeft er ooit in een grijs verleden een document over geschreven wat gek genoeg nog steeds stand houd in de huidige processoren. In dat document wordt aangegeven dat afhankelijk van de instructies die worden uit gevoerd er tussen de 20% en 30% winst wordt gehaald. Voor mijn werk in datacenters heb ik dat soort calculaties ook wel eens uitgevoerd en dan gemeten met tooling als Login-VSI of de scaling klopt. Maar goed ergens tussen de 70 en 80% single core gebruik zit je tegen het plafond en kan je andere thread op dezelfde core hier last van gaan krijgen. Als je 2 processen hebt die beide veel van de core verlangen dan zal de scheduler proberen deze niet als 2 threads op dezelfde core te schedulen. Daarom is de scheduler in je OS zo belangrijk ook voor CPU's die nog niet als de laatste Intels big little design hebben. Een slechte scheduler die 2 processen van meer dan bijvoorbeeld 70% op de 2 threads van 1 core plaatsen zou namelijk behoorlijk slecht prestatie opleveren. Als je echter niet genoeg cores hebt voor alle processen die veel cpu gebruiken, dan komen er uiteindelijk ook 2 op dezelfde core terecht omdat de scheduler out of options is. Beste performance komt uit combinatie van 2 zaken als je mega cache sizes even niet meetelt. 1 single core performance. 2 genoeg cores om alle zware processen van een game op een eigen core te laten landen. Hierbij zie je dat als je alleen aan de eerste voldoet (13100) dat je afhankelijk van de game title wint of verliest van een CPU die alleen aan de 2e voldoet en multicore redelijk close zijn zoals bijvoorbeeld een Ryzen 5 3600. Als je nu naar games kijkt heb je voor het meeste aan 6 cores genoeg, 8 cores is beter en meer dan 8 levert nouwelijks nog winst op. Let op bij Intel big little hebben we het in dit geval enkel over de performance cores.

[Reactie gewijzigd door Leon Straathof op 22 juli 2024 18:52]

Heb je de CPU last wel uitgesplitst per kern? Een hoop spellen leunen primair op een enkele thread, als je dan 4 CPU kernen hebt waarvan kernen 3 en 4 op 50% draaien, zal een algemeen percentage ook nooit hoger zijn dan het gemiddelde van 75%.

Voor mij was de test met een notoire CPU gelimiteerde game en een wat luidere GPU wat de CPU limiet duidelijk maakte. In een nieuwe ronde Cities Skylines ging de GPU vol aan de bak om een mooie 100FPS te renderen, met alle geluid van dien. Een uurtje later hoorde ik mijn GPU niet meer, want m’n 6600k was veel te druk met het simuleren van m’n stad.
Anno 1800 hetzelfde; Videokaart opeens super hard blazen zodra ik naar water kijk :+
Als je de grafische settings verzwaard en je FPS blijft hetzelfde /gaat omhoog -> CPU bottleneck, gaan die omlaag -> GPU bottleneck.

[Reactie gewijzigd door k995 op 22 juli 2024 18:52]

Zo simpel en er zullen vast wat haken en ogen aan vast zitten, maar dit ga ik zeker eens proberen!
Ben het niet vaak met @k995 eens, maar hij zit hier inderdaad goed!

Het makkelijkste is om de resolutie heel laag te zetten en daarna zo hoog mogelijk; merk je niet of nauwelijks verschil in fps dan heb je een cpu bottleneck. Sommige spellen hebben een resolution slider, dat werkt ook.
Let op, sommige settings hebben meer invloed op de cpu dan op de gpu. Denk bijvoorbeeld aan model LOD, draw distance en shadows.
Je kunt naar je GPU usage kijken. Als deze met unlocked frames niet op 99% draait, is er een bottleneck. Zoals @Gamebuster al zegt, je overall CPU gebruik zegt dan eigenlijk niks. Wel kun je per core gaan kijken, en dan zul je vrijwel altijd zien dat wanneer je GPU niet 99% in gebruik is, er altijd wel 1 CPU core op 99% draait. Dan is je CPU dus de bottleneck.
Ter aanvulling: Zelfs als niet 1 CPU core op >99% draait, kan er alsnog een CPU bottleneck zijn.

Overigens bestaat er ook een RAM bottleneck, die je met 8GB of zelfs 16GB systemen tegenkomt. Wanneer RAM de beperkende factor is, neemt je CPU gebruik toe en zit geheugengebruik vaak ergens rond de 90%. Bij aanschaffen van meer RAM neemt je CPU gebruik dan opeens drastisch af.

Zo kan je soms net wat extra leven blazen in oudere setups in sommige games.

RAM bottleneck vind je vooral bij nieuwere games of simulatie games (Anno 1800, Cities Skylines, dat soort dingen)

[Reactie gewijzigd door Gamebuster op 22 juli 2024 18:52]

Iemand enig idee hoe je, zonder daadwerkelijk de boel te verbergen, kunt weten waar je bottleneck zit?
Door benchmarks op te zoeken zoals deze. Dit soort tests worden vaker gedaan. Zie https://www.techspot.com/...ryzen-5600-vs-ryzen-3600/ voor een vergelijking tussen de 1600, 3600 en 5600 waar je deze info uit had kunnen halen.

Het is inderdaad niet zo dat je het altijd maar een cpu load kunt zien. latency, cache snelheid en dergelijke spelen in games ook een grote rol. Het was algemeen bekend dat gaming een beetje de achilles hiel was van de eerste generatie ryzen processors, dat dit een stuk beter werd met 3000 en dat 5000 de eerste keer was dat AMD Intel passeerde in recente generaties qua gaming performance

Het is dan ook veilig om aan iedereen die nu op Ryzen 1000 of 2000 zit en wil upgraden te adviseren om te overwegen een 5600(X)/5700X ofzo te kopen. Die kosten net geen 200 euro, produceren weinig hitte en zijn een enorme upgrade vanaf eerdere ryzen generaties zonder aanpassingen aan moederbord, RAM of koeling. Bios updaten, cpu vervangen en gamen maar. De 5700X is nog steeds snel genoeg om 95% van de performance te halen uit de meeste GPU's buiten edgecases als de RTX4090 op een lage resolutie.

Wil je nog meer performance, dan is er altijd nog de 5800X3D, die als bijkomend voordeel heeft door zijn grote cache dat hij niet zo afhankelijk is van geheugensnelheid als andere ryzen cpu's

[Reactie gewijzigd door youridv1 op 22 juli 2024 18:52]

Fijn onderzoek! Dank jullie wel! Ik zie dus dat ik eigenlijk best wel wat prestatiewinst kan halen als ik m'n Ryzen 5 3600 zal upgraden ivm RTX3080. Het is een grotere bottleneck dan ik had verwacht en zet het mooi in perspectief.

Tip:
Zouden jullie meer (hogere) resoluties mee kunnen nemen in de test? Of wordt dat irrelevant gezien om het verschil aan te tonen? Ben persoonlijk benieuwd of die waardes verder uit elkaar liggen, naarmate de rekenkracht van de videokaart aan z'n limiet gaat zitten en de processor de gpu echt tegenhoudt.
Bij hogere resoluties speelt de CPU een steeds minder belangrijke rol. Daarom worden games/CPU benchmarkt meestal op 1080p gedaan omdat het verschil daarboven steeds kleiner en minder interessant wordt.
Die hoge resoluties spelen wel grote rol. Want nu nemen 1440p 4k 8k gamers , dan hardware keuzes gebaseerd op 1080p. High res hoort er bij dan zie hoe het inkakt en welke g-kaart het bij highres beter doet ivm vram limieten.
Het kan dat merk a het heel goed doet met top cpu op 1080p maar 4K stuk minder.
Naast dat je dan ook nog eens met DLLS/FSR/etc en RT on /of.
Low budget gamers met oude hardware midrange gpu baseren zonder dit soort reviews hun aankopen op top tier cpu en g-kaarten.
Dan ben je dus de GPU aan het testen en niet de cpu.

Beetje dom als je een cpu gaat lopen op basis van een gpu-test.

Als je een cpu hebt die in 1080p 100 fps kan halen, en je hangt er een gpu in die op 1080p 200 fps kan halen, dan is het resultaat dus 100 fps.

Ga je dan de resolutie verhogen naar 4K en doet de gpu nog maar 60fps, dan zal dat dus de bottleneck zijn, want de cpu kan 100 fps berekenen en dat gaat echt niet zoveel minder zijn op 4K.
Ga je dan de resolutie verhogen naar 4K en doet de gpu nog maar 60fps, dan zal dat dus de bottleneck zijn, want de cpu kan 100 fps berekenen en dat gaat echt niet zoveel minder zijn op 4K.
Dat is toch een beetje het punt? @ShAd0w loopt bij deze test weg met het idee dat zijn CPU een bottleneck vormt voor zijn GPU. Als hij nu een nieuwe CPU koopt omdat hij denkt dat dat de prestaties in nieuwe game X beter zal zijn, dan is er een reële kans dat hij van een koude kermis thuis komt als hij op hogere resoluties dan 1080p speelt.
Stukje hieronder reageerde iemand met een YT-video van HardwareUnboxed:
https://www.youtube.com/watch?v=Zy3w-VZyoiM

Deze legt het in mijn ogen goed uit waarom een CPU-benchmark gedraait word op 1080p en het dus niet van toepassing is om het op hoge resoluties te testen. In het kort: Het klopt dat ik nu niet weet wat mijn CPU+GPU combinatie doet op 1440p - maar het laat wel zien waar de test om draait: wat doet een CPU tegenover andere CPU's.

En om de GPU als bottleneck weg te halen - verlaag je de resolutie naar 1080p en zet je er eigenlijk een enorm dikke (overkill) GPU in, om de CPU te testen.
Het klopt dat ik nu niet weet wat mijn CPU+GPU combinatie doet op 1440p - maar het laat wel zien waar de test om draait: wat doet een CPU tegenover andere CPU's.
Ja, maar dat is eigenlijk niet helemaal waar deze (als in, die van het artikel waaronder we reageren) test om draait en dát maakt het dus een beetje verwarrend. Het enige punt dat dit artikel maakt is dat je een Nvidia-kaart beter kunt koppelen aan een snelle CPU als je gaat voor zeer hoge framerates. Of van de andere kant bekeken, dat een AMD-kaart minder last heeft van een CPU-bottleneck. De focus ligt dus niet op de CPU, maar op de kaart.

Dat is verder op zich prima natuurlijk, maar jouw eerdere conclusie dat je CPU upgraden je een behoorlijke prestatiewinst zal opleveren omdat je de relatief krachtige 3080 in je systeem hebt is niet per se juist. Als de manier waarop jij games speelt in de praktijk zorgt dat je GPU-bound bent dan heeft het hebben van een snellere CPU ook bij Nvidia-kaarten veel minder invloed dan de ruwe cijfers van deze test wellicht doen vermoeden.
Probleem is dat op 1080p gamen de fps irrelevant word.
Bedoel wat maakt het uit of je 124 of 208 fps hebt?
Hoezo irrelevant? 100 fps of 240 fps maakt heel veel uit, dag en nacht.

Veel mensen spelen op high refresh schermen, 120 fps voelt voor mij echt super traag.
Het maakt zeker verschil, maar geen dag en nacht. Dat zou ik eerder als verschil tussen 60 fps met 120 fps zeggen.
LOL sorry dat zit toch echt in je hoofd.
Verschil tussen 124 hz en 208 hz is 4 milliseconden.
Dus ALS je al een scherm hebt dat 120+hz aankan dan nog is het verschil zo minimaal dat je al pro moet zijn om een verschil te "voelen" laat staan dat het uitmaakt EN je een game speelt waarin dit uberhaupt belangrijk is.
Het maakt wel iets uit en waar jij het over hebt is input latency wat iets anders is en inderdaad zo laag is dat je dat niet gaat merken tenzij je een pro bent. Een scherm van 200Hz zal zeker vloeiender zijn dan een 100Hz scherm, je zal wel diminishing returns krijgen.
Bij wijze van test kan je je muis heel snel bewegen in Windows, als je meerdere instanties van je muis kan zien betekent dat het scherm eigenlijk nog niet snel genoeg is. Nu heb ik toevallig een 165Hz laptop scherm en ik kan van de cursor nog prima meerdere instanties zien, maar het is een stuk vloeiender dan mijn extra scherm wat 60Hz is.

Het is een andere discussie of een gemiddelde gamer er echt profeit van gaat hebben :p.
Voor de meesten zal het hooguit rustiger aanvoelen voor de ogen.
Dat zit niet in mijn hoofd.

Het zit in jou hoofd dat je dat verschil niet merkt.

Ik speel altijd op 240hz en 240+ fps, dus ja, dan voelt 120hz traag, dat jij dat niet merkt, betekend niet dat een ander dezelfde ervaring heeft als jij :).

[Reactie gewijzigd door Vlizzjeffrey op 22 juli 2024 18:52]

Wow, super traag :+ Dat je het verschil kunt merken snap ik, maar super traag gaat wel erg ver. Ga jij ook terug in te tijd als je op 30fps gamed?

[Reactie gewijzigd door BruT@LysT op 22 juli 2024 18:52]

Dit vraagstuk geldt toch ook voor mensen die op hogere resoluties spelen? Het is immers niet zo dat als je nu een 1080p monitor hebt met een oudere CPU, je gameprestaties zomaar beter zullen zijn op een monitor met een hogere resolutie.

Dit terwijl mensen vaak wel een monitor met een hogere resolutie hebben zelfs met een hogere refreshrate (dit soort monitoren zijn met regelmaat redelijk gunstig geprijst en de eigenschappen qua formaat en resolutie profiteer je ook van buiten gaming om), maar (nog) geen dikkere videokaart kochten wegens de prijzen.
Dit vraagstuk geldt toch ook voor mensen die op hogere resoluties spelen? Het is immers niet zo dat als je nu een 1080p monitor hebt met een oudere CPU, je gameprestaties zomaar beter zullen zijn op een monitor met een hogere resolutie.
Dit vraagstuk geldt wel, maar het artikel geeft alleen antwoord op dat vraagstuk in de situatie waarin de game veel meer vraagt van de CPU dan van de GPU. Als je de resolutie omhoog gaat schroeven dan hoeft dat niet meer zo te zijn, dan is er een redelijke kans (zeker bij 4k) dat de vraag aan de GPU veel hoger is. In die situatie kun je niet meer van de cijfers in dit artikel uitgaan.
Als je een cpu hebt die in 1080p 100 fps kan halen, en je hangt er een gpu in die op 1080p 200 fps kan halen, dan is het resultaat dus 100 fps.

Ga je dan de resolutie verhogen naar 4K en doet de gpu nog maar 60fps, dan zal dat dus de bottleneck zijn, want de cpu kan 100 fps berekenen en dat gaat echt niet zoveel minder zijn op 4K.
Klinkt best logisch. Alle resolutie gerelateerd zaken zijn immers voor rekening van de GPU.
Maar dan nog is het interessant om te weten wat iemand met een oudere processor zou kunnen doen qua videokaart als deze op een hogere resolutie wil gamen en hoe zeer je een dikke GPU beperkt. Zeker wanneer je bijv. op een AM4 socket zit en de optie hebt in de toekomst naar een courante voor gaming geschikte CPU te upgraden.
Je kunt dat soort dingen op zich gewoon uit een combi van 2 tests halen:
1) Een cpu-test, daarin vind je het maximum wat jouw cpu aan kan.
2) Een gpu-test op de gewenste resolutie.

De laagste van die 2 is de bottleneck.

En je kunt natuurlijk op een 4K-monitor prima op een lagere resolutie spelen als je gpu het niet trekt. Je moet er alleen wel voor zorgen dat je niet te laag gaat en je cpu de bottleneck wordt, want dan krijg je stotteringen in het beeld en dat is erg vervelend.
Juist dat verschil is dus zeker wel relevant in de keuze voor een eventuele cpu upgrade. Ik draai zelf al mijn games op UW (3440x1440) en ga dan vervolgens grafische settings aanpassen zodat mijn fps-range tussen de 120 -160 fps uitkomt. Ik wil dus vooral graag weten of het in dat geval zinvol is om mijn mobo/cpu/ram te vervangen en wat dan de winst is..

Zo zal eenieder zijn eigen belang hebben, maar dat zal breder liggen dan de 1080p resolutie tegenwoordig.

GPU: 6750XT
CPU: i7-8700
Juist dat verschil is dus zeker wel relevant in de keuze voor een eventuele cpu upgrade. Ik draai zelf al mijn games op UW (3440x1440) en ga dan vervolgens grafische settings aanpassen zodat mijn fps-range tussen de 120 -160 fps uitkomt. Ik wil dus vooral graag weten of het in dat geval zinvol is om mijn mobo/cpu/ram te vervangen en wat dan de winst is..

Zo zal eenieder zijn eigen belang hebben, maar dat zal breder liggen dan de 1080p resolutie tegenwoordig.

GPU: 6750XT
CPU: i7-8700
Je bent je grafische settings aan het aanpassen, dat betekent dus (in 99% van de gevallen) dat je gpu de bottleneck is.
Als een cpu te traag is om op 4K 100 fps te halen, dan is hij dat op 1080p bijna altijd ook.

Dus nee, het is niet relevant.

Als je een snellere cpu neemt, dan is nog steeds je gpu de bottleneck. Dus je krijgt er zo goed als niets bij.
Ik gebruik een RTX 4090 en een i9 9900k voor 4k gaming en ik merk in veel games dat de i9 9900k wel een bottlnek is op 4k. De bottlenek is niet heel erg vanwege de al hoge framerate. Waar de i9 9900k een bottlenek is voor een RTX 4090 zie ik bottlnek ook terug met de allernieuwste en snelste CPU's van Intel en AMD. De bottlenek is niet zo groot dat het een nieuwe CPU waard is.
Aub https://www.youtube.com/watch?v=Zy3w-VZyoiM

Samengevat: zolang je GPU een bottleneck is, maakt CPU performance weinig uit. De Ryzen 5 3600 lijkt me dan net goed genoeg.

[Reactie gewijzigd door Gamebuster op 22 juli 2024 18:52]

Dank je wel! Dit maakt de keuze voor 1080p bij het testen inderdaad veel duidelijker bij CPU benchmarking. Nooit geweten/teveel gefocust op GPU-benchmarks.
Persoonlijk weegt stroomverbruik voor mij nu zwaarder dan snelheid. Een paar tikkies sneller en veel meer verbruik vond ik vroeger niet erg maar nu boeit het me niet meer. De games die ik doe (PoE, FM2023, LOTRO) daar ga ik het niet zo merken dat ik wat minder snel draai.
Prestaties zijn altijd het belangrijkste, daarna het geluidsniveau en de prijs.
Nou nee het gaat om hoe relevant die prestaties zijn voor je game gebruik.
Voor de meesten voldoet midrange 12 of 13gen intel of zen3 zen4.
En de meesten gaan niet voor top cpu of g-kaart.
De meesten gamen niet zwaar competatief laat staan pro.
En dan is vaak een compromie. Een lowpower zen4 vs highpowerx is reallife gaming met vsync on op vaak 60hz paneel. Met 1440p meer cijfer neuk verschil.

Ik hoef al lang niet meer de snelste aangezien ik ik hooguit singleplayer games speel op pc of oude games. En online casual op PSN waar door console hardware het veld stuk gelijk getrokken is ivm max hz 120is en vrr. Waar pc gamers met te veel budget 360hz kunnen hebben. Al zal je dan crossplay moeten disablen. En iets minder last van cheaters.
Met die infatie en energy prijzen speeld vermogen grotere rol dus staat TR vaker uit en macmini x86 vaker aan. Of de PS.
Voor jou misschien, maar lang niet voor iedereen.
Geluidsniveau, prestaties en prijs: Dat is mijn volgorde. Ik heb liever stiller dan sneller, en heb dan ook diverse instellingen aangepast om herrie te beperken ten koste van performance. Ook laat ik mijn custom loop vrij heet draaien voordat de fans opkomen.

[Reactie gewijzigd door Gamebuster op 22 juli 2024 18:52]

Erg kortzichtig. Hangt totaal af van wat je speelt en hoe je speelt. Ik speel erg veel strategy en management games. Kaarten uit de huidige en vorige generaties zijn compleet overpowered voor veruit de meeste games binnen deze genres.
Ben ik niet met je eens. Ik kijk naar de prestaties voor mijn configuratie en dan is het overkill om er een dikke grafische kaart in te hangen aangezien mijn beeldscherm toch geen giga-resolutie aan kan. Dan is de grote vraag of de theoretische winst in de prestaties opweegt tegen de extra investering in stroomverbruik en aanschafkosten.
Kan best dat jij een onbeperkt budget hebt en niet hoeft na te denken over energieprijzen, maar doorgaans kijken mensen naar wat een optimale investering is. Je kunt wel lekker een dikke Ferrari motor bouwen in een VW Golf, maar of je echt de motor dan tot z'n recht laat komen is wat dubieus.
Interessante test. Je kan je afvragen of in een grotere test met de topmodellen, een test waarbij de CPU dus wel een beperking oplevert en het dus afhangt van hoe "zelfstandig" de videokaart is, ook waardevol kan zijn.

Is een kaart die, wanneer hij niet ondersteunt wordt door een hele krachtige CPU, beter uit de test komt beter?

Al kan ik mij ook indenken dat dit alleen in de situatie van deze test dit echt interessant is. Met topmodellen wil je gewoon weten wat je er maximaal uit kan persen en ga je niet dusdanig bezuinigen op een CPU dat deze de beperkende factor wordt.
De hamvraag is: Wat wil je bereiken?

Vroeger was het simpel: Je wilde 60fps en klaar. Die 60fps haalt iedere CPU wel dus daar is het om het even of je driver overhead hebt of niet, je merkt het toch niet. Haalde je de 60, schroefde je gewoon de settings naar de max, schakelde je 8xMSAA of supersampling in en kreeg je "gratis" scherpere graphics.

Tegenwoordig heb je beeldschermen van 240hz of meer. Als daar de architectuur van je GPU zo is opgezet dat deze een flink stuk van je CPU prestaties claimt, is het inene wél merkbaar. Een 4090 koop je niet voor het gamen bij 60fps, zelfs niet op 2160p. Als vroeger een midrange i5 of zelfs een i3 afdoende was om te combineren met een high-end gpu, kom je daar tegenwoordig niet meer mee weg. Zeker niet nu we ook weten dat gemiddelde FPS, de van oudsher leidende metriek, ondergeschikt is aan 99p.

Zie de links gepost door @Sinester hierboven:
https://youtu.be/JLEIJhunaW8?t=1
https://youtu.be/JH8UTc6lwX8
Ik ben wel benieuwd hoe zo een test zou uitpakken met een Intel chipset/CPU.
Uit concurrentie oogpunt kan ik me voorstellen dat Intel en nvidia hun drivers hebben geoptimaliseerd voor de Intel chipset... wellicht iets voor een volgende ronde? :9
AuteurTrygve Redacteur @Airw0lf6 maart 2023 07:38
Jazeker, zie de laatste alinea van de conclusie ;)
Hey misschien een stomme vraag, maar ik herinner mij dat AMD zat op te scheppen over hun 'smart access memory' die je aan kon zetten als je een Ryzen Zen 3 en RX 5000 series had. Op hun website zeggen ze dat je met een aantal spellen een redelijke performance boost kan krijgen in FPS. Is daar in deze review van gebruik gemaakt? en maakt het ook daadwerkelijk een verschil?
Er vanuit gaande dat je ReBAR bedoelt. ja:
MSI MEG X570 Godlike (Agesa 1.2.0.7, ReBAR ingeschakeld)
Voor CPU + GPU en gaming lijkt me Battlefield 2042 ook wel een interessante benchmark. Ik ben in stappen van een i7 4790k + R9 Fury naar de i7 + RX6600 naar R5 5600 + RX6600.

In BF2042 ging op 1080p mid/low settings van 40-70fps naar 60-90 naar 100-130+ fps in die stappen. Dus zowel de CPU als GPU waren duidelijke upgrades, maar de R5 5600 bracht het meeste.

In vergelijking met Cyperpunk 2077: daar voegde de 5600 niet zoveel toe en zat de verbetering in de 6600.

Sowieso lijkt het testen van een 4-6 jaar oudere i5 en i7 in dit soort testen mij ook wel interessant. Ik denk dat veel mensen nog op die generaties zitten en wellicht alleen budget hebben voor een GPU upgrade.
He! Een ander die een R9 Fury gebruikt(e)!

Uit pure nieuwschierigheid, hoe groot is het verschil met een RX 6600 tov de Fury in games? Ik zit er sterk over na te denken om toch eens een nieuwere kaart te halen. Jammer genoeg kan je weinig vergelijkingen vinden op het internetnet.
In BF2042 dus een aardig verschil. Ik denk dat je ongeveer mag uitgaan van 1,5x performance minimaal? Een Fury is ongeveer een RX580:

https://www.techpowerup.c...n-rx-6600-fighter/31.html

Voor nieuwe games kan dat verschil alleen maar groter worden door ontbrekende nieuwe drivers en optimalisaties voor de Fury (Diablo 2 Resurrected geeft bij mij bijvoorbeeld 3x meer performance).

[Reactie gewijzigd door Gundogan op 22 juli 2024 18:52]

Ik had een 3070 in een PC met een i7-5280K, dat was zelfs op 1440p zonde in PUBG, toen verkocht, later een nieuwe PC gebouwd met een 12600K en een 3060 TI en toen schoot de FPS omhoog.
Goed artikel. Ben benieuwd naar het vervolg met Intel cpu's.

Op dit item kan niet meer gereageerd worden.