Door Reinoud Dik

Redacteur

Cpu-corescaling in games

Hoeveel cores heb je in 2021 nodig?

Conclusie

Sinds de komst van de multicoreprocessor is het een vraagstuk dat bij menig pc-gamer met enige regelmaat terugkomt: hoeveel cpu-cores heb ik nodig voor gaming? Met het sterk toegenomen aantal processorcores op mainstream sockets in de afgelopen jaren is deze vraag wellicht relevanter dan ooit. Het antwoord is van belang om enerzijds niet onnodig veel geld aan dit onderdeel uit te geven, en anderzijds toch vrij te blijven van vervelende stotters.

Om de consistentie van gameprestaties op verschillende processorconfiguraties te vergelijken, zijn we in deze review dieper ingegaan op frametimes. Door het vergelijken van meer dan 3 miljoen scores verdeeld over 288 benchmarks hebben we nauwkeurig in kaart gebracht in welke mate meer cores en threads een consistentere en vloeiendere game-ervaring opleveren. Een beperking van deze test is dat we alleen singleplayer-games hebben getest. Online games kunnen in bepaalde gevallen meer eisen van de processor. Daarnaast zijn alle tests op Nvidia's GeForce RTX 3080 gedraaid. Om de verhoudingen op een videokaart van AMD te vergelijken, zijn we in ons testlab dezelfde 288 benchmarks ook in combinatie met een RX 6800 XT aan het draaien. Binnenkort mag je van ons dus een vervolg verwachten, waarin we specifiek zullen inzoomen op verschillen in de manier waarop de drivers van AMD en Nvidia cores benutten.

De quadcore mag met pensioen

De ooit zo populaire en capabele configuratie van vier cores en vier threads is voor vloeiend gamen in moderne spellen niet meer afdoende, zoveel blijkt wel uit onze frametime-analyses. In combinatie met een snelle videokaart duurt het bij een aanzienlijk deel van onze benchmarks tot zo'n 50 procent langer voordat een nieuw frame gereed is dan met een processor met meer cores. In de hogere percentielen loopt dit op tot richting de 70 procent, en juist die gevallen zorgen voor stotters in de gameplay.

Hoewel de quadcore dus echt wel tegen zijn pensioen aanzit, is het verhaal iets genuanceerder wanneer deze processor beschikt over smt, ook wel bekend als HyperThreading. Vroeger bracht die techniek in games vaak meer slechts dan goeds, maar met vier cores en acht threads draaien de door ons geteste games al een flink stuk beter, met vooral in de hogere percentielen gunstiger frametimes. Dat betekent dat deze specifieke quadcore-configuratie nog even aan het werk kan blijven.

Threads als het moet, cores als het kan

Niet gek ver verwijderd van de quadcore met smt zit de hexacore-processor met zes threads. In onze resultaten doet deze cpu-configuratie het doorgaans net iets beter, maar in de hogere percentielen van frametimes zetten beide processors niet de meest overtuigende scores neer. De quadcore met smt en de hexacore zonder smt begeven zich wat dat betreft op het randje van echt vloeiende gameplay.

Hoe anders is dat voor de hexacore mét smt, de processor die dankzij zijn twaalf threads een enorme stap in frametime-consistentie zet ten opzichte van de hiervoor besproken configuraties. De geteste Ryzen 5 3600X blijft in onze resultaten niet meer dan 10 procent achter op de veel duurdere en luxere Ryzen 9 3900X. Acht cores met acht threads doet het vervolgens in lagere percentielen iets beter, maar komt in hogere percentielen aardig gelijk uit met de hexacore met smt. Als op de octacore smt ingeschakeld is, worden opnieuw de minder gunstige frametimes omlaag gebracht. Nóg meer cores leveren verdere verbetering, maar meer threads niet. De twaalfcore-processor in de vorm van de 3900X gaf in onze test betere frametimes wanneer smt was uitgeschakeld dan wanneer het actief was. Extra threads lijken tot dit aantal vooral een middel om een gebrek aan cores op te vangen, en die laatste heb je dus liever dan de eerste.

Onder de streep zijn het toch de virtuele threads die voor de goedkopere processors het grote verschil kunnen maken. De hexacore-processor mét smt doet het keurig en is wat dat betreft de nieuwe quadcore geworden: een capabele maar ook betaalbare cpu-configuratie voor gaming. Voor uitstekend consistente frametimes en een vloeiende gameplay zijn acht cores en zestien threads anno 2021 de juiste keuze. Nog luxere processors kunnen zelfs nog meer consistentie geven, al moet de videokaart ook snel genoeg zijn om deze voordelen te benutten.

Dit artikel kun je gratis lezen zonder adblocker

Alle content op Tweakers is gratis voor iedereen toegankelijk. Het enige dat we van je vragen is dat je de advertenties niet blokkeert, zodat we de inkomsten hebben om in Tweakers te blijven investeren. Je hoeft hierbij niet bang te zijn dat je privacy of veiligheid in het geding komt, want ons advertentiesysteem werkt volledig zonder thirdpartytracking.

Bekijk onze uitleg hoe je voor Tweakers een uitzondering kunt maken in je adblocker.

Ben je abonnee? Log dan in.

Reacties (196)

196
192
91
14
1
83
Wijzig sortering
Even voor de duidelijkheid, voor veel games die zich niet in de categorie "AAA" vallen en een aantal wel, geldt nogsteeds "liever snellere cores dan meer". Onder andere Stellaris, Factorio, Satisfactory, X3/X4, TES/fallout (met name met modding), games met relatief slechte ports (Nier Replicant, Horizon Zero Dawn), Oxygen Not Included, Terraria (met name de water physics).

Dit komt simpelweg omdat er een bepaalde functie is die heel veel rekenwerk vereist die je niet kunt distribueren over meerdere threads. Pop count van stellaris bijvoorbeeld, waar nu een patch voor is uitgebracht waar veel mensen niet blij mee zijn. Of path finding voor Factorio's biters in de end-game.
Dit komt simpelweg omdat er een bepaalde functie is die heel veel rekenwerk vereist die je niet kunt distribueren over meerdere threads. Pop count van stellaris bijvoorbeeld, waar nu een patch voor is uitgebracht waar veel mensen niet blij mee zijn. Of path finding voor Factorio's biters in de end-game.
Nuance: het kan vaak wel, maar dat gaat gewoon heel veel moeite kosten. Iets wat in de single-threaded wereld bij wijze van spreken een simpel for-loopje is, wordt multi-threaded ineens een behoorlijk lastig en foutgevoelig algoritme: welke data is wanneer nodig, welke threads kunnen daar nog naar schrijven, wanneer is de data klaar om gebruikt te worden, welke thread wacht daardoor op welke andere thread? Je moet hier een diepgaand ontwerp gaan optuigen. Zeker bij een indie-developer die maar met een paar man aan een spel werkt, is dat nogal een tijdsinvestering.
Nuance: het kan vaak wel, maar dat gaat gewoon heel veel moeite kosten.
Niet alleen heel veel moeite, ook specialistische kennis die veel programmeurs gewoon niet hebben. Multi-threaded code schrijven is echt moeilijk. Jezelf leren (single-threaded) te programmeren is nog wel te doen, maar op basis van aanklooien-totdat-het-werkt leren om parallelle code te schrijven... Ehm nee, dat zie ik niet gebeuren. Of, om precies te zijn, dat zie ik wel gebeuren, maar dan met twee resultaten: eenvoudige single-threaded code die wordt omgezet naar multi-threaded code die lijkt te werken maar moeilijk-reproduceerbare bugs heeft en complexe single-threaded code waarvan ten onrechte wordt beweerd dat het niet te parallelliseren is. (Plus het risico dat iemand veel tijd en moeite besteedt aan het parallelliseren van een blok code waarvan Amdahl's law meteen al zegt dat het niet de moeite waard is.)
Het zal wel een gevalletje ‘als je het kan is het idd niet moeilijk’ zijn. Maar een multi threaded (game) engine schrijven die goed schaalt over meerdere cores ... desnoods tientallen... is niet moeilijk. Als je alles in kleine jobs opdeelt die door verschillende cores/threads opgepakt kunnen worden. Het wordt wel iets lastiger als je geen Vulkan of DirectX 11 of lager gebruikt ... omdat je dan maar 1 thread hebt waarmee je je gpu kunt benaderen.
Het zal wel een gevalletje ‘als je het kan is het idd niet moeilijk’ zijn.
Nee, zelfs als je het kan, dan is het nog steeds moeilijk.

Als je twee dingen doet die compleet niets met elkaar te maken hebben, dan is parallellisme simpel. In een RTS moeten bijvoorbeeld een heleboel kortste routes gevonden worden voor tanks. Op het eerste gezicht zijn die allemaal onafhankelijk van elkaar, dus die kun je allemaal in hun eigen thread uitrekenen, toch? Maar wat gebeurt er als je level een brug heeft die één tank breed is en er moet een andere tank overheen? Als die tank op de brug stilstaat, moet ie dan de boel blokkeren (en de andere tank om laten rijden, als dat überhaupt kan) of geef je hem automatisch de opdracht om even van de brug af te rijden om aan de kant te gaan? Maar misschien rijden ze allebei in dezelfde richting, dan kun je doen alsof de brug vrij is. Of ze rijden in tegenovergestelde richtingen en dan wordt het pas echt dolle pret voor de programmeur.

Het probleem is dat er in moderne games niet zo gek veel dingen zijn die echt volkomen onafhankelijk van elkaar zijn. Je kunt elke AI speler zijn eigen thread geven, plus eentje voor de physics (als die op de CPU draaien) en eentje voor al het overige werk (dat zijn heel veel taken, maar ze kosten weinig rekentijd), maar dan heb je het wel zo'n beetje gehad. (Het renderen van de graphics draait sowieso op de GPU en daar is inderdaad gigantisch veel parallellisme, vandaar dat GPUs honderden of duizenden cores hebben.) Dus met die simpele oplossingen ben je er niet, je moet het werk verder onderverdelen en ook taken die wel onderling afhankelijk zijn splitsen over meerdere threads.
Maar een multi threaded (game) engine schrijven die goed schaalt over meerdere cores ... desnoods tientallen... is niet moeilijk.
Ehm, citation needed!? Dat is juist gruwelijk moeilijk. Ik ken geen enkel voorbeeld van een game die blijft schalen zelfs als je er tientallen cores tegenaan gooit. Als het niet moeilijk was, dan zou het inmiddels echt wel een keer gebeurd zijn.
Als je alles in kleine jobs opdeelt die door verschillende cores/threads opgepakt kunnen worden.
Ja lol, "als". En als mijn spieren niet verzuren dan is het makkelijk om een marathon te lopen. De logica van je spel opdelen in kleine taken (en het in goede banen leiden van alle onderlinge afhankelijkheden tussen die taken) is nou juist wat zo ingewikkeld is.
Inderdaad. Dit is ook waar flight simulator 2020 last van heeft. Iedereen verwacht dat de fps x2 gaat met directx 12, maar ik betwijfel het. Dingen moeten wel onafhankelijk van elkaar zijn om makkelijk in parallel gedaan kunnen worden. Bij een sim zit alles juist aan elkaar.
Inderdaad. En als zelfs Occam al doodging omdat het te lastig werd gevonden (terwijl dat een taal was waarin je het in principe niet fout kon doen) en de programmeurs liever C programmeerden (wat niet werkt bij parallel programmeren, om de redenen die je schetst) dan zie ik het somber in.

Langzaam komen de Occam principes wel terug in reguliere talen, maar het gaat erg traag en veel programmeurs weten niet eens hoe erg het met hun kennis is gesteld. Die denken dat als ze een mutex kunnen schrijven, dat ze er zijn. Zucht.
Dit is niet zomaar "iemand die zichzelf leert programmeren in z'n vrije tijd als hobby". Je zou toch wel denken dat bedrijven achter AAA-titles (enkele van) de beste programmeurs aannemen. Voor hen zal het vast niet zo moeilijk zijn als je voorstelt. Moeilijker dan een single process engine? Vast wel. Onoverkomelijk? Zeker niet.
Maar het ging juist om die Indie-spellen waar men zich schijnbaar die moeite spaart.
Nou ja niet direct.

Overigens met de juiste tools kan je ook zonder al teveel kennis ver komen qua multi threaded programmeren hoor.

Zo kan je prima je eigen for each loopje maken die multi threaded is en threadsave.

Maar ja het is wel nadenken, wat kan wel en wat kan niet. En wat maakt het mogelijk trager.

Overigens verwacht ik dat het niet al te hoog gaat worden. De Zen architectuur in de xbox en ps5 is 8 cores. Waardoor dat veel spellen mogelijk geschreven worden met dit in acht neming. Misschien dat ze wel het veralgemeniseren. Maar ik verwacht dat 8 cores voor gaming de nieuwe standaard wordt de komende jaren. Waarbij dus 12 cores vooral interessant is voor streamers.
Dit is trouwens ook geldig voor alle combat flysims, voor de moderne FS2020 flysim weet ik dit niet omdat ik deze flysim niet bezit.
Voor mensen die nog niet het belang van de frame times kennen lees dit eens het artikel waar het ooit allemaal mee begon https://techreport.com/re...ook-at-game-benchmarking/

[Reactie gewijzigd door Toine1 op 24 april 2021 09:36]

Heb je het over frames per secomde of over frametimes?

Dit artikel gaat specifiek over het laatste.
Dat komt in feite op hetzelfde neer. Elke frame heeft een bepaalde tijd nodig om gemaakt te worden, dit is afhankelijk van de game engine. Een hogere frame tijd staat gelijk aan een lagere framerate.

Frametijd = 1/framerate en framerate =1/frametijd

[Reactie gewijzigd door mikesmit op 24 april 2021 09:19]

Dat is dus niet waar. Frames per seconde is een gemiddelde van één seconde. Het kan dus best zijn dat één frame een halve seconde nodig heeft en de rest maar een paar milliseconden. Effectief zit je dan op 60 fps, gevoelsmatig zit je op 2 fps. Dit is een vrij extreem voorbeeld ter illustratie, maar frametimes en framerate is echt een heel belangrijk verschil.
Waarom denk je dat 95th percentile en 99th percentile zo belangrijk zijn bij het testen. De stotters zijn inderdaad veel vervelender en merkbaarder dan een gemiddelde. Maar zoals ik al zei de frametijd en framerate zijn linear verbonden aan elkaar.
Als je het hebt over de gemiddelde tijd per frame over een periode van 1 seconde is dat waar. Het verschil is dat de framerate een gemiddelde is van meerdere datapunten, terwijl frametime een datapunt is op zichzelf. Jouw statement geldt dus alleen als de frametime niet varieert in de loop van de meting.
De maximum frame time moet kleiner zijn dan 1/fps! De gemiddelde frame time boeit eigenlijk niet, tenzij alle frames ongeveer dezelfde tijd kosten om te produceren.
Dat ligt er maar aan hoe je het meet natuurlijk. Als je auto toont dat je 80km/u gaat, is dat ook niet het gemiddelde over een uur.
De snelheidsmeter in je auto zegt niet dat je in het afgelopen uur in totaal 80 km gereden hebt, maar "als je zo snel blijft rijden als nu, dan heb je over een uur 80 km afgelegd" (of, "als je het afgelopen uur continu op deze snelheid gereden zou hebben, dan had je inmiddels 80 km afgelegd", maar we weten al dat we niet een uur met constante snelheid gereden hebben). Iedereen weet echter dat je nooit een uur lang met dezelfde snelheid rijdt en dat het dus een meting op dat ene moment betreft. Met andere woorden: niemand interpreteert "per uur" alsof het een meting over een uur is.

Als we het over FPS hebben, dan geldt in principe hetzelfde: "als het renderen van elk frame even lang zou duren als van dit frame, dan krijg je 80 FPS". Wiskundig gezien is dat precies hetzelfde soort uitspraak. Het verschil is (voor mijn gevoel) psychologisch: als je iets "FPS" noemt, dan wekt dat wel degelijk een heel sterke suggestie dat het een gemiddelde is (hetzij over één seconde, hetzij over de lengte van de hele benchmark). Wiskundig kan het ook over één frame gaan, maar zo wordt het in de praktijk nooit gebruikt.
Precies, het hangt maar net van de sample tijd af voor de meting. Kan prima dat FPS 5 of 10 keer per seconde gemeten wordt. Maar goed, alle individuele frames meten is wel beter natuurlijk.
Waarom is dat beter? Of een auto nu 72 km/u rijdt, of 20 m/s maakt geen enkel verschil. Als hij 5 seconden later 54 km/u rijdt, of 15 m/s wat is dan het verschil?
Ik denk dat je hier dan de vergelijking met rondetijden moet maken.

De snelheid maakt niet zo veel uit als waarde.
De meting is gedaan op de rondetijd.

Een auto die harder rijdt maar slechter door de bochten gaat kan dus alsnog een hogere rondetijd neerzetten.
Professionals gebruiken frame tijd, gamers gebruiken frames per seconde.
Het is niets meer dan een andere schrijfwijze hoor. Als je gemiddeld voor eender welk woord zet is het nog steeds hetzelfde.

Het gaat in beide gevallen ook om consistentie en uitschieters leiden tot hetzelfde resultaat. Stutter en merkbare vertraging.

[Reactie gewijzigd door Vayra op 24 april 2021 11:11]

Niet helemaal. Om van 50 naar 60FPS te komen, is een verschil nodig van 3,3ms frame tijd. Maar van 20 naar 30 is 16,7ms.
Diezelfde 10FPS is dus niet consistent in wat het nou daadwerkelijk kost.

[Reactie gewijzigd door Wolfos op 24 april 2021 12:46]

Het is niets meer dan een andere schrijfwijze hoor. [..] Het gaat in beide gevallen ook om consistentie en uitschieters leiden tot hetzelfde resultaat. Stutter en merkbare vertraging.
Als je het alleen over het gemiddelde hebt, dan heb je gelijk. Maar wat het artikel uitlegt op pagina 2 en pagina 3 is dat frame times veel geschikter zijn om statistiek op los te laten. Ja okee, de volgende twee berekeningen zullen hetzelfde resultaat opleveren:
  • Maak een lijstje van frame times, bereken een percentiel, reken dat om naar FPS
  • Maak een lijstje van frame times, reken dat om naar FPS, bereken een percentiel
Maar het punt is dat omrekenen naar FPS strikt genomen nutteloos is, de enige reden om dat te doen is dat mensen er meer gevoel bij hebben: "ja leuk die frame time, maar wat is dat in FPS?". Met frame times kun je veel beter rekenen: met zowel FPS als frame times kun je vermenigvuldigen en delen ("x is twee keer zo snel als Y"), maar alleen met frame times kun je optellen en aftrekken (je kunt wel zeggen "reken-intensief effect x inschakelen kost 50 ms", maar een soortgelijke uitspraak over hoeveel FPS dat kost is niet mogelijk).
Staat allemaal op de pagina testmethode uitgelegd ;) In het kort: met deze serie konden we een hele reeks aan core counts op dezelfde architectuur testen.
Staat allemaal op de pagina testmethode uitgelegd ;) In het kort: met deze serie konden we een hele reeks aan core counts op dezelfde architectuur testen.
Aha ok, overheen gelezen, maar zijn 6 verschillende waarvan 4 met verschillende aantal cores niet genoeg dan?!

Zo als de:

Ryzen 5 5600X
---------------------
Ryzen 7 5800
Ryzen 7 5800X
--------------------
Ryzen 9 5900
Ryzen 9 5900X
--------------------
Ryzen 9 5950X

[Reactie gewijzigd door AmigaWolf op 25 april 2021 01:38]

En dan heb je een berg rekenwerk te doen.

Ik denk dat het franetime verhaal interessant is mbt 95th percentile.,99th is een beetje spijkers op laag water zoeken. Kort gezegd; als een meting de pieken cq dips in FPS en frametime aangeeft, dan heb je de informatie in feite ook al.

Het is een beetje doorgeslagen, want je ziet nu mensen die bij elke stottertje een forum topic openen en blijven zoeken naar wat feitelijk margin of error is.

Verder, klopt het uiteraard wat je zegt.
Helemaal gelijk; met professionals bedoel je game developers. Die werken inderdaad voornamelijk met frametime en minder met fps.
Richting de klant natuurlijk niet. Doorgaans worden zware effecten gemeten in frametime.
daarnaast draait in veel games code tussen de frames en moeten de frames wachten tot cpu klaar is met die render. Als die code niet goed is of veel tijd in beslag neemt worden het secondes per frame ipv frames per second ook al heb je een 3090 kaart.

Game code optimalisatie blijft dus heel belangrijk
Klopt helemaal ik speel relatief wat oude game waaronder Stellaris, Starcraft II en Mechwarrior Online. En door de overstap van Ryzen 3000 naar Ryzen 5000 kreeg ik in die games echt veel betere performance. Vooral SCII ging de FPS in hele zware custom maps soms met 100% op vooruit dan heb je het wel over 7 vs 14FPS maar dan nog dat is een heel groot verschil in hoe het dan op dat moment loop en hoeveel controle je nog hebt. Op andere momenten is het eerder 40% maar dat is niet steeds heel erg de moeite waard. Bij MWO is het verschil misschien niet zo groot maar daar is de FPS ook merkbaar hoger en blijft het (behalve op de Solaris City map) soepel draaien waar dat met Ryzen 3000 niet het geval was dan kon de FPS wel richting/onder de 60 komen.

Het was ook leuk als ze in de review games als BF mee zouden nemen die staat er om bekend juist wel goed te schalen met cores en zelfs met meer dan 8 cores winst laat zien.
Ik ben ook erg benieuwd hoe dit plaatje er uit gaat zien voor next gen titels die over 1,5-2 jaar gaan komen en gemaakt zijn voor de 8 cores en 16 threads van de PS5 en Series S/X.

[Reactie gewijzigd door Astennu op 24 april 2021 09:54]

Bovenstaande komt vooral door de veel betere single core performance van ryzen 5xxxx.
Dat zeg ik toch ook?
Ik reageer op iemand die het daar over heeft. Dat sommige games snelle cores willen niet veel.

[Reactie gewijzigd door Astennu op 25 april 2021 01:09]

Stellaris is anders al meer dan een jaar volledig multicore.
Stellaris doet het niet veel beter als je meer dan 4 core hebt je hebt vooral snellere cores nodig. Vooral 2 threads worden zwaar belast. Geen idee hoe het nu bij de 3.0 update is maar bij 2.x was het in ieder geval niet heel erg multicore als je late game kwam en met mods speelt.

[Reactie gewijzigd door Astennu op 25 april 2021 01:10]

Ook vrijwel alle games die met de Unity engine werken, omdat er totaal geen rekening gehouden werd met multi-threading toen de engine ontworpen werd circa 2006. Meer dan 4 cores zal voor de meeste Unity games geen verschil maken.

Er word al jaren aan een oplossing gewerkt, en dat zal ook nog wel jaren duren.

[Reactie gewijzigd door Wolfos op 24 april 2021 12:52]

Unity 7 is een stap in de goede richting. De Unity games die hun engine geupdate hebben zoals Rimworld zien een grote verbetering.
Wat bedoel je met Unity 7? Sinds versie 5 zijn ze over op een ander versienummer systeem.

Ze zijn goed bezig qua performance daar, maar het multithreading probleem is nog niet opgelost. Het wachten is op Unity's Data Oriented Technology Stack (DOTS), welke games in staat stelt een volledig multithreaded architectuur te gebruiken.
Factorio’s biter path finding is toch juist 1 van de dingen die WEL multithreaded is? Zover ik weet loopt dat buiten de “main thread” om. Hadden ze geloof ik een hele blogpost over geschreven

[Reactie gewijzigd door Gamebuster op 24 april 2021 12:16]

Is Factorio geen AAA game? Het is 'e'en van de meeste populaire spellen op Steam ooit...
Waar je ook rekening mee moet houden is hoe de game geschreven is. Er zijn ook nog een aantal oudere games die zo geschreven zijn dat ze bv maar 1 core kunnen gebruiken. Dan is snelheid van die ene core wel van belang. Maar gezien de huidige snelheid van de cpu’s moet dat meestal geen probleem zijn.
Wat voor applicaties draaiden er naast de game tijdens de testen? Wat ik tegenwoordig veel zie is ook een venster met discord, aantal tabjes Chrome, achtergrond apps die nog wat resources innemen. Dit zal ongetwijfeld invloed hebben op de resultaten, met name bij de cpu’s met het lagere aantal cores. Uit jullie conclusie blijkt dat ik mijn 7700k (4/8) dus moet vervangen wil ik nieuwere games vloeiender kunnen spelen met mijn 3070.
Er draait niks aan applicaties naast de benchmarks op ons testsysteem, behalve de driversoftware en in dit geval PresentMon om de frametimes te meten. Wanneer er meer achtergrondtaken draaien, zal zoals anderen zeggen het voordeel voor processors met meer cores/threads inderdaad wat hoger uitpakken.
Het gebruikte OS en andere hardware staat op de testmethode pagina beschreven.

Met betrekking tot je overige vragen : Voor elke grote test updaten we onze testsystemen volledig, en schakelen vervolgens windows update uit. Hierdoor kunnen er tijdens de tests geen automatische updates plaatsvinden. Anti-virus software is op deze systemen uiteraard niet aanwezig, net als andere software die kan interfereren met de tests.
En toch he, die 7700K heb ik ook. Draai ik samen met RTX3080. De meeste games draaien toch flink soepel op 4K of 1440p. Nu bezig met AC Valhalla, 4K Ultra geen probleem. In Benchmarks zie je dat een nieuwe CPU nauwelijks FPS voordeel geeft. Dat houd mij toch een beetje tegen om een upgrade te doen van 700-800 euro.
Je kunt een makkelijke (al dan niet tijdelijke) upgrade goedkoop verwerven door jouw mobo en cpu te verkopen en 11400f met b560 bordje aan te schaffen. Zou niks of bijna niks kosten want kaby en skylake cpus are nog steeds in zwang op tweedehands market en je kunt je ram behouden. Ik deed precies dat met mijn 6700k en z170i want ik heb 6800xt weten te bemachtigen, maar heb tegenzin om veel geld in bestaande ddr4 platform in te steken aangezien de naderende aankomst alder lake en zen 4 eind dit - begin volgend jaar. 11400f zeker maakt 7700k tegenwoordig te schande.
Op 4k maakt het, volgens mij, geen bal uit.

Wat mij nog wel opvalt aan deze test is dat de cpu's niet alleen verschillende hoeveelheid cores/threads hebben maar ook nog andere verschillende specificaties.
Wat ook nog uitmaakt voor de prestaties.

[Reactie gewijzigd door HugoBoss1985 op 24 april 2021 11:24]

Op 4k niet, maar op 1440p, en zelfs met 3080 is die resolutie meest toegankelijke, zeker wel. Maar als gezegd, het gaat om een upgrade zonder of heel weinig geld hoeven in te steken in afwachting van nieuwe sockets. Dus waarom niet?

[Reactie gewijzigd door lexkalin op 24 april 2021 12:33]

Ook hier een 7700k op 5ghz draait alles prima op 4k. Cpu upgrade heeft geen zin op hoge resoluties.
Mag ik vragen welke koeler je daarbij gebruikt? CPU staat er nogal bekend om flink heet te worden..
offtopic; dikke kans een delid.
Ow dank je.. heb ik niks aan.
delid met een noctua
Normaal gesproken draai je tijdens benchmarks er zo min mogelijk na om de juist de invloed van die andere applicaties te beperken daar het heel lastig is om met meerdere applicaties tegelijk een consistente herhaalbare test te draaien.

Toch zou een soort van 'real world' test waarbij je echt een 'gamer' workload simuleert toch best leuk zijn voor een plus artikel. Dus inderdaad een game benchmarken terwijl je ook op discord zit, wat browser tabs open hebt en misschien wel een youtube video kijkt op het 2de scherm.
Daar heb ik dan weer geen behoefte aan, aangezien ik in de regel single player speel, dus dan kan al die meuk achterwege blijven. ;) Waarom zou ik YT kijken tijdens het gamen. :?

-1, serieus? Voor het juist goed vinden dat de benches puur gedraaid zijn?

[Reactie gewijzigd door Señor Sjon op 24 april 2021 16:48]

Hangt natuurlijk wel af van de game, maar ik heb zeer regelmatig tijdens bijv. het levelen in een MMO of ARPG dat ik op het 2de scherm lekker naar youtube, twitch of netflix kijken.
Klopt, maar je gaat in de regel niet eerst alle additionele software uitschakelen zoals de Steam overlay en eventuele 478 andere storefronts waarvan je inmiddels geen zin meer hebt het uit te schakelen. Voicechat is voor velen relevant, waarschijnlijk juist voor diegenen die een hoge framerate willen bij 1080p, want ze spelen in competetief verband.

Daarnaast heb ik zelf vaak nog wel een browser op de achtergrond draaien met dus wat tabs open, simpelweg omdat ik geen zin had Tweakers dicht te maken, of omdat er een Wiki pagina open staat voor wat ingame zaken.

Wat dat betreft zijn de resultaten van deze test wel heel erg plastisch.
op mijn 3600 is de ervaring is dat echt niks uitmaakt.
benchmarken met en zonder chat, discord audio, spotify en een dozijn tabs open. geven grofweg dezelfde waarde
Das ook niet zo raar met 6C/12T. Ik zit op 4/8. Maar goed ik denk dat ik op ZEN4 wacht...
Na upgraden van mijn 6700k naar een 5950X merk ik inderdaad een duidelijk verschil in framerates in games icm een 2080TI. Overwatch, een e-sports shooter uit 2016 ofzo, heeft nu merkbaar stabielere en hogere framerates. Meer dan 16GB RAM helpt ook voor meerdere games - met Anno 1800 is er gewoon 24GB in gebruik!

5950X is natuurlijk zware overkill voor gaming - ik gebruik 'm dan ook voor andere taken. Als je enkel games speelt, denk ik dat je met 8 cores ruim voldoende hebt, of 12 als je ook actief streamt.

Als iemand die voor het eerst vanaf Intel naar AMD gaat: Ik ervaar 0 problemen tot zover. Ik moest wel Windows opnieuw installeren.

De 7700k is volgens maar marginaal sneller dan de 6700k, dus ik zou zeker een upgrade naar een Ryzen 5800X + 32GB RAM aanraden als je "het beste" wil voor gaming. De 5800X is nu 429 euro, laagste prijs sinds een tijdje. Lijkt mij een erg goede deal.

Volgens andere benchmarks is 3600 (mhz?) dual-channel RAM het beste en is Ryzen erg gevoelig voor RAM performance. Ik heb overigens 3200 RAM, want ik las de reviews pas later.

[Reactie gewijzigd door Gamebuster op 29 april 2021 11:39]

Kijk Tweakers, dit zijn nu onderzoeken waar we wat aan hebben! Mooi overzicht. Er is toch duidelijk wat veranderd de laatste jaren. Er wordt echt meer tijd en energie gestoken in het optimaliseren voor meer cores. Vaak zal ondersteuning in de engine daar al flink aan bijdragen.

Tot zo’n 10 jaar geleden was een beetje het vaste antwoord van developers op de vraag of de game beter liep bij meer cores dat de audio op een aparte thread liep. Later werden iets meer dingen opgebroken. Gelukkig is het tegenwoordig zelfs mogelijk om lineaire berekeningen met meerdere cores goed uit te rekenen. Pi berekenen? Zelfs dat kan sneller op meerdere cores dan een enkele.

Natuurlijk is het niet heel erg simpel en kost het veel tijd en geld aan optimalisatie. Aangezien voor 95% van alle gamers 4 cores en 8 threads het minimum zal zijn tegenwoordig zullen games om niet helemaal te exploderen qua requirements hier goed gebruik van moeten maken. Gelukkig gebeurt dat nu ook steeds vaker.
Een belangrijke factor is dat spelcomputers naar 8 Zen-kernen zijn gegaan. Toen ze nog 8 Bulldozerkernen zonder HT hadden was een PC met 4 kernen en hyperthreading goed vergelijkbaar, omdat de Bulldozers niet zo vlot waren, had de PC zelfs de krachtigere processor. Zelfs goed geparalleliseerde spellen draaiden daarom prima. Nu spelcomputerst 8 Zen-kernen en 16 threads hebben, worden spellen daarop ontworpen en is een PC met 4 kernen en HT flink in het nadeel wat betreft CPU-kracht en zakken PC's met 4 kernen snel weg terwijl bijv. de Zen1-generatie vrij goed oud aan het worden is.
Toch vraag ik me af of die spelcomputers wel zoveel invloed hebben, ze zijn immers nog niet zo lang uit en ook al ruim voor de komst van deze nieuwe spelcomputers en ook bij PC exclusieve games zie je al langer deze trend.

Ik verwacht dat hoewel de nieuwe generatie spelcomputer zeker meehelpt met deze trend, ze echter niet de trendsetters zijn, maar eerder trendvolgers.

Dat zen 1 redelijk goed oud wordt klopt, maar toch zie je nog steeds dat in reviews de 7700K het nog altijd beter doet wanneer je kijkt naar FPS, o.a. HW unboxed had 3-4 jaar geleden verwacht dat bij een her test 3-4 jaar later de Ryzen 1700 de 7700K zou verslaan. Nu hebben ze die her test 3.5 jaar later gedaan en hun verwachting is niet uitgekomen.

Waar de 1700 in 2017 +-19% langzamer was in gaming en de 7700K ook een beter 1% low had ( https://youtu.be/PoEcgfbhwTs?t=776 ), was dat verschil bij de her stest een stuk minder geworden, slechts +-13%, bij een gelijke 1% low van 84 ( https://youtu.be/zllim2fglJY?t=697 zelf benoemen ze 11%, maar 117 (7700K) t.o.v 102 (1700) is bij mij 12.8% ), deze her tests laten echter wel zien dat de 7700K voor de pure gamer gewoon een goede keuze is geweest voor degenen die de hoogte FPS wilden. De 1700 zal verwacht ik langzaam nog dichterbij de 7700K komen, maar we komen ook richting het moment dat deze cpu's richting het vervang moment gaan voor de meeste enthousiasts, als ze dit niet al gedaan hebben, waardoor deze 'fine wine' voor veel early adopters net te laat zal komen verwacht ik.

Helaas valt voor de early adoptors ook de upgrade mogelijkheden waar AM4 bekend om staat vaak tegen, waar AM4 door AMD 4 jaar gesupport is, komen vooral de 300 serie moederborden van de early adopters er bekaaid vanaf, officiële AMD support voor Zen 2 en Zen 3 is er niet op 300 serie moederborden, al hebben bepaalde moederbord fabrikanten (enkele van) hun 300 serie borden wel Ryzen 3000 support gegeven, wat mooi is. Nu was dat voor de Intel kopers niet beter, immers voor een 8700K of beter hadden ook zij ook een nieuw moederbord nodig.

[Reactie gewijzigd door Dennism op 24 april 2021 09:24]

Toch vraag ik me af of die spelcomputers wel zoveel invloed hebben, ze zijn immers nog niet zo lang uit en ook al ruim voor de komst van deze nieuwe spelcomputers en ook bij PC exclusieve games zie je al langer deze trend.
Je vergeet daarbij wel dat de vorige generatie consoles ook 8-cores waren en juist omdat het zulke zwakke cores waren het nog belangrijker was om goed te multithreaden. Het beter gebruiken van meer cores is iets wat de devs hebben moeten leren maar dat is volgens mij juist precies over de levensduur van de Xbox one en PS4 gebeurd.

Alleen omdat de vorige generatie consoles zo zwak waren op cpu (core) gebied kwam je op de pc makkelijker weg met minder cores. Immers kon één recente hoog geklokte makkelijk het werk van twee van die Jaguar cores in een console doen, misschien wel drie. Nu met de Zen cores in de nieuwe consoles is dat verschil veel minder.

Het is dus niet zo dat er voor de nieuwe consoles meer threaded gewerkt moet worden, om het maximum er uit te halen verandert er niet zo gek veel. Maar een pc kan niet langer fluitend het werk van meerdere console cores op één core doen en dat zou er wel toe kunnen leiden dat nieuwe games zwaardere eisen gaan stellen. Dat zal wel niet meteen gebeuren want op dit moment komen de meeste games ook gewoon nog uit voor de vorige generatie.
Dat vergeet ik helemaal niet, het is echter wel deels een extra argument waarom ik de huidige generatie consoles (PS5 / Xbox series S / X) niet als trendsetter zie. De trend naar het beter benutten van meer maar ook zwaardere cores zie je al langer, ook op PC exclusive titels.

Dat de huidige consoles die trend zullen versnellen verwacht ik dan ook zeker, ik heb alleen niet het idee dat ze de veroorzaker van de trend naar meer multicore en het meer benutten van zwaardere cores zijn.

Daarnaast is het de vraag hoelang het zal duren, als deze generatie consoles ook weer 7+ jaar mee moet gaan komen we over niet al te lange tijd weer op een soortgelijk punt waar de consoles een stuk zwakker zijn en mogelijk juist ontwikkeling weer gaan vertragen. Je ziet nu namelijk al dat de consoles qua cpu minder krachtig zijn dan een 8 core cpu (Ryzen 3700X) uit 2019 en dat verschil zal natuurlijk alleen maar groeien. Nu gaat dat, verwacht ik in ieder geval, niet zo snel zo groot zijn als met de jaguar cores in de voorgaande generatie, toch verwacht ik dat het mogelijk wel weer relevant gaat worden, waardoor we mogelijk over een paar jaar roepen dat 8 core cpu's snel niet meer relevant zullen zijn, net zoals in 2017 gezegd werd over quadcores, terwijl ze mogelijk juist langer relevant blijven juist door de vorige generatie consoles.

Misschien zeggen we over een paar jaar wel dat 8 core Sku's snel niet meer relevant zullen zijn, net als dat in 2017 gezegd werd over quadcores als de 7700K, terwijl later blijkt dat +-4 jaar na die uitspraken 8 cores nog prima mee kunnen, al is het niet meer in het hoogste segment van de consumenten markt.

Niet dat je als gamer trouwens nog een 4 core zou moeten kopen, tenzij je echt op een laag budget zit. Maar halsoverkop vervangen lijkt niet ook nodig te zijn wanneer gaming je focus is, productiviteit is natuurlijk een compleet ander verhaal.

[Reactie gewijzigd door Dennism op 24 april 2021 10:38]

Ik denk dat het wel meevalt met het achter raken van de consoles... In ieder geval wat cpu prestaties betreft. De ontwikkeling daarvan is al 10 jaar behoorlijk af aan het vlakken. Het is dat de Jaguar cores van de Xbox one en PS4 bij release eigenlijk al hopeloos verouderd waren, maar bv een i5 2500K die twee jaar ouder is dan die consoles is pas de laatste paar jaar echt een beetje traag aan het worden (en nog kom je er voor de meeste games heel aardig mee weg als je zorgt dat er niet te veel in de achtergrond draait en niet te hoge eisen hebt).
De groei van de laatste jaren zit hem vooral in meer cores, en in AMD die qua ipc bijgetrokken is bij Intel. Ik verwacht niet dat je zelfs over 7 jaar 2 keer zo snelle cores of zo gaat hebben.
Heb hier sinds jaren een i5 2500K 3.3@4.5 draaien nu inmiddels i.c.m. RX580 of GTX1070 gamen op 1080p is het maximale. BF1, BFV en Stars Wars fallen order draaien met setting hoog nog goed. Maar de rek is er definitief uit. Zat te wachten op de zen 3 upgrade, maar met deze schaarste moet ik het nog even uitzingen met mijn Jurassic game-rig.
Yup, ik heb de mijne krap 2 jaar geleden vervangen met een ryzen 2600. Idee was om later dat jaar naar een 3000 serie cpu te gaan maar eigenlijk draait die 2600 prima (en ondertussen ben ik overgestapt naar een console). Maar die 2500K deed het op zich nog prima, enige probleem was dat ik tegelijk Twitch wou kijken en Destiny 2 spelen en dat was te veel (game ging flink hakkelen en cpu load zat dan op 100%)
Voor gamen én streamen zijn inderdaad meer dan vier cores/threads nodig. Dan gaat dit oude beestjes op de knieën.
Eind 2017 was de rek uit mijn I5-2500K-HD6950 combo en heb toen een RX580 aangeschaft. De sprong in fire strike van 3200 naar 12000 was een flinke boost waar ik het tot nu toe heb kunnen uitzingen. Maar ook uit deze I5-2500K-RX580 combo is nu de rek eruit.
Een nieuwe videokaart brengt géén echte boost meer, ter vergelijking uit mijn verzameling Fire Strike scores.
3200 I5-2500K-HD6950 (OC@4.5)
12000 I5-2500K-RX580 (OC@4.5) 375%
(12200 I7-4770K-RX580)
13700 I5-2500K-GTX1070 (OC@4.5) 14%
15860 I7-4790-RX5600XT 15%
De laatste jaren zie juist weer flinke vooruitgang in IPC, naast de groei in cores. Deels omdat AMD eindelijk met Zen weer een architectuur heeft waar rek in zit qua IPC, maar ook omdat Intel doordat ze eindelijk 10nm cpu's met enige yields kunnen fabriceren, en door de backport van Ice Lake naar 14nm (Rocketlake) eindelijk hun architecturen kunnen inzetten door de problemen aan de fabricage kant jaren in de ijskast hebben gestaan. Vergis je er bijvoorbeeld niet in, dat op roadmaps van jaren geleden 10nm cpu's al in 2018 hadden moeten komen in volume voor het client segment, maar dat dit eigenlijk nog altijd niet zo is.

Maar als ik kijk naar bijv. de PS5 dan zie je dat deze 8 Zen 2 cores heeft met een maximale boost van 3.5Ghz.

De best vergelijkbare, verkrijgbare, cpu is dan de 3700X, die scoort bijvoorbeeld in Cinebench 20 (Cinebench is natuurlijk niet representatief voor alle workloads, maar is wel een van / de meest gebruikte test om generationele verbeteringen te testen) tussen de 490 en 510 punten single thread, laten we het gemiddeld op 500 houden. Ga je dat vertalen van 4.4Ghz naar 3.5Ghz dan zou een PS5 +-400 punten scoren in die test, ik verwacht dat het in praktijk mogelijk iets hoger zal zijn.

Kijk je naar de huidige 8 core, de 5800X dan kom ik scores tussen de 620 en 630 punten, laten we zeggen 625, of te wel een verbetering van 25% over de 3700X, waarvan 20% IPC zou zijn, of zelfs 56% over de geïnterpoleerde PS5. Gezien het feit dat de geruchten voor Zen 4 momenteel wederom wijzen op 15 tot 20% IPC winst zie ik het toch echt niet als vreemd dat over een jaar of 7 de cores toch echt weer flink sneller zijn.

Nu hoeft dat natuurlijk niet uit te komen, maar ik zie ook geen enkele aanwijzing dat de snelheidsverbetering per core zo laag gaat zijn als het de afgelopen jaren juist hard omhoog gaat. Juist omdat AMD de aanval ingezet heeft, en Intel inmiddels ook langzaam weer iets slagvaardiger lijkt te gaan worden met o.a. Alderlake. Of dat uiteraard inderdaad zo gaat zijn moet nog blijken, maar ook de geruchten over Golden Cove lijken te wijzen naar ook daar +20% IPC winst over Willow Cove.

[Reactie gewijzigd door Dennism op 24 april 2021 14:17]

Ik ben benieuwd, ik heb het cpu nieuws ook niet meer zo goed gevolgd geef ik gelijk toe. Ik hoop dat je gelijk krijgt, meer power is altijd leuk :)
De kernen zullen over 7 jaar vast flink sneller zijn, maar IPC verhogen wordt steeds moeilijker, er is een grens aan hoeveel parallellisme je uit een sequentiële reeks machinetaalinstructies kunt halen, onder meer vanwege de Wet van Amdahl.
Maar de wet van Amdahl is er toch juist op gestoeld dat je juist voor bepaalde taken de single thread snelheid wil verhogen, daar bepaalde zaken op een gegeven moment niet meer efficient(er) over meerdere threads te verdelen zijn.

Voorbeeld, Stel dat je een taak hebt die op een enkele thread (denk een 1C1T cpu zoals we in een relatief ver verleden hadden) 10 uur aan tijd kost en stel dat een subtaak binnen die taak op een enkele thread minimaal 1 uur kost en niet parallel uit te voeren is. Hoeveel cores je dan ook toevoegt aan parallellisatie, die taak zal altijd minimaal 1 uur duren op hardware met een vergelijkbare single thread snelheid, ook al is het een 32 core cpu met SMT en dus 64 threads.

Maak je echter de snelheid van de single thread beter, waardoor je dat uur kan verkorten, kun je ineens de workload wel sneller uitvoeren.

Kan zijn dat ik het mis heb hoor, is al weer even geleden dat ik in deze wetten gedoken ben.
Wat Amdahl zegt is dat er in ieder programma taken zijn die na elkaar uitgevoerd moeten worden en die je niet kunt paralleliseren. Neem even een simpel stukje programmatekst:

f:=x*y+a*b;

x*y en a*b kunnen parallel uitgevoerd worden, maar de optelling moet altijd na de vermenigvuldiging komen, dat is dus harde een grens aan parallelisering van dit stukje code. In theorie kun je x*y en a*b in verschillende threads uitvoeren, maar je zult enorm veel meer tijd besteden aan het opstarten en stoppen van de threads dan de vermenigvuldigingen kosten.

Dit is waar moderne superscalaire processorkernen van nut zijn: Er is namelijk geen enkele noodzaak om de berekening van x*y en a+b in verschillende threads te stoppen, de processor zal als de compiler de berekening van x*y en a*b netjes achter elkaar in de code zet, zien dat er geen afhankelijkheid is tussen beiden en beide vermenigvuldigingen in aparte ALU's tegelijk berekenen. De IPC-verbeteringen die we vandaag de dag nog zien hebben vooral te maken met het optimaliseren van deze superscalaire eigenschappen, zodat één kern meer instructies tegelijk kan uitvoeren die niet van elkaar afhankelijk zijn.

Maar feitelijk, of je nu threads gebruikt of superscalair binnen een kern bezig bent, in beide gevallen paralleliseer je en loop je tegen dezelfde barrières waarover Amdahl gaat aan: De optelling is afhankelijk van het resultaat van beide vermenigvuldigingen, moet dus altijd na de vermenigvuldiging uitgevoerd worden en kan er dus nooit parallel mee lopen.
Consoles hebben nooit buldozer cores gehad. Het waren jaguar cores ala athlon 5350 (de intel atom tegenhanger). En die zijn ongeveer qua performance gelijk aan de originele athlon 64 qua ipc
op zich positief dat er een total war-spel getest wordt, maar zou het bij tests voor processoren geen goed idee zijn om dan ook de turn times te testen?
Best een goed idee. Bij turn-based games (ook Civilization, bijvoorbeeld) zijn snelle animaties eigenlijk nauwelijks interessant, en grafisch gebeurt er ook niet veel spannends. De wachttijden zijn daarentegen erg vervelend.

Nou is total war alternerend turn-based en real-time, dat laatste is daarin misschien wel belangrijker.
Hoeveel performance tijdens het realtime gedeelte van Total War ook zeker belangrijk is, vind ik als Total War speler de turntimes zeker zo belangrijk, zeker late game kunnen die soms enorm lang duren in bepaalde Total War games. Nu met patches is het beter geworden, maar ik heb wel eens gehad dat in TW: Warhammer je gewoon een paar minuten zat te wachten na een turn, dat is gewoon echt niet leuk zoals je al aangeeft. Alles wat dat kan versneller zie ik liever dan een paar FPS meer op de battlemap.
welke CPU heb je dan?

na de shadow en blade patch is WH 2 stukken sneller op mijn toendertijd FX series CPU nu met de nieuwe 5800x is het helemaal bloedje snel allen erg late game (beurt 400+) duurt het met mega empires soms 2 minuten
Nu een Ryzen 3600, bij release van Warhammer 2 echter een i5 uit de Haswell generatie. Dat het met patches sneller is geworden gaf ik trouwens al aan, maar de periode vopor die patches was soms echt een ramp. En als een cpu daar dan wat verlichting kon brengen was dat erg meegenomen.
dat klopt dat je dat aangaf maar uit je bericht haalde ik dat het nog steeds best lang kon worden vandaar de vraag

ontzettend bedankt voor je antwoord trouwens is erg een dikke verbetering van hasswell 15 naar 3600

benaderd mishsien wel mijn gevoel van blij schok toen ik eindelijk van de FX series CPU overging op de ryzen 5800x echt was belachelijk groot verschil

[Reactie gewijzigd door atthias op 24 april 2021 13:59]

Ja dat snap ik _/-\o_
Dat is een enorme stap vooruit :)

[Reactie gewijzigd door DennisH82 op 24 april 2021 14:21]

Ik denk dat juist turn times heel erg afhankelijk zullen zijn van het spel en wat voor soort turns er worden gedraaid. Denk aan bv. Civilization zodra het twee civilisaties zijn die geen zicht hebben op elkaar, dan kunnen die prima in verschillende threads draaien. Als het spel daar sowieso geen rekening mee houd, dan zal je daar ook geen performance verbetering in merken. Als je echter op een volle map zit en actie van speler A invloed heeft op speler B, die weer op player C, etc. Dan zal je elke turn achter elkaar moeten gooien. Als het spel echter 'vals' speelt en eigenlijk niet goed kijkt naar acties van andere AI spelers of juist samenwerkt met andere AI speler op een niveau waar dat niet helemaal eerlijk is, dan wordt zo een test geheel in de soep gegooid.

Je zou per spel hier naar moeten kijken, daarna goed analyseren hoe de AI werkt onder de motorkap in verschillende situaties en vervolgens die exacte situaties moeten testen (via bv. een safegame). En vaak kan dat niet omdat er voor acties random results uit rollen die mogelijk invloed hebben op de vervolg acties...

[Reactie gewijzigd door Cergorach op 24 april 2021 12:02]

total war durf ik onder voorbehoud te zeggen dat deze alles op 1 thread doet voor de beurten van de AI

moet ook wel gezien je altijd facties heb die op elkaar kunnen reageren waardoor parallellisatie vrijwel niet te doen is
Denk aan bv. Civilization zodra het twee civilisaties zijn die geen zicht hebben op elkaar, dan kunnen die prima in verschillende threads draaien.
Ik weet niet hoe Civilisation precies werkt. Is dat turn-based in de zin dat veel bordspellen turn-based zijn: elke speler is om-en-om aan de beurt en tijdens de beurt van speler 1 heeft speler 2 eigenlijk niets te doen. Of is het turn-based in de zin van Diplomacy: alle spelers schrijven (tegelijk en onafhankelijk van elkaar) orders op en die worden daarna uitgevoerd (waarbij het mogelijk is dat sommige orders niet uitgevoerd kunnen worden; je kunt niet aanvallen met een leger dat net door een tegenstander vernietigd is). In het tweede geval kan elke AI altijd als een losse thread draaien (én tegelijkertijd met het ingeven van de orders door de speler). In het eerste geval heb je op zich wel gelijk, maar dan zou ik denken dat het geen heel nuttige optimalisatie is. Het werkt alleen tijdens de eerste paar beurten: dan hoeven er per beurt weinig beslissingen genomen te worden, dus die beurten zijn toch wel snel. Bovendien is het riskant: je kunt niet garanderen dat twee spelers die elkaar aan het begin van hun beurt niet kunnen zien ook aan het eind van hun beurt nog niet met elkaar in contact gekomen zijn. Dus dan moet je ofwel een regel verzinnen in de trant van "spelers met meer dan X velden tussen hun bases kunnen geen invloed op elkaar hebben" (maar dan moet die regel wel 100% correct zijn; ik durf niet te zeggen hoe realistisch dat is in het geval van Civilisation) of je laat alle AIs tegelijk hun orders bedenken en voert ze daarna op de goede volgorde uit, waarbij je afbreekt (en vanaf daar nieuwe orders laat bedenken door die AI en alle volgende AIs) als ze elkaar toch ontdekken. Het klinkt nogal foutgevoelig voor iets wat weinig winst oplevert.

[Reactie gewijzigd door robvanwijk op 24 april 2021 17:05]

En vaak kan dat niet omdat er voor acties random results uit rollen die mogelijk invloed hebben op de vervolg acties...
Als je een enkele savegame pakt, en vanuit die savegame een nieuwe beurt uitrekent, dan zal het effect van randomness echt minimaal zijn. En in het onwaarschijnlijke geval dat het überhaupt merkbaar is, is dat wel uit te middelen met meerdere metingen. Er zijn zelfs games (ik weet niet meer uit mijn hoofd of dat in Civ 6 kan) waarin je na een savegame met dezelfde random seed kunt verder spelen als voor de save, dus dan is je spel echt deterministisch.

Verder gok ik dat er niet zo'n heftige analyse achter de AI zit om te bepalen wat precies invloed kan hebben op wat, dat is heel lastig correct te implementeren en eventuele slechte performance zit toch aan het einde van het spel, als iedereen iedereen heeft ontdekt. Dat is natuurlijk een gok, maar het maakt het ook niet zoveel uit hoe algoritmes intern werken, je wil als gebruiker gewoon weten wat het eindresultaat is: de performance. Het is niet alsof een speler maar niet de wereld gaat verkennen omdat dat later de performance slechter zou maken...
ook net ontdekt dat Civilzation 6 een ingebouwde ai benchmark bevat die dus gewoon de turn times kan benchmarken, maar de winst bij meer dan 4 cores is uiterst beperkt en wordt vermoedelijk enkel nog beïnvloed doordat windows andere taken die niet game-gerelateerd zijn naar de vrije cores kan sturen
Huh? Waarom de oude 3xxx series getest en niet de 5xxx????
Dat staat toch duidelijk in het artikel (pagina 4)?
Ryzen 3000

Om louter te kijken hoeveel cores van toegevoegde waarde zijn, gebruiken we voor deze test dus liever verschillende processors met hun oorspronkelijke aantal cores, maar wel in een reeks met een en dezelfde architectuur. Deze variabele willen we immers niet van invloed laten zijn. Omdat Intels en AMD's nieuwste generaties (nog) niet zijn uitgebracht in alle configuraties die we graag willen meenemen (zoals de quadcore, die jarenlang gold als de standaard voor pc-gaming), hebben we gekozen voor de AMD Ryzen 3000-serie processors. Onze selectie bestaat uit cpu's die allemaal op de Zen 2-architectuur zijn gebaseerd.
dat staat op de vierde pagina onder ryzen 3000
Om louter te kijken hoeveel cores van toegevoegde waarde zijn, gebruiken we voor deze test dus liever verschillende processors met hun oorspronkelijke aantal cores, maar wel in een reeks met een en dezelfde architectuur. Deze variabele willen we immers niet van invloed laten zijn. Omdat Intels en AMD's nieuwste generaties (nog) niet zijn uitgebracht in alle configuraties die we graag willen meenemen (zoals de quadcore, die jarenlang gold als de standaard voor pc-gaming), hebben we gekozen voor de AMD Ryzen 3000-serie processors.

[Reactie gewijzigd door atthias op 24 april 2021 10:51]

Nog luxere processors kunnen zelfs nog meer consistentie geven, al moet de videokaart ook snel genoeg zijn om deze voordelen te benutten.

Wat is hier ongeveer de verhouding van?

Ik heb momenteel voor me hoofd pc een 8 core en 16 thread processor.. Vraag me of hoe het over 3 a 4 jaar schaalt. Ben ik dan niet beter af met een 12 core 24 thread processor??

Was eigenlijk aan het denken om voor me 2de pc waar nou nog een R5 2600x in zit op te schalen naar een 8 core / 16 thread processor.. (als ik tenminste er een vrij lange levensduur eruit wil halen)

[Reactie gewijzigd door Robin4 op 24 april 2021 13:53]

Ik denk dat over 3-4 jaar een 8 core 16 thread nog steeds zeker goed meekomt :)
Maar neem aan dat je dan tegen die tijd beter een 12 core processor kan hebben?? Want het liefst zou ik wel iets meer als 3 a 4 jaar mee willen doen..

Laat ik zeggen probeer het te rekken tot zeker 6 jaar..

Want ik verneem dat Zen 4 ook weer in core count omhoog zal gaan en top model dan denk ik 24 cores word.
Als je nu 12-cores neemt voor de toekomst en straks spelletjes profijt hebben van 12 cores. Dan is jouw 12-cores van nu, tegen die tijd dat 12-cores nodig is traag en wil je dan weer een sneller 12-cores van dat moment hebben

[Reactie gewijzigd door van der Berg op 25 april 2021 09:53]

Ook al is die 12 core wat langzamer. Ik denk dat je er dan nog steeds profijt er van gaat hebben ook al heb je dan geen DDR5 systeem. DDR5 voegt momenteel vrij weinig toe voor games. DDR4 is nog steeds goed tot aan 16 cores.

Je moet het gewoon zien als de R7 3700x van toen tegenover de R7 5800x van nu.
Ja die 3700x is trager in single core performance dat staat vast. Maar op multi core zal die denk ik goed mee komen.. Dus daarom denk ik dat een 8 core het straks minder doet dan een iets snellere 12 core.
Is toch gewoon het zelfde verhaal met de 3700x en de 5800x.

Die 3700x doet het nog steeds prima, ook al is single thread minder.
Jij zegt dan koop ik liever een nieuwe..Prima dat je dat denkt. Maar is wel een dure investering.
Als ik er meer jaren uit de huidige build kan halen is dat alleen maar mee genomen.
Heb echt geen zin meer om ieder jaar weer iets nieuws te kopen. Of om de 3 a 4 jaar.
Als je nu voor AMD 8 core gaat kun je later nog upgraden naar 12, maar wat Van der Berg zegt klopt ook, een dan nieuwe 12 core met veel sneller DDR5 geheugen gaat (zeer waarschijnlijk) veel beter presteren dan de 12 core van nu met DDR4 geheugen.
Dit blijft toch altijd een dingetje ;) :P
Wanneer ga ik upgraden, hoe lang doe ik er mee, budget etc....
Maak daar maar 5 jaar van
Ik heb hier een 8-cores- 16-threads processor de 5800X. Ik denk zelfs dat we 5 jaar makkelijk kunnen doen, met mijn Skylake 6700K heb ik uiteindelijk 5 jaar en 4 maanden vol gehouden en zelfs kon ik langer mee doen maar had weer zin in iets nieuws en nu is mijn computer door de upgrade enorm sneller op geworden.

Als we tegen die tijd 12-cores nodig gaan hebben dan stap ik wel over. Maar om nu al een 12-cores te nemen en tegen die tijd dat het echt nodig is, moet je weer upgraden naar een snellere 12-cores processor.

Ik stond ook voor een grote vraag: kies ik nu 5800X of 5900X want afgelopen november 2020 was het verschil maar €100,-. Maar ik ben een pure gamer en die extra 4 cores zijn dan op het moment zonde en ik denk naar de toekomst toe is de 8-cores en 16-threads voldoende.
Van de huidige Zen 3 koop ik niks meer.
Heb nou een 5800x maar word wel wat warm en dat valt wel wat tegen.
Nou hoef ik niet perse nou al de cpu weg te doen.. Maar denk met warhol wellicht toch een 12 core erin te zetten.(over 1 jaar of zo) Waarom. Ik zou graag wel iets langer met de pc willen doen 6 a 7 jaar zou prima zijn..Heb ook niet echt meer intresse om van het AM4 platform af te willen. Zo lang het nog werkt voor al mijn games weinig noodzaak om een complete nieuwe AM5 set te gaan halen.
Ik begrijp dat het leven en werk gewoon doorgaat, maar gezien de markt, en daarmee vooral de beschikbaarheid (en daardoor flink gestegen prijs) van videokaarten, maar ook andere ICs, is het volgens mij op dit moment voor de meeste mensen afwachten. Het is nu te duur om te upgraden. Dan is dit onderzoek wel interessant, maar voor mij net zoiets als een artikel over een Ferrari. Leuk en kwijl, maar ik zal hem toch niet (kunnen) kopen.
Hogelijk is over een jaartje alles weer normaal.

[Reactie gewijzigd door MeMoRy op 24 april 2021 07:57]

Een cpu upgrade van quadcore naar bv een octacore is prima te betalen op dit moment en maakt voor sommige spellen een wereld van verschil.
Cries in hexacore ;)

Met 6 cores kom je ook nog een heel eind momenteel. Maar ik zou niemand nu aanraden er een te halen. In de nabije toekomst is het wellicht niet meer voldoende namelijk
Als je nu gaat upgraden is een octacore niet veel duurder dan een hexacore die wel weer een stuk toekomstbestendiger is.
Dit is precies wat ik zei ;)

Minder dan 8 cores is niet aan te raden nu nee. 10 cores is nog beter zelfs
Nauwelijks dus als je videokaart het niet bijhoudt. En nieuwe videokaart is dus nu niet echt haalbaar.
Er zijn voldoende games die cpu afhankelijk zijn en dan maakt een snellere cpu een wereld van verschil.
Ik zie gewoon de I9 9900K voor 300€ in de winkels liggen ik heb dat ding al vanaf de release date in mijn PC en ik verzeker je dat hij goed kan leveren aan mijn Asus Tuf 3090 OC
Wat ik jammer vind is dat de ontwikkelingen op console gebied niet zijn meegenomen in dit artikel. Wat waarschijnlijk ook veel invloed heeft op welke cpu configuratie de maatstaf wordt voor games in de directe toekomst.
Nieuwe generatie consoles is 8 zen cores, 16 threads. Dus dat kun je dan voor PC ook maar het beste aanhouden. Dat zou mijn upgrade iig zijn.

Voor de vorige generatie heb ik een PC met 4 zen cores met 8 threads gebruikt met een RX580. Prima te doen op 1080p. Maar nu begin je toch echt te merken dat 4 cores en 8 threads te weinig zijn voor rotsvaste 60 FPS op 1080p. Veel micro stutters in moderne spellen, dat ik dan oplos door naar 900p of 720p te gaan met 60-80% Radeon Sharpening en mits het spel een goede - bij voorkeur - TAA heeft.
Dat je het op kunt lossen door de resolutie te verlagen is nou juist een teken dat het je videokaart is die die stotters veroorzaakt, niet de cpu.
Ja, dat dacht ik ook altijd. Dat is de theorie. Doch sommige hebben er echt baat bij de resolutie ietsje te verlagen om de CPU te ontlasten. Skyrim SE en Fallout 4 waren de voorbeelden die mij zo te binnen schoten.
Ik zie Warzone nooit in de benchmarks helaas. Is toch een van de zwaardere spellen voor een pc qua cpu gebruik b.v.
Eens. Die game jaagt mijn 5950x rustig tot 50%, wat heel kort door de bocht zou betekenen dat 8c/16t toch wel minimaal is. Zeker als je naast je game nog discord en andere dingetjes draait die wat cpu vragen.

Qua (AAA) gamen zou ik dus inderdaad niet minder kopen dan een 8c/16t processor, 5xxx serie van AMD of 10/11 serie Intel. En eerlijk gezegd, als je het kan missen, neem er nog een paar cores bij. Kan met een klein oogje op de komende paar jaar geen kwaad.
Nog sterker, mijn 9700K gaat soms alleen voor COD al naar de 80%. En die ervaring hoor ik om mij heen ook met de 9600K. Regelmatig systeem naar de 100%. Koeling is wel goed, wordt nooit te warm. Is alleen met COD! Nu naar de 9900K upgraden is erg veel geld voor alleen die 8 threats extra.
Als die geen benchmark heeft of een andere manier waarop een herproduceerbaar resultaat behaald kan worden is dat niet te doen
Ik vind de conclusies heel raar. Games als Cyberpunk laten namelijk juist in drukke gebieden zien dat zelfs de 3600X op 4K resolutie nogsteeds niet hun GPU volledig kunnen benutten vanwege bottlenecks. Evenals COD Warzone in het midden van de stad. Dit is de hele reden waarom ik al heel snel overgestapt was naar een 5800X.
Dat zal uiteraard heel erg van de workload en hardware afhangen. En dat zal verwacht ik dus ook de conclusie's deels verklaren. Mijn 3600 bottlenecked mijn 6900XT (Yay gpu shortages, dus uit balans) ook in bepaalde gevallen. Maar niet genoeg om mijn 3600 met pensioen te sturen. In dat opzicht snap ik juist de conclusie wel. Uiteraard zou ik met een 5900X of iets in die richting in bepaalde gevallen geen of een kleinere bottleneck hebben, maar of de meerprijs t.o.v. mijn 3600 momenteel waard is, ik verwacht het eigenlijk niet. En in situaties waar een meer passende GPU gebruikt wordt met de 6 cores zal dat verschil nog kleiner zijn.

En dat sluit eigenlijk perfect aan bij de conclusie van het artikel, dat de 6 core momenteel een prima keuze, maar meer cores doen het vaak nog net wat beter. Maar moeten dan ook wel in je budget passen.
Ik gebruikte dus een 3600 in combi met een 3080RTX. Beetje dezelfde soort onbalans. Het is deels ook wel omdat Zen 2 tussen de chiplets zelf relatief veel latency hebben wat prestaties onderuit halen.

Anderzijds vragen Nvidia GPU's ook meer van de CPU omdat blijkbaar een deel van de scheduling op de CPU wordt gedaan in plaats van hardwarematig.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee