Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Door Willem de Moor

Redacteur componenten

De invloed van een cpu bij gaming

Waar zit de bottleneck?

Spreiding en conclusie

We hebben van de geteste games de procentuele spreiding per game voor alle resoluties en de gemiddelde spreiding in grafieken gezet. Daarbij hebben we de spreiding van alle geteste processors opgetekend, van snelste tot langzaamste. Daarnaast hebben we de spreiding van de processors met hun stock-geheugensnelheden en alleen die met het geheugen op 3200MT/s weergegeven.

Processortest met vijf games en RTX 2080

Het is opvallend hoe de processorkeus door de bank genomen weinig uitmaakt als je op hogere resoluties gaat gamen. Op 1080p zien we nog grote verschillen tussen de slechtst en best presterende processors, maar die verschillen worden kleiner naarmate de resolutie of het detail omhooggaat. De videokaart vormt, zelfs met een toch niet misselijke RTX 2080, al snel de bottleneck.

We hebben de cijfers nog op een andere manier uitgesplitst, namelijk per processor, en hebben uitgerekend wat de spreiding daarbij is tussen de stock-geheugensnelheid en met het geheugen op 3200MT/s, voor de 2700X zelfs op 3600MT/s. We hebben dat voor elke test gedaan en geven de grafieken per processor en per game weer.

Over alle games en resoluties gemiddeld verbetert de score van de 6700K met 6,7 procent, voor de 8700K is dat 5,2 procent. De 9700K verbetert slechts 2,6 procent en de 9900K nog maar 1,2 procent. Voor de 2700X is het 1,7 procent als we net als de overige processors het geheugen op 3200MT/s zetten, maar dat stijgt tot 4,1 procent met sneller geheugen op 3600MT/s. Bij de 2700X zijn het vooral Battlefield met DX12 en Tomb Raider die profiteren, terwijl de 6700K en 8700K het meer van F1 en Far Cry moeten hebben. Sneller geheugen is overigens geen garantie voor betere prestaties, want we zien regelmatig een negatieve verandering in de benchmarks.

Dat betekent enerzijds dat onze keus om de gameprestaties van processors alleen op 1080p te testen de juiste is. Een vaakgehoorde klacht onder reviews van processors is dat niemand toch met die hardware op full hd gaat zitten gamen. Deze test laat zien dat we weinig verschillen zouden zien als we op 1440p of 4k zouden testen, terwijl we toch echt de onderlinge verschillen van de processors willen laten zien.

Anderzijds valt op hoeveel invloed de videokaart heeft op de prestaties. Op 1440p en helemaal op 4k zijn de onderlinge verschillen slechts vijf tot tien procent gemiddeld, en soms zijn ze zelfs nog kleiner. Investeer dus vooral je geld in je videokaart als je een 1440p- of 4k-scherm hebt.

Ten slotte viel het op dat onze AMD-processor pas echt profijt van sneller geheugen heeft als het flink hoger geklokt wordt. De test met dezelfde kloksnelheid als de overige processors, op 3200MT/s, is de winst gering. Uiteraard is de geheugencontroller van AMD stock al sneller dan die van Intel: 2933MT/s versus 2667MT/s, dus de procentuele overklok op 3200MT/s is kleiner. In de ene game loont het meer dan in de andere om met nog sneller geheugen aan de gang te gaan, maar het vergt wel wat zoeken naar stabiliteit.

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Reacties (281)

-12810268+1149+217+31Ongemodereerd101
Wijzig sortering
Zou tof zijn om in de tests ook een i5 en bijv. een R5 2600 mee te nemen, vooral om bij de hogere resoluties te kunnen zien hoe die het doen. Nu zien we bij veel games op 4k en 1440p verschillen die binnen 1% vallen.. Ben benieuwd hoeveel geld je kan besparen daar door de CPU nog meer te beperken zodat die beter bij de (zoals in de review aangehaald) zeer snelle (en dure) grafische kaart past. Kan je van dat prijs verschil over een paar jaar een nieuwe mid-range CPU kopen of een nog betere GPU. ;)

Dat en wat @The-End587 zegt is natuurlijk ook waar, enkel FPS meten is eigenlijk not done. Daar horen en lezen we steeds meer over de laatste tijd. Best wel schokkende verschillen komen daaruit naar voren die je bij een test met enkel FPS nooit zou zien.

[Reactie gewijzigd door Mmore op 17 december 2018 06:44]

Er ontbreekt wel meer dan dat...

We hebben nu een 'test' met vrijwel alleen first/third-person content en een racegame, met andere woorden, zo ongeveer de minst CPU-bound game-genres die er bestaan. Conclusie Tweakers.net: 'Alleen op 1080p maakt het nog wat uit'. En dan pak je nog DX12 benches ook... een API die duidelijk geen goeie voet aan de grond krijgt en de invloed van de CPU verder afvlakt.

https://www.purepc.pl/pro...era_coffee_lake?page=0,18
https://www.eurogamer.net...re-i9-9900k-review?page=2

Een tweede poging zou niet misstaan, lijkt me zo. Er wordt hier wederom een redelijke bult onzin het net op geslingerd. En dan mis je ook nog de typische use case van een reguliere PC die meer te doen heeft dan alleen het draaien van een game - ook dat heeft invloed en maakt snellere CPUs relevanter.

En met voldoende GPU power, speelt dit ook allemaal gewoon op 1440p.

Klap op de vuurpijl:
https://www.anandtech.com...urved-gaming-lcds-prevail

>60 FPS is heel rap de norm aan het worden.

Onterecht suggereert Tweakers hier dus dat je met een 'redelijke CPU' wel af kunt als het gaat om high-end gaming. De dagelijkse praktijk en echt in-depth testen laat een andere realiteit zien, en de historie met Intel quad-cores die nu allemaal massaal de prullenbak in kunnen omdat ze threads tekort komen wordt ook niet aangestipt, want helemaal niet getest. Maar wel een boel grafieken die minimale verschillen tussen RAM latjes laten zien. 8)7

Wederom erg slecht, IMO en het laat zien hoe weinig praktijkervaring er nog leeft in het team. Die API test (Draw calls) is helemaal leuk. Complete tijdverspilling en vervuiling van dit artikel. Wie speelt er draw calls? Juist.

[Reactie gewijzigd door Vayra op 17 december 2018 10:24]

Ik speel Football Manager dat is volgens mij CPU bound dus je hebt gelijk. Je kunt stellen dat als je een grafisch intensieve game hebt dat de bottleneck de GPU is, maar als je een game hebt zoals Football Manager of een grand strategy game van Paradox (EU IV, CK2 etc.) dan ben je CPU bound. Belangrijker is om te kijken naar verschillende use cases en niet alleen grafisch intensieve games op 4K spelen en dan telkens hetzelfde roepen dat de CPU geen reet uitmaakt.
4K is nog zo'n leuke inderdaad. Compleet zinloos voor de meeste gamers want GPU ligt volledig op z'n gat qua vooruitgang en de prijzen zijn veel te hoog om een beetje redelijke prestaties op 4K te halen. Om nog maar te zwijgen over de kwaliteit van goedkopere 4K panelen. Ironisch genoeg wordt dan na aankoop geroepen 'maar dan ga ik toch gewoon terug naar 1080p, schaling is toch 1:4 dus wat maakt het uit'... Ja, had dan een goed FHD paneel gekocht?

De helft van de games die hier op 4K getest worden zijn niet lekker speelbaar op de gebruikte GPU. Allemaal geregeld sub 60 FPS. Alleen bij SoTR zou je kunnen zeggen dat dat oké is. En laten we het over de minimum FPS maar helemaal niet hebben...

[Reactie gewijzigd door Vayra op 17 december 2018 10:28]

Je hoeft voor 4k toch niet alles op ultra te draaien? 4k medium-high is ook schitterend.. daarnaast kan je met een Nvidia kaart en een 4k HDR scherm ook custom resoluties op 60hz draaien, 3k resolutie, 2,5k resolutie en dan schalen naar 4k in de Nvidia driver, zoals consoles dat ook doen.. En dat ziet er nog steeds beter uit dan elk 1080 scherm.

Meer uitleg:

https://amp-reddit-com.cd...0.1&usqp=mq331AQGCAEoAVgB
Ik speel liever 1440p ultra dan 4K medium?

Belichting en dergelijke is IMHO belangrijker dan pixels. Zeker als we het over 1440p van 4K hebben.

Tussen 640x480 of 1080p snap in het nog wel. Maar goede schaduwen, realistischer water etc zijn imho belangrijker dan pixels.

Dus nee, liever 1440p ultra... 4K medium is een stap terug vind ik.
Ik speel dus liever 3k ultra :) En daar bedoel ik mee dat je met custom resolutie je het zo gek kunt maken als je zelf wilt, mocht je kaart het niet op ultra redden. Met scaling op de GPU gezet in je Nvidia driver en dan custom resoluties aan maken dan scaled die automatisch naar 4k.

Dus een 3072x1566 reso op ultra is ook mogelijk, vandaar mijn comment.

[Reactie gewijzigd door millman op 19 december 2018 00:17]

Bij heel games heb je de keus niet om custom resoluties te gebruiken.
onzin, de meeste games ondersteunen dit prima. Ben nu 1 game tegen gekomen waar dit niet mogelijk is, en dat is 'ring of Elysium'.

[Reactie gewijzigd door millman op 19 december 2018 14:09]

Kan, maar er is ook nog zoiets als motion resolution/clarity. Als je op 60 FPS zit, is bij bewegend beeld het extra detail nauwelijks te onderscheiden. En wat is gaming? Juist ;)

Hogere refreshrates en een degelijk paneel kunnen dus een betere ervaring bieden dan een enorme bult pixels. Maar het hangt ook af van je budget natuurlijk. Als je inderdaad 600-800 euro voor een GPU over hebt, dan heb je het ook over voor een hoge kwaliteit paneel, en dan is dat terugschalen minder rampzalig. Maar de meeste stervelingen doen allerlei concessies om maar 4K te kunnen draaien 'want dat is nieuw'... en vergeten de praktische omstandigheden. En om weer even ontopic te worden: dit Tweakers artikel draagt bij aan die verkeerde overwegingen.

Verder is er nog geen enkel uitzicht op snellere GPUs en dat zou ik veel meer een maatstaf laten zijn dan je persoonlijke voorkeur voor een hoeveelheid pixels. Voor hetzelfde geld zit je tot ver na 2020 tegen die downscaling aan te kijken. En je kunt wel met zekerheid zeggen dat rond 2020 er zeker betere 4K panelen te koop zijn voor een lagere prijs.

[Reactie gewijzigd door Vayra op 17 december 2018 11:06]

4K is fijn met desktop taken, bijv als je veel moet lezen PDfs enz. En dan kan je alsnog 1080p gamen. Niks mis met een 4K scherm dus.
Dat wil ik wel iets nuanceren. HUD's en text zijn zeer zeker wel aangenamer op hogere resoluties. En daarnaast offer je verhoudingsgewijs bij hogere resolutie vaak minder schermruimte op aan HUDs/tekstvakken. Maakt natuurlijk wel uit of je een SIM of een FPS speelt
Dan zeg je dat hogere resoluties niet mooier zijn dan de lagere, puur vanwege een lagere FPS?? ..right.. speel gerust door op 1080, ik geniet al enige tijd van m'n 4k scherm, en daar ziet het er zeker mooier uit dan het 2160x1080 scherm wat er naast staat, ongeacht FPS.

Ik wil je verder nergens van overtuigen, maar anderen zeker niet te ontmoedigen een 4k scherm te halen.

[Reactie gewijzigd door millman op 17 december 2018 11:07]

Ik wil je verder nergens van overtuigen, maar anderen zeker niet te ontmoedigen een 4k scherm te halen.
Ik wil dat dus wel want het gaat hier over gaming. Je kunt je veel beter richten op andere aspecten van een monitor dan puur 4K, al is de prijs al mooi aan het dalen de laatste tijd. Maar dan nog. Als je use-case voornamelijk gaming is, is 1440p hoe dan ook de betere keuze. Er is ook nog zoiets als PPI en kijkafstand, en met 4K is die verhouding minder efficient. Verder: zie mijn anandtech linkje hierboven. High refresh panelen gaan als zoete broodjes, en niet zonder reden.

Doet allemaal niets af aan jouw genot met je 4K scherm, overigens. Ieder zijn ding. Maar een verstandige aankoop voor gaming kan ik het niet noemen, zéker niet in de huidige GPU omstandigheden.

[Reactie gewijzigd door Vayra op 17 december 2018 11:12]

High refresh is een keuze, geen must net zoals 4k. Ik wilde gamen op een groot 4k scherm en dat blijkt prima te gaan. Natuurlijk, die cpu upgrade gaat er vast wel komen, maar niet perse nodig voor een leuke 4k ervaring.

Nogmaals, custom resolutie en schaling werkt ook prima mocht de gpu t net niet halen.

Verder zie ik dat je weinig openstaat voor een andere ervaring of mening in deze. Nogmaals, ik ga je nergens van overtuigen, je moet t zelf maar eens ervaren.
Keuzes, precies dat.. dus je kan kiezen voor een hoge resolutie, groot scherm en lagere FPS ervaring en daar keihard van genieten.

Ik speel al jaren op 60-75hz monitoren en heb nergens last van. Als ik netjes uitkom op verversing snelheid loopt het voor mij allemaal soepeltjes. En volgens mij speelt 75% van de gamers gewoon op 60hz.

'je moet high refresh rates hebben voor een toffe game- ervaring' klinkt zo snobistisch. En voor velen niet de waarheid.
Het is een speler die de ervaring maakt, niet de hardware. Die high refresh rate meuk is leuk, maar gaat je echt geen betere speler maken. Ik heb zo'n beetje alles al geprobeerd. Overrated.
Dat hoef je mij dus niet te vertellen, maar mn gesprekspartner ;)
Ja, maar die beredeneert vanuit luxe en eigen ervaring. Ga ik liever niet de discussie mee aan. Ik heb momenteel een G4560 met 2400Mhz DDR4 en een RX 570. De hoeveelheid mensen die "bottleneck" schreeuwen bij het zien van dit systeem snappen er geen drol van. Misschien als je Cities Skyline gaat spelen dat je er wat van merkt en dan kun je nog eventueel Gsync of Freesync gebruiken die dit probleem heel goed maskeren. Sterker nog adaptive sync technologie komt juist heel goed tot zijn recht bij lagere framerates. Het is allemaal jammer wat marketing en onwetendheid los weekt bij mensen. Ik heb het allemaal zelf mogen testen uit eigen zak. Het blijft wel toffe technologie desalniettemin, maar 60Hz is momenteel de standaard voor een reden. De echte fanatiekelingen die een GTX 1080 met een Threadripper of i7 gebruiken hebben daar vaak ook wel een 144Hz monitor bij. Of ze daar meer baat bij hebben gezien hun vaardigheid in games is een tweede. Voor workloads kan de aanschaf wel prettig zijn.

[Reactie gewijzigd door Neallord op 18 december 2018 20:03]

Ik zie een systeem dat redelijk in balans is in ieder geval. 'Bottleneck' is alleen zinvol te roepen als je door die limitatie onder geen beding de 60fps steady zou kunnen halen. Daarnaast lijkt juist op hogere resoluties de GPU veel meer uit te maken dan de CPU.
Hoezo is een 4k paneel per definitie de mindere? Ik heb me kapot gelachen om de lelijke kleuren, contrast en Zwartwaardes van de meeste 144 panelen, die m'n beste maat heeft uitgezocht. Het Asus paneel ging direct terug, de HP is schoorvoetend gebleven.. en dat voor 650 euro.

Voor 144hz alleen al doe je zoveel consessies op contrast en kleur, niet om aan te zien.. tja.. keuzes.. lees de reviews van de 'topschermen' eens hier op tnet. Bleeding, IPS glow, beroerde zwartwaardes zijn scheer en inslag.

[Reactie gewijzigd door millman op 17 december 2018 11:36]

Dat lijkt ook een beetje het euvel met het huidige tijdperk van graphics en de wensen van de veeleisenden, men wil zowel naar hogere frequenties toe, velen zitten al op 144 hertz, en vervolgens ook nog eens naar een 4 keer zo hoge resolutie. op 60 FPS is 4K voor velen al niet mogelijk, laat staan 144 @ 4K. Veel mensen zie ik op 4K weer flink details terugschroeven om het speelbaar te houden. Ik denk dat ik dan liever alles open gooi op 1080P dan maar matig detail op 4K, maar wie ben ik.

Had zelf de test wel interessant gevonden als er nog een i5 2500K of een i7 2600K of iets dergelijks was meegenomen, voor het verschil met dat soort verouderde krachtpatsers.

Daarnaast verschilt het volgens mij ook wel weer enorm per game. Zo is het bij veel Flight Simulators al heel wat als je stabiel 30 haalt met alle CPU-toeters en bellen aan qua berekening. Zo draai ik Battlefield 1 best goed op een i7 2600K en een GTX 970, maar draait ARMA III nog best wel vaak best wel slecht qua FPS.
Ben het grotendeels met je eens, maar ik ga dan toch liever voor de gulden middenweg (1440p), puur omdat ik de PC ook voor browsen gebruik en je met 1080p een scrollvinger oploopt ;)

Zou ik alleen maar gamen, dan zou FHD (met ultra settings) meer dan voldoende voor mij zijn. Heb toch liever 1080p mooi+vloeiend, dan hoge resolutie+micro stutter.
1080p is al een resolutie waar je nauwelijks de pixels kunt onderscheiden, dus kan al zeer realistisch zijn.
Helemaal met je eens.

Zelf speel ik CiV V en straks CiV VI . Dit zijn spellen ben ik achter gekomen waar juist de CPU erg belangrijk is. Heb bij GamersNexus gekeken. Die nemen deze standaard of vaak mee in hun vergelijkingen. En daar zag ik dat juist bij z'n game de cpu veel tijd kan schelen tussen elke turn. Van 20+ seconde voor elke speler tot 11. nog wat voor een i9 9900.
Precies. Daarom haalde ik ook Total War aan. Ook daar is de turn-resolve direct afhankelijk van de CPU, zowel cores als clocks. Speel je TW Warhammer 2 Mortal Empires campaign maar eens met een trage CPU. Je bent rustig twee minuten verder voordat je weer speelt... en dat wordt elke turn erger. In dat geval is je CPU er dus direct verantwoordelijk voor dat je game nagenoeg onspeelbaar is.

Er zijn nog vele andere use cases die ik mis. Zo ook de games die zwaar op single thread leunen (ja, die zijn nog altijd talrijk). Had een ARPG game als Grim Dawn meegenomen, bijvoorbeeld... dan wordt het een heel ander overzicht.

[Reactie gewijzigd door Vayra op 17 december 2018 15:56]

Die hele GPU/CPU bound hype van tegenwoordig in combinatie met de marketing 1080p, 4K termen komen mij iig de neus uit.

Dit is allemaal appels met peren gelijken als je het mij vraagt.

Feit blijft gewoon dat het allemaal te variabel is om conclusies te trekken.

Waar we wèl conclusies kunnen trekken is dat de ene game heavy CPU is en de ander minder. Ook kunnen we concluderen dat GPU's (parallel) kunnen opschalen en CPU performance niet. Single thread bound games kunnen we niet magisch gaan SMT'en, dat is gewoon fixed en heb je geen controle over. Alleen game devs kunnen de code zo veel als mogelijk proberen te multithreaden.

Enige waar we controle over hebben is resolutie en meestal in-game graphics settings die het gros van de tijd meest de GPU usage aantast.

Met de komst van hoge refresh schermen en het feit dat 80% van de tijd alleen de GPU usage significant kan worden gemanipuleerd zal ik als ik een game PC aan iemand aanraadt never nooit op de CPU beknibbelen, dat zijn de feiten.

[Reactie gewijzigd door Marctraider op 17 december 2018 19:47]

Amen. Ik ben van dezelfde school, je hebt eigenlijk bijna nooit teveel CPU power, je hebt 'm alleen op de verkeerde plek (bijvoorbeeld: HEDT CPUs voor een gaming bak met 10+ cores en lage clocks).

Mensen vergeten ook dat er altijd een bottleneck is, en dat vertroebelt de discussie. Persoonlijk pak ik altijd het worst-case scenario en neem dat als maatstaf voor een CPU keuze. Dat heeft tot nu toe steeds heel goed uitgepakt.

Betekent dat dat ik nu een 9900K zou kopen? Zeker niet. Op dit moment is een 6~8 core CPU voldoende en de beste garantie op hoge single thread perf. Ook nu nog voeren de snelste single thread CPUs bijna elk lijstje aan. Het blijft de zwakste schakel hoe goed je engine ook kan threaden.

Resolutie is ook niet zo relevant als mensen denken. Met de tijd wordt een hoge resolutie net zo goed pittiger als een lage. Er bestaan feitelijk geen 'ideale' 1080p, 4K of 1440p GPUs. Er is alleen de factor tijd.

[Reactie gewijzigd door Vayra op 17 december 2018 19:40]

Bij simrace games in VR heb ik juist het grootste verschil gezien toen ik mijn 4400 naar een 8600 upgrade. Hoe meer Ai ik toevoeg des te zwaarder krijgt mijn systeem het. (Asseto Corsa/Raceroom)
Mooi gezegd. Spellen waarbij heel veel fysica of berekeningen bij betrokken is (bijv. Garry's Mod of Minecraft) zou een betere benchmark zijn. Of een spel waarbij heel veel explosies en effecten bij betrokken zijn...
Hardware.info heeft een gelijkaardige test gedaan en ze komen ook tot de conclusie dat je voor 4K galmen beter uw geld in een GPU steekt dan een duurdere CPU omdat de CPU amper effect heeft op uw fps en frame times.

"Dan is er nog de kwestie in hoeverre cores gunstiger zijn voor framerates en frametimes dan threads. Per spel hebben we verschillende uitkomsten gezien. De quad-core met HyperThreading en de hexa-core zonder HT gingen geregeld nek aan nek in de race om de meeste frames en de laagste frametimes. Als we kijken naar de gemiddelde framerates van de 18 geteste games, dan komt de hexa-core nét iets beter naar voren dan de quad-core met HT. In de frametimes is de winst van 6c/6t ten opzichte van de 4c/8t iets duidelijker, maar ook weer niet op elke resolutie. Als we vervolgens kijken naar de hexa-core met én zonder HyperThreading, dan is laatstgenoemde op lagere resoluties in het voordeel, opnieuw valt dit verschil meer op in de frametimes dan in de framerates."

In uw link van Eurogamer zie je ook dat de AMD R7 2700X zowel in Frametimes als in fps soms echt significant minder goed doet dan de intel variant en dat valt ook op in de Tweakers test. Geen idee wat daar misgaat? Mss de Farecry engine die een voorkeur heeft voor Intels snelle cores?

Sowieso is het een moeilijke test met veel randvoorwaarden omdat de resultaten sterk kunnen verschillen afhankelijk van je DX11-12, Game engine, Type geheugen en soms zelfs uw SSD.

Eurogamer: "To cut a long story short: accurate CPU testing in games is challenging - and I'm still not entirely sure we're capable of showing you the full picture."

Volgens de data van hardware.info kan een oudere 4-core met HT echt nog wel mee en moet je geen nieuwe cpu kopen om 4K te speken op 60fps. Zeker als je het gemiddelde scores ziet van alle 18 geteste games, daar zit echt amper verschil op of je nu een hele dure cpu hebt of een midrange.
HWI is net zo onbetrouwbaar als Tweakers als het om testdata en conclusies gaat.
vind het een vreemde uitspraak dat de quadcores van intel direct de vuilbak inkunnen?
de hier geteste cpu's komen op vraag van tweakers,dus moet je eens voorstellen hoeveel er nu nog in een systeem zitten?
men 6700k gaat vandaag nog goed mee tegenover een 8700 of 2700x , welke toch al bijna 2,5 jaar jonger zijn.
over theads gesproken , er is genoeg software welke niet meer dan 1a2 threads aanspreken,
zelfde de zwaar geoptimaliseerde adobe producten hebben op een gegeven moment genoeg van zoveel cores/threads ,op zo een moment heb je meer aan hogere clockrates.
tot dan pers ik liever een paar mhz extra uit ipv een nieuw platform te kopen :)
Jouw 6700K is een 4c.8t CPU en dat is al een heel ander verhaal omdat je minder snel threads tekort komt. Maar met een 4c4t CPU is het in veel recente titels niet heel comfortabel meer. Spreek uit ervaring, mijn 3570k was een jaar terug al verre van ideaal te noemen.

Verder heb je absoluut gelijk, core count overkill heeft geen enkele zin en werkt soms zelfs averechts als het om gaming en sommige andere applicaties gaat. Maar om nu nog te investeren in een quad core CPU, zelfs eentje mét HT, is niet meer zo verstandig.

[Reactie gewijzigd door Vayra op 20 december 2018 10:28]

Kunnen we dit soort tests vanaf nu van jou verwachten? Ben benieuwd!
Ja, wat interessant zou zijn, is om bijvoorbeeld een budget te nemen voor videokaart en CPU. (Bijvoorbeeld €1000,- of €1500 en dan kijken wat het beste resultaat oplevert. Ik denk idd dat je op een i5 met dure videokaart uitkomt. Dit is ook de keus die de meeste mensen moeten maken. Je hebt bij het nieuw bouwen van je game PC, namelijk een budget. Ik snap dat dit niet de opzet was voor dit artikel, maar misschien voor de volgende keer..
Ja en nee; Opzich heb je niet ongelijk maar er zijn wel wat puntjes om rekening mee te houden

- FPS gelimiteerd door de CPU leid tot een stuk schokkerige gameplay
Als de CPU op of bijna op 100% staat de draaien zorgt dit er voor dat je FPS een stuk minder consistent is; je kunt gemiddeld dan misschien wel 60fps hebben maar als je steeds stutters en (korte) drops hebt geeft dit geen prettige spelervaring. Wanneer je GPU op 100% staat te draaien en je CPU nog wat overhead heeft is dit veel minder het geval. Het is jammer dat Tweakers alleen gemiddelde waardes heeft gemeten waardoor dit effect op basis van deze review niet te zien is.

- Je hebt zelden alleen een game open staan
Anno 2018 heeft zowat iedereen wel andere programma's open staan tijdens het gamen; browser, discord, video op een tweede scherm etc. Alhoewel dit niet veel CPU tijd kost op een moderne proccesor is het wel een extra factor die in reviews niet word meegenomen waar alleen de game+benchmark software draait,

- Een GPU upgrade je sneller, goedkoper en makkelijker
GPU's ontwikkelen zich historisch gezien sneller dan CPU's. Een factor 2 na 3jaar is niet uitzonderlijk; waar dit met CPU een stuk trager gaat (recent wel weer wat sneller met Ryzen maar nog steeds niet zo snel als GPU's). De mogelijkheid om naar een jaar of 3 de videokaart te vervangen is de beste manier om nog een paar jaar op behoorlijke settings en FPS door te kunnen gamen. Naast dat een CPU upgrade minder oplevert is dit ook vaak duurder gezien je (100% zeker bij Intel; AMD is afwachten) dan meestal ook het moederbord moet vervangen. Ook kan een videokaart door iedereen geinstalleerd worden waar een CPU+moederbord wat meer werk is. Genoeg mensen die hun PC geassembleerd bestellen en zelf prima een videokaart, geheugen of SSD kunnen bijprikken maar het moederbord, CPU en koeler liever niet doen. Nu wat meer investeren in CPU kracht en je kunt die nieuwe videokaart nog prima aansturen; denk aan een I7-4770k + GTX1070; met een I5 of AMD FX word dat al een stuk lastiger.


Kortom genoeg redenen wat meer uit te geven aan de CPU dan nu op het eerste oog noodzakelijk lijkt :)

[Reactie gewijzigd door !mark op 17 december 2018 09:24]

@!mark Ben het voor het grootste deel met je eens. Gemiddelde waardes is interessant, maar zegt niet alles. Als ik game op 60FPS en elke minuut dropt hij voor 5 seconden naar 10 FPS zit je nog steeds op gemiddeld 55,17 FPS, maar na 3 minuten ben ik er helemaal klaar mee. Dan heb ik liever een steady 50 of 40 FPS.

Natuurlijk draaien er procceses op de achtergrond, maar niet iedereen heeft een tweede scherm met moeilijke zaken ernaast draaien. Ik denk dat we die CPU belasting kunnen verwaarlozen.


We gaat de investering in een goede CPU langer mee dan een GPU. Mijn HTPC draait idd op een i5 low voltage. Ik merkte dat ik problemen kreeg met 4K content. CPU vervangen kan niet meer omdat het een 1150 socket is, maar ff een Nieuwe videokaart met Nvidea GT1030 passive cooling er in en alle video's draaien weer als een zonnetje. Samenvatting: omdat die videokaarten nog steeds allenmaal in dezelfde PCI sloten gaan zijn die veel makkelijker te upgraden.

Ik had het me nooit zo beseft, maar we moeten heel blij zijn met die PCI sloten en dat daar niet veel verschillende soorten van zijn die niet compatible zijn. Hierdoor kunnen we na 6 jaar nog een PC voorzien van een nieuwe videokaart. Dat gaat je met een CPU niet lukken en het maakt niet uit wat voor PC je hebt, de videokaart past er altijd in. (compleet offtopic dit, maar ik had even een geluksmomentje toen ik dit besefte)

[Reactie gewijzigd door jobvr op 17 december 2018 11:05]

"Natuurlijk draaien er procceses op de achtergrond, maar niet iedereen heeft een tweede scherm met moeilijke zaken ernaast draaien. Ik denk dat we die CPU belasting kunnen verwaarlozen."

Virusscanner, mail die om de x tijd wordt binnen gehaald, Steam, update-processen, tooltje hier, tooltje daar...
Een mens zou ervan versteld staan hoeveel processen er in de achtergrond lopen op een doorsnee PC en van tijd tot tijd actief worden. Afzondelijk hebben ze niet zoveel resources nodig. Het komt er wel bij. Soms overlappen ze dan nog eens.
Die tijd is over hoor, tegenwoordig is de nieuwe generatie GPU's van nVidia zo'n 30% sneller als de vorige. daar zit zo'n 2 jaar tussen.
In 2012 gekozen voor een flinke CPU met het oog om de GPU op termijn te upgraden. Van een i7-4770K met een 770 GTX -> 1070 GTX -> 2080 Ti RTX. De CPU trekt het nog steeds. Had ik echter gekozen voor een budget i5 met 780 of beter, dan had ik ondertussen ook 3x een deel van mijn hele CPU/Mobo/Geheugen combinatie mogen upgraden. Dus ik ben voorstander van investeren in een CPU voor een langertermijn met upgrades van de GPU over de tijd heen. Dat geeft denk ik de beste prijs/performance over meerdere jaren.
Dit is wel voor 4k@60 voor visual games (Witcher 3). Voor competitive speel ik op 1440p 144hz, maar dan gaan uiteraard altijd de visuals naar low vanwege de meestal competitative edge dat het geeft.

[Reactie gewijzigd door Julianvvz op 17 december 2018 10:52]

Klopt dit doe ik vaak ook, zij het wel tweedehands. Veel mensen willen in 1 keer klaar zijn en kopen in de begindagen een veel te dure kaart, die ze dan net even te lang laten zitten, waardoor zo'n dure investering na de helft van de jaren al netto een stuk belabberder speelt dan wanneer je zoals ik doe, er wat frequenter geld tegen aan gooit, maar met een minder hoog bedrag. Als je het tweedehands maakt, en je eigen te vervangen product ook weer verkoopt is het soms echt tientjes werkt, helemaal als je dan nog op goede momenten inkoopt, bijvoorbeeld wanneer GPU mining net keldert qua rendement.
Ik heb ook wel eens een tweedehands kaart gekocht en dat kan prima gaan en is goedkoper, maar als die kapot gaat, heb je ook geen garantie meer. Tenzij je een heel jonge tweedehands hebt gekocht maar dan is het prijsvoordeel ook minimaal, zeker het afgelopen jaar waarin kaarten vaak alleen maar duurder werden. De vraag is ook of het prijsverschil bij een ex-mining kaart het risico waard is.

@Julianvvz Een minder dure kaart kopen, maar die vaker verversen voor de nieuwste techniek is, binnen een bepaalde bandbreedte inderdaad effectiever dan één keer in dure kaart kopen en dan bijvoorbeeld 8 jaar zo laten (als hij het zolang volhoud), maar anderzijds heb je dan ook altijd een kaart die een tandje minder snel is.

Je eigen kaart weer verkopen lukt ook niet altijd even goed, waarschijnlijk om dezelfde redenen.

Ik ben benieuwd hoe vaak jullie je kaart vervangen en welke prijs en kaart het dan ongeveer is?

Zelf heb ik ooit een NVIDIA GeForce 8800 GT vervangen door een tweedehands GTX 660 (van € 75) zodat ik een 4K scherm kon aansturen. Toen die kapot ging door een nieuwe GT730 (± € 58). Hoewel de GT730 waarschijnlijk niet in alle opzichten een vooruitgang was, vind ik het een groot voordeel dat die compleet geruisloos is dankzij de passieve koeling.
Ik heb dus nog nooit een kapotte videokaart gehad, en heb de meerwaarde van eerstehands producten zelden mogen ervaren. Zeker hardware als videokaarten gaat vaak eerder stuk nadat het een jaar ongebruikt in de kast ligt dan wanneer het intensief gebruikt wordt (uiteraard wel met redelijke temperaturen), wat dat betreft heb ik dan liever een ingetraind model (ex mining kaart bijvoorbeeld) dan eentje die iemand bijvoorbeeld pas na een jaar uit gebruik te zijn geweest, verkoopt.

Ik vervang hem ook een beetje op basis van de fluctuatie met de prijzen. Zo had ik 3 of 4 jaar terug een R9 290 voor 150, dat was toen echt goedkoop. Wel reference koeler, dus stofzuigergeluid qua volume, dus niet lang meer gehad. Nu al 2 jaar op een GTX 970, helaas is die net een poosje gekelderd, maar die kon ik heel lang nog break even verkopen. Voor nu is de rest van m'n systeem (i7 2600K) wat meer een potentiële bottleneck bij nieuwere games, dus ben er momenteel even niet actief mee.
Dat laatste punt is inderdaad belangrijk bij het overwegen van een nieuw systeem. En ik het eens met wat je zegt. Ik denk echter wel dat er meer factoren zijn dan pure performance. Denk bijvoorbeeld aan DDR4 RAM en de M.2 form factor SSD's die de afgelopen jaren toegevoegd zijn. Ik heb een i5 4690K. Er was toen net geen DDR4 en er waren net geen M.2 sloten. Geen ramp, maar stel dat je een 4th gen i7 had gekozen ipv een i5. Dan knaagt het net een jaartje langer dat deze zaken ontbreken. Misschien zelf zo erg dat je toch maar eerder upgrade.
Je weet het nooit van tevoren.
Meer geld of performance betekend dus niet altijd langer gebruik.

[Reactie gewijzigd door Melchior du Pau op 17 december 2018 13:33]

Ik heb gewoon m.2 op mijn Z97 mobo met I7 4790k anders. Overigens is het verschil van DDR3 naar DDR4 niet echt iets om over naar huis te schrijven.
@Melchior du Pau Same here. De "grote" merken hadden het misschien nog niet op hun bordjes, maar de Asrock z97 extreme, pro en fatality bordjes hadden toen een m2-slot.

[Reactie gewijzigd door Arator op 17 december 2018 17:33]

toen de i5 4690K uitkwam bestond de z97 nog niet, toen moest je het doen met de z87, die geen volledige ondersteuning heeft voor m.2
Ik kan dit beamen. Mijn 1080 Ti is gepaired met een oude 2600k en wat jij stelt over stutters maak ik dus ook mee, ook al heb ik een G-sync monitor (1440p). Ik wacht nog even de volgende zet van AMD af, maar het is duidelijk dat ik wel een snellere CPU en alles eromheen kan gebruiken.
Ik gebruik een i5 8400 in combinatie met een 2080ti op 4k en ik zie geen reden waarom ik een i7 nodig heb. Ik haal alle targets, ben wel benieuwd hoeveel fps verschil het geeft maar ik haal al veel hogere framerates dan het aantal hertz van mijn scherm. Zou het ook zeer interessant vinden als dit de volgende keer meegenomen wordt.
Precies dit.

En "Dat betekent enerzijds dat onze keus om de gameprestaties van processors alleen op 1080p te testen de juiste is. Een vaakgehoorde klacht onder reviews van processors is dat niemand toch met die hardware op full hd gaat zitten gamen. Deze test laat zien dat we weinig verschillen zouden zien als we op 1440p of 4k zouden testen, terwijl we toch echt de onderlinge verschillen van de processors willen laten zien."

Dan snap je het in mijn ogen echt niet. De lezer wil beiden zien. Uitgaan van de usercase is minstens net zo belangrijk. Wat anderen al duidelijk aangeven, wij willen weten of en hoeveel men op 1440p kan besparen op de processor icm een betere videokaart. Het is duidelijk een vaak gehoorde 'klacht', doe er dan ook wat mee. Test beiden.
Ik ben het met je eens. Hele leuke test. Het had alleen nog leuker geweest als er ook een aantal mindere processoren hadden mee gedaan van de laatste generatie. De reden hiervoor is de core gekte. Een i3 is al een volledige quad core. Ik ben benieuwd of je tegenwoordig al niet uitstekend kan gamen met een snelle I3 of zelfs Ryzen 3.
Ik zou nog wel een stapje verder willen gaan: neem ook wat processors mee van enkele generaties geleden. Ik heb zelf een i5 4670K en ik heb zo'n donkerbruin vermoeden dat die nog wel even mee kan qua games.
Bij de buren hebben ze een tijd geleden een serie gemaakt over het upgraden van de processors:
Intel Haswell (Core i5 4670K & i7 4790K) versus Ryzen & Coffee Lake: de upgrade waard?

Niet helemaal actueel meer natuurlijk, maar het geeft wel een goed beeld.

[Reactie gewijzigd door Luuk1983 op 17 december 2018 08:26]

Deze vind ik ook wel interessant, voor de club mensen die nog een i5 2500 en consorten heeft. Vergelijkt deze oudere systemen met nieuwere processors. Helaas nemen ze de overclock niet mee: https://nl.hardware.info/...rade-waard-stroomverbruik
Ik heb dezelfde CPU, en ik merk echt dat die de bottleneck is bij sommige games. Ik draai hem op 4.4GHz i.c.m. 16GB 1600MHz, en een GTX 1070 op 1440p resolutie.

Zelfs bij een game als Borderlands 2 uit 2012 zit ik op 80-85% CPU usage. Battlefield 4 hetzelfde.
Ik vermoed dat de bottleneck in je geheugen zit, 1600MHz is echt een hele lage snelheid, zeker tegenwoordig. Heb je al geprobeerd deze te verhogen richting de 2GHz? Ook als dit ten koste gaan van lage latencies verwacht ik alsnog wel een overall winst. Heb zelf bij een vorig systeem een enorme boost gemerkt door van 1600MHz naar 2133MHz te gaan (i.c.m. met i7 2600K).
Ook @Vayra Ik ga vanavond of morgen wel even spelen met de kloksnelheid van het geheugen, zal proberen hier terugkoppeling op te geven als ik het niet vergeet :P

Mijn geheugen, of mijn mobo, is wel een beetje vreemd, het is 1600Mhz geheugen uit de fabiek, maar als een BIOS reset doe, zegt m'n BIOS dat het 1333Mhz is (o.i.d.)....?? Dus als ik hem dan naar 1600Mhz zet ziet tie dat al als overclock volgens mij.
Dat is XMP en voor DDR3 op een redelijk systeem zo'n beetje de norm. De latjes lopen standaard op 1333mhz, maar zet je XMP aan, dan lopen ze op 1600mhz.
@Fucitol @Vayra

Blijkbaar had ik XMP niet eens goed ingesteld, het geheugen draaide op 1333Mhz! FML....

Ik dacht: fuck it. Heb het direct naar 2000Mhz gezet en opnieuw naar de BIOS gegaan, power on self test (POST) ging prima.
De timings waren van 10-10-10-27 naar 11-11-11-34 gegaan. Ik heb het heel brutaal met de hand teruggezet naar 10-10-10-27. Verrassing, dat pikte de reepjes niet en ik kreeg een leuke BSOD voorgeschoteld :+

11-11-11-28 geprobeerd, en tot nu toe gaat dit hardstikke goed, heb nu dus met deze timings 2000MHz. Had direct Borderlands 2 gestart en zag het CPU gebruik ongeveer 10-20% was gedaald was en ik een paar FPS meer heb.... WAT?! Al die jaren heb ik m'n PC dus gigantisch dom m'n zitten te gebruiken....

Thanks voor de tip guys!
Je kan kijken of je niet direct nog een stap hoger kan gaan. Zelf mijn value RAM latjes werken perfect op 2133Mhz (ook 11-11-11). Hoger gaf wel problemen maar wat wil je als je de goedkoopste ram koopt (met goede reviews).
Zoals je zelf kon ervaren is het geheugen enorm doorslaggevend en een easy win op dit "oude" platform. Combineer dit met een mooie OC op je CPU en het verschil met hedendaagse CPU's is echt niet zo enorm als je zou kunnen afleiden uit veel "stock" reviews. Elke stap "omhoog" betreffende je geheugen voel je echter wel direct. Zelf meer dan een paar 100Mhz extra op je CPU.
Ik zal eens gaan spelen met XMP, thanks voor de info!
Nope, hij hikt tegen de 4C/4T aan van deze CPU. Quad cores zonder HT worden in rap tempo te karig. En voor gaming is juist lage latency van belang, indien mogelijk met leuke snelheden - mits je geen CPU bottleneck hebt.

[Reactie gewijzigd door Vayra op 17 december 2018 10:32]

ik gebruik wel eens https://thebottlenecker.com/calculator
Deze houd geen rekening met resolutie, maar geeft wel een aardige indicatie.
als ik kijk naar de 4670K + GTX1070 is de CPU een 21% bottleneck
met de CPU 15% overclock (4,37 ipv 3,8GHZ) geeft die nog steeds 13% bottleneck aan van de CPU
Hoe met ik die percentages zien dan? 13% van wat? Als in, met een betere CPU heb ik 13% meer performance?
Staat er helaas niet bij.
Maar ik vermoed inderdaad dat de GPU in theorie 13% beter kan presteren bij een betere CPU.

Persentages vind ik niet zo belangrijk, maar het geeft mij een idee wat zinnig is als ik iets wil updaten
Heb hier een core i7-860 op 3.8ghz en daar is nog veel meer 33n mogelijke bottleneck , maar hij draait nog erg lekker met een GTX 1060.

Aangezien het upgraden van de cpu ook gelijk een nieuw mainboard en ram betekent is het elke keer weer kijken of een nieuwe videokaart kan of dat het echt tijd wordt voor de cpu... En tot nu toe gaat ie nog gewoon lekker.

Geen usb-3, geen sata2 en misschien zelfs verouderde pci-express mis ik meer :).

Maar dan speel ik ook op 1080p en ga voor 60hz, en ik vind het best op om op wat minder detail dan ultra te gamen.
Op 1080p is het ook een stukje makkelijker denk ik, helemaal als je zelf ook niet zo veeleisend bent. Ik heb 2 jaar geleden inmiddels een 1440p monitor gekocht en vind graphics in een game zeker een bepalende factor bij aanschaf.

Zelf ik heb ook een i7 950 of 960 (volgens mij) gehad, was er toen heel blij mee maar ik zou daar nu echt niet meer mee kunnen werken.
Hmm, ik vind het wel heel knap dat je 4670k nog mee gaat. Ik moest de mijne toch echt upgraden met bf1, gezien ik tegen een bottleneck aan liep.(100% cpu gebruik)


Nu met Battlefield v, ac origins en ac odyssey is het gedaan met de 4670k.

[Reactie gewijzigd door Jeroentjeeuh op 17 december 2018 10:12]

Als het doel 4k60 is kan je blijkbaar prima vooruit op een overclocked 4690k @4600mhz. Heb sinds 2 maandjes een 4k resolutie, en de load op de cpu is doorgaans nog maar 70% in bf1, zelfs 65% in BF5 en ook Tomb Raider, ArmA 3 , fallout, e.v.a. draaien met lagere cpu load. Dit is uiteraard omdat de framerates met 'rond de 60' een stuk lager zijn.

Zoals bekend (?) helpt het enorm bij BF 1 om je framerates te cappen op 60, zodat je cpu nog ruimte heeft. Natuurlijk kan je met een Intel quad core niet verwachten 1080p 144hz te draaien, maar voor velen onder ons maakt dat niet uit. Juist voor 4k lijkt het allemaal niet uit te maken.

Zodra ik tijd heb komt er eindelijk weer eens een langverwachte (?) Review van een RTX2070 uit (en/of RX3080 als die snel komt), gecombineerd met m'n 4690k en een 4k scherm. Stay tuned in t nieuwe jaar ;)
Ik heb het wel over de multiplayer en die is toch behoorlijk zwaarder. Singleplayer dat kon mijn 4670k ook nog wel aan.

Dusja, laat volgend jaar de multiplayer benchmarks maar eens zien dan.
Toegegeven, wat BF V kan ik op dit moment alleen de single player testen ;) Heb de closed alfa en beta gespeeld maar op een 2160x1080 reso, Uiteraard 90-100% load. BF1 @ 4k gaat prima. Kortom, hoop testwerk voor de boeg, maar zal een uitgebreid topic maken over 'low budget 4k gaming' met uitleg over cusom reso's, instellingen voor 4k60fps, cpu load scaling en overclock results. Maargoed, ik doe doorgaans een maand over het schrijven van een review, en het testen is nog niet eens begonnen..

Ik hoop de 3080 ook mee te kunnen nemen tzt.. maar dat zal wel review 2 worden.

[Reactie gewijzigd door millman op 17 december 2018 14:48]

Ja eens! Zelf draait er bij mij nog een i5-3570k (4,2Ghz) icm GTX970 en ben aan het twijfelen of m'n volgende upgrade in 2019. Ben eigenlijk wel benieuwd in hoeverre m'n 3de generatie oc'd processor het zou doen icm 2070/2080 tegenover een 7/8/9de generatie.

Zal de processor dan een aanzienlijke bottleneck zijn of gaat dat niet uitmaken op 4K?
Heb de dezelfde CPU op 4.2 ghz. Nu al z'n 6 jaar top aankoop dus.
Heb m'n Radeon 7870 een keer vervangen voor een RX 470.
Die is net een maatje groter als de GTX 970 dacht ik.

Ik zou niet verder gaan dan een 2de hands GTX 1070 eerlijk gezegd op ons platform. (of een RX570-590)
Processor is over geklokt nog best leuk maar we hebben beide een bottleneck op geheugen snelheid.

De nieuwere processoren hebben nou eenmaal DDR4 op praktisch dubbel de frequentie.
Een quad core zonder HT/SMT is niet meer voldoende en verliest gigantisch veel performance en consistentie.
Voor wat niet voldoende? Ik game nog steeds op een quadcore zonder HT uit de Haswell generatie en voor de games die ik speel gaat dat prima. De nieuwste Battlefield kan ik mogelijk niet voluit spelen, maar dat vind ik prima, ben ik namelijk ook totaal niet geïnteresseerd in.
Voor recente games, nieuwe releases. Ik snap ook dat je oude meuk prima kan spelen op een quadcore ja...
Ik heb het dan ook niet direct enkel over "oude meuk", Ik speel inderdaad regelmatig "oudere" games (Denk aan een Diablo 3 of SC2 (laatste release 3 jaar geleden), maar ook regelmatig gewoon games die redelijk recent zijn uitgekomen, denk aan spellen in de Total War reeks, bijv. een Warhammer 2 of een Britania of bijvoorbeeld de laatste WoW uitbreiding. En nu speel ik het zelf niet echt maar bijv. het zeer populaire fortnite draait er ook perfect op.

Ik denk dat het veel te scherp is te stellen dat Quadcores per definitie niet meer voldoen, voor een deel van de spellen zal het zeker zo zijn (mogelijk vooral brakke console ports?, ik speel weinig AAA tenzij het Blizzard is) terwijl andere speller er prima op draaien en je dus nog best je geld op zat kan houden voor een nog mooiere upgrade in de toekomst.

[Reactie gewijzigd door Dennism op 17 december 2018 16:02]

Warhammer 2 is nou bij uitstek zo'n game die op een quadcore bizar veel prestatieverlies lijdt. Ik heb zelf gebenched voor en na mijn upgrade van een 3570K @ 4.4 Ghz > 8700K @ 4.8 Ghz, op een GTX 1080. Dat leverde schokkende verschillen op. En ik merk het ook ingame.

Van 74.5 avg FPS (met stutters en dips naar 12 / 30 FPS) op de 3570K
naar 96.3 avg FPS (met min. FPS van 76 (!)) op de 8700K.

Kan het nog even door? Tuurlijk. Moet je nu een quadcore kopen? Nope.

Tja, en WoW en Fortnite draaien al op een broodrooster...

[Reactie gewijzigd door Vayra op 17 december 2018 16:13]

Eerlijk gezegd zorgt de denigrerende ondertoon in je comments dat je wat lastig serieus te nemen bent. Het feit dat ze vaak onjuist zijn helpt daar ook niet echt bij.

WoW draait al op een broodrooster? Dat is juist een game die veel van de CPU vraagt, simpelweg omdat het een MMO is. Zeker met View Distance op max.
En eerder: met een Haswell kan je alleen oude meuk spelen? Net op dit apparaat (i5 4670K en RX480) nog een potje BFV kunnen doen. 1080p en ultra, geen probleem, draait soepel.

Enige waar je tot nu toe gelijk hebt, is dat de laadtijden met een oude processor toch wel flink tegen vallen. Zeker bij games als Rome2.
Begrijp je dat jou wenselijke ervaring niet perse strookt met andere ervaringen en eisen?
Ik vraag je dus om wat meer open te staan voor andere ervaringen en wensen van anderen, dan wordt het niet zo'n botte discussie ;)

Ik zeg bij deze dat een quadcore wel voldoende is voor een redelijke game-ervaring, al moet je uiteraard concessies doen. Veel hebben daar geen probleem mee lees ik. Toegegeven, ik zou nu ook een 6-core halen, of een 8-core als AMD met ZEN 2 zn beloofde werk doet, maar een quadcore direct afschrijven is niet nodig.

[Reactie gewijzigd door millman op 17 december 2018 14:54]

Goed, ik zal het wat uitgebreider formuleren want aan een half woord heb jij duidelijk niet voldoende. En ondanks het feit dat je in hetzelfde comment waar je het ontkent, meteen toegeeft dat een quadcore anno 2018 geen ideale aankoop meer is... (want daar reageerde ik op, @Hukkel80 was benieuwd of hij 'uitstekend' kon gamen op een i3 of R3...)

Mijn reactie over deze CPUs is er eentje op basis van de eisen die je van een goede game PC mag verwachten. Een quad core kan dan niet meer mee. Zoals ook door anderen aangegeven en door jouzelf: je moet concessies doen. De belangrijkste concessie is dat je nieuwe GPU zich niet meer lekker gaat uitbetalen in prestaties. En dat speelt op de meeste quadcores, ook de snellere, al vanaf een GTX 1070. Een andere concessie is dat de consistentie het raam uit gaat. Frame drops, stutter, het komt allemaal in beeld met een trage CPU. En dat is hinderlijk, ook als je eisen niet zo hoog liggen.

Dus nee, je hoeft een bestaand quadcore systeem niet af te schrijven, maar verder upgraden is ook zinloos en nu een nieuwe 4c/4t bakje in elkaar zetten voor gaming is zeer onverstandig. Ook als je eisen wat minder hoog liggen, overigens.

Ik zal 'm nog maar eens linken; zoek voor de grap de quadcores zonder HT/SMT eens terug in deze bench en je ziet wat ik bedoel. Dat is een teken aan de wand voor de nabije toekomst voor andere, minder CPU intensieve games.

https://www.purepc.pl/pro...era_coffee_lake?page=0,18

Als het om CPUs gaat, is goedkoop vaak duurkoop. Een stevige CPU betaalt zich terug door véél langer mee te gaan, en een platform upgrade is vrij prijzig, want bord+CPU en met een beetje pech ook nog RAM latjes - zie alle mensen die nu op DDR3 zitten en waar het begint te kriebelen. De drempel is daar hoog.

Vijf-zes jaar terug sprongen we allemaal op 3570Ks en 3770Ks, die tijd is nu wel voorbij, maar geeft ook meteen aan hoe lang een degelijke CPU mee kan. En dit waren wel high end CPUs voor MSDT toendertijd.

[Reactie gewijzigd door Vayra op 17 december 2018 15:58]

Zelf een 3770 icm een Vega 56 en 144hz freesync monitor. In bfV heb ik in dx12 gemiddeld 80fps (high) en in dx11 gemiddeld 60fps (high), terwijl de laats genoemde soepeler loopt dan in dx12 met hogere fps. In dx12 lijkt wel if het heel kort stilstaat, dat de processor het ff niet bijhoudt. Maar mijn 3770 zal wel de bottleneck zijn!
Microstutter in BF5 op Vega in DX12 is een veel voorkomend probleem in Windows 10 versie 1803. Heb je de oct.update al binnen?
Ik heb ongeveer het zelfde. Mijn 3570K is nu een bottleneck geworden sinds ik een 1080 Ti heb gekocht. Hiervoor had ik een 1060 en toen mertke ik niks maar nu zit mijn CPU vaak continu op 100% in games en dat veroorzaakt stutters in games die zeer irritant zijn. Ik wou wachten op een Ryzen 3850 maar ik weet niet if ik nog ~6 maanden kan wachten...
Helemaal mee eens, in de (sub) 1000 euro builds zie je vaak een i5 8400 of een Ryzen 2600(X) terugkomen. Nog verder naar beneden bijvoorbeeld een Ryzen 2400 of een i3 8100.

Verder vraag ik me af waarom Intel in games nog steeds een voorsprong heeft, is dit puur de kloksnelheid? Ryzen 2600 gaat richting de 4ghz terwijl veel Intels daar ruim boven gaan. Volgens mij zit het op het vlak van IPC weinig tussen.
Waarschijnlijk speelt ook een grote rol dat het gros van de spellen voor intel geoptimaliseerd is, vanwege de dominantie die ze op de markt hadden.
Je bedoelt al die console ports die de PS4 en X1 ons bieden? Op AMD hardware? ;)

Intel wint gewoon vanwege clocks en marginale IPC winst. In een select aantal gevallen is een gelijk geklokte Ryzen zelfs sneller... Zie BF1.

[Reactie gewijzigd door Vayra op 17 december 2018 10:37]

Multi threaded heeft AMD het gat gedicht, maar single threaded is intel nog steeds king (met een vrij ruime marge zelf).
Clock voor clock in niet-gaming toepassingen zit er echt heel weinig tussen de Zen+ en Coffee lake chips:
https://www.techspot.com/...-2nd-gen-vs-core-8th-gen/

Waarschijnlijk doet Intel het vooral beter door de hogere clocks en ik had iets voorbij zien komen over de ring bus die beter presteert in games.
Testen met i5's lijkt mij ook wel eens fijn, niet iedereen gamed met een i7 :)
En je hebt ook goedkopere i7 uit oudere generaties. Je hoeft niet per sé de nieuwste i7 kopen (want daar heb je deels gelijk in) een nieuwste i5 doet ook prima.

Alleen in oudere generaties is het niet zo duur meer om voor i7 te gaan. Daar is i5 wat langzamer dan i7. Bijvoorbeeld i5-2500 naar i7-3770K is al een leuke upgrade en win je ongeveer 30% mee, en je kan ook nog verder overklokken naar 4,5 GHz voor weinig geld. (wel eerst delidden en nieuwe pasta erop, want dat zorgt voor temperatuur verschil van minstens 20 graden!)
Ik heb een 3570k op 4,2 Ghz.
4,5 Ghz is echt geen garantie op Ivy hoor.
Vanaf 4.2-4.3 moet je er echt steeds meer volts doorheen jassen om het stabiel te krijgen. Efficientie gaat dan echt het raam uit voor die laatste paar 100 hz.

Ja je kan het koel houden op lucht met goede pasta en een grote koeler. Hier komt die amper boven de 60 graden uit de afgelopen 6 jaar op 4.2. Ook als het 28 graden is binnen.

Maar als ik hem hoger wilde krijgen werd die vervelend. Of veel meer stroom en warmte of lastig stabiel.
Het klopt allemaal net zoals je zecht de verschillen in de hogere resoluties, met name ook in de 4k resoluties en ultra setting zijn de verschillen bijna te verwaarlozen.
Wat veel pieken en dieptepunten geeft is met name de 1080 p resolutie waar sommige grafische kaarten in combinatie met een 6,7,8,9 serie processor van intel wel grotere verschillen te zien zijn.
En die zwaardere processors zijn die echt zo goed kan dat spel zoveel kernen aan?Ik zie bijna geen verschil in al die grafieken.Hedt platforn zijn die echt sneller?Ik denk het niet voor zo weinig prestatie verschil zal ik geen hedt platvorm processor en moederbord kopen.Veel te duur daarvoor althans als je er mee gaat gamen.

[Reactie gewijzigd door rjmno1 op 17 december 2018 11:01]

Je bedoelt dat dual cores met en zonder hyperthreading ook ontbreken. En dan is het nog de vraag welke instellingen je gaat gebruiken en of je een CPU bound game te pakken hebt. Deze testmethode laat slechts deels de AMD Ryzen vs Intel performance zien. Grote flater. Helaas...
Toffe test, alleen jammer dat enkel de gemiddelde frame-rate is gemeten en niet de 1 en 0.1 percentielen. Review van de buren doet dat een stuk beter: Hoeveel CPU-cores heb je nodig voor games?
Nee die is niet beter, ook die is gewoon slecht. Je kunt hooguit zeggen, die is minder slecht, maar beide zetten de lezers op het verkeerde been, dus beide kun je beter niet lezen. HWI en Tweakers maken namelijk gebruik van precies dezelfde meetgegevens, waarbij het al heel wat jaar bekend is dat die niet deugd.

Grootste probleem in hun testmethode is dat ze de games niet testen op een zwaar moment in de game maar gewoon op een simpel moment waar weinig gebeurt. Daarnaast wordt de test ook nog gewoon heel kort gedraaid, hierdoor krijg je nooit een beeld dat overeen zal komen met de praktijk. In de praktijk merk je een CPU bottleneck namelijk juist op de zware momenten in een game, pas dan zakt de framerate in dat je er iets van gaat merken. Op die momenten moet je gaan meten, want daar kan de CPU het verschil maken en daar wordt bepaald welke CPU het soepelst zal voelen met een game.

Als je ook kijkt in de test van HWI zie je dat duidelijk, omdat daar ook langzamere CPU's worden meegenomen. Voor veel moderne games wil een dualcore met of zonder SMT/HT of quadcore zonder SMT/HT wel vaak genoeg een bottleneck vormen. Men klaagt er dan over dat de games op sommige momenten totaal niet meer soepel loopt. Denk dan hierbij aan CPU's tot bijvoorbeeld een i5 6600 of i3 8100. Kijk je dan echter naar de test op HWI en dan zie je dat juist 2c4t en 4c4t CPU's het uitstekend doen. Dit komt zoals gezegd dus omdat ze de games niet op een zwaar moment benchmarken maar juist op een licht moment.

Maar inderdaad door het ontbreken van frametime data is deze test nog nuttelozer. Maar omdat het toch allemaal snelle game CPU's zijn kun je de conclusie sowieso ook wel van te voren klaar hebben. Als er nu wat minder snelle CPU's in zaten zag je ook duidelijk hoe slecht de testmethode eigenlijk is.

Overigens vallen de meetfouten in deze test ook erg op...
Framedata is niet de data die je wil hebben voor een game, dat toont meer aan hoe sterk een GPU is. Je zou dit eigenlijk door een profiler moeten trekken en kijken waar per frame tijd wordt gespendeert. Een CPU kan namelijk aan het wachten zijn op een GPU flip voordat er aan de volgende frame wordt gerekent.
Het kan nog veel beter door ook echt het platform te veranderen (geheugen & CPU cache heeft ook invloed) en de frametimes te plotten i.p.v. alleen gemiddelden te geven. Stotteringen zijn tenslotte het ergste wat je kan hebben in games!

Wat Tweakers hier doet is tekenend voor de recente tests: leuk om te lezen, maar weinig inzichtelijk.

[Reactie gewijzigd door Cio op 17 december 2018 12:33]

Is dat niet wat Tweakers altijd doet?
Op 1080p is de CPU belangrijk, als je op 144Hz of hoger Hz monitor speel.

Vanaf 1440p begint de CPU niet meer zo belangrijk te zijn, behalve als je een CPU heb van 8 jaar terug.

[Reactie gewijzigd door AmigaWolf op 17 december 2018 20:10]

Alleen is de vernieuwingsfrequentie van de monitor minder belangrijk als de pixels in het paneel niet snel genoeg op die data kunnen reageren.

Ik bedoel, persoonlijk heb ik liever 4K OLED (LG OLED55B8PLA) met een bijna directe reactietijd en 21ms input latency dan een 1440p TN-paneel (Asus ROG Swift PG27VQ) van 144Hz met een reactietijd van 10ms en nog eens 15ms aan input latency. Waarvan de laatste de gemeten gemiddelde waarden zijn die ik in de HWI review las.

Dus tjah, des te langer het duurt voordat pixels van staat veranderd zijn, des te waziger blijft het beeld gedurende bewegingen. Tenzij je dus mijnenveger aan het spelen bent... bij de meeste games is er in elk geval genoeg actie. Het baat dan ook om een snel paneel te hebben wat reactie tijd betreft in tegenstelling tot vernieuwingsfrequentie. ;)

Even ter illustratie... 1 seconde / 144 hertz * 1000 = 6.94444444444 milliseconden, of de Acer Predator 240 hertz monitor... 1 / 240 * 1000 = 4.16666666667 milliseconden.
Ook al heb je dus een 240 hertz paneel dan kost het nog meer dan 4 milliseconden voor er nieuwe data word ingeladen naar het scherm, even input latency buiten beschouwing gelaten.
Dus met elk paneel vandaag de dag zit de waas van het bewegen vooral in de reactietijd van de pixels en niet zozeer in de vernieuwingsfrequentie, immers zit de pixel langer te wachten met het snelste paneel dan dat hij weer van staat moet veranderen. Dus als het wazig is dan betekent het dus dat de pixel er te lang over doet om te reageren.
Echter als het beeld gewoon scherp is dan kan je als mens/gamer sneller je focussen op dingen in het speelveld. Het hoofd van een tegenstander in een shooter, de apex op het circuit in een race game... enzovoorts.

Dus ik weet wel wat ik ga doen nu ik een 4k OLED TV heb als monitor. De eerst volgende aanschaf is een nieuwe videokaart voor in mijn 2600k machine. Daarna upgrade ik mijn processor wel om eventueel de gemiddelde frametimes lager te krijgen. Daarna is het uitpluizen of eventuele spikes in de frametimes door interrupt problemen komen van het een of andere, of dat dit gewoon een probleem inherent aan het spel is.
Ja das op zich waar ja, en heb je die 4k OLED TV als monitor, of staat hij 3 meter van je af, net als een Media/Console PC waar je op gamed en films en zo op kijk?
Nee, ik heb hem echt als monitor met keyboard tegen de standaard van de TV aan. Dus ik zit er echt wel met de snuit bovenop om het zo maar te zeggen.
Dat was mede ook de reden om OLED te verkiezen boven QLED of een andere techniek. Met OLED merkte ik in de winkel al dat mijn ogen minder last hadden van het licht, het voelde niet vermoeiend aan alsof je in een zaklamp zat te kijken.

Eerlijk is eerlijk... ik dacht eerst van "dit is veel te groot". Maar uiteindelijk ga je zo'n groot scherm met deze resolutie gewoon zo gebruiken alsof je meerdere monitoren hebt, je hebt zoveel desktop ruimte en een enkele browser op full screen is gewoon veel te groot bijvoorbeeld.

Ook nog geen last gehad van inbranden en ongein hoor. De computer schakelt immers de monitor (via HDMI-CEC en Windows energiebeheer) al uit na 10 minuten, en met normaal computer gebruik wissel je vaak de content wel frequent genoeg af. Thuis tenminste wel, en je kan je taakbalk van Windows altijd automatisch laten verbergen als je daar angstig voor bent. ;)
Ow ok, maar krijg je niet last van je nek, als je +/- 1 meter af bent van je 55" (140cm) scherm, je moet immers volgens mij elke keer je hoof draaien om alles te kunnen zien lijkt mij?

Ja ik zelf ben gegaan voor een 21:9 34" 3440x1440 scherm, waar ik ook veel op kwijt kan, maar heb toch alles vergroot in mij browser omdat anders je een heel smal beeld heb, omdat veel websites de achterlijke smartphone/tablet formaat hebben.
Ik krijg eerder een stijve nek als ik mijn hoofd in een enkele positie moet houden, juist dan beginnen de nekspieren te berkrampen bij mij. Een beetje bewegen is dus gezond hoor. ;)

Daarnaast kan je altijd met de vensters slepen naar een voor jouw prettige plek, mocht dat nodig zijn. Dat je scherm zo breed is hoeft niet te betekenen dat je altijd in de uitersten werkt.

Ik vind het best te doen, en tot nu toe heb ik nog geen last ondervonden.
Nou ben ik ook al het een en ander gewent. Mijn vorige monitor was ook een TV... de Philips 32PFL9604H/12 32inch 1080p televisie.
Aha ok, ja heb je wel een stevige grafische kaart nodig om het allemaal te draaien, vooral als je spellen speel.

Nou veel suk6 en hoop dat je nog veel plezier mag hebben van je 55" OLED TV.
Jij ook veel plezier van jouw opstelling gewenst, en ook nog een fijne feestdagen en een goed uiteinde alvast! ;)
Ja bedankt jij ook, jij ook alvast een merry christmas, en een gelukkig nieuw jaar.
Ik doelde meer op halfbakken onderzoekjes die leuk lijken maar de diepgang mist. Of enig begrip for that matter.
Ja dat is waar, dat heb ik ook vaak met Tweakers, ook te weinig spellen gebruiken ze, Guru3D doet het ook veel beter vind ik.
Ik doel ook op andere onderzoekjes
Wat deze test ook mooi laat zien is dat er bij sommige situaties in fps weinig verschil zit tussen cpu's maar dat de frametimes juist kwa cpu er verschilt.

Gemiste kans van Tweakers om het artikel wat uitgebreider te maken en mogelijk tot een andere conclusie te komen.
Quote van de buren :)
Heel kort door de bocht kunnen we concluderen dat je met een dual-core met HyperThreading al uit de voeten kunt. Op deze configuratie hebben wij alle games succesvol kunnen benchmarken, en in combinatie met de GTX 1080 Ti draaide elk spel op de 3 resoluties en 2 kwaliteitsinstellingen zonder problemen. Gaat het dus puur om het kunnen spelen van spellen, dan heb je aan een processor zoals de Intel Pentium G4560, Pentium G5400 of een iets oudere Intel Core i3 al voldoende. Anno 2018 zien we nog geen games die méér dan vier threads vereisen om op te kunnen starten.
Ik durf te wedden dat er genoeg spellen nog opstarten op m'n oude singlecore AMD 3000+, maar dat betekent niet dat het lekker speelt.
Hoeveel je 'nodig' hebt is relatief, sommigen zijn pas tevreden met 240+ fps te allen tijde, terwijl anderen gemiddeld 30 fps ook prima vinden.
Maar er zijn tegenwoordig apellen die daadwerkelijk weigeren op te starten bij minder dan 4 threads. De test van hw.info laat zien dat dat niet betekent dat een dualcore i3 met lekker hogere clocks nog lekker speelt.

En ja, natuurlijk heb je gelijk en hangt het af van je gewenste FPS, resolutie en grafische pracht wat je daadwerkelijk nodig hebt.
Zou de conclusie niet moeten zijn dat hoe lager je framerate is hoe minder belangrijk de CPU is. Voor VR geldt namelijk dat je die 90 FPS aan wil tikken en dan lijkt de cpu toch wel weer belangrijk te worden, ondanks dat het een hoge resolutie heeft.

Zelfde geldt met 4k en een 144 Hz scherm, dan zet ik ook de graphics op low om die 144 frames aan te tikken. Wat is dan de invloed van een cpu?
Zou de conclusie niet moeten zijn dat hoe lager je framerate is hoe minder belangrijk de CPU is. Voor VR geldt namelijk dat je die 90 FPS aan wil tikken en dan lijkt de cpu toch wel weer belangrijk te worden, ondanks dat het een hoge resolutie heeft.
Dat is niet wat deze test laat zien.

Wat deze test aantoont is dat als de GPU de workload aankan dat de CPU de bottleneck wordt.
Daardoor zie je weinig verschillen in framerate als de GPU het druk heeft (dus bij de hogere resoluties). Bij deze resoluties komt het op de GPU aan om het beeld te genereren.
Ga je naar een lagere resolutie dan zal de CPU nog evenveel data moeten voorbereiden/verstouwen maar zal de GPU minder pixels hoeven te dekken en komt het neer op de CPU die bepalend wordt voor hoeveen fps er gaat gebeuren.
Wat een slecht artikel. Tuurlijk kom je uit bij deze conclusie als je geen low end cpu test. Je kan zo toch onmogelijk de vraag die je als titel voor je artikel verzint beantwoorden.

En het is ook handig als je cpu intensieve games test als BF 5 (waarom testen jullie BF1?), Vermintide 2, ect.

3/10 voor dit artikel.
Ik vind juist de conclusie fout. Het laat duidelijk zien dat benchen op 1440p en 4K juist belangrijk is.
Ten eerste om te zien of game bij ten minste highend gpu voldoende FPS haald voor 4K.
Wat ik daarbij mis sub highend en midrange gpu.

Om de reden dat meeste gamers geen highend CPU en GPU gebruiken.
En niet elke gamer 1080p gamed. Want dat is specifieke groep .
Met name de online competatieve gamer .
Ik heb een 1440p en 4K monitor.

Ik heb dus niks aan uitsluitend 1080p reviews en het zijn ook reviews die ik ook totaal al lang niet meer lees.
Dit is na lange tijd weer de 1st die ik doorgelezen heb.
En conclusie voor mij is dat de CPU niet zo veel uitmaakt maar dat ik vooral dikke GPU nodig heb.
En bevestigd mijn verwachting ook nog eens.
Daarnaast met mindere gpu vlakt het nog sterker af.
En dan is belangrijker of 4K wel speelbaar is of bij 1440p moet gaan met mindere GPU.
Al ben ik wel tolerant voor sub 60FPS.
Mijn 4K heef wel Freesync aan een Vega56 ik vermoed dat ik beperkt ben vanwege gpu aan 1440p
Ze bedoelen dat het testen op 1080p de juiste keuze is voor het testen van CPUs, niet voor het testen van GPUs.
Ik zie eigenlijk niet in waarom dat de "juiste keuze" zou zijn, imho is de "juiste keuze" een realistisch beeld geven van de prestaties die een aspirant koper mag verwachten wanneer hij zelf het gereviewde product zou aankopen en gebruiken. Daar zou de benchmark suite op gebouwd moeten zijn. Zo zie je geregeld reviews van bijvoorbeeld I5 of AMD 2600 series cpu's met Nvidia 1080/2080 Ti's e.d. Naar mijn mening totaal niet zinnig, daar (bijna) geen gamer dat soort cpu's met dat soort kaarten gaat combineren. Reviewen met een AMD RX 580/590 of een Nvidia GTX1060/1070 (Ti) zou dan een stuk logischer zijn daar dat de combinaties zijn die uiteindelijk regelmatig verkocht worden.
Nou dat is dus juist de vraag die ze willen beantwoorden. Ik denk dat er genoeg mensen zijn die juist een wat oudere CPU hebben en wellicht twijfelen of ze de GPU gaan upgraden. Daarbij gaan twijfelen of dat wel zin heeft of dat ze dan heel erg CPU gelimiteerd zijn. Ik heb nu een i5 3870k (of zoiets), en ik wil mijn GPU misschien gaan upgraden, maar weet helemaal niet goed of dat wel nut gaat hebben om er dan een 2070 in te zetten. Daar kunnen die testen juist heel goed bij helpen.
https://store.steampowere...e-Survey-Welcome-to-Steam

Jij bent toch wel ècht een niche hoor.

1080p is bij verre de meest gebruikte resolutie.

De mensen die 1500-2000 of meer aan een gaming PC uitgeven die 1440p op 144hz aankan is nog steeds vrij klein. Alhoewel het inderdaad belangrijk is om ook 1440p en 4k scores te kennen moet je het belang hiervan niet overdrijven.
Tuurlijk zal 1080p nog het meest gebruikt worden, maar de vraag is juist of mensen die een systeem kopen met een 2700x en een RTX2080 ook nog dat 1080p scherm houden.
Het zou je verrassen hoeveel er dat zijn :)

Grotere schermen hebben ook meer plek nodig op een bureau bijvoorbeeld. Het heeft weinig nut een 1440p 22" scherm te halen (bestaan die wel?).

Zelf heb ik 3x1080p voor simracing, maar andere games speel ik ook gewoon in 1080p single screen.
Ik ben het helemaal met je eens. Ik game zelf ook al jaren op 4k, inmiddels een iets beter scherm in de collectie hiervoor dan voorheen. Maar ben van een i7 4930K(oud beestje) naar een i5 8400 gegaan. Voordat ik helemaal overstag was, veel benchmarks gedraaid out- en ingame, van onder andere games als Rocket League en Battlefield 1 en ook V. Kwam erachter dat de hoeveel fps zo weinig verschil was bij gebruik van dezelfde videokaart (gbt 1080ti xe), dat ik besloten heb om het oude platform de deur uit te doen en bij de i5 te blijven.

Heel veel games halen de 60fps in 4k, heel soms schaal ik terug. Maar ben uitermate tevreden en zal niet veel geld meer investeren in een cpu.
De gemiddelde fps meten kan echt niet meer in 2018.
wat een verspilling van resources.

[Reactie gewijzigd door The-End587 op 17 december 2018 06:18]

Waarom zou dat dan niet kunnen? Je gamet een uurtje, door rustige stukken en drukke stukken, sommeert de fps, deelt door de tijd... klaar.
Omdat het een gemiddelde is. Je wilt niet weten wat het gemiddelde is, maar juist hoe vaak je tegen het minimum aanloopt. Zogenaamde micro-stutters (haperingen) vallen weg in de gemiddelde. Als ik 100 seconden lang 80fps haal en dan 2 seconden slechts 15fps omdat data van een mechanische drive moet worden ingelezen in de het gemiddelde nog steeds 78.7fps..

Bij Gamers Nexus was laatst al een discussie dat zelfs de low %0.1 fps vaak niet de echte speelbaarheid van de game laat zien. Daarom laten ze daar ook vrijwel altijd de frame plot zien waarbij de stutters zichtbaar zijn..
Oh, dat is best wel een goed punt, eigenlijk.
Dank voor deze uitstekende onderbouwing van mijn standpunt.
Ik heb een core i3 - 6100 (3,7 Ghz oid) en een RX460. Ik merk dat voor mijn GPU de bottleneck is. Die staat het eerst op 100% belasting bij games als ik kies voor 'high' ipv 'medium' graphics bij veel spelen (op 1080p). De CPU wordt bij mij lang niet tot de max belast in de meeste games. Dus die loont het meer om te upgraden eerst. Misschien ook een tip voor anderen.

[Reactie gewijzigd door CyberMania op 17 december 2018 06:41]

Klopt jouw theorie wel? Als jouw cpu niet 100% belast wordt, betekent dat toch simpelweg dat er nog headroom in zit toch? Je gpu bottlenecked je fps nu. Dus daar zit je upgrade mogelijkheid dan toch? Met een 1080ti zal je cpu wel de 100% aan tikken en is die aan een upgrade toe.
een rx460 is dan ook een low end kaart, één stapje hoger en je hebt de rx470, dan zou je in veel titels al wel een cpu bottleneck hebben, niet dat het een mis-match zou wezen dat zeker niet, voor je huidige gpu is het een ruim voldoende cpu inderdaad.
Da’s wel heel kort door de bocht. Je GPU is sowieso wel een budgetmodel, maar zonder een spel te noemen wat je speelt zegt het niets. Ga cities:skylines spelen en je CPU staat op 100%.
Het is mij niet helemaal duidelijk wat je precies probeert te zeggen en als tip wilt meegeven met deze reactie maar het verhogen van de grafische settings zal altijd op een lagere max FPS uitdraaien. Een CPU heeft gewoon een X aantal frames per seconde wat deze kan verwerken. Dus als door de instellingen de fps omlaag gaat (omdat de GPU het zwaarder krijgt) zal de CPU het steeds makkelijker gaan krijgen (omdat er minder frames per sec zijn om te verwerken).
Daarom zie je in de benchmarks van deze test dat er op 1080p medium veel meer verschil tussen de processoren en fps zit dan op 4K.

De vraag is alleen of jouw GPU bij hogere instellingen nog voldoende FPS kan produceren dat het voor jou nog een soepele speelervaring oplevert. Kans boven gemiddels dat als jij een nieuwe GPU in jouw systeem prikt de i3 direct een bottleneck gaat zijn voor de nieuwe GPU.
Tweakers, laat dit soort review nou gewoon over aan de sites die het wel kunnen. Tweakers en CPU's/GPU's was leuk tot ~2008. Jullie sterke punten liggen elders.
En wie dan wel? HWI kan het ook zeker niet. En dat zijn letterlijk de enige twee site's die schrijven in het Nederlands waar je het überhaupt van kan verwachten qua grootte. Alle andere site's die erover zouden kunnen schrijven zijn niet meer dan simpele hobbysite's die het nooit zullen gaan doen. Geeft ook gelijk het probleem aan trouwens, geen concurrente = gewoon bagger voor de consument. Dan krijg je wanproducten of in dit geval dus wanartikels.

Wat mij betreft moet Tweakers gewoon weer iets fatsoenlijks produceren. Zij zijn immers met afstand de grootste techsite van NL, zelfs van de Benelux. Het is dus onbegrijpelijk dat ze continue zulke slechte hardwareartikelen schrijven. Is ook onbegrijpelijk dat er nooit iemand ingrijpt en er voor zorgt dat zulke dingen gewoon niet geschreven worden.

[Reactie gewijzigd door -The_Mask- op 17 december 2018 12:47]

Voor theoretische (verzamel)tests is HWI best goed, ook internationaal gezien. Handig om prestaties van bijvoorbeeld koelers te vergelijken dus. Daarna moet je wel elders een praktijktest zoeken!

Bij individuele componenten ben ik het met je eens. Even controleren of de door de fabrikant opgegeven functies ook echt werken gebeurt niet. Een moederbord wat volgens HWI 4 regelbare PWM aansluitingen heeft kan in de praktijk ook 1 PWM + 3 DC connectoren (op dezelfde fancurve!) hebben bijvoorbeeld.
Voor theoretische (verzamel)tests is HWI best goed, ook internationaal gezien.
Dan verwar je echt kwantiteit met kwaliteit. Ze testen dan wel heel veel, maar als je alles verkeerd gaat testen dan doe je eigenlijk nog niks behalve mensen op het verkeerde been zetten.
Daarna moet je wel elders een praktijktest zoeken!
Ik zie anders nergens bij een HWI artikel staan dat men de test niet serieus moet nemen en voor een fatsoenlijke review op een andere site moet kijken. Wat denk je dat de gemiddelde lezer dus gaat doen? Die denkt dat het wel een goed artikel is.

Datzelfde geld dus ook bij dit artikel. Lees de andere reacties onder dit artikel maar, zijn genoeg mensen die werkelijk denken dat dit een goed stuk is. Dit komt simpelweg omdat ze niet genoeg kennis over het onderwerp hebben en dus niet kunnen beoordelen hoe goed/slecht het artikel werkelijk is.

[Reactie gewijzigd door -The_Mask- op 17 december 2018 12:53]

Je verwart de onderzoeksmethode met publicatiestrategie. Kwantitatief onderzoek kan voor kwalitatief goede informatie zorgen.

HWI's round-ups/verzameltests zijn vaak goed opgezet en de testmethode is altijd duidelijk toegelicht, zo'n professionele werkwijze zie je niet overal.

Dat ze zichzelf niet belachelijk maken door te roepen dat de meeste van hun losse reviews net zo (technisch) relevant zijn als een advertorial in de 'Computer Idee!' lijkt me logisch.
Die twee techsites zitten al in hetzelfde pand toch? En zullen verwacht ook wel het testlab delen. Ik vind dit artikel ook twijfelachtig.

Ik vind hwi reviews qua cpu en gpu's ook meer waarde hebben dan van tweakers (op jouw voedingen na dan :) ), omdat zei hun prijsvergelijker hebben gekoppeld aan meettabellen uit hun testlab. Natuurlijk is de look & feel van tweakers prijsvergelijker prettiger, maar als je componenten wilt vergelijken dan ben je het beste af op die hwi omdat alle specificaties tijdens hun testen onder dezelfde omstandigheden zijn afgenomen en dus werkelijk te vergelijken zijn. Sommige zaken heeft HWI gewoon beter voor elkaar en volgens mij zie ik al 2 jaar lang een ontkoppeling tussen tweakers en computerhardware, tweakers is verbasterd tot een it-newtechnology hub. Het meest simpele voorbeeld van een prettige implementatie van HWI is de fanroundup! Eindelijk een techsite die gewoon 120 fans eens per 2 jaar doormeet zodat we ze echt kunnen vergelijken.

[Reactie gewijzigd door govie op 17 december 2018 14:41]

Die twee techsites zitten al in hetzelfde pand toch? En zullen verwacht ook wel het testlab delen. Ik vidn dit artikel ook twijfelachtig.
Ja aangezien HWI nu ook van de Persgroep is daardoor verhuist is naar hetzelfde pant maken ze tegenwoordig ook gebruik van dezelfde vrij problematische testgegevens....
Ik vind hwi reviews qua cpu en gpu's ook meer waarde hebben dan van tweakers (op jouw voedingen na dan :) )
Dan vraag ik mij af waarom. Ben je bekend met de problemen van de testmethode die zowel HWI als nu ook Tweakers heeft? Want alleen al daardoor zijn beide niet goed. Dan kan HWI wel meer testdata publiceren, maar het is dezelfde problematische testdata.
Het meest simpele voorbeeld van een prettige implementatie van HWI is de fanroundup!
Maar komt de testmethode die ze gebruiken overeen met de praktijk of werkt de praktijk heel anders?

Wat vond je trouwens hiervan: https://nl.hardware.info/...m-gelukkig-systeem-lagers Letterlijk mijn tekst, al kon er geen bronvermelding vanaf... :'(
Het is altijd een keuze tussen afwegingen en uitgangspunten van de testmedewerker an sich. Soms dan sla je als testmedewerker gewoon de plank zo nu en dan mis door een misvatting of een overtuiging die niet strookt met de realiteit ofzo. Ik heb ook ooit in een testlab mogen hobbyen en dan zijn uitgangspunten stellen best moeilijk, want minder optimaal geselecteerde uitgangspunten, kan je testresultaten een beetje teniet doen. Pijnlijk is dat maar zo werkt het wel.

Testresultaten die een accurate absolute waarde weergegeven waar je iets mee kan, is altijd wenselijk. Maar zoals ik vaak heb ervaren, heb ik voldoende aan ratioverschillen tussen de verschillende concurrenten en maken de absolute waarden me niet zoveel uit. Via het creëren van wat fingerspitzengefuhl door de roundups en reviews te lezen, probeer ik die ratio's een waarde te geven i.r.t. mijn huidige systeem en zo een onderdeel te selecteren dat aan mijn wensen voldoet. Op de Look & Feel na, is de prijsvergelijker van hardware.info gewoon completer en biedt de techneut meer opties voor het maken van een keuze. Of anders gezegd, de keuze is in ieder geval op iets gebaseerd en bij tweakers betreft dit de specificaties die de fabrikant opgeeft. Zoals je ziet relateer ik alles tot beide prijsvergelijkers, die zijn voor mij de backbone van beide websites.

Ik denk ook dat er op testlabs veel valt te verbeteren qua vooral uitgangspunten bij tests. Ik ben bijvoorbeeld een airflowfreak en mij doet het pijn in mijn hart dat hardware.info computercases met 3 meegeleverde fans en 15 fanspots, de maximale koeling test met alleen de meegeleverde fans. Dit is natuurlijk niet zoals de koper van een highendcase handelt en ook niet zoals de fabrikant het bedoelt heeft. Men koopt zo'n joekel van een computercase om hem juist vol te hangen met meuk. Spijkers sla je toch ook niet in het hout met je vuisten denk ik dan, je koopt spijkers die je samen met je hamer wilt gebruiken. De enige manier om de theoretische koeling-meerwaarde van grote cases te kunnen duiden, is door juist alle fanspots te vullen met spulletjes. In testgevallen is mijn mening dat overdaad normaliter nooit schaad. Maar dit voorbeeld laat mooi zien hoeveel invloed een paradigma van de testmedewerker, kan hebben op de uitkomst van testresultaten, roundups & de reviews, maar dus ook de conclusies en welke award wordt toegediend. Het is gewoon lastig soms en niet ieder artikel is in de regel even nuttig is mijn ervaring. Maar laat me duidelijk zijn, zonder tweakers.net en hardware.info had ik nooit al die keuzes zelf kunnen maken, dus we moeten roeien met de riemen die we hebben! ;)

[Reactie gewijzigd door govie op 17 december 2018 15:17]

Tja, het probleem is conceptueel nogal lastig, of misschien wel helemaal niet op te lossen voor Tweakers.

Wat jullie hier zeggen over gebrekkige CPU/GPU reviews kun je in feite stellen over iedere diepere, complexe niche. Laat ik een voorbeeld nemen wat me meer ligt: high-end camera's.

Aangezien dit het internet is en de meeste onder ons wel engels kunnen, moet Tweakers het in zijn review dus opnemen tegen de allerbeste specialisten ter wereld. Specialisten die niets anders doen dan cameras testen, daarvoor een lab hebben, 20 jaar fotografeer ervaring, enz. Daar is door een eenling niet tegen op te boksen. Het is een rechstreeks gevolg van jezelf breed neerzetten ipv diep en smal.

Smartphones e.d. verhullen dit gapende gat omdat dit relatief eenvoudige apparaten zijn om te reviewen en deze krijgen buitensporig veel aandacht, de halve homepage gaat over smartphones. Ze leveren uiteraard eindeloze discussies op, maar er is geen diep specialisme voor nodig. Kijk je naar de echte niches waar diepe technische kennis voor nodig is, dan kan Tweakers niet echt mee.

Ik voorzie wel een soort van oplossing. Indien duidelijk is dat de community zelf gecombineerd meer kennis van zaken heeft dan de reviewer (wat logisch kan zijn, dus no offense), dan moet men wellicht meer uit die community tappen voor dat soort onderwerpen. En dan niet achteraf, maar vooraf. Een soort van open source review methode?
Mijn i7 6700k doet nog precies waar die voor bedoeld is. Zal nog makkelijk 3-5jaar meegaan
Dat dacht ik ook van mijn 3770k op 4,5Ghz met DDR3 2400Mhz geheugen en een GTX 980ti... Tot ik naar een 8086K ging.
Er ging een hele wereld open, spellen werden stukken vloeiender weergegeven op singleplayer niveau maar ook op multiplayer.
Daarom stellen FPS testen niet zo heel veel voor, het gaat vooral om frame times. Hoe stabieler (en lager) deze zijn hoe beter je game ervaring.
Ik speel op een 1080p 60hz scherm. Een 6700k is daar meer dan genoeg voor. Enige upgrade die er gaat komen is 1060 6gb naar 1070ti of rx64 met een qhd monitor.
Je hebt het over 3 tot 5 jaar.... En het maakt niet uit of je scherm 60Hz is of 265Hz als je frame times veel gelijkmatiger zijn dat is gewoonweg merkbaar.
Hetzelfde geldt voor FPS en refreshrate. Bijv dat 144Hz alleen nuttig is als je 144FPS haalt.
Ho eens even!! Heeft de snelheid van de ram van 2133 naar 3200 zoveel verschil in fps?!?!?!
Dus ik mis gewoon iets van 10 tot 20 fps? Mijn ram kan maar max op 2133mhz runnen.
Beetje de clue van snelheid op ramgeheugen. Als het niks uitmaakte draaide alles wel op 1 mhz.
ja maar ik hoorde eerst steeds dat het niks uit maakte en dan nog, zoveel verschil. Ik ga sws nieuw ram kopen.
1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.


Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Microsoft Xbox Series X LG CX Google Pixel 5a 5G Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True