Door Willem de Moor

Redacteur

AMD Ryzen 9 3950X Review

Zestien cores voor mainstream-pc's

Conclusie

Met de introductie van de eerste generatie Ryzen werden mainstreamprocessors opeens voorzien van 8 in plaats van 4 cores. En toen AMD Threadripper introduceerde, verschoof het aantal cores op het hedt-platform van 10 naar 16 en later 32. Met de derde generatie Ryzen had AMD het aantal cores op een mainstreamplatform al verhoogd naar 12, maar een model met 16 cores zou eraan komen.

Met de Ryzen 9 3950X is dat een feit en waar je niet zo lang geleden een hedt-platform nodig had om zestien cores in je systeem te hebben, is dat nu mogelijk op een mainstreamplatform. Dat heeft wel een prijs, want met een adviesprijs van 749 dollar is de cpu niet goedkoop. Inmiddels is AMD namelijk op een punt gekomen dat het geen prijsvechter meer is en kan het ook een premiumprijs vragen voor een premiumprocessor. De Ryzen 9 3950X is overigens niet direct, maar pas vanaf 25 november te koop.

Maar hoe premium is die 3950X? Op papier is het een beest en in vrijwel alle gevallen is het ook de allersnelste processor op een mainstreamplatform die je kunt kopen. De 3950X laat zelfs hedt-processors die even duur of duurder zijn, achter zich en deze Ryzen doet dat bovendien zonder een extreem vermogen te vergen. Hij is met zestien cores zelfs zuiniger en veel sneller dan een octocore van Intel en bovendien kun je dat nog verder reduceren met de nieuwe eco-mode.

Sneller en zuiniger, maar met een relatief zwak punt, waarvan vrijwel alle Ryzen-processors al van meet af aan last hebben: het is niet de snelste gameprocessor. Tot dusver is geen Ryzen-cpu dat geweest en ook voor de hoogstgeklokte geldt: er zijn snellere Intel-processors. Dat betekent niet dat de 3950X langzaam is als je gaat gamen; in veel gevallen zal je videokaart gewoon de bottleneck zijn, maar feit blijft dat de 9900K(S) van Intel toch net iets sneller is. En dat is toch jammer voor een processor die werkelijk op alle andere vlakken zijn gelijke niet kent.

Kortom, als je een bestemming hebt voor veel cores, zoals rendering of conversies, dan is de 3950X een uitstekend alternatief voor hedt-systemen, en ook als je gewoon een bizar snelle processor zoekt, is de nieuwste van AMD voor jou. Vrijwel alle prestatiekroontjes, van synthetische benchmarks via praktijktests tot zuinigheid, gaan naar AMD. Maar puur voor gaming kun je waarschijnlijk beter bij de concurrentie aankloppen of een van AMD's goedkopere alternatieven kiezen: op hogere resoluties is het de videokaart en niet de processor die de bottleneck zal vormen. En gek genoeg geldt dat ook voor de prijs: Intels duurste mainstreamprocessor, de 9900KS is goedkoper dan AMD's topmodel.

Lees meer

Reacties (230)

Wijzig sortering
Mooie review, met toch wat kanttekeningen. Zo is de prijs prestatie volgens mij geheel fout!

ten eerste neem je natuurlijk de 3700X die 335 kost en de goedkoopste 9900K is 520 en de ks zelfs bijna 600. Zelfs dan is de 3800 beter dan de 9900K(die heb ik zelf overigens)

Dan is ook het zuinig zijn natuurlijk een punt. Verder vind ik het vreemd dat ze niet even verder kijken waarom de 3950X minder presteert in games dan de 3900X, daar moet iets aan de hand zijn, of een bepaalde instelling. Nu zal Tweakers wel als verweer hebben dat ze standaard instellingen laten...maar toch.

En dan natuurlijk ook de crappy 1080 game prestatie...op ultra is AMD bijna altijd bij, en je gaat niet een 800€ 16 core halen om 1080 op medium te spelen...

Kan mij weer niet aan het gevoel onttrekken dat Tweakers hier geheel objectief is...vast om Intel niet in te slecht daglicht te plaatsen.

ALs ik kijk naar de testen scoort de 3800x beter dan de 9900K, die desondanks dat die duurder is een betere prijs prestatie krijgt...dat moet je me toch even uitleggen!

Verder is heel duidelijk geworden dat Intel momenteel zijn prestatiekroon kwijt is, wat goed is voor de markt, maar als je kijkt naar het afgelopen decennia is het schandalig...want we hebben met zijn allen veel te veel betaald aan Intel die maar mondjesmaat iets meer terug gaf in prestatie.

Ik ga ook andere reviews lezen, want wat ik al zei, hier klopt iets niet. Wel mooi te zien dat AMD zo goed vooruit aan het gaan is. Nu hopen dat ze straks nog mee kunnen komen met de videokaarten. En ze mogen van mij best een goed bedrag vragen voor de processor.

Vergeet even niet, een 3 jaar geleden kocht ik een i7-6700k voor de prijs waar je nu een 3700x voor koopt...een veel betere deal gezien meer dan de dubbele prestatie in 3 jaar waar Intel in 10 jaar zo een 40% erbij deed...
Als ik alle berichten lees die hieronder geplaatst worden vraag ik me af waarom zo veel mensen 'kontenlikkers' zijn geworden van grote bedrijven als AMD/Intel.

Je koopt toch een product omdat dat product voor jouw geld het beste is? Zowel Intel als AMD hebben hun eigen voordelen. Ze hebben overigens beiden 1 ding gemeen: ze willen jouw geld! :)

Ene keer zal Intel de beste keus zijn en de andere keer is het AMD. Ik wil zelf ook gaan upgraden van een 6700k maar zit vooralsnog te twijfelen aangezien ik mijn pc vooral voor gamen gebruik en wat software development. Ik zou graag zo een dikke 3900/3950 willen hebben maar die 9900K(S) is ook niet mis met die prestaties in games.

Ik ben al blij dat we weer concurrentie hebben en deze discussies kunnen houden!
Veel mensen zijn positief over het merk wat ze op dat moment gebruiken, en voelen zich aangevallen als anderen er negatief over zijn, en soms ook wanneer anderen positiever over een ander merk praten. Waarschijnlijk voelt het als commentaar op hun keuze voor ze. Dat zie je ook met de jaarlijkse 'verkiezingen' voor de beste producten. Als je mensen vraagt wat de beste provider is kan je me niet wijsmaken dat iedereen die stemt ook daadwerkelijk dat jaar elk van die providers heeft geprobeerd. Met hardware is dat eventueel nog mogelijk (ook al geloof ik het daar ook niet bij), maar voor providers zou je meerdere keren per jaar moeten verhuizen om elke provider tenminste een paar weken te proberen (als ze een storing hebben moet je tenslotte ze de kans geven het op te lossen, dus een paar dagen is niet genoeg).
Veel mensen zijn positief over het merk wat ze op dat moment gebruiken, en voelen zich aangevallen als anderen er negatief over zijn, en soms ook wanneer anderen positiever over een ander merk praten.
Dan kan je in ieder geval stellen dat die mensen volledig in de marketingval van hun favoriete merk zijn gelopen. Het is natuurlijk raar om emotioneel te reageren op producten van grote multinationals.
hoewel ik grotendeels eens ben met je argumenten over de gebruikte test methodiek, denk ik persoonlijk niet dat T-net zijn review heeft aangepast om Intel te paaien, om het gewoonweg bot te zeggen, Intel heeft de pers op het moment harder nodig dan AMD en heeft er op het moment zelfs de macht niet meer om de pers het moeilijk te maken.

Ook denk ik dat er waarschijnlijk iets fout is met hun test opstelling waar de 3900X verscheidende male beter scoort dan de 3950X, iets wat je niet ziet op andere sites.

Ik denk daarnaast ook eerder dat men uit gegaan is van een verouderde test methodiek met 1080p, en of te veel gefocust is op puur de CPU te testen ipv ook te testen met een meer realistische 1440p of 4K res. met wat meer de realworld gebruiksscenario is voor gamers die deze cpu kopen.

En ook ik ben zeer blij met AMD dat ze de markt weer gezond hebben gemaakt, maar denk voor geen seconde dat AMD dat doet om ons blij te maken, wat bv veel Intel/AMD/nVidia en Apple fans denken.

Als AMD marktlijder was geweest hadden we waarschijnlijk ook 10j gedaan met quad-core cpu's, zo als Intel met de QX6850 tot en met de i7-6700K, want net als elk ander bedrijf heeft AMD het doel om een zogoedkoop mogelijk product te maken dat ze voor zoveel mogelijk geld willen verkopen, en dit geld des te meer voor beurs genoteerde bedrijven, die verantwoording moeten afgeven aan hun aandeel houders.

Al met al er zijn beduidend betere en meer realistische/realworld reviews van de 3950X te vinden, en is deze review imho ongeveer een magere 5 of een 4 waard wat betreft de tests, en Willem de Moor onwaardig.

[Reactie gewijzigd door player-x op 14 november 2019 20:48]

Je kan wel van mening zijn dat AMD net zo slecht is als Intel of Nvidia, dan zit je er toch echt naast de feitelijk acties van alle 3 de partijen tonen duidelijk aan dat AMD het spel het eerlijkst gespeeld heeft:
Intel - Anti-Competitive, Anti-Consumer, Anti-Technology
https://www.youtube.com/watch?v=osSMJRyxG0k
Nvidia - Anti-Competitive, Anti-Consumer, Anti-Technology
https://www.youtube.com/watch?v=H0L3OTZ13Os
Oooo, nee, dat zeg ik helemaal niet, FB is bv ook veel en veel slechter dan Google, ik zeg alleen, een die hard fan zijn van een bepaald merk is gewoon dom.

Want om een bepaald product te kopen omdat je een emotionele binding hebt met een bedrijf is een slechte rede, en ja in dat geval, de liefde gaat weldegelijk twee kanten op, jij houd van hun, en zij houden van jouw, maar dan wel te verstaan jouw portemonnee.
Games zijn een ander soort workload. Is parallel lastiger schaalbaar en latencies zijn belangrijk.

Als je een beetje zou overdrijven en op 8k zou renderen, dan is elke CPU exact even snel omdat ze dan weinigdoen. Ga je naar 4k, dan is er iets meer verschil zichtbaar en ga je naar 1080p of zelfs 720p, dan zit je echt naar de CPU en niet de GPU prestaties te kijken in de context van gaming.

Het punt hiervan is dat over 5 jaar, wanneer spellen mogelijk een stuk zwaarder kunnen/zullen zijn, dat bijv. die AMD processor ook die daadwerkelijk lagere framerates gaat halen die je nu in het 1080p scenario ziet, maar dan praat je over 1440p of 4k wanneer je deze procs combineert met een volgende generatie videokaarten. Dus mogelijk zul je dan wel langer voort kunnen met zon Intel i.t.t. de AMD

Edit: misschien deels interessant. Wat screenshots van CPU load in 3 games. Helaas heb ik BFV niet zo bij de hand, maar die schaalt ook erg goed over meerdere cores:
http://files.nldr.net/cpu_load_in_games/

Edit2: vergelijk deze benchmarks ook maar eens op 1080p medium vs ultra bij The Division 2 je ziet dat er dan nog amper verschil zit tussen de processoren, omdat de framerates enorm zakken puur door de GPU bottleneck. Op Hardware.info is eenzelfde vergelijking te maken

[Reactie gewijzigd door Pindamann op 14 november 2019 20:49]

Dat argument wordt steeds aangehaald maar is in dit segment kul. Deze CPU is voor enthousiastelingen en die doen echt geen 5 jaar, zoals jij stelt, met een CPU. Verder zijn er in die 5 jaar meer moderne games die steeds meer goed overweg kunnen met meerdere cores. Verder geloof ik niet dat in die 5 jaar de GPU's zomaar 100% sneller worden om misschien dan 10% snelheidsverschil te laten zien.
Niet alleen is het kul, het is ook al meerdere malen onderuit gehaald met benchmarks jaren na release.

AMD processoren hebben zelfs een langere houdbaarheidsdatum dan de Intel tegenhangers.

https://youtu.be/gFBKFz9n2hc
Ik werd er laatst in een winkel op gewezen dat juist AMD een hogere uitvals percentage heeft.
Grappig dat sommigen zo Intel minded zijn 8)7

[Reactie gewijzigd door Mosin op 14 november 2019 23:08]

Ik heb eerlijk gezegd nog nooit gehoord van een cpu die defect is gegaan. GPU's en geheugen wel. Ook bij ons in het serverpark nog nooit defecte CPU's tegengekomen. Geheugen wel...
Ik heb er ook nog nooit iets over gehoord, maar ik merk vaak dat Intel liefhebbers met dat soort extreem slecht onderbouwde argumenten aankomen.
Ik heb goede ervaringen met beide processor merken, alleen ik verwacht zoiets niet in een ''gespecialiseerde'' winkel te horen.
Die gespecialiseerde winkel verdient domweg meer op het ene merk dan op het andere merk. En als dan blijkt dat er een klant is die gevoelig is voor onzin dan ga je dit soort dingen doen.
Ik heb het zelf op meer gebieden mee gemaakt. Je laat je ompraten terwijl je achteraf denkt ''Had ik zelf maar even gezocht''. Logische handeling vanuit de winkel, maar toch jammer dat je dan zulke leugens verkoopt. Voor een leek kan het normaal klinken, voor een kenner zijn het lachwekkende woorden.
Je doet er niets tegen, hun willen er ook aan verdienen, als ze dat uberhaupt nog doen op PC's.
Wat een onzin, dat enthousiastelingen niet 5 jaar met een CPU doen. Mijn 3570k doet nog altijd dienst... en ik verwacht de huidige 8700K ook wel 5 jaar te gebruiken. De CPU is nou net een component dat je prima op de groei kunt kopen dezer dagen - en sinds Sandy Bridge.

Verder over de evolutie in games, die schaalt gelijk op met de evolutie in consoles. Dus de midrange van afgelopen generatie, zo'n beetje. Die vijf jaar haal je wel. De PS5 gaat ook geen aardverschuiving brengen met 8 Zen2 cores waarvan er een of twee voor het OS zijn en die zéker niet zo hoog klokken als desktop CPUs. We konden na vele jaren eindelijk de quadcore gedag zeggen - vandaag de dag bouw je geen gaming rig meer met 4c/4t als je slim bent. Maar met 8 cores of threads kom je er wel. Over vijf jaar zullen dat dan wel 8 echte cores moeten zijn.

Ik verwacht ook niet dat AMD zijn core count voordeel gaat weten te benutten in games. Als Intel een degelijke 8 core CPU heeft, en die is er al (9700K), is het wel best. En dan telt nog steeds die clockspeed van Intel. Het gat is al véél kleiner, nagenoeg nihil tenzij je een 4.8~5.0 Ghz all core hebt lopen. Maar al met al, ik zie geen aardverschuiving behalve als AMD op prijs blijft concurreren; en dat kunnen ze voorlopig prima volhouden.

Qua GPU's, de vaart lijkt er een beetje uit te zijn maar kan ook maar zo weer omhoog schieten als 7nm EUV wat verder is gevorderd. Navi is nog niet het beste wat deze node te bieden heeft.
En dan natuurlijk ook de crappy 1080 game prestatie...op ultra is AMD bijna altijd bij, en je gaat niet een 800€ 16 core halen om 1080 op medium te spelen...
Enige uitzondering is de niche van high refresh gaming. AMD heeft daar nog wel wat werk te verzetten. Soms gaten van 20 FPS average is niet mis als je een 144hz target hebt. En dat zal zeer zeker op 1080p zijn.

Deze tests geven vooral goed het verschil in absolute performance voor gaming weer, alle andere resoluties laten de GPU meewegen. Daarmee zijn ze ook een kijkje in de toekomst als GPUs sneller zijn geworden; het prestatieverschil kan dan weleens zichtbaar worden tenzij games lekker blijven schalen na 8 cores. In dat geval zal AMD betere kaarten hebben. Tegen die tijd zal echter ook Intel hierop gaan anticiperen.

[Reactie gewijzigd door Vayra op 14 november 2019 21:39]

Ermmm, sorry, maar nee, AMD heeft sinds Zen 2 (Ryzen 3000 serie) de hogere IPC. Alleen op clockspeed ligt Intel nog voor.

Logisch ook, als Intel op zowel IPC als clockspeed nog steeds een voorsprong had was AMD natuurlijk niet op het punt geweest waar ze nu zijn!

[Reactie gewijzigd door HuisRocker op 14 november 2019 20:48]

Verwar je nu IPC niet met core count?

Ryzen 3xxx klokt lager, maar heeft meer threads. De IPC is volgens mij nog niet 'hoger'... maar als je een bron hebt, houd ik me aanbevolen.

Komt overigens nog bij dat bij Ryzen de IPC sterk gerelateerd is aan IF clock en je RAM latjes, en bij Intel ben je met een 3000/cl15 setje wel klaar.


EDIT: I stand corrected. 8% winst in synthetics is niet mis.

[Reactie gewijzigd door Vayra op 14 november 2019 21:38]

Verwar je nu IPC niet met core count?
Nee.
Het volgende komt uit Tweakers review van de 3700X en 3900X:

"Het opvallende hieraan is het verschil met Intels ipc. Waar de eerste twee Ryzen-generaties aardig in de buurt kwamen bij Intel, bleven de Core-processors altijd de snelste klok voor klok. Met Zen 2 in de Ryzen 3-processors komt daar verandering in en is AMD bijna acht procent sneller."

Edit: Bij beide geen abnormaal geheugen gebruikt dat hier het verschil zou maken lijkt mij:
AMD - 2x8GB ddr4-3200 CL14
Intel - 2x8GB ddr4-2667 CL13

[Reactie gewijzigd door HuisRocker op 14 november 2019 21:01]

Er zijn zat reviews op internet te vinden ook op YouTube waar ze de nieuwe AMD met sneller geheugen testen..vooral in games heeft dit zeer grote impact. Zolang de IF van de core aangehouden blijft. Ik meen 1800 mhz standaard, dus 3600 mhz is dan de sweetspot, en overclocked kan deze dus nog hoger geheugen aan.

Ze hebben zelfs tests met 5ghz ddr4 die Ryzen 3 probleemloos draait! Als je nu bv bij Alternate COrsair geheugen koopt, kan je met RGB voor 106€ 16gb AMD optimised 3600mhz geheugen kopen met rgb!

Ik heb het "gewone" 3200 van Corsair welke hetzelfde kost! Als men daarmee de test doen, zal je zien dat de scores van alle Ryzen 3 cpu's enkel beter worden! Dit zijn zaken die ze hier ook goed weten. Overigens is het mij niet duidelijk of ze in de tests 3200 hebben gebruikt of dat het voorgeschreven geheugen is van AMD.
Aww, als je even de review erbij haalt zie je dat AMD op gelijke clock ongeveer 8% hogere IPC heeft, staat letterlijk in de tekst!

Ook staat het in Cinebench R20 en 15 in deze review dat AMD single core nu een hogere IPC heeft ondanks de lagere clock snelheid . Jammer dat mensen blijkbaar niet goed lezen!
Goed punt, niet gelezen - dank je. Ik ga de post hierboven corrigeren.
Ik tag @Vayra ook even, gezien het eigenlijk zijn discussie is.

Zo simpel als je dit hier stelt kun je dit niet stellen. Het is inderdaad waar dat AMD in verschillende workloads nu de beste IPC heeft, dit is echter wel iets dat je per workload moet bekijken en niet zoals in de Tweakers review met enkel cinebench, een test die ook nog eens AMD cpu's heel erg goed ligt waardoor je het gevoel krijgt dat AMD een enorme IPC lead heeft als je enkel van dat ene testje uit gaat.

Zie bijvoorbeeld deze review https://hothardware.com/r...9900k-ipc-shootout?page=1 , waar ze redelijk veel zaken testen om de IPC te vergelijken in meerdere workloads.

Waar je ziet dat de Intel cpu het grootste aantal IPC tests wint (volgens mij 8-3 in het voordeel van Intel).

Moraal van het verhaal, er is niet zoiets als Zen 2 heeft een hogere IPC dan Intels Coffee Lake-R architecuur. Je zal dit als je dit wil weten per workload moeten uitzoeken. En daarin zal AMD diverse workloads winnen echter zal Intel ook in diverse workloads het beste IPC hebben.

Zelf testen en kijken wat voor jouw specifieke workload het beste is blijft dus aan te raken. En enkel 1 testje om IPC te duiden is zeker niet voldoende om conclusies uit te trekken.
Het maakt niet uit voor wie die segment is of hoe lang die met een CPU doen. Als je op 4k test, dan test je de CPU niet en heeft de benchmark weinig waarde

Dat games steeds beter om gaan met meer cores zou nog wel eens in het voordeel van de AMD cpu's van dit moment kunnen zijn, maar ik vermoed zelf dat het mee gaat vallen. Spellen zoals The Division 2 schalen nagenoeg perfect over alle cores en de Intel pakt daar nog 10% winst

[Reactie gewijzigd door Pindamann op 14 november 2019 21:32]

True ik zie dat ook nu eindelijk gebeuren op mijn quad core CPU, games kunnen nu daadwerkelijk 4 threads aanspreken dat heeft behoorlijk lang geduurd.
Battlefield V zag ik 8 voorbij komen waardoor de CPU nu op 100% kan draaien, waarbij HT inschakelen weer nut heeft bij games.

Planet zoo is ook een spelletje wat zeker 4 threads kan aanspreken, maar in verleden was dat echter niet zo en heeft behoorlijk lang geduurt, Ontwikkelaar gaf aan "multi threaded" maar in feite was het niks anders dan een beetje "hoppen" over de threads/cores en stond er maar 1 of 2 threads volledig open terwijl de rest idle was.

HT aan gaf bij de meeste games duidelijk fps degredatie, nu gelukkig niet meer.

[Reactie gewijzigd door mr_evil08 op 14 november 2019 22:14]

Ik denk eerlijk gezegd niet dat er ook maar 1 CPU leverancier is die CPU voor enthousiastelingen maakt. Daarvan zijn er veel te weinig. AMD en Intel maken CPU's voor HP, Dell, Lenovo, Apple, etc etc. Die enkele enthousiasteling is bijvangst.
Haha "op ultra is amd bijna altijd bij".

Ja, op 1000000x1000000 resolutie is zelfs een ouwe Cyrix 166Mhx processor 'net zo snel' als een Ryzen, want goh, ze lopen beide te apegapen en halen ze 'met gemak' allebei 0.01fps.

M.a.w. gewoon lekkerde bottleneck artificieel wegnemen. Waarom uberhaupt testen dan? Je loopt dan moedwillig de tragere processor te verdoezelen door game benchmark reviews niet op minimaal 95% van de tijd cpu bound te laten draaien.

Die hele 1080/4K/Low/Medium/Ultra gaat helemaal nergens meer over, ten eerste is cpu en gpu usage over de lengte van de gameplay totaal variabel, waar je op de ene locatie of actie totaal cpu bound bent, ben je ergens anders weer totaal gpu bound. Misschien valt dit met de hedendaagse EA duplicates en rehashes mee..En natuurlijk zijn dit extreme voorbeelden, maar toch.

Ten tweede, veel games zijn inherent cpu bound en extreem slecht geprogrammeerd, menig MMO kan je op volle actie niet op 100+ fps spelen op je mooie 100+hz scherm want je GPU zit als bijeffect op 10% utilizatie.

Dan heb je nog meer competitive oriented gamers zoals mij die zo goed als altijd max fps, minimale graphics spelen. Geloof mij maar dat die resultaten die tweakers en menig reviewer laten zien ik die situatie een heel stuk slechter uit de bus komen, want 99% van de tijd zit je gewoon je CPU uit te kneipen voor dat laatste beetje performance.

Die benchmarks van tegenwoordig moet je met een grain of salt nemen want dit zijn geen echte benchmarks meer. De boel verdraaien en moedwillig games half gpu bound maken op een test schiet toch echt in het verkeerde keelgat. Want dat is zo'n beetje wat menige reviews laten zien. Nul verstand.

[Reactie gewijzigd door Marctraider op 15 november 2019 05:02]

Ik post hier een link van Hardware Unboxed: https://www.youtube.com/watch?v=iH3qq_mSxTM

Hier laat men duidelijk zien dat hogere ram speed de Ryzen serie erg beïnvloed en dan wel ten goede.
Hier doen ze best veel tests met 1080P ultra. Ook voor normal komt dit ten goede. Dit omdat de Infinity fabrick op de IO chip zit bij AMD, waardoor er meer latency is.

De IO fabrick valt ook nog eens te overclocken, maar gewoon sneller geheugen gebruiken met de juiste instellingen zal het enorm verbeteren. Ik kan even de andere test niet vinden, maar dit geld dus voor alle applicatie's niet enkel gaming.

Intel heeft weinig baat bij sneller geheugen(wel iets verbetering) t.o.v AMD.
Als je zeg 850€ voor een CPU uitgeeft dan is 100€ extra voor snel geheugen ook geen issue, en 3600mhz is zelfs amper duurder.

Dan zullen de verschillen een stuk kleiner zijn tussen AMD en Intel qua gaming, en zal het gat tussen performace enkel groter worden in het voordeel van AMD.

Vergeet ook even niet dat Intel CPU performance door alle patches is afgenomen, en Tweakers hier bv nog de oude waarden aanhoudt, die nu niet meer haalbaar zijn met standaard instellingen!
Het beste is voor hardware benchmarks om niet blindelings te vertrouwen op één site, anders ga je bedrogen uitkomen.

Ik denk niet dat er nog echt objectieve benchmark tests en reviews bestaan, maar door een aantal verschillende van de betere tests te vergelijken kun je toch vaak door de marketing dictaten heen zien.

In deze review lijkt de reviewer zich vooral druk te maken waarom deze nieuwe zware processor toch niet een sprong vooruit lijkt te zijn, wellicht moet men dit soort commentaren ook meenemen in het lezen.

Inderdaad, waarom is deze processor toch geen grote sprong vooruit in performance? Het is dus geen grote sprong vooruit in performance en hiervoor worden allerhande zaken bijgedragen in de vorm van speculatie, maar dat veranderd verder niets aan de resultaten.

Wat mij persoonlijk opviel is het feit dat de Intel benchmarks voor SHA3 en fractal berekeningen zo ver vooruit lopen op AMD, want in mijn ervaring goed overeenkomt met de realiteit dat AMD processoren over het algemeen te kort schieten in ruwe rekenkracht.

Nu heb ik ook andere benchmarks van de oudere recente processoren gezien waarbij AMD veel verder vooruit lijkt te lopen op Intel, echter in mijn ervaring, was Intel in de praktijk altijd veel sneller. Ik heb geen

Een laatste kanttekening wil ik plaatsen in de data die er in deze benchmarks gepresenteerd worden, er lijkt werkelijk geen enkele logica in de progressie van de hardware te zijn, en in mijn optiek is er hier duidelijk iets mis met de review.

Wat er mis is kunnen mensen zelf wel over speculeren, maar zoal ik al zei, het beste is om niet blindelings te vertrouwen op één review en door verschillende review vergelijken krijg je toch vaak een realistischer beeld.

Als tip kan ik aangeven, probeer ook de reviews te vergelijken waarbij de reviewer meer laaiend lijkt te zijn voor het ene product, maar dus ook voor de concurrentie. Beiden review laten over het algemeen zaken weg en maken vreemde keuzes wat betreft benchmarks en test materiaal.

We leven nu eenmaal in een post-waarheid cyber wereld, waar alles gefaked kan worden en ook gefaked wordt en waarbij bedrijven als Twitter, Google en Facebook de arbiters van waarheid zijn geworden, echter deze bedrijven werken uitsluitend voor winstbejag en hun waarheden zijn wellicht niet dezelfde als vanuit uw of mijn perspectief.

''Money is speech'' niet alleen in politiek maar voor alle zaken, die allemaal ook weer gepolitiseerd zijn, inclusief test reviews.
als je naar intel kijkt moeten ze nogmaals 50% van hun huidige prijzen afhalen om het interesant te maken voor de consument, omdat zelfs hun top of de line model van 1000$ nog niet eens tegen het 500$ model van AMD op kan.

en dan was die 1000$ eerst 2000$.

je bent een dief van je eigen portomonee als je nog voor intel gaat met de nieuwe ryzen's die binnenkort uitkomen
je hebt gelijk, LTT kwam gisteren met een juichende review en hun benchmarks gaven een totaal ander beeld dan die van tweakers.
Sinds wanneer is een cpu van 750 euro een "mainstream" processor?

In de best buy guide van Tweakers is in het "mainstream game systeem" 125 euro uitgetrokken voor de cpu, en in het high-end systeem 335 euro. Deze cpu valt dus onder ulta-mega-uber-high end als je het mij vraagt. Kunnen we het dan aub ook gewoon zo noemen?
(https://tweakers.net/revi...instream-gamesysteem.html)

[Reactie gewijzigd door onok op 14 november 2019 15:17]

Het is een mainstream platform (M4), hetzelfde platform waar ook de lagere Ryzens op zitten.
Maar het is inderdaad geen mainstream processor. Dit is echt voor workstations ed.
Het gaat niet om de kosten maar om het platform waarop het draait. Bij Intel is socket 2011 (of welke dat nu ook is) de high end variant en de 1151 variant de mainstream.
Daarom begreep ik ook niet waarom er geen i7 of i5 processors tussen zaten, i9 is echt high-end dat zijn Intel top modellen(consumenten markt).
Tot 2017 waren we gewend aan quadcores in de desktop. Intel bracht in januari 2017 nog zijn Kaby Lake-processors uit met maximaal vier cores, goed voor acht threads. Een paar maanden later schudde AMD de desktopmarkt wakker met zijn eerste generatie Ryzen-processors, met maximaal acht cores in een mainstreamplatform.
Een beetje een vreemde intro gezien ik en vele andere tweakers al sinds jaar en dag een AMD FXxxxxx draaien..
Was er laatst geen uitspraak dat het geen 8 core cpus waren?

Edit: nieuws: AMD schikt zaak over 'misleiding' met aantal cores FX Bulldozer-proce...

Edit2: Het was geen uitspraak, de rechter noemde AMD's uitleg een discussie punt voor de rechtszaak waarna AMD schikte.

[Reactie gewijzigd door dannyh53 op 14 november 2019 20:30]

Ik raad je aan dat artikel en de bron iets verder door te nemen dan enkel de kop. De zaak was nml. iets genuanceerder dan dat. Er is geen uitspraak geweest, de rechter achtte de verdediging van AMD omtrent de definitie van een core net een fundamenteel onderdeel van de zaak en heeft deze daarom ontvankelijk verklaard waarop AMD besloot te schikken ipv een dure juridische strijd te voeren.

Er heeft zich dus geen rechter uitgesproken over wat wel en niet een cpu core genoemd mag worden.

[Reactie gewijzigd door Robby517 op 14 november 2019 18:46]

Feit blijft wel dat de FX CPUs geen cores hadden met elk hun volledige eigen set resources ter beschikking. Juist het gedeelde karakter van de modules maakte dat de prestaties tekort schoten. De realiteit is dat deze CPUs meer weg hadden van 4 cores met een vreemd soort SMT.

De schikking en de zaak snijden wel degelijk hout. De AMD marketing was ook gefocust op de hogere core count.

[Reactie gewijzigd door Vayra op 14 november 2019 21:46]

Klopt wel, tijd geleden, mijn comment ook aangepast.

Vind het wel jammer dat AMD deze strijd niet aangegaan is, was wellicht interessant geweest. Of het "normale" volk had het in 2 tellen misleiding genoemd omdat ze er de ballen verstand van hebben.
Los van de discussie over wat een core nou precies is, FX chips waren gewoon waardeloos vergeleken met intel's spullen, in de meeste use cases. Ja, er zijn uses cases waarin de FX het wint, Ja, de bang/buck was redelijk nadat AMD de prijzen hard snoeide, maar kom op...

Heb ooit voor de grap een FX4130 in een secundair systeempje gehad, als je dat vergeleek (zowel kwa performance, als kwa warmte output etc..) met de ivy bridge i5 in mn main rig destijds... absoluut beschamende chips voor een fabrikant als AMD
Ik weet niet wat dit echt toegevoegd aan mijn reactie, we moeten hier toch geen bbg van 5 jaar geleden opmaken? Voor mijn use case als developer die thuis af en toe wat vms lokaal draait was dit gewoonweg een fantastische cpu voor de prijs.
Oh absoluut, maar ze zijn compleet niet te vergelijken met een 8 core ryzen of intel chip.
Kon je prima op gamen, beetje overklokken en gaan, je bent een beetje laat met je amd bashen |:( |:( |:(
Ik bash AMD niet, ik bash een slecht product wat toevallig door AMD gemaakt is, hetzelfde
AMD Wat Intel prima bij/voor kon blijven met de Athlon XP, 64, X2, Phenom II en Ryzen chips. De FX lijn is gewoon een verkeerde gok geweest, en daarna slecht doorontwikkeld (geen node shrinks, de laatste twee iteraties kwamen niet naar AM3+).

Ik heb in mijn hele carriere slechts twee keer een intel CPU in mijn main rig gehad, een C2D en dus een ivy bridge i5, beide keren omdat intel duidelijk stukken beter was. Als ik ergens fanboy van ben, is het AMD cpus, ik koop alleen geen slechte producten
Precies, hele fijne processoren. Heb ik ook jaren in mijn dev/gaming machine gedraaid en nooit problemen mee gehad.

Tweakers heeft Thanos ingezet om de helft van de procs te laten verdwijnen denk ik 8)7
Zoveel zullen het er niet geweest aangezien in dat tijdperk AMD's marktaandeel tot een diepte punt gedaald is.

Het overgrote deel verkochte desktop cpu's tot de ryzen launch van begin 2017 zijn quad cores of minder, zo heel vreemd is die infro dus niet. Quad cores waren immers gewoon de standaard. Ook al waren er her en der wat 6, 8 en 10 cores te koop.
Ja vond t ook al raar. Ik draai nog steeds mijn pc uit 2011 met een AMD 1100T 6 core processor (als ik mij niet vergis in 2009 uitgebracht).
Moet ik wel zeggen dat er toen al weinig 4 core gebruikers in mijn omgeving waren. Dus opzich snap ik t, maar t klopt niet.
Mag het toch ietsje genuanceerd worden dat de AMD net niet sneller is in games dan de i9900ks? Een zwak punt is gewoon niet het geval gezien de kleine verschillen en het grote verschil in stroomverbruik tussen AMD en Intel. In de praktijk merk je het dus niet.

Wat me ook verbaast is dat er met geen woord gerept wordt over de hardwarematige veiligheidslekken in de Intel processors. Voor mij een belangrijk argument om Intel links te laten liggen.

[Reactie gewijzigd door MartineEekhof op 14 november 2019 15:15]

Het niet ingaan op hardwarematige beveiligingsissues snap ik opzich wel. Het is inmiddels algemeen bekend dat iedere cpu hier in meer of minder mate mee te maken heeft, AMD minder dan Intel, maar ook AMD is niet vrij van lekken. Het iedere keer opnieuw benoemen voegt niet veel toe en de benchmarks laten de eventuele impact van deze lekken toch wel zien.

Ik denk dat je gaming best als zwak punt kan benoemen, de resultaten zijn niet slecht, maar het is wel duidelijk dat deze cpu geen meerwaarde biedt voor gamers (al was dat eigenlijk zonder review ook al wel duidelijk). Wil je een cpu voor gaming, koop dat een goedkoper AMD model of een Intel en je haalt dezelfde of betere prestaties in huis voor minder geld. Daar deze cpu echter wel geadverteerd wordt als game cpu mag het ontbreken van extra game performance over (veel) goedkopere modellen best benoemd worden.
neem dan ook de vaak brakke drivers van AMD mee.
Brakke CPU drivers?

Is meer een dingetje van GPUs toch?
Volgens mij ook. Ik heb me de afgelopen jaren er niet heel erg in verdiept, maar ik weet dat een paar jaar terug, de ondersteuning van AMD echt slecht was bij kleine ontwikkelaars. Waar Nvidia meewerkte om goede/optimale performance te halen, liet AMD deze developers regelmatig in de steek. Met veel Early Access spellen, maakte dat AMD een stuk minder aantrekkelijk als videokaart.

Maar met drivers heb ik volgens mij nooit gezeur gehad, ook niet bij Intel.
"Waar Nvidia meewerkte om goede/optimale performance te halen, liet AMD deze developers regelmatig in de steek."

Deze zin is ook te verwoorden als:

"Waar Nvidia veel geld in de klauwen van developers duwde onder voorwaarde dat ze AMD kaarten bottleneckten door Nvidia™ Hairworks™ of iets dergelijks te implementeren wat énkel op Nvidia kaarten goed werkte deed AMD niet zulke soortgelijke 'investeringen'."

Allebei zinnen die onvolledig de werkelijkheid neerschetsen.. ;)

[Reactie gewijzigd door Ayporos op 14 november 2019 18:30]

Dus developers die zeiden dat AMD niet met ze wilde samenwerken totdat het spel bijna klaar was voor release, dat is niet de werkelijkheid?
'onvolledig' is een woord met een andere betekenis dan 'niet'.

Sla er een woordenboek maar eens op na als je me niet geloofd. ;)
En een auto is geen trompet. Wat is je punt?

Die developers hebben heel duidelijk gezegd, dat AMD weigerde om ook maar iets te doen totdat het spel dichter bij release zat. Tevens was dit het spel Ark Survival Evolved, wat destijds voor een Early Access spel een gigantisch success al was, mogelijk nog steeds de meest succesvolle EA launch. AMD weigerde, ook een jaar na die launch, nog steeds maar op enige manier met ze samen te werken.

Dus tenzij je argument is dat ze logen, dan is de werkelijkheid volledig, dus dan gaan we over naar het woord niet.
Ik zeg niet dat AMD goed gehandeld heeft.
Mijn doel was enkel te nuanceren dat Nvidia ook niet per se het lievertje van de klas was...

Jou post, waarin je dit zegt:
"Waar Nvidia meewerkte om goede/optimale performance te halen"
Samen met de rest van jou post doet de indruk wekken dat Nvidia goed samenwerkt en AMD niet.
Dat kan natuurlijk prima waar zijn, maar het leest alsof Nvidia goed is en AMD slecht in samenwerken met ontwikkelaars... En dát is mijns inziens een onvolledige waarheid omdat tijdens dat 'samenwerken' Nvidia ook nog wel eens de neiging heeft om hun eigen proprietaire technieken op te dringen/te 'sponsoren' om zo een voordeelslag te halen t.o.v. AMD. Neem FFXV als voorbeeld en die beruchte benchmark daarvan.
Nvidia™ HairWorks™ uitzetten leid daar tot een performanceboost van 37% voor AMD kaarten tegen slechts 15% voor Nvidia kaarten.

Ja als je op die manier 'samenwerkt' met ontwikkelaars is het wel makkelijk natuurlijk om te zorgen dat hun spellen beter op jou eigen hardware draaien.. Gewoon zorgen dat er grafisch intensieve code in draait die closed-source is waar jij JOU drivers wél op kunt optimaliseren terwijl de concurrent dat niet kan. 8)7

[Reactie gewijzigd door Ayporos op 14 november 2019 22:28]

AMD staat wel enigzins bekend als een partij die vrij slecht is in het leveren van support. Je ziet dit op veel meer punten, game developers hebben inderdaad aangegeven dat AMD vergeleken met bijvoorbeeld Intel , maar volgens mij inderdaad ook AMD veel minder support levert op het gebied van engineering. Wat opzich ook niet vreemd is, want Intel heeft meer software engineers in dienst voor ondersteuning bij validatie, optimalisatie e.d. dan AMD aan totaal personeel heeft.

Een ander voorbeeld is een maat van me die werkt bij een grote software leverancier voor Cloud en On-Premise, als zij nieuwe platformen willen valideren voor hun software is Intel altijd pro-actief en levert hardware maar ook mankracht, ze hebben hetzelfde aan AMD gevraagd toen Epyc uit kwam echter die wilden / konden geen ondersteuning leveren op de schaal zoals zij dat van Intel gewend waren.

Ook bij OEMs hoor ik dit naar voren komen, je hoort vaak geklaag waarom hebben Dell / HP e.d. niet evenveel product lijnen bij de desktops en laptops als dat Intel heeft. Wat je dan aan de kant van de OEM hoort is dat AMD niet veel wil investeren in ontwikkeling en marketing.

Het hebben van alleen een goed product is niet genoeg, in ieder geval nog niet op dit moment. AMD zal ook moeten investeren in andere zaken zodat ze niet alleen Intel evenaren op technisch vlak, maar ook op het gebied van support op software en hardware vlak, product ontwikkeling maar ook marketing.
Nee, de AGESA updates waren en zijn essentieel voor Zen. Voor Intel mag je dan weer geregeld een security fix doorvoeren :)

[Reactie gewijzigd door Vayra op 15 november 2019 09:35]

Ik draai al jaren op AMD en van Brakke drivers weinig last gehad.
Jij misschien veel.
In alle twee de gevallen zegt het niet zoveel.
Ik snap niet waarom mvds wordt gedownmod.

Het is vrij duidelijk dat AMD aan het stunten geweest is met hun chipsetdrivers en tot de recente agea 1.0.0.4 updates (bios) en chipsetdrivers (en 1909 windows update) hebben ryzen chips niet de beloofde boostsnelheden gehaald als waar ze voor verkocht waren. Dat nog los van vreemde hickups in games omdat threads all over the place gaan.

Ryzen2 is prematuur in de markt gezet, de bios/drivers waren er nog niet naar.
Heel dat gekakel omheen de boost snelheden gaat toch nergens over. Boehoe, je komt 1% kloksnelheid tekort. De chip werkt, je krijgt performance die gelijk is aan de beloofde performance, het ding klokt automatisch per core naar wat die specifieke chip aankan... sneller RAM installeren geeft nog meer verschil dan die paar MHz die missen. En dat allemaal voor een goede prijs?
Je hoort me niet klagen over de chips. Ik zeg alleen dat mvds gelijk heeft over het feit dat er driver issues zijn.
"Sneller en zuiniger, maar met een relatief zwak punt, waarvan vrijwel alle Ryzen-processors al van meet af aan last hebben: het is niet de snelste gameprocessor."

En alleen maar testen 1080P.....echt belachelijk
op hogere resoluties zit je de videokaart te testen, niet de processor: op 1080p is de cpu en niet de gpu de grootste bottleneck.
En nu zit je met scores in de 200FPS iets waar geen enkel spel moeite voor zal doen om dat te verbeteren en dus volkomen afhankelijk van de game engine. Op hogere resoluties is de videokaart de bottleneck en dus is er voor game developers ook niet veel motivatie om de CPU code ook nog uit te voeren met AMD Ryzen geoptimaliseerde code. Voor Intel zijn deze paden al lang geoptimaliseerd in de afgelopen jaren toen CPU veel vaker een issue was.

Deze game benchmarks op 1080p en score's zorgen er nu voor dat de Ryzen weer aangemerkt wordt als minder geschikt voor gamen terwijl het in de praktijk (hogere resoluties) amper uitmaakt. Dat geeft dus ook een vertekend beeld, dus graag de volgende keer ook ff testen op een resolutie waar de fps onder de 60 0 gaan, anders vind ik ik de game benchmarks een beetje overbodig en lees ik ze niet meer (ik kijk nl. altijd eerst naar de scores als deze allemaal boven de 100 zijn vind ik de test nutteloos). Misschien dat de high FPS gamers het wel interessant vinden
En nu zit je met scores in de 200FPS iets waar geen enkel spel moeite voor zal doen om dat te verbeteren en dus volkomen afhankelijk van de game engine. Op hogere resoluties is de videokaart de bottleneck en dus is er voor game developers ook niet veel motivatie om de CPU code ook nog uit te voeren met AMD Ryzen geoptimaliseerde code. Voor Intel zijn deze paden al lang geoptimaliseerd in de afgelopen jaren toen CPU veel vaker een issue was.

Deze game benchmarks op 1080p en score's zorgen er nu voor dat de Ryzen weer aangemerkt wordt als minder geschikt voor gamen terwijl het in de praktijk (hogere resoluties) amper uitmaakt. Dat geeft dus ook een vertekend beeld, dus graag de volgende keer ook ff testen op een resolutie waar de fps onder de 60 0 gaan, anders vind ik ik de game benchmarks een beetje overbodig en lees ik ze niet meer (ik kijk nl. altijd eerst naar de scores als deze allemaal boven de 100 zijn vind ik de test nutteloos). Misschien dat de high FPS gamers het wel interessant vinden
Natuurlijk is het observerend vermogen bij elk mens verschillend maar het verschil tussen gaming op sub-60 fps, 60 fps en 120+ fps zal voor vrijwel iedereen merkbaar zijn.

Vergis je niet, zelfs op een 60 Hz monitor kun je in een shooter nog baat hebben bij hoge fps. Je inputs worden immers door de cpu verwerkt en doen pas in de volgende frame mee. Dat is per definitie dus 1/60=16ms later, soms zelfs 2 frames = 33ms later. Hoe hoger de fps, des te sneller je inputs in je frames verwerkt zitten. Dat is ook de basis van bijvoorbeeld AMD anti lag. Daar wordt in jip en janneke taal de cpu een beetje geknepen zodat je inputs in de juiste frame terecht komen. Dat is ook meteen de reden waarom anti-lag weinig toevoegd bij meer dan 120 fps, dan is die tijd al kort.
quote: AMD
“Games produce frames of animation by pairing work done on the CPU with work done on the GPU. The CPU begins its work first, and it feeds work to the GPU as it works its way through a frame. In most use cases, the GPU workload is the primary performance constraint. We call this a GPU-limited scenario.

In such scenarios, games perform the CPU work at least one frame ahead of the GPU work, resulting in two frames of latency in total. The delay between the click of the mouse – registered during the CPU work for the frame – and the response on the screen – produced by the GPU – can expand to cover the time required for the GPU to process two full frames or more. At 60 FPS that delay is 33.3 milliseconds (two frames at 16.7ms each) or more

In such cases, Radeon Anti-Lag dynamically improves the pacing of the CPU work, allowing the GPU work to overlap a significant portion of the GPU work, so the CPU doesn’t get too far ahead of the GPU. As a result, Radeon Anti-Lag can, in theory shrink input lag by almost a full frame – nearly 16.7ms at 60 FPS – restoring responsiveness to your game. The impact is quicker response times and a more direct connection between your actions and the results shown on screen”
(Er bestaat overigens een artikel waarin wordt uitgelegd waarom 300 fps zinnig is voor counterstrike spelers, inclusief wat figuren. Kan hem zelf niet meer vinden, als iemand hem nog kan vinden dan graag even reageren!).

Verder zijn met name de hoge frame rates interessant want in veel games komt er dan pas een flinke cpu overhead. In games als rainbow six siege kun je met een upgrade van een sandy bridge/haswell (2xxx,4xxx) naar een Skylake/coffee lake/ryzen3 afhankelijk van je gpu letterlijk 40 fps winnen.

[Reactie gewijzigd door sdk1985 op 14 november 2019 17:37]

Vergis je niet, zelfs op een 60 Hz monitor kun je in een shooter nog baat hebben bij hoge fps. Je inputs worden immers door de cpu verwerkt en doen pas in de volgende frame mee.
Vrijwel geen enkele moderne game engine heeft input/physics en de framedraw nog aan elkaar hangen zoals vroeger bij bv de IdTech 3 engine het geval was, waar je voordeel had aan 90/120 frames i.c.m. strafe/rocket/trick jumpen.

Unreal Engine, CryEngine en Frostbite al jaren niet en sinds vorig jaar ergens heeft Unity dit ook los weten te koppelen.

Bij CS doet framerate er nog toe omdat de Source Engine dat nog van de IdTech3 engine meegenomen heeft en de Frame en physics/input niet van elkaar gescheiden zijn. Maar dit is een uitzondering in het huidige gamelandschap.
[...]

Vrijwel geen enkele moderne game engine heeft input/physics en de framedraw nog aan elkaar hangen zoals vroeger bij bv de IdTech 3 engine het geval was, waar je voordeel had aan 90/120 frames i.c.m. strafe/rocket/trick jumpen.

Unreal Engine, CryEngine en Frostbite al jaren niet en sinds vorig jaar ergens heeft Unity dit ook los weten te koppelen.

Bij CS doet framerate er nog toe omdat de Source Engine dat nog van de IdTech3 engine meegenomen heeft en de Frame en physics/input niet van elkaar gescheiden zijn. Maar dit is een uitzondering in het huidige gamelandschap.
Wut? Een frame gaat gewoon naar een frame buffer en dan naar je videokaart. Een frame dat af is kan per definitie geen inputs meer verwerken.
quote: AMD
“Games produce frames of animation by pairing work done on the CPU with work done on the GPU. The CPU begins its work first, and it feeds work to the GPU as it works its way through a frame. In most use cases, the GPU workload is the primary performance constraint. We call this a GPU-limited scenario.

In such scenarios, games perform the CPU work at least one frame ahead of the GPU work, resulting in two frames of latency in total. The delay between the click of the mouse – registered during the CPU work for the frame – and the response on the screen – produced by the GPU – can expand to cover the time required for the GPU to process two full frames or more. At 60 FPS that delay is 33.3 milliseconds (two frames at 16.7ms each) or more

In such cases, Radeon Anti-Lag dynamically improves the pacing of the CPU work, allowing the GPU work to overlap a significant portion of the GPU work, so the CPU doesn’t get too far ahead of the GPU. As a result, Radeon Anti-Lag can, in theory shrink input lag by almost a full frame – nearly 16.7ms at 60 FPS – restoring responsiveness to your game. The impact is quicker response times and a more direct connection between your actions and the results shown on screen”
Zal hem daarboven ook even toevoegen.

Jij behoort tot de groep die het verschil tussen 30,60 en 120 fps niet kan waarnemen (geen schande)?

[Reactie gewijzigd door sdk1985 op 14 november 2019 17:38]

Ook belangrijk is het kijken naar frametimes en 99% om te weten of het stabiele frames zijn. Ik heb destijds voor die reden een 6700k gekozen over een non k of 6600k. Om net wat stabieler te blijven.
Als je op basis van deze resultaten denkt dat Ryzen ongeschikt is om op te gamen dan kun je niet lezen. Dit probleem zit echt bij de lezer. De conclusie had het wel wat scherper mogen stellen, want laten we eerlijk zijn, de 9900K(S) is nou niet bepaald een perfecte CPU (heet, security zo lek als een mandje, verbruik door het dak en verhoudingsgewijs duur).

[Reactie gewijzigd door Vayra op 14 november 2019 21:49]

Ik snap deze redenering, maar je moet je ook realiseren dat dit op geen enkele manier representatief is voor de realiteit.

Niemand die 750,- voor een CPU betaalt en het systeem gebruikt om op te gamen zal dat op 1080p doen. Als je zo'n dikke portemonnee hebt, kan je ook wel wat extra centjes uitgeven aan toch wel minstens een 1440p monitor. In die zin is het een totaal onrealistische use case. Prima dat je op 1080p test om de verschillen tussen CPU's onderling te testen, maar doe er ook hoge resoluties bij om te laten zien dat op 1440p of hoger de CPU allang niet meer de bottleneck is.

Ik wil jullie vragen jullie conclusie te nuanceren. Iemand die alleen de conclusie leest en twijfelt tussen de 9900k en een 3900x of 3950x, zal met gaming in het achterhoofd voor Intel gaan terwijl het verschil in de praktijk gewoon niet bestaand is, tenzij je met een 2080Ti op 1080p gaat gamen. Maar wie doet dat nou...

Op de andere (niet gaming) gebieden zijn de verschillen tussen Intel en AMD veel groter, wat AMD inherent gewoon de betere koop maakt. Dat moet de boodschap zijn imho.

[Reactie gewijzigd door Blaat op 14 november 2019 15:26]

Ik vind dat
Dat betekent niet dat de 3950X langzaam is als je gaat gamen; in veel gevallen zal je videokaart gewoon de bottleneck zijn, maar feit blijft dat de 9900K(S) van Intel toch net iets sneller is.
redelijk genuanceerd is?
Dat is niet wat mensen lezen. Dit is waar ik op doel:
Maar puur voor gaming kun je waarschijnlijk beter bij de concurrentie aankloppen.
...maar met een relatief zwak punt, waarvan vrijwel alle Ryzen-processors al van meet af aan last hebben: het is niet de snelste gameprocessor. Tot dusver is geen Ryzen-cpu dat geweest en ook voor de hoogstgeklokte geldt: er zijn snellere Intel-processors.
Voor 1440p of hoger zijn die statements simpelweg incorrect. Leg de nadruk op de resolutie, de conclusie vind ik in zijn huidige vorm te eenzijdig.
Puntje, ik heb wat aangepast.... Neemt overigens niet weg dat je, zoals er ook stond, puur voor gaming beter bij Intel kunt zijn: die zijn immers snel genoeg en goedkoper...
Veel beter zo, bedankt! :)

Ik vind dat alleen een andere discussie worden.

Als het puur om gaming gaat, hoef je niet in deze prijs bracket te kijken. Daar volstaat een Ryzen 3600 in de praktijk ook prima in 99% van de gevallen. Maar ook hier geldt, AMD biedt dan meer waar voor je geld dan Intel. De directe concurrent (op prijs) van de Ryzen 3600 is de 9600k en die laatste legt het toch echt af in de modernste games door het gebrek aan threads.
Beste Willem,

Neem je dan wel de veel hogere energie vebruik ook mee in de vergelijking. Plus het feit dat het nog onzeker is wat de performace penalty gaat worden met de nieuwe kwetsbaarheden "https://nl.hardware.info/nieuws/69285/alle-intel-cpus-sinds-2013-zijn-slachtoffer-van-nieuwe-zombieload-v2-processorbug"

Groet,
Waarom zou dat onzeker zijn? Dat kun je namelijk simpelweg nu al testen, de microcode updates zijn immers al beschikbaar. De eerste initiele tests die ik gedraaid op heb op een aantal laptops met zakelijke workloads laten tussen de nieuwe microcode van gister en die van eerder dit jaar (MDS) eigenlijk geen enkel verschil in performance zien.

Of het op jouw workloads enig verschil maakt kun je ook gewoon zelf testen.
Beste Willem,

Neem je dan wel de veel hogere energie vebruik ook mee in de vergelijking. Plus het feit dat het nog onzeker is wat de performace penalty gaat worden met de nieuwe kwetsbaarheden "https://nl.hardware.info/nieuws/69285/alle-intel-cpus-sinds-2013-zijn-slachtoffer-van-nieuwe-zombieload-v2-processorbug"

Groet,
Wat is het verband tussen performance en kwetsbaarheid?
Dat de patch om die kwetsbaarheid te dichten een negatief effect op je performance kan hebben.

Ruw voorbeeld:
- Er zit kwetsbaarheid in hyperthreading
- patch: disable hyperthreading or forceer het door extra berekeningen/checks
- gevolg: je performance is nu slechter. :+

Het is hetzelfde als hoe een (software) firewall je PC's performance en internet snelheid aantast: het moet immers eerst door een poortwachter heen die betaald moet worden (CPU cycli) en die tijd nodig heeft om z'n check te doen (latency)

[Reactie gewijzigd door Ayporos op 14 november 2019 18:36]

Neen, want voor die lagere prijs heb je ook weer een AMD die aan een lagere prijs dezelfde prestaties levert.
Nee, snel genoeg zijn de Ryzen alternatieven op een lager prijspunt, meestal. En daarbij is het platform ook eigenlijk wel wat beter nu. Ik denk dat je dit beeld echt wat moet bijstellen.

De enige niche die Intel nog heeft is E-sports, denk ik. High refresh boven alles als je veel centen te besteden hebt. En zelfs dan is Ryzen niet per definitie verkeerd meer.

[Reactie gewijzigd door Vayra op 14 november 2019 21:53]

tenzij je met een 2080Ti op 1080p gaat gamen. Maar wie doet dat nou.
Mensen die de RTX-functionaliteit op het hoogste zetten en toch meer dan een slideshow willen ;)
Dan is de GPU al helemaal de bottleneck.
Nog altijd zit zeker driekwart van de gaming rigs gewoon op 1080p hoor. Ook die met een dikke GPU. Persoonlijk zie ik ook weinig reden om hoger te gaan voorlopig.

[Reactie gewijzigd door Vayra op 14 november 2019 21:55]

Maar dat zijn niet de mensen die een 3950x kopen.
Op hogere resoluties wint amd vast, daarom laten ze het niet zien...
Dan nog. Als jullie stellen (en het klopt hoor, daar niet van) dat bij gaming op hogere resoluties de belasting met name op de GPU komt te liggen, dan vind ik dat jullie of a) gaming tests helemaal achterwegen moeten of b) gaming tests op meerdere resoluties moeten uitvoeren (1080p, 1440p en 4K) en dan, voor wat de CPU performance betreft, dan een gemiddelde moeten nemen en de conclusie daarop baseren. Want als je echt alleen de CPU wilt testen in games, waarom dan nog 1080p, en niet 720p of een nog lagere resolutie?

Je kunt je namelijk afvragen in hoeverre een game benchmark zin heeft bij de test van een CPU als deze, lettende op welke mensen een dergelijke CPU aanschaffen. Daarbij denk ik met name aan mensen die hobbymatig of semi-professions aan content creation en rendering doen (photo editing, video editing, software development, mathematische berekeningen etc.) of mensen die willen virtualiseren. Daarnaast heb je nog een kleine groep enthousiasten die gewoon het grootste/zwaarste/beste ding willen, gewoon omdat het kan. Met name die laatste groep zal dan niet alleen een dure CPU nemen, maar ook een hele dure GPU en ik verwacht niet dat zulke personen op 1080p gaan spelen; die hebben allang een (of meerdere) 4K of soortgelijkig scherm staan.

Kortom: test bij een CPU games op meerdere resoluties en trek een gemiddelde, of test het helemaal niet.
Vroeger was dat eigenlijk heel normaal, testen op een resolutie lager dan wat de gemiddelde gamer in het wild gebruikte. Daarmee test je namelijk primair de cpu en niet de rest van de machine. Een test waarbij elke cpu hetzelfde balkje heeft voegt weinig toe, op basis daarvan kun je lastig een keuze maken. Concluderen dat het dan niet uit maakt is eigenlijk ook niet waar. Want die lagere resolutie geeft een goed idee van wat je kunt verwachten gedurende de volgende generatie van videokaarten. Juist door zowel laag als hoog te testen geef je de lezer een compleet beeld van wat iets 'nu' gaat doen en wat het over 2-3 jaar doet.

Verder lijkt het mij niet handig om per segment zelf een doelgroep te gaan verzinnen en dan op basis van die subjectieve inschatting ineens hele andere tests te gaan draaien. Geef ons gewoon de data en dan trekken we die conclusie zelf wel...
Want die lagere resolutie geeft een goed idee van wat je kunt verwachten gedurende de volgende generatie van videokaarten. Juist door zowel laag als hoog te testen geef je de lezer een compleet beeld van wat iets 'nu' gaat doen en wat het over 2-3 jaar doet.
Het geeft een idee wat je kan verwachten bij de volgende generaties videokaarten, in de games van vandaag. Het zegt heel weinig over games die binnen 2-3 jaar gaan uitkomen. En dan zeker met next-gen consoles om de hoek. Games in de toekomst hebben mogelijk nieuwere engines die beter gebruik maken van meerdere cores. Of de games zelfs zijn zo gebouwd om meer scalable te zijn op CPU vlak met slimmere AI, physics, etc.

Zegt niet dat de benchmark geen waarde heeft, maar sommige sites gebruik(t)en 720p benchmarks om future-proofing te testen voor CPUs. En dat is natuurlijk helemaal onzinnig. Als ze dat willen claimen mogen ze van mij eerst een restrospective doen van de laatste 5-10 jaar en gaan kijken of het echt voorspellende waarde heeft. Ik heb het persoonlijk nog niet zien passeren, dus ik ben absoluut niet overtuigd van die werkwijze.

Maar over het algemeen ben ik akkoord. Test op z'n minst ook op 1440p zodat we een ook een realistische use-case kunnen zien. 1080p met een CPU die al zo veel kost als een heel systeem dat behoorlijk mee kan op die resolutie is bijna equivalent met een synthetische benchmark.
Adoredtv heeft dat dus wel gedaan. Zie: https://youtu.be/gFBKFz9n2hc

Daar zie je dus dat AMD CPUs sneller worden over de jaren in vergelijking met hun Intel tegenhangers.

Deze benchmarks zijn dus compleet nutteloos, zoals je al vermoede.
Het is redelijk nutteloos om een 2500K op stock te testen. Het bijzondere van de 2500K was nu net de cpu die standaard op x36 draaide en met luchtkoeling zonder enige kennis van overclocking met AUTO op x48 draaide doordat de multiplier unlocked was. (Sterker nog in mijn tweede gaming pc zit de 2500K nog steeds en die heeft al die jaren op AUTO gedraaid).

AdoredTV kan beter zelf een aantal cpu's via ebay oid aanschaffen en dan testen in plaats van het internet af te struinen op zoek naar scheve vergelijkingen.

[Reactie gewijzigd door sdk1985 op 14 november 2019 21:14]

"Het is redelijk nutteloos om een 2500K op stock te testen"
Klopt, want 100% van de gamers overklokken hun processor.
Of zouden het er toch ietsiepietsie minder zijn.
Wanneer in een bepaalde test de balkjes van een aantal CPU's gelijk is, dan worden de echte verschillen duidelijk. Iemand die een beslissing maakt met de huidige gegevens maakt dus een foute afweging wanneer hij naar game resultaten kijkt. Wanneer alles 144fps draait op een 2K scherm dan tellen gewoon de andere resultaten.

Mensen die niet verder kijken worden nu door Tweakers fout geadviseerd.

En misschien is de "verwachtte" de gelijke score wel helemaal niet aanwezig en zitten we nu dus naar een foute aanbeveling en conclusie te kijken.

Zonder deze resultaten zou het advies van Tweakers anders moeten luiden: Deze CPU is de beste CPU voor alle scenario's behalve bij gamen op lage niet toegepaste resoluties.
Agreed.. aan 1080p benchmarks heb je in mijn optiek helemaal niets, zeker met CPU's in deze prijsklasse. Wie een CPU van +- 750,- overweegt is of geen gamer, of heeft het budget om zonder enig issue fatsoenlijk op 4k te gamen.
En hoeveel daarvan heeft een cpu die meer dan 500 euro kost?
op hogere resoluties zit je de videokaart te testen, niet de processor: op 1080p is de cpu en niet de gpu de grootste bottleneck.
Daar moet ik je gelijk in geven, maar waarom dan geen game testen die wel zwaar leunt op de CPU?
Maar waarom dan eens geen game testen die grafisch misschien niet hoge toppen scoort, maar die in een endgame wel zwaar de CPU gaat belasten wegens de vele units die ingame zijn.
Zeker bij de oudere civ-games was dit het geval (weet niet wat het tegenwoordig bij civ 6 doet). Hearts of Iron 4 is ook een voorbeeld dat in de endgame de CPU leuk weet te stressen, al is hun engine niet echt geschikt voor de grote multicores.
In Planet Coaster zag je de FPS ook naar beneden duikelen in grote parken met veel bezoekers en veel rides. Wat geeft Planet Zoo bij een dergelijk scenario?
Ik vermoed dat in dergelijke scenario's de clockspeed vooral belangrijk is, maar zoals hier sommige benchmarks al aangaven, weet de R9 3950X toch met een lagere clockspeed sommige Intel-processoren te verslagen wegens een hogere IPC.
Minecraft lijkt me goede kandidaat,
Prima dat je de keuze motiveert. Toch wil ik wel weten wat deze processor doet op 4k.
Niets anders want de CPU doet geen grafisch werk.
Gezien de hoeveelheid reacties lijkt men dat niet te snappen. :z
Vind het niet goed dat Tweakers nog steeds oudere spellen gebruikt om nieuwe CPU's te testen, waarom gebruiken ze niet is nieuwe spellen, om te zien wat het verschil is in die nieuwe spellen, en gebruik A.U.B meer spellen.

Verders was alles wel netjes gedaan.
Als de bottleneck bij de gpu komt te liggen dan maakt de cpu minder uit en de verschillen worden dus minder.

Als het verschil 1 of 10% is in fps kan nogal veel uitmaken in het oordeel of die cpu wat voor je is, dus ondaks dat dit is om aan te tonen welk in absolute zin sneller is, de praktijktesten zijn hierdoor nog steeds niet echt de praktijk voor velen...

[Reactie gewijzigd door watercoolertje op 15 november 2019 09:24]

Hint: in 4K toppen alle CPU's in de test af op dezelfde fps, bepaald door de GPU die in het testsysteem zit.
Klopt, maar de realiteit is dat wie 500€+ aan een CPU wil uitgeven ook niet op 1080p medium gaat gamen, maar op 1440p of zelfs 4K, en op high of ultra settings. Wat zijn die cijfers dan eigenlijk waard als je gewoon wilt weten welke CPU de moeite waard is voor je nieuwe gaming PC.

Dat is de reden dat er ook praktijk benchmarks bij staan, waarbij PS en Premier benchmarks zitten. De waarde van 1080p low/medium benchmarks zie ik als dezelfde als een Cinebench score: leuk, zegt wel iets, maar zegt niets over de echte ervaring die je zult hebben.

Je moet er rekening mee houden dat er gebruikers zijn die niet lezen, en gewoon grafiekjes kijken, en die zien: AMD is 10 fps minder. De nuancering dat dat totaal niet representatief is voor echte performance (of zelfs toekomstige performance) die krijgen die lezers echt niet mee, ook niet met dat ene zinnetje in de conclusie. En ik zie mezelf ook wel als geïnformeerde gebruiker, en ik weet het ook niet: als ik op 1440p high speel, is de 3950x dan ook 10% trager? Of 5%? Of minder? Geen idee, maar ik zou het graag weten, en dat haal ik nu niet uit de review. Het jammere is dat dit simpelweg opgelost is door een extra grafiekje toe te voegen, dan kunnen lezers zelf oordelen.
Dat klopt wel indd. Toch zijn er heel veel mensen die alleen naar de eindscore kijken. Ze kopen een 2k of 4k monitor en denken dan met een 9900ks het beste uit te zijn wat niet zo is.
1080p gaming zegt weinig. Tegen de tijd dat toekomstige gpu's dezelfde 1080p framerates op 1440p tonen, dan zullen sommige games ook meer dan 8 cores gebruiken.

1080p performance is eigenlijk geen praktijk benchmark. Je hebt er niets aan, maar het is wel een benchmark. Zoals prime95.
Eigenlijk zou je op 640x480 moeten benchen als je de CPU wilt testen.
Begrijp iets niet, Linus: Kills everything on the market.
HWI en Tweakers: Meh....
ondertussen de rest hilarisch lyrisch over AMD...

[Reactie gewijzigd door sokolum01 op 16 november 2019 00:26]

Tweakers test enkel games die niet leunen op de CPU, waardoor ze de GPU settings gigantisch omlaag moeten gooien om een verschil tussen 200 en 190 fps te kunnen noteren.

De rest doet realistische benchmarks... Het maakt niet uit welke CPU je hebt (i7 9700 of 3700X of beter) voor die games...

Doe eens een benchmark tijdens een stream ofzo, of met CPU-heavy games (strategy)

[Reactie gewijzigd door Gamebuster op 15 november 2019 11:28]

Als je puur naar gaming kijkt, dan is zowel de 9900K(S) van Intel of de 3950X van AMD niet de beste keuze. Prijstechnisch zijn er veel betere processoren te koop (i5 9400 of R5 3600).

Het zou mooi zijn als Tweakers een grafiek maakt van prijs, snelheid (gamebenchmarks) en verbruik, en hoe deze variabelen aan elkaar gerelateerd zijn. Dan heb je pas een eerlijke vergelijking! Idealiter wil je een processor die zo snel mogelijk is, weinig verbruikt en ook nog eens goedkoop is in de aanschaf.

[Reactie gewijzigd door Bong_Marley op 14 november 2019 15:19]

Een i5 9400 wordt voor de zware games al weer krap. Een Ryzen 5 3600 is daarom ook interessanter of een Ryzen 7 3700X voor als je een aantal jaren met de CPU vooruit wil.
De ervaring leer dat de extra cores van de 3700X eigenlijk geen zekerheid bieden. Zie bijvoorbeeld de eerste generatie Ryzen met daarin de 1600(X) 6c/12t, en de 1700X 8c/16t. Nu 2 jaar later presteren deze modellen nog steeds identiek en heb je voor gaming géén extra waarde gekregen van de 2 extra cores en 4 extra threads:

https://www.gamersnexus.n...0/games/f1-2018-1080p.png
https://www.gamersnexus.n...-war-2-campaign-1080p.png

Dat een 9400 tricky is kan ik wel bevestigen. Er zijn nu al bewijzen dat er games zijn die met minder dan 8 threads een flinke performance penalty oplopen. Het maakt dan niet uit of je 6c/12t of 8c/8t hebt.

De beste prijs/prestatie cpu voor gaming is wat mij betreft op dit moment de 3600(X) en wil je iets meer dan wordt het zeker geen 3700X/3800X, maar een 9700K a 385 euro.

Verder lijkt het erop dat Intel volgend jaar gaat komen met hyperthreading op i5. Daarmee vervalt het probleem van de <8 threads en dan zal dit advies moeten worden bijgesteld. Ook Ryzen 4 is onderweg en AMD hoeft momenteel niet van héél ver te komen om het gaming gat te dichten.

[Reactie gewijzigd door sdk1985 op 14 november 2019 21:15]

De 9700k is een goede cpu maar bekijk de frametimes van red dead redemption 2 eens, het spel draait voor geen meter op 8 cores zonder hypertrading.

https://www.youtube.com/watch?v=z_ty-gajwoA

Ok de game is brak maar ik ben toch blij dat ik de 3700x gekocht heb, wilde eerst de 9700k kopen.
De frametimes van een 3700x zijn bij deze game ook 10fps beter dan van de 9900k.

[Reactie gewijzigd door Goofy1978 op 14 november 2019 18:42]

De 9700k is een goede cpu maar bekijk de frametimes van red dead redemption 2 eens, het spel draait voor geen meter op 8 cores zonder hypertrading.

https://www.youtube.com/watch?v=z_ty-gajwoA

Ok de game is brak maar ik ben toch blij dat ik de 3700x gekocht heb, wilde eerst de 9700k kopen.
De frametimes van een 3700x zijn bij deze game ook 10fps beter dan van de 9900k.
Interessante toevoeging. Dit zou dan de eerste game kunnen zijn die niet genoeg heeft aan 8 threads. Echter de 2600K met 4c/8t heeft het probleem niet in dezelfde test dus ben ik nog niet overtuigd. Op basis van deze resultaten zijn er meer mogelijkheden zoals een architectuur specifieke bug. Gamernexus, of eigenlijk elke tweaker, kan dit eenvoudig testen door een frame rate limiter toe te passen. Als de theorie van gamer nexus klopt dan zou dat de lage 0.1% lows moeten oplossen.

edit: Toch een (nvidia) driver probleem:
In the patch notes, Rockstar says it has added a new launch parameter which rebalances the workload on processor cores to “avoid hitting an edge-case” with certain Nvidia graphics drivers that causes a significant amount of stuttering – or even outright stalling – for those using quad-core or six-core CPUs.

..

A proper fix is apparently in the works, with Rockstar saying it’s working with Nvidia to improve its graphics driver’s performance so stuttering can be remedied without resorting to a launch condition which could potentially bog the game down elsewhere (at least in towns).

[Reactie gewijzigd door sdk1985 op 14 november 2019 21:39]

Het gaat hier over de lange termijn niet de korte. Dat een Ryzen 7 1800X nog geen voordeel bied boven een Ryzen 5 1600X zou kunnen, zo lang zijn ze ook nog niet op de markt. Het kan echter even goed niet kloppen, bijna alle game test worden niet goed uitgevoerd en laten een vertekend beeld zien met de praktijk. De test van Tweakers valt daar ook onder. Dat een Ryzen 7 octocore in de toekomst wel een voordeel gaat bieden kan ik je nu al op een briefje geven echter. ;)

Een Ryzen 5 3600X is trouwens niet interessant, de Ryzen 5 3600 is niet TDP beperkt en is hierdoor zo goed als even snel. Een Core i7 9700 is ook niet heel interessant, minder krachtig en duurder dan een Ryzen 7 3700X. Is vooral een CPU die voorop loopt in slecht uitgevoerde game benchmarks. In de praktijk is die heel wat minder interessant.
Het gaat hier over de lange termijn niet de korte. Dat een Ryzen 7 1800X nog geen voordeel bied boven een Ryzen 5 1600X zou kunnen, zo lang zijn ze ook nog niet op de markt.
Ze zijn lang genoeg op de markt om letterlijk onderaan de grafieken te bungelen. De gouden tijden voor de 1700X gaan echt niet meer komen, daar is hij te traag voor. Ze hebben nu al de tand des tijds niet overleefd, en dan is 2 jaar inderdaad niet echt lang te noemen!
Het kan echter even goed niet kloppen, bijna alle game test worden niet goed uitgevoerd en laten een vertekend beeld zien met de praktijk. De test van Tweakers valt daar ook onder. Dat een Ryzen 7 octocore in de toekomst wel een voordeel gaat bieden kan ik je nu al op een briefje geven echter. ;)
Zinloze voorspelling wanneer je het verloop van de 1600X en de 1700X in acht neemt. Wellicht dat ooit dat punt er komt. Maar tegen die tijd is die cpu te traag om de desbetreffende game dan prettig te draaien en win je er alsnog niets mee. Het geld dat je toen had kunnen besparen had je op dat moment beter kunnen gebruiken voor een nieuwe cpu.
Een Ryzen 5 3600X is trouwens niet interessant, de Ryzen 5 3600 is niet TDP beperkt en is hierdoor zo goed als even snel.
Als jij liever geen X hebt voor 35 euro minder dan vind ik dat prima. Let er wel even op dat een handmatige overclock lastig boven de x42 gaat en je met een 3600X wel daadwerkelijk de x44 kunt halen (mits juiste AGESA en koeling). Of dat 35 euro waard is laat ik even in het midden, maakt mij niet zoveel uit. Er is allebei wat voor te zeggen.
Een Core i7 9700 is ook niet heel interessant, minder krachtig en duurder dan een Ryzen 7 3700X. Is vooral een CPU die voorop loopt in slecht uitgevoerde game benchmarks. In de praktijk is die heel wat minder interessant.
Je vergeet de K, daarmee draai je out of the box bij de meeste moederborden met MCE (alle cores op de maximale turbo van x 49). Als je die cpu nu in je nieuwe gaming pc knalt dan zit je wat mij betreft de komende 4 -5 jaar gebakken. Of dat zo is weten we over 4 jaar.

In 2017 ben ik in ieder geval voor de 8700K gegaan ipv de 1700X/1800X en die zit voorlopig nog in de bovenste helft van de grafieken. Daarvan weten we nu al dat dit achteraf de beste keuze was. Wie toen een 1700X of 1800X heeft gepakt loopt in aardig wat games tegen bottlenecks aan en zal moeten upgraden.

Verder heb ik er geen probleem mee als jij een beter review systeem hebt en dit vervolgens gaat toepassen. Sterker nog, ik zie het graag tegemoet. Tot die tijd ga ik even af op de reviews die we wel hebben. In die reviews is een 9700K zelfs stock significant sneller, ook op 0.1% en 1% low.

[Reactie gewijzigd door sdk1985 op 14 november 2019 17:57]

Je trekt hier wel een hele verkeerde conclusies. Wat je ziet is dat een Ryzen 5 1600X nog steeds een snelle CPU is waardoor je bijna altijd zal zien dat een Ryzen 7 1700X nog niet sneller is. Er was ook een tijd dat i7 quadcore met HT weinig voordeel had boven een i5 quadcore zonder HT. Die tijd hebben we ook al jaren terug achter ons gelaten. Ik snap hoe je bij deze conclusie komt, maar die komt omdat je veel te veel slechte reviews hebt gelezen. Een goede benchmark doet de test op de zwaarste momenten in game, jij hebt naar tests gekeken op een willekeurig niet zwaar moment in game.

Wacht maar op de dag dat Tweakers serieus bezig gaat met reviews van CPU's, dan zie je het ook. :p

[Reactie gewijzigd door -The_Mask- op 14 november 2019 18:05]

Je trekt hier wel een hele verkeerde conclusies. Wat je ziet is dat een Ryzen 5 1600X nog steeds een snelle CPU is waardoor je bijna altijd zal zien dat een Ryzen 7 1700X nog niet sneller is.
Ik snap je punt wel maar in de praktijk werkt dat zo niet.

Als je goed kijkt zie je in de, volgens jouw te lichte test, dat een 1700X een minimum fps van 48 heeft op een gemiddelde van 200 FPS. De 3600 haalt in dezelfde test 83 fps minimum op 229 fps. Dan kun je wel een zwaarder moment gaan zoeken maar dan is dat gat van bijna 40 fps niet ineens gedicht! Die 1700X is gewoon te traag, óók op 1440P.

Het nog zwaarder maken gaat dat niet oplossen voor een 1700. Des te meer omdat die zwaardere momenten vaak ook nog eens vooral single threaded lijken toe te slaan. Dat is in ieder geval wat ik in mijn overlay zie. Laat dat nu juist de achilleshiel zijn van zowel de 1600 (X) en de 1700 (X). Daarom hebben die 2 cores en 4 threads extra geen meetbaar effect terwijl een upgrade naar een 3600 bijna een verdubbeling van je minimum fps oplevert.
Een game, en natuurlijk helemaal F1 2018, is niet representatief voor alle games.

Ook moet je rekening houden dat de laatste jaren de prestaties per core zo goed als niet omhoog is gegaan. De max is al enkele jaren vrij gelijk en blijft de eerste komende jaren ook vrij gelijk. Games worden wel steeds zwaarder en dus de enige manier om die prestatiehonger te stillen is door meer core's te gebruiken.
Hoewel ik het deels met je eens ben kan ik die laatste stelling niet echt plaatsen.
Kijkende bijvoorbeeld naar cinebench R20 ST zie je dat een 1700X redelijk wat minder scoort dan een 2700X en een 3700X weer flink beter dan die 2700X.

Zelfs als je kijkt naar een test op een gelijke frequentie om enkel IPC verschillen te meten zie je redelijk grote verschillen tussen diverse cores:

https://static.techspot.c...876/bench/CB20-single.png

Zeker de stap van Zen+ naar Zen 2 is groot te noemen.

[Reactie gewijzigd door Dennism op 14 november 2019 19:17]

Wat bedoel je precies? Ik zeg namelijk niet dat een Ryzen 7 1700X bijvoorbeeld een Ryzen 5 3600 gaat verstaan, ook al heeft de eerste twee core's meer.

Twee weekjes terug zei ik dit bijvoorbeeld voor het komende BBG systeem.
De keuze is in deze prijscategorie Ryzen 5 3600, Ryzen 7 2700X of i5 9600KF. In zware moderne games op de zware momenten loopt een i5 9600KF op zijn tenen, wat dan wil zorgen voor slechte frametimes. Hierdoor valt deze CPU af. Een Ryzen 7 2700X is iets goedkoper, maar alleen sneller bij perfecte scaling, dat heb je bijna nooit en in alle andere gevallen is een Ryzen 5 3600 sneller, vandaar ook deze keuze.
https://gathering.tweaker...message/60429642#60429642
jij geeft in een eerdere post aan:
Ook moet je rekening houden dat de laatste jaren de prestaties per core zo goed als niet omhoog is gegaan
Terwijl je juist ziet dat tussen Zen, Zen+ en Zen 2 de prestaties per core juist wel flink stijgen, zelfs als ze op een gelijke kloksnelheid getest worden.

[Reactie gewijzigd door Dennism op 14 november 2019 19:50]

Daarmee bedoel ik de maximale prestatie per core wat er toen beschikbaar was. Bij de launch van Zen was AMD nog niet helemaal bij qua prestatie per thread. Intel was in die tijd wat verder. Op die max zitten we nu nog ongeveer en een aantal jaar daarvoor zaten we daar overigens ook al.

Dat bedoel ik dus met de laatste jaren is de prestatie per core (of eigenlijk thread) niet echt omhoog gegaan. We hebben echter wel meer core's en meer threads gekregen.
Het aantal flops per processor is wel degelijk gestegen. De Engelsen hebben een mooi gezegde: when in a hole, stop digging.
Zeker is dat gestegen, dat gaat sinds AMD met de Zen architectuur gekomen is flink omhoog. Maar dat heeft alles te maken met de flinke verhoging in core's. Voordat Zen kwam was een quadcore CPU meer dan 10 jaar lang het maximale voor het mainstream platform bij Intel en waren het steeds kleine stappen. Nu zijn we binnen drie jaar van quadcore naar 16 core's gegaan. Al die tijd is echter de prestatie per core niet echt beter geworden en daar ging het over.

[Reactie gewijzigd door -The_Mask- op 14 november 2019 19:06]

Mijn statement geldt ook voor processorcores. Logischerwijs minder fors gegroeit dan het totaal.
Ik ben er zelf van overtuigd dat Intel moedwillig de groei heeft beperkt en Ryzen niet had verwacht.
Mijn statement geldt ook voor processorcores. Logischerwijs minder fors gegroeit dan het totaal.
Sinds Sandy Bridge, bijna 9 jaar terug zijn dat alleen steeds kleine stapjes geweest en het stagneert de laatste paar jaar steeds meer. Ergens 2021/2022 of zo verwacht ik pas weer een redelijke stap vooruit hier.
Ik ben er zelf van overtuigd dat Intel moedwillig de groei heeft beperkt en Ryzen niet had verwacht.
Zeker het was voor Intel niet nodig omdat AMD een tijd lang geen serieuze concurrent was. En nu AMD dat wel weer is heeft Intel nu idd geen antwoorden meer.
Ja een cost per frame analyse.
En een mooi onderzoek over hoe bruikbaar zoveel cores zijn binnen het dagelijks gebruik zou ook leuk zijn.

Heel lang konden games helemaal niet omgaat met meerdere cores, dat zal nu inmiddels al wat beter zijn, maar waar ligt daar nou de sweet spot? Heeft zo'n 16 koppig monster nou werkelijk nut? Of kan je beter een dual of quad core flink kietelen om ECHT de beste game-performance te halen? En als je flink gaat overklokken, zit je dan bij een AMD beter, of juist bij Intel? (We zitten tenslotte wel op Tweakers)
Da's toch gewoon te zien in de resultaten? Er is niet 1 antwoord, afhankelijk van wat je er precies mee doet, en welk spel het precies om gaat verschilt je conclusie. Als ik puur Civ-V op 1080p speel heb ik meer aan een paar cores extra dan bij Fortnite, of als ik op 4k speel.
Als je het over overklokken hebt moet je nu bij Intel zijn, AMD zit heel weinig rek in. Echter is dan weer de vraag of je het merkt, en of je meer waarde hecht aan stroomverbruik (deze 3950 op 65W verbruikt een heel stuk minder dan een 9900K, en presteert vaak binnen 20%) of aan die laatste wel-meetbare-niet-merkbare FPS.

Oh, en dan gooien we nog het geheugen, en je SSD in de mix, want die bepalen ook nog het een en ander aan performance.
Ik zou de review van Red Read Redemption 2 kijken van GamersNexus, daar zie je dat een cpu zoals de i5 9400 gewoon niet meer voldoende is. Te weinig threads, je krijgt last van stuttering wat het spel slecht speelbaar maakt.
De 3600 daarentegen heeft meer threads en kan goed meekomen.
De stutteringen zijn deels een Rockstar probleem en worden gepatched. Dat is ook de reden waarom je geen benchmarks doet met brandnieuwe games.
Die stutteringen zitten nog steeds in GTAV. Dus in dit geval, eerst zien dan geloven.
AMD is nog steeds een prijsvechter. $750 voor een 16 core, terwijl Intel 1000 euro voor zijn 18 core 9980XE vraagt. Die 18-core is in cinebench 5% trager in multicore en 15% langzamer in single core.

[Reactie gewijzigd door lordawesome op 14 november 2019 16:09]

Je hebt het wel over een ander soort platform wat niet meer onder mainstream valt.
Nog iets:

Intel kan niet langdurig op Turbo boost snelheden draaien, de Ryzen van AMD kan dan continue.

Alle PC's hier zijn nog allemaal Intel based maar dat gaat aankomende jaar langzaam aan veranderen :)
Als ik de anandtech review lees doet de 3950x dat ook niet, hun chip settlet single core ergens rond 4.5, en de absolute top ligt onder 4650, 50mhz onder de opgegeven boost.

AMD/Intel daargelaten, ik ben compleet niet gecharmeerd door wat beide partijen nu doen met TDP en boost clocks, zo ongeveer elke chip vebruikt fors meer dan TDP, en boost clocks zijn compleet unsustainable, zelfs met idiote power draw en cooling willen ze stock gewoon niet op boost blijven. Als ik de power draw nummers van anandtech zie vraag ik me haast af of de perf/watt van ryzen 3 niet slechter is dan ryzen 2
Volgens mij is boost bedoeld om te 'boosten' en niet om constant te draaien anders is het geen boost meer :)
soort van fair punt, maar zo werkt het bij CPUs traditioneel niet echt, zeker op de desktop, waar power delivery en cooling niet zon probleem is. Bij mijn Ryzen 2600 haal ik de 3.9 single core boost dan ook sustained, maakt niet uit of dat voor 10 seconden of voor 10 minuten is.
Als het kan, why not uiteraard. Heb je gewoon een CPU op hogere clock maar dus blijkbaar wordt dit op de latere op eoa manier beperkt? Hoe doet men dit dan? Stepping eigenschap?
Volgens Gamersnexus is dit idd wat de spec dicteerd. Echter zijn er een aantal moederbord fabrikanten die zich hier niet aan houden, wat dus in de praktijk betekent dat het vrij makkelijk is om aan een mobo te komen die continu turbo-ed op 5.0 ghz.
Dat het niet continu kan heeft toch een reden, Of doen ze dat voor de lol?
TDP. Maar als jij een zware koeler erop zet en je moederbord genoeg stroom kan leveren, is er volgens mij geen technische reden dat een Intel niet permanent zou kunnen Turbo'en.
Mijn 3700x haalt anders nog voor geen 1 seconde de turbo ( blijft steken op 4.2 Ghz ) ondanks dat de temperaturen onder de 65c blijven.
Mijn vorige processor, een 7700k, kon gewoon 4.5 Ghz all core voor langere tijd zonder problemen.
De 9900ks kan dit met MCE wel degelijk, zie onder andere de review van digital foundry.
Mijn vraag na het lezen van de conclusie van Willem de Moor. Hebben ze bij Tweakers.net soms aandelen in Intel want deze review komt me nogal biased over. Schande!
Kan je dit ook onderbouwen? Is wat hij zegt niet waar? Betwist je de resultaten? Ik lees gewoon de plus en minpunten, en komen naar mijn idee over met de testresultaten die zij laten zien.

Ja de intel is sneller, ja hij is goedkoper, en ja de videokaart is vaak de bottleneck, dus is het maar de vraag hoeveel het uit maakt. Dit schrijft hij allemaal.
  • Niet de AMD 12 core met de Intel 12 core vergelijken. Flauw.
  • De prijs/performance conclusie klopt niet, en is onterecht in het voordeel van intel.
  • De game benchmarks zijn met onrealistische parameters gedaan. Gebruikers optimaliseren hun FPS rond de refresh rate van hun monitor (en op de max resolutie, die in dit marktsegment meestal hoger is dan 1080p!). Daar zijn games ook voor ontworpen, dus de tests geven geen eerlijke weergave van real-world resultaten.
  • Oudere AMD producten scoren in veel van deze tests beter dan deze nieuwe chip. Dit is niet alleen onwaarschijnlijk maar word ook tegengesproken door praktisch alle andere sites die benchmarks van de 3950X hebben gepubliceerd.
Kortom, of je nou wel of niet religieus aanhanger bent van een specifieke chipmaker, er klopt hier iets niet.

[Reactie gewijzigd door Anoniem: 951889 op 14 november 2019 21:32]

Kies score Let op: Beoordeel reacties objectief. De kwaliteit van de argumentatie is leidend voor de beoordeling van een reactie, niet of een mening overeenkomt met die van jou.

Een uitgebreider overzicht van de werking van het moderatiesysteem vind je in de Moderatie FAQ

Rapporteer misbruik van moderaties in Frontpagemoderatie.



Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee