×

Help Tweakers weer winnen!

Tweakers is dit jaar weer genomineerd voor beste nieuwssite, beste prijsvergelijker en beste community! Laten we ervoor zorgen dat heel Nederland weet dat Tweakers de beste website is. Stem op Tweakers en maak kans op mooie prijzen!

Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Ashes of the Singularity-update leidt tot flinke prestatiewinst met Ryzen-cpu

Door , 108 reacties

Rts-game Ashes of the Singularity krijgt een update die de game in staat stelt om beter gebruik te maken van de acht cores en zestien threads van de Ryzen-cpu's. Uit een test blijkt dat de update goed is voor een prestatiewinst tot 31 procent in combinatie met de Ryzen 7 1800X.

Oxide Games heeft aanpassingen gemaakt aan de Nitrous Engine, waarvan Ashes of the Singularity gebruikmaakt. De veranderingen zijn specifiek gericht op het verbeteren van de prestaties van de game als er een AMD Ryzen 7-processor gebruikt wordt. PC Perspective kreeg de beschikking over een nieuwe build van de game en vergeleek de resultaten met de huidige. De test werd uitgevoerd in een resolutie van 1920x1080 pixels, omdat de processor bij een dergelijke resolutie veel invloed heeft.

Bij gebruik van de Extreme-preset, voor de beste grafische weergave, levert de patch een winst op van 20 procent in combinatie met ddr4-3200-geheugen. Met ddr4-2400-geheugen is de winst met 17 procent iets kleiner. Als de High-preset wordt gebruikt, die minder grafische praal toont, loopt de winst met het snelste geheugen op tot 31 procent. Met deze instellingen is de game afhankelijker van de cpu-prestaties.

Op de Extreme-preset moet de Ryzen 7 1800X-processor de Intel Core i7-6900K nog nipt voor zich laten, maar de verschillen zijn veel kleiner geworden. Een vergelijkende test van de AMD-processor ten opzichte van de Intel-cpu is niet uitgevoerd met de High-preset. De scores die met de Intel-cpu gehaald worden, zijn voor beide versies van de game gelijk.

AMD beloofde na de release van de Ryzen-processors al dat ontwikkelaars met patches zouden komen om de prestaties van de cpu's in games te verbeteren. Het is niet zeker of alle games een even grote winst kunnen boeken als Ashes of the Singularity. De engines waarvan de games gebruikmaken, moeten daarvoor de werklast goed kunnen verdelen over de verschillende cores en threads van de cpu.

Dota2 kreeg onlangs een patch voor betere prestaties met Ryzen-cpu's. AMD maakte eerder bekend samen te werken met onder andere Bethesda en Sega. Welke andere ontwikkelaars aan Ryzen-patches voor hun games werken, is niet bekend.

Door Julian Huijbregts

Nieuwsredacteur

30-03-2017 • 10:41

108 Linkedin Google+

Reacties (108)

Wijzig sortering
Ook een interesante quote uit het bron artikel:
So what exactly is happening to the engine with v26118? I haven’t had a chance to have an in-depth conversation with anyone at AMD or Oxide yet on the subject, but at a high level, I was told that this is what happens when instructions and sequences are analyzed for an architecture specifically. “For basically 5 years”, I was told, Oxide and other developers have dedicated their time to “instruction traces and analysis to maximize Intel performance” which helps to eliminate poor instruction setup. After spending some time with Ryzen and the necessary debug tools (and some AMD engineers), they were able to improve performance on Ryzen without adversely affecting Intel parts.
Het is natuurlijk vrij logisch dat de meeste engine bouwes tijd hebben gestoken in het optimaliseeren voor Intel CPU's (en waarschijnlijk ook voor de AMD FX CPU's) waarschijnlijk zijn de engines daar ook op ontwikkeld. Dus het is ook logisch dat er voor een nieuwe argitectuur nog heel wat verbetering is the behalen met software aanpassingen.
Als een game geoptimaliseerd is voor een I5-3570K moet die dan nog eens geoptimaliseerd worden voor een I7-6700k, of is dit een pot nat?
tl;dr: Het correcte antwoord hierop is: Ja.

Het is eigenlijk best een goede vraag, want hierover bestaan best wat misconcepties.

Instructie latencies & throughput, de instructie set, gebruik van cache, gebruik van cores, branch prediction, etc, etc... al die dingen zijn aangepast over de jaren. Wat goed gaat op de ene CPU, hoeft niet goed te gaan op de andere.

Als je kijkt naar de specs heeft de 3570K bijv. geen AVX2 instructies. Als je software daar goed gebruik van maakt scheelt dat best veel: het is het verschil tussen 8 instructies in 1 clocktick en 4 instructies in 1 clocktick (met SSE4.2), om het even te versimpelen.

Ook timings van instructies maakt veel uit. Vroeger was bijv. 'xor' 1 clocktick en 'add' meerdere - waardoor je voor bijv. high-performance hashing eerder naar xor greep dan naar add. Tegenwoordig maakt dat niets meer uit. Vermenigvuldigen met bijv 3? Vroeger deden compilers een 'shift' en een 'add', tegenwoordig doen ze gewoon 'mul', omdat dat sneller is geworden. Op http://www.agner.org/optimize/instruction_tables.pdf staat een uitleg van de details. Moderne compilers gebruiken dergelijke tabellen om instructie selectie te doen.

Maar zelfs de beste compilers zijn helaas geen 'magic bullets'. Ik kan een heel lang verhaal houden over waarom compilers niet in staat zijn om dit soort optimalisaties goed door te voeren... Om 1 voorbeeld te noemen (er zijn er vele): je kan als programmeur bijv. alignment forceren in je memory manager, waardoor je weet dat je altijd bepaalde intrinsics mag gebruiken. Een compiler komt daar niet achter. Bottom line is dat als je intrinsics gaat gebruiken ipv. 'simpele' code en dus je CPU op zo'n beetje het laagste level gaat aansturen dat echt wel helpt. Voor performance-critical stukken in game engines e.d. wordt dat gedaan.

En zo zijn er nog een hoop meer dingetjes...

Een aantal van deze dingetjes maken weinig uit, een aantal heel veel. De verschillen tussen CPU's lopen op tot een factor 10; de verschillen in slechte en goede code (met exact dezelfde algoritmes) lopen zelfs nog veel veel verder op.

Dus ja, dat maakt uit.
Hier zie je een van de voordelen als je werkt met bytecode oplossingen zoals Java. In plaats van dat je compiletime al de goede keuzes moet maken, wordt dat uitgesteld totdat de bytecode verwerkt wordt in de runtime engine. Bij java is dat dus de jvm. Je hoeft hier alleen maar te zorgen dat de jvm op dat moment de goede keuzes maakt. En dan is in 1 keer alle bytecode sneller. Dus 1 keer jvm aanpassen zodat bytecode goed verwerkt kan worden op de Ryzen en alle bytecode werkt optimaal. Ook als die al jaren geleden gemaakt is voordat de Ryzen ook maar ergens op een roadmap stond.
Het korte antwoord hier is: Nee. :) Wederom een misconceptie.

In talen als Java en .NET wordt het daadwerkelijk compileren gewoon uitgesteld (het heet niet voor niets Just In Time compilatie). Ja, taken zoals instructie selection gebeuren inderdaad op basis van de juiste architectuur, maar daarmee is het ook meteen gezegd. Wat je moet beseffen is dat bij JIT compilatie haast geboden is bij het compileren zelf, omdat de gebruiker verder wil met zijn applicatie. Die 'haast' betekent praktisch gezien dat je niet goed kan optimaliseren.

In Java is de 'workaround' hiervoor hotspot compilatie. Ja, dat helpt inderdaad, maar is echt geen surrogaat. Not even close...

De low-level optimalisaties met memory management (lees: het gene waarmee je echt een groot verschil kan maken) zijn niet mogelijk, omdat de JVM dit voor een groot deel voor je doet. In C++ en C zit je zelf volledig in de drivers' seat. Dat laatste heeft als voordeel dat je in de handen van een expert een krachtig middel hebt om er veel meer performance uit te drukken - maar met de kanttekening dat als je met vuur speelt ook heel hard je handen kan (en waarschijnlijk gaat) branden.

Wat meer diepgang zonder helemaal de diepte in te duiken:

- Als ik me niet vergis had Chandler Carruth best een aardig praatje over hoe compilers werken en wat hun beperkingen zijn hier: https://www.youtube.com/watch?v=FnGCDLhaxKU .
- Mike Acton op GDC had een goed (algemeen) praatje over hoe je optimaliseert voor moderne architecturen: https://www.youtube.com/watch?v=GPpD4BBtA1Y . Noot dat hij heel hard optimaliseert door de datastructuren exact te passen op de onderliggende architectuur...

[Reactie gewijzigd door atlaste op 30 maart 2017 14:43]

Dat is magic thinking wat je hier doet, een religie haast. Zo van, gooi er maar een abstractie laag tussen en alles komt vanzelf wel een keer goed, doet een ander wel.

Wat @atlaste al aangaf is dat performance met meer te maken heeft dan instructie mixes. Zo is de manier hoe data in het geheugen staat, wanneer deze wordt benaderd en hoe voorspelbaar branches zijn, nu bepalender voor prestaties. Daar ga je met geen enkele compiler, run-time of niet, iets aan veranderen.

Het is de taak van een developer dit in de design keuzes mee te wegen tijdens het schijven van de software. Met name dan voor de hotspots in de code, daar is de meeste winst te halen.

[Reactie gewijzigd door TheCodeForce op 30 maart 2017 13:29]

Inderdaad. Met als concreet voorbeeld: http://stackoverflow.com/...d-array/16184827#16184827 . Die vraag levert me nog steeds een hoop punten op :)
Waar jij hier op doelt klopt maar beperkt. De compiler compileert de code naar instructies maar gaat echt niet je hele codebase herstructureren om voor een bepaalde architectuur extra performance eruit te halen. Dat zul je toch echt zelf moeten doen in C++ ofzo.

Vooralsnog kan je AOT gewoon beter optimaliseren dan JIT compilatie puur omdat er meer tijd is om te compileren en je het niet tijdens runtime meer hoeft te doen.
Het doel van GC talen zijn
Een snellere "time to market"
Met voorwaarde dat Performance eisen niet al te hoog zijn.

Hier onder vallen ook kleinere indie producties zoals die Unity 3D gebruiken.
Allemaal mooie praat, maar games
gebruiken 99% van de tijd instructies die reeds in 10 jaar tijd zijn toegevoegd aan processoren, niet.

Sterker nog het komt pas mondjesmaat voor dat titles eindelijk een native 64-bit client gecompileerd krijgen, en dat zegt eigenlijk alleen dat instructies vanaf SSE2 Worden gebruikt (als de compiler al uberhaupt beslist of dit nuttig is of niet)

Ik geloof er geen zier van als men zegt dat games nu opeens sneller op Ryzen werken alleen maar dankzij de hercompilatie. Dan profiteert intel namelijk net zo goed.

Dit is gewoon een gevalletje 'meer op meer cores'.
Nogmaals, in veel gevallen worden hotspots handmatig geoptimaliseerd voor de architectuur; niet door hercompilatie. Compilatie gebeurt meestal op SSE2; dat maakt niet zo veel uit (bijv. intrinsics blijven toch wel werken). Runtime wordt vervolgens een andere library ingeplugd.

Intel ondersteunt overigens deze instructies ook gewoon in 32-bit mode.

In games worden op soortgelijke manier datastructuren, memory access, cache access, etc. geoptimaliseerd. Nee, dat zit niet in de 99% van de code, maar wel in de 1% bottleneck.

En als dat je nog niet overtuigd, zelfs DirectX doet dit op de achtergrond, o.a. voor de math library.
Maar zelfs de beste compilers zijn helaas geen 'magic bullets'. Ik kan een heel lang verhaal houden over waarom compilers niet in staat zijn om dit soort optimalisaties goed door te voeren... Om 1 voorbeeld te noemen (er zijn er vele): je kan als programmeur bijv. alignment forceren in je memory manager, waardoor je weet dat je altijd bepaalde intrinsics mag gebruiken. Een compiler komt daar niet achter.
Nou...

Alignment betekent niet veel meer dan dat de laagste N bits van een pointer 0 zijn. Moderne compilers weten dat dat relevant is, en kunnen dat vaak afleiden uit context. Zo is de return value van malloc() altijd aligned, en de compiler kan vervolgens afleiden wat de alignment van members op vaste offsets is.

Aliasing is een groter probleem - welke variabelen moet je reloaden na een indirecte write? Dat zie je ook terug in C99; "restrict" is met deze reden toegevoegd.
Zo is de return value van malloc() altijd aligned, en de compiler kan vervolgens afleiden wat de alignment van members op vaste offsets is.
Nietes. :)

Pointers op de heap worden nooit dergelijke aannames over gemaakt. Het enige waar aannames over gemaakt worden zijn stack allocated structures, die meestal 16-byte aligned zijn. Ja, de meeste (!) malloc implementaties leveren wel aligned structuren op, maar dat heeft hele andere redenen...

Punt is nl. dat de compiler niet weet of een pointer het resultaat is van een 'malloc' of een 'reinterpret_cast<int64_t*>(myByteArray+3)'. Deze relatie kan alleen worden afgeleid in hele specifieke gevallen (specifiek: als structuren van de heap komen ipv. met malloc zijn gemaakt).

Ook daar heb je weer hints voor zoals alignas (C++11), __declspec(align(...)), etc.
Aliasing is een groter probleem ...
C heeft veel meer pointers naar primitive types dan C++ en daarom heb je in C meer aliasing problemen dan in C++. Dit was het voornaamste argument waarom restrict in C is toegevoegd maar niet in C++. Om om het anders te zeggen: de C++ standard committee vond het niet echt een belangrijk probleem.

Ik heb een vriend in de C++ std committee dus zou het kunnen navragen, maar kan je nu al zijn reactie voorspellen: het is niet noodzakelijk omdat je met een paar #define's nu al hetzelfde kan doen. Dat geldt overigens ook voor alignment, waar ook allerlei hints voor zijn in zowel de standaard als de compilers.
Een compiler hoeft niet te weten of een pointer het resultaat is van zo'n reinterpret_cast. Dat is namelijk Undefined Behavior, dus je kunt elders veilig die aligned instructie gebruiken. Ja, het programma met UB werkt niet, maar dat is precies waarom de standaard het concept van UB kent.

Overigens zal je vriend in WG21 geen #define's adviseren. Uit eigen ervaring kan ik vertellen dat er ook bij de andere leden weinig enthousiasme leeft voor macro's.

[Reactie gewijzigd door MSalters op 31 maart 2017 08:56]

Nee, het is unspecified, niet undefined! Maw: het gedrag is afhankelijk van de compiler en architectuur, maar wel valide!

Reference:

Section 5.2.10/11:
An lvalue expression of type T1 can be cast to the type “reference to T2” if an expression of type “pointer to T1” can be explicitly converted to the type “pointer to T2” using a reinterpret_cast. That is, a reference cast reinterpret_cast(x) has the same effect as the conversion *reinterpret_cast(&x) with the built-in & and * operators (and similarly for reinterpret_cast(x)).
Section 5.2.10/7:
An object pointer can be explicitly converted to an object pointer of a different type. ... ... Converting a prvalue of type “pointer to T1” to the type “pointer to T2” (where T1 and T2 are object types and where the alignment requirements of T2 are no stricter than those of T1) and back to its original type yields the original pointer value. The result of any other such pointer conversion is unspecified.
Klopt ook dat er geen enthousiasme is voor #define's - maar er is nog veel minder enthousiasme voor veranderingen die niet (a) belangrijk en urgent zijn en (b) potentieel iets breken. Het is niet voor niets dat het nog niet in de standaard zit.

[Reactie gewijzigd door atlaste op 31 maart 2017 09:05]

"where the alignment requirements of T2 are no stricter" - dat is waar jouw logica afwijkt van de standaard. "int64_t" heeft strictere alignment requirements dan "char".
Nee hoor, mijn logica volgt de standaard op de letter; lees nog maar een keer: Het valt onder de "The result of any other such pointer conversion is unspecified."

Unspecified is niet hetzelfde als undefined behavior. De standaard definieerd beide concepten. Unspecified is:
[...] behavior, for a well-formed program construct and correct data, that depends on the implementation.

[Note: The implementation is not required to document which behavior occurs. The range of possible behaviors is usually delineated by this International Standard. — end note]
Overigens, in C11 is het wel Undefined Behavior:
A pointer to an object type may be converted to a pointer to a different object type. If the resulting pointer is not correctly aligned for the referenced type, the behavior is undefined.
Het gaat hier meer om de manier waarop de gehele intel familie is opgenouwd. AMD heeft hun standaard achtergelaten en was opnieuw begonnen. Intel houdt altijd een standaard vast in haar processor generaties. Dus dat is inderdaad 1 pot nat ja :+
Ik heb al verschillende berichten gezien dat met patches/moederbordpatches/drivers... serieuze verbeteringen waarneembaar zijn met Ryzen. Misschien een goed idee om over een maand dezelfde tests nog eens te laten lopen door de redactie en deze te vergelijken met de eerste tests/intel processors???

Zou wel eens een ander beeld kunnen geven voor veel mensen.. Als deze game met optimalisaties kan komen, kan het wel eens zijn dat met BIOS/Drivers updates ook nog redelijk wat winst te boeken is. Zijn hier plannen voor?

Nog een bron over ashes:
https://www.legitreviews....-ashes-singularity_193137
Ook windows 10 boost:
http://windowsreport.com/...erformance-issues-hotfix/
Dota 2 boost:
https://hardforum.com/thr...rmance-for-ryzen.1927957/
Concurrentie is prima, en dit initiatief ook.
Ik ben alleen bang dat het weer het aloude AMD verhaal wordt wat ik uit ervaring heb meegemaakt:
Intel/Nvidia: Alles werkt out of the box. Soms leveren updates een marginale prestatiewinst.
AMD: Spellen/applicaties werken slecht of underperformen tot dat er een specifieke update voor die specifieke applicatie/game is. Je hebt dus hele snelle hardware, maar je moet maar hopen dat er (achteraf!) ondersteuning komt voor de specifieke applicatie/game die jij toevallig wilt gebruiken.

Persoonlijk heb ik meer overtuiging nodig voordat ik AMD weer meeneem in m'n beslisproces
Als AMD IETS heeft bewezen in haar bijzonder lange track record dan is het wel dat ze alles supporten wat te supporten valt en daar ook tot in de lengte der dagen mee doorgaan. GCN bijvoorbeeld, heeft een flinke prestatiewinst laten zien sinds release en die winst zie je ook in alle GCN kaarten terug, in meer of mindere mate.

Ryzen is nu al met release gewoon prima in orde. Dat er wat games zijn waar de perf niet maximaal is, is alleen maar logisch en aangezien Ryzen wel enorm concurrerend is qua prijs/perf is er geen enkele reden om niet aan te nemen dat waar de prestatie uit de pas loopt, dit wordt gefixt.

Met Ryzen zou ik het dus eigenlijk anders willen benaderen: het is al bijzonder goed, en het kan alleen maar beter worden en als het dŠt doet, dan is Ryzen klok-voor-klok al sneller dan Intel in games, en dat mag best een prestatie genoemd worden na jaren radiostilte. Intel is al jarenlang bezig om te verfijnen, moet je je voorstellen wat er nog met Ryzen kan gebeuren.

[Reactie gewijzigd door Vayra op 30 maart 2017 11:55]

Als AMD IETS heeft bewezen in haar bijzonder lange track record dan is het wel dat ze alles supporten wat te supporten valt en daar ook tot in de lengte der dagen mee doorgaan. GCN bijvoorbeeld, heeft een flinke prestatiewinst laten zien sinds release en die winst zie je ook in alle GCN kaarten terug, in meer of mindere mate.
Huh, nee juist niet. Vorig jaar klaagden tweakers hier al over the Division die niet draaide op een 6850. Gaat geen update voor komen want de kaart staat legacy. Tegelijkertijd draait die game wel prima op een Geforce 4 series uit hetzelfde jaar.

Ook bij de moederborden/apu's is het niet veel beter in mijn ervaring. Zo bleken er gewoon geen chipset drivers voor de E350 (2011) meer op de AMD site te vinden. Nu kun je die vaak wel overslaan alleen bleken er bij de bijbehorende videokaart driver ook problemen (E350 krijgt geen Crimson). Zonder die driver is hardware decoding onmogelijk. Zonder hardware decoding is die APU te traag voor bijvoorbeeld YouTube. Het arme beestje staat nu stof te happen (wel jaren plezier van gehad).

Dus nee AMD is het voorbeeld van lange support zoals jij dat schetst. Waarop jij het tegenovergestelde baseert is mij echt een raadsel. Juist met stokoude Intel en Nvidia hardware loop ik nooit tegen problemen aan (E6750 / E8400). De GTX 260 (2008!) die ik nog heb liggen kon vorig jaar voor het eerst pas een aantal games niet spelen. Dat kwam overigens omdat de twee games (Division en Battleborn) DX11 vereisten.

Overigens is het altijd verstandig om hardware te kopen op basis van de prestatie zoals je die nu krijgt en niet op basis van mogelijke verbeteringen in de toekomst. Over een jaar of 2-3 is de nieuwe hardware toch altijd weer een stuk beter...

[Reactie gewijzigd door sdk1985 op 30 maart 2017 16:02]

Je noemt nu net dingen die komen enkel en alleen door dat net op dat punt een radicale architectuur breuk is geweest bij AMD, en bij nvidia niet. Die bij nvidia was en paar jaar daarvoor en zag je precies het zelfde. Toen werd ook support eerder als normaal opgeheven.

Nvidia heeft het overigens VEEL bonter gemaakt met bijvoorbeeld de nforce 4. Support was maar 2 jaar! Voor een chipset! Er zijn zelfs mooi fatsoenlijk weekend Windows 7 drivers uit gekomen (die op de site werkte maar half)

Mijn e350 werkt hier prima als router/Nas/media center(kodi). Wel met linux.
Bezitters van een GCN-kaart zijn blij. Mensen die echter een Terascale-kaart hebben zijn heel wat minder blij, die zijn sedert Crimson niet langer ondersteund. AMD is zeer lang doorgegaan met de Terascale-architectuur, veel kaarten in de HD7000-reeks hebben een Terascale-GPU aan boord, en dat kon ook, want Terascale presteerde op zich best goed. Veel van die kaarten zijn 3-4 jaar geleden gekocht en dus nu al niet langer ondersteund.
Je bedoeld de paar rebrands die nog VLIM4 of 5 waren die in APU's en low end kaarten zitten?

Terrascale is best lang ondersteund. Op een gegeven moment moet je een keer iets. En AMD heeft er voor gekozen zicht nu te richten op GCN en hoger.

Net als ze ooit de HD2xxx TM HD4xxx kaarten uit de drivers hebben gehaald en alleen 5xxx en hoger gingen updaten.

Bij nVidia zie je veel minder updates voor oudere kaarten zoals de GTX680. Ooit was deze net zo snel als een 7970. Nu is de 7970 inmiddels veel sneller met modernere games en zit deze dichter tegen een 780 aan welke toen de tijd moest concurreren met de R9 290.

Voorbeeld uit een verder verleden X1900 XT vs 7900GTX toen gelijk nu is de X1900 XT soms meer dan 2x zo snel meestal 50% sneller. De vraag is hoe relevant dat gezien de prestatie van de kaarten. Maar je ziet wel vaker dat AMD arcitecuren heeft en updates waardoor de hardware op latere leeftijd nog prima presteerd en sneller is dan de concurrentie van z'n tijd.

Je ziet het ook met Bulldozer in moderne 8 thread games. Het was altijd een ontwerp gemaakt voor veel thread alleen de software bleef te lang achter. Maar als alle 8 cores gebruik kunnen worden is hij sneller dan de 3770K,
De hd 7700 is al gcn 1.0. De eerste gcn producten zijn in 2011 gelanceerd, die 3-4 jaar lijkt mij wat overdreven.

Er zijn hooguit wat (ultra) budget kaarten met terrascale uitgekomen in 2013, die zijn zeker niet grootschalig aan gamers verkocht.
Slecht performen is in dit geval nogal overdreven. De 1800X is in veel tests heel gelijkaardig aan de Intel 6900K, maar bleek bij 1080p-games wat achter te blijven (ca. 10-15% trager). Feit blijft wel dat het nog steeds om een prijsverschil van ongeveer 100% gaat (de 1800X kost $499, de 6900K $1049), dus dan kan je nog gaan bekvechten of die kleine 10% verschil in 1080p-games zoveel uitmaakt. Het is niet alsof die games op de Ryzen plots onspeelbaar werden.

Plus als AMD er nu wel degelijk in slaagt developers zover te krijgen hun games en engines ook voor Ryzen te optimaliseren, en die allemaal dergelijke winst kunnen boeken, kan je de discussie nog meer in het voordeel van AMD trekken.

[Reactie gewijzigd door darkjeric op 30 maart 2017 12:16]

Probleem met die redenatie is dat het type user dat Łberhaupt bereid is 1049 voor een cpu neer te leggen niet zo snel akkoord zal gaan met die 10% concessie. Immers anders overweeg je die cpu niet.

Het zal met name interessant worden wat het marktaandeel wordt in het prijssegment van de i5 K cpu's en de i7 K cpu's. De 1800(X) is momenteel te duur voor dat segment. De 1700 is met de huidige prijzen wel een concurrent voor de i7 7700K.

Optimalisaties gaan zeker helpen, alleen pas bij een refresh van AMD. Immers staan de benchmarks nu al online en zijn de reviews al geschreven.
Misschien niet, maar dat wordt bij een CPU van $499 al een heel ander verhaal. Zeker als het maar om een beperkt segment performance gaat, zoals in dit geval bij 1080p-games. Jouw vergelijking zou fair zijn als beide CPU's even duur waren, maar dat zijn ze dus bijlange na niet!

Eerlijk is eerlijk, ik ben iemand die nooit van z'n leven een $1049-CPU zal kopen, maar als ik zie dat een CPU van $499 zo dicht in de buurt geraakt en slechts op sommige plaatsen maar 10% trager is, dan wordt dat toch een heel interessant product om in de gaten te houden. Laat ik het zo stellen: Ik overweeg geen CPU van $1049 te kopen, maar ik overweeg absoluut een CPU te kopen voor de helft van dat bedrag die er verdomd dicht bij in de buurt komt :9

En pas bij een refresh, dat weet ik nog zo niet. Mensen die in dit hogere segment shoppen zijn vaak goed op de hoogte, en lezen ook bij na de initiŽle reviews. Dat of het zijn mensen met te veel geld, die gewoon een "prefab-PC" kopen zonder zelfs te weten wat daarin zit. En laat er nu net een hele zwik PC's met AMD Ryzen CPU's op komst zijn ;)
Dit komt omdat Ryzen een compleet nieuwe architectuur is. Intel had ook deze problemen gehad als zij net iets compleet nieuws kwamen.
Het "aloude" verhaal? Hoe oud ben je dan? :)
Blijf open staan voor vernieuwing, vooral als dit een lange-termijn verhaal wordt.
Bij Intel werkt - misschien - alles wel out of the box, maar daar is ook weinig revolutionairs aan veranderd.
Neem je een Ryzen, dan blijf je de komende jaren nog lekker mee komen in de software en game-markt.

Edit: oops, was bedoeld als reactie op jelmo.

[Reactie gewijzigd door D-Day op 30 maart 2017 11:25]

Tja, de underdog heeft daar altijd last van. Want met de mainstream componenten heb je meer afzet en dus gaat iedereen daarvoor optimaliseren. Maar zoals afgelopen jaren al is gebleken, een soort van monopolie op CPU's is voor niemand goed. We zullen toch echt de underdog een kans moeten geven. Tenzij je weer 5 jaar kleine stapjes voor maximale prijs wilt van Intel, en misschien wel voor eeuwig als AMD ooit de handdoek in de ring gooit.
Ryzen werkt gewoon, en voor het geld ook nog eens erg goed. Er zitten geen wel/niet speelbare verschillen voor alternatieve binnen hetzelfde prijs segment terwijl Ryzen buiten games om duidelijk sneller is. Ryzen is dus best een veilige keuze, op zijn best kun je zeggen dat als je zwaar tilt aan elke FPS de 7700K nu beter is, maar dat is hetzelfde als je de 7700K met een 6900K vergelijkt.
(iets wat langzamerhand wel zal verjaren, de 8350 is nu ook sneller dan een 2500K)

Bij AMD GPU's zit je ook veilig, de drivers zijn de laatste jaren erg goed en zolang er geen hele grote Nvidia stempel op een game staat werkt het. (En dan nog is de vraag of je daar AMD de schuld van moet geven)

Wel zou AMD goed varen bij een 6-core Ryzen op een nieuwe rivisie die een 4GHz base clock kan vasthouden, maar ik denk niet dat ze hun eigen vlagschip voorbij willen lopen.
Natuurlijk wint AMD de prijzenslag, en ik vind het ook heel fijn dat ze weer eens mee kunnen doen!

Maar als ik puur als consument kijk die gemak in gebruik wel eens belangrijker vindt dan de prijs schept dit weinig vertrouwen. Natuurlijk is het een nieuw platform, natuurlijk heeft het tijd nodig, maar dat is precies waar ik op doel. Als ik nu een PC in elkaar moet schroeven voor iemand zal ik het niet zomaar aanraden, tenzij hij/zij aan een strak budget gebonden is.

"Best een veilige keuze" voor Ryzen is voor vele minder interessant dan "Dit werkt gewoon altijd goed". Zo ook voor de GPU's en de drivers: "... zijn de laatste jaren erg goed" is minder aantrekkelijk dan "werkt gewoon altijd goed".
Het is, vooralsnog, nog steeds dat Intel/nvidia "gewoon werkt" en soms verbeteringen doorvoeren, waar AMD achteraf zaken probeert te lijmen.

Ik verwelkom de Ryzen familie met open armen. Hopelijk gaat Intel nu ook weer ťcht gas geven en dat is alleen maar positief voor ons. En ik duim voor het moment van bijvoorbeeld Ryzen II waar ze de bovengenoemde kwaliteit wel leveren omdat da alle hardware en software makers dan gewend zijn aan dit nieuwe platform.
Volgens mij klets je echt "ins blau hinein", gevoel, indruk, etc.
De cijfers zijn duidelijk: Best Buy is Ryzen, ťn werkt out of the box!
Optimalisaties zullen in de toekomst deze positie versterken.

Dus: Ryzen wint nu en is een investering voor jaren.
De drivers zijn de laatste jaren echt niet goed. Een van de belangrijkste reden waarom ik overgestapt ben de laatste keer dat ik de keuze mocht maken.

Bekijk de reddit maar eens na een patch / release nieuwe game.

AMD moet wel lager aanbieden dan Intel, de vraag is hoeveel marge er overblijft. Zoals gewoonlijk is het een gevecht van de lange adem, waarin het lang geleden is dat AMD echt een stoot uit deelde aan Intel.

Komende generatie Intel wordt interessant voor ons als consument: heeft Intel bewust de performance gains de laatste jaren achter gehouden en hebben ze een passend antwoord?

Wat het antwoord op die vraag ook is, de consument heeft het meeste baat bij goede concurrentie.
Hoe zo drivers niet goed? Ik draai elke update, en zonder problemen, net als veruit de meeste mensen. Bij nvidia is het in middels zo dat mensen elkaar afraden om drivers te updaten tenzij je en specifiek probleem hebt... Om problemen te voorkomen.

AMD is heel goed bezig met drivers, en nvidia takelt hard af.

En dat al voor je die onzin van accounts voor je drivers mee gaat rekenen.

[Reactie gewijzigd door Countess op 31 maart 2017 00:56]

Ik kan het niet direct beoordelen hoe het nu gaat want ik gebruik al enige tijd geen AMD grafische kaarten meer, de reden echter dat ik geen AMD grafische kaarten meer gebruik is echter wel de belabberde driver support met als hoogte punt een zeer vervelende bug in de catalyst drivers die de 78xx en 79xx kaarten (ik had destijds een 7950) in combinatie met de Intel X58 chipset bepaalde games (o.a. WoW) keihard liet vastlopen waarna je het systeem volledig moest hardresetten om verder te kunnen. Deze bug is (uit mijn hoofd, is al weer een paar jaar terug) een maand of 2 na release van de 7950 in de driver geslopen en pas 6 tot 8 maand later opgelost.

Al met al heeft dat geintje met een paar honderd euro gekost (nieuwe Nvdia kaart moeten kopen daar ik destijds WoW nog vrij competitief speelde) en mijn vertrouwen in AMD redelijk beschadigd.

Sindsdien gebruik ik Nvidia kaarten en eigenlijk geen enkel probleem met de drivers en ik upgrade ze toch echt allemaal naar de officiŽle releases. Wat dat betreft zijn mijn ervaringen met AMD en Nvidia compleet anders dan de jouwe.
ik gebruik mijn 7970 nog steeds. werkelijk nooit issues. gezien de leeftijd, beste bang for buck kaart die ik ooit gekocht heb (dicht gevolgd door de originele ATI 9700pro)

en als het alleen op intel x58 chipsets was, had het ook net zo goed een intel issue kunnen zijn, waar AMD dan een workaround voor moest verzinnen.

ondertussen heeft nvidia mij kei hard laten zitten met een nforce4 chipset van nog geen 2 jaar oud waar geen support meer voor kwam (geen fatsoenlijke vista, laat staan windows 7 drivers) en heb ik heir een kapote laptop vanwege nvidia bumpgate.

jij kon gewoon de oude drivers blijven gebruiken zonder issue. ik kon niks dankzij nvidia.

verder, dat was 5 jaar geleden. en dus niet de periode waar ik hier over heb.
Oude drivers gebruiken was niet echt een optie, die zorgen namelijk weer voor glitches in andere games (ook niet onlogisch als het AMD 6-8 maand kost om een fix te maken) heb het nog even nagekeken, de laatste driver zonder de X58 bug was van maart 2012, de fix zat in de release driver van januari 2013. Gewoon veel en veel te traag voor een destijds redelijk top of the line kaart (2de in lijn na de 7970). Op een premium product verwacht je gewoon premium support, zeker bij een issue in een paar van de populairste games. Moet zeggen dat ik verder ook geen issues heb gehad met die kaart en hij draait nog steeds in een andere PC hier.

Nvidia bumpgate is natuurlijk inderdaad redelijk berucht, maar dat had gewoon goed opgelost moeten worden door de OEM's die deze chips gebruikt hebben en het dan als OEM moeten regelen met nvidia. Ik vind het niet goed reageren van de markt op dit issue eerder een issue van de OEM's die deze laptops verkocht hebben dan van Nvidia. De OEMs waren wettelijk gezien verantwoordelijk richting de klant, niet Nvidia (die natuurlijk wel verantwoordelijkheid hadden richting de OEM's).

Mijn Nforce4 chipset heb ik trouwens wel onder Vista kunnen gebruiken (DFI Lanparty mobo) en kan me niet echt herinneren dat ik echt issues had (maar goed is ook al lang geleden), Windows 7 ondersteuning, ik weet niet of dat een realistische verwachting is (5 jaar na release van de chipset). Heb het zelfs nooit geprobeerd omdat ik toen overgegaan ben op de X58 / i7 920 combo.
Maar er moeten dus game-specifieke patches gaan komen om beter/optimaal gebruik te moeten maken van de Ryzen? Games die dus een klein devteam hebben of geen prio voor kleine deel van hun userbase, heb je in de basis dus nog steeds meer aan een i5/i7.
Dit is altijd zo geweest. AMD heeft het nadeel dat Ryzen nog heel nieuw is. Core Processoren zijn al lang op de markt en zullen vaak als ontwikkel platform gebruikt worden. En dus in sommige gevallen daar voor geoptimaliseerd zijn. Er valt hier en daar nog winst te behalen door de Game Engines te optimaliseren.

Ik heb van wat mensen gehoord die van een 4670K over ging naar Ryzen ze over het algemeen een betere en soepelere game ervaring hebben. Ook gebruikers van snellere Intel Chips hebben dit gemeld. Max of AVG fps zegt niet altijd alles. En In modernere game engines waar er meer dan 4 threads gebruikt worden is een Ryzen 7 veel sneller dan de 7700K.

Dus ja de 7700K is een betere keuze als je oudere games speelt. Maar met het oog op de toekomst is Ryzen de betere keuzen.
Als je 1-2 jaar met je PC gaat doen kan jede 7700K prima overwegen maar vanaf 2 jaar terug zou ik zeker naar Ryzen kijken. Zorg alleen wel dat je een moederbord en geheugen koopt wat op 3200MHz ram speeds kan draaien.

Ik heb ook begrepen dat AMD bezig is met nieuwe bios code waardoor er straks hogere ram speeds beschikbaar komen zonder dat je de bclk hoeft te verhogen. Dit gaat behoorlijk helpen om de Ryzen Game prestaties te verhogen voor de niet overclockers onder ons.
Ook goed nieuw voor hardware developers denk ik. Met Intel staat de hele markt al enkele jaren stil qua -zinvolle- ontwikkeling...
Behalve dat ddr4 gewoon ingevoerd is de cpus 30% sneller geworden zijn sinds 2011 en er veel nieuwe support zoals zeer snelle aes is toegevoegd en prestatie per watt gewoon omhoog gegaan is.
Je reactie is wel erg veel "van horen zeggen".

Dat ook juist deze ontwikkelaar met een dergelijke prestatie patch komt is ook geen verrassing gezien hun dubieuze rol omtrent DX12 performance op de toen beschikbare AMD en Nvidia kaarten.
Ja klopt omdat ik zelf geen Ryzen systeem heb.
Maar het zijn wel gewoon mensen die ik face to face spreek ipv iemand die iets roept op een forum. Daar roepen mensen ook dingen die ze gewoon verzinnen. Dit zijn ervaringen van mensen die weldegelijk zo'n systeem hebben.

Over welke dubieuze rol heb je het? die Async compute die nVidia toen gewoon niet ondersteunde? dat is toch nVidia's keuze?
Ik weet nog dat ten tijden van de GTX 970 en 980 iedereen riep dat Async compute onzin was leverde niets op. wat nVidia had was veel beter.
Nou dat hebben we gezien... nvidia gaat het nu ook met Pascal en vooral de opvolgers ondersteuenen. Dus het blijkt wel weer hoe nutteloos Async compute is......
Ze gaan het ondersteunen, okť. Maar wanneer gaan we de vruchten plukken? Kip ei probleem is altijd groot bij nieuwe concepten. Stel dat 10% van de videokaarten a-sync compute ondersteunen, hoeveel devs gaan er dan tijd in stoppen?

Tot nu toe lijkt a-sync compute nog steeds een hype te zijn geweest (daar werd nogal wat over gediscussieerd). Of heb ik iets gemist en is het gros van de recente releases ineens veel sneller dankzij a-sync compute implementatie???
Tijd zal het leren maar er zijn een aantal games die het gebruiken.
Nvidia pronkt nu ook met z'n nieuwe drivers en de winsten die ze daar halen door async Compute.

Het is denk ik wel de toekomst on meer werk te kunnen doen en de gpu goed te benutten.
Dat is het gevaar met average fps cijfers.

Volgens mij stond er laatst een mooie test online van GTA V in combinatie met Ryzen en Skylake.

Qua average fps leken ze redelijk gelijk, Intel zelfs nog iets sterker. Maar qua minimum fps dook de Skylake i5 soms naar <40 FPS. De Ryzen en i7 bleven altijd boven de 60. Maar dat zie je niet overal terug.
Ja en ook min FPS zegt weinig. Als het 1 dipje is zegt het weer niets. Het gaat er om hoe vaak er dipjes voor komen. Kan best zijn dat de systeem met een iets wat lagere Min, AVG en Max toch een soepelere game ervaring bied.

Net als met SSD's gaat het meer om performance consistency.

[Reactie gewijzigd door Astennu op 30 maart 2017 13:27]

Dan moet er een Performance Fluctuation Index komen bij benchmarks.

N: Totale aantal frames
T: Totale runtime
T/N : Seconds per frame /*is de inverse van FPS*/

F: Frame runtime
n: frames, gaat in de berekening van frame 0 naar frame N.
Sigma is de 'optel functie'. De pipes geven aan dat ik de absolute waarde wil. De uitkomst van de Sigma wordt gedeeld door 2*T

index = ( Sigma(n = 0, N) | F(n) - (T/N) | ) / (2*T)

Als de index 0 is heb je een volledig consistente FPS over de gehele runtime.

Als de index 0,5 is dan heb je al een slechte ervaring, bijvoorbeeld de helft van de frames 'doet er niet toe' omdat, om het frame, de rendering 0 seconden of 2*T/N in beslag neemt.

Als de index naar 1 gaat heb je de slechtst mogelijke ervaring, de FPS schommelt maximaal. Bijvoorbeeld als een enkel frame er (bijna) de hele T in tijd over doet en alle andere frames (zogenaamd) in 0 seconden worden gerenderd.

(edits: alleen cosmetisch)

[Reactie gewijzigd door jiriw op 30 maart 2017 15:19]

tja nogal wiedes dat is dan ook net weer een uitzondering op de regel.
Een 4 threaded cpu in 1 van de weinige games die meer threads ondersteunen...

Dan krijg je nogal wiedes een lager minimum.
Ik denk dat je sowieso geen 7700 meer wilt adviseren, met de nieuwe updates en snellere ram scoort de Ryzen steeds meer hoger dan een 7700 en ook in oude games. Als je dan nog bedenkt hoeveel sneller een Ryzen is naast gamen dan is een 7700 dus gewoon een erg slechte aankoop.

https://www.youtube.com/watch?v=RZS2XHcQdqA
https://uploads.disquscdn...52f071c547a42f59b4685.jpg

[Reactie gewijzigd door LocK-NaH op 30 maart 2017 14:03]

Dat is niet helemaal waar.
Als je alleen maar oudere games speelt zoals CS GO en Starcraft 2 heb je meer dan genoeg aan 4 cores. Al zou een 7600K dan wel een betere koop zijn je hebt dan ook niets aan HT.

Maar er zijn nog genoeg games die meer hebben aan hoge IPC en hogere clockspeeds een 7700K heeft daar een voordeel met 4,5GHz en een nog net wat hogere IPC.

Dus het ligt er er aan wat je er mee wilt gaan doen.

[Reactie gewijzigd door Astennu op 30 maart 2017 14:09]

Ben ik mee eens maar dan kom je uit op de hele specifieke gevallen. Daarnaast ben ik erg benieuwd wat de nieuwe updates en snellere ram heeft gedaan met games zoals CSGO want de meeste benchmarks die we gezien hebben de eerste dagen na launch geven een totaal verkeerd plaatje. Helaas ook nog geen nieuwe benchmarks gezien met de nieuwe optimalisaties in deze genoemde games ;( En dan nog, 8 cores 16 threads met csgo? :X Als ze dat eens gaan optimaliseren.

Als ik nu naar de benchmarks kijk dan gaat de 7700 samen met Ryzen bijna gelijk op maar als ik kijk wat een Ryzen nog meer te bieden heeft dan vind ik persoonlijk een 7700 geen goede aankoop.

[Reactie gewijzigd door LocK-NaH op 30 maart 2017 18:26]

Hoge thread counts voor oude games gaat niet gebeuren.
Code optimalisatie wellicht nog maar waarschijnlijk ook niet.
Dus het gast vooral om de ram snelheden.
die screenshot is nutteloos we zien immers niet de gebruikte videokaart maar ik bermoed een slechte en dan ben je gewoon gpu limited.
Ik haal in mafia 3 namelijk veel hogere fps en dan niet op medium maar alles op zn hoogste met zelfs zelf toegevoegde filters erover om het er beter uit te laten zien.

Als ik nu een cpu zou moeten kopen had het dus gewoon een 7700k geworden aangezien die in de meeste games gewoon sneller presteert.

Ik geloof dus liever alle andere tests die wel allemaal op elkaar lijken.
De screenshots komen uit de video, gebruikte gpu is een Gtx 1070
Dan doet ie toch iets helemaal niet goed ik heb namelijk ook gewoon een 1070.

mijn fps is vsync gecapped op 75 mhz en daar komt ie nooit onder.
Ik denk dat jij de minimums niet helemaal begrijpt, daarnaast is er niks geks aan de benchmark en dat je blij mag zijn met de behaalde fps https://nl.hardware.info/...hd-1920x1080-+-frametimes
Het heeft niks met nieuw te maken het heet gewoon te maken met een design of complete ondersteuningsfout.
za hadden of betere support mee moeten geven vanuit een iwndows update of de chip heeft een fout die niet te fixen is.
En dit is duidelijk te zien.
Zet je namelijk de multithreading uit dan gaan veel games gek genoeg SNELLER lopen dan met multithreading aan.
Tot wel 30% sneller als het uitgezet word.
Je weet wel het probleem dat intel in zijn eerste series ook had en met nieuwe chips heeft gefixed.

En in welke game met veel threads is een ryzen sneller dan?
Dat is het hele probleem die games bestaan zo goed als niet.
Vooralsnog is de ryzen in zo goed als alle games gewoon slechter tot wel 30% en dat is gewoon onacceptabel voor een gamer.

En dat ze een soepelere game ervaren is logisch de 4670 is een ouwe meuk cpu met 4 cores en geen multithreading en een zeer lage mhz.
Maar met een 7700k hadden ze een nog betere ervaring met gamen gehad omdat hij gewoon sneller en beter is voor gamen.

Ik zie in de toekomst (komende 4 jaar) het echt niet verschuiven naar een meer als 8 threaded games. er zijn nog niet eens veel games die meer als 4 threads ondersteunen... er is dus al 100% winst te halen om volledig 8 threads te gaan ondersteunen en in vergelijking met een 30% langzamere geclockte 6 thread cpu dus nog meer.
Een 7700k kan je makkelijk 4 a 5 jaar mee doen tenzij videokaarten in 3 generaties 2x zo snel worden wat ik echt niet zie gebeuren.

ryzen is momenteel alleen een betere keuze als je veel video bewerkingen en grafisch renderen met software die meer als 8 threads ondersteund en ik denk dat dat komende jaren gewoon gaat blijven.
Het is niet waar dat het zonder SMT zo veel sneller is. In sommige gevallen wel in andere totaal niet. Dit is bij Intel ook niet anders.

Impact bij amd is wel iets groter maar de scaling als het wel gebruikt wordt is beter.

Het is een nieuw platform geef het wat tijd. Intel core was in het begin ook niet perfect.
in het geval van gaming is hij vaak sneller zonder smt dat is ook het enige punt waar de processor het niet goed doet.

Bij inter werkt het gewoon altijd beter of even goed met hyperthreading.

Geef het wat tijd?
Je bedoelt 3 jaar zodat zeker weten alle games van nu niet meer gespeeld worden en alle games die uit komen zeker weten goed werken.
We praten hier immers niet over 2 fps maar over 20 tot 40% prestatie verschil.
Dan heb jij denk ik andere review zitten lezen en zie ik jou reviews graag tegemoed. Soms was het een paar % beter maat ook regelmatig het omgekeerde dus netto maakte het niet zo veel uit als mensen je willen laten geloven. En nogmaals AMD's SMT performance uplift is hoger dan die van intel. Voor veel games misschien nog niet interessant maar voor andere compute workload wel!

Zie hier een stukje over de Smt performance uplift:
https://www.computerbase....als_intels_hyperthreading

Hier Smt performance impact in games:

https://www.computerbase....r_und_nachteile_durch_smt

Gemiddeld 2,7% sneller.
Best case en dat is maar bij een game was het 17% in mijn ogen mag het daar duidelijk zijn dat er wat mis gaat met de scheduling.
In andere gevallen is het soms 5-9% winst
Andere weer 3-5% verlies en ook gevallen waar het niets uit maakt.

Intel cpus zijn wel stabieler maar laten zoals je ziet ook winst en verkies zien bij het in en uitschakelen van SMT.

Wellicht kan amd nog wat aan de bios microcode tweaken of aan de scheduling in Windows om de te verminderen kleiner te maken.

Daarnaast ben ik benieuwd of de impact gelijk blijft bij het gebruik van 3600mhz geheugen of dat het verschil dan kleiner wordt.

Voor sommige games moet je een half jaar of jaar wachten. Bij Ashes zie het het eerste resultaat. Maar sommige oudere games zullen geen update krijgen.

[Reactie gewijzigd door Astennu op 31 maart 2017 09:36]

http://www.gamersnexus.ne...der-fps-benchmarks/page-7

warhammer, metro, bf1 duidelijk bakken sneller met smt uit.

andere workload is compleet niet interessant in deze discussie het staat al vast dat ie voor ander workload prima werkt maar voor gaming gewoon de slechtere en ook nog eens duurdere keuze is.

En aan duitse tests heb ik vrijwel niets dus moet ik toch bij alle nederlandse en engelse tests blijven en die laten allemaal zien dat voor gamen de amd vooralsnog waardeloos is en echt bakken trager als een intel die minder kost.

Punt blijft game je is de intel de betere keuze.
Doe je daarnaast ook nog aan dingen met applicaties die meer als 8 threats nodig hebben of kunnen benutten word de amd interressant maar wel tegen een zeer hoge prijs in geld en fps in gaming prestaties.
Dus heb je liever een cpu die niet tot 40% trager presteerd in gamen of wacht je liever een paar seconden langer voor je render/edit en pak je ondertussen wat koffie.

Er zijn ook games waar hij prima mee komt zij het een paar % trager wat natuurlijk vreemd is gezien de prijs maar die zal nog zakken.
maar de gaten die bij sommige games vallen zijn echt gewoon onacceptabel. (bij een deel van deze games kan je dus door smt uit te zetten dichterbij een acceptabel niveau komen.

Qua geheugen lijkt het wel of de amd niet meer prestatie kan halen uit geheugen sneller dan 2666 mhz op het moment dus zou ooi zijn als dat te verbeteren is.
Het verschil tussen 1866 en 2666 is immers enorm.
Ik denk (hoop) dat bij revisie 2 de kinks er een beetje uit zijn en ze dan beter meekunnen across the board.

Ik zie amd immers graag success boeken omdat het goed is voor de prijs die 30% omhoog gegaan is in de afwezigheid van amd in het top segment.

[Reactie gewijzigd door computerjunky op 31 maart 2017 11:39]

Computerbase is een van de betere review websites. Veel andere zoals Tweakers en Hardwareinfo zouden veel van die site kunnen leren.

De BF1 resultaten van gaming nexus met SMT1 geen OC zijn behoorlijk dubieus. Vooral omdat met OC hij ineens net zo snel is als SMT0 en op 3.9 GHz is het verschil met stock clocks van minimaal 3.6 maar klein. Daar is duidelijk iets niet goed gegaan en vraagt om een retest. In de metro benshmark is de stock 1800X zelfs sneller dan de 3.9 OC.

Dat er hier en daar nog verkeerde scheduling keuzes gemaakt worden en de impact van SMT daardoor soms groot is mag duidelijk zijn.

Maar de gigantische verschillen waar jij over spreekt zijn specifieke gevallen en lang niet altijd het geval.

Daarnaast gaat is er voor Frostbyte engines een performance patch in de maak net als voor Ashes.

AMD is nog bezig met een nog nieuwere Microcode update (er is er nu al een bij MB fabrikanten die ram compatibiliteit verbeterd)
Die het mogelijk gaat maken om stock meer dan 3200 MHz te draaien. Dus het platform wordt steeds verder fijngeslepen.
Deze resultaten komen echter terug op meerdere sites en fora van games dus er is echt een groot verschil tussen smt aan en uit en deze info is overigens op meerdere plekken op het internet te vinden.

De vraag blijft natuurlijk of dit bepaalde borden zijn of voor of na een bios update.

En ja bios update en software updates en zo voort gaan in de toekomst natuurlijk voor een complete retest vragen maar alle huidige games die de komende 2 jaar nog wel worden gespeeld zijn ondertussen wel de pineut.

We zouden over 6 en 12 maanden nopg een keer terug moeten komen voor een comlete retest.

Het is jammer dat ik niet even 5000 euro heb liggen om zelf een paar systeempjes te bouwen en testen en alles echt van boven tot onder te testen.
Ik blijf het toch moeilijk vinden om deze reviews echt allemaal te geloven zeker aangezien de verschillen zo enorm zijn.
Ik denk dat we rond de zomer wel een eerste herevaluatie kunnen maken. Dan is de volgende Microcode update ook beschikbaar voor alle moederborden en dan zijn er hogere Ram snelheden mogelijk.

Sommige games zullen dan ook al patches hebben en waar nodig zijn er ook windows updates doorgevoerd.

Dat je de komende twee jaar de pineut bent qua game performance ben ik niet met je eens. Er zijn genoeg games die prima presteren on par met Intel. In een paar gevallen is dat niet zo.Maar meestal zijn de framerates nog goed genoeg.

Veel mensen die upgraden hebben zich of goed ingelezen of komen van een heel oud platform waardoor dit een prima upgrade is. Als je meer dan 2 jaar met je PC gaat doen (genoeg mensen die er 4-5 jaar mee doen) Is Ryzen gewoon een super keuze.
"Core" mag dan wel lang op de markt zijn, uiteindelijk is dat maar een marketing naam. Software die voor de originele Core geoptimaliseerd is, is dat niet voor de huidige generatie Core i7's. Zo zal de oude code geen AVX instructies bevatten.
Daar ben ik het niet mee eens. Het is waar dat de Core-architectuur meerdere malen is uitgebreid, waardoor nieuwe optimalisaties mogelijk werden. De basiswerking van de processor is evenwel nauwlijks veranderd. Zaken als instructiescheduling, anticiperen op de lengte v/d pijplijn, verdeling van last over de kernen en hyperthreads gaan al vele generaties processoren op dezelfde manier op.

De AMD architectuur werkt, omdat het een geheel nieuw ontwerp is, noodzakelijkerwijs op punten anders en vereist een grondiger blik op de architectuur om er goed voor te kunnen optimaliseren,
De meeste spellen met een klein budget maken gebruik van een bestaande 3D-engine, vaak Unity of Unreal. Dat soort engines vanwege de brede inzet het meest waarschijnlijk dat ze optimalisaties krijgen voor specifieke hardware. Het risico zit denk ik eerder bij grote titels die van een eigen geschreven engine gebruik maken.
Ook de grotere titels maken gebruik van de standaard engines. EA maakt bijv. gebruik van Frostbite/DICE; ook voor titels als MEA. Das ook logisch; een engine maak je niet zomaar even.

Met frostbite, unreal, unity, cryengine, source en red engine heb je denk ik wel zo'n beetje de bulk.
Dit klinkt aannemelijk maar kijk eens naar de praktijk. Games als Ark Survival evolved (Unreal 4 engine) kan ik nog altijd niet bepaald geoptimaliseerd noemen. Zelfs met high end gpu's loop je daar (met 100% resolution scaling , ze verbloemen het door standaard je resolutie met 20% te verlagen) erg traag. Een bekende engine is geen garantie voor een goed draaiende game.

Ik zou persoonlijk niet verwachten dat bestaande games die gebruik maken van Unity/Unreal/enz ineens als geoptimaliseerd bestempeld kunnen worden.

[Reactie gewijzigd door sdk1985 op 30 maart 2017 15:45]

Ja doh, Keulen en Aken zijn niet op ťťn dag gebouwd. Zen is nog geen twee maanden op de markt, de Core-architectuur al vele jaren.

Bestaande spellen worden inderdaad beperkt aangepast, omdat ze maar beperkt nieuwe versies van de engine krijgen. Zodra de engine is aangepast gaat het echter hard met spellen die wel geoptimaliseerd zijn.
Mijn punt was dat veel games die gebruik maken van de bekende algemene engines uberhaupt slecht geoptimaliseerd zijn en, zo lijkt het, ook nooit geoptimaliseerd zullen worden. Niet voor Intel, niet voor AMD en niet voor Nvidia. Als je met een Titan X nog maar 41 fps haalt helpen die eventuele ryzen optimalisaties je ook niet verder.

Daarom zou ik persoonlijk geen wonderen verwachten van games gebaseerd op deze engine. Om even terug te grijpen op het verleden; de kopers van een Q6600 hebben ook nooit profijt gehad van hun 'investering' in een quadcore processor, de dualcores bleven de gehele economische levensduur sneller (6750/8400). Zelfs in cpu heavy titels als Supreme Commander.

Verstandiger is de situatie accepteren zoals hij is en daarop je keuze baseren. Is Ryzen nu ergens beter voor jou workload, vooral kopen! Maar ga niet rekenen op eventuele verbeteringen in de toekomst.

[Reactie gewijzigd door sdk1985 op 30 maart 2017 16:53]

Dat is inderdaad precies de kwestie: Ryzen is ondanks alles een uitstekende processor om spellen op te spelen, maar het leven bestaat uit meer dan spellen. Een Q6600 kwam niet volledig tot zijn recht in spellen, maar was desondanks een goede keus voor een powerdesktop waar spellen 1 van de toepassingen waren.

Terug naar het heden krijg je met Ryzen simpelweg veel meer processor voor je geld dan met een i5 of i7. Dat er spellen zijn die profijt hebben van de 4+ GHz van de Intel-processor maakt dat niet anders, quadkerners hebben hun langste tijd gewoon gehad.

Maar, als je alleen naar de huidige spellen en korte termijn kijkt dan is een hoog geklokte socket 1151-processor zeker de beste keus.
Pretty much, al verwacht ik dat op termijn dat Microsoft en Linux hun threading scheduler zo aanpassen dat dit redelijk automatisch goed gaat. Zolang threads niet gaan 'core hoppen' heb je geen performance verlies. Dit is ook de reden waarom i5/i7 e.d. wel goed gaan gezien alles netjes L2 cache deelt ipv met Ryzen waarbij dit gedeeld is tussen de echte cores.
Kernhoppen is reeds lang een probleem in servers (meerdere processoren) waar al lang kerneloptimalisaties voor aanwezig zijn. Wat ik mij ervan herinner is dat ik ten tijde van Red Hat 5 heel vaak in moest grijpen, omdat de processen van kern hopten, met Red Hat 6/7 of gewoon standaard 4.x-kernels is dat amper het geval.

[Reactie gewijzigd door dmantione op 30 maart 2017 11:12]

Heb ook wel het gevoel dat *Nix wat betreft dit soort fixes sneller de wereld in gooien dan microsoft (iets met Q&A testing enzo gok ik).
Unix releases? Die zijn zeldzaam; Microsoft heeft waarschijnlijk meer releases dan alle Unix smaken bij elkaar (OSX inbegrepen). Linux is dan weer een iets ander verhaal, maar dat hangt ook samen met het aantal CPU modellen waarop Linux moet draaien. Van embedded ARM chipjes tot supercomputers.
Is het punt niet eerder dat games nu altijd specifiek gericht op Intel gebouwd werden, want dat was de enige echte optie. Die achterstand moeten we nu inlopen volgens mij.
Architectuur van Intel is weinig gewijzigd de laatste jaren. Denk ook dat veel games zodanig zijn ontworpen met sets van Intel in het achterhoofd.


Veel progressie zal daar niet meer te halen zijn.
Het mooie is dat veel kleine devteam een engine gebruiken, en die engine kan geupdate worden dat hij efficienter gebruik maakt van de processor. Kleine devteams hebben zondermer maar een beperkte ontwikkelcapaciteit om de tooling te bewerken.

Tenzij ze het niet goed gedaan hebben en vast zitten aan een bepaalde versie van de engine, die ze zelf geforkt hebben.
Meeste games maken gebruik van een engine die grotendeels door meerdere games gebruikt wordt. Optimalisatie van de engine houdt meestal alleen in dat er een nieuwe build moet komen die alleen getest hoeft te worden. Grootste issue zijn games welke zelf customizations aan de engine hebben doorgevoerd, maar dat zijn meestal weer de grotere devellopers.
Ik ben nieuwsgierig wat ze precies gedaan hebben. Als ze multithreading an sich efficienter hadden gemaakt had ik bij de Intel CPU ook een verbetering verwacht.

Ik vermoed dat ze de engine kennis hebben gegeven van de opbouw van een Ryzen, waardoor threads die dezelfde data gebruiken op dezelfde ccx draaien waardoor efficienter van de cache gebruik gemaakt kan worden.

Ik ga er vanuit dat een thread voor de patch al op dezelfde core bleef draaien, een thread van core wisselen is immers ook op een Intelcpu duur. (Een thread wisselen naar een core in een andere ccx op Ryzen is nog duurder)
Er zijn mensen die tests hebben gedaan met een Ryzen 2+2 en 4+0 combinatie.
De winst die behaald werd door alles binnen 1 CCX te houden was meestal minimaal.

Uit tests bleek wel dat de 2+2 configuratie veel lagere L3 cache speeds liet zien. Maar de gaming performance leed er niet echt onder.

Het is wel bewezen dat hogere memory clocks helpen om de prestaties op te krikken. 3200 CL14 is een mooi begin maar in sommige gevallen laat 3600 CL16 nog aardige winst zien. Dus er is meer aan de hand dan alleen de communicatie tussen de CCX'en.

Ryzen heeft qua reken eenheden en prefetchers natuurlijk een andere structuur dan intel. Het zou ook kunnen dat ze daar nu beter gebruik van kunnen maken en dat dit voor Intel al lang geoptimaliseerd was.
Het is wel bewezen dat hogere memory clocks helpen om de prestaties op te krikken. 3200 CL14 is een mooi begin maar in sommige gevallen laat 3600 CL16 nog aardige winst zien. Dus er is meer aan de hand dan alleen de communicatie tussen de CCX'en.
Nu wil het wel zo zijn dat die communicatie tussen CCX'en synchroon draait met je RAM. Je ram sneller instellen heeft dus een direct effect op de Interconnect Infinity Fabric snelheid. Zie het als overklokken van je CPU via de multiplier of via de baseclock. Via baseclock wordt niet alleen je CPU versneld, maar ook dingen zoals je sata bus, ram etc. Dit is dus nu het geval met RAM blijkbaar.

(http://www.eteknix.com/am...ic-tied-to-memory-speeds/)

Of het juist de Interconnect Infinity Fabric bus is die zorgt voor de winst, of nog een ander onbekend gedeelte is niet bekend.

Uit testen van een user blijkt inderdaad wel dat het verschil tussen 2+2 en 4+0 kleiner is dan eerst gedacht.

https://www.techpowerup.c...re-distributions-compared
Ik dacht dat er een 1:2 ratio was. Maar zoals ik al zij het is niet alleen de Communicatie tussen de CCX'en het heeft meer te makken met alles wat er aan die Infinity Fabric hangt. Gezien het kleine verschil tussen de 2+2 en 4+0 configuratie weet AMD die vertraging goed op te vangen.

Ga je 2133 of trager geheugen gebruiken stort je performance in elkaar ook met een 4+0 setup. Er is dan zeker een bottelnek.

AMD had er denk ik slim aan gedaan om net als vroeg met de NB clocks de IF op een los clock domein te zetten.
Vroeger zaten de L3 cache en de Memory controller clocks vast aan de NB en als je die opvoerde zag je mooie winst bij een Phenom CPU. Bij Intel zag je soortgelijke resultaten.

Nu is het geen issue als je goed geheugen gebruikt maar veel mensen gebruiken te traag geheugen. En ik zie oems ook sneller 2133 of 2400 gebruiken dan 3200. Dus je bottnekt je systeem onnodig. Bij intel is die impact kleiner.

Maar wat je ook zegt het is niet helemaal zeker of het de IF is of iets wat er aan hangt zoals de memory controllers. Dan moet er eerst meer bekend worden over wat er allemaal sneller wordt als de IF clocks omhoog gaan.
Wat blijkt is dat de hogere snelheid bij RAM dus wel invloed heeft op de prestaties? Op internet staan filmpjes die zeggen dat een hogere snelheid van RAM tegen de latency wegvalt en je er dus niet zoveel aan hebt. Kan iemand hier meer over vertellen?
De Infinity Fabric in Ryzen wat de 2 core complex's (ccx) met elkaar verbinden draait op de effectieve RAM frequency. Zo'n core complex is een module van 4 core's die onderling heel snel kunnen communiceren maar trager naar de core's in een andere complex. Ryzen 5 en 7 hebben 2 van deze complex's. Hoe hoger je RAM frequency dus is, hoe lager de latency tussen de ccx's, daarop hebben RAM timings trouwens geen invloed.
Ik vermoed dat AMD bij de Ryzen II wel rekening zal gaan houden om die communicatie tussen die verschillende core complexen te verbeteren. Eventueel door een extra buffer cache hier tussen te bouwen (als de architectuur dit tenminste toelaat om zonder te veel in te grijpen in het samenstellen van de chips).
Ik heb het niet systematisch bekeken maar ik krijg ook de indruk dat bij Ryzen sneller geheugen tot aanzienlijke prestatiewinst lijkt. Hopelijk weet iemand er hier meer over, want dan weet ik wat ik straks moet kopen ;-)
Bij AMD systemen zijn er wel significante verschillen tussen laag geclockt geheugen en hoog geclockt geheugen.
Dit zag je in het verleden voornamelijk bij APUs, maar nu ook bij Ryzen.

De effecten van snel geheugen op de prestaties van Intel CPUs zijn verwaarloosbaar.

[Reactie gewijzigd door michaelmou op 30 maart 2017 11:45]

Geweldig! Zo snel resultaat geeft toch hoop. Niemand hangt namelijk graag af van de gamer developers. Ik hoop dat meerdere games snel volgen zodat ryzen 5 goed wordt ontvangen. _/-\o_
Ik kijk even naar de Extreme grafiek en zie dat de Ryzen dus marginaal minder presteert tegenover een CPU die dubbel in prijs is. Intel 2% sneller tegen een prijs van 200%.

Laat alle patches maar komen.
All on board the hype train zeg ik maar. Ik ben nu al helemaal benieuwd naar die 6core processors. :P
De 7700K doet het net zo goed voor veel minder dan de Ryzen 1800X.

[Reactie gewijzigd door pinobot op 30 maart 2017 17:40]

Deze dev is eerder de uitzondering in de branch.
Ze hebben een game concept met heel veel units dus er is mogelijk heid om de load goed ge verdelen. De dev zijn ook Mantle en DX12 en Vulkan pioneers.
Hebben een moderne engine die al de iNtel 8 cores met HT goed kunnen benutten.

Denk dat je van de meeste games niet zo veel van kan verwachten.

Een slecht multithreadende engine ombouwen tot een goede multithreadende architectuur is grote opgave. Daarnaast niet alle games hebben die mate van parralelisatie mogelijkheden in zich. RTS is genre waar als je de unit aantallen flink opschaald SMP goed benut kan worden.

Ik had dit wel verwacht van deze dev. Maar meerderheid zal dit laten liggen en die wel die moeite nemen is de kans groot dat de game zelf beperkt paralleliseerbaar zijn. En dus beperkte winst.
Leuk om te zien dat AMD zich best goed met Intel weet te meten, concurrentie is goed voor de consument. Vooral als meer game engines gebruik gaan maken van de extra cores en threads gaat de strijd tussen AMD en Intel nog interessanter worden
Over veelbelovend gesproken, lekker hoor.
Ik zou graag een Ryzen cpu in een console zien. Ik heb het idee dat er nog heel wat uit deze cpu te persen valt. Dan zouden de games er steeds beter uit gaan zien gedurende de lifetime van die console. Net zoals je vroeger zag bij de PS3/xbox360 waar de eerste games er veel minder mooi uitzagen dan de laatste, omdat er steeds meer geoptimaliseerd werd voor die architectuur.

[Reactie gewijzigd door shredder op 30 maart 2017 11:54]

Nou ben ik wel heel benieuwd wat op een pc niet zou kunnen.
"want een console kan dingen die onmogelijk zijn op een PC"
graag onderbouwing.

Edit ook zie ik niet hoe een krachtigere cpu in een console, pc gaming "brak" zou maken.
De reden waarom pc game's "brak" zijn (wanneer ze dat zijn) komt juist omdat de console's zwak zijn en de dev's daar rekening mee houden en vaak de extra kracht van een pc aan de kant schuiven.

De huidige generatie console's was al zwaar outdated toen ze uitkwamen jammer genoeg.
Ik zou graag krachtige cpu's hebben in console's zodat wij pc gamers ook meer (eyecandy) kunnen krijgen

[Reactie gewijzigd door rolandlub op 30 maart 2017 12:51]

Onmogelijk omdat je windows en een hele berg achtergrond processen MOET draaien, en bij consoles kun je veel directer toegang krijgen dan op de PC, omdat bepaalde veiligheid elementen ontbreekt bij de console zoals directe cache toegang wat bij de PC gewoon echt niet kan. (dat is verschil in performance met dezelfde chip van iets 20 tot 30%)

En waar baseer je het op dat de PS4 zwaar outdated is? Kan jou PC GDDR5 direct met de CPU en GPU tegelijk aanspreken? of je PC GPU's geheugen als systeem geheugen gebruiken? Of kun je zelfs de GDDR5 op je GPU direct met je CPU ook gebruiken en direct aanspreken? (Nee, dat kan niet want alles moet eerst door een pci-express bus)

dat is dus ook waarom als je een Ryzen met bijvoorbeeld een AMD RX 580 direct aan elkaar koppelen zoals in de PS4, met bijvoorbeeld HBM2, er voor zorgt dat een PC met exact dezelfde CPU/GPU veel trager zal zijn dan de console.

[Reactie gewijzigd door stewie op 30 maart 2017 13:32]

Het klopt dat je achtergrond processen moet draaien echter zijn dat maar enkele procenten van je performance,
En je kan bij console's iets dichter op de hardware maar niet genoeg om er 20 tot 30% uit te halen, ik zal heel graag bronnen zien voor al je claims.

De reden waarom ik de PS4 outdated noem bij release is omdat er tijdens de release al significante snellere hardware beschikbaar was en een midrange game pc al sneller was (computing power) dan de ps4.
Ook is het GDDR5 excuus die je gebruikt onzin onderandere omdat de pci-e bus absoluut geen bottleneck vormt voor een gpu

En is ram bij de meeste spellen absoluut geen bottleneck en wanneer het wel zo is (enkele nieuwere spellen) zorgt ram wat bijna 3x zo snel is maar voor +- 12% meer fps

De ps4 heeft nou eenmaal niet bijzonder veel computing power.

Ook lijk je te vergeten dat er een degelijk verschil is tussen een losse CPU en GPU en zoals in de ps4 een afgekapte APU

Om meer te weten te komen

[Reactie gewijzigd door rolandlub op 30 maart 2017 13:48]

je heb tools die dit als een game opstart allemaal compleet uitschakelen maar dit is nog geen 0.5% prestatie winst tenzij je zelf je pc overladen heb met bagger en alles leuk preload.
Ikzelf heb maar 32 processen als mijn windows 7 opstart waarvan er 4 voor geluids drivers zijn 2 voor tb en muis game oplossing en 2 voor gpu driver.

Als je dus je windows goed managed en alle onnodig meuk niet standaard mee opstart omdat het helemaal niet nodig is merk je daar helemaal niets van.

En een ps4 is simpelweg qua hardware outdated.
Hij is trager als de pc uit 2009 die ik in 2011 vervangen heb.
dat games nog draaien is niet echt door efficiŽntie van het os maar doordat veel effecten weg gelaten worden er lagere kwaliteit textures geladen worden er minder textures geladen worden er lagere wireframes gebruikt worden er minder ver gerenderd word en ga zo maar door.
Als je een ps4 grafisch profiel zou draaien op een gamer pc met een rx 480 dan haal je fors meer fps.

Het feit dat sommige games op de ps4 maar 25 gb zijn en op de pc meer als het dubbele zegt al genoeg.

[Reactie gewijzigd door computerjunky op 30 maart 2017 15:21]

Directe cache toegang tot... wat? L2, L3?

Grappig dat zowel cache grootte als snelheid geen donder uitmaakt voor game performance.

Die kleine overhead met Windows op een high-end systeem is echt nihiel was gaming betreft
Oplossing: geen "AAA" games meer kopen van o.a. EA en Ubisoft :P

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*