Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD-ceo belooft betere gaming-performance Ryzen-cpu's via patches

Door , 228 reacties

AMD heeft beterschap beloofd voor de tegenvallende prestaties van de Ryzen-cpu's in games. Via nog uit te brengen patches moeten de prestaties worden verbeterd, waarbij het vooral gaat om games die gespeeld worden op een resolutie van 1920x1080 pixels.

Dat maakte de ceo van AMD, Lisa Su, bekend via een serie aan berichten op Reddit tijdens een zogenaamde ama-sessie. Volgens Su wordt er gewerkt aan het verbeteren van de prestaties van Ryzen-cpu's in games. AMD werkt samen met de ontwikkelaars aan softwareverbeteringen, al wijst het bedrijf er ook op dat niet alle games met prestatieproblemen kampen.

De problemen komen vooral voor bij games die gespeeld worden op een resolutie van 1920x1080 pixels; daarbij zijn de prestaties niet zoals mag worden verwacht. Su claimt dat dit te maken heeft met het feit dat de Ryzen-cpu's gebruikmaken van een nieuwe architectuur, genaamd Zen, en ontwikkelaars meer tijd nodig hebben om hier vertrouwd mee te raken.

Volgens AMD zijn er ongeveer driehonderd ontwikkelaars bezig om optimalisaties te ontwikkelen die de gameprestaties van Ryzen-cpu's moeten verbeteren. Van Oxide Games, Bethesda en Sega is bekend dat zij hiervoor samenwerken met AMD. Er werd echter geen informatie losgelaten over de beschikbaarheid van dergelijke patches.

Reacties (228)

Wijzig sortering
De x99 moederborden hadden de eerste maanden ook een aantal problemen die uiteindelijk door updates zijn verbeterd. Ik ben geen fan van beide, ik wil gewoon het meeste voor mijn geld. Moederbord fabriekanten hadden enkel 3 weken om de UEFI klaar te maken voor launch. De meeste mensen vergelijken helaas de 1800x met de 7700K terwijl de 7700K ook wint van de 6900K.. het zijn verschillende CPU'S die voor verschillende taken geschikt zijn. Met de 1800X, 1700X en de 1700 kan je beter multitasken dan de 7700K. Als je de 1800X met de 6900K verglijkt, loopt de 1800X of ietsjes achter of voor, of ze staan gelijk. Als je de prijzen verglijkt, zie je duidelijk dat de 1800X een betere prijs/prestatie levert.

Ook leuk om te benoemen; Er zijn maar enkele games die gebruik maken van de 8/16 threads van de 1800X, 1700X en de 1700. Stel dat je nu een pc bouwt met de 1700 en eentje met de 7700K en ze vervolgens in 2019 gaat vergelijken, zal de 1700 in 2019 zeker betere prestaties leveren gezien games met de tijd gebruik zullen maken van meer cores/threads.

De R5 1600x/1500x zijn uiteindelijk de cpu's die het moeten opnemen tegen de 7700K. Ben allang blij dat AMD hun tijd nemen voor de R5 en R3 line up, wat hopelijk zal zorgen voor een stabielere launch.

Edit: hier is duidelijk te zien dat cores/threads verschil maken in de recente Battlefield game:

http://forums.whirlpool.net.au/archive/2562937

Results: (max, avg, min)
6 cores/12 threads: 195, 136
, 103 <
4 cores/8 threads: 188, 130, 88
4 cores/4 threads: 128, 85, 47


Edit 2: Het antwoord op ''launch issues'' door CEO Lisa Su bij CNBC:

https://vid.me/PzJb

Edit 3: Hier ''TechCity'' die bewijst dat reviews helemaal niet kloppen in zijn '' onpartijdige benchmarks ''

https://www.youtube.com/watch?v=VWarC_Nygew

Edit 4: Een interessante day one review met belangrijke punten vanaf 16:25

https://www.youtube.com/watch?v=sciuiEcrnzg

[Reactie gewijzigd door Moess op 5 maart 2017 13:04]

zal de 1700 in 2019 zeker betere prestaties leveren gezien games met de tijd gebruik zullen maken van meer cores/threads
Nope, dit riep iedereen al in 2012, en tot de dag van vandaag blijft het ontzettend moeilijk om fatsoenlijk gebruik te maken van meer cores. In mijn opleiding Software Engineering heb ik veel tijd besteed aan dit probleem en het blijft gewoon ontzettend moeilijk opdeelbare materie. Afhankelijk van wat je aan het doen bent.. zo hadden wij projecten voor distributed computing waar de workload al per definitie opgesplitst moest worden. Wanneer je dat vanaf dag 1 meeneemt en je berekening niet teveel afhankelijkheden heeft (andere systemen, uitkomst van vorige berekeningen etc), kun je best goed upscalen naar meerdere cores/cpus/systemen.

Echter, een just-in-time berekening zoals gaming heeft bizar veel afhankelijkheden. Je kunt niet simpelweg een engine schrijven die van 1 a 2 cores naar 6 a 8 cores kan gaan. Mooie uitspraak/generalisatie uit het bedrijfsleven blijft altijd: "Project managers snappen het concept scaling niet. Zij hebben liever negen moeders een maand lang dan een moeder negen maanden lang."
Allemaal waar natuurlijk maar er blijft nog genoeg over waarop parallelisatie wel van toepassing is. Daarnaast zijn er ook wel alternatieve algoritmen die parallel werken. In de berekeningen van de natuurwetenschappelijke aard zie ik daar wel voorbeelden van. Met een for-loop kan het vaak prima maar zodra het met matrix en vector algebra berekend kan worden kan het ook parallel omdat daar goede paralelle libraries voor zijn. En voor bijvoorbeeld simulaties, renderen en ook games worden algoritmen toch gebouwd op pure wiskunde en geinspireerd door natuurkunde. Er is nog een wereld te winnen en ik verwacht dat de komende jaren meer prestatiewinst door parallelisatie dan door kleinere transistors en hogere kloksnelheden. En de software die wel gebruik maakt van parallelisatie daar vind ik de prestatiewinst met regelmaat indrukwekkend
Feitelijk omschrijf je hier waarom er niet zoveel van parallellisatie te verwachten is. Omdat high end/professionele computersystemen in het verre verleden al over meerdere cores beschikten is het ook al jarenlang duidelijk welke algoritmes zich goed lenen voor parallellisatie en dat is bovendien doorgaans ook algemene kennis. Daarom is de winst die er geboekt wordt op dit gebied doorgaans ook klein, alle makkelijke vooruitgang is al een jaar of tien geleden behaald. De enige manier waarop we nu nog prestatiewinst uit multi-threading halen is complexe optimalisatie. Niet eenvoudig en geen wereldschokkende prestatiewinst mee te behalen op korte termijn.
Laat ik dan maar een voorbeeld noemen.

Bij het bepalen van de bezinksnelheid van deeltjes in een vloeistof is van belang of de stroming rond de deeltjes laminair of turbulent is. Ergens tussen laminair en turbulent is het nodig om eerst een reynolds getal te berekenen daarvoor en een snelheid nodig die je nog niet weet en is het nodig om met itteratie tot een antwoord te komen.
Simpel gezegd met een for loop.
Er is echter ook een mogelijkheid om via een archimedes getal zonder ittereren een bezinksnelheid te berekenen. Dat kan dan ook direct met matrix algebra. De archimedes methode staat in een boek uit 1964.
Voor een paar miljoen deeltjes scheelt dat een factor 40 in berekensnelheid.
Toch zie ik bij bijvoorbeeld de broncode van CFD software als openfoam dat de ittererende manier gewoon nog gebruikt wordt.
Ook in een softwarepakket als aspenone en hysys gebruikt in de chemische industrie wordt de "langzame" methode gebruikt. Dat laatste pakket is toch in de klasse categorie state of the art. Een single user licentie zit in de $30k tot $50k prijsklasse. Ik weet zelfs dat er complete fabrieken doorgerkend worden met software gebaseerd op ponskaarten in een minuut. Dat is dan gebaseerd op matrixalgebra. Terwijl hysys er uren voor nodig heeft omdat er allerlei optimalisatie algoritmen gebruikt worden, maar dan krijg je er wel een drag & click interface bij natuurlijk.

Ook het feit dat de super mario game van vroeger 31 KB in beslag nam zegt mij iets over de mogelijkheid om met slimmigheid verbazingwekkende efficientie slagen te maken.
https://www.quora.com/Sup...obytes-Hows-that-possible

Maar ik kan mij vergissen en is alles al bedacht en kan het niet beter en efficienter
In jouw voorbeeld is het voor de keuze voor lange of korte berekentijd niet zozeer de computing time die van belang is, maar misschien wel de kwaliteit van de uitkomst. Ik laat wel eens een stukje fabriek bouwen en doorrekenen en bij engineering is voor mij toch echt de vuistregel dat kwaliteit gaat voor tijd. Overigens ben ik geen ingenieur, ik geef slechts de opdracht. Als jouw archimedes getal leidt tot gelijke of betere (als in meer met de werkelijkheid overeenkomende) resultaten dan is de snelle methode degene die ik zou kiezen. Maar als de langzame methode maar een paar prcent betere kwaliteit geeft, doe mij dan maar een week meer rekentijd...

Het verkeerd bouwen van een stuk fabriek kost nog veel meer tijd en geld om ofwel te herstellen, ofwel in process capability/recovery dan jouw rekenvoorbeeld.

Kortom: ik ben het met je eens dat de fundamenten waarop software gebeouwd wordt niet altijd even stevig lijkt te zijn. Alleen is soms snelheid niet de enige KPI.

Het is denk ik wel waar dat veel software beter zou kunnen als in efficiënter en even effectief. Echter denk ik juist ook dat jouw voorbeeld precies het verkeerde is, omdat de kosten voor wat doorrekenen echt een fractie zijn van de kosten van een fout in die berekeningen. Juist voor zoiets banaals als windows of office is sneller werken van belang. Als in een bedrijf van 1000 man iedereen elke dag 4 minuten wint door sneller opstarten, sneller reageren van hun systeem, geen crashes of langere laadtijden.... dan ben je met 200 werkdagen per jaar dus 13.000 uur, dat is bijna 10 fte, oftewel 1% aan werktijd aan het winnen.

Nu zal niet iedereen die werktijd productief invullen, maar zelfs als die mensen de helft van die tijd vroeger naar huis gaan of gewoon wat minder ergernis ervaren.... is dat een veel grotere winst dan mijn ingenieur (of bureau) die 1000 euro kan besparen :)

Een kritische reageerde zou kunnen zeggen: het is niet alleen of/of. Dat is deels waar. Maar ik wilde deze nuance toch aanbrengen, juist in de commodities is de hefboom van een kleine efficiencyverbetering enorm, waar effectiviteitsverbetering in de wat specialistischer producten vaak zinvoller is.

[Reactie gewijzigd door Spanky79 op 5 maart 2017 22:45]

Ik zal je zeggen dat het zelfs nog andersom is. Met de matrix algebra krijg je het echte globale optimum en met nummerieke optimalisatie software waaronder mijn voorbeeld valt is dat niet altijd het geval en wordt er gerekend tot een zekere foutmarge.
Als dat zo is, snap ik niet waarom er en benadering gebruikt wordt. EN heb je helemaal gelijk dat het onzin is. Want niet effectief en ook niet efficient.
Ik heb flux vector algoritme gezien op een 24mhz geklockte arduino.
Dat is een complexe methode om inductie motoren aan te sturen.
Dus door middel van optimalisaties is erg veel mogelijk.
Er valt nog heel wat te verbeteren aan game engines om deze beter gebruik te laten maken van multi-core CPU's. Nog lang niet elke engine is op dat gebied state of the art. Kijk bijvoorbeeld eens naar wat Naughty Dog heeft gedaan op het gebied van "fibers" in Uncharted 4. Dit vertalen van console naar PC zal een flinke klus zijn, maar is niet onmogelijk en nog door geen enkele engine gedaan. Bedenk ook dat de ontwikkeling van C++, toch nog de meest gebruikte programmeertaal voor game engines, niet stil staat en er op dit moment enorm veel aandacht is voor concurrency en parallellisatie. C++17 en C++20 krijgen hiervoor een berg nieuwe features die het voor programmeurs makkelijker maken om een groot aantal cores native te ondersteunen.

Fibers: http://gdcvault.com/play/...ng-the-Naughty-Dog-Engine
Concurrency: https://www.youtube.com/watch?v=FaHJOkOrfNo
Er valt best veel te winnen met parallellisatie.

Hier een voorbeeld van scaling op Ryzen.
http://www.phoronix.com/s...tem=amd-ryzen-cores&num=1
Het ging mij er om wat er in de toekomst nog aan parallellisatie te winnen is. Dat bepaalde games nu al veel baat hebben bij parallellisatie wil niet zeggen dat dat in de toekomst voor iedere game weg is gelegd. Het probleem is dat een voorkeur voor een 8 core CPU veelal goed gepraat wordt door de verwachting dat in de toekomst parallellisatie meer op gaat leveren, terwijl het waarschijnlijk is dat de grote en makkelijke winst al in het verleden geboekt is, en de software die daar nu onvoldoende van weet te profiteren dat waarschijnlijk in de toekomst ook niet veel meer zal doen dan nu het geval is. Kijk bijvoorbeeld eens naar de Photoshop benchmarks. Ook typisch zo'n gebied waar ondanks jaren van ontwikkeling slechts beperkt voordeel uit parallellisatie wordt gehaald.
Idd. Waar noMSform met geen woord over rept is dat MS DX12 ook na zes cores al begint in te kakken qua multithreading. Lijkt mij sterk dat AMD Microsofts DX12 nukken gaat oplossen en/of compleet voorbij gaat.
Ik zie dit ook als een kip of het ei kwestie. Zonder programmeerervaring lijkt mij alles wat in computergames in de achtergrond gesimuleerd wordt kandidaat voor parallellisatie. Dat dit tot nu toe nog niet is nodig geweest, is ook omdat men er mee weg kon komen. Dat parallellisatie in gaming tot nu toe nog niet is gebeurt heeft volgens mij alles te maken met beschikbaarheid van hardware die dit aantrekkelijk maakt. Bulldozer had onvoldoende floating point rekenkracht om interessant te zijn, en de groep gebruikers die het X99 platform voor gaming gebruikt is te klein om invloed te hebben op ontwikkelingen in gameland.

Eigenlijk hebben we met de AMD aangedreven consoles voor het eerst gezien dat grote hoeveelheden gamehardware voor hun performance echt gebruik moet maken van de meerdere cores in hun architectuur, vanwege hun relatief zwakkere single core performance. PC hardware heeft natuurlijk al veel langer dual- en quadcore systemen maar de steeds hogere single core performance is eigenlijk een rem op parallellisatie geweest. Om die reden zijn denk ik de relatief zwakke console multicore processoren meer een trigger zijn geweest voor het ontwikkelen van parallellisatie in games.

Dat nu grotere aantallen cores beschikbaar komen in gebruikers en game-PC's is een verdere stimulans voor ontwikkeling van parallellisatie. Hierbij moet nog het besef worden opgeteld dat de single core performance niet veel meer zal stijgen. Willen gamebouwers een overtreffende trap opzoeken en willen ze innoveren, dan ligt op het vlak van performance eigenlijk alleen parallellisatie als weg open.

Het zal wel meehelpen als gebruikers van gamebouwers fatsoenlijke simulaties in games gaan eisen, simpelweg omdat de hardware daar nu echt voor klaar is. Twee of vier cores begint nu gewoon te worden, meer dan vier cores is dat nog niet. Nu AMD is begonnen met de meer dan 4 cores op een consumentenplatform zal Intel moeten reageren, en kan dit ook. Wat mij betreft maakt dit de ontwikkeling naar parallellisatie onherroepelijk.

Edt: typo's

[Reactie gewijzigd door teacup op 5 maart 2017 05:58]

"Dat parallellisatie in gaming tot nu toe nog niet is gebeurt heeft volgens mij alles te maken met beschikbaarheid van hardware die dit aantrekkelijk maakt.".

Dat is om te beginnen al onjuist. Parallellisatie in gaming gebeurt al ruim tien jaar en is met de komst van de laatste consoles met hun acht cores alleen maar herftigerr geworden. Console games, die vaak geport worden naar de pc.
Een for loop is per definitie juist iets wat minder geschikt is om paralel uit te voeren. Een for loop doe je omdat je het blijkbaar achter elkaar wil doen omdat je elke loop dus iets wil mee nemen uit de vorige loop. Een for loop is per definitie iets wat achter elkaar gaat en niet gelijktijdig. Heb je berekeningen uit voorgaande loops niet nodig heb je de hele for loop niet nodig en kan je de instructies gewoon tegelijk starten.
Ligt er aan wat voor loop, ik doe in het single threaded JS soms 2 iteraties per cycle omdat het in sommige gevallen sneller loopt. Dat zou je ook met loops kunnen doen door ze parrallel te laten lopen, video renderen is ook uiteindelijk een loop.

Enige wat voor games spreekt is dat consoles nu 7 threads hebben voor games (en één voor het OS) wat kan betekenen dat multi-threading gangbaarder wordt in engines.
en daar hebben we in .net foreach -parallel voor

100+ parallel threads , trekt een 24 core system naar 100% cpu.
Scaling in game engine design is weldegelijk mogenlijk, als het niet voordelig was geweest hadden de nieuwe generatie consoles niet zoveel cores gehad.

Parallelisatie in game engines is complex en is meestal iets wat niet iedereen even maakt. Maar het is zeker mogenlijk. Een van de op dit moment meest gebruikte technieken is job-based threading waarbij je meerdere worker threads hebt die ieder kleinere taken uitvoeren en waarbij je dus op taak basis werkt ipv system basis.

Nu is games engine multicore programming niet voor iedereen weggelegd en je code wordt er zeer ingewikkeld door en veel moeilijker om te debuggen. Dus zeker geen aanrader voor de beginnende game developer.
Toch zie je bij DirectX 12 wel betere scaling icm. SLI/Crossfire.

Bij gameengines zelf verwacht ik net als jij weinig meer scaling, maar zeker met bepaalde API's valt er een hoop winst te behalen!
Dat is het GPU werk, wat makkelijker te schalen is doordat veel van die berekeningen niet afhankelijk zijn van elkaar: de schaduw op pixel A is bijvoorbeeld onafhankelijk van de schaduw op pixel B. Met duizenden pixels per beeld kun je zo goed gebruik maken van honderden processing units (zoals CUDA cores).

De taken die een CPU uitvoert zijn vaak complexere berekeningen waarbij je de volgende stap pas kan berekenen als de uitkomst van de vorige stap bekend is. Wanneer je tien stappen moet doorlopen kun je dan wel tien cores gebruiken, maar als core 2 pas kan beginnen zodra core 1 klaar is, schiet je niets op vergeleken met een single-core CPU.

Dan kun je wel proberen om onafhankelijke taken op te splitsen, maar het is erg lastig om vantevoren te weten welke taak onafhankelijk is van andere taken: denk aan een doos die van een rijdende auto valt: je moet eerst weten hoe de auto zich verplaatst voordat je kan berekenen hoe de doos gaat vallen.

Je kan dit proberen te voorspellen, maar hoe meer rekenwerk je stopt in het voorspellen waar je aan moet rekenen... des te minder rekenkracht je overhoudt voor de daadwerkelijke berekeningen ;) En dit lijkt al zeker tien jaar een erg lastig probleem, wat afhankelijk van het type game, niet zomaar op te lossen is.
"Dat is het GPU werk"
Nee directX 12 en consorten verbeteren JUIST de schaling met het aantal cores op de CPU. CPU's doen meer dan je denkt bij het renderen van een frame ;)
De CPU zal de GPU moeten vertellen hoe hij alles moet tekenen, welke commands hij moet uitvoeren, in welke volgorde, etc. In opengl en dx11 en ouder werdt dit allemaal door de driver gedaan. Maar de driver kan hooguit gokken wat n applicatie wil, met Vulkan/DX12 kan je dit zelf beheren dmv commandbuffers, fences, semaphores, etc. Door het giswerk weg te halen uit de driver en te verplaatsen naar de applicatie haal je het gis gedeelte uit het werk. Je moet echter wel insane veel zelf regelen in je applicatie. Het grootste voordeel is nu dus dat je zelf over meerdere threads zaken kan verdelen, iets wat het oude model niet kon, want die kon hooguit gokken of iets op thread x of y kan.

[Reactie gewijzigd door Vale vista op 4 maart 2017 15:51]

belangrijker is dat de driver single threaded was op DX11 en voorgaande,
met de nieuwe DX12 en vulkan etc kan dat dus eindelijk gethread worden, dat is nog niet super hard gedaan jammer genoeg maar dat komt nog wel:

hier een vergelijking, (niet de beste de main thread is nog steeds overloaded maargoed)
http://cdn.wccftech.com/wp-content/...DirectX-11-840x472.png
nieuw
http://cdn.wccftech.com/wp-content/...irectX-121-840x474.png

dit is natuurlijk niet real life maar het gaat om het idee, en men werkt hier weldegelijk naartoe, dus ja ik zou zeker een 1700X kiezen over ene 7700, ja die 7700 geeft me nu 130 ipv 120 fps mischien maar over 3-4 jaar is dat omgedraaid met zeg 50 en 80 fps (de laatste voor de ryzen)

en vergeet niet van een vollegid singlethreaded proces naar 2-4 threads is veel lastiger dan van 4 tot 6 (waar we nu zitten ivm de consoles) naar 8+ en nu de main rendering thread gedeeld kan worden gaan 6+ cores echt wel voordeel behalen uit flinke multi core.

en vergeet niet kip ei, nu bijna iedereen 4 cores heef tof minder optimaliseren devs niet voor meer dan 4 cores (behalve Frostbite ongeveer) maar nu 8 cores ineens gewoon worden, zal dat dus meer een focus worden.

[Reactie gewijzigd door freaq op 4 maart 2017 17:12]

Over 3 a 4 jaar speel je doorgaans de spellen van vandaag niet meer. Vind het daarom niet bijster interressant dat Ryzen over tig jaar sneller is dan de 7700K; als dat al gaat gebeuren. Want laten we wel wezen; wat je zegt is pure speculatie.

Wat je laatste opmerking betreft; 8 cores coding gebeurt al een tijdje voor de consoles. console games, die nu regelmatig geport worden naar de pc.

[Reactie gewijzigd door Madrox op 4 maart 2017 23:39]

en daarom zien we dus dat bijv frostbite schaalt to 6 cores,
(2 cores zijn gereserveerd voor het OS bij de consoles)

maargoed gezien de snelheid (of meer het gebrek daarvan) zou ik graag over 3-4 jaar nog steeds deze CPU willen kunnen gebruiken, en dat kies ik dus zeker voor de 8 core ryzen,

kortom als je echt meer dan 144 fps wil want je hebt zo'n snelle monitor en je geeft alleen om de hoogste gaming performance vandaag, koop dan een 7700K

en in eigelijk elke andere situatie, ga dan voor Ryzen
gezien multicore perf veel hoger is, single thread amper trager,
en in general de CPU veel meer future proof is.

[Reactie gewijzigd door freaq op 6 maart 2017 16:41]

De taken die een CPU uitvoert zijn vaak complexere berekeningen waarbij je de volgende stap pas kan berekenen als de uitkomst van de vorige stap bekend is. Wanneer je tien stappen moet doorlopen kun je dan wel tien cores gebruiken, maar als core 2 pas kan beginnen zodra core 1 klaar is, schiet je niets op vergeleken met een single-core CPU.
Als je 10 stappen moet doen, kun je een soort assembly line maken waarbij elke core 1 stap doet en dan doorgeeft aan de volgende cpu. zolang er shared cache is heeft dat niet veel overhead.
Ja dat klopt, maar wat is daar het praktisch nut van? Het duurt nog steeds 10 units zolang je het niet parallel kunt doen.
Pipelining.

Dus het resultaat is toch nog 1 berekening klaar per klok tick.

[Reactie gewijzigd door EraYaN op 4 maart 2017 17:51]

Is dat zo ja?

Want het kloksignaal op de ene core moet toch alsnog geheel door die core heen (en dus parallel aan de andere 9 ticks)?
De pipeline vullen kost inderdaad 10 ticks.
Maar als de pipeline vol is en blijft, zal er ieder tick een een resultaat beschikbaar zijn dat 10 ticks heeft doorlopen.
1 tick op 10 cores is samen 10 ticks.
En toch zien we bij de Ryzen review van computerbase.de met de benchmarks van Battlefield 1 in DX12 dat de 1800X en 1700X SLECHTER presteren in DX12 dan in DX11 en dat Ryzen in DX12 dus alsnog flinke optimalisatie nodig heeft om echt een prestatiewinst in DX12 te kunnen krijgen. De grote hamvraag is dus, gaan gameontwikkelaars dat ook doen in de toekomst? Als we MMaster23 mogen geloven is dat echt ontzettend lastig om voor mekaar te krijgen, misschien dat het nu in DX12 makkelijk zal zijn maar ik zou toch niet te snel op een Ryzen CPU stappen met de gedachte van "dat fixen ze toch wel". Afwachten en kijken wat er gebeurt is mijn advies.

[Reactie gewijzigd door Tim2010 op 4 maart 2017 13:20]

de DX12 vs DX11 discussie is meer algemeen over de hoeveelheid cores.

wat betreft de DX12 prestaties in ryzen hoeft daar enkel DX12 voor aangepast te worden, niet zozeer elke developer opzich.
Omdat dit probleem wat je aan kaart al lang bekend is bij vele game developers, zie nog steeds weinig adoptie van DX12. In de praktijk blijkt DX12 in veel spellen zelfs een vertraging te veroorzaken. Dit is een zeer oud multi threading probleem. En het valt ook nu weer op dat velen roepen dat dit in de toekomst veel beter zal worden.
Daar ben ik het absoluut niet mee eens, iedereen schijnt te vergeten dat multi core cpu's al heel erg lang bestaan. Het is simpel gezegd enorm moeilijk om dit nuttig te gebruiken. Wat bij Dx12 gebeurt is wat ik ook terug zag in het gebruik van cpu/gpu's waar je probeert zoveel mogelijk threads aan deze apparaten te voeden. Als een thread fout is of gaat moet het hele proces opnieuw gestart worden. Met als gevolg dat je in plaats van versnelling enorme vertraging krijgt. Er is voor mij teveel wishfull thinking om te zeggen dat het in de toekomst beter gaat, iedereen vergeet voor het gemak dat multi threading al uit 1967 stamt en sinds de jaren 90 vaker word gebruikt.
Het succesvol toepassen is gewoon verdomd lastig ook beweren enkele posters dat het niet zo is, ga het maar eens proberen ik beloof je dat het vies gaat tegenvallen. Het meeste succes hebben wij met het gebruik van gpu's voor elkaar gekregen in wetenschappelijke berekeningen. Maar verder zie je amper nuttige toepassingen van de enorme rekenkracht van de gpu's. Ook omdat de gpu geen echte complexe commando's kan uitvoeren. Er word al jaren gezocht naar een breder gebruik van de rekenkracht die wij eigenlijk al heel wat jaren hebben. Maar tot dusver loopt elke programma ontwikkelaar steeds maar weer tegen de zwakke punten op. Dat neemt nog steeds niet weg dat de Ryzen een machtig mooie cpu is, ook al is hij iets trager met de meeste spellen. Ik win geen prijzen met spellen spelen en ik kom ook nooit in de top 1.000.000 in de wereld rang lijsten dus die 5 fps minder boeit mij geen ruk. Om die reden denk ik dat ik toch maar wacht tot de R5 en R3 op de markt komen. Want ik verwacht geen nuttig gebruik te kunnen maken van de 8/16 cores van deze mooie R7 telgen. Ook al zijn de prijzen erg netjes.
Minstens zo belangrijk: Het processorgebruik daalt significant, dus is de processor ook niet langer de flessehals. Als The Talos Principle op Vulkan zet, dan zakt de zwaarst belaste kern naar net onder de 15% belasting, terwijl als ik OpenGL kies, er altijd 1 kern tegen de 100% belasting loopt. Dat zie je maar tot op zekere hoogte terug in het aantal fps. Als je puur naar de processor kijkt, dan is het effect spectaculair.

En dan zeggen ze bij Croteam dat er nog erg veel werk te doen is om hun Serious Engine optimaal gebruik te laten maken van Vulkan, hetwelk ook voor andere spellen zal gelden.
Maar is dit niet gewoon lastig om dat wij als mens (en dus ontwikkelaar) ook gewoon serieel denken oftewel logica in de vorm van if-if-if (tenminste zo denk ik)? Dat kun je toch niet simpelweg doorbreken door maar logischer te gaan programmeren? Daar is toch veel meer (vernieuwde programmeer talen) voor nodig?
Ik moest gelijk denken aan https://wrathematics.gith...ide/#openmp-pros-and-cons toen je die parallelle zwangerschap beschreef. Leuk voorbeeld :)
Hahaha die was ik vergeten inderdaad dat is een perfecte uitleg van hoe het in de praktijk vaak eindigt met het trachten gebruik te maken van de parallele reken technieken.
Games zijn nu net ideaal om te schalen ! De PS4 en XBone hebben trage 8-core cpu's (Jaguars) welke de developers verplichten om alles multithreaded te maken. In games moeten zo veel berekeningen gemaakt worden dat meer threads net goed is. Het is vooral omdat Intel de mainstream cpu is dat er geen rekening gehouden is met meer dan 4c/8t. Dit zal in de toekomst veranderen nu het landschap er anders begint uit te zien maar dat zal niet op 1, 2, 3 gaan.
Een oprechte vraag. Hoe doen moderne consoles dit dan ? Een PS4 heeft bvb 8 cores die individueel niet mij het snelste lijken. De PS3 was dacht ik op dat vlak nog erger.

Ik besef wel dat die allerhande trucjes aan boord hebben op architecturaal gebied, maar je ontkomt toch niet aan het gegeven dat je veel moet paralleliseren op die platformen.
Volgens mij hebben consoles een paar cores gereserveerd voor encryptie/decryptie, streaming en andere achtergrond taken die makkelijk af te splitsen zijn. Daarnaast zijn cores niet altijd gelijkwaardig. Bij een console is dat wel het geval, bij een smartphone veelal niet. Verder geen idee of ze daadwerkelijk effectief gebruik kunnen maken van de zes a zeven resterende cores.
Nee hoor: als ik nu wist dat een 3570k het minder zou doen door het missen van threads tov de 3770 dan ik liever de laatste gehad. Heb toen puur door adviezen van tweakers een 3570 gekocht en toch blijkt nu een 3770 veel beter te zijn voor bf1 (minder drops bij veel actie op het scherm.

Dus wat Moess zegt klopt wel voor een deel. Denk dat de 18/1700 meer future proof is dan de 7700k.
De 3770k heeft naast HT ook 2MB meer Cache en 100Mhz extra ;-)

Bij het gros van de games haalt HT aan/uit geen moer uit, sterker nog in CPU saturated situations haal je vaak een paar procent meer fps door het uit te zetten.

BF1 zal meer een uitzondering zijn dan...
Of de toekomst voor alle frostbite games.
En sinds EA nogal van 'frostbite voor alles' is verwacht ik dat in iedergeval voor de EA stal de i7 het beter gaat doen dan een i5. En een verschil van 100mhz is lachen, op 3GHZ is dat slechts 3.33% sneller. dat ga je niet merken.
Scaling is moeilijk. Dat horen we al jaren. Waarom zou je de minimum vereisten dan niet gewoon verplaatsen? Minimaal een 6-core CPU is tegenwoordig niet zo onrealistisch meer denk ik. Bijna iedere pc die geschikt is voor gaming heeft tegenwoordig een i7. Het is lang geleden dat ik een i5 tegen gekomen ben in een gamesysteem.
Niet iedereen zit op een i7 en een gtx 1080 en geprept voor 4K. Voor full HD Gaming heb je genoeg aan een i5 met een rx 480. Die i5 gaat echt niet bottlenecken dan. Daarnaast worden flink wat gamelaptops uitgerust met een i5. Dus 'iedere pc die geschikt is voor gaming heeft tegenwoordig een i7', vind ik onzin.
Zo blijven we wel in een cirkel rondgaan. Devs verhogen de requirements niet, want een gedeelte van de gaming community voldoet er niet aan, en de gaming community blijft hangen op quadcores omdat ze niet beter hoeven. Hoelang blijft dat door gaan? Totdat Intel eindelijk ingeeft en de markt niet blijft terughouden? Dat zie ik nog niet gebeuren.

Je hebt dus helemaal gelijk. De i5 gaat niet bottlenecken. Omdat er rekening gehouden moet worden met die i5 gebruikers.
Er ik zekere veel betere gebruik van meerde threads gekomen, waarom je dat niet terug ziet in de benchmarks is omdat de bottleneck nog steeds bij de single thread performance light. Als je kijkt naar CPU gebruik over meerde cores over de jaren heen zit daar best een flinke groei in.

Ook is er groten deels van het design van en Rendering/Physics/Thread thread designs naar voorledige multithread engines ge gaan en kan je in veel engines scaling tot elke hoeveelheid threads.

Daarnaast zijn de data dependency probleem bij gedistribueerde systemen veel extremer dan bij een CPU, en is het heel realistisch om met locks veel problemen op te lossen.
Data dependency oplossing die mbv locks/messages communiceren geven een exponenteel performance verlies mbt het aantal cores en de snelheid van de communicatie, en dat maakt die oplossing bij klassieken gedistribueerde systemen vaak onrealistisch, maar dan praat je over communicatie over een bus/netwerk en meer dan duizenden cores. Op een PC over het geheugen met 16 cores gaat dat echt niet zo rap.

Waar het probleem op dit moment vooral ligt is de overhead van de GPU Driver, Niet zo zeer bij de engines zelf.
Het in de laatste 1-2 jaren is het erg opgeschoten, dat heb je vooral te danken aan de 8 core AMD consoles en de push voor Dx12/Mantle/Metal en Vulkan.
Inderdaad vooral bij software zoals games waarbij realtime belangrijk is en dus vooral de ipc per core zal het voor amd moeilijk worden om met deze architectuur bij te blijven met Intel als die het gas open trekken en gaan reageren. Want iedereen moet natuurlijk niet vergeten dat Intel de afgelopen jaren gewoon niet echt hoefde.

Bij de server markt daarentegen denk ik dat amd echt goede kansen heeft aangezien de gemiddelde load daar al wel perfect op multi core is voorbereid. Deze architectuur zal daar dus perfect voor zijn en dus zodra het een bewezen product is ook snel weer relevant. worden.

Dat is belangrijk omdat de groei van de CPU markt qua waarde zich vooral op dat gebied afspeelt.
Let wel op met de nauwkeurigheid van de test die je aanhaalt. Er is slechts 1 run uitgevoerd per categorie, geen mediaan of zelfs maar middeling. De hyperthreading resultaten zijn eigenlijk veel te goed, je ziet zelden tot nooit dit soort verschillen tussen een Intel i5 7600K en i7 7700K bijvoorbeeld. Verder worden er hier cores uitgeschakeld, dus dezelfde kloksnelheid in alle gevallen. De Ryzen 1700 zal het allicht relatief beter gaan doen de komende jaren, maar een relatief verschil als 88 en 103 zul je naar mijn verwachting niet gaan zien tussen een 7700K en 1700. De beide CPU's schelen afhankelijk van de dynamische frequentieregeling maar liefst 22-40% in kloksnelheid en dat zul je blijven voelen, zeker in games.

Het verschil in de test tussen een 4/8 en 6/12 CPU is echter maar 17%, dus stellen dat de 1700 in het jaar 2019 in games zeker betere prestaties zal leveren dan de 7700K lijkt me te kort door de bocht. De trend in de test is er namelijk ook al een van verminderende meeropbrengst: 47 met 4/4, 88 met 4/8, 103 met 6/12. Verwacht dus van een 8 cores / 16 threads CPU geen wonderen in dit scenario, want de winst daarvan is naar alle waarschijnlijkheid nihil helaas.

Vanuit de theorie is steeds meer cores goed laten schalen al steeds lastiger, in praktijk is er ook nog altijd ergens een single core bottleneck. De Ryzen 7 serie heeft bovendien 2 core complexes met aparte caches. Het zou erg vreemd zijn als je juist daar zo'n goede scaling op zou weten te halen, terwijl dat bij de Intel 6850K met zijn gedeelde cache al niet lukt. Vergeet bovendien niet dat zelfs de veel hoger geklokte Ryzen 1800X het nu (nog?) regelmatig verliest van de 7700K in games. De 1800X is dan een veel veiligere keus voor mijn gevoel omdat je met goede koeling nog steeds een stabiele 4GHz haalt. Daar zul je in de tijd dat je die CPU hebt waarschijnlijk veel meer plezier van hebben dan een 1700 voor gaming.

Gaat de 1800X of minimaal de 1800 qua budget niet lukken, dan zou ik nu toch maar een 7600/7700K pakken voor gaming, of anders nog een paar maanden wachten op de Ryzen 5 serie met een vergelijkbaar hoog geklokte 6 cores / 12 threads CPU voor een veel schappelijker bedrag. Veel minder risico op teleurstelling.

[Reactie gewijzigd door OruBLMsFrl op 5 maart 2017 01:49]

Moederbord fabriekanten hadden enkel 3 weken om de UEFI klaar te maken voor launch.
Natuurlijk niet, veel langer. Die hebben al veel eerder samples van de CPU's en chipsets gekregen om hun moederborden te kunnen ontwikkelen.
Ik wil je graag gelijk geven en ik weet dat een stabiele UEFI klaar hebben ongeveer zo'n 3/4 maanden duurt maar gamers Nexus gaf aan dat moederbord fabriekanten toch echt 3 weken de tijd hadden om de gehele UEFI klaar te hebben.

https://youtu.be/TBf0lwikXyU

In dat filmpje is er trouwens ook een opname van zijn telefoongesprek met AMD, misschien interessant om het te gaan luisteren.
Mooi verhaal maar er zitten wel een aantal onjuistheden in.

De redenatie dat de Ryzen 5 de "gaming cpu" wordt is onjuist.
De Ryzen 7,5,3 series moet het respectievelijk opnemen tegen de Intel Core I7, I5, I3 series.
In de breedste zin zijn alle AMD en Intel series gaming cpu's, en worden ook als zodanig op de markt gezet.

Er wordt door AMD groot ingezet om de Ryzen 7 als gaming cpu in de markt te brengen. AMD is actief bezig developers te benaderen om instructies in hun game code te optimaliseren. Veel GC is geopitimaliseerd voor Intel instructies en daar heeft Ryzen nu last van in sommige scenarios. Ook kijkt sommige game code naar vendor ipv cpu en selecteert daardoor verkeerde optimalisatie-instructies. Hier kan AMD nog wel wat winst verwachten MITS devs de moeite nemen.

Ik hoop dat je 2019 voorspelling klopt voor wat betreft multi-core optimalisaties. Die kans acht ik klein, sowieso wel raar om dit als feit te brengen, dit wordt namelijk al 8 jaar geroepen en er is vooralsnog weinig van te merken.
Ik zou denken dat 6 cores en 12 threads toch wel ruim voldoende is voor games de komende 5 jaar?
Ja absoluut, sowieso is de Ryzen prima geschikt voor gaming.

De vraag is of games binnen afzienbare tijd op een impactvolle manier gebruik kunnen maken van extra cores.
dit wordt namelijk al 8 jaar geroepen en er is vooralsnog weinig van te merken.
Neem Battlefield 1 als voorbeeld:

http://forums.whirlpool.net.au/archive/2562937


Results: (max, avg, min)
6 cores/12 threads: 195, 136, 103
4 cores/8 threads: 188, 130, 88
4 cores/4 threads: 128, 85, 47


En kijk dan naar de minimum framerrate van de 6c/12t

En we zijn nog in 2017

[Reactie gewijzigd door Moess op 4 maart 2017 16:34]

Moet het niet alsvolgt zijn:

Max, avg, min?
Before I even start, let's acknowledge that my test is far from thorough and yes, I know, multiplayer benchmarks are not 100% reproducible
Benchmarken in multiplayer, elke benchmark is een andere load...
Maar 1 run per config. Dit is totaal niet serieus te nemen.


Een snelle google levert deze uitgebreide review op voor cpu scaling in bf1:

http://www.gamersnexus.ne...1-vs-dx12-i5-i7-fx/page-2

[Reactie gewijzigd door KraKa op 4 maart 2017 13:11]

Er klopt geen reet van, en op de site die jij benoemd haalt hij het opnieuw door elkaar.

Misschien een betere referentie benoemen?

Ook benchmark CPU's niet per definitie op 'Ultra high'.

Met een grain of salt nemen dus.
Zoals al eerder gezegd is het opnemen tegen de 6900k een holle phrase, het is een high end workstation CPU waar slechts een zeer kleine groep gebruikers behoefte aan heeft. Als je dan zo graag naar die 6900k wilt kijken zal je ook moeten kijken naar welk marktsegment je dan terecht komt. Workstations van minimaal 3000 euro waar een paar procent extra prestaties en de bewezen kwaliteit van Intel zwaarder telt dan het prijsverschil op de processor.

Daarnaast vergeet iedereen voor het gemak even dat de zes core 6800k nog tussen de 7700k en de 6900k inzit en een prijs heeft die vergelijkbaar is met de 1800x. Voor wie budget belangrijk is heeft dus altijd de optie om het met twee cores minder te stellen en gewoon bij Intel te blijven. Bovendien komt Intel binnenkort (Q2) met de Kabylake-X processoren. Daarmee zullen ze niet alleen een kleine prestatiewinst gaan boeken, maar ook de mogelijkheid krijgen hun high end processorlijn beter op AMD af te stemmen.

Met al dit enthousiasme moet ik nog wel eens terugdenken aan een Japanse autofabrikant die een limousine introduceerde die qua kwaliteit kon concurreren met de grote merken voor slechts de helft van de prijs. Nooit meer iets van vernomen.
Je vergeet even te vermelden dat AMD wel al een gevestigde waarde is en het al heeft gepresteerd om betere processors te maken dan Intel.
Ryzen is ontegensprekelijk de betere prijs kwaliteit processor op de mark, het tegendeel beweren zijn "alternatieve feiten"...
Bijna alles is toch ook geoptimaliseerd voor Intel core lijkt me, iedere spelletjes fabrikant wil toch het beste eruit halen. En als dan de AMD wezelijk anders is dan is het, lijkt mij, niet zo gek dat er in spellen ipv benchmarks verschillen opduiken.
Geef idd de programeurs wat tijd (en AMD) om te laten zien wat deze nieuwe cpu's kunnen. Daar helpen wij ons in de toekomst zelf ook mee :)
Dit dus!

Ik snap ook totaal niet waarom ze game performance / single core vergelijken met cpu's als de 7700k. De 7700k zelf is inderdaad ook beter dan de 6900k op dat gebied. Echt stom dat sommige reviews Ryzen 7 daarop afstraffen en zo momentum wegnemen van AMD.

Ik zie Ryzen 7 als de socket 2011-3 cpu's van Intel. Zelf heb ik ook bewust gekozen voor een 6700K ipv een 6800+. Ik heb simpelweg niet meer dan 4/8 c/t nodig omdat ik niet aan video editing en dergelijke doe. Dus ik kan die hogere kloksnelheden ook goed gebruiken.
Je resultaten staan precies andersom ;)
Je resultaten staan precies andersom ;)
Aangepast. Thanks!
"zal de 1700 in 2019 zeker betere prestaties leveren"

Dat is een ongefundeerde assumptie.
Dat wordt de afgelopen 5 jaar al geroepen en toch zien we er nog weinig van terug. Voor redenen die hieronder al zijn genoemd. Het is erg moeilijk te implementeren.

En ookal zou je deze statement wel hard kunnen maken (dat kan je niet), je adviseert mensen een product dat (misschien) over een paar jaar beter is maar nu duidelijk slechter. Een beetje een rare redenering.
Dus u draait alleen een games op uw pc?
Er draait helemaal niks anders op de achtergrond?
Ik ben geen fanboy en maak me niet druk over wel merk op mijn cpu gedrukt staat.
Persoonlijk kijk ik naar best bang for the buck.

Het lijkt erop dat ze de AMD ryzen 7 serie gewoon te vroeg hebben vrijgegeven.
Problemen met microcode en bios fouten ... MST die in win10 niet lekker loopt ... powermode van win10 die stoort en geheugen wat niet op zijn snelheid kan draaien... allemaal kinderziektes die er absoluut uitgewerkt gaan worden.

gelukkig zien we wel al veel verbeteringen in die paar dagen na release.
https://forums.overclocke...cussion.18665505/page-592
3,9Ghz word stabiel gehaald over alle cores onder 62 graden met een 1700.
Dat deze dan niet meer fps scoort als een 7700K onder 5Ghz, maakt de 1700 echt geen slechte cpu.

En voor degene zie zeggen dat 4 cores meer dan genoeg is voor de komende jaren in games...daar kijk ik anders naar.

I5 6600K gtx 1070 draait in BF1 alle cores 98% .. daar is niet echt veel meer over.
een I7 met gtx 1070 in BF1 loopt tegen de 80% op alle cores.
En dit is een engine die behoorlijk goed is en al jaren verbeterd en verbeterd,
Gelukkig zijn er langzaam meer mensen die beseffen dat we met kloksnelheid bijna geen winst meer kunnen halen...en dat dit nu steeds met meer en meer cores gaat gebeuren.

laatste link is trouwens van een game die wel al multi core foccused is en hogere fps scoort met een 1700x tov een 7700K

https://s12.postimg.org/j...5901110875835269422_n.jpg

Ieder zijn ding...maar als je nu nog een 7700K aanschaft weet je dat je volgend jaar niet meer kan upgraden zonder alles te moeten vernieuwen...dit door het socket change.

dan heb je meer future met het AM4 platform.
Raad ik je nu aan om het nu te kopen??? NEEH geef het nog een paar weken zodat alle kinderziektes eruit zijn gewerkt. en we zullen veel betre benchmarks gaan zien.
Ja een Socket change is ook van belang, dit weegt ook mee in future proof.

Dat laatste over de Game F1 2016 , waar is de orgiinele bron daarvan?
Maar hoeveel games hebben geen baat bij multicores ?
Het grote gros nog niet.
Nou ben ik bescheiden met mijn i5-3570K@4500Mhz maar hij BF1 op een 1070 komen mijn cores niet boven de 75% workload uit.
Bij de beta van Ghost recon wildlands was mijn CPU nog niet eens de bottleneck maar de GPU van 1070 :)
Nu maakt het veel verschil of je op 1080p of 2K of 4K gamed, op 2K en 4K daalt de load op de CPU aanzienlijk.
Maar dit is bij elke game weer anders, Crysis3 zuigt zelfs op 4K mijn CPU tot 90% load :P.
Socket change is nodig voor future proof?
Die snap ik niet helemaal.

AMD kan namelijk ook 1 socket maken waar ALLE chips op passen...zelfs de server chip.
Tuurlijk kunnen ze 1 universeel socket maken met 500 extra pins die nog niet werken maar wel beschikbaar zijn voor de future......maar dan verdienen ze gewoon minder.

De bron van de Game 2016 is van een member van het forum op overclockers.co.uk.
De core belasting hebben we gisteren in BF1 getest.
i5 6600K was in BF1 single player en de I7 was in multiplayer en zat over alle cores 80%

Dat de oudere games nog geen gebruik maken van multicore ben ik met je eens...maar je koopt nu geen nieuw systeem om dan geen rekening te houden met de nieuwe games.

Starcitizen werd tijdens de stream een vraag gesteld aan de DEVS of high clock of multicore ..... het antwoord was duidelijk....beter meer cores dan hoge clock.

We zien dan ook niet voor niets zulke rumours:
https://www.extremetech.c...with-upcoming-coffee-lake
Als je een verouderde socket neemt zoals voor de 7700K heb je kans dat je geen update meer kan doen.
Koop je de Ryzen op AM4+ dan kan je wel even vooruit om later eventueel een snellere AMD processor te plaatsen.
Bij Intel wordt je er onderhand een beetje moe van. 1155(nu obsolete) 1150 1151 en de laatste is 2011v3 dus tja.
Je zult toch ook een nieuwe chipset willen lijkt me. Ik bedoel USB en Thunderbolt en hopelijk Ethernet worden toch steeds sneller.
Daar heb je gelijk in, maar zolang je geen storage via USB gebruikt zoals schijven/nas gebruikt is zelfs USB 2.0 nog snel zat voor rand apparatuur.
Ethernet 1.0Gig lijkt mij nog voldoende 100mb/s de meeste halen dat niet eens met hun internet verbinding of de oude harde schijven zonder een raid.
Voor lannen en netwerk is dat verhaal weer anders geworden met de komst van SSD dan zou er best wel eens 5.0Gig netwerk kaartjes mogen komen of hoger in dien mogelijk.

Thunderbolt heb ik geen ervaring mee.
Nouja een NAS though. 1Gbit is echt te weinig om echt alles over het netwerk te doen. Met SMB multi pathing kun je al connecties combineren, maar wat tweedehands infiniband kaartjes zijn het dan wel waard,
Alle opslag van enig formaat zit bij mij in een (vlot) los servertje, desktop heeft alleen twee SSD's voor software etc.
Weet je? Gbit is voor mij vlot zat. er is werkelijk *niets* wat op die 12 tera aan HDD's staat wat ik met meer dan 100MB/sec gebruiken wil.

Zijn er uitzonderingsscenarios waar een gebruiker meer bandbreedte naar dat soort opslag nodig heeft? sure. Videobewerking oid (maar dan nog, cache dan een paar honderd gig lokaal...) maar zelfs de meeste power users met een dikke NAS gaan aan Gbit bedraad nog een stevige tijd meer dan voldoende hebben.
Het ging me meer om de latency. Vooral voor video editing als je er echt alle bestanden hebt is dat fijn. Daarbij werkt lokaal cachen echt niet zo heel goed. Nog niet in de laatste plaats omdat je dan alsnog veel storage nodig hebt lokaal.
één 250GB-ish SSD a <¤100 en je kunt meer dan voldoende lokaal opslaan, zonder allerlei aanhobbyen met infiniband oplossingen. Goedkoper, ook :-)
Afgezien van het feit dat je dan constant je "cache" aan het managen bent. Premiere is vrij goed in het opnieuw vinden van paden, maar After effects en een flink aantal andere programma's hebben daar toch een stuk meer moeite mee. En offline files van Windows is niet echt snel te noemen. Je hebt ook nog branchcache, maar dat wil volgens mij niet eens naar een niet server Windows installatie.

Daarbij kosten die Infiniband (Mellanox ConnectX-2) kaartjes 35 euro per stuk of iets dergelijks.
Kosten van die kaartjes zijn de issue niet. Kosten van de bekabeling, in acht nemende dat die NAS/server vaak niet in dezelfde kamer zal staan, is een groter punt, allicht laatste keer dat ik r naar keek.
Sorry, maar die gast van GamersNexus ziet het helemaal niet zo rooskleurig en ik geef hem nog gelijk ook. Vooral nu ik weet dat de Ryzen 1800X intern eigenlijk meer lijkt op een DUAL CPU met 2 keer 4 cores. Als een core van het ene blok moet communiceren met een core van het andere blok, blijkt er een flessehals te zijn. Dit is een bewuste keus van AMD geweest om het design schaalbaar te maken, maar veroorzaakt dus in potentie een flessehals.

Of ze daar zomaar even omheen kunnen werken, lijkt mij nogal lastig. Want dat betekent dat de game engine ervoor moet zorgen dat cores van het ene blok zo min mogelijk communiceren met de cores van het andere blok. Als je het mij vraagt een zeer lastige, zoniet onmogelijk opdracht.

De crux begint in deze ontwerp keuze:
Each CCX is a 4C/8T module, resulting in two modules for the R7 CPUs (2x CCX = 8C/16T)
Twee modules samengebracht op één Dye en daaromheen de nodige caches, pipelines e.d. om de boel samen te brengen. Simpel gezegt. En daar wringt dan ook meteen de schoen, zoals o.a. bij Gamers Nexus uitgelegt word. De zwakke plekken hierbij zijn de cache én de breedte van de verbinding tussen die twee CCX modules, die slechts 22GB/s is. Veels te traag, volgens deze reviewers.

[Reactie gewijzigd door Madrox op 5 maart 2017 23:25]

Helaas kom je met een voorbeeld waar we niet veel aan hebben:
I5 6600K gtx 1070 draait in BF1 alle cores 98% .. daar is niet echt veel meer over.
Hier lees ik nml:

I have the 6600k along with the GTX 970. I am not having this issue, and my frames seem to be constantly over 60fps. I am using the current Nvidia Driver (373.06) My cpu usage seems to be at 60%.

Reply-
A lot of people complaining seem to be using the 1070 so it might be an issue specific to this card. If it is in part those are good news as a simple driver update can fix the problem!


Bovendien zie ik nog meer oplossingen om de 100% cpu usage aan te pakken, wat wederom allemaal niets van doen heeft met een cpu bottleneck. Eerder een "user created" bottleneck.
Zoals het uitschakelen van sommige background software en/of het uitschakelen van sommige Windows Services, zoals bijv. Windows Update.
Bron: https://www.reddit.com/r/...usage_normal_for_a_6600k/

Jouw probleem is blijkbaar vooral een driver issue ipv een echte cpu bottleneck.

[Reactie gewijzigd door Madrox op 5 maart 2017 07:30]

In de AMA (die het had van Tom's hardware) stond ook dat dit waarschijnlijk kwam door de SMT methode die indien het programma voor Intel SMT gecompiled (lees geoptimaliseerd) was dit slechter presteerde op AMD Zen processoren. In games die geen profijt van SMT hadden, was de snelheid zoals verwacht.

edit links:
https://www.reddit.com/r/...radeon_and_other/def4wcj/
https://www.techpowerup.c...ge-and-more-at-reddit-ama

[Reactie gewijzigd door Sloerie op 4 maart 2017 10:59]

In de BIOS SMT uitzetten lost een deel van de problemen ook op.
Ik weet niet of AMD een eigen compiler heeft.

Maar ik weet wel dat Apple haar BSD en alles daarop met Intel compiler compiled en derhalve optimaal prestaties weet te bereiken.
Dat is denk ik op dit moment het grootste probleem van AMD. Optimalisaties dmv de compiler zijn er niet of nauwelijks omdat bijna iedereen de Intel compilers gebruikt, en het niet handig/practisch is om een 2e compiler te gebruiken. Intel gaat daarbij natuurlijk niet zo maar even in hun compiler optimalisaties voor AMD toepassen. Ook las ik dat AMD niet alle AVX(2) extensies ondersteund in hun cpu design.

Daarbij is een 2e probleem dat ze nog geen hoge clockspeeds halen. 4.0 to 4.1 lijkt wel het hoogst haalbare te zijn op dit moment. De kaby lakes halen op dit moment vrij gemakkelijk de 5Ghz. Als je IPC ongeveer gelijk is, maar je 1Ghz langzamer draait verlies je het natuurlijk nog steeds. Zeker omdat de meeste games nog steeds baat hebben bij een hoge singlecore performance (oftwel IPC x clockspeed). Denk dat dit een goede aanloop is van AMD, die zeker in toepassingen waar je baat hebt bij veel cores, goede performance bied voor relatief weinig geld. Ze moeten echter flink aan de slag voor wat kinderziektes op te lossen voor de volgende generatie:
- hogere clockspeed (zeker 4.5 Ghz)
- Betere geheugenperformance en compatibility (vooral met 4 sticks)
- AVX ondersteuning ?
Ja maar je bent hier appels met peren aan het vergelijken. De klokfrequentie van AMD loopt achter ja tov van de 7700k/6700k maar dat zijn quadcores. Het blijft wachten op de Ryzen 4c/8t processors om te zien of AMD door weglaten van 4 cores zijn klokfrequentie kan opkrikken. Normaal moet dat gebeuren en komen ze qua single core performance bij de 7700k. Daarom moet je nu de 1800X vergelijken met de 8core van Intel, nl. de 6900K.
De 1800x wel ja, maar ze zetten zelf de 1700 (non X) tegenover de 7700K, en buiten de applicaties die goede multicore scaling hebben moet de 1700 het best wel stevig afleggen tov de 7700k.
AMD had deze beter kunnen vergelijken met de andere broadwell-e cpu's.

Ik hoop voor AMD dat de R5 en R3 series met lagere corecount wel clockspeeds van rond de 4.5Ghz kunnen halen om zo iig vergelijkbare performance tov de 7600k en 7700k te krijgen.

Goede concurrentie is voor ons als consumenten alleen maar positief, dus ik hoop dat AMD het goed gaat doen. Lagere prijzen, en eindelijk moet Intel weer eens aan de slag om AMD voor te blijven, ipv de magere updates die we sinds Sandy bridge gehad hebben.
>omdat bijna iedereen de Intel compilers gebruikt,
Lijkt me eerlijk gezegd heel sterk. Ik vermoed dat het grootste deel op de microsoft compiler gecompileerd wordt (tenminste alles voor windows), daarna gevolgd door GCC en misschien Clang (voor macOS). Intel compiler is uiteraard goed, maar als je visual studio hebt is er niet veel reden om dat te combineren met een intel-compiler.

Meer werk, versus - op z'n best - minimale performance wist ( de MS-compiler is best goed ).

[Reactie gewijzigd door rboerdijk op 4 maart 2017 16:18]

Maar een Celeron op 2Ghz presteerde niet evengoed als een Pentium op 2Ghz.
Tja, dat is het voordeel van een zeer beperkt aantal configuraties te hoeven ondersteunen.
AMD heeft geen compiler ( behalve een shader-compiler, in het geval van openGL :)
Ik pikte dit nog op over Ryzen prestaties onder Windows:
Windows power profile op "High Performance" zetten in plaats van de default "Balanced" zetten schijnt ook al een positief effect te hebben op de prestaties. Ik lees dat er vermoedens zijn dat dat komt omdat in games veel communicatie tussen CPU & GPU plaatsvind en er veel context switches zijn.

Schijnt te maken te hebben met het aanvragen van de processor Power States die bij Balanced meer door Windows gestuurd worden, wat een delay van zo'n 30ms introduceert.
Terwijl bij High Performance de SenseMI in de Ryzen processor die taken grotendeels overneemt wat de latency flinkt omlaag brengt. Daarom denk ik dat met een software update nog best wat winst te pakken is.

Bij het lezen van reviews en benchmarks zou ik zeker even in de gaten houden of de reviewer daar rekening mee gehouden heeft als je geïnteresseerd bent in de gaming prestaties op het Windows platform.

[Reactie gewijzigd door Ultraman op 4 maart 2017 12:40]

Wat ik laatst zag bij een multi-core Xeon server met performance op Balanced was dat het draaien van PiFast op één core ervoor zorgde dat het systeem in de low-power mode bleef. De resultaten in PiFast waren vergelijkbaar met een Athlon64 3000+. Pas bij het starten van meerdere instanties van PiFast (waarbij ook meerdere cores volledig gebruikt werden) ging de multiplier/klokfrequentie omhoog en was het performance-niveau weer normaal. In dat soort gevallen geeft 'High Performance' simpelweg de beste prestaties omdat het systeem pas bij hogere loads opschakelt.
Ik pikte dit nog op over Ryzen prestaties onder Windows:
Windows power profile op "High Performance" zetten in plaats van de default "Balanced" zetten schijnt ook al een positief effect te hebben op de prestaties. Ik lees dat er vermoedens zijn dat dat komt omdat in games veel communicatie tussen CPU & GPU plaatsvind en er veel context switches zijn.
Dat is bij Intel niet anders als deze met speedstep aan de kloksnelheid laat variëren, wat je in taakbeheer ziet is lang niet alles, een spel kan tijdelijk even iets minder vragen van de CPU in dat kleine deel van een seconde en daarna ineens een stuk meer, daar moet de CPU wel op tijd klaar voor zijn.

Door de CPU te forceren op zijn maximale kloksnelheid te laten lopen zorgt dit ervoor dat spellen minder lage MIN-FPS dips kunnen krijgen en mogelijk iets of wat stabielere maximale waarden.
Daarbij kan je ook nog core-parking uitzetten, wat veelal gebeurd bij AMD FX en i7 processoren, het opnieuw wakker maken van cores kan ook een kleine delay hebben en dit kan ook de stabiliteit verbeteren.

[Reactie gewijzigd door CriticalHit_NL op 4 maart 2017 12:43]

De game prestaties zijn laag maar goed om te horen dat AMD aan verbetering werkt voor de Ryzen generatie en benieuwd of dan AMD sneller van wordt.

In Hardware.info TV werd verteld dat je de game prestaties kan verhogen door SMT uit te zetten
Nu zou ik sowieso mensen niet aanraden om een 8c/16t cpu te kopen voor gaming.

Ook vraag ik me wel af hoeveel daadwerkelijk is op te lossen met patches.

Het grootste verschil lijkt toch gemaakt te worden door de veel hogere clockspeeds i.c.m. de iets hogere IPC van Kabylake gaming cpu's (7600k, 7700k). Beide zijn niet op te lossen met patches.

Ook lijkt de implementatie van SMT juist voor slechtere performance te leiden in veel games. Dat was bij de eerste generatie van HT bij Intel volgensmij ook zo, die hadden een nieuwe generatie nodig om dit te fixen.

"De problemen komen vooral voor bij games die gespeeld worden op een resolutie van 1920x1080 pixels;"

Wat logisch is, hoe lager de resolutie hoe groter de kans op een cpu i.p.v. een gpu bottleneck. En vice versa.

[Reactie gewijzigd door Rixos op 4 maart 2017 11:09]

Het klopt in ieder geval dat de 7700K sowieso beter zal presteren door zijn hogere kloksnelheid en ipc, dat wisten we normaal gezien allemaal op voorhand daar de beste scenario's voor Zen broadwell ipc was en de 4ghz kloksnelheid op turbo. 2 factoren waar de 7700k altijd beter in zal zijn.

Maar wat me vooral stoort aan deze reviews is dat ze zich focussen op de gemiddelde fps terwijl de Ryzen net veel beter scoort op de minimale fps. Stel je voor dat je BF1 speelt en dat er plots massa's vijanden op je afkomen die schieten en bommen gooien. Daar moet de cpu net harder werken om dit allemaal te verwerken en in zulke scenario's zakt de fps bij de 7700k veel harder dan bij de Ryzen. Maw, je hebt smoother gameplay op de ryzen.

Hier is een video met vergelijking: de Ryzen aan 4ghz heeft ongeveer dezelfde min fps als de 7700k aan 5ghz !
Heb ook al een paar reviewers gehoord die claimen dat de 1800X toch soepeler liep in bepaalde games (GTA V en WD2) als de 7700K, echter was dit niet echt te meten, maar het viel ze op
Minder dips/minder spikes lijkt me dan.
Dat zou toch wel te meten moeten zijn? Registreer gewoon iedere seconde de FPS en zoek met een of andere statistische analyse uit hoe veranderlijk de framerate is, en hoe lang deze pieken/dalen duren. Heel veel korte (seconden) dalen/pieken lijken me bijvoorbeeld vervelender dan langere pieken/dalen
Ze kunnen gewoon alle frametimes loggen.
Nu zou ik sowieso mensen niet aanraden om een 8c/16t cpu te kopen voor gaming.
Ik vond de conclusie van Hardware.info dan ook erg juist: "goede CPU als je 50% gamed en 50% andere dingen doet met je pc zoals iets met CAD, foto, video, etc."

Ik ben benieuwd hoe straks de quad cores presteren van AMD. Deze kunnen op zijn minst 2x zo goedkoop worden, maar dan met de betere IPC.
De IPC wordt niet beter door minder cores de klok wordt mogelijk beter. Minder cores om de TDP per core te verdelen
Hij bedoelde single core performance uiteraard=ipc x klokfrequentie. ;)
Ryzen 7 hoort in ieder geval een 6900k bijna te kunnen evenaren in games (single-threaded prestaties enzo), wat nog niet het geval is. Dit zou opgelost kunnen worden door patches. Verder werkt smt amd anders dan die van intel.

[Reactie gewijzigd door barbadruif op 4 maart 2017 16:20]

Hij evenaart hem ook in multithreaded workloads.

In games is een ander verhaal.
Dat was precies mijn punt, en het enige wat ik vergat in mijn reactie te zetten. Inmiddels gewijzigd.
De vraag is of het op te lossen is met patches. Tuurlijk dat claimt AMD wel.

Maar als de implementatie van SMT zo anders is dan HT dan zal het vanuit de kant van de ontwikkelaars moeten komen, die games maken geoptimaliseerd voor SMT.

Vergeet niet dat HT in het begin ook voor slechtere resultaten zorgde in veel games om dezelfde reden, dat heeft een paar CPU generaties geduurd voordat ontwikkelaars er goed voor ontwikkelden.
Sloerie
4 maart 2017 10:56
In de AMA (die het had van Tom's hardware) stond ook dat dit waarschijnlijk kwam door de SMT methode die indien het programma voor Intel SMT gecompiled (lees geoptimaliseerd) was dit slechter presteerde op AMD Zen processoren. In games die geen profijt van SMT hadden, was de snelheid zoals verwacht.
FX kreeg ook betere performance na patches in Windows 7, Windows 8 kreeg het erin gebakken. Het design van AMD is gewoon anders, kost wat optimalizatie, helemaal in een door Intel gedomineerde wereld.
Het grootste verschil lijkt toch gemaakt te worden door de veel hogere clockspeeds i.c.m. de iets hogere IPC van Kabylake gaming cpu's (7600k, 7700k). Beide zijn niet op te lossen met patches.
Volgens mij is dit niet helemaal waar, als je kijkt naar verschillende benchmarkts loopt de 1800X te veel achter op de 7700K als je ook andere benchmarks vergelijkt, zelfde zie je als je hem vergelijkt met de 6900
Moet je dan een bios update doen of hoe gaat dat patchen?
(nul verstand hiervan)
CPU microcode kan geupdatet worden door software, alhoewel dit niet permanent is. Bij een BIOS update is dit dan natuurlijk wel permanent. Soms moet microcode wel door een BIOS update gedaan worden om zo uberhaupt een CPU te kunnen booten. Zonder bios updates kan je technisch gewoon de micro-code live updaten(tijdens OS boot) en is dit dan ook wel eens door Microsoft gedaan.

BIOS updates ivm micro-code updates(om bijvoorbeeld nieuwe CPU's te supporten) laten meestal LANG op zich wachten bij third-parties, dus daar zou ik totaal niet op vertrouwen.

[Reactie gewijzigd door NotCYF op 4 maart 2017 11:15]

Aangezien ze samenwerken met de gameontwikkelaars zal het waarschijnlijk een patch/update zijn van de game zelf of wellicht van de onderliggende engine die ze hebben gebruikt om de game mee te maken.
Heb heb meer vermoeden dat men games patchen als zijnde meer threads gebruiken.
Als ze nu Thread pool van 4 gebruiken kunnen ze dat opschalen naar 8 of 12
Jep. Microcode updates via de UEFI is een mogelijkheid.
zal wel een bios update zijn
en ontwikkelaars meer tijd nodig hebben om hier vertrouwd mee te raken.
Het ziet er naar uit dat iedere game in de wereld moet worden aangepast. Dat gaat natuurlijk niet gebeuren.

Op zijn best worden de meest populaire online pc-games geoptimaliseerd voor Ryzen. En daarna, als game-engine programmeurs meer ervaring hebben met de eigenschappen van Ryzen, zullen nieuwe games in de toekomst hopelijk allemaal optimaal gebruik kunnen maken van Ryzen.
Mwa, een er komen ook wel eens patches voor Windows uit. Windows is uiteindelijk de software die verantwoordelijk is voor de threads verdelen over de processoren. Omdat Ryzen de eerste AMD chipset is met SMT (Hyper Threading) zou Windows beter leren om te gaan met de AMD variant hiervan wel een beetje kunnen helpen.

Maar ik verwacht hier alleen maar marginale winst hoor. Ik kan me niet herinneren dat er ooit een consumenten CPU was die na introductie ineens nog 10% sneller werd gemaakt door veranderingen in software. (In iedergeval niet met 1 algemene patch, per game is dit wel haalbaar).
Grappig dat Je SMT erbij haalt het is namelijk in meerdere reviews aangetoond dat als je SMT uit schakeld de cpu tot 30% beter presteert in de meeste games en sommige applicaties.

Beetje zoals de budget cpus van intel dat 10 jaar geleden hadden met hyperthreading aan en uit.

Het is dus goed mogelijk dat het wel veel sneller word mits deze hyperthreading gefixed word.
Beetje zoals de budget cpus van intel dat 10 jaar geleden hadden met hyperthreading aan en uit.
Leuk dat je dat aanhaalt, en AMD zelf heeft met de introductie van Bulldozer een aantal jaar geleden ook al optimalisatie problemen gehad, en was afhankelijk van een patch voor Windows...
Je zou zeggen dat ze nu wel van de "fouten" van de concurrentie en zichzelf in het verleden hadden geleerd en ervoor zouden zorgen dat alles direct bij de introductie op orde was, maar blijkbaar niet :P
Bulldozer was gewoon een design flaw als je het mij vraagt.
Die 2 gedeelde cores heeft gewoon nooit goed gewerkt omdat ze elkaar in de weg zaten.
Die windows patch haalde dan ook niet veel uit.

nieuws: Windows 7 krijgt performance-hotfix voor AMD Bulldozer-chips

Kortom achteraf was hij alleen maar slechter in een aantal situaties.

Ze hadden gewoon moeten testen en aanpassen ipv mooie grafiekjes te maken met voor de amd perfecte omstandigheden.
Dit gebeurd bij amd zo vaak.
OOk de 480x was niet wat mensen ervan verwachtte omdat het er een hele hype gecreeerd was.
Hadden ze gewoon stilletjes alles aangepast en gereleased dan had iedereen WOW gezed voor die prijs.

Ze hoeven niet eens even snel of sneller als intel te zijn ze moeten gewoon beginnen met op alle vlakken goed te presteren en daar de prijs op aanpassen en van daaruit doorontwikkelen.

[Reactie gewijzigd door computerjunky op 4 maart 2017 14:11]

Je linkt naar de eerste patch (afaik is die zelfs door MS terug getrokken), de tweede bracht iets meer performance:
nieuws: Microsoft brengt opnieuw performance-fix uit voor Bulldozer-chips
http://www.tomshardware.c...mance,review-32365-3.html

2de patch zelfde resultaat.
Het was gewoon een waardelloos design.
Vroeger heeft Windows ook patches uitgebracht voor bepaalde AMD processors om de prestaties te verbeteren. Kan nu ook zomaar gebeuren en zou op lange termijn de beste optie zijn ipv dat iedere game afzonderlijk gepatcht moet worden. Ik weet ook niet juist waarom Ryzen slechter presteert bij 1080p maar er is duidelijk een discrepantie te zien tov hogere resoluties in de benchmarks.
In hogere (4k) resoluties vormt de GPU een bottleneck en komen CPU prestatie verschillen dus niet goed tot hun recht.
Dat klopt maar toch denk ik dat er meer hand is. De 1800X houdt gelijke tred met de 6900K op hogere resoluties behalve op 1080p, terwijl hun single core performance gelijk is. Dat klopt niet en wordt hopelijk met die patches opgelost.
Athlon patch?
In 2002, toen intel met de eerste Hyperthreaded P4 kwam, gebeurde iets gelijkaardigs: in sommige (veel!) software was de performance om te huilen (ofte trager dan zonder HT). Bovendien was Windows (98, Me en 2k destijds) niet aangepast, dus moest je of HT uitzetten, of XP installeren met een specifieke patch (of gewoon accepteren dat het traag is).
Daarna is er nog veel gesleuteld aan de schedulers in Windows, dus het zou mij niet verbazen mocht Microsoft de mogelijkheid hebben iets of wat te optimaliseren.

[Reactie gewijzigd door the_stickie op 4 maart 2017 11:47]

Ik kan me niet herinneren dat er ooit een consumenten CPU was die na introductie ineens nog 10% sneller werd gemaakt door veranderingen in software. (In iedergeval niet met 1 algemene patch, per game is dit wel haalbaar).
Met de introductie van nieuwe instructie sets kon performance gewonnen worden door software te optimaliseren voor de nieuwe instructies. :)

Maar in dit geval gaat het natuurlijk om optimalisaties voor de architectuur in plaats van instructies.
Dat klinkt heel negatief maar dat zal in de praktijk wel meevallen. Een spel die al goed genoeg draait heeft het immers niet nodig.
Alleen..... Wat is goed genoeg? Waar de een is met z'n gtx1060 med settings op 4K met 50fps..... Is de volgende pas tevreden met een GTX1080 SLI setup, alles ultra en min 120 fps. Want stel je voor zeg.....

Goed genoeg is zo subjectief.
Die doelgroep heeft sowieso een probleem, want nu alles op 4k, max settings en nooit onder de 120fps gaat nu nog niet gebeuren. Ook niet met Intel.

Groter probleem lijkt me dat ik totaal geen noodzaak heb om naar Ryzen te gaan. Mijn 5820k@4.5 is niet bepaald een bottleneck. Ik ga dus geen 800 euro uitgeven voor een sidegrade.
Ik zie dus Amd niet echt Intel bedreigen. Want heb je een I7 dan zit je wel goed voor games. Ook de s1366 versies want die klokken ook wel lekker.
Ryzen ziet er goed uit, maar is een aantal jaren te laat om nog echt een verandering in cpu land te weeg te brengen.
Hopelijk zit ik er naast en krijgt Intel weer eens echt concurrentie op zowel techniek en verkopen.
Ik moet je gelijk geven dat, als je met recente intel-setup zit, je op dit moment geen geld zal uitgeven aan een ryzen-setup.

Doch als je op het forum kijkt, zie ik daar genoeg vragen passeren van mensen die of met een oude intel-setup zitten of met een iets recentere amd-setup zitten of gewoon een bijkomende/nieuwe pc samenstellen. Dit zijn wel mogelijke ryzen-klanten.
Dat zal dan meer kriebel zijn als daadwerkelijke noodzaak.
En dat is een kleine groep. Vandaar ook mijn mening dat je geen grote veranderingen in de verhouding Intel en Amd zult krijgen.
Daarvoor is de Ryzen niet goed genoeg. En ok geen killerfeature als destijds met de introductie van de Amd64
Ik zie dus Amd niet echt Intel bedreigen. Want heb je een I7 dan zit je wel goed
Beetje vage redenatie, niet elke gamers heeft een i7

Zit zelf nog op een AMD x6, dus upgraden gaat voor mij fijn zijn, maakt niet uit waar ik naar uograde
Zo zijn er ook nog genoeg gamers met een i7 920, of een i5 2e generatie

Verder is deze processor natuurlijk in sommige taken veel beter als de Intel varienten, (niet alles draaid om gaming) dat ze alsnog genoeg verandering te weeg brengen

Intel heeft zelfs als prijzen naar beneden gehaald, lijkt me een verandering gebracht door AMD
Maar je ben nog steeds beter af naar een i7 te upgraden dan naar een amd.
Totdat alle games een gelijke prestatie laten zien en dat was zijn punt.
Dit is helaas een lang term oplossing en geen short term backwards compatible fix.
alle games die al bestaan zullen waarschijnlijk geen update krijgen hiervoor.
Ik denk namelijk niet dat devs zitten te wachten op extra werk omdat amd een afwijkend design heeft.
Ja je bent bijna altijd beter af met de duurdere optie, maar het feit dat ik nu een AMD x6 draai zegt denk ik wel dat ik niet voor de duurste opties ga.

In dat geval is straks waarschijnlijk de R5 series de beste keuze, kijkend naar prestatie performance

Als je echt ultieme prestaties wilt in alleen gaming is de i7 7700 de enige keuze denk ik

echter als gamen niet het enige is wat je doet, kan alsnog de 1700 de betere keuze zijn
Dat is dus mijn punt, heb je een I7 uit de eerste generatie if een I5/I7 uit de 2e dan heeft het voor gamen veel nut.
Het artikel gaat specifiek over fps in games.
Maar als ik mijn s1366 I7 970 niet had gefrituurd met een waterkoelings oepsje dan had ik nu geen 5820k gehad en een ook niet vervangen voor een Ryzen.

En ja natuurlijk zijn er systemen die er behoorlijk op vooruit gaan met een Ryzen. Punt is dat je dan een aantal jaren geleden al een zelfde upgrade had kunnen doen voor hetzelde geld met een S2011-3 systeem. Mijn 5820 + mobo + mem was ook ongeveer 800 euro. Qua prestaties en prijs redelijk in lijn met een 1800x systeem.
Dus waarom nu ineens wel? Blijkbaar draag je Amd een warm hart toe. Niets mis mee, maar mensen zoals ik kijken naar kosten en baten.
Dan is een kleine upgrade of sidegrade geen 800 ballen waard.
Dan schiet ik meer op met de de aanschaf van een 1080Ti.
Maar mijn Amd FuryX trekt alles nog op ultra 60fps op 1080p. Dus ook dat gaat niet gebeuren
Klopt, maar als ik zo even naar de lokale prijzen kijk voor een Ryzen 1700X/1800X, dan ben ik goedkoper af met een Intel i7 7700K.

Met mijn ervaringen met AMD en Intel in het verleden neig ik toch weer naar de i7.
Ook al doe ik aan 3d engineering en draai ik zware cad applicaties voor mijn werk.
Ik houd ook van gamen en als ik dan zie dat die Intel 7700k cpu nu voor mij goedkoper is dan de ryzen, tsja.
Minimaal even goed als Intel Kaby Lake?
Dat is ie dus niet voor gamen :)

Maar hoop dat software dit kan oplossen maar vreemd natuurlijk dat hier niet vantevoren over nagedacht is want laten we eerlijkzijn bijna iedereen die deze cpu zal kopen koopt hem voor een game pc.
De rest van de high end cpu markt is gelimiteerd en maar een fractie van de markt (video editors enz)

De game industrie is huge en waar deze high end cpus het van moeten hebben.
Iedere andere huis tuin en keuken pc heeft een cpu van nog geen 150 euro omdat het zat is.

En dan nog is het kansloos voor alle games die nooit geupdate zullen worden.
Speel je dus oudere games vben je de sjaak.
Dit zal mogelijk alleen gaan helpen voor net gereleasde of nieuwe games uit de toekomst.
of een update van het spel.
Wordt het niet een keer tijd dat gamedevelopers meer dan 4 cores gaan gebruiken? Als ze een patch kunnen maken dat de cpu meer dingen kan aansturen, zal dat bij mij weten een boost moeten geven.
Threading maakt software ontwikkeling veel moeilijker - en als je het slecht doet heb je weinig performance-winst tegen veel(!) hogere complexiteit en langere ontwikkelingstijd. Threading-bugs zijn vaak ook zeer moeilijk te vinden (lastig reproduceerbaar) en op te lossen.

Daarnaast zijn er vaak dependencies. Jouw AI-thread moet toch weten waar objecten zijn... de renderthread ook... Maar als je game-logic objecten toevoegt/verwijdert (omdat iemand gespawnt werd of gedood ) - terwijl je pathfinding routes zoekt ( voor een NPC die misschien net gedood werd ) terwijl je renderer nou net precies dat ding wilde rendereren (en al halverwege is met render-instructies) terwijl de game-logic beslist dat object te verwijderen... Je kunt je voorstellen dat het best lastig is om dit "waterdicht" te krijgen.
Je zou bijvoorbeeld iedere thread een "kopie" kunnen geven van hetgeen belangrijk is - en dat op bepaalde momenten te updaten ( maar dat kost extra geheugen, en die kopieen moeten periodiek weer gesynchroniseerd worden dus ook extra CPU-tijd ). Dat is allemaal best lastig.

[Reactie gewijzigd door rboerdijk op 4 maart 2017 16:42]

Het is niet mogelijk om zo maar alles te paralleliseren. Er blijven altijd zaken welke simpelweg lineair behandeld moeten worden. Zo maar besluiten om 16 cores te gebruiken is minder eenvoudig dan het klinkt.
Niet alles, nee, maar veel dingen wel; het inladen van resources, audio, graphics... kan allemaal op een aparte thread. Persoonlijk zou ik de main game loop alleen de user input laten afhandelen en de rest laten aansturen.
Het inladen van resources heeft weinig zin om te paralleliseren: de I/O is daar de bottleneck. Zelfs als je een SSD hebt. Je kunt één thread hebben die een minuut aan het laden is of 8 threads die samen allemaal één minuut aan het laden zijn, aan parallellisatie win je niets daar. Eigenlijk vrijwel alles wat met I/O te maken heeft zou prima in dezelfde thread kunnen, daarbi is de CPU vrijwel nooit de bottleneck. Al het rekenwerk, dat zou je moeten paralleliseren. Het renderen van geluid, het samenspellen van de audio, het uitvoeren van game logic en de AI.
Op zich valt er best wat te winnen; als je namelijk de I/O op de main thread gooit, 'hangt' je spel tijdens het laden. Als je dit op een andere thread gooit, kan je andere dingen doen, zoals bijvoorbeeld het combo training scherm in Bayonetta, welke als laadscherm functioneerde.
Klopt - maar meer dan 1 thread is voor I/O zinloos... Dus voor dit specifieke scenario maakt het niet veel uit of je een dual- quad of 8-core hebt.. Dat maakt het niet sneller; je zult je winst dus ergens anders moeten halen.
Dan heb je het niet zozeer over multithreading maar over asynchroon je handelingen uitvoeren (hoewel deze 2 zaken wel vaak samengaan). Komt eigenlijk op het volgende neer:
-Je stuurt een commando af van 'hey ik wil dit inladen'
-Ondertussen ga je wat anders doen (bijv dat trainings scherm)
-Na verloop van tijd komt er een bericht binnen dat je commando is afgewerkt

Op het web gebeurt bijv dit heel vaak daar heb je immers te maken met de latency tussen de client en de server.

[Reactie gewijzigd door Barsonax op 4 maart 2017 20:20]

Achteraf ff multithreading implementeren gaat denk ik moeilijk worden. Dit komt er vaak op neer dat je je software architectuur moet veranderen en dat kost verschrikkelijk veel tijd en moeite. Het is niet een boolean op true zetten ofzo.

Nee ik denk niet dat je veel spectaculaire verbeteringen gaat zien bij de huidige games. Nieuwe games? Daar zal dat wel gaan komen.
Nou theadpool die vaak gebruikt worden naast specialistische thread kan met maxthread Constante in header mogelijk wel verhogen.
Of met CPU detectie die niet constante variable setten op specifieke waarde.
Ja leuk maar wat heb je aan meer threads in je threadpool als je ze niet gebruikt?? Snap je reactie even niet. Die extra threads worden niet ineens magisch benut ofzo.
Voor iedereen die op deze manier over multi threading nadenkt zou ik een korte introductie multi threaded programmeren aan willen raden. Op zich is het niet zo gek ingewikkeld, je kan in een regel of 100 code makkelijk iets opzetten dat parallel berekeningen uitvoert. Op dat moment ontwikkelt zich dan waarschijnklik ook wel het besef dat er bewerkingen zijn die niet op te splitsen zijn/parallel uit te voeren zijn. Dat is het grote probleem, even afgezien van de complexiteit van de code. Dat laatste is iets waar iedere ontwikkelaar van multi threaded software zich wel eens op stuk heeft gebeten, maar waarvan je dan wel weer mag aannemen dat het voor een volwaardig game developer geen probleem is.
Ik zie veel mensen ryzen met de i7 7700k en die is rond de 300 euro en de ryzen 500. De i7 7700k wint met zijn 4 cores maar de ryzen wint weer van de i7 6900k die 1000 euro is. Ik vind het vaag allemaal
Het gaat in jouw voorbeeld typisch om het verhaal single core vs multi core. De 7700k met 4 cores heeft hogere single core performance dan de 6900k (4,2 ghz vs 3,2 ghz).
Maar de 6900k wint het weer van de 7700k in multi core performance (8 cores voor de 6900k vs de 4 van de 7700k)

Ryzen is beter zoals het nu staat in multi core performance. Ryzen verslaat dus de 7700k in benchmarks waarbij de vele cores goed gebruikt kan worden (cinebench 15 multithreaded bijv.). Soms verslaat Ryzen de 6900k en soms weer niet. Die spannen erom

Ga je kijken naar single core, dan wint kort gezegd de 7700k alles nog.
Maar veel games hebben geen 8 core support.
Ik speel bf4 csgo en arma 3 dan allemaal op 1440 behalve csgo
Het gaat niet altijd maar om games he.
De nieuwe Ryzens zijn prima processors voor workstations
zeker voor de prijs
Hebben die 6900 geen lagere clockspeeds, maar meer cores?
Nee de 6900 heeft 8 cores maar gaat ietjes langzamer
Dat zeg ik toch?
Sry wat ik.bedoelde is is dat de ryzen en de 6900 allebij 8 cores hebben maar dat de 6900 trager is dan die ryzen maar goedkoper. Mijn fout

EDIT: heb even zitten kijken maar de ryzen is bijna hetzelfde als de i7 6900k maar voor 500 euro minder

[Reactie gewijzigd door thOslolman22 op 4 maart 2017 13:02]

Ik ben benieuwd. De meeste games hebben baat van single core performance, en het is daar dat Ryzen minder presteert dan Intel. Ik verwacht dan ook weinig verbetering, tenzij voor games als BF1 die effectief gebruik maken van meerdere cores/threads.
Ik ben zelf geen programmeur van beroep maar gebaseerd op mijn kennis van dit onderwerp lijkt het mij onmogelijk een game te maken zonder een "main game loop" en hierin alle mogelijke acties te doen, een aantal dingen hierin kan je paralelliseren echter moet je main loop altijd wachten hierop.

Hebben we niet baat bij veel snellere cpu's (hogere clock snelheid of instructions per clock) dan bij meer cores? En waarom lijkt 5GHz een beetje de maximum te zijn voor cpu's?
Omdat we tegen de natuurkundige grenzen aan beginnen te lopen. Het kleiner en sneller maken van CPU's is gewoon steeds moeilijker. Daarom moeten we nu zaken parallel gaan uitvoeren.

Daarnaast is een game engine zeer goed parallel te implementeren hoor. Zeker nu we D3d12 en Vulkan hebben die zeer geschikt zijn voor multithreading. Zaken als lockfree programming etc worden ook steeds gemakkelijker door de standarisatie van atomic operations in talen als C++. Ik denk zelf dat de grootste performance gains de komende jaren te halen zullen zijn uit de innovaties die gaan plaatsvinden in het domein van multithreaded programming.

Hoewel CPU's niet heel veel sneller worden qua Ghz, zijn ze wel efficiënter geworden door betere cpu caching etc. Iets waar game devs ook flink gebruik van maken.

[Reactie gewijzigd door Laurens-R op 4 maart 2017 11:26]

Dat is gelukkig niet waar. Er zijn een hoop processen die zonder koppeling met de main loop hoeven lopen Bijvoorbeeld AI of path finding. Die kun je rustig in een ander thread laten lopen en zelfs meerdere seconden laten duren voordat het resultaat gebruikt wordt. Er zijn ook processen die sneller lopen dan de main loop (physics bijvoorbeeld) omdat dat voor rare bugs zorgt bij grote stappen in de tijd.

Met DirectX 12 is het zelfs zo dat niet alles wat naar de videokaart gestuurd wordt meer tegelijkertijd gedaan hoeft te worden en dat er op de GPU een soort van threading is.

Maar het is natuurlijk wel zo dat veel games hier nog niet alles uit de kast halen. Ik verwacht dan ook geen spectaculaire voortuitgang in game performance voor Ryzen in de komende paar jaar. Het is natuurlijk ook niet zo dat de CPUs van Intel slecht zijn in multi-threading :).

[Reactie gewijzigd door roy-t op 4 maart 2017 11:27]

Rendering gebeurt al parallel natuurlijk, door de GPU. Als je SLI gebruikt nog meer.

Verder zijn eigenlijk alle facetten prima parallel te doen. AI kan parallel, per actor zelfs (denk maar aan onze hersenen, veel parallel dan dat wordt het niet), geluid kan parallel, input en netwerkcommunicatie kan parallel. Je zult natuurlijk wel een main game loop overhouden die de boel synchroniseert - het is wel belangrik dat alle processen hetzelfde tempo aanhouden en zich dus aanpassen aan de traagste factor (of gewoon aan de klok als het systeem snel genoeg is).

Synchronisatie tussen meerdere processen is wel lastiger en brengt overhead, dus het is een moeizaam proces wat gelukkig steeds meer volwassen wordt in game engines. Maar er is daar nog heel veel te halen om op te schalen naar meer cores.
Hebben we niet baat bij veel snellere cpu's (hogere clock snelheid of instructions per clock) dan bij meer cores?
Ja, minder cores (bij gelijke prestaties) is vrijwel altijd beter. De enige reden om meer dan 1 core in een CPU te bakken is omdat die ene core niet sneller kan. 1 core kan relatief eenvoudig meerdere cores emuleren (dit is basically wat multitasking is) maar andersom is een heel ander verhaal.
En waarom lijkt 5GHz een beetje de maximum te zijn voor cpu's?
Omdat we tegen de grenzen van de natuurkunde aan lopen.
Inderdaad. Ze kunnen de kloksnelheid en IPC met een paar patches niet opkrikken.

Ik zou juist denken dat andere programma's zoals van Adobe hier meer profijt van zullen hebben dan games.
Ryzen heeft een ipc vergelijkbaar met broadwell-e (alle synthetische benchmarks bevestigen dit). Desondanks presteert het op 1080p minder dan broadwell-e in games.

Je gaat me niet vertellen dat de ipc van broadwell-e niet goed is.

[Reactie gewijzigd door Adel_F16 op 4 maart 2017 11:37]

Nee, uiteraard niet. Maar voor games specifiek zijn deze twee dingen toch wat belangrijker dan die meerdere cores die ze nu hebben.
Welke 2 dingen? Die meerdere cores worden niet gebruikt in de meeste gevallen, dan blijven er 4 cores over met ipc gelijkwaardig aan broadwell-e. Toch presteren ze niet zo zoalw broadwell-e.

Snap je wat ik bedoel :)?
(bron HWI review) IPC - Broadwell-E 102 t.o.v. Ryzen 96.
Er moet een goede balans tussen IPC en kloksnelheid gevonden worden. Bij hoge IPC kun je minder hoge kloksnelheden bereiken en bij hogere kloksnelheden kun je minder hoge IPC bereiken.
Deze balans is, kijkende naar Broadwell-E, dus nu beter dan die van Ryzen voor in games.

[Reactie gewijzigd door HackingDutchman op 4 maart 2017 12:51]

Het was op voorhand wel bekend dat AMD op single core performance wat zou achterlopen.
Echter zoals het nu is zijn de verschillen veel groter dan eigenlijk zou moeten,als het door middel van patches kan worden opgelost is het software matig.


Ik verwacht wel degelijk dat er een verbetering gaat komen want het is niet vreemd dat de game devs nog moeten leren omgaan met deze nieuwe architectuur. Dit zelfde geld ook voor AMD want waar Intel al generaties ervaring heeft opgedaan met dezelfde architectuur en dus jaren heeft kunnen optimaliseren moet AMD dit proces nu nog in gaan.
Dit gezegd hebbende voorspelt dit sowieso op termijn heel veel goeds.
Ik hoop dat je gelijk hebt. Ik ben toe aan een nieuwe cpu en zou liever een Ryzen 5 kopen dan een veel duurdere 7700k.
Het probleem momenteel is dat Ryzen single threaded niet alleen minder presteert als Ghz monsters als Kaby Lake maar ook Broadwell-E in games. Het gat met Broadwell-E zou realistisch gezien zeker gedicht kunnen worden als je kijkt naar de synthetische benchmarks waar Ryzen en Broadwell-E veel dichter bij elkaar liggen dan in games op 1080p.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*