Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: 12core- en 16core-Ryzen-chips zijn multichip-modules

Door , 86 reacties

Na de eerste Ryzen 7-processors met acht cores en de aangekondigde Ryzen 5-chips met vier en zes cores, zou AMD ook werken aan een Ryzen-versie met twaalf en zestien cores. Daarmee moet Intels hedt-platform beconcurreerd worden.

De in maart uitgebrachte Ryzen-processors worden al deels tegenover Intels Broadwell E-processors gepositioneerd, maar volgens diverse geruchten die DonanimHaber op een rij heeft gezet, zou AMD werken aan een apart platform als tegenhanger voor Intels hedt-platform, ofwel het high-end desktop-platform. Dat zou met een grote socket waarin cpu's met twaalf of zestien cores passen moeten gebeuren. Het topmodel van Intel, de Core i7-6950X, beschikt over tien cores en twintig threads. De Cinebench-score van een engineering sample van de zestiencore-chip zou 2500 punten bedragen, waar de 6950X ongeveer 2000 punten haalt. De socket zou een afgeleide zijn van de serversocket voor de Naples-processors en SP3r2 genoemd worden. De socket zou over ruim 4000 pinnen beschikken en de processors zouden als lga-chips uitgevoerd worden, waarbij de pinnen dus in de socket zitten.

De cpu's, met codenaam Threadripper, zouden gecombineerd worden met een nieuwe X399-chipset. Twee varianten van de high-end-cpu's zijn al gesignaleerd en zouden beschikken over twaalf en zestien cores. AMD realiseert dat door twee Summit Ridge-dies in een enkele package onder te brengen. De twee 'Ryzen 7'-dies zijn onderling verbonden en werken dus als multi-chip-modules. Dat zou betekenen dat de variant met zestien cores vier core complexes heeft en in de versie met twaalf cores in elk core complex één core is uitgeschakeld. De configuratie is dus 4-4-4-4 of 3-3-3-3 cores in elk ccx. Net als de overige Zen-cores ondersteunen de processors smt, waarmee het aantal threads op vierentwintig of zelfs tweeëndertig zou komen.

Omdat twee Summit Ridge-dies gebruikt worden, zouden de chips beschikken over vier ddr4-geheugenkanalen en maar liefst 48 pcie-lanes. De cpu met twaalf cores zou een tdp van 140W krijgen maar de kloksnelheden zijn nog onbekend. De zestiencore-variant zou een tdp van 180W en kloksnelheden van 3,1GHz tot 3,6GHz krijgen. Bovendien zouden de Threadripper-cpu's over een B2-revisie van de Zen-cores beschikken; de Ryzen-chips zijn B1-chips. Volgens de geruchten zou AMD het nieuwe platform tijdens Computex in Taipei, begin juni, aankondigen. Prijzen zijn uiteraard nog niet bekend.

Reacties (86)

Wijzig sortering
Daar zijn deze cpu's niet voor bedoeld, maar de multi core en multi thread performance winsten vallen nog tegen in games. Ik had gedacht dat dat enigzins op Cell toestanden ging lijken, waarbij naarmate de leeftijd vordert steeds meer taken ge-offload zouden worden naar cores of threads, en engines steeds beter gebruik ervan maken. Valt nog wel tegen als je ziet hoe lang de hardware er al is in de PC wereld en hoe lang men al heeft kunnen optimaliseren met de engines en drivers. De GPU blijft het belangrijkste onderdeel in games, maar ik had grotere stappen verwacht op AI en physics gebied mbt CPU's. Het zijn 10j terugkijkend best marginale stappen.

[Reactie gewijzigd door BanglaRoad op 29 maart 2017 11:53]

Dit komt omdat er nu veelal niet meer gebruikt wordt dan 8 threads. Er zijn ook testen geweest met Ryzen processoren met minder threads en of de CCX verbinding ook nog invloed heeft. Dit blijkt niet het geval te zijn.

Wat wel het geval blijkt te zijn is dat Ryzen heel afhankelijk is van de snelheid van het geheugen. Met 3600 Mhz geheugen worden de prestaties soms beter dan de i7 7700K.

Bron CCX: https://www.techpowerup.c...re-distributions-compared

Bron hogere FPS met hoger ram: http://forums.guru3d.com/showthread.php?t=412876&page=26 (de post 'Ryzen is still Ryzen' met de spoilertag

Edit: Zie zojuist dat mijn 2de bron eigenlijk deze video is: https://www.youtube.com/watch?v=RZS2XHcQdqA

Vooral Mass effect Andromeda laat leuke verschillen zien, met sneller geheugen is de min FPS met 15! hoger dan de 7700K op 1080P.

In ieder geval is Ryzen toch ineens een stuk interessanter en misschien zou Tweakers een nieuwe review kunnen doen met veel veel sneller geheugen ;) .

[Reactie gewijzigd door Rifleshader op 29 maart 2017 12:17]

Het is al jaren een misvatting dat sneller geheugen geen nut heeft. Ook bij Intel kun je significante performance gains behalen door sneller geheugen te gebruiken. Zelfs mijn budget Skylake Penitum G4400 is circa 10% sneller in winrar met DDR4 2400 Mhz geheugen.

Tegelijkertijd is het niet vreemd dat reviews niet standaard met sneller geheugen testen, om eerlijk te vergelijken moet je dan ook bij Intel gaan rommelen. Daar ontstaat dan weer de discussie uit wat nu de sweet spot is en of de ene chip de andere chip wel is (krijg je het wel stabiel op elke configuratie). Representatief testen wordt daarmee lastig.

Eigenlijk ben jij vooral geÔnteresseerd in de 'peak overclocked performance' en dat is ook zeker interessant. Echter, wat mij betreft moet de basis van de review blijven bij de officiŽle snelheden en instellingen. Testen met sneller geheugen en hogere multiplier moeten we zeker blijven doen, maar gewoon zoals nu op een extra pagina.

[Reactie gewijzigd door sdk1985 op 29 maart 2017 12:35]

Natuurlijk is dram van invloed op de performance. Echter de invloed is beperkt. De use-case die je schetst is nu ook precies de juiste een geheugen intensieve taak. Maar als je het wegzet in een vergelijking met gaming waar veel textures de videokaart ingaan en de feitelijke gamecode beperkt is dan is de snelheid van inladen (SSD) en het afwikkelen van de code (CPU) veel meer bepalend voor je performance beleving. Nog steeds is het geheugen van een PC qua techniek een uiterst inefficiŽnte manier om de processor te voeden met datgeen wat hij moet doen en het bewaren van het resultaat. Kijk alleen al naar de "wait-states" die 10-tallen clock cycles van de cpu bedragen.
Punt is nu juist dat dit allemaal anders is geworden, de invloed van ram is niet langer beperkt tot non-gaming. Sterker nog algemene invloed is nooit beperkt geweest, alleen de fps hangt altijd af van een bottleneck.

Dankzij de enorme sprong met Sandby Bridge is de cpu jaren lang niet die bottleneck geweest en deed hierdoor ram voor gaming niet zo gek veel. Het was vooral wachten op de gpu ontwikkelaars! (Vergelijk eens een GTX 560 uit 2011 met een GTX 1080 uit 2016, reken de procenten uit en kijk dan hoever we met cpu zijn opgeschoten...)

Deze omslag zit er al tijden aan te komen. Hij was ook al eerder zichtbaar, zie bijvoorbeeld deze Dirt 3 test waarbij sneller geheugen meer dan 10 fps oplevert: http://images.anandtech.com/graphs/graph8959/28.png . Ondertussen hebben we op gpu gebied een paar flinke sprongen gemaakt en telt cpu performance steeds zwaarder mee, en dus ook de ram performance. Daar ontkom je niet aan. Tijden veranderen, de cpu bottleneck is met een comeback bezig.

Je SSD of HDD gaat overigens je fps niet beperken, de eerste game moet ik nog tegenkomen...

[Reactie gewijzigd door sdk1985 op 29 maart 2017 16:16]

Geheugen is niet echt een aparte component wat betreft een CPU. Je kan niet zomaar zeggen dat je geheugen snelheid omhoog moet gooien omdat je dan een geheugen bottleneck weghaalt. Geheugen is een verlengstuk van de CPU.

Ryzen heeft een extra afhankelijkheid door het gebruik van hun Infinity Fabric gedoe. Die draait exact op de helft van je geheugensnelheid. Hierdoor is het opschroeven van de geheugensnelheid interessanter dan bij Intel. De snelheidswinsten zijn relatief groter.
Dat eigenlijk juist wel, de prestaties kunnen zeker beperkt worden door het geheugen. Bij traag geheugen moet de cpu namelijk lang wachten. Ik raad aan dit informatieve artikel eens te bekijken. Bevat onder andere uitleg over hoe L1/L2 cache werkt, hoe lang de cpu per geheugen laag moet wachten en waarom hitrate zo belangrijk is. https://www.extremetech.c...tial-part-of-modern-chips

Maar goed, het is inderdaad wel een verlengstuk van de CPU. Wellicht dat Zen+ (refresh) standaard wat hoger RAM gaat aanraden. Intel heeft in het verleden hetzelfde gedaan door van DDR3 1333 naar DDR3 1600 over te stappen (Ivy bridge).
Het probleem ligt bij threads die veel interactie tussen elkaar hebben en (per ongeluk) op verschillende CCXen terecht komen. De latency tussen twee CCXen is beduidend meer dan tussen cores op dezelfde CCX (100 vs. 20 ns geloof ik) Het is geen NUMA architectuur want iedere core op iedere CCX kan bij het gehele geheugen komen maar het zou wel handig zijn als OS schedulers er rekening mee houden dat threads waar veel interactie tussen zit zoveel mogelijk op dezelfde CCX blijven. Dat lost niet het hele 'probleem' op maar maakt het wel een stuk minder. Vooral Windows wil nog wel eens een thread laten hoppen over alle beschikbare cores en dat levert dus (soms) ernstige vertraging op waar het niet nodig is.

Overigens, probleem... probleem... het is een gevolg van de door AMD gekozen architectuur. Ik vind het al knap dat vier CCXen dezelfde memory range aan kunnen spreken zonder de geheugenbus te overbelasten (want om dat te voorkomen is juist NUMA bedacht - en NUMA heeft nog veeeeel grotere latency problemen bij interactie tussen nodes dan AMD's infinity fabric en CCX architectuur))

Maar, goed. De technologie is net uit. Er kan nog veel geoptimaliseerd worden, zowel op OS niveau (wat dan ook oude games beter kan laten draaien) en op applicatie niveau (waar toekomstige games dan met de nieuwe architectuur rekening kunnen houden) Dus, ik zie het allemaal niet zo somber in.

Oh (en edit, was het bijna vergeten) wat ik wel hoop is dat de vier CCXen, ook al liggen ze op verschillende dies, wel met infinity fabric aan elkaar geknoopt worden zodat ze schalen zoals dat ook al gebeurt met de twee CCXen in de huidige Ryzens. Niet dat ze opeeens de twee dies op een NUMA manier gaan behandelen.

[Reactie gewijzigd door jiriw op 29 maart 2017 12:05]

"NUMA" staat voor Non-Uniform Memory Architecture, en dat is zeker hier het geval. Je neemt aan dat in NUMA niet alle cores bij alle geheugen kunnen komen, maar dat is alleen in de meest extreme NUMA ontwerpen. In Windows is het zelfs zo dat die extreme NUMA ontwerpen niet eens ondersteund worden. Onder Windows moet alle geheugen door alle cores te benaderen zijn. NUMA-aware applicaties kunnen bij het alloceren van geheugen wel meegeven voor welke NUMA-partitie het bedoeld is.

Dus als WIndows 4 NUMA partities aanmaakt, 1 per Ryzen CCX, dan heb je gewoon NUMA support op je Ryzen.
Ah, dat is dus niet allemaal waar.
"NUMA" staat inderdaad voor Non-Uniform Memory Architecture. -Non-Uniform- Dus het aanroepen van een blok geheugen op -niet- jouw eigen NUMA node geeft je (vrijwel altijd - tenzij cache etc.) een latency penalty. Bij Ryzen is dat niet zo. Het hele systeemgeheugen is door alle cores (op welke willekeurige CCX dan ook) even snel aanspreekbaar. En daarom is het -per definitie- niet NUMA. En daarom is het ook een slecht idee om naar een NUMA achtige oplossing voor dit probleem te zoeken. Het-is-namelijk-geen-NUMA. Ik val expres in herhaling want deze fout wordt blijkbaar door veel mensen gemaakt - ik zie al weken posts op verschillende tech sites waar steeds weer (zucht) dezelfde fout gemaakt wordt...

Waar de architectuur met via infinity fabric gekoppelde CCXen last van heeft is wanneer twee cores op verschillende CCXen -hetzelfde- stuk geheugen gaan aanspreken. Dan krijg je extra latency doordat caches van de andere node ook bijgewerkt moeten worden bij een verandering. De L3 cache van Ryzen is een victim-cache. Er worden alleen dingen in gecached als ze niet in de L1 en L2 caches zitten. Dat heeft als voordeel dat je wat meer cache ruimte hebt voordat je naar het systeemgeheugen moet uitwijken maar het maakt je architectuur wel ingewikkelder. Zeker als je caches tussen verschillende CCXen moet synchroniseren.

Ik ging er al van uit dat ook bij NUMA alle geheugen -benaderd- kan worden door alle cores (dus die extreme NUMA ontwerpen - daar dacht ik niet eens aan), maar om als core van een NUMA node bij het geheugen van een andere NUMA node te komen moet je wel door een speciale bus heen (implementaties verschillen) waarvoor de core een (hardware geregelde, dus het is CPU opcode transparant) aanroep moet uitvoeren.

Bij Ryzen is dat niet zo. Het hele systeemgeheugen is transparant door iedere core op iedere CCX te benaderen zonder extra hardware overhead. De extra latency is alleen het gevolg van cores op verschillende CCXen die met dezelfde data moeten werken.
dat komt deels door luiheid van de developers, en het uitblijven van processoren die het echt op multi thread gooien, maar AMD doet dat wel hier. Dus ik hoop dat meer gamers een ryzen cpu gaan kopen en dat developers eens wat meer met de resources gaan doen.
Vind ik erg kort door de bocht.
Veel taken zijn gewoon simpelweg niet erg goed in de breedte te schalen.
Heeft lang niet altijd met luiheid te maken
in games kan wel wel, maar dan moeten een aantal game engines anders worden van opzet.

in het verleden is multicore ondersteuning vaak toegevoegd door specifieke taken te offloaden naar andere threads. geluid, AI, pathfinding, ect.

maar op een gegeven moment heb je geen taken meer om te offloaden, en kan je niet verder schalen.

een echt schaalbaar ontwerp vereist dat je vanaf de grond af aan je workload kan opdelen. ook game engines kunnen dat, maar het vereist wel een hele andere aanpak.
ZaZ heeft in de regel gewoonweg gelijk: "veel taken zijn gewoon simpelweg niet erg goed in de breedte te schalen". Veel taken ook wel hoor, dat wil ik je zeker nageven, en het kan dat hier in de praktijk nog een steek wordt laten vallen in veel games. Maar je kunt dus niet oneindig schalen. Reken er maar niet op dat bijvoorbeeld 32 threads nog een serieuze performance improvement zal geven in vergelijking met 16 threads, hoe goed een game ook is geÔmplementeerd. Heel veel processen zijn gewoon serieel in aard, en die gaan op een gegeven moment de bottleneck vormen.

Maar specifieke taken verdelen over threads is echt wel iets van 5 tot 10 jaar geleden. Dat zie je tegenwoordig nog zelden in serieuze AAA games.

[Reactie gewijzigd door .oisyn op 29 maart 2017 13:43]

Zelfs al kan je heel veel parallel doen, uiteindelijk moet je synchroniseren en daar zit de bottleneck. Zeker bij games.

Simpel voorbeeld: Je hebt 31 banen, waar een auto overheen kan. In 31 auto's zitten onderdelen, alleen 1 onderdeel moet over het water met boot. Je hebt het perfect geparalleliseerd, maar je kunt niet verder totdat de boot er is.
Ik vraag me af of er dan niet iets met voorspellingen gedaan kan worden.

Bv. Taak A en Taak B, waarbij B afhankelijk is van het resultaat van A. Als je dan met een proces zit waarbij A acht mogelijke resultaten oplevert en je hebt een tien core cpu dan zou je gewoon voor alle acht mogelijkheden van A een taak B kunnen starten waarbij je na het beŽindigen van A de verkeerde berekeningen van B gaat negeren of mogelijk onderbreken. Mogelijk kan je ook naarmate het vorderen van A je voorspelling bijschaven. Ook zou je de software kunnen laten leren dat wat in het verleden aan resultaten van A zijn geweest, mee genomen wordt in de statistieken om te bepalen hoe B gestart kan worden.

'Beetje' gebaseerd op branch prediction.

Dit zal niet altijd mogelijk zijn, en het zal ook best complex te ontwikkelen zijn.
Het voordeel is dat AMD nu voor dezelfde configuratie als Intel gaat, in plaats van hun vorige CMT-oplossing (2 integer units die 1 FPU moeten delen) bij Bulldozer.
Omdat er extra problemen ontstaan bij parallel werken, doe je het pas als je niet anders kan of als het erg loont.

Vergeet niet dat er bijna geen ontwikkelaars zijn die fout-arm, laat staan fout-vrij kunnen werken. Als dan ook met parallelle scenarios gewerkt moet worden, waarvan de werking testen vrijwel onmogelijk is, dan begrijp je wel waarom het vermeden wordt.

Dat hele multi-core gedoe is meer gedreven door de CPU fabrikanten, want die hebben moeite op andere manieren vooruitgang te boeken. Niet dat het niet kan, maar dat zou een andere architectuur e.d. betekenen, dus grote investeringen.

[Reactie gewijzigd door TheCodeForce op 29 maart 2017 14:37]

Dat hele multi-core gedoe is meer gedreven door de CPU fabrikanten, want die hebben moeite op andere manieren vooruitgang te boeken. Niet dat het niet kan, maar dat zou een andere architectuur e.d. betekenen, dus grote investeringen.
Multi core is niet door de CPU fabrikanten gedreven. Het is een vraag uit de (zakelijke) markt waar je vroeger SMP nodig had om taken simultaan uit te voeren. Servers met 2, 4 of 8 sockets. Door multi-core is het mogelijk geworden om het aantal sockets te verkleinen, dus bnu 1 x Xeon in plaats van 4 x Pentium PRO.

En met virtualisatie en VDI is Multi-Core een verademing. En door hogere core density is het ook mogelijk om datacenters te vergroenen en verkleinen. Daarnaast zijn MHz-en minder relevant in dit soort omgevingen, vandaar dat Xeon's bijvoorbeeld lager geklokt zijn dan de i5/i7 varianten. Zo heb ik op het werk een omgeving staan voor een specifieke doelgroep met 16x2x6 cores (192 cores = 384 ht cores + 2TB ECC) waar een flinke omgeving op draait. De sneheid van de cores in irrelevant maar het aantal VM's wat simultaan taken kan verrichten heft die beperking van MHz-en compleet op.
Wat jij beschrijft is een trend van integratie/verkleining en kostenreductie/flexibilisering van grote systemen. Die trend is onafhankelijk van wel of niet parallelle software schrijven.

Als software bedrijven de keus zouden hebben zou men graag voor enkele zeer sterke cores kiezen. Snelle cores voor snelle verwerking zonder dat extra dure softwareontwikkeling nodig is en meerdere cores om verschillende services in 1 systeem te integreren.

Dat is eenvoudiger en eenvoudiger is goed.

Maar voor Intel en co is het gemakkelijker om meerdere kleinere cores te integreren en te verbinden. Daarbij blijft de architectuur vrijwel ongemoeid en schuiven ze het probleem van ontwikkelkosten door.

Bij gemakkelijk te parallelliseren typen software is dan geen groot probleem, maar voor alle andere software die veel rekenkracht nodig heeft, juist weer wel.

[Reactie gewijzigd door TheCodeForce op 29 maart 2017 22:07]

dat komt deels door luiheid van de developers, en het uitblijven van processoren die het echt op multi thread gooien, maar AMD doet dat wel hier. Dus ik hoop dat meer gamers een ryzen cpu gaan kopen en dat developers eens wat meer met de resources gaan doen.
De processoren gooien het al een lange tijd op multi thread, zeker sinds de single core performance tegen z'n plafond zit, ruim 10 jaar dus. Software doet dat al veel langer, denk aan web- en applicatieservers, databases, etc. Maar je moet niet verwachten dat een cpu die voor dergelijk werk bedoeld is je ineens grote winst op de desktop gaat brengen.
performance is op zijn minst redelijk te noemen rekening houdend met het feit dat geen enkel spel of programma op de markt momenteel ook maar 1 optimalisatie voor ryzen heeft.

als er patches en updates komen voor zowel software als bios updates zal het beter gaan.
Het was tijdens het FX era al duidelijk dat meeste gamedevs zelfs niet eens testen op het AMD platform (vooral CPU).
Ik zou iig niet meteen op GAME patches wachten. Misschien bedoelde je andere software.
BIOS updates kunnen misschien nog interessant worden. Eventueel Windows updates om "beter" met meerdere cores om te gaan maar daar zou ik nu toch ook niet op zitten wachten.

De FX 8350 deed het vrij goed op games die wel meerdere cores gebruikten (meer dan 2). Battlefield bijvoorbeeld kon die goed mee met de Intels (relatief gezien uiteraard, cpu's met 3 jaar tussen vallen niet echt te vergelijken).
Andere games, die op een sterke single core performance rekenen, was het verschil heel duidelijk.

Zie ook wat ZaZ zei. En wanneer het wel schaalt is het nog altijd een pak tijd, werk, en ervaring wat problemen bij heel wat developmenthuizen oplevert.
Het was tijdens het FX era al duidelijk dat meeste gamedevs zelfs niet eens testen op het AMD platform (vooral CPU).
Onzin, er zijn maar een handje vol indies en partijen als ARMA geweest die totale schijt hadden aan de bulldozers. Zelfs DayZ SA is eind vorig jaar eindelijk overstag gegaan. (ARMA heeft het wel voor de volgende versie klaar als ik het goed had)

Unreal, Unity, Cryengine en Frostbite hebben er allemaal optimalisaties voor, de 1 wat beter dan de ander. (Idtech nauwelijks overigens, DOOM draait echt ruk op een FX).

Battlefield 3 draaide met alles op ultra super smooth op een FX4100 (zelf ervaren), BF4 ook vrij goed trouwens met high settings.

De laatste games waarbij echt die single core performance veel uitmaakte zijn al een bijna decennium verleden tijd. Het grootste probleem met de meeste games die ruk draaien waren namelijk wel gewoon multithreaded, was dat ze er gemakshalve (of uberhaupt gewoon nooit naar geinformeerd hebben) vanuit gingen dat de AMD net als intel net zo veel floating point units had als dat het cores had, de FXjes hebben namelijk maar de helft aan floating cores en wel 4-6-8 int cores. Als je dus 3 cores aansprak voor threads die floats gebruikte zat je op de lagere bulldozers al met een probleem en zakte je FPS door het putje weg, de OSen hebben daar ook rekenening mee moeten houden. (ARMA heeft hier veel last van bv, zelfs op de OCde high end bulldozers). Want je kunt de FXjes namelijk ziek goed overclocken, en al haalde je 30% meer raw power, de FPS was nog om te janken en zat gewoon geen verbetering in. Ik heb de low end FXjes zelfs ver voorbij de 4ghz zien gaan zonder dat ze 60FPS wisten te behalen in de ruk draaidende games, ook zelf met mijn huidige FX 8350 ver lopen overclocken om te kijken of hier verbetering in zat bij de zeldzame ruk draainde game. De verbetering was marginaal. Het probleem ligt hem gewoon 9/10 keer in de andere architectuur van de bulldozers ten opzichte van de Phenoms of Intels waar geen rekening mee gehouden werd. Single threaded performance is al heel wat jaartjes geen probleem meer, goed multithreaden kwam alleen wat later op dan AMD verwacht had. (1-2 jaar na introductie begon het een beetje de standaard te worden, toen was de strijd met intel al verloren)

[Reactie gewijzigd door batjes op 29 maart 2017 16:59]

Frostbite en Cryengine werden -toen de 8350 nog relevant was- door slechts enkele games gebruikt. En die doen de multithreading wel goed, zoals ik ook al aangaf.
Zowat alle games die slecht draaiden zag je 1 of 2 cores met wat activiteit en dan de rest die zowat idle waren. Heb zelfs core parking zien gebeuren.

Unreal 3 geoptimaliseerd voor AMD? Waarom zucht ik dan zo hard iedere keer ik het logo zie, zelfs bij UE4? De enige UE games die vlot draaiden die ik mij kan herinneren (en gespeeld heb) hadden ofwel geen high end graphics of waren gereleased nog voor de bulldozers uitwaren (zoals Dishonored en Borderlands).
Nuja, veel hangt af van wat de devs er mee kunnen. Zo kan Cryengine in ervaren handen goede graphics aan goede performance uitstampen. Maar anderen slagen in geen van beiden.

Gans je laatste stuk tekst zegt precies wat ik eerder al zei: er werd niet eens getest op AMD of deze problemen gingen boven gekomen zijn en gingen gefixed worden. Of een poging tot fixen iig, wat sommigen wel geprobeerd hebben maar grandioos in gefaald zijn.
De meeste slecht draaiende games hadden 1 of 2 cores met activiteit en de rest liep wat te slapen in vergelijking. Sure, letterlijk is het multithreaded... maar als 3/4de van je cores niks aan het doen zijn dan is het niet interessant.
De games die wel deftig draaiden EN high end graphics hadden zag je meteen in je task manager wat het verschil was. Namelijk (bijna, er was meestal wel 1 of 2 die niet veel activiteit hadden) alle cores hadden veel activiteit. Dus het was zeker doenbaar en alle games die slecht draaiden enkel op AMD cpus konden -indien tijd, geld, en kennis geen probleem vormden- wel degelijk gefixed worden, of waarschijnlijker: als ze van in het begin er rekening mee gehouden hadden dan was het nooit zo'n probleem geweest.
Het floating point probleem bij FX was gekend, toch zeker toen de bulldozer uit was, dus als daar gewoon geen rekening mee gehouden wordt, en er niet op dat platform getest wordt, dan is dit gewoon dik de developer zijn fout.
Ik wist de details niet maar wist wel dat floating point een probleem was bij de FX. Ik verwacht dat een dev rekening houdt met de hardware waar zijn product wellicht wel zal op gedraaid worden, toch als het zware eisen heeft.
Onzin, er zijn maar een handje vol indies en partijen als ARMA geweest die totale schijt hadden aan de bulldozers.

...

(Idtech nauwelijks overigens, DOOM draait echt ruk op een FX).
Nochtans veel AAA en AA games (en een paar III) waar performance en graphics totaal niet overeen kwamen. Genoeg games die aan 20% op 1 of 2 cores draaiden en aan sub50% GPU, die op Intel wel vlot draaiden. High end moderne graphics aan zo'n hardware usage, er is wel wat meer mis dan enkel floating point (vooral wanneer het game maar 1 of 2 cores echt gebruikt). (en zelfs affinity hielp daar niks, dus ervoor zorgen dat je slechts 1 core per koppel gebruikte hielp niks)
Doom draaide hier wel vlot na een aantal settings naar beneden te halen (vanwege GPU vooral). Tot net voorbij Hell geraakt voordat mijn computer het begaf. Doom is geen spel dat ik onder de 60fps kan spelen (dipjes naar 50 hier en daar negerend). Games die de oudere idtech engines gebruikten draaiden minder goed iig.

edit: Bedenk net wel dat ik Doom niet op launch gespeeld heb, dus misschien gefixed met latere patches.

[Reactie gewijzigd door Nha op 30 maart 2017 12:59]

"Omdat twee Summit Ridge-dies gebruikt worden, zouden de chips beschikken over ... 58 pcie-lanes"
Vreemd getal, en vermoedelijk een domme rekenfout van deze site. De Summit Ridge die heeft 24 primaire PCI-lanes, plus 4 voor een NVMe SSD. Het getal 58 komt van "24+24+4", want 1 van de twee NVMe controllers zou niet gebruikt worden, maar dat telt op tot 52, niet 58.

Zelfs als die aanname over de NVMe controllers niet klopt kom je op 24+24+4+4 = 56 lanes. 58 is niet eens deelbaar door 4!
Ik ben wel benieuwd wat er als interconnect gebruikt wordt tussen de twee dies binnen deze processor. Aangezien we over Zen Naples gehoord hebben dat de 128 PCIe-lanes die daar uit komen gebruikt kunnen worden voor of PCIe, *of* voor infinity fabric om te verbinden met de andere socket (2x 128 lanes wordt dan 2x64 waarbij de andere 64 met elkaar verbonden worden).

Het zal me dus niks verbazen als deze "missende" PCIe lanes waar je het over hebt gebruikt worden voor de interconnect tussen de twee dies. Die Link units heb je toch al op je silicon zitten, en van het Zen Naples verhaal weten we dat ze blijkbaar naast PCIe ook het Infinity fabric protocol kunnen spreken.

Wat ik ook interessant vind aan deze product aankondiging is dat AMD weer voor een twee-die oplossing gaat in een processor; net zoals ze indertijd met hun 12-core "Magny Cours" Opteron monster processor deden waar twee 6 core chips in een package zaten. Aangezien we van Zen Naples horen dat er een 16 en 32 core variant komt, zou dit best een aanwijzing kunnen zijn dat de 32 core variant wellicht ook een twee-die oplossing is waar dezelfde 16-core die twee keer in zit. We zullen het gaan horen binnenkort... :Y)
PCI-e en infinity fabric zijn allebei bedoeld voor relatief lange afstanden, vele centimeters met daartussen sockets en connectors en PCB traces. Dat zou wat overkill zijn tussen twee dies in dezelfde package.

Overigens: AnandTech denkt dat de 32 core variant maar liefst 4 dies nodig heeft ! De 16 core is dan uiteraard een 2-die package.
PCI-e en infinity fabric zijn allebei bedoeld voor relatief lange afstanden, vele centimeters met daartussen sockets en connectors en PCB traces. Dat zou wat overkill zijn tussen twee dies in dezelfde package.
Dat ben ik in principe met je eens, maar een link unit speciaal hiervoor ontwerpen en valideren zal nog een veel complexere zaak zijn (en ook qua routering tussen de chips is het weer extra complexiteit). Ik ga er van uit dat AMD een redelijk kosten efficiente oplossing gebruikt, en dus dezelfde interconnect. Bij het Magny Cours voorbeeld wat ik aanhaalde waren het ook gewoon HyperTransport links tussen de twee chips in een package. Misschien zullen ze wat anders afgesteld zijn omdat ze minder krachtige signalen hoeven te verzenden en zo wat minder stroom verbruiken.
Overigens: AnandTech denkt dat de 32 core variant maar liefst 4 dies nodig heeft ! De 16 core is dan uiteraard een 2-die package.
Dat was ook iets wat bij mij op kwam toen ik mn vorige post schreef, al had ik het toch niet helemaal verwacht (beetje in de trant van; "zijn ze echt zo gek?" ;) ). Het ligt aan de ene kant wel voor de hand aangezien ze hier 8-core bouwblokken gebruiken, waarbij de kans zeker aanwezig is dat ze bijna dezelfde gebruiken dan voor Naples, en het komt ook overeen qua het totale aantal geheugen kanalen. Wat ik alleen verwacht had was dat de basis chip voor Naples twee keer zo groot zou zijn als de Ryzen en dus vier CCX'en op een die zou bevatten. Alles binnen een enkele die houden geeft je veel minder latency (en veel meer bandbreedte) dan als je over een link naar een andere die moet namelijk.

Grappig om nu in het AnandTech artikel te lezen dat het waarschijnlijk toch vier chips is, en Lisa Su het ook tussen de regels door heeft bevestigt, bedankt voor de link!
De tijd de een snelle quadcore altijd wint in games is nu al voorbij anders. tenzei je elke jaar of 2 een nieuwe cpu koopt zou ik zeer zeker geen quadcore cpu meer kopen om te gamen.

En als AMD een qaudcore met ryzen IPC's op 4.5ghz had kunnen maken nu al dan hadden ze dat echt wel gedaan. het process en/of het ontwerp zijn er nog niet klaar voor. het is een nieuw ontwerp op een voor AMD nieuw process. verwachten dat ze dan intel op kloksnelheid zouden overstijgen is meer dan naief.

wel zijn ze in 4 maanden tijd van nog geen 3.2 ghz naar een launch clock van 4ghz gegaan. een paar steppings verder en de clocksnelheid zal dus echt nog wel hoger kunnen.

AMD64 was ENORM nodig en kwam meer dan op tijd. je moet die hardware in-place hebben lang voordat het echt nodig om te zorgen dat de software er komt. AMD heeft er in eigenhandig voor gezorgd dat de overgang 4+GB geheugen geheel probleemloos is verlopen.

verder, dit is een 8 core cpu. de cpu voor de massa word de APU met 4 zen cores en een goede GPU.

maar omdat JIJ het niet wil is AMD verkeerd bezig blijkbaar.

[Reactie gewijzigd door Countess op 29 maart 2017 13:24]

Ik heb ooit een Intel Core2Quad gehad die niet over de 3 GHz te klokken viel en geen boost clock had. Nu een zooi generaties en 8-9 jaar later halen ze 5GHz. Geef AMD met Ryzen gewoon wat tijd joh, dit is nieuw, net uit, en nog lang niet uit-geoptimaliseerd verwacht ik. De 2e generatie Ryzen wordt waarschijnlijk wel sneller, en zelfs de huidige generatie kan sneller worden als bios, OS, drivers en programma's worden geoptimaliseerd in de komende weken/maanden.

Voorbeeld:
Een paar weken geleden kregen mensen hun geheugen nog niet boven de 2,6GHz geklokt, nu met bios updates lukt ze dat ineens wel, en is 3,6GHz en misschien zelfs sneller wel mogelijk, wat een enorme boost geeft aan Ryzen. Met heel snel geheugen behaalt Ryzen zonder optimalisaties van OS en games in sommige gevallen nu al hogere fps dan de 7700k.

Rifleshader linkte het al eerder hierboven, en ik had de video een paar dagen geleden al gezien, maar bij deze nogmaals:
https://www.youtube.com/watch?v=RZS2XHcQdqA

Overigens heb je aan zo veel cores echt wel wat. Jij misschien op dit moment nog niet, maar er zijn zat toepassingen te bedenken die er enorm van kunnen profiteren.

Wat betreft de consumenten CPUs van AMD: meer cores wordt interessant als Vulcan en DX12 in meer games gewoon gaat worden, dan hebben alle gamers er ook zeker wat aan om een Ryzen R7 te overwegen.

Wat betreft de "Threadripper" CPUs hierboven: Een vriend van me zou bijvoorbeeld niet meer per se iedere keer een cluster op de universiteit hoeven regelen voor wiskundige berekeningen. Redelijke performance zou met dergelijke 16C/32T CPUs of zelfs met een R7 met 8C/16T al thuis binnen handbereik kunnen komen. Het is sowieso een enorme vooruitgang op zijn huidige 4-core i5 die alleen maar uitblinkt in games op het moment.
Wat betreft de consumenten CPUs van AMD: meer cores wordt interessant als Vulkan en DX12 in meer games gewoon gaat worden, dan hebben alle gamers er ook zeker wat aan om een Ryzen R7 te overwegen.
Absoluut niet. Parallellization in je rendering backend is zeker nodig, maar daar zit bij lange na niet het bulk van het werk dat geparallelliseerd dient te worden.
En jij denkt dat alle CPU's voor games gemaakt zijn? Deze 12 pitters zullen hoogstwaarschijnlijk eindigen in servers en workstations. En jij vind AMD64 nutteloos? Wat een onzin. Dankzij AMD hebben we nu PC's met meer dan 4GB RAM. En als het zo nutteloos is, waarom gebruikt dan zelfs Intel het in vrijwel al haar CPU's? AMD64 is een van de grootse vooruitgangen ooit in CPU land.
Ryzen is een consumenten processor en de Naples serie voor de zakelijke klanten. Intel vraagt waanzinnig veel geld voor zijn 8/10-core omdat er waanzinnig weinig consumenten hier gebruik van kunnen maken. Uiteraard waakt Intel er ook voor dat de 8/10-core i7 niet in het vaarwater komt van hun Xeon, en dus mag de i7 niet te goedkoop zijn. AMD zal zijn 12-core Ryzen dus voor minimaal § 1.000,- moeten verkopen, anders kon Ryzen wel eens in het vaarwater van Naples komen. AMD moet ook geld verdienen he?

Intel zag destijds dat een 64-bit processor enkel wat zou toevoegen voor de zakelijke markt en weinig zou toevoegen voor de gewone consument, en dat gaat tot op de dag van vandaag nog steeds op; voor internetten, e-mailen, bankieren, FB'en en zelfs licht grafisch werk heb je aan 4GB meer dan genoeg (2GB zou nog volstaan, vooral met een SSD). Meer dan 4GB is dus voor de meeste mensen overkill.

Maar ik begrijp dat jij je >4GB volledig benut, en dus heb jij er baat bij. Ik heb het over de mensen die alleen bovenstaand doen, en die hebben dus niets aan AMD64. Sterker nog; Windows 10 x64 neemt meer ruimte in beslag op je hdd dan Windows 10 x86.

En diezelfde groep mensen heeft dus ook niets aan een 6/8/10/12/16-core :)

[Reactie gewijzigd door Renso Poel op 29 maart 2017 18:11]

Heb je ooit achter een pc gewerkt met meer?
4gb kun je niet fatsoenlijk internetten, pdfjes zijn vaan al honderden MBs

Zodra je pc meer wilt gaat die swappen, daar merk je niets van, behalve dat het gene wat geswapt is traag is.
Ik heb hier computers met 1GB, 2GB, 4GB, 8GB en 16GB... dus ja, ik weet waar ik over praat. Ga ik internetten, e-mailen of zelfs licht grafisch werk doen, dan is de 2GB voldoende en is het verschil tussen de 4GB en daarboven verwaarloosbaar klein. Alle systemen, op die van de 1GB na, hebben een ssd. De 1/2/4GB hebben 32 bit versies van Windows 10, de rest 64 bit Windows 10.

En over swappen; daarin is meestal de hdd het probleem. Een ssd erin en het probleem is opgelost :)
Dus, AMD heeft de 8-core markt op zijn kop gezet met 350-500 usd cpu's terwijl intel gewoon 1000 usd vraagt. Vervolgens kondigen ze aan dat ze met 12- en 16-core cpu's komen terwijl intel die voor 1700 usd verkoopt en dat lijkt jou niet interessant?

Het klinkt alsof je gewoon een gamer bent. Dan val je inderdaad buiten de doelgroep van de HEDT markt. Deze cpu is bedoeld voor video, 3d en servers. Niet voor spelletjes.
Volgens mij snap je mij niet;

Voor de standaard zaken zoals internetten, e-mailen, bankieren, FB'en en zelfs licht grafisch werk heb je zelfs niets aan een 6-core, laat staan een 16-core.

Dat Intel waanzinnig veel geld vraag voor zijn 8/10-core is omdat er waanzinnig weinig mensen er wat aan hebben. Anderzijds; Intel gaat met een goedkope 8/10-core waarschijnlijk zichzelf ten dele in de voeten schieten, je moet immers de processor niet te interessant maken voor de zakelijke klanten. Iets waar AMD nog wat van kan leren, tenzij de 12-core Ryzen voor een minimale prijs van § 1.000,- wordt verkocht? Doen ze dat niet dan vrees ik voor Naples en dus (ten dele) inkomsten wat AMD zal mislopen.

Verreweg de meeste mensen hebben genoeg aan een 4-core, en ik vind het dus vreemd dat AMD daar juist weinig mee doet. Het is alsof de 8-core alles is, terwijl dus in feite de nieuwe Ryzen 8-core niets toevoegd voor de meeste mensen en een domper is voor de meeste gamers; zij hadden vast een hoger geklokte Ryzen gezien.
Eerst was er AMD64 waar 99% van de consumenten niets aan hadden (en nu nog heel veel niet)
Ik begrijp dat jij nu over een Itanium CPU beschikt? How's that working out for ya?

[Reactie gewijzigd door .oisyn op 29 maart 2017 13:44]

Je moet een zakelijke cpu niet gaan verwarren met een consumenten cpu.

Maar even serieus; jij denkt dat je voor internetten, e-mailen, bankieren, FB'en en zelfs licht grafisch werk (foto bewerken) meer dan 4GB geheugen nodig bent? Ik kan je verklappen dat zelfs 2GB voldoende is, zeker als er een SSD wordt gebruikt, laat staan 4GB. Alles boven de 4GB is voor de meeste mensen echt overkill, sterker nog; ik ken niemand met een pc/laptop die meer geheugen heeft dan 4GB, en dan heb ik het over mensen die bovenstaand er mee zouden doen.

Dus ja, AMD64 is tot op de dag van vandaag voor veel mensen overkill, net zoals een 6/8/10/12/16-core dat zal zijn :)
Je moet een zakelijke cpu niet gaan verwarren met een consumenten cpu.
Ik verwar helemaal niets. Intel's implementatie van 64 bit was Itanium, en zag aanvankelijk geen brood in een 64-bits variant van x86. AMD zag dat toch echt anders en kwam met de AMD64 architectuur, waar Intel inmiddels ook gebruik van maakt.

Het was dus AMD die op dat punt voor vooruitgang heeft gezorgd. Het doet er compleet niet toe of 99% van de consumenten (wat imho een veel te lage schatting is vandaag de dag, die mensen waar jij het over hebt doen dat werk tegenwoordig op tablets, niet op desktops en laptops) er wat aan heeft. Waar het om gaat is dat jij die implementatie compleet bagatelliseert.

Overigens klopt je relaas niet helemaal. De x86 was al sinds de Pentium Pro prima in staat om meer dan 4GB te addresseren, middels PAE. Zeggen dat AMD64 niet nodig is omdat je niet meer dan 4GB nodig hebt is dus sowieso een slecht argument - zelfs als je wel meer dan 4GB nodig hebt is nog AMD64 niet nodig ;). Maar dat was mijn punt dan ook niet.

[Reactie gewijzigd door .oisyn op 29 maart 2017 18:39]

Itanium is een zakelijke cpu en daar heb ik het niet over, jij wel :)

ik heb het over AMD64 in de consumenten processoren, en dus ook x64. En die biedt voor veel mensen totaal geen meerwaarde over x86, sterker nog; Windows 10 x86 neemt minder ruimte in beslag als Windows 10 x64.

En wat heeft AMD64 te maken met een 6/8/10/12/16-core consumenten processor? Beide zijn voor veel mensen complete onzin :)

Intel begrijpt dat en maakt zijn 10-core i7 waanzinnig duur. Waarom? Omdat er waanzinnig weinig mensen hier maar gebruik van kunnen maken. Waarom nog meer? Omdat de 10-core i7 niet te goedkoop mag zijn zodat die onnodig in het vaarwater komt van de Xeon.

Er zijn er genoeg die de opmerking maken dat die 10-core i7 zo extreem duur is. Tja, hoe zou dat nou komen?

Als AMD zijn 16-core Ryzen beneden de § 1.200,- gaat verkopen dan heeft dat wel degelijk gevolgen qua verkoop voor een 16-core Naples. Sommige klanten zullen dan wellicht voldoende hebben aan een 16-core Ryzen, daar gaat je winst
Itanium is een zakelijke cpu en daar heb ik het niet over, jij wel
Omdat jij AMD64 bagatelliseert, terwijl je die reactie waarschijnlijk hebt getikt op een CPU die gebaseerd is op die ISA.
Deze reactie die ik nu intik zou prima gaan op een dual-core 32bit cpu met 2GB geheugen, klopt.

Maar als jij niet genoeg hebt aan 4GB, dan is dat toch goed? En als jij volledig gebruik kunt maken van een 6/8-core, dan is dat toch prima?

Maar daar heb ik het helemaal niet over. Ik heb het over verreweg de grootste groep die alleen internet, e-mailt, bankiert en licht grafisch werk doet (foto bewerken), en dan heb je niets aan een 6-core met 8GB toch?

Laat staan een >8-core met meer dan 8GB :)
Normaal reageer ik bijna nooit, maar dit slaat alles :P
je vergeet "enkele" belangrijke puntjes:
  • ECC geheugen
  • Mulit-proc ondersteuning
  • ondersteuning voor grotere hoeveelheden geheugen
  • Virtualisatie heeft baat bij meer cores niet de clocksnelheid
de bedrijven die een r7 zouden kopen i.p.v. een naples zouden anders voor een goedkope xeon zijn gegaan, aangezien die niet de financiele middelen, kennis of interresse hebben in een grote degelijke infrastructuur. wat AMD hier doet kan juist een hele goede zet zijn om toch kopers in deze categorie te krijgen die anders geen interresse zouden hebben.

intel houdt de prijs te hoog naar mijn mening, omdat ze geen concurentie hadden van AMD, kijk naar wat amd biedt t.o.v. intel op dit moment.
Als je puur de rekenkracht nodig bent, en het extra's eigenlijk niet nodig bent (of er niet voor over hebt), waarom zou je dan voor een Naples gaan? Maar als die Ryzen er niet was geweest had AMD die Naples verkocht en dus meer winst, snap je?

Je moet als AMD ook naar de winst kijken he? Een 16-core Ryzen levert hun niet zoveel op als een 16-core Naples. Feit is dat een single socket Ryzen 16-core wel degelijk in het vaarwater kan komen van een single socket 16-core Naples. Daar heeft Intel dus geen last van :)

[Reactie gewijzigd door Renso Poel op 29 maart 2017 21:06]

Eerst was er AMD64 waar 99% van de consumenten niets aan hadden (en nu nog heel veel niet)
Seriously? er is niemand die 4GB of meer geheugen gebruikt?
Zoals er al werd gezegd, het is waarschijnlijk een gamer. Heeft zijn pc in elkaar laten zetten. En kijkt vooral naar reviews. Weet waarschijnlijk niet eens hoe het met 32 bit en 64 bit zit. Amd heeft veel voor de x86 architectuur betekent. Ondanks hun lage r&d budget. Maar veel mensen zien altijd nog intel stickers. En vergeet niet wat voor praktijken intel heeft uitgehaald richting amd. Al vind ik intel wel een wat vriendelijker bedrijf dan nvidia. Dus een tip voor renso poel: Doe eerst je research voor je zoiets post.
Als jij wilt beweren dat verreweg de meeste mensen ook daadwerkelijk 8GB werkgeheugen nodig hebben en aan 4GB niet genoeg hebben, en dat een 6-core een enorme uitkomst is voor die grote groep mensen die alleen internet, e-mailt, bankiert, of zelfs licht grafisch werk doet (foto bewerken) dan kom je volgens mij van een andere planeet :+
Om er nog op terug te komen.
Als ik firefox gebruik en wat paar tabbladen open heb staan gebruikt windows gerust 3 tot 4 gb. Vooral met youtube whatsapp web messenger en andere sites open. Heb de laatste tijd het gevoel dat ik juist meer geheugen nodig moet hebben.
Ik weet uit eigen ervaring dat een systeem met 4GB en Windows 10 x86 beter presteert dan een systeem met 8GB en Windows x64 en een HDD.
Je haalt een aantal dingen door elkaar. x86 is de instructieset waar zowel AMD als Intel hun CPU's op bouwen. Volgens mij doel je op de 32 en 64 bit versies van Windows.

[Reactie gewijzigd door Willemvb10 op 29 maart 2017 18:40]

Windows 10 x86 = 32bit
Windows 10 x64 = 64bit
https://en.wikipedia.org/wiki/X86?wprov=sfla1
Alle desktop Windows varianten zijn x86 gebaseerd.
Microsoft maakt onderscheid tussen een 32bit en 64bit processor; x86 staat voor 32bit en x64 staat voor 64bit. Dus;

Windows 10 x86 = voor een 32bit cpu, ook te gebruiken voor een 64bit cpu
Windows 10 x64 = enkel voor een 64bit cpu

[Reactie gewijzigd door Renso Poel op 29 maart 2017 18:55]

Nee. x86 staat voor de instructieset. Alle desktop Windows varianten zijn x86. Microsoft noemt de 32 bit versie gewoon 'Windows 10 32 bit' en de 64 bit versie 'Windows 10 64 bit'
Dan moet je de volgende keer beter opletten, want Microsoft geeft wel degelijk aan dat zijn 32 bit Windows "x86" genoemd wordt en de 64 bit Windows "x64"

https://i.stack.imgur.com/EEFo9.png
x64 is gewoon een afkorting voor x86-64. Beidde zijn gewoon x86 gebaseerde besturingssystemen. De een is 32 bit en de ander 64.
Ik zeg alleen wat Microsoft bedoeld en wat op de afbeelding staat :)
ik ben benieuwd wat intel zijn antwoord wordt hierop. ze hebben nog steeds niks van zich laten horen sinds Ryzen 7 beschikbaar is. Ik ben eigenlijk in afwachting wat intel gaat doen om mijn volgende beslissing te maken qua upgrade maar ze zijn volgens mij met stomheid geslagen daar 8)7

Als dit inderdaad waar blijkt te zijn dan mag intel heel snel met een antwoord komen. _/-\o_
Zal leuk zijn als intel hun prijzen verlaagt. Aan de andere kant, ik support liever Amd.
Intel kan niet echt zijn prijzen verlagen, ze hebben zo veel modellen dat ze in erlkaars vaarwater zouden komen.
Inderdaad, en ik zou dan ook verwachten dat een 16-core Ryzen minimaal voor § 1.200,- verkocht gaat worden, anders komt deze in het vaarwater van een 16-core Naples.
Als Intel slim is doen ze niet veel en laten ze zich de kop niet gek maken. Een 16-core zou Intel voorlopig gewoon moeten laten voor waar hij voor bedoeld is; de zakelijke markt.

Het zou me niets verbazen dat Ryzen in het vaarwater van Naples gaat zitten, en het lijkt me niet dat Intel zichzelf in zijn voeten gaat schieten.

De enkele consument die wel wat heeft aan een 16-core heeft ook wel het geld voor een Xeon :)
Codename Threadripper +1
Leuk woordgrapje van AMD
Wow, dat zijn beloftevolle scores. Het lijkt erop dat AMD nu wel een heel goede kans maakt om terug het bijna monopolie van Intel te doorbreken in het high end segment
Perfect als vervanger voor x79 , goed dat ik gewacht heb, damn 32 threads das mooi video render platform. Nu maar hopen dat de prijs ook leuk blijft
Hoe lang duurt het eigenlijk om video's te renderen?
DAn moet je wel met een concreet voorbeeld komen, 1080p of 4k scheelt al heel veel en de kwaliteitsinstellingen ook.
Precies hangt ook van de bewerkingen af, maar begin me aardig te ergeren waneer ik een uur per minuut video moet wachten.
Heb dan zelf een i7 3820 @ 4.3ghz
64gb ram, en ssd als cache voor after effects.
De cpu is echt de bottleneck. Voor gaming op 4k is het een beest

[Reactie gewijzigd door itcouldbeanyone op 29 maart 2017 16:44]

Wat prijs betreft zou het toch zeker "leuk" moeten zijn aangezien de prijs van de 1800x tov de 6900k.
Ik ben hier ook zeker blij mee. Concurrentie is altijd goed voor ons als consument en ik gun het AMD van harte.
vooral met de 58 pcie lanes, daar zijn in het HEDT segment vast wat mensen blij mee
Marktaandeel op een hele lucratieve markt is wel interessant voor AMD juist omdat ze daar nu vrijwel niet vertegenwoordigd zijn. Dit zijn workstation/server cpu's en daar zitten de goede winstmarges op, niet op consumenten producten
Precies, dus moet je zorgen dat je consumenten processoren niet in het vaarwater gaan zitten van je zakelijke processoren. Een Ryzen 16-core zou AMD voor minimaal § 1.200,- moeten gaan verkopen, want anders kiezen sommige zakelijke klanten niet voor een 16-core Naples maar voor een Ryzen. Als je een alternatief hebt, heb je als klant een keuze en die kan dus beroerd voor AMD uitpakken (financieel gezien).

Als AMD hun 16-core Ryzen voor weinig geld aanbiedt..... daar gaat AMD's marge :)
Dan doet Intel het dus wel goed, die zorgt dat zijn 10-core i7 niet te goedkoop wordt :)
Ryzen is single socket, naples multi, dus dat zal wel mee vallen. Een 8 core xeon is ook goedkoper dan een 6 core i7
Naples komt volgens mij ook voor single socket uit, maar het komt sowieso op hetzelfde neer; Ryzen moet niet concurreren met Naples maar met Core. Naples moet concurreren met Xeon.

Dat een 8-core Xeon goedkoper is dan een 6-core i7 zou goed kunnen. Net zoals je van de i7 verschillende modellen hebt, heb je die ook bij de Xeon.
>= Octacore is voor het groeiend aantal gamers dat streamed wel interessant om te kiezen hoor... https://youtu.be/O0fgy4rKWhk?t=19m55s
Miep op FB zal er niet veel aan hebben nee.

[Reactie gewijzigd door Canule op 29 maart 2017 14:04]

Maar hoe groot is die "streamende gamer" markt eigenlijk, en blijft die wel groeien?
Het is nu hip, maar ik vraag me af hoelang dat door zet. Natuurlijk is het leuk een stream te bekijken van iemand die of wat te vertellen heeft, of iets van waarde kan laten zien. Het overgrote deel van de gamers heeft niks interessants te vertellen of te laten zien.
Het gaat er mij om dat AMD hele vreemde dingen doet als het gaat om de massa te benaderen. Voor internetten, e-mailen, bankieren, FB'en of zelfs licht grafisch werk heb je zelfs niets aan een 6-core laat staan een 16-core.

Intel pakt wat dat betreft de zaken beter aan en biedt een 8/10-core processor voor waanzinnig veel geld, maar diezelfde processor is ook maar voor een waanzinnig beperkt groepje mensen tot nut (ten opzichte van de andere processoren) en dan is het gewoon vraag-aanbod toch? Waarom iets produceren waar bijna niemand iets aan heeft?????

Daarbij ga je toch je zakelijke lijn (Naples) niet onnodig in de weg zitten omdat je zo nodig een 16-core moet uitbrengen, alleen omdat je wilt laten zien dat je dan kan??? Ik zou als het kan voor een Ryzen 16-core gaan en niet voor een Naples 16-core, want dat zal wel bakken met geld schelen. Ik denk dat Intel dat ook zo ziet :)
Zou cool zijn voor games zoals Star Citizen.
Deze games zijn heel zwaar op de processor.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*