Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD introduceert Threadripper- en Epyc-processors

Door , 53 reacties

Tijdens zijn persconferentie op de Computex heeft AMD zijn grootste Ryzen-processors tot dusver formeel aangekondigd. Alle Threadripper-cpu's krijgen 64 pcie-lanes. Daarnaast werd bekend dat de Epyc-processors voor servers, voorheen bekend als Naples, op 20 juni verschijnen.

De prestaties van de nieuwe Zen-serverprocessors werden allereerst weer benadrukt. Zo moeten de Epyc-processors in hun eentje sneller dan de helft van Intels tweesocketsystemen zijn en zou Epyc Intels e2650a v4-Xeon in geheugen- en rekenintensieve taken ruimschoots verslaan, iets wat we ook tijdens AMD's evenement in San Francisco zagen. Wat AMD toen nog niet bekendmaakte, was de introductiedatum voor zijn Epyc-serverprocessors. AMD-topvrouw Lisa Su noemt nu 20 juni als introductiedatum, maar prijzen zijn nog altijd niet bekend. Wel zou Epyc aanzienlijk goedkoper zijn dan Intels equivalenten.

Na de nodige herhalingen van partners als Dell, Acer, Lenovo en Asus dat de samenwerking met AMD zeer vruchtbaar is, gaf AMD een update over Ryzen mobile en desktop-Ryzenprocessors, met name Threadripper. De processors voor wat AMD 'ultra-premium desktops' noemt, komen deze zomer beschikbaar. Naast maximaal zestien multithreading cores krijgen alle Threadrippers 64 pcie-lanes en vier geheugenkanalen, en worden ze gecombineerd met het X399-platform. De cpu zelf is, zoals AMD het formuleert, 'een beetje groter dan de mobiele apu's'. Prijzen en een exacte introductiedatum noemde AMD tijdens zijn persconferentie echter nog steeds niet.

Willem de Moor

Redacteur componenten

Reacties (53)

Wijzig sortering
De CPU markt is weer volledig in beweging doordat AMD processors levert en aangekondigd heeft die de flagship CPU's van Intel weten te benaderen in rekenvermogen (performance). Intel heeft precies op tijd de I9 CPU ten tonele gebracht met onevenaarde rekenkracht en AMD een dag later de tegenhanger. De workstations van morgen gaan meer capaciteit bevatten dan de computers van de afgelopen 4 jaar tezamen op dit tempo voor het einde van dit jaar.

We kijken met smacht uit naar een competitieve vergelijking tussen Threadripper en de I9 waarbij de nadruk ligt op multicore performance. Dat is waar deze geweldige CPU's voor gemaakt zijn.
Nou niet echt. Intel wist ook al dat threadripper er aan zat te komen. Eerst hadden ze maar een 12 core i7 (LCC CPU) op de planning staan. Dat hebben ze snel aangepast naar i9 en het HCC CPU design wat ook voor servers gebruikt wordt is er bij getrokken zodat ze ook 18 cores kunnen bieden. anders waren ze de prestatie kroon in dat segment kwijt geweest.

LCC gebruikt een ring bus en HCC een dubbele. Die laatste cpu's zijn een stuk duurder.

AMD kan als ze willen ook een 24 of 32 core Threadripper uitbrengen. Al zie ik dat niet direct gebeuren.

Nu met de aankondiging van de i9 18 core zal Intel de prestatie kroon denk ik wel houden. Aan de andere kant zou het kunnen dat AMD nog wat meer aangepast heeft aan de Threadripper CPU's en deze het in verhouding met Ryzen nog wat beter doen qua prestatie per core / prestatie per clock door aanpassingen in de modulaire opbouw. (ik verwacht nog niet echt aanpassingen aan de core architectuur die komen begin volgend jaar met Ryzen+ / Ryzen2).

Maar al met al goed dat er weer concurrentie is! je zie meteen het resultaat. Jaren lang staan we stil core counts van intel gingen amper omhoog. Nog steeds maar quads in de het High end segment en alleen enthousiast is van 6 naar 8 en 10 cores gegaan. En dat in 5-6 jaar tijd. IPC is ook met maar iets van 25%-35% gestegen. En dit jaar zien we intel ineens met een 18 core i9 komen dus de schrik zit er daar goed in. Zo zie je maar dat de afgelopen jaar zeer slecht zijn geweest voor de consument. Aan de andere kant eigen schuld. Iedereen kocht intel cpu's en op die manier kan AMD ook amper terug komen. Voor de markt is het veel beter als het marktaandeel 50/50 zou zijn. Echter was het tot nu toe eerder 90/10 en voor videokaarten is het nu iets van 75/25 ook ongezond.
Ik ben het met je eens dat Intel waarschijnlijk met zijn 18 core i9 niet zo veel te vrezen heeft; zelfs de 16 core i9 verwacht ik dat ze op redelijk wat workloads een betere performance zullen hebben dan de top of the line Threadripper. Bij een memory-bound workload verwacht ik min of meer de zelfde performance; je bent dan toch gelimiteerd aan je 4 geheugen kanalen, en met 32 threads trek je dat wel vol. Bij een volledig CPU bound workload verwacht ik dat zo'n i9 op dezelfde clock nog met een IPC voordeel van 20-30% zal winnen, ondanks dat AMD met Zen een groot IPC gat heeft weten goed te maken. De reden dat ik verwacht dat het toch nog best wel zo groot zou kunnen zijn is omdat we zagen dat de gemiddeld behaalde IPC van Zen nog net ietsje lager lag dan dat van een Haswell, en er met Broadwell/Skylake nog wat bij gekomen is. Nu met Skylake-X en zijn flink grotere L2 caches verwacht ik nog een extra IPC boost.

Maar goed, de vraag gaat natuurlijk zijn hoe het in real-world workloads gaat performen, dit waren min of meer twee extremen die ik beschreef en geen van beide zal je echt tegenkomen in het dagelijks gebruik. Ik ben bijvoorbeeld benieuwd hoe de schaalbaarheid van Threadripper en EPYC zullen zijn omdat ze uit meerdere 8-core dies op een package bestaan. De latency van de links tussen de dies op de package zou nog wel eens heel erg belangrijk kunnen zijn, terwijl zo'n i9 dat niet heeft (die hebben weer andere dingen, namelijk dat je soms over moet stappen van de ene naar de andere ring, met alle latency gevolgen van dien).

Het is in ieder geval weer een interessante tijd, ik ben blij dat AMD weer een beetje mee kan komen, en zo'n mooi product heeft weten neer te zetten. Maar de absolute performance kroon zie ik ze op dit moment nog niet pakken :)
Ryzen schaalt veel beter met meer threads dan broadwell. In ieder geval met en zonder SMT. Dus of dat verschil dan zo ver op loopt hangt helemaal van de continu haalbare clockspeeds af onder die belasting (en niet max turbo want met volle belasting zal je maar net iets hoger dan base halen).
Daarnaast communiceren de CCX'en nu ook al via de infinity fabric dus het is de vraag hoeveel impact dit op de prestaties heeft als je tussen twee die's moet communiceren. Wellicht is dat verschil vergelijkbaar. En helpt ook hier hogere dram snelheid om die communicatie te versnellen.

die HCC i9's hebben inderdaad weer vertraging als je tussen cores op ring 1 en ring 2 wilt communiceren. Dus dat zou nog wel eens vergelijkbaar kunnen zijn. Tests zullen dat TZT wel uitwijzen maar het zou kunnen dat het gat kleiner is. We gaan het zien imo is vooral de prijs belangrijk.
Dat Ryzen goed schaalt binnen een 8-core module met twee 4-core CCX'en geloof ik best, maar helaas zegt dat weinig over hoe het zal schalen tussen twee of meer 8-core dies in een Threadripper of EPYC. Een on-chip interconnect zoals tussen de twee CCX'en zal *vele* malen sneller (latency) zijn dan een off-chip interconnect. Daar zijn een aantal redenen voor; ten eerste kan je door de hogere dichtheid on-chip veel meer datalijnen hebben, dus off-chip zal je je data (in het algemeen per cache-line) in meerdere stukken (flits) moeten versturen. Ten tweede is je afstand veel korter (je hebt het over misschien tientallen micrometers ipv bijna een centimeter), dus qua signaal integriteit heb je hele andere eigenschappen. Als laatste heb je uberhaupt je signaal overdracht. On-chip zal je puur in het digitale domein kunnen blijven, maar voor off-chip links is het state of the art om een snelle serieele link (SerDes) te gebruiken, zoals PCIe ook gebruikt. Nu heeft deze serialisatie/deserialisatie stap ook een flinke latency impact.

Wat ik eigenlijk vermoed is dat elke 8-core module een aantal SerDes link units heeft die of PCIe of het Infinity Fabric protocol kunnen praten. Deze links zullen dan gebruikt worden tussen de dies op de package, en een andere set kan gebruikt worden om of externe PCIe lanes aan te sturen, of om met een andere socket te communiceren. Dat laatste hebben we al gezien in de verhalen over Naples/EPYC. Het is veel makkelijker om hiervoor dezelfde soort infrastructuur te gebruiken, ook omdat de real-estate op je silicon aan de randen erg schaars is, wat de plek is waar je je externe connecties kan maken. Ook de AMD Magny Cours chips die 12 cores hadden indertijd waren twee 6-core dies die on-package HyperTransport links hadden tussen de twee dies, net zoals de links naar de andere sockets.
Dat eerste is een aanname het ligt er maar helemaal aan hoe AMD dit doet. AMD gebruikt voor de communicatie tussen de CCX'en en andere packages beide Infinity fabric. Dus het is nog niet te zeggen hoe ze dat doen. hoeveel lanes er tussen CCX'en zitten en hoeveel tussen de die's of hoe het uberhaubt werkt en dus schaalt.

De dingen die je noemt zijn best aannemelijk maar het is niet zeker dat het zo werkt. Hoe het bij Magny Cours werkte is anders dan nu bij Napels dus in mijn ogen niet echt te vergelijken. Was een andere bus die er tussen zat. Waren ook andere CPU architecturen die daar weer anders mee om gaan.

Ik denk dat we beter kunnen wachten met speculeren over schaalbaarheid tot er technische detail's en echte prestatie scores beschikbaar zijn die van betrouwbare reviewsites komen.
Dat eerste is een aanname het ligt er maar helemaal aan hoe AMD dit doet. AMD gebruikt voor de communicatie tussen de CCX'en en andere packages beide Infinity fabric. Dus het is nog niet te zeggen hoe ze dat doen. hoeveel lanes er tussen CCX'en zitten en hoeveel tussen de die's of hoe het uberhaubt werkt en dus schaalt.
Met 'dat eerste' bedoel je mijn verhaal over het verschil tussen on-chip en off-chip interconnects? Daar zit vrij weinig aanname in; het is simpelweg een feit dat off-chip veel trager is, dat is gewoon de huidige staat van de technologie. Ik heb zelf een paar jaar geleden ook aan een vergelijkbaar chip ontwerp meegewerkt met meerdere dies, en het geeft gewoon een boel extra vertraging ten opzichte van een enkele die met on-chip netwerk (leuk feitje; ik woonde toen letterlijk om de hoek van het AMD hoofdkantoor). Er is gewoon een fysieke limiet in het aantal connecties die je van de rand van je die kan maken naar buiten (simpel gezien; de pads moeten groot genoeg zijn om nog een draadje aan vast te kunnen maken). Nu kan AMD er wel voor kiezen om hun on-chip CCX interconnect net zo traag te maken als off-chip, maar dat zou geen goeie design keuze zijn ;) . Dat ze het allebei "Infinity fabric" noemen zegt niets, waarschijnlijk spreekt het het zelfde protocol op een hoger niveau, maar de latencies zullen echt niet even laag zijn tussen on- en off-chip.

Intel heeft op dit gebied overigens wel iets werkelijk nieuws aangondigd met hun EMIB technologie waarbij ze volledig via silicon meerdere dies kunnen verbinden (en ook net zoals de AMD Fury kaarten met hun HBM verbonden zijn eigenlijk). Dit zou wel een veel hogere dichtheid toelaten en daardoor ook veel bredere datapaden. Je kan duidelijk zien op de foto bij dit artikel dat dat hier niet het geval is en ze een aardig stuk uit elkaar op een package zitten (waarschijnlijk ook wel nodig ivm hitte/koeling).
Ik denk dat we beter kunnen wachten met speculeren over schaalbaarheid tot er technische detail's en echte prestatie scores beschikbaar zijn die van betrouwbare reviewsites komen.
Dat is sowieso altijd waar, maar het is wel leuk om er over na te denken :) Er zijn ook nog ontzettend veel andere factoren die belangrijk zijn voor performance, en het hangt ook heel erg af van je workload en waar je het systeem voor in wil zetten. Zo zal je vaak SPECcpu2006rate resultaten zien die wel wat zeggen over de maximale throughput maar niets zeggen over de werkelijke schaalbaarheid omdat dit allemaal single-threaded applicaties zijn die alleen maar lokaal bezig zijn en geen data delen. Een volledige TPC-C benchmark zegt dan een stuk meer qua schaalbaarheid bijvoorbeeld ;)
Dat snap ik en klinkt inderdaad heel aannemelijk. Nu heb je tegenwoordig wel slimme trucjes die latency kunnen verbergen / verminderen. Dus ik ben in ieder geval erg benieuwd naar de schaalbaarheid en performance zodra je die tweede die aan gaat spreken.

Ja inderdaad met HBM gebruiken ze een interposer. Maar dat is wel een stuk duurder. Dus het ligt er inderdaad aan of dat de kosten waard zijn en of je die snelheid dan echt nodig hebt.

Ik kan in ieder geval niet wachten op de resultaten van zowel Threadripper de nieuwe i9 HCC chips en Vega.
1800X presteert op stock even goed tot beter dan de 6900K (beide 8/16 chips). Het ligt eraan wat voor workload het is, maar in multithreaded workload maakt de 1700 (lager geclockt dan de 1800X) gehakt van de 6800K. Hoe wilt de 16 core dan betere prestatie leveren dan de top of the line threadripper (18 core)? Broadwell-E IPC en Skylake IPC verschilt nihil, enkele procenten tot zelfs geen. Dus nee, ik denk niet dat de I9 met minder cores even goed zal presteren in multithreaded workloads, in singlethreaded workloads wel, maarja daar blijft de 7700K voorlopig toch koning (en daarvoor koop je toch niet zo een chip).

Waar je die 20-30% vandaan haalt weet ik dus niet. Waar je het vandaan haalt dat Ryzen lager is dan Haswell weet ik dus ook helemaal niet (klopt namelijk niet). Ryzen houd van snelle ram, dus als je Ryzen koppelt met langzame ram (wat gebeurde in de initiale reviews, daar waar jij je conclusie waarschijnlijk vandaan hebt gehaald) dan werkt hij minder goed. Daarbij is die haswell vergelijking gebaseerd op GAMING performance, op multithreaded performance - zelfs met lagere snelheid ram - presteert Ryzen bijna clock voor clock even goed als Broadwell-E. Het is dat je broadwell-E boven de 4ghz kan overclocken dat het uiteindelijk alsnog sneller is (scheelt niet veel!).

Geen aanval hoor, alleen vind ik het misleidende informatie. De IPC van Skylake en Skylake X horen ongeveer gelijk te zijn, dus een boost van 20-30% of zelfs dat minder cores betere multithreaded prestatie zal leveren vind ik ver gezocht. We zullen natuurlijk nog zien hoe het uitpakt en in dit segment zal de prijs het succes bepalen (als ze maar enkele procenten van elkaar schelen). Als je 1000 van zulke processors nodig hebt, en de prijs scheelt 500 euro/dollar, dan zie ik bedrijven wel sneller voor Threadripper gaan (mits AMD de biased kan overwinnen).
Misleidende informatie? Het is gewoon mijn persoonlijke mening, gebaseerd op mijn professionele ervaring en de benchmark informatie die ik voorbij heb zien komen. Misschien kijk ik iets anders tegen de cijfers aan of kijk ik naar andere dingen dan jij. Het is in ieder geval maar een mening/voorspelling, dus doe er mee wat je wil ;)

Ik wil wel nog even verduidelijken waar mijn bewering vandaan komt. Ik heb niet naar gaming benchmarks gekeken want dat is niet waar mijn interesse ligt; dat heeft vaak veel onduidelijkere aspecten door GPU bottlenecks, drivers, en game code die misschien wel slecht naar meerdere cores schaalt. Ik ben meer geinteresseerd in wat de processor architectuur zelf qua computing throughput kan behalen, en ze dus vergelijken onder vergelijkbare omstandigheden (zelfde geheugen snelheden, zelfde kloksnelheid). Aangeizien de beide chips ongeveer vergelijkbare geheugen throughput zullen kunnen behalen zal je bij memory bound workloads niet veel verschil zien, dus laten we kijken naar dingen die meer cache/core bound zijn.

Als je kijkt naar de recente AMD Ryzen vs Intel IPC vergelijking van Tweakers dan zie ik in de Geekbench resultaten toch zeker dat 20% gat tussen Skylake en Ryzen in single thread performance onder gelijke omstandigheden. Ook in multi-core workloads zag ik dat, zoals in de Initieele Ryzen review van Tweakers; een 6900K op 3.2GHz haalde 4% hogere score dan een 3.6GHz Ryzen 1800X, dus op 3.6 GHz zal dat ook zo >12% zijn. (je ziet 4% verlies voor 0.2Ghz minder tussen 1800X en 1700X bijv). Bij de multicore Geekbench score op die pagina is het verschil nog veel groter. Dus, ja, dat is waar mijn 20% basis IPC vandaan kwam. :Y)

Wat betreft het IPC verschil tussen Skylake en Skylake-X; daarvan denk ik dat er best nog wel een redelijk voordeel in kan zitten voor Skylake-X. Aangezien de L2 cache van 256K naar 1M gegaan is heb je een stuk meer cachebaar geheugen onder een lagere latency. Met andere woorden; je kan nu ineens 768K data meer cachen tegen een latency van 12 core cycles (of misschien net iets meer, we weten niet of het nog toeneemt voor Skylake-X), ten opzichte van de 60+ cycles die het kostte om naar de L3 te gaan. Meer details over dat in mijn reactie hier.

Edit: Ik vergat nog te verduidelijken dat ik een 16 of 18 core i9 vergeleek met de 16 core Threadripper in mijn originele post. Van beide Intel chips verwacht ik dat een hogere performance hebben op dergelijke benchmarks dan de Threadripper. Op meer memory bound taken zal het meer gelijk op lopen, en op dingen die heel veel I/O nodig hebben zou Threadripper goed in het voordeel kunnen zijn met zijn grotere aantal PCIe lanes.

Ik vermoed ook dat een gedeelte van het verschil in onze meningen komt omdat we het niet over het zelfde hebben; totale chip performance op de klok en configuratie die je nu kan kopen, of theoretische chip performance onder vergelijkbare omstandigheden.

Och tsja, zoals de Engelsen dat zo mooi kunnen zeggen; we can agree to disagree :)

[Reactie gewijzigd door Squee op 31 mei 2017 22:41]

Dat Biased hangt ook weer af van de prestaties ten opzichte van de Intel processoren.

Als AMD in sommige segmenten echt veel snelelr is, en daar lijkt het wel op, zal men misschien ook sneller voor AMD kiezen. In het top segment is het afwachten wat AMD doet tegen de top van Intel.
Laten we niet vergeten de doelgroep voor dit soort CPU's klein is en blijft.
De grootste groep consument is alleen maar genteresseerd in de nieuwste telefoons.
Tablets zijn al niet meer een groeiproduct, en laptops al helemaal niet.
Dan blijven er nog enkele gamers en hobbyisten over die nog een Desktop kopen of bouwen...

Persoonlijk vind ik het ook nog steeds een goed ding hoor, dat AMD en Intel weer een beetje concurrentie hebben. Maar ik verwacht niet direct dat er een booming business gaat ontstaan op het desktop gebied.

[Reactie gewijzigd door kh65 op 31 mei 2017 07:06]

Klein wellicht, maar lucratief.
De design-wereld, met hun CAD/CAM machines en design-features, gaan hier gretig gebruik van maken, is mijn inschatting.

Daarnaast heb je de renderfarms voor de videowereld; ook daar heb je flink wat CPU power voor nodig. En ik kan kan me inbeelden, dat het -bijvoorbeeld- voordeliger is om een TR te combineren met 4 Vega kaarten om video's te compilen, dan om daar EPYC machines voor aan te schaffen.

Bovendien zetten ze duidelijk in op gaming, dus ook dat is nog steeds een lucratieve markt. Wellicht wel de enige chte groeimarkt binnen de PC wereld; laatst was toch in het nieuws dat n of andere game 1 miljard had binnen gehaald?

Al die games moeten wl op solide hardware draaien. Dus in de booming professional gaming world zou deze machine wel eens met open armen kunnen worden ontvangen...

ps. het argument van "phones" houdt geen steek; al die mensen met hun mobieltjes waren echt geen PC kopers/bouwers, voordien. Het feit dat die mobieltjes zo'n hoge vlucht hebben genomen, is wellicht juist omdt die mensen niet zo'n bakbeest in huis wilden hebben en totaal niet overweg konden met een PC (toch nog steeds een groot deel van de mensheid). Dat is dus ook geen potentiele doelmarkt geweest, 'vroegh'. De mobiele telefoon heeft wellicht gewoon het gat gevuld dat was ontstaan na de digitale revolutie van mensen mt en mensen znder PC.

[Reactie gewijzigd door Timoo.vanEsch op 31 mei 2017 07:39]

Ben het niet helemaal met je eens. Ik ben zelf wel die hard computer fanaat geweest. Zat voorheen ook vaak achter de computer en deed ook vaak dingen ermee. Maar sinds de telefoon steeds sneller en beter wordt doe ik eigenlijk niet zoveel met de computer. Ook niet qua aanschaf. Aan de andere kant heb ik wel een laptop. Daarbij heb ik een Asus Padfone S Plus, een gsm waar je met een uitbreiding een tablet van kunt maken.
De spellen op de telefoon worden toch steeds beter. Grafisch misschien niet, maar het gaat om de gameplay uiteindelijk. De wereld wordt ook steeds gehaaster, dan is een spel op je telefoon sneller te doen dan op een pc.
Ik moet eerlijk bekennen dat ik eigenlijk niet echt meer spellen speel op de pc de laatste paar jaren. Ik mis het soms wel die oude tijd waar je toen als fanaat nog elk jaar naar de HCC dagen ging
Ik was wellicht niet zo'n fanaat. Naarmate ik ouder word, heb ik echter gewoonweg gen tijd meer om spellen te spelen. Wellicht ontgroeid, wellicht andere prioriteiten. Voor zeker een full-consuming job.

Computers blijven echter mijn dada; zolang ik geen full-blown PC van mijn phone kan maken, blijven het voor mij ondingen die maar half kunnen wat ik werkelijk wil -en daarbij ook nog eens mateloos irritant te customizen zijn- in de context van: -niet-. Een ander hoesje, ok, maar enkel de FairPhone biedt de mogelijkheid om hardware te wisselen, "naar believen".

Paar centen over?
Tijd voor een nieuwe grafische kaart.
Of een andere CPU.
Of een paar andere minor tweaks.

Forget it met een laptop of een phone, h.
En dan is voor mij de lol er al gauw af.
De groep die dit soort producten koopt is heel klein, maar vergeet niet dat een halo-product heel belangrijk is voor fabrikanten. Zie ook de videokaart-markt, waar AMDs 480 het prima doet, maar mensen toch een NVidia 1060 halen, want AMD heeft niks tegen de 1080. Logisch? Nee. Maar toch gebeurt het. Idem bij CPUs, de hele APU lijn werd weggeveegd omdat ie stiekem tegen i5s van 2x de prijs vergeleken werd, want de Bulldozer-serie werd tegen de i7 gezet. Komt erop neer dat je ergens king of the hill moet zijn, zodat je simpelere spullen eerlijker getest worden.
offtopic:
Dat er zoiets als een R9 295 bestond was leuk, maar die zijn te weinig getest om als halo gezien te worden... ondanks dat ze de performance-tests wonnen. Opeens was iedereen alleen geinteresseerd in single-GPU performance, van moderne kaarten...
Klein? Zo ver ik weet is de server market lucratiever dan de desktop market. Je maakt de fout door te denken vanuit consumenten. Voor hun zal threadripper idd niet interessant zijn, buiten een niche groep. Epyc aan de andere kant...daar zal het geld in zitten voor AMD. De desktop market is dan ook meer voor 'prestige' en marketing (reden waarom Ryzen eerst uitkwam voor de desktop), het echte geld wordt al tijden gehaald uit de server market. Dat komt omdat bedrijven niet n maar duizenden van zulke processors inkopen en de marges waarschijnlijk stukken hoger uitvallen dan de dekstop CPU's. Vergis je niet dat de kosten van een R5 1400 even hoog is als die van de 1800X. Dus de marge op de 1400 is enorm kleiner (maar goed, beter iets dan niets zal de gedachte zijn geweest, gezien enkele cores defect zijn). Denk ook aan telecom bedrijven etc. waar multithreaded power vaak even belangrijk tot belangrijker is dan singlethreaded (gezien er meerdere programma's gebruikt worden tegelijkertijd). Allemaal veel interessantere markten dan de desktop market.

Onderschat de server market niet dus. Ik hoop zelf dat AMD hier een grote slag in zal maken, hoewel ik begrepen heb dat Intel toch wat beter speelt met bepaalde softwares/OS van Windows (wellicht ook een markt waar AMD zich nog niet op gaat focussen).
Het grote geld zit inderdaad in de professionele markt. Zowel voor software alsook hardware.
Toch zie ik ook graag wat SC beesten.
Ik hoop iig niet dat er betrouwbaarheidsproblemen komen door dit soort races. :)
We zitten in een procede tijd. Dat compute power bepaald wordt grotendeels door aantal cores. En software om moderne CPU optimaal te kunnen benutten ten eerste met SMP schaling ontwikkeld moet worden.
Games gaan voor mainstream en dat locken ze op minimum van 4 cores. Meer is dan niet nodig. Publisher met hun triple A titels denken aan mainstream.
Cijferneukers een groep gamers FPS.

Als 6 en zelfs ooit 8 core mainstream wordt zullen de engines vaker ook dat aantal cores ondersteunen.
Ik denk dat je iets over het hoofd ziet, de mainstream wordt bepaald door de console gamers. En de geruchten gaan dat er bijvoorbeeld in de aankomende XBoX Scorpio een 8-core processor komt. Oftewel, het gamingplatform krijgt een 8-core CPU. Dit zal voor veel game developers een deur open gooien aan mogelijkheden met betrekking tot physics, cpu scaling, cpu berekingen etc. Dus ik verwacht zeer zeker dat, gezien de huidige ontwikkelingen, steeds meer cores gebruikt gaan worden door game developers. Want grote developers zullen alles gebruiken om hun AAA game nog mooier en beter te maken (en laten klinken) dan die van de concurrent.

Nu AMD het gebruik van meer cores in een CPU in een stroomversnelling heeft gebracht is het niet ondenkbaar dat het gebruik van meer cores ook in een stroomversnelling komt. We hangen immers als zo'n 10 jaar op 4-core processors en al een goed 8/9 jaar op 4core/8threads.
Dat komt door Intel die het kunstmatig klein heeft gehouden. Dat blijkt nu ook wel omdat zij nu plotseling wel omhoog gaan naar 18 cores voor de i9. ;)

Geen concurrentie heeft meestal een remmende werking.
Het is niet alleen een kwestie van willen. Iets zo real-time gevoelig als gaming multicore maken is zeer complex door de vele afhankelijkheden. Ik graaf even mijn vorige Ryzen comment naar boven:

MMaster23 in 'nieuws: AMD-ceo belooft betere gaming-performance Ryzen-cpu's v...
Gelukkig zijn gamers niet de enige die de markt aandrijven. Wat denk je van al de 'casual' mensen die renderen, fotografie doen, photoshop gebruiken, digitaal tekenen en schilderen (niet pixar, maar heel creatief nederland zowat).
Dan hebben we het over de hele creatieve sector, ontwerp sector en bouw sector. Van cad tot lightroom, 3d software, video editing, youtubers die videos willen renderen (gamers? ;)), genoeg klanten die hier behoefte naar hebben. Aangezien (procentueel) games meer baat hebben bij een snellere GPU, is het ook niet verontrustend. Besides dat worden veel game engines gemaakt op de consoles en overgezet naar de PC. Met een beetje geluk bevatten de volgende consoles 8 of meer threads. Ik kan in elk geval niet wachten tot m'n export en import in LR minder wordt met 25mb foto bestanden.

[Reactie gewijzigd door ixl85 op 31 mei 2017 07:44]

Ik heb zelf veel distributed computing gemaakt tijdens mijn studie dus ik begrijp dat er vrij veel workloads zijn die vrij goed scalen. Echter AG zijn comment ging over gaming.. En daarom reageerde ik daarop.

Mijn vm lab kan niet wachten op een 16 of 18 core cpu.. Echter of het ook heel betaalbaar gaat worden.

Vraag me overigens ook echt af of het ooit echt mainstream gaat worden.. De huidige quad cores (en soms zelfs dual cores) zijn prima processoren voor mainstream computer werkzaamheden (office, browsen, muziekje, printen etc). Meer compute power is goed echter gaat je moeder er ineens meer of minder van photoshoppen of editten in premiere? Denk het niet.

En heb tot de dag van vandaag nog nooit iemand gehoord "goh, ik zou zo graag willen video bewerken maar de 30 min ipv 10 min export tijd zit mij z tegen, dat ik er maar niet aan begin". Vroeger was het zo dat je hardware echt bepalend was of je ging beginnen met een bepaalde workload.. Tegenwoordig zijn zelfs budget computers krachtig genoeg om vrijwel iedere workload aan te kunnen, zij het wat langzamer. Of het nu gamen of video editten is, het doel bereik je echt wel.

Een goede kwast maakt je nog geen van gogh en een snelle auto nog geen max. Een 16 core cpu gaat daar weinig in veranderen.

En daarom denk ik dat we nog lang mogen wachten zonder echte motivatie.
Ik reageerde op de complete thread en niet speciek op jou hoor. Ik belicht de andere kant van het spectrum en probeer je niet aan te vallen.
Echter gezien je comment denk ik dat je nog nooit een 2.5D 4K scene in After Effects hebt opgezet en dit wilt previewen met motion blur (of 12K voor multiscreen, bijv), of een 3D render met veel objecten for that matter. Dit gebeurt in "werkend design Nederland" redelijk vaak hoor.
Power is zeker wel bepalend op het moment dat er geld mee gepaard gaat, tijdsdruk achter zit of men wil experimenteren. Meer power in zulke software is meer vrijheid en/of kortere wachttijden/snellere previews (of zelfs real time previews).
Zoals altijd schaalt alles mee. Snellere downloadsnelheid? 4K rips om te downloaden. Tijd blijft ongeveer het zelfde.
Snellere hardware? Meer grafische kwaliteiten, grotere foto’s (35MP+), etc. De rendertijden van uren zijn de wereld helaas nog niet uit hoor (je hoeft btw geen Van Gogh te zijn om je geld met zulke dingen te verdienen of grotere, complexere dingen te maken. Dat is echt een dooddoener).

Mijn comment ging over de Nederlander die het echt gebruikt, niet je moeder die Word nodig heeft of de 15 jarige die z'n eerste vakantiefilmpje bewerkt (maar ook niet de pixars met hun renderfarms). Hopelijk snap je de scope en wat ik duidelijk probeer te maken.
"En heb tot de dag van vandaag nog nooit iemand gehoord "goh, ik zou zo graag willen video bewerken maar de 30 min ipv 10 min export tijd zit mij z tegen"

Zat tegen gekomen.

In de huidige tijd waar alle informatie zo snel beschikbaar is is het belangrijk om je video's over actuele onderwerpen snel te kunnen posten.

Zeker met 4k content duurt het nog wel even om te renderen. Afhankelijk van de lengte van je video natuurlijk.

Eerder posten = meer clicks = meer ad opbrengsten.

Ik word doodmoe van het argument een goede camera maakt nog geen goede fotograaf etc. etc.

Die goede fotograaf heeft namelijk WEL een goede camera NODIG.
Ook wordt er steeds meer video gevraagt vanuit hun markt. Foto's voor websites horen tegenwoordig ook filmpjes bij.

Met bruiloften zien we ook steeds vaker video's van de hoogtepunten.
Camera makers springen daar op in met producten die ook 4k kunnen opnemen. Echter brengt dat wel een andere workflow en uitdagingen met zich mee.

Zal dit mainstream worden? nee natuurlijk niet de meeste mensen consumeren meer dan dat ze creeren. Maar voor de mensen die content creeren is dit wel een aantrekkelijke ontwikkeling
Ik kan wel een paar dingen bevestigen. Ik doe zelf nu een opleiding journalistiek en hoe sneller ik foto's, video's en audio-bestanden kan bewerken hoe beter het is. Er komt natuurlijk een punt dat content in 4k gemaakt gaat worden, dan zal een goede processor helemaal belangrijk zijn. :) Ik kan me inderdaad voorstellen dat Jan Jansen die soms een spelletje speelt niet zit te wachten op deze producten, maar threadripper en i9 is dan ook niet bedoeld voor deze doelgroep. Ik moet eerlijk zeggen, voorlopig werkt mijn i7-6700k ook nog wel goed hoor :P
Mooie dooddoener zeg. Dit is een product voor het enthousiast platform en jij komt aanzetten met huis-, tuin-, en keukenwerkzaamheden. Ja. Hey. Daar is dit dus niet voor bedoeld.

En toch is er in de prosumer markt en in het bedrijfsleven genoeg vraag naar producten die veel performance bieden. Als (eerder gezegd) software engineer weet jij dat ook heus wel.
Er zit nog een markt tussen en dat heet workstations. Geen servers, geen gaming machines maar workstations waar mensen op het werk zwaardere taken op uitvoeren. Dat is een tussensegment. Hier kan AMD ook flinke ogen gaan gooien.
Games gaan voor mainstream en dat locken ze op minimum van 4 cores. Meer is dan niet nodig. Publisher met hun triple A titels denken aan mainstream.
Cijferneukers een groep gamers FPS.

Als 6 en zelfs ooit 8 core mainstream wordt zullen de engines vaker ook dat aantal cores ondersteunen.
Onzin.

ESO trekt tijdens het laden alle 8 mijn cores voor een paar seconden naar de 100%. Tijdens het spelen zijn op de drukke momenten ook gewoon alle 8 cores in gebruik (1 of 2 op 90%, rest vaak wat minder, 10-60%) Maar die heb ik op zeldzame momenten ook tijdens het gamen wel op alle 8 over de 80% heen.

Smite schaalt ook netjes, op drukke momenten zie ik af en toe alle 8 cores wel even zweten, met een framedropje of 2 tot het gevolg zelfs (maar valt niet onder 60).

Battlefield 4\1 heb ik op de te hoge settings ook vaak zat meegemaakt dat alle 8 de cores tegen de 100% aan pieken.

CS:GO zie ik ook gewoon netjes meerdere cores gebruiken (speel het amper en het spel is vrij ligt).

7 days to die gebruikt op te hoge settings tijdens horde nachten of grote steden ook vaak zat alle 8 mijn cores. Slecht geoptimalizeerde code enzo voornamelijk (EA, dat heeft nog geen focus, geeft ook niet), maar dankzij de Unity engine schaalt het wel gewoon netjes.

In veel gevallen zijn al die cores gewoon niet nodig, maar 90%+ van de games worden gemaakt op engines van Unreal, Unity, Source en Cryengine (de prop engines van de grote partijen schalen ondertussen ook allemaal netjes). En die schalen zonder veel input van de developers zelf, al erg netjes naar alle beschikbare cores.

Nu zijn er wel uitzonderingen zoals DOOM die gewoon keihard 2 of 3 threads zat te belasting terwijl 4-5 cores uit hun neus zaten te vreten wat resulteerde in een FPS van 12. Of de indie Reus die schijnbaar niet meer dan 1 thread kan opbouwen. Het is voor sommige devs 'niet nodig', maar de meeste doen het wel want het is de meest makkelijke manier van optimaliseren.

Dit is al heel wat jaren het geval, ik heb mijn FX4100 ingeruild enkel omdat ik gewoon tegen een performance plafond aanliep, niet omdat games 5 jaar geleden maar 1 core gebruikte.

Het multithreaden is al vele jaren bezig.
De meeste games zijn gemaakt om te functioneren op 1 tot 4 cores zoals BF4/1. Maar je vergeet de rest van je achtergrond programma's. Zet Chrome, Mediaplayer en nog wat applicaties open en je achtergrondprogramma's zoals Razer Synapse, dan zul je zien dat het over het algemeen die programma's zijn die jouw extra cores gebruiken.
Nee ik vergeet niet background tasks. Mijn systeem gebruikt tijdens het gamen niet zo maar meer dan een paar %. Het is echt BF wat op de drukke momentjes rustig 90% van het totaal pakt.

BF is een game waarbij ik steam, teamviewer, browsers en dergelijke allemaal afsluit. Anders moeten mijn graphics namelijk omlaag en dat is sund.

De meeste games die ik speel is dit niet voor nodig, zelfs als ik al mijn default meuk aan laat staan, gaat dit gezamelijk met het OS zelf (uitzondering van de onderdelen die door een game gebruikt worden) niet over de 20% heen als het idled.

De overige games die ik noemde, hetzelfde verhaal.
BF1 draai je echt niet op 1 core, zelfs mijn core i5 heeft het zwaar in BF1, BF4 kun je nog wel op een dual core spelen maar BF1 loopt pas lekker bij een 6 core cpu.
Battlefield 4 is typisch een game die voor 4 cores was gemaakt dus die zal het daar ook goed op doen. het is niet gezegd dat 8 cores automatisch goed mee schalen.
Gelukkig maar want ik ben naarstig op zoek naar een alternatief voor Intel vanwege de Intel Management Engine spionage processor.
Niet om moeiljk te doen, maar zat in het laatste nieuwsbericht hierover geen melding dat AMD een vergelijkbaar systeem heeft dat even brak is?
Nee, de AMD versie kan je helemaal uit zetten. Die van Intel niet.
Het gaat niet om multicore-performance, het gaat erom welke software je draait. Cinebench zegt niets over hoe beide cpu's presteren in specifieke software.
Ik kan je nu al vertellen dat de i9's sneller zullen zijn, zoals de core vergelijking van een ryzen met een 7700 de singlecore performance bij de 7700 nog steeds hoger is.
De i9's zijn gewoon multicore 7700's om het maar erg simpel te zeggen dus ik verwacht ook gewoon dat de core tot core vergelijking intel wint met het zelfde aantal cores cpu's.
Het interessante is natuurlijk wat zal de prijs zijn, de goedkoopste i9 zal 999usd gaan worden en een x299 mobo zal wel beginnen vanaf 500 -want: extra premium-.
Amd heeft al laten zien met de ryzen 1700/1800 dat een complete systeem aanzienlijk goedkoper is aangezien je geen duur x370 hoeft te hebben om te OC'en en alsnog de meeste features wilt hebben (b350 is voldoende).
Bij intel moet je de duurste chipset hebben en een unlocked multip. chip $$$$.
In het kort gaat het dus erom met welke prijs zal AMD aankomen.
Ik ben net begonnen met me custom pc case dus heb nog wel even werk voor de boeg maar wilde de ryzen halen. Ik wacht nog even op the threadripper. _/-\o_
-Ik gebruik me PC voor meer dan alleen gamen :P -
Je moet dan wel naar de 6700K kijken. Want we hebben het hier over Skylake (Gen6) E en niet Kaby Lake architectuur (Gen7) nu zitten deze wel dicht bij elkaar maar er zijn wel kleine dingen verandert.

Daarnaast weten we niet of AMD bij de Napels cpu's nog dingen in de cores aangepast heeft. Ik verwacht daar geen grote aanpassingen maar wie weet.

[Reactie gewijzigd door Astennu op 31 mei 2017 13:31]

Ja klopt, maar dan nog, mijn punt blijft :P, dat je met enige zekerheid kan zeggen wat de snelheid zal zijn.
En AMD heeft inderdaad een nieuwe stepping voor de threadripper gebruikt
These processors are going to use the B2 revision of the Ryzen core which fixes errata and the current engineering samples are running at 3.2GHz / 3.4GHz with a 3.7GHz turbo. AMD expects to increase this to a 3.6GHz base with a 4.0GHz turbo by launch.
Dit verhaal stond bij de eerste threadripper rumor, aangezien de meeste info klopte zal dit mogelijk ook kunnen kloppen. Hoe dan ook de nieuwe revisie zal de clock snelheid verhogen en hoogstwaarschijnlijk niet de ipc.
Maar we zullen zien
Bepaalde fixes kunnen ook betere prestaties opleveren. Bepaalde dingen worden dan in de bios microcode opgelost maar dat is niet altijd zonder performance hit.
Natuurlijk, maar intel zit niet stil met hun skylake X en doet exact het zelfde qua verbeteringen. Fixes kunnen betere prestaties opleveren maar dat zijn geen percentages met twee getallen. Het is vaker iets achter de komma.
In totaal zal de processor wel sneller worden aangezien ze gewoon de clock snelheid kunnen verhogen. Feit blijft dat intel een hogere ipc heeft en voorlopig zal houden.
AMD moet het van prijs hebben en dat kan intel wel is een probleem geven. Ik koop liever een iets langzamere cpu met veel cores (r1800) dan een duurdere cpu die een betere single core prestaties heeft (i7700).
(Dat en het feit dat de ryzens standaad unlocked zijn en een mobo voor OC' standaard veel goedkoper is, steek ik dat bespaarde geld wel in de vega ;) )
Velen met mij.

En ik moet zeggen dat ryzen met de nieuwere bios updates aanzienlijk beter presteert dan bij launch (vnmlk door betere mem support), hoe dan ook is de zen een uitstekende ontwikkeling. Ik ben niet van een rood of blauw kamp maar het moet voor beiden kampen gezien worden als goede ontwikkeling. Goede producten voor minder geld, ongeacht je keuze.
Toch wel een beest van een chip die Threadripper, in grootte althans, voor de prestaties is het afwachten. 64 pci-e lanes zijn ruim meer dan de 44 van Intel. Indrukwekkend!
Kan je hem volproppen met nvme SSD's.
Waarom had ik gehoopt dat dit de beruchte 'Raven Rigde' zou worden
Dat zijn de APU's die komen er ook nog aan. 1 CCX dus 4 core 8 thread en dan een VEGA GPU er naast.
DAMN! 64PCI-e lanes idd! Het mooiste daarin, is dat niet alleen de topmodellen 64 lanes ondersteunt, maar iedere proc uit deze lijn, Intel heeft bijvoorbeeld de goedkoopste procs, (ja, zijn kabylake, maakt het alleen maar erger eigenlijk), gecapped op 16 lanes, en de instap skylake modellen op 28 lanes, (startend @ 389 dollar).

ben nu wel heel erg benieuwd naar de prijsklasse van de Threadrippers. (de EPYC procs heb ik weinig mee van doen, maar ook in dat veld wel erg benieuwd hoe ze staan t.o.v. Intel's xeon -lijn.

Daarnaast wilde een kennis van me al een intel gaan aanschaffen van zijn vakantie-centen, (liefst vandaag nog), toch maar even vergelijkingsmateriaal gegeven over de ryzen procs, en was vrij gauw mee eens dat, voor de prijs/prestatie verhouding toch beter uit is met een Ryzen 1600, 1600x. (Deze zijn voor hem niet meer interessant, gezien de prijzen boven zijn budget uit zullen komen).

enige nadeel wat hij nu heeft, is dat zijn gtx970 nu de bottleneck is geworden voor het gamen. ^.^

Zelf ook aan het kijken voor de intel's x299 platform, of AMD's x399 platform, dus ik wacht nog even de prijs/prestatie informatie af voor we over gaan tot een koop. maandje of 2 extra wachten kan nu zeker geen kwaad.
Hoeveel zou die kosten?
Die?? Welke?

En prijzen zijn niet bekend gemaakt.
Komde gij nie uut brabant? :+
Is de Wet van Moore eigenlijk nog steeds toepasbaar?

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*