Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: AMD Epyc 2-processors bestaan uit negen dies

AMD's volgende generatie serverprocessors bestaan mogelijk uit negen dies. Het zou gaan om acht cpu-dies die op 7nm worden gemaakt en om één system controller-die, die op 14nm wordt gemaakt. De huidige Epyc-cpu's bestaan uit vier dies.

De Epyc-cpu's van de eerste generatie zijn beschikbaar met maximaal 32 cores. Voor de volgende generatie maakt AMD naar verwachting de overstap naar 64 cores. Volgens een gerucht gaat de fabrikant dat doen door meer dies te gebruiken, die allemaal in verbinding staan met één zogenaamde system controller. Die chip zou een evolutie of verbetering zijn van de Infinity Fabric, waarmee de cpu-cores van huidige AMD-processors met elkaar in verbinding staan.

ComputerBase schrijft over het mogelijke ontwerp van de Epyc 2-processors, aan de hand van informatie van SemiAccurate en schetsen die een ingenieur op Twitter heeft gezet. Naar eigen zeggen zijn die schetsen zijn interpretatie van hoe AMD de komende serverprocessors op kan bouwen.

Omdat AMD voor zijn Epyc 2-processors overstapt naar het 7nm-procedé, passen er meer dies op hetzelfde oppervlak. De nieuwe processors blijven op die manier compatibel met de huidige SP3-socket die voor de eerste Epyc-generatie wordt gebruikt.

Volgens het gerucht worden alleen de cpu-dies gemaakt op 7nm. Net als de huidige dies zouden ze acht cores bevatten. AMD zou varianten van 8 tot 64 cores kunnen maken met dit ontwerp. Het plaatsen van een chip in het midden die in verbinding staat met alle cpu-dies, zou kunnen zorgen voor minder latency dan bij het huidige ontwerp waarbij de ccx'en onderling met elkaar verbonden zijn via de Infinity Fabric.

AMD heeft officieel nog niet veel details bekendgemaakt over de Epyc 2-serverprocessors. De fabrikant heeft gezegd dat de processors op het 7nm-procedé van TSMC worden gemaakt en dat ze volgend jaar op de markt komen.

Mogelijk ontwerp van AMD Epyc 2 'Rome'

Afbeeldingen via ingenieur K.H. Chia

Door Julian Huijbregts

Nieuwsredacteur

30-10-2018 • 20:20

92 Linkedin Google+

Submitter: -The_Mask-

Reacties (92)

Wijzig sortering
Als dit waar is dan ben ik zeer benieuwd naar hoe dit zich gaat uiten in de performance. Tussen elke die (NUMA node) heb je een ongewilde latency. Dit is een nadeel tov Intel die vaak slechts met één NUMA node hoeft te werken.

Om een idee te geven: elke NUMA node is verbonden met een aantal memory banks. Als NUMA node 0 data uit het geheugen bankje wilt van NUMA node 3, dan moet NUMA 0 communiceren met NUMA 3. Een meer ideale oplossing zou zijn als NUMA0 het geheugen uit een bankje van NUMA 0 wilt hebben; dat scheelt weer een tik.

Met 4 NUMA nodes valt het nog te doen. Met een dual socket (8 NUMA nodes) gaat het al lastiger. Software optimalisatie is dan ook key. Maar 8 NUMA nodes? En een system controller? De huidige NUMA nodes zijn direct aan elkaar verbonden. Maar met 8? Ik gok dat de system controller hier iets mee te maken gaat hebben. Maar hoe dan ook, je blijft een vertraging houden als je net het geheugen uit het verkeerde bankje op de verkeerde NUMA node moet hebben. Ik had juiste gehoopt dat AMD het aantal cores per NUMA node zou verhogen ipv meer nodes toe te voegen...

[Reactie gewijzigd door servicedb op 30 oktober 2018 21:07]

Wat nou als de geheugencontroller op de middelste chip (systeem controller) zit?

Dan zijn alle nodes even ver van het geheugen en alle nodes even ver van elke andere node.
Dan is de vraag hoeveel latency dit zou toevoegen. In het huidig ontwerp heeft elke NUMA node zelf toegang tot een aantal bankjes met minimale latency tot gevolg. Met een geheugencontroller op de system controller zou je waarschijnlijk in alle gevalen een extra tik nodig hebben.
Deel van dit gerucht is ook een vergroting van het cache (256MB L3 verdeeld over 8 chiplets, welke elk 8 cores hebben) geheugen, deels om latencies tegen te gaan, icm 8 channel DDR4-3200 geheugen.
Een one-liner die bij mij is blijven hangen is dat het komende topmodel 70 tot 80% sneller zal zijn dan de nu snelste Epyc. (natuurlijk is dat een 32cores vs 64 cores vergelijk), schaalt dus best behoorlijk,

De hele reden voor het toevoegen van een 9e "chiplet' is natuurlijk zorgen dat het steeds erger wordende latency probleem zo veel mogelijk wordt weggenomen.

Voor meer details echt even deze video belijken van AdoredTV.
https://www.youtube.com/watch?v=K4xctJOa6bQ

Natuurlijk is Intels design eleganter maar tegen welke economische kosten? AMD produceerd losse chiplets (hoge yields) en kan daarbij veel maar dan ook veel goedkoper produceren. Zeer slecht nieuws voor Intel waar ze de komende 3 tot 4 jaar geen passend antwoord op zullen hebben. Wat Intel in de pijplijn heeft (cooper lake) is waarschijnlijk een verdubbeling tov Skylake's huidige 32 cores, maar ze zijn gedwongen te blijven hangen in op 14nm wat zal resulteren in een monster die size van x2 698mm.

Ter referentie: de verwachting is dat de 64 cores Rome CPU rond de 6000 to 7000 USD zal kosten. Wat kan Intel daar nog tegenover zetten?

[Reactie gewijzigd door procyon op 31 oktober 2018 10:04]

Ik heb hem op de Watch list gezet, thanks!

Wat schaalbaarheid is het wel handig. Maar als VM aanbieder maak ik gebruik van de optie om VMs aan de NUMAs te binden. Daarbij zou het fijn zijn als één NUMA node meer cores krijgt om een betere voorspelbaarheid te krijgen in performance.
Dat klopt, het maakt slechts de NUMA structuur makkelijker.

Maar er zijn AMD patent aanvragen die een soort L3 cache sync en pre-load beschijven, dus het lijkt erop dat ze veel tijd hebben gestopt in het voorkomen van lange toegangs tijden. En IF zal ook weer een generatie verbeterd zijn.

Ook is de latency voor servers wat minder belangrijk. Voor de high-end desktop chips zouden ze ook nog een interposer kunnen gebruiken. Dat moet haast wel, want als de CPU zelf geen geheugen controller meer heeft, dan moet er dus altijd een tweede chip bij zitten. Dat zou betekenen dat een soort treadripper situatie krijgt, maar dat zouden ze goed kunnen oplossen met een interposer.
Ryzen 3 gaat naar 12 cores per ccx, dus voor AM4 socket,
Threadripper blijft nog ff waar het nu op zit,
Miss dat ze daar 4 12 core ccxen op plakken, maar daar is helemaal niets van bekend.
Omdat AMD momenteel werkt aan hun 12 core ccx, is de kans aannemelijk dat er na deze epyc ook nog een epyc komt met 96 core & 192 threads, alhoewel ze het voor gebrek aan concurrentie mogelijk niet eens hoeven te doen,
Dit is een nadeel tov Intel die vaak slechts met één NUMA node hoeft te werken.
dat is dus niet waar, want intel heeft zelfs binnen 1 single-die 28 core meerdere (sub)numa nodes. Het mash ontwerp zorgt ervoor dat de latency van core naar core communicatie varieert met elke stap die de cores van elkaar verwijderd zijn, en is daardoor erg onvoorspelbaar tenzij je precies weet waar elke core zich bevind ten opzichte van elke andere,

Daarom heeft intel sub numas in het level geroepen om die latency in groepen op te delen en het zo voorspelbaarder te maken voor de OS schedulers, en zodat die niet voor elke nieuwe core gepatched hoeft te worden.

intel noemen het overigens wel sub numa maar het is gewoon numa, ook al is het latency verschil wat kleiner als meestal het geval bij numa implementaties.

https://software.intel.co...family-technical-overview

[Reactie gewijzigd door Countess op 31 oktober 2018 10:19]

Thanks voor je toevoeging!
Er doen ook geruchten, zogezegd betrouwbaar, de ronde dat ze de L3 cache verdubbelen naar 32mb per 8 cores. Dat zou de afhankelijkheid van toegang tot het geheugen misschien wat kunnen verzachten?
32 MB is leuk, maar het helpt niet heel veel. Het kost vooral veel ruimte op je chip. Zeker AMD was in het verleden fan van weinig cache en snel geheugen, waarmee ze (dure) ruimte besparen.
32MB op TSMC's 7nm is kleiner als 16MB op GF's 14/12nm.

7nm biedt ze dus voldoende ruimte om die investering te doen.

[Reactie gewijzigd door Countess op 31 oktober 2018 10:47]

Ja dat klopt zo een machine van ASML of een andere aanbieder kost klauwen vol geld.
Dus zo een die shrink maken is geen goedekope hobby, en de consument die betaald.
Maar de chips die de die shrink krijgen hebben wel een betere temparatuur waardoor ze dus minder stroom lees wattage verstoken wat weer ten goede komt van de jaarlijkse stroom rekening.
Dus het is een win win situatie voor bijde partijen zowel voor amd als de consument.
Als ze een die shrink maken hebben ze meer plaats over op de socket voor de aansluiting dus dit resulteerd in meerdere cores met hetzelfde oppervlakte.Dat is dus de grote win situatie voor amd.
AMD maakt al enige tijd niet zelf de chips meer, maar laat ze maken bij global foundries of TSMC.
In dit geval word dat TSMC, en het is dan ook TSMC die de investering doet in de nieuwe chip machines en de fabs.

AMD betaald daar ook voor natuurlijk, maar dat gaat geleidelijk per gemaakte wafers en AMD hoef dat dus niet in een keer, vooraf te betalen. En TSMC verdeeld die kosten over meerdere klanten en niet alleen AMD.

AMD's investering (in geld) is daarom redelijk beperkt. In mijn vorige bericht bedoelde is met investering de hoeveelheid transistors die AMD toevoegt aan het ontwerp waardoor de chips wat groter (en dus duurder) werden. Omdat de chips op 7nm al veel kleiner zijn als voorheen kunnen ze dat doen en toch niet duurder uit zijn.
Stel je hebt een 500 MB database tabel. Dan heb je er al dus niks aan helaas.

Dit ontwerp is niet slecht overigens maar de software die je gebruikt moet hier mee om kunnen gaan zodat het efficiënter kan werken. En dat kan nog een hele uitdaging zijn.

Edit: Ik begrijp niet waarom dit een -1 krijgt. Het enige wat ik bedoel is dat de L3 cache niet zoveel relevantie heeft als je data van een ander bankje bij een andere NUMA node moet pakken.

[Reactie gewijzigd door servicedb op 31 oktober 2018 13:01]

Geen idee waarom je er een -1 voor krijgt. Je slaat weliswaar de plank mis - voor een 500 MB tabel is 32 MB cache best redelijk. Dan past je tabel index prima in cache. Maar voor een serieuze database is een 5GB tabel met een 100MB index best denkbaar. En je draait op dit soort grote systemen nu eenmaal geen kleine databases.


Dus inderdaad, voor DB ontwerpers is dit soort NUMA-systemen lastig. Je moet er in software expliciet rekening mee houden.
Wat het plank mis slaan betreft; daar ben ik het met je oneens. Het feit blijft dat zodra de gegevens bij een andere NUMA node zit dat je dan alsnog er mee te maken hebt. Je moet even wordt case denken: data doorzoeken in een geheugen bank van een andere node heeft hier last van. Niet altijd is er sprake van een index, denk aan een like query om maar wat te noemen...
Als ik me niet vergis dan zit de geheugen controller in de controller chip in het midden. Dit zorgt ervoor dat de CPU cores nog kleiner worden, beter voor de yields. Daarnaast zou je voor elke CPU eenzelfde latency hit hebben voor toegang tot de geheugen controller en andere I/O.

Deze aanpak heeft altijd voor- en nadelen. Maar het hangt ook af van wat je het systeem laat doen. Voor sommige dingen is een Intel CPU, met lagere latencies, beter. Voor andere is de latency niet zo'n probleem en zijn de extra cores juist een voordeel.
denk niet dat de core dies kleiner worden aangezien AMD voor zen geloof ik maar 1 die produceert. Het is wel inderdaad beter voor yields aangezien dies met een gammele geheugencontroller dus core dies kunnen worden
Wat is het voordeel van 1 apparaat met 64 cores boven 2 apparaten met ieder 32 cores?
Geheugen kan worden verdeeld, disk gedeeld,.....
een moederbord minder??
In geval van 2 apparaten werkt er nog 1 als er 1 stuk gaat....
Huidige software dat 64 cores gebruikt kent een zeer beperkt toepassingsgebied.....

[Reactie gewijzigd door jagroeneveld op 30 oktober 2018 20:39]

Je hebt twee apparaten nodig dus ook twee moederborden,psu's(vaak 2 per server),twee kasten.
Twee kasten van 2U(rackruimte) is weer 4U in beslag.

Dit betekend minder cores per rack. Dus er moeten meer racks komen voor dezelfde performance. Dus dit wordt een groter datacenter. Wat weer meer koeling nodig heeft.
etc etc.
Dus je wilt zoveel mogelijk performance in een zo klein mogelijke ruimte.

Zie bijvoorbeeld ook AMD's "Project 47":
https://wccftech.com/amd-...n-a-rack-with-project-47/
Je kunt 2 van zulke jongens met adequate koeling prima in 1u proppen of op bladeren servers waar er dus nog meer van in 5u kunnen.

Daarnaast is het niet alleen. Power, ook efficiëntie..als je het werk van normaliter 4x 16cores op 2 moederborden nu door 1x64 kan laten doen berekent dat een heel stuk meer efficiëntie Doordat veel randcomponenten weg vallen als psu's (hoe groter hoe efficiënter) moederborden, ventilators etc. 10-20w lijkt niet veel, maar is 20-30 euro/jaar aan stroom. Op de levensduur een 100-200 euro exclusief het feit dat je nu maar één fysieke machine heb IPV 2.
Dat is letterlijk wat ik zeg in het tweede gedeelte.
Het zal bedoeld zijn voor virtualisatie. Met 64 cores en 128 threads kun je heel wat VM's laten draaien.
Datzelfde geldt ook voor een quad-socket 64-core server. En die hebben het voordeel dat je met 4 sockets ook typisch 4x de geheugenbandbreedte hebt, en 4x de L3 cache. Dat is handig voor separate VM's. Al helemaal met Spectre/Meltdown, waar je bij VM-switches de cache leeg moet gooien. In een 4-socket systeem kun je dan 3 van de 4 L3 caches behouden.

Dit soort CPU's hebben juist een voordeel als de verschillende cache's allemaal hetzelfde programma draaien, zodat ze de L3 cache kunnen delen.
Spectre is volgens mij (praktisch) Intel-only. Hoeveel invloed Meltdown patches op AMD systemen hebben weet ik niet. Wellicht is dit al hardwarematig gepatched in deze nieuwe EPYC processoren.
Misschien kan iemand met kennis dit toelichten maar ik heb gelezen dat dit ook goedkoper kan zijn qua licenties van software.

AMD speelt vooral op de TCO (Total Cost of Ownership) welke beduidend lager ligt dan een intel systeem.
ja dat klopt bij sommige software zoals VMware Vsphere moet je per socket betalen.dus hoe meer cores jij per socket hebt de goedkoper het gebruik van zon dergelijke licentie.
Het zijn chips die voornamelijk gebruikt zullen worden in servers en niet zo zeer voor desktops.
Heel simpel; 2 apparaten met 128 cores. Er hoeven niet persé minder cpu's gebruikt te worden, de cpu's die men gebruikt hebben simpelweg meer power.
Dit soort processoren zijn niet voor consumenten, want die gebruiken over het algemeen geen software die er nut bij heeft. Maar servers, of rendermachines, kunnen hier gretig gebruik van maken. Meer cores op 1 machine is dan beter omdat het over het algemeen lagere latencies heeft dan meerdere machines die over een netwerk met elkaar communiceren en lagere latencies betekend over het algemeen snellere verwerking.

[Reactie gewijzigd door Gropah op 31 oktober 2018 00:37]

Bepaalde applicaties hebben behoorlijk voordeel bij meerdere cores op 1 apparaat. Het is wel zeer gespecialiseerd, maar het voordeel wat gehaald wordt is heel groot. In big data is het bijvoorbeeld veel interessanter om meerdere cores te hebben, de big data applicatie kan dan namelijk meer zoekopdrachten kwijt op de processor.

Ik meen dat video editing ook veel baat heeft bij meerdere processors. :)
Voor middelgrote problemen schaalt openMP doorgaans erg lekker en bovendien programmeert het erg eenvoudig. Maar het nadeel ervan is dat alles op 1 machine moet blijven. Dus met 64 cores gaan simulaties (in de praktijk bijna) twee keer zo snel.
Kijk voor de gein eens in een datacenter/supercomputer.
https://www.indiatoday.in...e-ornl-1271510-2018-06-27

Op die schaal is het wel heel interressant om maar de helft van de behuizingen nodig te hebben.
omdat de latency tussen DIE lager is tussen Sockets wat weer lager is tussen cluster verbindingen.
En ja je hebt minder componenten nodig ook kan het in totale TDP dus ook server ruimte en cooling schelen.
kan worden door een constructie als Intel te gebruiken en alle cores apart aansturen.
Door een structuur als intel te gebruiken zouden ze de zelfde schaling, kloksnelheid, verbruik, kosten, en yield issues hebben als intel, maar niet de miljarden aan R&D om ze nog enigszins (zelfs intel kan het maar ten dele) het hoofd te bieden

Als ze een zelfde structuur als intel aan hielden dan hadden ze nu geen 64 core CPU gehad.

Sterker nog, intel gaat AMD na doen. ik verwacht de volgende generatie al dat ze minimaal 2 die's op 1 server CPU gaan zetten, eventueel met controller chip ertussen. (maar als ze hun 28 core die gebruiken gaat het verbruik ENORM zijn)

hyperscallers staan te springen om deze CPU's. Epyc gaat intel op alle fronten compleet wegblazen in heel veel server taken.

[Reactie gewijzigd door Countess op 31 oktober 2018 10:51]

2 dies lijkt het probleem minder groot maar bij 4 dies lijkt er bij amd voor bepaalde bewerkingen toch een serieus probleem te zijn.
Kijk maar naar de VP8 prestaties van deze 4 die chips. een single die loopt er rondjes omheen of deze nou van intel of amd is.
En power draw is echt een non issue voor bedrijven die deze systemen kopen. die gaan echt niet kijken naar een verschil van 50-100 watt onder full load. Wat overigens vooral veroorzaakt is door de hogere clock van intel cores.

Hitte productie zal een belangrijker puntje zijn aangezien dit voor throttling kan zorgen wat je dus echt niet wil met zon bakbeest.

Ach ja we gaan het allemaal zien maar voor 1 cpu is dit systeem geoon niet optimaal dat laten alle benches zien. Sommige workloads hebben gewoon zwaar te lijden onder deze constructie. Het blijft dus een gevalletje goed uitzoeken wat voor een workload je precies heb en wat de mogelijke nadelen zijn.
Het kan zijn dat je met een losse intel desktop cpu veel sneller ben voor bepaalde taken als met deze multi die chips.
Verder is het hopelijk voor veel bedrijven een kwestie van wachten op software updates vanuit adobe enz.
je zit naar threadripper te kijken, waarbij 2 van de 4 die's geen eigen geheugen channels hebben.

Dat is bij het huidige server platform niet het geval. daar zijn 8 geheugen channels aanwezig (hoe dat straks zit met 8 dies geen idee, daar zal die chip in het midden mogelijk uitkomst bieden)
En power draw is echt een non issue voor bedrijven die deze systemen kopen.
HA!

Dat is juist VERUIT het grootste issue. Daar zit namelijk de echte TCO. Ook omdat je ze 2 keer hebt. een keer het verbruik zelf, en daarna het afvoer van de resulterende warmte (en ja al het verbruik komt er als hitte uit).
Hitte productie zal een belangrijker puntje
Dat is dus 1 op 1 het zelfde. watt's in is watt's out in warmte. (op een piep klein beetje I/O na)
Wat overigens vooral veroorzaakt is door de hogere clock van intel cores.
nope de huidige 28 core heeft al geen hogere clocks als EPYC. zelfs niet de all core boost (en alle andere boosts zijn voor deze servers niet of nauwelijks interessant)

Rome heeft straks de zelfde of hogere clocks, en meer als 2 keer de core out met een heel vergelijkbaar verbruik.

[Reactie gewijzigd door Countess op 31 oktober 2018 14:57]

Je hebt alleen maar de prestatie van de eerste generatie infinity fabric gezien, wie weet wat ze er nu mee gedaan hebben?
Daarnaast was het echt niet zo erg als jij het nu uitmaakt. In veel benchmarks was het meer aan Windows dan infinity fabric dat iets niet zo goed presteerde als zou moeten, en dan draaien die applicaties ook gewoon beter onder Linux, omdat die wel NUMA aware is (ofja, er tenminste iets mee doet in tegenstelling
tot Windows).
Applicaties, thread schedulers en compilers moeten nog geoptimaliseerd worden voor infinity fabric, en zodra dit rond is vallen de nadelen stukken mee en de voordelen zijn nu al zeer relevant. Zen is toch wel de meest schaalbare x86/AMD64 processor die er is nu.
Klopt dat is ook wat we nu hebben om te vergelijken. Ik hoop van harte voor amd dat ze het probleem coimpleet weten op te lossen maar als ik naar hun handelen in het verleden kijk waar de stuk 5 refreshes van de fx chips maakte wetende dat het probleem er nog steeds was heb ik niet veel vertrouwen in hun handelen.
En ook de recente 590 die weer flink overhyped word geeft me geen goed gevoel over daadwerkelijke verbeteringen.
Maar we gaan het zien al zijn mijn verwachtingen bij amd niet meer zo hoog de laatste jaren. Het lijkt immers altijd een compromis product te worden daar waar bij intel het enige compromis het gat in je portemonnee is die zich deels of helemaal terugverdient over meerdere jaren.

En dat het een software probleem is kan best wezen maar totdat dat opgelost is is het natuurlijk wel een puntje.
Als je en tesla koopt en hij wil niet harder dan 110 Km per uur door een software foutje doet dat natuurlijk wat aan de waarde en flexibiliteit en bruikbaarheid van de auto in zijn geheel.
En AMD kan wel het vingertje wijzen naar MS maar ze kunnen natuurlijk ook naar zichzelf wijzen en realiseren dat ze een product maken die niet optimaal kan werken op bepaalde software en of instructies. Beide partijen zijn dus schuldig maar AMD wat mij betreft toch het meeste. Die moet of actief support leveren voor windows server of aangeven dat het voor bepaalde instructies niet geschikt is onder windows of linux of whatever.
Het punt is natuurlijk gewoon dat Windows gewoon geen erg capabel server os is- als de prestaties onder linux 4-5x hoger zijn kun je moeilijk beweren dat de cpu het probleem is.
Daar zijn de meningen over verdeeld. Veel dingen schijnen behoorlijk omslachtig en traag te zijn om op Linux servers in te stellen.
Dus als het eenmaal werkt is het misschien beter. Echt bewiis kan ik echter niet vinden maar het instellen ervan schijnt waardeloos te zijn.
Als Windows systeembeheerder is linux natuurlijk heel anders maar er zijn zat zaken die je zo in elkaar zet en ja, het blijft werken, snel, veilig en met minder onderhoud. Speel eens met Univention of openSUSE...
Ik denk dat je geen idee hebt waarvoor zulke hardware voor gebruikt word |:( |:( |:(
Nou in ieder geval niet voor data storage servers, databases, latency gevoelige taken, video stream servers en mysql want daar loopt der intel 8170 rondjes om de epyc processors ondanks dat er 6 cores en 12 threads minder beschikbaar zijn.
Voor de rest is het stuivertje wisselen en is amd's enige voordeel de prijs die ongeveer de helft scheelt.
99% voor finite element/difference simulaties :) en dan not wat ruis.
Ooit gehoord van virtual machines. Ik denk dat Amazon en dergelijke dit heel graag zien komen. Je hoeft je 64 cores echt niet met 1 OS te gebruiken. Je kan hier gewoon acht 8-core nodes op laten draaien...
128-256 MB L4 cache integreren in de processor misschien om de latency nog eens extra te verminderen?
Dat levert vooral meer overhead op omdat je ook nog moet controleren of je data al in je L4 aanwezig is. 3 levels cache bijhouden is al een pittige taak, ook als L3 een victim cache is (waarmee data daar dus alleen gesynchroniseerd moet blijven met geheugen).
Ik zie meer in het omvormen van de L3 naar een stack HBM ofzo, dan heb je ook de ruimte (4 GB L3 anyone?) en het is goed in veel data tegelijk pompen naar L2 of main memory.
De huidige CCX modules hebben toch vier kernen?
Een CCX heeft inderdaad 4 cores, maar de Zen dies hebben 2 CCX's.
Ik vind het maar een vaag verhaal. Een of andere niet aan AMD gerelateerde (retired) engineer komt met wat "ideeen" hoe de MCM layout van EPYC 2 zou kunnen zijn; tsja zo kan ik ook nog wel wat topologieen bedenken wat ze "mogelijk" zullen gaan doen. Mocht het inderdaad zo zijn zoals hij het voorstelt, dan is je lokale memory latency in ieder geval slechter dan in de eerste generatie EPYC, wanneer je vanaf je CCX via een System Controller die pas naar je geheugen kanalen gaat. Je hebt wel iets minder NUMA effecten bij wat hij zich voorsteld; omdat alles via dezelfde System Controller zou gaan. In feite heb je geen "lokaal" memory meer, wat je in Ryzen en EPYC wel hebt.
Huidig is de memory controller ook verbonden met infinity fabric met de cores. Het enige verschil is dan dat die door een substraat gaan. Het zal niet al te veel moeite zijn om een CPU local memory te geven, zelfs via deze externe controller.
Wat ik zou willen zien is dat ze nog een ringbus tussen te chips zetten buiten de controller om, maar AMD zal wel het beste weten wat haalbaar is en of de chiplet hier wel baat bij heeft.
Wow AMD is goed bezig. De adem van AMD word steeds heter in de nek van Intel.

Intel heeft jaren achterover geleund en hun productie plan voor de komende jaren al uitgestippeld ze hadden immers toch geen concurrentie. Opeens kwam AMD als sterke concurrent terug op de markt met hun Ryzen processor. Het meerjarige productie plan van Intel moest met spoed worden ingezet.

Ik denk dat AMD de komende jaren flink wat marktaandeel gaat afsnoepen.
Er breken prachtige tijden aan voor de actieve computer hobbyist.

[Reactie gewijzigd door LEX63 op 31 oktober 2018 09:31]

Qua CPU prijs/performance verhouding is nu de adem van Intel redelijk lauwtjes in de nek van AMD, op het moment. Ons nieuwe cluster heeft nu 160 AMD EPYC processors. Komen er misschien over een half jaar nog 160 bij :)

[Reactie gewijzigd door hooibergje op 31 oktober 2018 10:45]

Het grootste probleem is gewoon dat intel faalt op 10nm en toch stug probeert door te gaan ondanks dat ze zelf aangegeven hebben dat het probleem op 7nm minder groot zal zijn.
Wat intel verder doet achter de schermen weet ik niet maar gezien de cijfers van intel denk ik niet dat ze ook maar enigszins wakker liggen van wat amd doet.
Voor de mensen die liever engels willen horen ipv duits lezen. Maar ook van een bron die dit al maanden geleden had verkondigd ipv meelifters zoals ComputerBase:

AdoredTV:
https://www.youtube.com/watch?v=K4xctJOa6bQ

En voordat er kinderen meteen weer randzaken zoals; ja maar roepen...., dat AdoredTV een AMD chill is, hij heeft ook video's waar hij AMD faliekant met de grond gelijk maakt.
Ik vind het vrij bijzonder dat je Computerbase een meelifter noemt en AdoredTV een goede bron. Ik kijk zijn video's eigenlijk nooit, omdat ze nooit meer zijn dan een verzameling van geruchten van andere site's en forums. Heb deze echter wel bekenen, maar ook dit is weer gewoon een verzameling van geruchten van andere plaatsen, in dit geval dus o.a. SemiAccurate. Misschien dat AdoredTV op YouTube één van de beteren is omdat alles op YouTube nogal vrij bedenkelijk is. Maar dan kun je hem beter de one-eyed king noemen. "In the land of the blind, the one-eyed man is king." :p Computerbase is iig van een stuk hoger niveau. :)

Edit: ik heb zijn video's wel een aantal keren bekeken, maar het is dus altijd een verzameling van andere site's. Deze dus ook weer, dit komt zoals gezegd van SemiAccurate welke Computerbase ook noemt als bronvermelding.

Edit 2: het mag dan misschien niet eerder op de frontpage hebben gestaan. Meer dan een jaar geleden stond er al het een en andere op andere sites, ver voordat AdoredTV er mee kwam. Want zoals ik al aangaf hij haalt zijn info gewoon van andere sites.

Edit 3: hier een nieuwsbericht uit juli 2017 over de tweede generatie Zen, waar dit artikel ook over gaat. https://www.bitsandchips....in-one-patent-the-chiplet

Wat je in de bovenstaande bijvoorbeeld zou kunnen zien (is maar een schets). Links in het midden chipset en L3 cache, daaromheen maximaal dus zes CPU CCX'en, rechtsboven een GPU en rechtsonder HBM geheugen.

Als je dit dan naar Epyc gebaseerd op Zen2 zou vertalen dan laat je de GPU en het HBM geheugen weg, plaats je er twee CCX'en bij en je hebt gewoon datgene wat hier besproken wordt. Ver voordat AdoredTV er dus ooit mee kwam.

[Reactie gewijzigd door -The_Mask- op 31 oktober 2018 13:26]

Betreft inhoud van dit specifiek artikel is ComputerBase een meelifter. Meer en meer technieuws halen informatie van AdoredTV maar durven zijn naam niet te noemen. Klokkenluiders hebben altijd al Haat/liefde relaties gehad met iedereen ;) .
Over ander nieuws zou je best gelijk in kunnen hebben. En zoals je zegt dat je zijn video's eigenlijk nooit bekijkt, lijkt mij nog lastiger te beoordelen. Zijn ogenschijnlijke losse video's zijn vaak verworven met elkaar. En het zijn niet voor niets lange droge video's. Als je hier en daar paar minuutjes van mist kun je de essentie van het verhaal missen. En daardoor totaal verkeerd beeld over hem krijgen. Maar toch is het waard om ook van zijn kant te horen naast de honderden "life-style-tech-nieuws". Als je begrijpt wat ik bedoel :) .
Correct. Het is inderdaad veel verzameling van andere sites omdat hij bepaalde aspecten van reviews wilt belichten doormiddel van vergelijkingen om een second opinion van te maken, wat alleen maar een goed ding is.
Maar sommige spicy info's heeft hij van zijn eigen geheime connecties.
Heb je dan ook deze bekeken? Een video van hem op 21 februari 2018?

AdoredTV - An Epyc Master Plan. Vanaf 15:55 AMD Chiplets:
https://www.youtube.com/watch?v=ucMQermB9wQ

Maar toen, 8 maanden terug, hoorde we niets van Tweakers. :+
Ik kijk zijn video's eigenlijk nooit, omdat ze nooit meer zijn dan een verzameling van geruchten van andere site's en forums.
Dan kijk je ze idd nooit, want recent heeft hij ook meerdere geschiedenis samenvattingen gemaakt, waar zelfs wat nieuwe informatie in zat voor mij, en ik volg het tech nieuws al zeker 20 jaren op de voet.

[Reactie gewijzigd door Countess op 31 oktober 2018 13:16]

Op reactie van jou post-edit 2 en post-edit 3:

Ik zie nergens in jouw achteraf vergaarde artikel uit 2017 (btw, thnx voor de bron), dat het gaat om Zen 2! Waar dit artikel juist om gaat. Het gerucht dat AMD in de toekomst naar de Chiplets, zowel in CPU en GPU gaat, wisten we inderdaad heel lang. Want de patent inzage lag al voor iedereen op straat. Maar het ging erom of AMD al met de Zen 2 en zijn Epyc 2 CPU's de Chiplets ging toepassen.
AdoredTV heeft duidelijk een voorkeur voor AMD, maar over het algemeen is zijn informatie wel juist. Mijn probleem is dat hij nogal selectief lijkt te zijn met wat hij wel en niet rapporteert. Dat is ook waarom ik hem niet meer volg. Maar goed, als hij een video ergens over maakt, dan geloof ik zijn informatie over het algemeen wel.
Hij rapporteert wat hemzelf interesseert. Als het praktisch gezien niks meer is dan 2e hands marketing herhalen, laat hij dat over het algemeen aan andere reviewers over.
Bij Radeon software updates bijvoorbeeld vond hij wel vaak dat de nieuwe features niet genoeg aandacht kregen van de media (wat ze bij Geforce Experience misschien wel hadden gekregen), en heeft hij daar dus video's over gemaakt.
Hij heeft natuurlijk het volle recht om dat te doen. Maar ik informeer me liever wat meer gebalanceerd. Ik wil beide kanten horen, en daarvoor moet je niet bij AdoredTV zijn. Wat hij wél rapporteert is over het algemeen wel goed onderbouwd en zijn vaak belangrijke onderwerpen.
Als ik twee kanten van een verhaal wil zien, ga ik er sowieso niet van uit dat ik dat van een enkel persoon kan krijgen. Ik kijk (oa.) naar Adored, GamersNexus, PCPer etc. en als het onderwerp me wat doet zoek ik verder wat anderen ervan zeggen. De grap is dan dat Adored vaak de enige is die iets te zeggen heeft over die onderwerpen tot een week later.
Ik heb dan ook nooit gezegd dat ik naar maar één enkel persoon luister. Ik heb gezegd dat de kanalen waar ik me op abonneer voor mij een beetje gebalanceerd over moeten komen.

[Reactie gewijzigd door unilythe op 31 oktober 2018 10:40]

Duzz... 64 cores en dan een quad setup eventueel mogelijk... dat is 256 cores en 512 threads... in 1 machine.... holy crap....
Nee geen 4 cpu's per board, maar 2 want iNtel heeft niets daartegenover.
Ik zie toch echt een voorbeeld van 4 sockets,

Rip intel
Ja maar AMD heeft de board partners al de limiet van max 2 cpu's opgegeven, als ik Jim (Adoredtv) mag geloven.
We zullen zien, in het verleden deed amd nog wel veel met zelfs 8 sockets, moet je nagaan 1024 threads 16TB ram damn
Een overstap naar 64 cores op 7 nm vind ik zeer interresant door middel van infinity fabric. Voor servers zou dit een goede toepassing kunnen zijn. Immers kan AMD makkelijker cores toevoegen met dit design voor een zeer interresante prijs. Het aantal PCI lanes is ook iets waar bedrijven naar gaan kijken, omdat er veel componenten worden aangesloten op de server. Ik ben benieuwd of het waar is. Voor de consument zou het uiteindelijk ook voordelig kunnen zijn, omdat AMD het design kan meenemen naar Threadripper en Ryzen voor de lagere segmenten. We zullen moeten zien of de opvolger van Epyc ook echt Epyc is.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Elektrische auto

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True