AMD maakt prijzen EPYC Milan-X-cpu's met 3D V-Cache bekend

AMD kondigt de prijzen van de EPYC Milan-X-refresh aan. Het topmodel en 'instapmodel' hebben een respectievelijke adviesprijs exclusief btw van 7974 euro en 3792 euro. De serverprocessors zijn nu beschikbaar en kunnen na een biosupdate in een bestaande Milan SP3-socket.

Alle X-varianten in de nieuwe EPYC-serie processors zijn gebaseerd op AMD's Zen 3-architectuur en worden uitgerust met het eerder onthulde 3D V-Cache. Met deze techniek stapelt AMD letterlijk 64MB extra L3-cache boven op de al aanwezige 32MB cachegeheugen. Dit geldt voor ieder van de acht chiplets; iedere nieuwe EPYC-processor is uitgerust met acht chiplets en dus in totaal 768MB aan L3-cachegeheugen.

Wat opvalt, is dat de EPYC 7773X met 2,2GHz een iets lagere basiskloksnelheid heeft dan het voormalige vlaggenschip, de 7763, die gemiddeld 2,45GHz moest behalen. Vanwege de aanzienlijke extra hoeveelheid L3-cache heeft AMD mogelijk voor een lagere kloksnelheid gekozen om de tdp op 280 watt te houden. Hetzelfde gold begin januari voor de eerste en vooralsnog enige cpu voor consumenten met 3D V-Cache.

Naar eigen zeggen gebruikt AMD zelf al Zen 3-cpu's met 3D V-Cache waardoor het een verbetering zou zien van 44 procent bij bepaalde energy decomposition analysis-taken. Simulaties op basis van Synopsys VCS met een EPYC 7773X zouden vergeleken met de EPYC 73F3 tot 66 procent sneller verlopen. AMD beweert dat de 7573X met 24 cores tot 88 procent meer computational fluid dynamics-problemen per dag kan oplossen dan 32-coreprocessoren van concurrenten. Daarnaast stelt het bedrijf dat EPYC 7573X-gebruikers 'op basis van 4600 Ansys CFX-taken per dag de helft minder servers nodig hebben en een tot 49 procent lager stroomverbruik mogen verwachten'.

Officiële specificaties en prijzen AMD EPYC Milan-X-line-up
Model Cores/threads Kloksnelheid Boostclock Tdp L3-cache Adviesprijs
EPYC 7773X 64C/128T 2,20GHz 3,50GHz 280W 768MB 8800 dollar
EPYC 7573X 32C/64T 2,80GHz 3,60GHz 280W 768MB 5590 dollar
EPYC 7473X 24C/48T 2,80GHz 3,70GHz 240W 768MB 3900 dollar
EPYC 7373X 16C/32T 3,05GHz 3,80GHz 240W 768MB 4185 dollar
AMD EPYC Milan-XAMD EPYC Milan-XAMD EPYC Milan-X

Door Yannick Spinner

Redacteur

21-03-2022 • 14:00

42

Lees meer

Reacties (42)

42
42
30
3
0
11
Wijzig sortering
Interessant dat de 16 core iets duurder is dan de 24 core.
Heeft soms ook met licenties te maken, tegenwoordig zijn veel licenties per core. Dan kan je beter minder cores hebben die sneller zijn, want die licenties kosten meer geld dan een CPU.
Dit verklaart niet waarom 16 cores duurder zijn dan de 24 cores, dus je verklaring gaat hier niet op.
Misschien ligt het aan de kwaliteit en configuratie van de chiplets. Binning
Misschien Heeft de 24 core defecte chiplets die 6 cores zijn. 4 X 6 configuratie En worden voor de 16 core 2 X 8 core chiplets gebruikt die eigenlijk in de duurdere processor kunnen. Om een 64 core te maken.
Het is maar een theory
Ik denk dat bij deze cpus alle chiplets actief zijn, anders krijg je niet de volledige L3 cache van 768MB.
Cores en L3 cache hebben totaal niets meer met elkaar te maken
Deze zitten namelijk niet meer in de cores het heet niet voor niets 3d aangezien de L3 cache een apparte laag is , die gestacked wordt boven op de CPU laag. En alle cores kunnen bij de volledige cache.
L3 is inderdaad niet per cpu core. Bij amd EPYCs is de L3 cache is per CCX (core complex aka chiplet) geregeld. Om een deel L3 cache dus actief te hebben, moet de chiplet waar dit deel cache op zit dus wel aanwezig zijn.
Als je bijvoorbeeld kijkt naar de andere EPYCs in de Milan generatie (wiki: https://en.m.wikipedia.org/wiki/EPYC), dan zie je dat de totale hoeveelheid L3 in overeenstemming is met de chiplet layout: voor 256MB L3, heb je 8 chiplets nodig. EPYCs met 128MB L3 hebben maar 4 actieve chiplets.

Ik weet trouwens niet of elke core toegang heeft tot de volle L3 cache, of alleen de cache in zijn eigen chiplet. Ik vermoed het laatste. Ik weet wel dat EPYC ondersteuning heeft om via NUMA layout onderscheid te maken op chiplet basis, waardoor het mogelijk is om rekening te houden met de extra latencies die voortvloeien uit het multi-chiplet ontwerp
Bij dure softwarelicenties die per kern zijn telt kloksnelheid. Als je een licentie voor 16 kernen ter waarde van €40000 is zo'n 16 kerner die 250 MHz harder loopt dan de 24-kerner meer waard, omdat de 24-kerner een veel duurder upgrade van de licentie betekent.

Processorfabrikanten hanteren dit soort politiek alleen bij de extra hoog geklokte processoren (Intel doet het ook). Bij de mainstreamlijn kijken ze wel naar de totale rekenkracht.
Meer vraag zorgt dat de prijs omhoog kan
Kan hier te maken hebben met de hogere baseclock frequentie en ook boost clock.
Zeker baseclock boven 3ghz zie je steeds meer als wens voorbij komen...
iets hogere clock voor de 16C
ACM Software Architect @lordawesome21 maart 2022 14:31
Je ziet wel vaker bij servercpu's een paar modellen met snellere, maar in totaal minder, cores. En die zijn dan inderdaad vaak wat duurder dan modellen met een groter aantal cores van een meer reguliere snelheid.
Sommige pakketten hebben meer baat bij hogere CPU clock dan core count
MSSQL betaal je bijvoorbeeld per core (en flink ook). Een hogere kloksnelheid heb je dan meer aan.
In het geval van MSSQL komt ook nog eens bij: Voordat je core op volle snelheid geboost is, is die alweer klaar. Dan zijn boost snelheden niet zo interessant, maar base clock des te meer.
Je vind MSSQL duur? ha... Oracle is als basis versie al vele malen duurder, maar als je kijkt wat je dan hebt, en je gaat dingen toevoegen totdat je hetzelfde hebt, schrik je pas echt van Oracle...

En bij de wat grotere datasets zit je wel wat langer in de boost hoor. Hoewel ik dat zelf altijd uitzet. is onvoorspelbaar.
Prijs is relatief natuurlijk.
Het belangrijkst is welke SLA/support/functionaliteit je wil van je database, en hoeveel risico / downtime je bereid bent om te nemen. En sja, soms zit je gewoon vast aan een bepaalde database omdat software leveranciers met die specifieke database werken.
Binnen het MKB volstaat mysql / mariadb misschien al, en dat kost weer veel minder.

Die boost, ja, daar heb je echt gelijk in. Lastig om te testen als productie en tests andere resultaten geven. Die zetten we voor testen altijd uit.
Windows slaat vast in een blauw scherm vanwege de hoge l3 doorvoer bij hoge druk. Dus mssql op deze chips is nog een paar patches verwijderd. Bron: level1 yt
Hmm, dat zijn wel lekkere cpu'tjes met een mooie tdp. Tijd om een nieuwe server te bouwen.
Zakelijk dan toch hoop ik, of wil je voor thuis zo een server om met 1 server een lanparty te organisaeren :Y) ? Maar wat een prijzen zeg en dan moet alle andere hardware er ook nog bij. Dat zal voor de organisaties waar dit komt te staan waarschijnlijk niet zoveel uitmaken?

[Reactie gewijzigd door Teigetje! op 29 juli 2024 08:56]

In organisaties maakt het natuurlijk wel degelijk uit, maar als je duizenden betalende klanten op zo'n machine (cluster) kan zetten is het wat makkelijker de kosten te verantwoorden.
Nee, dat is economische onzin. Duizenden klanten? Koop meer machines voor minder, en je hebt dezelfde capaciteit. Kijk naar de 7473X versus de 7573X. Zelfde base clock, maar je betaalt voor 33% meer cores een 43% premium. De duurdere chip heeft een lagere boost, minder cache/core, en minder geheugen bandbreedte per core.

Waarom is die duurdere chip dan duurder, als die slechter is? Het probleem is niet AMD, het probleem is dat scenario. "duizenden betalende klanten". Dat zijn duizenden betalende klantjes, die elk maar een miniscule fractie van een core gebruiken. Dat heet een "embarrassingly parallel problem". Beschamend eenvoudig. Dat los je op een eenvoudige manier op: met veel simpele cores. Dat kan misschien zelfs een ARM core per klant zijn - dat desnoods past op een vierkante millimeter.

Nee, deze chips zijn bijvoorbeeld voor weersvoorspelling, waar je niet duizend scripts per CPU hebt, maar duizend CPU's per programma. Ja, je betaalt nog steeds een per-core premium, maar je interconnect wordt een stuk goedkoper als je 25% minder sockets moet connecten.
Als je ouderwets rackmount servers afhuurt is het aantal hoogte units ook een ding... wat meer betalen voor meer cores in dezelfde ruimte kan soms uit.
Bijna een gigabyte aan cache. Kunnen we straks programma's in de cache laten draaien?
Handige programma’s draaien volledig in cache.
ACM Software Architect @Vulcanic21 maart 2022 14:37
De eerste "echte" databaseserver van Tweakers had 2 cpu's en in totaal 1.5GB ram; dus 768MB ram per cpu... (en dat was zo te lezen een upgrade van een server dat 384MB ram had).

Dat is een aardige toename. Hoewel als je bedenkt dat het 22 jaar heeft geduurd, dan valt het misschien nog wel een beetje tegen :P Als het sindsdien ieder jaar was blijven verdubbelen, dan had het nu op 1GB per cpu moeten zitten (256 kB * 2^22). En die Pentium III was een vrij gebruikelijke servercpu, niet eens een met extra cache.

[Reactie gewijzigd door ACM op 29 juli 2024 08:56]

helemaal mee eens, als het aan Intel had gelegen ( dus zonder concurrent ) waren we pas over 10 jaar zover geweest, Nu pas word dankzei AMD echte vooruitgang geboekt.

Nu hebben we servers met EPYC cpus, welke tot 4TB ram per cpu aankunnen. Leuk met een dual socket board :-) en dan eind dit jaar de 96 core variant, en volgend jaar de 128 core variant.
Weet iemand toevallig hoe ze 64MB per cache die voor elkaar hebben gekregen?
De cache die is niet groter dan het cache gedeelte van de CCD, dus je zou 32MB verwachten.
Door het te stapelen. Weet niet of het over heel de chiplet is of alleen het cache gedeelte. Maar vandaar dat ze het ook 3D v cache noemen. Omdat de chip dus niet meer is opgebouwd op een 2D vlak maar ook de hoogte in gaat.
Ze hebben een extra dense proces gebruikt, waardoor de cache minder ruimte inneemt.

[Reactie gewijzigd door Wilfred86 op 29 juli 2024 08:56]

Iemand een idee hoeveel cores aktief zijn per chiplet?
Vooral bij de 16 core versie, met 8 chiplets.... lijkt me toch veel verspilling van die space.
Alle nieuwe EPYC's hebben inderdaad 8 actieve cores per chiplet
Je kan het ook anders bekijken. AMD kan nu zelfs chiplets gebruiken die maar een beperkt aantal werkende cores hebben, ook oude opgespaarde stock. Dankzij de 3D V-cache upgrade kunnen ze plots worden gebruikt. In een zeer duur product dan nog. Dat is een geweldige win van wat anders wel eens afval zou geweest zijn.
In de tekst staat 64MB+32MB

In de tabel 768MB. Moet dat laatste niet Mb zijn (96*8 is 768)?

Dank @dehinsh inmiddels ook verduidelijkt in de tekst

[Reactie gewijzigd door pietje63 op 29 juli 2024 08:56]

64MB+32MB is per chiplet en er zitten 8 chiplets in…
Hoe is het mogelijk dat een CPU met 16 cores en 32 threads eem TDP van 240W heeft terwijl een CPU met 4x zoveel cores en threads een TPD van 280W heeft?
Minder cores = hogere snelheid per core maar ook hoger voltage per core wat het stroomverbruik stuwt en dus ook de warmteafgifte.

[Reactie gewijzigd door BlueTooth76 op 29 juli 2024 08:56]

Hmm, dat zijn wel lekkere cpu'tjes met een mooie tdp. Tijd om een nieuwe server te bouwen.
Dit is wellicht enkel nuttig voor heel specifieke workloads, of zou je met wat meer generieke workloads (VDI/Remote Apps/webservers/SQL/...) er ook veel voordeel uit halen?
Of dan is het wellicht nuttiger om gewoon voor meer/snellere cores te gaan ipv. de meerkost van de extra cache?

[Reactie gewijzigd door SmokingCrop op 29 juli 2024 08:56]

AMD beweert dat de 7573X met 24 cores tot 88 procent meer computational fluid dynamics-problemen per dag kan oplossen dan 32-coreprocessoren van concurrenten.
Maar de concurrentie zit ook niet stil. Intel's Sapphire Rapids komt nu met on-package HMB2E geheugen.

Intel: Sapphire Rapids with HBM Is 2X Faster than AMD's Milan-X
https://www.tomshardware....-faster-than-amds-milan-x
"Bringing [HBM2E memory into Xeon package] gives GPU-like memory bandwidth to CPU workloads," said Raja Koduri, the head of Intel's Intel's Accelerated Computing Systems and Graphics Group. "This offers many CPU applications, as much as four times more memory bandwidth. And they do not need to make any code changes to get benefit from this."
...

The addition of on-package 64GB HBM2E memory increases bandwidth available to Intel Xeon 'Sapphire Rapids' processor to approximately 1.22 TB/s, or by four times when compared to a standard Xeon 'Sapphire Rapids' CPU with eight DDR5-4800 channels. This kind of uplift is very significant for memory bandwidth dependent workloads, such as computational fluid dynamics. What is even more attractive is that developers do not need to change their code to take advantage of that bandwidth, assuming that the Sapphire Rapids HBM2E system is configured properly and HBM2E memory is operating in the right mode.

"Computational fluid dynamics is one of the applications that benefits from memory bandwidth performance," explained Koduri. "CFD is routinely used today inside a variety of HPC disciplines and industries significantly reducing product development, time and cost. We tested OpenFOAM, a leading open source HPC workload for CFD on a pre-production Xeon HBM2E system. As you can see it performs significantly faster than our current generation Xeon processor."
Sapphire Rapids with HBM Is 2X Faster than AMD's Milan-X
Je vergeet een stukje: In memory bound workloads.

Performance claims like these made by companies must be verified by independent testers (especially given the fact that some other benchmark results show a different picture), but Intel seems to be very optimistic about its Sapphire Rapids processors equipped with HBM2E memory.

Ziet er goed uit, maar ik zou er nog geen conclussies uit trekken

Op dit item kan niet meer gereageerd worden.