AMD onthult vijfde generatie EPYC-serverprocessors op basis van Zen 5 en Zen 5c

AMD kondigt de vijfde generatie EPYC-serverprocessors aan op basis van de Zen 5- en Zen 5c-architectuur. Er zijn varianten met 8 tot 192 kernen en adviesprijzen van tussen de 527 en ruim 14.800 dollar. Het bedrijf toont daarnaast de nieuwe Instinct MI325X-accelerators.

AMD EPYC 5thVolgens AMD halen de nieuwe EPYC-processors uit de Turin-generatie vergeleken met de Zen 4-voorgangers tot 17 procent meer instructies per clock bij cloudtoepassingen en tot 37 procent meer ipc's bij AI- en hpc-toepassingen. Verder vergelijkt het bedrijf de cpu's met vergelijkbare chips van concurrenten, wat de prestatieclaims lastig in perspectief te plaatsen maakt. De nieuwe AMC EPYC 9005-serie ondersteunt tot twaalf kanalen met DDR5-6400MT/s-geheugen per cpu.

Verder toont het bedrijf de Instinct MI325X-accelerators, die voorzien zijn van 256GB aan HBM3E-geheugen dat snelheden van 6TB/s ondersteunt. De AI-accelerators zijn gebaseerd op de CDNA 3-architectuur en moeten begin 2025 beschikbaar komen in serverplatformen van fabrikanten zoals Dell, Gigabyte, Hewlett Packard Enterprise en Lenovo. Naar eigen zeggen loopt AMD op schema om in de tweede helft van dat jaar Instinct MI350-accelerators op basis van CNDA 4 en met 288GB-HBM3E-geheugen uit te brengen.

AMD EPYC-model Cores Architectuur Kloksnelheid, base/boost TDP L3 Cache Adviesprijs
9965 192 cores Zen 5c 2,25 / 3,7GHz 500W 384MB $14.813
9845 160 cores Zen 5c 2,1 / 3,7GHz 390W 320MB $13.564
9825 144 cores Zen 5c 2,2 / 3,7GHz 390W 384MB $13.006
9755
9745
128 cores Zen 5
Zen 5c
2,7 / 4,1GHz
2,4 / 3,7GHz
500W
400W
512MB
256MB
$12.984
$12.141
9655
9655P
9645
96 cores Zen 5
Zen 5
Zen 5c
2,6 / 4,5GHz
2,6 / 4,5GHz
2,3 / 3,7GHz
400W
400W
320W
384MB $11.852
$10.811
$11.048
9665 72 cores Zen 5 3,15 / 4,3GHz 400W 384MB $10.486
9575F
9555
9555P
9535
64 cores Zen 5 3,3 / 5,0GHz
3,2 / 4,4GHz
3,2 / 4,4GHz
2,4 / 4,3GHz
400W
360W
360W
300W
256MB $11.791
$9.826
$7.983
$8.992
9475F
9455
9455P
48 cores Zen 5 3,65 / 4,8GHz
3,15 / 4,4GHz
3,15 / 4,4GHz
400W
300W
300W
256MB
192MB
192MB
$7.592
$5.412
$4.819
9365 36 cores Zen 5 3,4 / 4,3GHz 300W 256MB $4.341
9375F
9355
9355P
9335
32 cores Zen 5 3,8 / 4,8GHz
3,55 / 4,4GHz
3,55 / 4,4GHz
3,0 / 4,4GHz
320W
280W
280W
210W
256MB $5.306
$3.694
$2.998
$3.178
9275F
9255
24 cores Zen 5 4,1 / 4,8GHz
3,25 / 4,3GHz
320W
200W
256MB
128MB
$3.439
$2.495
9175F
9135
9115
16 cores Zen 5 4,2 / 5,0GHz
3,65 / 4,3GHz
2,6 / 4,1GHz
320W
200W
125W
512MB
64MB
64MB
$4.256
$1.214
$726
9015 8 cores Zen 5 3,6 / 4,1GHz 125W 64MB $527

Door Yannick Spinner

Redacteur

10-10-2024 • 20:48

59

Reacties (59)

59
59
24
4
0
31
Wijzig sortering
En Phoronix heeft al uitgebreid de processors kunnen testen:
https://www.phoronix.com/...epyc-9965-9755-benchmarks

Binnen 2 minuten de Linux kernel compileren op 1 systeem...

De AVX512 instructieset implementatie is ook uitstekend.

[Reactie gewijzigd door MartineEekhof op 10 oktober 2024 21:58]

What ook interessant is dat ze de EPYC 192 Core tegenover de AmpereOne 192 Core ARM CPU hebben gezet (die ook nu ongeveer leverbaar is).
https://www.phoronix.com/review/amd-epyc-9965-ampereone/5

Hier blijkt dat de AMD cpu op power efficiency het nog steeds wint van deze ARM server CPU.
De AMD CPU verbruikt meer maar doet het werk sneller waardoor die alsnog meer werk verzet per hoeveelheid energie.
Ook IDLE power is veel lager op de AMD machine (iets wat ik zelf niet verwacht had maar de AmpereOne lijkt hier bijzonder inefficient met idle power die niet onder de 100 Watt komt).

Enige grote voordeel van de AmpereOne is de list price maar ik weet van AMD dat bij grote klanten de list price geheel los staat van de werkelijkheid. (kortingen van ruim boven de 50% zijn gebruikelijk)
Geen idee hoe dat bij AmpereOne is.
hier nog een review, wel wat andere resultaten, beetje raar...
https://www.servethehome....rmance-solidigm-broadcom/

terwijl de phoronix resultataen heel anders en zo ook de conclusie:

I have been really happy with the AMD EPYC 9004 Genoa(X) / Bergamo processors but now AMD has really delivered exceptional performance and efficiency gains with EPYC 9005 Turin processors. Intel had an exciting run of a few weeks with Granite Rapids but now EPYC Turin is ready for some very competitive -- and often times dominating -- action.

[Reactie gewijzigd door d3x op 10 oktober 2024 22:44]

Ik zie zo snel geen afwijkende resultaten op servethehome, welke bedoel je specifiek?
Was al een tijdje aan het voorspellen dat Ryzen 5 monsterachtig wordt op Epyc, o.a. vanwege de Linux resultaten en dingen als AES en AVX-512 prestaties. En dat blijkt wel, net Level 1 Tech channel op YouTube gekeken en die komen ook op een prima evaluatie uit. Zijn voorspelling is dat AMD elke CPU die het maakt hiervoor meteen kan verkopen.

[Reactie gewijzigd door uiltje op 10 oktober 2024 23:03]

Mis ik in die test een performance per watt grafiek of hebben ze die gewoon niet?
Wauw, wat een monsterlijke hoeveelheid cache heeft die 9175F per core (32MB). Ik dacht aanvankelijk dat het niet klopte. Wat ik er echter zoal over lees is dat deze CPU is ontwikkeld voor servers waarop softwarelicenties worden gebruikt waarbij per core licentiekosten moeten worden afgedragen. Dan wil je zoveel mogelijk rekenkracht uit één core halen.
Dat klinkt als Oracle software (braak emoji)
En dat zonder 3dvcache je ziet dat zen5c de helft heeft omdat 32MB per 16cores is zen5 32mb per 8 cores. 384/32 is zen5c max aantal chiplets en 512/32 is de max zen5 aantal chiplets. Of 192/16 vs 128/8. 12 vs 16

3dvcache zou met 64mb met 16chiplets 32mb 1,5TB worden Zen5 geen idee of zen5c ook 3dvcache versies komen. En of nieuwe 3dvcache die 64mb zullen zijn.
Kun je 500 watt aan TDP nog met luchtkoeling afvoeren?
Dat wordt afgeraden. Rond/tot de 400W / CPU is nog net ok maar de energie nodig om die warmte uit de server te krijgen met fans loopt ook op. Er is al enkele jaren een tendens in de gewone IT wereld (lees niet Supercomputers ala fancy CRAY) om weg te gaan van 1u pizzadozen en ook blades hebben bij deze wattages de limiet. En algemene waterkoeling begint nu echt wel een vaste waarde te worden ook voor midsize ondernemingen onder de vorm van DLC. Dell. Hpe. Lenovo etc. wat info: https://www.dell.com/en-u...d-server-cooling-choices/

[Reactie gewijzigd door d3x op 11 oktober 2024 08:10]

Wist zelfs niet dat waterkoeling bij servers zelf een ding was :P. Staat dit niet haaks op het principe van geen water in de serverroom? Zelfs de blusinstallaties zijn met een soort gas dacht ipv watersprinklers.
Eventuele schade zal wat meer gelokaliseerd zijn dan met sprinklers, maar 't klinkt inderdaad niet zonder risico. Maar goed, een defecte luchtkoeling heeft ook een zeker brandrisico.
Defecte luchtkoeling zorgt ervoor dat de cpu gaat throttlen. Dus dat valt reuze mee.
Er zijn nog een pak meer componenten die daardoor gekoeld worden, denk bv. aan netwerkmodules en alle opslag.
Met waterkoeling blus je het brandje direct met water :+
Wij gebruiken sinds enkele maanden water koeling. Maar vloeistof / radiatorretje bevind Zich aan de buitenkant.

Zijn nu bezig met voorbereidingen koel leidingen per rack aan te brengen aangezien verwacht wordt dat de volgende generatie hier niet voldoende aan heeft.

Water komt dan vanaf beneden, met lekbak + sensor en monitoring per rack.

Ter verduidelijking de server (die wij gebruiken) krijgen 4 jaar garantie op water gedeelte en dat is de levensduur van de hardware.
Moet het water zijn?
Kan het geen ander vloeistof zijn? Bv gedestilleerd water of olie.
In principe hoeft het geen water te zijn. Een andere vloeistof kan ook. Water heeft alleen erg goede thermische eigenschappen, is goedkoop en overal beschikbaar.

Ik heb overigens geen idee of er andere vloeistoffen gebruikt worden in cpu koelers.
De meeste partijen gebruiken Glycol als koelmiddel.
Lenovo is één van de weinige die water gebruiken om mee te koelen.
Demi-water wil je absoluut niet gebruiken om systemen mee te koelen.
Vanwaar die afkeer van demi water? Zo snel je het er instopt is het al geen echte demi meer, maar ik zie zo niet in waarom dit een extra risico is. Glycol gebruiken ze dan puur? Oftewel moeten ze 3/4 meer vloeistof verplaatsen, voor de zelfde afgifte?
Interessante balans dan.
Omdat demi water te aggressief is. Het zal het koelingssysteem van binnenuit "opeten".
Met het risico dat je zwakke plekken krijgt in het koelsysteem en vroeg of laat daaruit het water zal gaan lekken.
Als je wilt weten wat voor eisen door Lenovo aan het water wordt gesteld, kan je hier meer vinden: https://lenovopress.lenov...g-standards#water-quality
De rest van de pagina is ook interessant om te lezen als je wilt weten wat er allemaal nog meer erbij komt kijken.

De bekende Glycol achtige vloeistoffen die veel gebruikt worden zijn:
https://www.dow.com/en-us...ansfer-fluid.497419z.html
https://thirdcoastchemica...ited-glycols/isf55-isf25/

Waarom veel fabrikanten voor Glycol kiezen komt vooral omdat het makkelijker in gebruik is. Wanneer je een lek hebt, dat de apparatuur geen kortsluiting heeft gekregen. Dan nemen ze de minder goede thermische eigenschappen maar voor lief.
Daar staat juist dat demi water wel de voorkeur heeft.
Dat demiwater materialen als aluminium relatief net iets makkelijker opneemt, lijkt me logisch.
Maar het leek me niet logisch dat er een aluminium onderdeel in het systeem zit.
De voordelen van gycol snap ik.
Interessant dat dit tegen elkaar opweegt. Omdat het om die enorme hoeveelheden energie gaat.
Ze gebruiken demi water als basis om daarna het nodige aan toe te voegen, zodat het water schoon blijft en niet de binnenkant aantast. Zoals hier te lezen en de paragraaf die erna komt: https://lenovopress.lenov...tup-and-initial-treatment
Je koperen koelblok met fijnmazige vinnen erin, wordt ook niet blij van demi water ;)

Als je echt goede warmte opname en afgifte wilt hebben, is water geweldig, helemaal vergeleken met Glycol. De voordelen van Glycol zoals dat het een lagere bevriezingstemperatuur heeft, is niet relevant in een server koelsysteem. Maar water heeft wel serieuze nadelen, daarom dat veel fabrikanten liever voor het makkelijke pad kiezen. Helemaal omdat de meeste systemen die nu gebouwd worden nog niet op een schaal zitten waar de nadelen van Glycol grote effecten heeft.
Mooie materie.
Misschien dat ik er overheen lees, maar ik zie alleen maatregelen om organische vervuiling tegen te gaan. Sterker nog, optioneel wordt er voorgesteld het water te blijven demineraliseren in de loop.
Ik snap het punt wel, maar zie het niet terug in het document.
Ik had ooit zelf een Aluminium Waterblok gemaakt (Alumel gesoldeerd) en de radiator was een oude CV radiator.
Dat werkte een paar maanden erg goed. Tot er telkens kleine lekjes ontstonden op de gesoldeerde vlakken.
Mijn Athlon XP-M 2500+ op 2,2Ghz had er gelukkig nooit last van.
Net een ander soort installatie.
Je kan ook een niet geleidende vloeistof gebruiken.
Toevallig is water een van de beste (de beste?) vloeistoffen qua viscositeit en soortelijke warmte. Alleen zwaar water is dacht ik net iets beter, maar dat heeft weer andere nadelen.
en ook blades hebben bij deze wattages de limiet wel geraakt.
Zijn blades nog een ding? Was een aantal jaar geleden hip maar ik hoor er weinig meer over.
er zijn nog steeds een hoop IT bedrijven die gewoon die dingen blind blijven kopen van Cisco UCS/X en HPE Synergie, Dell heeft die portfolio al opgegeven. Als je dan nog eens meeneemt dat die dan ook geen AMD hadden in hun keuze, dan kan je al eens dubbel gaan afvragen wat je aangekocht hebt de laatste 3-4jaar.... maarja, typische oude IT huizen zeker of gewoon steeds de presales braaf volgen. }:O
Supermicro maakt ze ook nog zelfs met Chipsets die consumer grade Ryzen of Intel kan er zijn toen de tijd heel veel blades dood gegaan met de 14th gen Intel CPU's. voornamelijk voor grote schaal gameservers worden ze regelmatig gebruikt door de internal fabric bandwidth om ze met elkaar te laten praten maar vaak voor de use cases zoals voor high core count Epyc of Xeons die zijn niet bepaalt gemaakt voor gameservers meer bulk virtualizing, AI workflows, Mass code compiling en dat soort achtige taken door de grote hoeveelheid cores maar relatief lage snelheden dus dat werkt sowieso beter buiten een blade envoirment waar de hoeveelheid niet zoveel boeit
Ja maar die hebben dan niet de nood aan 400-500w TDP per socket :)
Supercomputers zijn ook deels chassis met blades hoor.
Het is ook erg afhankelijk van of er hotspots zijn op de CPU en hoe groot het effectieve koel/contact oppervlakte is van de CPU.
Tot een generatie of 2 geleden leek 350 Watt de max maar inmiddels kunnen we dus tot 500Watt met lucht koelen in gunstige gevallen omdat de warmte beter verdeelt is en over een groter oppervlakte.
(Als je 500Watt moet koelen kan je echter niet te veel andere hardware hebben in je server. Bijvoorbeeld veel NVMe drives GPUs etc)
Op werk hebben wij een oudere Epyc, die iets van 300W doet in een 1U server en daar is dat een serieuze uitdaging (luchtkoeling). Ik denk dat 500W, laat staan dual-socket systemen of zelfs 4-in-1 bijna niet te koelen zullen zijn en 2U minimaal nodig is. Maar wellicht zijn met fraaie waterkoeling oplossingen nog meer TDPs te verstoken.

Overigens: er zijn nu ook al 300+W Epycs (of Xeons) icm een vette Nvidia kaart (ook 200W+) verstookt en dat lukt wel. Al weet ik niet of dat in 1U mogelijk is of hogere systemen vereist (meer lucht = meer koeling mogelijk).

Aan de andere kant: een complete kast/rack met pizzadozen die per stuk totaal tegen de 1000W gaan is levert ook al 25kW of meer op om te koelen. Dat is ook heel erg veel, omdat meestal dit soort servers niet alleen, maar in een stapel in een 19" rack hangen. Niet voor niets betaal je dan maar 12c of zo per kWh als je zoveel afneemt ;-) (was de prijs van enige jaren terug bij een vorige werkgever)
12c was de prijs bij iedereen enkele jaren terug |:(
Bij grootverbruikers, niet bij particulieren. Die zaten toen ook al op meer dan 2x zo hoog IMO. Ik onthou de prijzen ook niet weer zo goed.
Servers is meestal airco luchtstromen (door de racks heen). Die hebben een veel koudere ambient temperatuur dan thuis. Plus meer " onder druk" door de kast gejaagd. Daarom beter te koelen op die manier.
De fans in een server zijn bovendien niet ingesteld op "stil zijn". Er waren zelfs servers waar je een geluidsdemper op de voorkant kon zetten.
Waarom zou iemand eigenlijk gaan voor een 9015 tot 9135 chip inplaats van een consumenten chip met 16 cores zoals de 14900ks of 7950x?
9135: 12 geheugenkanalen, 128x PCIe 5.0
7950x: 2 geheugenkanalen, 28x PCIe 5.0

Het is van je gebruik afhankelijk of er iets aan hebt, maar deze Epycs zijn echt gemaakt met een ander doel voor ogen.
Stomme vraag en ik zit totaal niet in deze wereld: Maar als je een nuttige toepassing hebt voor zoveel geheugenkanalen en PCIe lanes dan wil je toch ook wel meer dan die 8-16 cores zoals in het onderste deel?
Ik kan voor sommige machinelearning algos de data niet snel genoeg aanslepen. Meer cores doet weinig maar sneller geheugen des te meer....
Ik zit ook niet in die wereld, dus neem dit met korreltje zout.
Bitcoin miners gebruiken ook een basis cpu, de rekenkracht komt daar van de kaarten die je via pcie aansluit. Wellicht zijn er vergelijkbare workloads waarbij geheugen en de toegang daartoe via pcie belangrijker zijn dan brute cpu rekenkracht.
Bijvoorbeeld een storage server op basis van (M2)-SSD's. Veel PCI-Lanes nodig. Veel geheugen nodig. Niet zo erg veel CPU.
pci-express lanes, maximum geheugen
ECC geheugen, 12-kanaals geheugen, meer PCIe lanes etc. voor workloads die niet leunen op processor rekenkracht.
Data van disks en geheugen zo snel mogelijk langs je cores rondpompen voor algos die niet goed paralelliseren
Ten eerste kan je geen Dell/HP/IBM server kopen met consumenten hardware. Dus al wil je een consumenten CPU, gaat dat niet lukken. Tenzij je zelf gaat samenstellen, maar dat is dan ook geen doelgroep van de genoemde partijen. Ten tweede support, waar een consumenten CPU vaak beperkt is in wat het support of hoeveelheid memory wat het support.
Los van de hardware verschillen zoals geheugencontroller en het aantal pci-e lanes, is deze hardware ook ontworpen om 24/7 aan te kunnen staan voor enkele jaren.
Consumenten CPU’s zullen hier misschien niet direct problemen mee hebben, maar zijn er niet voor ontworpen en kunnen dus op ten duur problemen geven hierdoor.

Dit valt dan direct samen met de support, dit soort CPU’s worden vaak veel langer geproduceerd om lange support te garanderen. Sommige systemen vereisen tenslotte 10 jaar jaar garantie in de servermarkt om continuïteit te garanderen. Sommige software hangt zo nauw samen met bare-metal afhankelijkheden dat een andere cpu architectuur niet zomaar kan.
(Ik noem ook even bewust bare-metal, omdat een virtuele server uiteraard makkelijker te verplaatsen is tussen verschillende HV-host platformen)
Geoptimaliseerd voor server workloads.
Buiten de PCIe & ECC: misschien omdat je wilt ontwikkelen op een workstation die zoveel mogelijk overeenkomt met 1 van die monsterachtige CPU's die in je datacenter draaien?
Zen5 is Zen5, of het nu in Ryzen of EPYC zit. Onze nieuwe zerver heeft gewoon een 9950X om die reden. We kunnen toe met 128GB.
Mooi dat het werkt voor jullie. Met het minimale verschil in instruction set zou je zelfs voor een vorige generatie kunnen gaan.

Maar als ik ga kijken naar versleuteling / virtualisatie en dat soort dingen dan lijken er toch wel wat verschillen te zijn. Chipset, management opties...
8cores of 16 cores en met die zooi aan io zou je highend U.2 NAS voor in rack kunnen maken. De prijs zal dan vooral in die hoeveelheid U.2 NVME drives zitten. Want die zijn met grote capaciteiten per stuk ook al rete duur en daar kunnen dan veel erin.

Deze sku zijn gericht als vooral de io nodig hebt.
OS software licenties op core count.

Low cost sku range voor $5ooo $25000 server oplossingen vs $250000 rack nodes
Low compute ,maar extreem memory bandwide afhankelijk toepassing

Low price low compute, maar extreem groot geheugen afhankelijke toepassing.
De 8core zal geen 16 chiplets hebben vraag me af of die dan wel 12 channels zal hebben
Omdat men het snelste van het snelste wilt en niet gelimiteerd door geld. Er zijn mensen die niks om geld hoeven te geven en kunnen daardoor dikkere PC's samenstellen.
En volgens mij is dit gewoon een drop-in op de laatste generatie moederborden dat is erg fijn voor de mensen die dit doen maar natuurlijk ook voor de bedrijven en ik neem aan ook minder downtime voor een cpu swap? zet er een vraagteken bij want ben geen echte server tech kenner.
Ik ook niet maar ik denk dat het vervangen van een volledige 1U of 2U server makkelijker is dan het vervangen van een CPU. Wel een stuk duurder.
Jeetje, 192 cores. Op zo'n server zou ik dan maar geen Oracle draaien... :+
Dual socket gaat naar 384 cores.
Larry Ellison lacht zich rot als je daar een Oracle database op gaat draaien!

Op dit item kan niet meer gereageerd worden.