Gerucht: AMD EPYC Venice krijgt tot zestien geheugenkanalen en nieuwe SP7-socket

AMD's zesde generatie EPYC-serverprocessors krijgen mogelijk een nieuwe SP7-socket. Dat meldt YuuKi_AnS, die vaker informatie over onaangekondigde processors deelt. De cpu's gebruiken de Zen 6-architectuur en krijgen mogelijk maximaal zestien geheugenkanalen.

AMD brengt twee varianten van de zesde generatie EPYC-cpu's uit, meldt @Yuuki_AnS. De cpu's, die de codenaam Venice krijgen, komen volgens de leaker beschikbaar met twaalf of zestien geheugenkanalen. De huidige EPYC Genoa-processors beschikken over maximaal twaalf van dergelijke kanalen. De EPYC Venice-processors gebruiken volgens de leaker ook een nieuwe socket: SP7. Dat wordt de opvolger van SP5, die momenteel wordt gebruikt voor AMD's vierde generatie EPYC Genoa-cpu's.

Voordat de zesde EPYC-generatie uitkomt, brengt AMD nog een vijfde generatie EPYC Turin-cpu's op basis van de Zen 5-architectuur uit. Deze krijgen opnieuw de SP5-socket die momenteel al gebruikt wordt voor EPYC Genoa, bevestigde AMD eerder al. Turin verschijnt ergens volgend jaar, hoewel er nog geen concrete releasedatum is. Venice volgt mogelijk in 2025 of later, schrijft VideoCardz. AMD heeft zelf overigens nog geen officiële details gedeeld over EPYC Venice.

Door Daan van Monsjou

Nieuwsredacteur

11-09-2023 • 12:05

39

Lees meer

Reacties (39)

39
39
21
2
0
11
Wijzig sortering
Er wordt gezegd dat de 13900K(S) en 13700K onkoelbaar zijn, maar met wat koel je dan een EPYC CPU die nog een hoger TDP heeft?
Het lastig koelen van een chip heeft met veel meer te maken dan alleen het tdp. Het oppervlak waarover die warmte geproduceerd wordt, de geleiding door de heat spreader en de spreiding van de warmte producerende componenten hebben veel invloed.
De epyc cpu is veel (echt heel veel) groter dan een lga 1700 cpu zoals de 13900K. Dus het is niet zo gemakkelijk vergelijken. Uiteraard is er wel een specifieke passende oplossing voor nodig en kun je niet simpel andere mounting hardware op je high end Noctua gooien die gemaakt is voor een kleinere cpu. (Ookal heeft die voldoende koelvermogen)

[Reactie gewijzigd door Eldunari op 30 juli 2024 12:47]

De epyc cpu is veel (echt heel veel) groter dan een lga 1700 cpu zoals de 13900K.
Even ter vergelijking: een Alder Lake-S CPU is 37.5mm x 45mm, een Epyc CPU is 75mm x 72mm. Een verschil van ongeveer een factor 4 dus.
Het verschil is nog groter. De die size van een 13900K is 257mm2 een Zen4 CCD is 70mm2. Daar heb je er vervolgens 12 van Genoa de IO Die is 397mm2. Dus in totaal heb je 1237mm2 aan oppervlakte om die warmte over te verdelen. Dat is nog wat meer dan factor 4.

De heatspreader is het probleem niet maar de transistor dichtheid en de hoeveelheid vermogen die er vervolgens doorheen moet wel.

[Reactie gewijzigd door Astennu op 30 juli 2024 12:47]

Eigenlijk zou een grotere processor gemakkelijker te koelen moeten zijn...vanwege de verdeelde hitte over het oppervlak.
In een datacenter of serverruimte staat mestal wel een airco of ander koelmiddel.
Airco steeds minder verbruikt veel te veel stroom dus je ziet meer hot datacenters die met omgeving lucht en of water gekoeld worden. Soms wordt de warmte van de datacenters ook weer in de stad verwarming gepompt dan gebruik je de warmte weer nuttig.

Een grotere CPU is ook makkelijker te koelen en dat is het probleem dan ook de die van een 13900K is klein waar een EPYC CPU 13-17 chiplets heeft waarover de warmte verdeeld wordt.
Servers worden tegenwoordig ook meer en meer met vloeistof koeling uitgebracht. Vaak met een uitgebreid systeem waar hele racks op aangesloten zitten, het water gaat naar buiten en wordt daar in grote radiators gekoeld, eventueel met chillers voor hele extreme systemen.
Een datacenter moet hiervoor wel ingrijpend aangepast worden.
De SP5 heatspreader heeft een afmeting van 69.1mm x 72.9mm = 5037mm2. AM5 is 40mm x 40mm = 1600mm2. SP5 is dus 3.14x zo groot.

Een Ryzen 9 7950X3D heeft een TDP van 120W, dus 0.075W/mm2. Een EPYC 9654 heeft een TDP van 360W, dus 0.071W/mm2. De 13900K zal redelijk vergelijkbaar zijn met een 7950X3D.

EPYC is qua koeling dus niet extreem veel anders dan een desktop CPU, en je hoeft niet eens rekening te houden met geluidsproductie dus een klein koelblok met heel hard blazende fans is een prima oplossing.
Servers zijn steeds strakker geconfigureerd met bepaalde limieten in de opties, vanwege de maar stijgende TDP van zowel CPU en GPU.

één oplossing is om te gaan werken met "disaggregated architectures", maar realistisch gezien werkt dit maar voor hele specifieke gevallen. Iets wat meer ter spraken tegenwoordig komt, is liquid cooling oplossingen. Het probleem hiermee is echter, dat veel bestaande datacenters hier niet op voorbereid zijn.

Maar gelukkig zijn vele vendoren van servers hun liquid cooling compatible portfolio aan het uitbreiden om de markt in ieder geval de optie en advies erin te kunnen aanbieden.
Server CPU he? Dus met veel luchtstroom en grote koelblokken. En in een datacenter natuurlijk.

[Reactie gewijzigd door - peter - op 30 juli 2024 12:47]

Denk je dat in een 1U of een 2U echt een grote koeler zit? Nee hoor. Veel airflow, dat wel.
Heel veel kleinere koelers naast elkaar. Die kleine koelers maken ook meer lawaai dan grote. Vandaar al die herrie in een serverruimte...
Fans uit servers zijn eigenlijk ook niet vergelijkbaar met desktop PC fans. Server fans nemen doorgaans veel meer vermogen af en leveren daarvoor ook veel meet static pressure en hoger volume dan een een normale pc fannetje.
En ze maken ook meer lawaai...
Mja de “hoger volume” was dubbelzinnig ;)
I get it. :)

Hoewel, sommige pc's hebben ook 6 of meer fans draaien. Maar die zijn meestal groter, minder lawaai... :P

[Reactie gewijzigd door Tourmaline op 30 juli 2024 12:47]

Je bedoelt de ventilators..? Koelers slaan toch op de heatsink volgens mij.
Ja, sommige noemen het koelers, anderen ventilators maar het zijn inderdaad ventilators, Heel veel kleine.
Bij cpu's zitten er soms al ventilators op de koelers, vandaar misschien. Dus je hebt ventilators op de koelers en ventilators in een array voor airflow.
Inderdaad. Servers (de 1U, 2U, etc.) varianten hebben doorgaans een through-flow design, dus dan zit de fan niet gemonteerd op de heatsink, maar ervoor, dan kan de airflow meerdere componenten koelen, machtig mooi design vaak (technisch). Eigenlijk alles is geoptimaliseerd voor onderhoud, kosten, performance en efficientie. Er zijn natuurlijk wel mensen die zo'n Epyc (of meerdere) in een custom workstation weten te proppen en dan wel direct een koeler weten te mounten op de heatsink.
De reden waarom er wordt gezegd dat ze onkoelbaar zijn is vanwege de layout, de IHS en de oppervlakte, heel technisch verhaal dus. Als je de IHS eraf haalt en direct die koelt dan is het goed te doen. Om het verhaal compleet te maken, onkoelbaar zonder drastische maatregelen.

We zijn nu op zo'n punt beland dat TDP achterhaald is., of ja eigenlijk niet het hele verhaal vertelt. Kan goed zijn dat je door een combinatie van bepaalde aspecten je koeler helemaal niet goed werkt ondanks dat hij rated is voor een bepaalde TDP.

Daarom heeft Noctua de NSPR, wat een goeie stap de juiste richting in is.
https://noctua.at/en/noctua-standardised-performance-rating

[Reactie gewijzigd door TechSupreme op 30 juli 2024 12:47]

Hoewel SP7 een volwaardige opvolger is van SP5, moet je niet vergeten dat SP6 ook bestaat.

SP6 is meer een "variant" van SP5, maar dan specifiek voor lagere TDP EPYC CPU's (tot 225w max als ik me niet vergis)
Dat was inderdaad initieel wel het gerucht, maar er gaan nu alweer geruchten dat Threadripper Zen 4 ook naar SP6 komt met 350W TDP's. Waardoor het socket niet specifiek lijkt te zijn voor lagere TDP's maar meer voor cpu's gelimiteerd tot 1 socket per systeem met minder cores / geheugen kanalen e.d. dan de full feature Epyc's.
De SP6 zal de nieuwe Threadripper niet kunnen gebruiken, daarvoor is de socket te gelimiteerd in TDP.

Ik denk echter dat de WRX** socket voor de nieuwe Threadripper een variatie zal zijn op de huidige SP5 (zoals het eigenlijk bij de vorige Threadripper Pro was op de Sp3.

Overigens has Guru3D recent nog een post met een lijst kwa SP6 CPU's: https://www.guru3d.com/ne...anticipated-features.html
Dat dacht ik dus ook eerst, op basis van de eerder bekende informatie. Echter deze geruchten van vorige maand zeggen wat anders:

https://www.tomshardware....ipper-7000wx-specs-emerge
https://wccftech.com/amd-...50w-7995wx-7985wx-7945wx/
Dan zal het wel een aangepaste SP6 socket moeten zijn zoals het eigenlijk bij de vorige generatie ook was met de sWRX8/SP3
de SP6 krijgt een andere invulling dan eerst voorzien, beetje verfijnde doelgroep op basis van technische feedback.

de TR heeft nog steeds een full EPYC layout en is dus niet op SP6, eerder een clone van SP5 ze gebruiken er steeds een andere layout voor.
Dus ipv dual-channel (2 kanaals) is dit een hexadeci-channel? (16 kanaals) processor?
Wordt deze dan gecombineerd met 16 cores per CCD?
Dan krijgen we mogelijk 16x12 = 192 cores met 384 threads ?
(er gaan immers 12 CCDs op een die)
Het gaat hier om geheugenkanalen. Je kunt meer geheugen sneller bereiken. Heeft ook voordelen met complexe berekeningen denk ik.

[Reactie gewijzigd door Tourmaline op 30 juli 2024 12:47]

Nee, dat staat daar compleet los van.

Zen 4 bestaat bijvoorbeeld uit 8-core CCD dies. Neem twee CCDs en gooi er een goedkope IO die met 2 geheugenkanalen bij, en je hebt een Ryzen 9 7950X3D. Neem er twaalf en combineer dat met een veel duurdere IO die met 12 geheugenkanalen en je hebt een EPYC 9654. Of je pakt twee CCDs, combineert het met de dure 12-kanaals IO die en je hebt een EPYC 9124.

"Vroeger" was het zo dat er een geheugencontroller in de "CCD" zat, dus meer CCDs zorgde automatisch voor meer geheugenkanalen - maar sinds AMD IO dies gebruikt is dat niet meer het geval. Er is nooit een directe link geweest tussen threads per CCD en aantal geheugenkanalen.
Ik heb nog goede herinneringen aan mijn AMD Athlon64 Venice CPU, dat ding kon clocken als een gek. De goede oude tijden.
Probleem was toen dat als je de koeler er niet goed opzette ze gingen doorbranden. Ze gaan nu tenminste throttlen.
Klopt, maar die waren ook een nachtmerrie om te koelen....
Vooral omdat ze geen IHS hadden, toch? Ik heb ooit een Duron gemold om precies die reden. Zware koelers waren nodig, maar konden de die slopen...
Mensen konden de die slopen. Koelers niet. Is altijd onkunde. De enige koeler die wellicht nog met dat excuus weg komt is een golden orb.
Probleem was vgs mij dat de koeler kon wobbelen, omdat ie maar op twee smalle punten vast zat. Dus het verplaatsen van een kast zou dan al foute boel kunnen zijn.

Maar ook, laten we eerlijk zijn, je moest een onheilige hoeveelheid kracht op de socket zetten voor de installatie van de koeler. En dat op een naakte die. Ik was niet de laatste die blij was met de IHS op de nieuwe lichting van Intel rond die tijd, die ook een iets minder extreem mounting-mechanisme had met z'n 4 druk-clips (of was dat later pas?)

[Reactie gewijzigd door _Thanatos_ op 30 juli 2024 12:47]

Je kon ook vrij eenvoudig de koeler achterstevoren monteren, waardoor er een paar mm van de die NIET gekoeld werd.. was daarna mooi te zien aan de donkere streep op de CPU als mensen garantie probeerden te claimen :)
Ik moest hier ook gelijk aan denken :D Ik had de 3500+, prima processor voor het budget toen!

[Reactie gewijzigd door Arjan90 op 30 juli 2024 12:47]

Dit is toch niet heel gek? De EPYC zen 3 processoren hadden 8 DDR4 memory channels. Aangezien DDR5 maar 32bits (zonder ecc) heeft, ten opzichte van DDR4 met 64bits. Hebben 16 DDR5 kanalen dezelfde hoeveel bits als 8 DDR4.
Volgens mij vergis je je ergens. DDR5 laat de 2 banken apart lezen/schrijven terwijl dit bij DDR4 nog tezamen was. Hier spreken ze echt van kanalen en 1 kanaal is 64bit (2x32 voor DDR5) dit zijn dus gewoon 16 kanalen of beter gezegd: 16 sticks geheugen dat rechtstreeks gelezen/geschreven kunnen worden.

In EPYC servers zie je nu ook 16 banken maar die zijn dus maar 8 kanaals en een 2de stick op een kanaal zetten word dat kanaal dus "trager"

[Reactie gewijzigd door Damic op 30 juli 2024 12:47]

Op dit item kan niet meer gereageerd worden.