Vermoedelijke specs AMD EPYC Genoa-cpu's met Zen 4-cores verschijnen online

De vermoedelijke specificaties van AMD's EPYC-serverprocessors met codenaam Genoa en Zen 4-cores zijn online verschenen. De architectuur zou maximaal 96 cores en 192 threads ondersteunen, aangevuld met DDR5-5200-geheugen met twaalf kanalen en PCIe 5.0.

De informatie is afkomstig van Twitter-account ExecutableFix, waar al vaker onaangekondigde gegevens over cpu's zijn verschenen. Zo plaatste de gebruiker vorig jaar voortijdig de uiteindelijk juist gebleken specificaties van de AMD's Ryzen 5000-laptopprocessors. Officieel heeft AMD nog geen informatie over de AMD EPYC Genoa-cpu's met Zen 4-cores naar buiten gebracht. Wel maakte het bedrijf eerder al duidelijk dat de Genoa-generatie volgend jaar zal verschijnen en gemaakt wordt op een 5nm-procédé. Dit worden de eerste serverprocessors van AMD met Zen 4-cores; de generatie die daar nog voor komt, de AMD EPYC Milan-serverprocessors met Zen 3-cores, komen pas volgende maand uit.

De 96 cores zouden mogelijk worden door een ontwerp van twaalf chiplets met elk acht cores, aangevuld met een aparte i/o-die. Dat zou betekenen dat AMD het aantal cores per chiplet niet verder opvoert, maar het totale aantal cores weet te verhogen door meer chiplets te integreren. ExecutableFix plaatst een afbeelding hoe het ontwerp van Genoa eruit zou kunnen zien, waarbij het zou kunnen gaan om een meer vierkanten ontwerp.

Volgens zijn informatie zal er in ieder geval sprake zijn van een nieuwe socket. Verder zouden de Genoa-EPYC-serverprocessors de PCIe 5.0-interface met 128 lanes ondersteunen, of 160 lanes in een configuratie met twee sockets. De tdp zou uitkomen op 320W; dat is 40W hoger dan bij de komende Milan- en de huidige Roman-cpu's met Zen 2-cores. De tdp zou bij de Genoa-cpu's te configureren zijn voor maximaal 400W.

De nieuwe Genoa-cores zullen onder meer verschijnen in de El Capitan-supercomputer. Deze zou een rekenkracht van 2,2 exaflops krijgen, wat veel hoger is dan de huidige krachtigste supercomputer. In het kader van deze El Capitan-supercomputer zei AMD eerder al dat de EPYC Genoa-processors met zijn Zen 4-cores significant meer ipc zullen leveren dan de komende Milan-processors, maar het is nog onbekend hoe groot deze verbetering wordt.

EPYC 7002 Rome EPYC 7003 Milan EPYC 7004 Genoa
Architectuur 7nm Zen 2 7nm Zen 3 5nm Zen 4
Socket SP3 (LGA4094) SP3 (LGA4094) SP5 (LGA-6096)
Modules/chiplets 8x CCD + 1x I/0 8x CCD + 1x I/0 12x CCD + 1x I/O
Cores 64 cores /128 threads 64 cores /128 threads 96 cores /192 threads
Kloksnelheid 3,9GHz 4,1GHz ?
Geheugen 8-kanaals DDR4-3200 ECC 8-kanaals DDR4-3200 ECC 12-kanaals DDR5-5200 ECC
PCIe lanes 128x Gen4 128x Gen4 128 Gen5
Tdp 280W 280W 320W

Door Joris Jansen

Redacteur

01-03-2021 • 08:14

78 Linkedin

Reacties (78)

Wijzig sortering
Lekker bezig daar mij AMD! Dan vraag ik me af of die twaalf geheugenkanalen ook naar de Threadripper komen. Dat wordt uitdaging voor de moederbordbakkers om die twaalf DIMM-sloten kwijt te kunnen.

edit: typo

[Reactie gewijzigd door hooibergje op 1 maart 2021 09:02]

Threadripper heeft er nu ook "maar" 4 channels, terwijl Epyc er 8 heeft. Logischer wijze wordan dat dan 6 channels voor de Zen4 threadripper?
Er zijn ook genoeg Mobo's met maar 8 DIMMs voor Epyc, niet ieder channel moet er 2 hebben.

[Reactie gewijzigd door smoerijf op 1 maart 2021 09:14]

Threadripper pro heeft wel de volle 8 channels overigens.
Tot voor kort was dat echter een Lenovo exclusive.
Gewoon een serverboard gebruiken dan toch? Maar het is wel krankzinnig hoeveel power AMD in de servercpu's krijgt. De consumentenmarkt is waarschijnlijk belangrijk, maar op de servermarkt zal veel meer geld te verdienen zijn.
De dikke Ryzens voor de consumentenmarkt hebben anders ook schrikbarend veel kracht aan bord. Het is de laatste paar jaar hard op CPU gebied, nadat de vaart er even uit leek te zijn.
Ja en nee, deze dikke chips zijn al geruime tijd geschikbaar maar AMD lijkt moeilijk genoeg CPU's te leveren en als consument komt je er dan ook niet aan. Frappant genoeg Lenovo lijkt een aparte overeenkomst te hebben met AMD dus wil je graag zo'n dikke Ryzen, dien je een Lenovo te kopen.

Verder is het ook geen geheim dat hoewel deze beschikbaar zijn dat consumenten specifiek er weinig baat bij hebben aangezien maar consumenten software weinig met zoveel cores kan doen. Ik vraag me persoonlijk af hoe dit soort CPU's zich gedragen met zwaar excel werk, ik heb op dit moment een Intel met 12 cores en die heeft het toch wel vaak zwaar.
Het zijn zeker krachtige chips als je kijkt naar de ruwe performance.
Tuurlijk hebben we nu een aantal zaken die wat mooie verbeteringen gaan bieden.

Maar ik vrees dat het na ZEN4 weer af zou kunnen nemen. Applicaties worden ontworpen met een aantal cores in het achterhoofd.

De verspreiding van gebruikers ligt nu hoger dan ooit. Van 2 cores bij een i3 tot 16 cores bij een AMD 5950x.
Als dit verder wordt opgerekt weten software makers straks niet meer waarvoor ze moeten programmeren (in elk geval de meest gangbare massa)

Maar het steeds maar oprekken van het aantal cores zal dus niet leiden tot steeds betere prestaties.

(Voor servers is dit uiteraard een ander verhaal)
Sorry hoor, maar men programmeert niet voor ‘een bepaald’ aantal cores... das echt je reinste onzin. Sommige zaken zijn eenvoudig te paralleliseren, sommigen niet. Tegenwoordig wordt er steeds meer geparalleliseerd, vaak dmv zogeheten threadpools waar je ‘taken’ op kan laten draaien. Zo kan je dynamisch gebruik maken van alle threads/cores op een CPU.
Een applicatie kan ook simpelweg kijken hoeveel cores er zijn en zich daarna schalen. Dat gebeurd al een hele tijd. Dat je met een dual core straks zo goed als geen prestaties overhoudt is niet geen probleem, die CPU is toch niet geschikt voor die software dan.

En moderne software draait gewoon multi threaded. Dat kan op 1 core, maar ook op 100. Op 1 gaat het alleen een stuk trager. Dat werkt al jaren zo. Dat veel spellen bv op 1 thread draaien komt omdat synchroniseren ook cpu tijd kost en meer werk is om te bouwen. Dat loonde eerste niet dus engines zijn er niet geschikt voor. Tegenwoordig is dat anders :)

[Reactie gewijzigd door Tadango op 1 maart 2021 13:19]

Mwuah is een beetje kort door de bocht. De eerste quadcore die een fors marktaandeel kreeg was de Q6600 in 2007. Daarna kregen we een jaar later de i7 920 in 2008 en in 2009 de i7 8xx series.
Allemaal 4 cores 8 threads.

We hebben dus al ruim 10 jaar tussen de 4 en 8 threads ter beschikking (Amd 6 cores 6 threads met de phenom2 X6)

Ik begrijp zelf niet meer waarom duo cores nog verkocht worden. Die zijn inderdaad niet geschikt meer voor moderne software en weinig kernen snel clocken is ook ver van efficient/ energie zuinig.

Daarnaast is een quad-core voor AMD inmiddels een afval product met bijbehorende lage prijs. Omdat ze eigenlijk alleen maar 8-core chiplets produceren waarvan er meestal 6 of 8 actief zijn.
Vergeet ook niet de socket BGA/LGA 2011 HEDT platform niet.
Met deze, ook tien jaar geleden, dat Intel deze CPU's met 6 of meer cores kregen. Intel heeft lang op 4 cores 8 threads kunnen zitten. (plus erbij, ook dat RAM overclock inbegrepen was.)
Klopt maar was naar mijn mening niet heel populair itt. de 1366 socket.
Kwam waarschijnlijk omdat de prestatie verschillen met een 1156 socket 2600k niet heel groot waren.
Maar het qua kosten een stuk duurder was vanwege die dure moederborden.

Ook had je minimaal een CPU nodig van ruim 500 euro om daadwerkelijk meer snelheid/cores te krijgen.
Terwijl de I7 920/930 destijds gewoon ruim beter was dan de core2 chips op LGA775 en ook DDR3 geheugen ondersteunde. Iets wat met de mainstream borden pas een jaar later op gang kwam.
Applicaties worden nooit op cores gebouwd, maar op threads. En een enkele core kan prima meerdere threads verstouwen. Het probleem ontstaat als een thread een enkele core volledig vol kan duwen. Dan heb je geen ruimte meer en zal een andere thread dus drukken op de verwerking daarvan.

Kortom, tenzij je applicatie threads kan opknippen of de informatie kan samenvoegen in een later stadium, is de single core prestatie de 'limiterende factor'. In games zie je dat nog steeds geregeld terug. Die ene dikke thread die een enkele core tot 80-100% kan belasten, terwijl de rest misschien op 5-15% loopt. In veel gevallen moet het werk uit die thread opeenvolgend (sequentieel) worden uitgevoerd en de informatie kan ook nodig zijn om de rest van de logica te voeden.

Nu core counts omhoog gaan is het dus veel minder snel zo dat je meerdere zware threads op die ene core moet laten lopen. Daarmee blijft het systeem responsief en kun je dus meerdere zware taken over je cores verdelen. Teveel cores bieden daarom ook geen meerwaarde, maar te weinig is pijnlijk.

De applicatie zelf is echter steeds bepalend voor 'hoe goed het schaalt' over meerdere cores. Niet alles is op te knippen en niet alle informatie kan op elk moment geproduceerd worden zonder dat het andere berekeningen tegenhoudt.

[Reactie gewijzigd door Vayra op 1 maart 2021 09:59]

Het idee om applicaties op basis van threads te bouwen is ook niet zo vanzelfsprekend meer. Juist voor dit soort aantallen cores is het zinniger om in je applicatie thread-pools te maken. Je dumpt een taak gewoon in de threadpool om uitgevoerd te worden, en de threadpool selecteert dan een vrije thread om die taak uit te voeren. Geen vrije thread, maar wel een vrije core? Dan maakt de threadpool een nieuwe thread voor je aan.

Het praktische gevolg is dat CPU's met veel cores dikkere threadpools kunnen hebben. Maar inderdaad, een applicatie die niet genoeg taken voor de threadpool heeft, zal ook te weinig threads hebben om alle cores bezig te houden. Threadpools maken thread management simpeler, maar het opsplitsen van je applicatie in taken blijft bestaan.
Absoluut. Ik heb geprobeerd om de post zo neutraal mogelijk te schrijven, zodat ie in de basis overal op past. Maar idd, dit evolueert natuurlijk en specialiseert op basis van wat de vraag is.
Anoniem: 84766
@MSalters1 maart 2021 16:42
In runtimes als .Net heb je al een ThreadPool tot je beschikking voor je AppContext. Bij Java zal dit ongetwijfeld ook zo zijn.

Ontwikkel je voor macOS of iOS, etc, dan is het gebruikelijk om taken op een Operation Queue te gooien en dan wordt het gescheduled in de 'threadpool' op OS niveau via Grand Central Dispatch, welke in 2009 Mac OS 10.6 Snow Leopard werd geïntroduceerd.

Grand Central Dispatch is overigens open source onder de noemer libdispatch en werkt ook op Linux. Hoeveel het hier gebruikt wordt, weet ik niet.
Applicaties worden nooit op cores gebouwd, maar op threads.
Waar ik werk doen we bijna uitsluitend aan core isolation. Elk process of thread wordt aan 1 core toegekend. Daarnaast gebruiken we zelden meerdere threads, maar preferen meerdere processes. Dit alles om performance en vooral latency zo goed mogelijk te kunen tunen en waarborgen. Het gaat hier overigens wel linux server applicaties.
Performance en latency, en dat werk je met meerdere processen? GDT switches zijn niet gratis. En met de Spectre security fixes gaat het alleen maar langzamer worden.
De verspreiding van gebruikers ligt nu hoger dan ooit. Van 2 cores bij een i3 tot 16 cores bij een AMD 5950x. Als dit verder wordt opgerekt weten software makers straks niet meer waarvoor ze moeten programmeren (in elk geval de meest gangbare massa)
Dit is een goede observatie en ook een goede ontwikkeling. Laat softwareontwikkelaars maar schaalbaardere en meer gespecialiseerde software schrijven voor specifieke doeleinden. Dan kunnen mensen hun hardware zo lang gebruiken als ze zelf willen in plaats van gedwongen te worden nog prima werkende systemen de deur uit te doen, omdat de software veel hogere vereisten heeft.

Ik heb hier nog systemen staan uit 2005-2010 en voor bepaalde doeleinden doen die het nog prima, dus ik zie geen reden om ze de deur uit te doen. Meestal staan ze wel uit, want het heeft geen zin om ze niets te laten doen. Voor 24/7 gebruik heb ik een ARM SBC en mobiele apparaten die slechts een paar euro aan stroom kosten per jaar.
Dit is geen zinnig plan. Het kost extra in softwareontwikkeling en het kost extra in stroom, en wat is je winst? Je kan oudere hardware over 1 of 2 jaar langer afschrijven? Hoe is dat rendabel?

Vergeet niet, ook een dual-core CPU uit 2005 kan 16 threads aan. Het is niet echt efficient, maar dat is die CPU toch al niet. Een ARM SBC uit 2021 is duidelijk efficienter.
Misschien had ik mijn reactie moeten nuanceren, omdat het er nu op lijkt alsof ik het draaiend houden van oudere hardware in het algemeen aanbeveel. Maar dat is eigenlijk niet wat ik bedoel. Ik heb die oudere machines vooral om besturingssystemen te ontwikkelen, te testen en te draaien voor heel beperkte zaken.

Zo draait mijn Windows 10 (naast OpenBSD) op een desktop van 2008 met een dual-core CPU en 8 GB geheugen en die heb ik slechts een paar keer per jaar gedurende enkele uren nodig. Moet ik daarvoor dan nieuwe hardware gaan aanschaffen, terwijl die nauwelijks gebruikt wordt?

Voor bedrijven ligt dat natuurlijk heel anders en daar vallen de aanschafkosten in het niet bij de extra rekencapaciteit die je met een moderne 16/32/64-core CPU krijgt. Daarom ben ik ook een voorstander van het afschaffen van de lagere SKU's met 2-4 cores voor nieuwere CPU's. Misschien valt daar ook een use case voor te verzinnen, maar die zie ik niet zo snel.

Als primaire machines heb ik laptops uit 2016 met 4-core Intel CPU's en 32 GB geheugen, omdat ik ook wel begrijp dat moderne software draaien op oude en inefficiënte hardware niet echt zinnig is voor de meeste computergebruikers en -ontwikkelaars.

Op termijn zie ik mezelf wel overstappen op laptops met 16-core CPU's en een navenant gegroeide hoeveelheid geheugen. Maar dan nog zal ik de oudere laptops niet de deur uit doen, omdat ze het nog prima doen voor specifieke doeleinden. Anders blijf ik prima werkende hardware de deur uit doen en dat lijkt me toch ook niet de bedoeling.
Je stelde voor dat softwareontwikkelaars extra moeite moeten gaan doen voor oude hardware. Serieus, voor een platform wat jij maar een paar keer gebruikt?! Dan hebben we het dus over incidenteel gebruik door een kleine groep. Dat kan financieel nooit uit.

Kijk, een moderne quadcore Pentium is prima voor email en webbrowsen; dat lukt ook nog wel op een quadcore ARM SBC. Die SKU hoef je niet af te schaffen. Lang niet iedereen heeft moderne software nodig, hooguit een adblocker.
Ik stel voor om op een andere manier software te schrijven, zodat je niet zo zwaar leunt op de CPU, maar meer gebruik maakt van zuinige accelerators zoals GPU's, NPU's en TPU's. Bovendien zijn Windows, Linux en macOS ook allemaal steeds zwaarder geworden zonder grote meerwaarde.

Het kan lonen om een veel lichter besturingssysteem te ontwikkelen en te gebruiken, dat wel goed bruikbaar is op een 2 GHz dualcore processor en daarnaast ook goed gebruik kan maken van 64 cores op 3-4 GHz.

Misschien is dat een andere manier van kijken naar een systeem en verwacht ik teveel van mensen die zich softwareontwikkelaars noemen. Maar ik probeer voor mijn eigen software ervoor te zorgen dat het zowel op een ARM SBC draait als op een erg krachtige ARM of x86 processor met veel cores.

Ik ben ook niet dol op oude stroomverslindende hardware, maar dat zie ik meer als een probleem van x86 in het algemeen. Het stroomverbruik is bij moderne x86 desktop CPU's niet significant lager, we spreken nog steeds over 65W en meer.

Dus ik zie er de meerwaarde niet van in om daarvoor nieuwe hardware aan te schaffen, zeker niet voor thuisgebruik.
Anoniem: 84766
@psychicist1 maart 2021 16:47
Het kan lonen om een veel lichter besturingssysteem te ontwikkelen en te gebruiken, dat wel goed bruikbaar is op een 2 GHz dualcore processor en daarnaast ook goed gebruik kan maken van 64 cores op 3-4 GHz.
Die besturingssystemen zijn er al. Neem Ubuntu Server bijvoorbeeld of Google Container Optimized OS en zo zijn er nog veel meer smaken die geschikt zijn voor specifieke toepassingen.
Ja, dat wordt 'm niet.

Een licht OS voor een simpele dual-core heeft niet de complexe schedulers die je nodig hebt om gemengde workloads van meerdere multi-threaded processen goed te mappen naar een groot aantal cores die mogelijk over verschillende CPU's verdeeld zijn, of anders verdeeld over meerdere AMD CCX'en, of anders over hyperthreaded cores.

En suggesties dat je zomaar voor de GPU kunt schrijven? Een GPU kan SIMD taken efficient uitvoeren, maar is gillend inefficient in code waar dat niet speelt. Parsing bijvoorbeeld is een complete ramp als je dat op een GPU zou willen doen.
Op deze manier heb je geen 2 sockets meer nodig in server. Dat gaat dus makkelijk passen.
12 CCD's op 1 CPU. Had eigenlijk verwacht dat ze met ZEN 4 over zouden stappen op 12 cores per CCD ipv de huidige 8. Zullen ze waarschijnlijk nog even niet doen wegens de yields icm het nieuwe 5NM proces.
mjaa, is een keuze. Voor servers of high-end PC gebruikers klinkt dat logisch.
Voor mainstream lijkt 6-core nu de standaard. Zeker bij AMD (3600 en 5600x)
Als je een 12-core chiplet voor de helft moet deactiveren lijkt me dat niet bijster efficiënt.

Dan is de flexibiliteit van de 8-core chiplet waarschijnlijk economisch de betere keuze.
Denk dat we ervan uit kunnen gaan dat deze discussie heeft plaatsgevonden in de boardroom en bij de engineers
12 kanalen zal hoogstens op de Threadripper Pro komen.
Dat verschil zie je nu ook: Ryzen is 2 kanalen, Threadripper is 4, Threadripper Pro is 8.
96 cores /192 threads, uit 1 chip. B)

Server density gaat echt flink omhoog zo; minder servers nodig.
Anoniem: 162126
@Jism1 maart 2021 08:39
Op zich leuk, maar dan krijg je van die datacenters die half leeg moeten blijven omdat ze niet genoeg stroom kunnen leveren per rack. Of zou dat geen issue meer zijn.
Vooral een issue hoe ze die hitte ook weggepompt krijgen als zo'n rack vol staat te stoken.
Een DC heeft in dit geval constante airconditioning. En de warmte wordt echtwel afgevoerd. Bij een 320W CPU kan je in principe wegkomen met gewoon luchtkoeling want serverfans kennen geen geluidslimiet. Dat mag zo hard mogelijk draaien en een extreme airflow door zo'n chassis van een server heen.

Het kan ook beter: waterkoeling. En er zijn servers ook plug & play wat betreft waterkoeling. 320W voor een CPU is in servers echt niks.
Ons serverhok met acht racks heeft een hip groene-stropdas-systeem met koeldeuren wat redelijk werkt, maar niet geweldig. Er is geen airconditioning bij. Door die deuren stroomt water en die voeren de warmte af, maar in de afgelopen twee jaar is er al vier keer een thermal shutdown geweest, waardoor langs runs van gebruikers die soms al meerdere maanden gedraaid hadden stuk gingen. Warmte is een serieus issue...
dan duw je ze in project nantic waar je ze in een met speciaal gas gevult container op de bodem van de ocean zet :)

of je dompled ze allemaal gewoon onder in water , kun j emeteen douchen als je in de buurt van het DC woont :)
Doet me denken aan aan die compu op La Palma, die post processing deed voor de Dutch Open Telescope. Dat bleek goedkoper dan de enorme berg data naar Nederland te pompen.

Als die computer 's nachts koelde, stoorde de warme lucht de nachttelescopen, en overdag hadden de zonnetelescopen er last van. De warmte werd daarom overdag en 's nachts opgevangen in een ondergronds bassin water. In de schemering, als zowel de zonne- als de nachttelescopen niks konden doen, werd als een idioot dat bassin gekoeld. 8-)
Ja, die issues hebben wij nu ook. 2U servers met 1000watt+ berekend piek (rekening houden met x2 want stroomgroep moet kunnen uitvallen zonder dat daarna meteen de anderen ook gaan ;) ) en dan heb je snel een tekort groepen / capaciteit.
Aan de andere kant: we kunnen nog steeds een veelvoud aan rekencapaciteit kwijt dan wat met intel mogelijk is.
Ook al blijft het rack half leeg dan ben je nog steeds beter af omdat deze servers nog steeds veel meer performance per Watt leveren. Wij zijn van dual socket Intel socket naar single socket AMD aan het gaan en we hebben meer performance en minder stroom gebruik.
Rack ruimte is al tijden niet meer het probleem/kosten post. Je koopt vooral het recht op het gebruik van stroom/koeling in een datacentre niet zozeer de plek die je in beslag neemt.

Overigens zijn de modellen die hier worden aangegeven de "top" modellen.
Niet de meest energie efficiente. Je hebt ook 200/220W
Dat is al een probleem. Wij (hoster in NL) gebruiken SuperMicro en Dell servers met Dual Epyc 64C en 1TB RAM.

We kunnen 11 servers in 1 rack hangen waarna het verbruik op zo'n 26A van de 32A zit in het rack.

Met switches er bij gebruiken we dan ongeveer 15U in een rack terwijl het rack 47U hoog is.

Ach, geeft lekker veel ruimte om fijn te bekabelen.
Je koopt serverspace in en een belangrijke factor is stroomverbruik. Waar je nu 5 servers voor nodig had kan je nu alles in 1 machine stoppen zoals die 96 core / 192 thread Epyc. Je krijgt dus een brok space terug en hebt veel minder stroomverbruik. Zegening van AMD. Intel heeft te lang liggen slapen, totaal niet innovatief geweest de afgelopen jaren.
Dat is wel degelijk nog steeds een echt issue. Rack density is enorm toegenomen.

Ik heb dat al bij een aatal klanten gezien met een on-prem DC. Die enorme investering van 20-30 jaar geleden staat nu meestal meer dan half leeg. Niet alleen is de ruimte niet meer nodig, ook is het gewoon onmogelijk alles vol te stouwen omwille van power en cooling reqs.
Ook heeft virtualisatei er toe bijgedragen dat er minder hardware nodig is , en dat deze nu ook effectief gebruikt wordt. * the_stickie herinnert zich 2U servers stacken als file and print :D
En de chip zelf wordt weer een stuk groter las ik gisteren (ik dacht op Hardware.info).

Nog even en de chip is bijna net zo groot als een mini-ITX moederbord :P
5nm....waar is Intel blijven hangen?
De nanometer marketing zegt niet alles. Intels 10nm lijkt veel op de 7nm van tsmc echter met een veeeel hogere transistordichtheid. Juist dat laatste is erg belangrijk. Maar het is nu wel duidelijk dat tsmc en Samsung ver voor liggen op wat Intel produceert. De geruchten liggen wel dat Intel de lat weer hoog gaat leggen met hun 7nm techniek. Die dan qua dichtheid vergelijkbaar is met de vermoedelijke 3 of 4nm procédé van tsmc. Maar goed, intel krijgt het nu nog steeds niet voor elkaar om 10nm fatsoenlijk te kunnen produceren dus ik verwacht vrij weinig nog van ze de komende jaren
Tabel voor 2021 van Scotten Jones ( artikel), waarbij EN staat voor 'TSMC equivalente node':

https://semiwiki.com/wp-c.../02/Slide3-1-1024x576.jpg

Hoezo heeft Intel 10nm een veel hogere dichtheid dan TSMC 7nm?

Dat zou alleen gelden voor het gefaalde en nooit serieus op de markt gebrachte Intel 10nm Cannon Lake vs TSMC N7 DUV.

Echter, als je Intel 10nm Ice Lake (44nm MPP) vergelijkt met TSMC N7+ (EUV, 36nm MPP) heeft TSMC de hogere dichtheid:
...but in 2018 TSMC’s 7+ process (half node) and in 2019 Samsung’s 6nm (half node) processes passed Intel 10nm density.
https://semiwiki.com/semi...ung-are-not-passing-tsmc/

Duidelijk is ook, dat Samsung 5nm een veel lagere dichtheid heeft dan TSMC 5nn, dus er is 1 leider en Samsung en Intel volgen.
ZEN 4, wat een beest !
Pachtige CPU! En ik woon in Genua dus ik MOET hem wel kopen :-)
Moet je wel een matchende bankrekening hebben vrees ik.
Slechts 10 mille er tegenaan gooien en je bent klaar!

De prijzen van Milan liggen volgens de geruchten tussen de 2500 en 8500 dollar. Deze chip zal niet goedkoper worden dus het topmodel zal wel richting de 9-10k gaan. Nog los van het specialistische moederbord, het ecc geheugen, de casing en de stroomrekening.
Dus als ik goed tel, heb je om hier Windows VM's op te mogen draaien 6x meer licenties nodig dan op een 16-core CPU (als je geen datacenter licenties neemt)
Maar je kan er wss ook 6x zoveel kwijt (of meer)
Dat is zeer afhankelijk van je workload., het is zeker geen gegeven dat zulke zaken altijd lineair of beter schalen. Bij sommige workloads zal dat absoluur wel het geval zijn, terwijl bij andere workloads je eerder tegen (andere) limieten aanloopt, waarvoor de schaling per core niet zo gunstig is.
Of je Datacenter licenties neemt of niet maakt niet uit. Zowel Standaard als Datacenter tik je per fysieke core af met een minimale afname van 16 cores per server. Zie ook deze PDF: https://download.microsof...nsing_datasheet_EN_US.pdf
Zou mooi zijn, dat betekent 24C/48T voor AM4 Zen4 desktops. Dus met 50% extra multi-treading mogelijken.

Hopelijk snel Zen5 met SMT3, dus 24C/60T. Met de 5nm density libraries (de + iteratie) kan dan het powerbudget en de clockspeed gehandhaafd blijven en nogmaals 25% extra multi treading mogelijkheden worden toevoegd. En dan komt 3nm, met waarschijnlijk 32C/96T, CCD_16.

[Reactie gewijzigd door Bulkzooi op 1 maart 2021 09:36]

Ik zie nergens dat het aantal threads omhoog gaat.
Het wordt 96C/192T wat nog steeds 2 threads per core is.
Aangezien het hogere aantal alleen wordt bereikt door meer chiplets te plaatsen verwacht ik basis hiervan geen additionele cores of threads op de Desktop.

Uiteraard kan het zijn dat ze ook van max 2 naar 3 of 4 chiplets gaan op de reguliere desktop maar dat verwacht ik nog niet. Zowel de kosten als het max stroomverbruik zal daarvoor namelijk flink omhoog moeten gaan.
Hij doelt op de limiet van 16/32 die voor desktops van toepassing is (een enkele cluster).
Wat bedoel je precies met 'enkele cluster', Zen 2 en Zen 3 voor desktop maken, afhankelijk van de Sku gebruik van 1 of 2 CCD's van 6 of 8 core's per CCD, die weer onderverdeeld zijn clusters van 3 of 4 cores (CCX) bij Zen 2 en 6 tot 8 cores bij Zen 3, dit in combinatie met een I/O die (dezelfde die die ook als X570 chipset ingezet wordt).
ergens ging ik er echter ook al van uit dat SMT3 in de Zen4 terecht ging komen, blijkbaar niet dan...
Je had graag gezien om meer dan 2 threads per core te wensen, zoals in een sparc?
SPARC had dacht ik SMT4. Ikzelf zie meer heil in SMT1.5.

Het punt van SMT is dat je fysieke cores soms een thread moeten laten wachten op data die uit main memory moet komen. Dan kan het handig zijn om even te switchen naar een andere thread. Dit kost energie (vermogen) maar kan de throughput wel iets verhogen. Alleen, hoe vaak heeft de CPU tijd voor die tweede thread? Met moderne caches staat de CPU niet vaak te wachten op main memory.

Het idee achter mijn "SMT1.5" is dat je 2 CPU cores samen 3 threads laat uitvoeren. De derde thread kan dan runnen als één van de 2 cores staat te wachten op main memory.
Heb ook sparcs met SMT8 , hier nog een T5120 liggen met 8 threads per core
Ik heb ook een T5220, maar er nog niet iets mee gedaan. Dat wordt waarschijnlijk een project voor in de zomer. De prijzen voor machines met SPARC T3 en T4 liggen nog een stuk hoger dan het bedrag waarvoor ik deze een paar jaar geleden heb aangeschaft.
Heb mijne voor 20,-
Soms kom je die gekke deals tegen.
Een T4 staat nog om me wanted list, maar inderdaad erg duur
Dat is inderdaad wel erg goedkoop. Voor die van mij heb ik indertijd iets van €225 inclusief verzendingskosten betaald. Het lijkt me leuk om met zoveel (wimpy) threads aan de slag te gaan om te zien hoe die zich verhouden ten opzichte van moderne.
Dat is natuurlijk geen zekerheid, immers gaat het maximale aantal chiplets omhoog (van 8 naar 12) volgens deze geruchten en niet het aantal cores per chiplet, dit blijft in deze gelijk met 8 cores per chiplet.

De geruchten dat Zen 4 voor desktop mogelijk juist naar 20 of 24 cores zouden gaan waren er nu juist op gebaseerd dat het aantal cores per chiplet bij Zen 4 naar 10 of 12 zou gaan terwijl het aantal chiplets gelijk zo blijven.

Niets in deze geruchten bevestigd iets voor Zen 4 desktop, het is zelfs mogelijk dat dit betekent dat de desktop Sku's op 16 cores blijven zitten mocht AMD daar vast houden aan 2 CCD's en 1 I/o die.
320W TDP (max. 400W) hoe gaat dat gekoeld worden? Is zoiets nog doenbaar in een 1U rack server?
Ach, je hebt ook meer dan genoeg 1U servers met twee 150W TDP CPU's er in, ik zou zeggen dat een enkele 320W TDP CPU met voldoende formaat koelblok eenvoudig genoeg gekoeld zou moeten kunnen worden.
In een datacenter is er sprake van constante koeling; airconditioning maar ook gewoon waterkoeling wat op een centraal systeem aangesloten kan worden. En je hebt geen geluidsniveau zoals in een normale PC.

https://www.youtube.com/w...omNmZxI&ab_channel=jg1683

Bedoel hoor maar eens hoeveel herrie een server produceren kan B)
ik kan nergens terug vinden wat de verwachte introductie datum is van de nieuwe Threadripper generatie.
ene kant hoor ik dat dit afgelopen januari zou zijn geweest en nu verwacht ik of mei of november maar nergens vind ik duidelijke informatie over product life cycle.
Daar is nog niets over bekend, de Zen 3 Epyc's zullen eerst komen (Milan) en daarna ligt er in de verwachting dat er ook nieuwe Threadrippers zullen komen, verder dan de geruchten molen gaat informatie hierover nog niet. Ik zou ze dus nog niet 1-2-3 verwachten.

Laatste bekende gerucht: nieuws: Gerucht: Volgende AMD Threadripper-generatie krijgt cpu met zestien c...

Dat AMD deze maand nog Zen 2 Threadripper Pro gaat lanceren voor consumenten ( nieuws: AMD brengt Threadripper PRO-cpu's in maart uit voor consumenten ) geeft mij ook niet heel veer vertrouwen dat we Zen 3 Threadrippers op zeer korte termijn (bijv. Q1 2021) nog hoeven te verwachten, Q2 lijkt het vroegste moment te zijn, maar later zou me ook echt niet verbazen.

[Reactie gewijzigd door Dennism op 1 maart 2021 12:11]

daar zeg je wat. ik was in de gedachte dat ze eerst met de server cpu zouden komen en daarna met de nieuwe Threadripper. wat ik niet verwacht had is dat ze met de Pro threadrippers zouden komen die ze vorige maand introduceerde. is het effect daarvan dan dat ze die andere cpu's vertragen in hun release.

nu zit ik 3 maanden te wachten op de 5900x en dan vraag ik me af of ik niet beter nog een paar maanden kan wachten op de nieuwe Threadrippers. ik doel dan Q3 of Q4 2021. argument zou dan zijn nieuw platform met DDR5 etc.
De nu komende Epyc's van de Milan generatie en de Threadrippers gebaseerd op die generatie die later dit jaar normaliter uitkomen zullen nog gewoon DDR4 hebben.

De Epyc's waar dit artikel overgaat zullen gezien de product cycle van AMD of zijn vroegst Q1 of Q2 2022 zijn qua release aan 'het grote publiek', Threadrippers met DDR5 zou ik zeker niet verwachten voor Q2 2022 (en ik denk zelfs niet voor Q3/Q4 2022).
pff, zou willen dat AMD een roadmap had. vraag is ga je nu over of wacht je nog even.huidige systeem doet veel nog goed maar ook enkele dingen echt niet. systeem is 5 jaar oud.
PCIe 5.0? DDR5? Lijkt er op dat ik heel de 4e generatie ga overslaan met dit tempo.

Op dit item kan niet meer gereageerd worden.

Kies score Let op: Beoordeel reacties objectief. De kwaliteit van de argumentatie is leidend voor de beoordeling van een reactie, niet of een mening overeenkomt met die van jou.

Een uitgebreider overzicht van de werking van het moderatiesysteem vind je in de Moderatie FAQ.

Rapporteer misbruik van moderaties in Frontpagemoderatie.




Google Pixel 7 Sony WH-1000XM5 Apple iPhone 14 Samsung Galaxy Watch5, 44mm Sonic Frontiers Samsung Galaxy Z Fold4 Insta360 X3 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee