Gerucht: Intel Sapphire Rapids-serverprocessors komen begin 2023 uit

Intels Sapphire Rapids-server-cpu's komen mogelijk begin volgend jaar uit. Dat claimt techwebsite Igor's Lab, dat toegang heeft verkregen tot interne NDA-Sights-documenten van de chipmaker. De processors zouden tussen week 6 en 9 van 2023 uitkomen.

Intel is daarmee van plan om Sapphire Rapids tussen 6 februari en 3 maart 2023 uit te brengen, schrijft Igor Wallossek van Igor's Lab, dat in het verleden vaker vroegtijdig correcte informatie over onuitgebrachte hardware heeft gedeeld. Volgens Wallossek blijkt dit uit informatie uit NDA-Sights-documenten van Intel. Intel verzamelt daarin problemen en errors met nieuwe processors.

Inmiddels zouden er meer dan 500 entries omtrent Sapphire Rapids zijn, claimt de website. Er zouden inmiddels ook al twaalf steppings, een soort revisies, van de komende server-cpu's zijn. Een release was eind 2021 al gepland en is nu dus opnieuw uitgesteld, naar begin volgend jaar. Intel zou dit jaar nog wel een aantal 'kleine' Sapphire Rapids-cpu's, voor servers met maximaal twee sockets, leveren aan 'een beperkt aantal klanten'.

Vorige week ging Intel tijdens de bekendmaking van zijn kwartaalcijfers al in op een uitstel van Sapphire Rapids. Het bedrijf trof een beveiligingsprobleem aan dat in de hardware verholpen moest worden. Daardoor moest het de chip reviseren. Het bedrijf bevestigde toen al dat dit invloed had op het begin van de massaproductie. Intel zei tijdens de kwartaalcijfers zelf dat de eerste serverchips nog op de roadmap staan voor later dit jaar, maar sprak toen ook al over een grootschaligere release in 2023.

Sapphire Rapids is Intels volgende generatie Xeon-cpu's. Hiermee stapt het bedrijf voor het eerst over op tiles, een soort chiplets. Het bedrijf voorziet iedere tile van 15 cores, voor een totaal van maximaal 60. Die worden onderling met elkaar verbonden via emib, een soort kleine bruggetjes van silicium die worden gebruikt als interconnect. De cpu's worden gemaakt op het Intel 7-procedé, dat voorheen bekendstond als '10nm Enhanced Superfin'. AMD's komende Epyc-cpu's, met de codenaam Genoa, komen later dit jaar uit en krijgen maximaal 96 cores op TSMC's N5-node.

Intel Sapphire Rapids

Door Daan van Monsjou

Nieuwsredacteur

01-08-2022 • 15:13

28

Reacties (28)

28
28
9
1
0
15
Wijzig sortering
> AMD's komende Epyc-cpu's, met de codenaam Genoa, komen later dit jaar uit en krijgen maximaal 96 cores op TSMC's N5-node.

> Het bedrijf [Intel] voorziet iedere tile van 15 cores, voor een totaal van maximaal 60. [...] De cpu's worden gemaakt op het Intel 7-procedé

> "Data Center Leadership with Sapphire Rapids"

Tegen de tijd dat dit ding verschijnt hebben we Epyc Genoa dus al. Rare definitie van leadership houden ze er op na
Ik heb het in andere artikelen wel eens vaker benoemd, maar aantal cores of pure performance is niet de enige factor om voor merk A of B te gaan. AMD heeft z'n reputatie niet meezitten en dat zorgt er vooralsnog voor dat Intel het grootste gedeelte van de Enterprise markt in handen heeft. Disclaimer; ik heb zelf nog geen ervaring met Epycs gehad, maar het lijkt erop dat AMD nu toch eindelijk goede stappen maakt richting stabiliteit.

Dat is ook wel anders geweest met de Opteron lijn. Die waren op Linux dusdanig onstabiel met de meest gestroomlijnde workloads en waren bijna niet in te zetten voor bedrijfskritische applicaties als databases. Natuurlijk is mijn eigen ervaring n=1, maar als ik iedereen om mij heen hoor dan heeft op een enkeling na dezelfde ervaring. Ik heb zelf diverse servers op verschillende workloads, uitgerold met dezelfde IaC gedraaid waarbij de Opterons constant rare problemen gaven terwijl de Xeons dat niet deden.

Epyc kan dan goed zijn, maar na jarenlange tegenvallende performance en vooral stabiliteit gaat het AMD nog jaren duren voordat ze het vertrouwen terug krijgen. Dat gezegd hebbende hoop ik dat het vertrouwen gauw terugkomt. Ik, als hardwareliefhebber (en toch ook vanuit vroeger stiekem toch een beetje AMD fan) en omdat concurrentie gewoon goed is voor de ontwikkeling van techniek én prijzen zou het mooi vinden om beide gewoon weer in te kunnen zetten.
Dat is omdat voor mision critical je niet de nieuwste maar bewezen hardware kiest en je in die branch daarom al niet op nieuwkomer stapt. Ten 1st omdat je software stack al niet gecertificeerd of geoptimaliseerd of ontwikkeld is voor dat platform en dat geld ook voor risico vollen next gen intel waar ze hun handen ook niet aan willen branden.
Ondertussen zijnze mogelijk al 2 a 4 jaar verder eer ze op deze gen overstappen als uitgebreid certificering en lab omgeving zich bewezen hebben en onder tussen al nextgen of twee al zijn.
Bijvoorbeeld de netwerken en server clusters van banken.
Maar ja andere vak gebieden zoals supercomputers waar men zelf de software stack ontwikkeld is platform dat met grote stappen voor loopt dan is overstap op Epyc een optie. En die barrierre hebben vele al genomen gezien daar wel eens voor Epyc super computer gekozen wordt. Naast custom request en samen werking in die compute gebieden waar enorme caches enorm kunnen helpen en dus AMD Epyc met 1GB cache kunnen leveren aan klanten die software stack aanpassen om 1gb data block met zware shared data compute load op los te laten.
En opzich heeft AMD geen last van deze concervatieve mindset in de verschillende server branches omdat hun capaciteit niet groot geboeg is om agressief markt aandeel in te nemen en dat ook reden is om niet op Epyc over te stappen ivm leverings problemen. Waar intel met hun capaciteit goede leverings track record heeft in de server markt.
De 1e generatie Zen-architectuur is inmiddels 5.5 jaar uit. Hun marktaandeel in servers is explosief toegenomen en de top van de krachtigste supercomputers draait op AMD. Hoezo niet bewezen?
Dat van die supercomputer dat weet ik nog zoniet vele HPC's hebben icc en gcc gecompileerde toolchains van de basis softwarestack juist omdat de intel compiler en de speciale instructies betere code kunnen genereren en/of omdat ze die al heel lang gebruiken en wetenschappers niet eventjes 1000'en uren gaan besteden in het porten van oude/ontweesde code die zeker initieel wellicht minder goed zal presteren (vb fortran mbv ifort).
Jaren om terug te komen? Ze sluiten de ene na de andere "supercomputer" deal af. Medunkt. Epyc heeft zich dikwijls allang al bewezen.
Het marktaandeel van Intel liegt er niet om. Volgens mij heb je mijn comment niet helemaal gelezen. Reputatie is een raar iets en op dit moment plukt Intel daar de vruchten nog van. Niemand in mijn (brede) netwerk denkt er op dit moment over na om een server met AMD te kopen. Intel is in veel gevallen nog steeds een nobrainer. Of dat terecht is valt te betwijfelen, maar het is hoe de wereld er nu uitziet. Overigens is je vergelijking met "supercomputers" natuurlijk ook geen vergelijking.
Tegen de tijd dat dit ding verschijnt hebben we Epyc Genoa dus al. Rare definitie van leadership houden ze er op na
Intel is nog steeds de leider wat betreft server CPU's met een marktaandeel van 78.28%.....
Het is maar wat je als leiderschap ziet...
Volgens mij is dat wel rap dalende.
Nee hoor. AMD lijkt er bewust voor te kiezen om geen marktaandeel te willen afsnoepen van Intel en Nvidia.
Dat klinkt alsof ze tiles van 16 cores maken, en de yield vergroten door mogelijk één stukke core uit te zetten, net zoals dat ging met de tricores van AMD.
Ik vraag mij af hoeveel nut multi-socket servers nog hebben versus kopen van server met één socket. Je hebt dan ook een stuk minder NUMA hoofdbrekens bij bijvoorbeeld VMs :)
Het hangt vooral af van je doel.

Sommige servers hebben meerdere sockets om bijvoorbeeld de hoeveelheid RAM te vergroten (elke CPU kan tenslotte maar een bepaalde hoeveelheid RAM)
Dit kan natuurlijk ook voor het aantal cpu-cores in een systeem gelden.

Of je hebt behoefde aan cpu-redundantie in het systeem zelf (als een cpu uit valt, maar het moederbord functioneert nog dan blijft de server gewoon doorgaan met werken. zo heb ik in een ziekenhuis gewerkt waarbij dit in bepaalde servers een vereiste was.
Zelfs in scenario's waarin een VM die in een failover cluster zou kunnen draaien waren minder gewenst.
Iets wat ik mij bijvoorbeeld ook kan indenken voor andere apparatuur als vliegtuigen, kerncentrales etc...
(deze gebruiken misschien geen intel, maar ik heb het hier ook puur over multi-socket servers/computers)

Tevens kan je er ook voor kiezen om bij de aanvang van je server een goedkopere configuratie te nemen die aan je eisen voldoet, maar er rekening mee te houden dat de behoefden in je bedrijf kunnen groeien. zo kan je in een lader stadium een extra cpu (+ram) laten bijplaatsen zonder direct je gehele server te hoeven vervangen.

Er zijn daarnaast nog meer redenen te bedenken waarom je een multi-docket server/computer nodig hebt.
Maar in het standaard bedrijfsleven zou ik inderdaad indien dit binnen de gewenste specificaties en toekomstverwachtingen valt altijd een enkele socket kiezen.
De werkelijkheid met CPU redundantie is: Als 1 van de 2 CPU's niet goed functioneert, dan is het gewoon over en uit met de server. VMware moet je per socket licenseren. Je kunt wel 2 socket servers kopen, heb je er weinig nodig maar dat levert weer andere uitdagingen op (bij HCI bijvoorbeeld de storage en capaciteit op je geheugen). Elke omgeving is anders natuurlijk...
Ik heb hier zelf nog een ouder beestje, met 8 cpu’s waarbij je cpu echt redunantie heeft. Je kan hem er fysiek uit trekken tijdens het draaien.
Pcie en ram geheugen is ook hotswap
Bedoel je dan niet PCI-X (64-bit PCI) en geen PCI-E ?
Ik ben duidelijk benieuwd naar dat beestje: Sparc/Power/Itanium ... :D ?
Sparc, heb hele collectie aan oude sun/oracle gear.
Niet echt handig met huidige energie prijzen
Het wordt pas spannend als je systemen hebt met meer dan 8 cpu sockets.
Dan heb je dus te maken met switch borden die de data bussen tussen de verschillende procesoren route naar het desbetreffende blade,rack of board.
Vaak kun je dan een fysiek systeem met bijvoorbeeld 32 sockets opsplitsen in meerdere systemen met 4 sockets, doordat die switchborden je cpu’s electrisch van elkaar kunnen isoleren.
Ik verwacht dat met de komst van processoren op basis van chiplets dat NUMA nog steeds voor hoofdbrekens gaat zorgen. Bij AMD Epyc is elke chiplet zijn eigen NUMA node en mijn verwachting is dat Intel ook elke chiplet een NUMA node gaat maken. Uit mn hoofd gezegd heeft Intel al Xeons met meerdere NUMA nodes per processor omdat de processors met meer dan 28 cores feitelijk twee cpus op een socket zijn en elke cpu zijn eigen NUMA node is.

Ander punt waarom bedrijven multi socket servers kopen ipv single socket, hoeveelheid beschikbare pci lanes die elke cpu toevoegt, hoge core count met hoge cpu clock cpus zijn in het algemeen zeer prijzig, terwijl twee cpus met minder cores met dezelfde of hogere clocksnelheid een complexer systeem zijn maar onderaan de streep goedkoper kan zijn dan een systeem met een enkele highend cpu.
Het nut is denk ik node en rack compute density. Naast koeling en airco capaciteit voor aantal full racks in server ruimte of hal. Die racks kunnen ook aardig diep zijn en 1U kan flinke plaat zijn waar de diepte stuk groter is dan 19” breedte met rits aan high-power fans die jankende extreme airflow produceren.
Multi socket servers hebben zeker nut op zich is Epyc intern al numa via infinite fabric connect en memory controllers verdeeld zijn over chiplets. Dus intel tile zal mogelijk nu ook numa op cpu niveau zijn. En dus moet de software stack voor deze cpu al numa aware en geoptimaliseerd en is multi socket dan ook probleem niet.
Tenzij net als apple silicon het niet serial bus protocol is zoals infinite fabric connect waar de afstand tussen chiplets groter kunnen zijn.
Dan flinke parallele bus interconnect tussen die zoals Apple silicon. En de cpu de tiles als 1 geheel kunnen zien zo ook de memory controllers op elke die.
Gezien in server multi socket heel gangbaar is is numa aware inter node al zeer gangbaar. In die branches kom je niet slecht multithreaded ontwikkelde software taken tenzij het probleem niet geoptimaliseerd kan worden door algoritme dat data sharing gemeden kan worden of compute dependicies. En die branches vallen dus op AMD custom zeer zware big cache Epyc.
Voor VM's maakt het juist weinig uit. Als je 2x15 cores verdeelt over 14 VM's, dan heb je gewoon 7 VM's per socket. Dat gaat met NUMA goed.

Je hebt vooral NUMA issues als álle cores geheugen willen delen, als een enkel programma al die 30 cores wil gebruiken.

In de informatica noemen we het eerste soort "embarrasingly parallel". Daar is multi-core zo simpel dat je het niet de moeite waard is om er diepgravende analyses op te doen.
Ik weet niet of het aan mij ligt, maar de naamgeving moet mij heel erg aan AMD denken vanuit het verleden. De ATI Sapphire videokaarten om zomaar even te zeggen.

vraagje aan de mede-tweaker met juridische achtergrond:
mag Intel deze naamgeving wel gebruiken als AMD bezwaar maakt, het lijkt me dat ze door de overname van ATI ook eigenaar geworden zijn van het intellectueel eigendom en de naamgevingen die hieraan verbonden zijn.
Nu zijn videokaarten en processors niet hetzelfde, en wordt de naam door AMD al lang niet meer gebruikt.
Maar mocht AMD bezwaar maken, hebben ze een kans van slagen? (het zijn tenslotte beiden technologische producten die erg dicht bij elkaar liggen.)

edit: typo

[Reactie gewijzigd door JBVisual op 23 juli 2024 22:42]

ATI Sapphire heeft nooit bestaan. Volgens mij doel je op partner Sapphire die ATI AMD videokaarten uitbracht uitbrengt?

Edit: ze bestaan nog steeds.

[Reactie gewijzigd door s3. op 23 juli 2024 22:42]

Is eigenlijk gewoon een codenaam voor de architectuur 'voor eigen gebruik', voor u en ik is het eigenlijk gewoon een Intel Xeon XXX.

[Reactie gewijzigd door Fantasma op 23 juli 2024 22:42]

Codenamen zijn zelden geregistreerd als handelsmerk. Dus dan zijn ze niet beschermd.

Op dit item kan niet meer gereageerd worden.