Door Tomas Hochstenbach

Redacteur

Intel Meteor Lake Preview

Alles over de aankomende laptop-cpu's

20-09-2023 • 13:40

33

Singlepage-opmaak

Xeon met 288 E-cores en roadmap voor de toekomst

Naast alle informatie over Meteor Lake had Intel nog meer nieuwe producten en demonstraties in petto tijdens zijn Innovation-evenement. Sommige daarvan komen waarschijnlijk pas over twee jaar uit.

Xeon-processor met 288 cores

Een van de meest tot de verbeelding sprekende aankondigingen was een Xeon-cpu met maar liefst 288 cores. De catch? Het gaat om E-cores, die vanzelfsprekend langzamer zijn dan reguliere P-cores en ook geen hyperthreading ondersteunen. Onder de codenaam Sierra Forest komt deze processor samen uit met het eerder aangekondigde model met 144 E-cores. Net als Meteor Lake bestaat de chip uit tiles: twee compute-tiles en twee i/o-tiles op een base-tile. De compute-tiles worden geproduceerd op Intel 3, een nog nieuwer productieprocedé dan Meteor Lake en ze meten 578 mm² per stuk. Per tile is er 108MB L3-cache en een zeskanaals DDR5-geheugencontroller aanwezig.

De processors kunnen gecombineerd worden in een dual-socket-server voor een totaal van 576 cores, en ondersteunen zowel PCI-Express 5.0 als CXL. De Xeon-chip komt in de eerste helft van volgend jaar op de markt en zal voornamelijk moeten concurreren met AMD's processors met compacte Zen-cores, zoals de Epyc Bergamo-serie met Zen 4c. Zen 4c is technisch echter veel beter vergelijkbaar met de reguliere Zen 4-cores, en ondersteunt bijvoorbeeld wel smt.

Intels 288-core processor met de codenaam Sierra Forest. Beeld: Tom's Hardware
Intels 288-core processor met de codenaam Sierra Forest. Beeld: Tom's Hardware

Demonstraties van Arrow Lake en Lunar Lake

Intel-ceo Pat Gelsinger is niet vies van kijkjes in de toekomst. Hij nam bijvoorbeeld een Intel 20A-wafer mee met prototypes van de Arrow Lake-processors, die Meteor Lake in 2024 moeten opvolgen en óók weer voor desktops moeten verschijnen. Onverwachter was dat Gelsinger ook een werkende Lunar Lake-processor demonstreerde, die pas in 2025 wordt verwacht en op het nog nieuwere 18A-procedé wordt gebakken. Dat is dus vier processen nieuwer dan Intel 7, dat voor processors die nu in de winkel liggen, wordt toegepast. De demonstratie omvatte het tonen van de mogelijkheden van de npu in een tool vergelijkbaar met Stable Diffusion. Taken als het genereren van een plaatje en tekst zouden volgens Intel lokaal draaien met vergelijkbare responstijden als losse AI-accelerators of clouddiensten bieden.

Demonstratie van een Intel Arrow Lake-processor. Beeld: ComputerBase
Demonstratie van een Intel Arrow Lake-processor. Beeld: ComputerBase

Blik op de toekomst

Toen Gelsinger het roer overnam bij Intel, kondigde hij het ambitieuze plan aan om Intels kwakkelende foundryafdeling vijf nieuwe productieprocessen in vier jaar te laten introduceren. Intel 7 was daarvan de eerste, terwijl ook Intel 4 bij de introductie van Meteor Lake afgevinkt kan worden. Tussen nu en 2025 wil Intel nog drie andere processen in gebruik nemen. Intel 3 gebruikt meer euv dan Intel 4, terwijl 20A de veel grotere stap van finfets naar gaafets omvat. In de tweede helft van 2024 moet zelfs het 18A-proces rijp zijn voor productie, waarvoor ASML's nieuwste High-NA-euv-machines nodig zijn. Producten op basis daarvan komen op z'n vroegst in het jaar daarna beschikbaar.

Intel roadmap

Intels roadmap op productiegebied leidt in feite naar het terugpakken van het leiderschap op dit vlak van TSMC. Dat is weliswaar het leiderschap dat Intel jarenlang gehad heeft, maar het vereist een dosis optimisme om er klakkeloos vanuit te gaan dat het Intel gaat lukken om deze roadmap daadwerkelijk uit te voeren. Het trackrecord op dit vlak was de afgelopen jaren immers niet best, met het annuleren van Meteor Lake voor de desktop als recentste teleurstelling.

Toch houdt Intel daar voorlopig strak aan vast, en tijdens Innovation meldde het zelfs dat er ook voor ten minste drie nodes ná 18A al aan plannen wordt gewerkt. Intel lijkt dus vastberaden om die leiderschapspositie niet opnieuw af te geven, maar we moeten eerst maar eens gaan zien of het Intel werkelijk gaat lukken om 'm in handen te krijgen.

Lees meer

Reacties (33)

33
33
13
0
0
8
Wijzig sortering
Jaren lang doet Intel het best slecht op servermarkt.
Of beter gezegd, AMD doet het heel goed met Ryzen / Epyc en maakt praktisch gehakt van de Intels.
Ik ben benieuwd of Intel met deze generatie een beetje tegengas kan geven.
Ik vind de vergelijking met AMD Bergamo (128 cores) een beetje flauw, want AMD werkt hard aan de opvolger: Epyc Turin op basis van Zen 5 met 256 cores / 512 threads.
Ik denk dat Bergamo best concurrerend kan zijn met 288 E-kernen. 128 Zen 4C-kernen is namelijk al 256 threads en een Zen 4C heeft veel meer rekeneenheden dan een E-kern, voldoende om die 2e thread aan het rekenen te houden.
@Tomas Hochstenbach

De 144 core is sierra forrest en wordt verwacht in H1 2024, de dual tile versie heeft geen effectieve release date, alleen is geweten dat er een core upgrade is in 2025. Het bestaande model waar jij naar refereert is gewoon niet bestaande, enkel in Intel marketing slides.....

Daarentegen is Bergamo 128core met Zen4c nu al effectief beschikbaar en is de verwachting dat de Sierra forest eerder tegenover Turin 5c zal staan met 192 -256 core + HT.

En intel node 3 is de eerste echte node aanpassing, node4 waar ML op staat is een tussenin oplossing met EUV van de node 7. De intel node 3 is eigenlijk diegene die vergeleken wordt met TSMC node 3e.

de vraag zal vooral zijn hoeveel cores wil je binnen een TDP en hoeveel GHZ blijft er nog over per core om nog toegevoegde waarde te zijn rekening houdende met beperkte IO/MEM.

Lijkt mij wederom een mooie marketing show van Intel, eerst zien wat ze kunnen leveren tegen begin 2024.... want er staat weer mooi 1H2024.

[Reactie gewijzigd door d3x op 22 juli 2024 16:48]

Ah, ik had even gemist dat de 144-core weliswaar al begin 2022 (!) is aangekondigd, maar nog altijd niet uit is. Fixed!
Ik vind het ergens wel geestig dat Intel de bandbreedte van zo'n interconnect uitdrukt in gigabytes per seconden.

Een GIGABYTE is zo gigantisch veel data dat wij mensen daar amper wat bij kunnen voorstellen. Uiteraard kunnen we het relateren aan bepaalde bestandsgroottes maar hoeveel BITS het daadwerkelijk zijn is onvoorstelbaar.

En een SECONDE is in de wereld van een mens heel voorstelbaar juist, maar slaat in de wereld van een CPU weer nergens op. Een seconde in CPU tijd is een eeuwigheid, werkelijk. Een CPU met 4Ghz clockspeed draait dus 4 miljard clockcycles in 1 seconde. Als je even redeneert naar eenheden waar mensen wat mee kunnen, bijvoorbeeld 1 cycle per seconde, dan zouden 4 miljard cycles 126 JAAR duren. Zo kort is 1 clockcycle bij 4Ghz.

Ergo: eigenlijk zou megabytes per milliseconde of zelfs per nanoseconde veel logischer zijn maar dat bekt natuurlijk in de marketing niet zo lekker als GIGABYTES PER SECOND ;)
Het is nou eenmaal de aard van de techniek dat de aantallen erg groot zijn. Een voor mensen simpel taakje/ding, vergt enorm veel tikken of bits.
Daar hebben ze die prefixes zoals Giga voor verzonnen. Dan kan je dat vaak tegen elkaar wegstrepen, bijv 10GB op 1GB/s duurt 10s, wel zo overzichtelijk.

Dat iets voor een CPU een eeuwigheid zou zijn, komt vlgs mij vooral van de mens die miljarden onvoorstelbaar veel vindt, en dat vervolgens projecteert op de CPU.
Maar de CPU heeft geen mening over wat kort/lang of weinig/veel is.
Hij voert gewoon zijn todolijstje uit, elke kloktik weer een voor mensen minuscuul stapje van het grotere geheel.

Mss bedoel je dat we ons meer zouden moeten richten op die minuscule stapjes.
Maar die stapjes betekenen dan weer weinig voor de mens. Die is meer geinteresseerd in hoe snel deze taak, die mss wel uit n paar miljard stapjes bestaat, klaar is.

Wil je die miljarden voor mensen te overzien maken door milli-/nanoseconde te gebruiken, dan zit je weer met tijden die voor mensen niks betekenen.
Die eeuw is puur hersengymnastiek; een CPU tikt niet 1x per seconde, er is niks hieromtrent dat in werkelijkheid een eeuw duurt. Oplossing is gewoon niet zulke dingen te verzinnen.
GB/s is een industrieel gangbare term. Alle engineers drukken datasnelheid uit in data per seconde. Het zou voor mij vreselijk raar lezen zijn als bedrijven datasnelheden opeens in MB/µs zouden plaatsen. Door overal een seconde aan te houden is vergelijken makkelijk. Waarom iets complexer maken als nu alles gelijk getrokken is?
Je kan gewoon een thuisnetwerkje aanleggen voor niet zo heel veel geld met 1+GB/s effectief. Datacenterbackbones zitten hier al lang ver boven. En dan hebben we het dus over afstanden van vele meters, in tegenstelling tot micrometers.

Een cache in een CPU zit al lang aan of over de honderden GBps.
Tegelijkertijd gebruiken ze ook picojoule per bit om het stroomverbruik lekker laag te laten klinken.
Nou dat noem ik nu een cputje :P
Terugkeer van de northbridge en southbridge? Nostalgie :P
Op werk gebruik ik nog weleens de generative AI/Expand, en zelfs op een 32-core threadripper kan het soms een minuutje duren. Net lang genoeg om je workflow te onderbreken.

Maar ja, einde van de wereld is het dan ook weer niet.
Ik hoop werkelijk dat die cores ook naar een CPU toe komen die daadwerkelijk hoog klokt. 6 tot 8 GHz single core performance met een sh*tload aan cache er bij en 4 threads beschikbaar. Meer heb ik niet nodig.

Als gebruiker van Civil 3D / Revit stel ik dit, want die programma's werken nog steeds voornamelijk single core/single thread. Verbetering zal niet snel komen vrees ik.
ik heb zelf ook meer behoefte aan singe thread/core prestaties maar hoog clocken hoeft voor mij niet perse zolang er maar zoveel mogelijk IPC is ben ik al tevreden dus uit interesse waarom specifiek clock speed?
Uiteraard is de IPC de grootste hierin, maar traditioneel komt er per generatie ook een hogere IPC bij hogere kloksnelheid.
Als deze CPU op -zeg- 1800MHz een huidige Xeon omver blaast op single core performance, hoor je mij uiteraard ook niet klagen ;)
dankjewel nu begrijp ik je beter

weet dat het onrealistisch is maar hoop zelf op een 30% of zo bump in singlecore IPC
Over 20 jaar zit dit aan compute in je horloge / hersenchip @ 2 watt verbruik.
Of, hopelijk, gewoon in je mobiel :+

En flink grote micro-SSDs erbij met vergelijkbaar verbruik.
Of, hopelijk, gewoon in je mobiel :+

En flink grote micro-SSDs erbij met vergelijkbaar verbruik.
Dan zullen de nieuwe generatie develepors apps in elkaar fietsen die hardware zal benutten tot de max. Waardoor je gevoelsmatig niet sneller / anders is als anno nu. Ik ben bang dat dat niet perse sneller worden... Echter zullen wij meer "out-of-box* meer kunnen doen met 1 stukje hardware....
Ja het is toch wel al beter geworden

Vroeger moest je echt kijken voor elke byte te beware in een databank, dit is al minder belangrijk geworden. Nuja op zeer grote databases is elke byte nog altijd van belang. Maar voor een kleine app is dit al een pak minder cruciaal omdat je niet meer met disks zit van 250megabyte of 1gb of zelfs nog floppies etc

De cpu's worden sterker en verbruiken minder, de programmeer omgevingen worden ook wel wat zwaarder, zeker bepaalde libraries, maar voor de gemiddelde app maakt dat niet zoveel meer uit dat het sneller kan. Dat is misschien alleen nog bij het laden. Bij games is dit helemaal anders, maar met een recente cpu is de cpu meestal niet meer de bottleneck buiten bijvoorbeeld bij bepaalde sims.

Deze stelling was vroeger zeker waar, maar ik vind dat elke cpu generatie dit toch een pak minder waar is
Tja het zal, maar vroeger gebruikte mijn CPU 5 Watt, misschien wel continue, maar da's nog altijd beter dan een TDP van 125W terwijl hij in ruste misschien 10W verstookt. Videokaarten idem.

Een beetje software-update is zo 50 MB, als je al niet een bundel van programma + drivers + ondersteunende libs gepushed krijgt van 500 MB, plus eventuele graphics-packages van de nodige gigabytes. Tuurlijk, we hebben het, maar van mij hoeft het niet.
TDP Xeon 288-core: Borssele :+
in een server met 4 sockets incl. gratis meltdown :+
Dachten ze net van Meltdown en Specter af te zijn, komt 1 van de 2 weer terug :+
Portable kernreactoren worden gegarandeerd een categorie in de Pricewatch in de toekomst. 8-)
dat zal denk ik nog wel even duren, zelfs met een gewone huisaansluiting heb je al gauw 3x25A...is toch al 18.000 watt.
vloeibare stikstofkoeler lijkt me belangrijker om dat ongelimiteerde stroomverbruik met bijbehorende warmte ik wacht dus eerder tot die in de pricewatch staan.

lijkt me wel wat, van die laaghangede mist die uit je pc kast stroomt terwijl die even hard bezig is :)
Het is natuurlijk als grap bedoeld, maar ik zie wel degelijk praktische problemen ontstaan in de stroomaanvoer: Een groep in een woonhuis is gezekerd op 16A, dus 3680VA. Daarop zijn meerdere vertrekken aangesloten, dus bijvoorbeeld een slaapkamer, plus de badkamer en een deel van de zolder op één 16A is heel gewoon. Je denkt er in de regel niet over na.

Het verbruik van een computer zit evenwel in de lift en dan kan een piekverbruik van 1000W zomaar opeens een probleem gaan vormen in de nabije toekomst.
Het verbruik van een computer zit evenwel in de lift en dan kan een piekverbruik van 1000W zomaar opeens een probleem gaan vormen in de nabije toekomst.
Nu al ? Maar ik zit nog op AMD Bulldozer of Piledriver. En dan valt 1 van de belangrijkste redenen om te upgraden voor mij dus weg. Want ik heb bijna altijd genoeg performance uit dit wrak.
Tja, als je voor max-specs gaat dan kun je nu de kilowatt halen ja, maar voor een capabel desktopje met mid-range spul zou je op nog niet de helft aan theoretisch verbruik (en 200 W effectief tenzij je gaat cryptominen) moeten uitkomen. Oh, en vooral: veel minder zo lang je zit te browsen.
mijn goedkoop gebouwde, maar duur gehuurde, appartement heeft 1 groep voor de keuken en woonkamer...een kopje thee zetten terwijl een 13900 met 4090 vol aan de bak is gaat dan dus niet.

...helaas een keertje ontdekt tijdens het stofzuigen.

het voordeel is wel dat ik een stuk zuiniger systeem zal moeten hebben zolang ik hier woon ;)

[Reactie gewijzigd door meathome op 22 juli 2024 16:48]

Mooi voor gaming die 288 cores! Ik kijk uit naar de benchmarks met CP2077 etc..
Zolang games anno 2023 niet fatsoenlijk / volledig met multicore (2-4cores max) om kunnen gaan laat staan 288 cores heb je niks aan....
Met 288 E cores die waarschijnlijk ook nog eens ontzettend laag geklokt zijn om de TDP niet te idioot te laten worden? Denk dat je met een 4770K ongeveer dezelfde ervaring krijgt.

Op dit item kan niet meer gereageerd worden.