Intel geeft details Intel 4-chipprocedé en toont afbeelding Meteor Lake

Volgens Intel maakt zijn komende Intel 4-chipprocedé 21,5 procent hogere kloksnelheden bij processors mogelijk, bij gelijkblijvende tdp's. Intel 4 is de eerste chipnode van het bedrijf waarbij Intel euv-chipmachines inzet. Intel toonde een dieshot van een Meteor Lake-chip.

Intel 4 maakt 21,5 procent hogere kloksnelheden bij gelijkblijvende tdp, een 40 procent lager verbruik bij gelijke kloksnelheden of een combinatie daarvan mogelijk, meldde Intel tijdens het IEEE VLSI Symposium 2022. Tom's Hardware schrijft over de presentatie. Intel vergelijkt Intel 4 daarbij bij de huidige chipnode van het bedrijf, Intel 7, die onder andere voor Alder Lake gebruikt wordt.

Intel 4 is het chipprocedé waar het bedrijf voorheen onder de noemer 7nm naar verwees, waarbij Intel 7 de 10nm-node was. Het bedrijf maakt uitgebreid gebruik van euv-chipmachines voor de productie en daardoor zijn minder tijdrovende processtappen en dure maskers voor de belichting vereist. Intel spreekt van 2x scaling wat betreft de high performance library, wat betekent dat het bedrijf bij Intel 4 twee keer zoveel transistors op een oppervlak als bij Intel 7 weet te plaatsen bij de chipstructuren voor hoge prestaties.

Intel 4 chipprocede 2022 IEEE VLSI SymposiumIntel 4 chipprocede 2022 IEEE VLSI SymposiumIntel 4 chipprocede 2022 IEEE VLSI SymposiumIntel 4 chipprocede 2022 IEEE VLSI Symposium

De eerste processorgeneratie op basis van Intel 4 wordt Meteor Lake. Deze moet in 2023 verschijnen. Intel onthulde dat het in het tweede kwartaal werkende processors heeft geproduceerd. Intel maakt bij Meteor Lake gebruik van de Foveros 3D-technologie voor packaging. Deze stelt het bedrijf in staat verschillende 'tegels' of chiplets op een interposer te plaatsen, verbonden via through silicon via-kanaaltjes. Het gaat daarbij om tegels voor compute, graphics, I/O en soc.

Intel toonde een dieshot van de compute-tegel, waarop te zien is dat Meteor Lake uit zes krachtige p-cores, met codenaam Redwood Cove, en twee clusters van elk vier zuinige e-cores, de Crestmont-cores, bestaat. Foveros 3D stelt Intel in staat de verschillende onderdelen op verschillende procedés te maken, of te laten maken. Het compute-deel maakt het bedrijf in ieder geval op de Intel 4-node.

Intel Meteor Lake 2022 IEEE VLSI SymposiumIntel Meteor Lake 2022 IEEE VLSI SymposiumIntel Meteor Lake 2022 IEEE VLSI SymposiumIntel Meteor Lake 2022 IEEE VLSI Symposium

Door Olaf van Miltenburg

Nieuwscoördinator

13-06-2022 • 08:12

71

Lees meer

Reacties (71)

71
71
68
6
0
3
Wijzig sortering
Intel toonde een dieshot van de compute-tegel, waarop te zien is dat Meteor Lake uit zes krachtige p-cores, met codenaam Redwood Cove, en twee zuinige e-cores, de Crestmont-cores, bestaat
Volgens mij klopt dat niet hoor.. Dat maakt de E-cores bijna zo groot als de P-cores in die size, wat helemaal niet het geval is. In het geval van Alder Lake cpu's zijn dat 2x 4 E-cores. En afgaande van deze dieshot lijkt me dat hier ook het geval. Dus een 6x P-cores + 8x E-cores. Dat is dezelfde setup zoals de huidige Alder Lake-P chip (mobile).
Dat 4 = 7nm, 7 = 10nm is echt zo'n flauw marketing truc.
Dat soort fouten zou je als groot bedrijf eigenlijk niet meer mogen maken.
dan wordt de rest ook ongeloofwaardig.
Is dan '21.5 %' ook opnieuw gedefinieerd als iets wat eigenlijk veel lager is?
De nm namen van fabricageprocessen zijn op het moment sowieso onzin. Het heeft weinig meer te maken met de minimale gate lengte die je in zo'n process kan maken (wat vroeger wel zo was). Je moet het lezen als "de transistoren (met minimale gate lengte) van dit proces performen vergelijkbaar met hypotetische traditionele planer MOSFETs met (een minimale gate lengte) gate lengte van <process node> nm". Het was al een marketing verhaal en had weinig meer te maken met de dimensies van de MOSFETs. Of je het dan Intel 4 of 7 nm noemt, maakt niet bijster veel uit. Misschien is N4 nog wel eerlijker/beter dan 7nm omdat je niet suggereert dat de minimale gate lengte van je MOSFETs 7 nm is.
Nee, dat is niet waar; het getal duidt wel degelijk op een fysieke maat voor MPP x CPP x tracks; bij een bepaalde verdeling van functies op een chip.

Intel heeft een standaard samenstelling bedacht om dichtheid te meten. Als je bij TSMC de dichtheid volgens die Intel benchmark uitzet tegen het node getal, is er een keurig kwadratisch verband.

Dus uit het TSMC node getal valt gewoon de fysieke dichtheid te berekenen.

TSMC was natuurlijk de standaard voor klanten die geen eigen fab hebben (Apple, NVidia, AMD, Qualcomm), en Intel wil daarmee concurreren. Dus logisch gezien heeft Intel dat verband overgenomen.

https://semiwiki.com/semi...intel/295767-intel-nodes/
Er is zeker wel een maat om processen te vergelijken, maar het punt is dat de oorspronkelijke definitie met de tijd veranderd is. Het betekende de lengte van het kanaal onder de gate. Nu is het iets anders geworden.
Correct, ik zag gisteren dat Intel maten heeft vrijgegeven:

https://semiwiki.com/semi...ntel-4-presented-at-vlsi/

En de maat die vroeger 'bepalend' was is zelfs iets toegenomen over de tijd.

TL;DR: Op de 'TSMC schaal' zit Intel 4 op 3,5.

Wat Intel vooral buitengewoon knap heeft gedaan, is het aantal benodigde vinnen verminderen. De transistoren zijn per stuk net ietsje groter dan bij TSMC N5, maar in de optimale manier waarop de Finfet transistoren gebruikt worden loopt Intel ver voor op TSMC. Ook qua het stuk met kobalt, hoe Intel dat heeft opgelost door een stuk koper 'in' het kobalt omhulsel te steken, lopen ze vziw voor op TSMC.
Wat is er flauw aan. Het is intel die zijn standaard naar beneden heeft aangepast omdat TSMC steeds verder ging afwijken van de standaard. Zo was 14nm Intel gelijk aan 10 nm TSMC en intel 10nm gelijk aan TSMC 7.

Intel heeft niets gedaan dan het speelveld gelijk trekken zodat TSMC geen oneerlijke valse marketing kon voeren.

Verder maakt het geen hol uit of een cpu of 1, 2, 7 of 40nm gefabriceerd is. Het gaan op de prestaties en het verbruik bij die prestaties en daar zijn ze vrijwel gelijk.
Laat me niet lachen. Als Intel 7 gelijk is aan TSMC 7nm, dan heeft AMD wel een gigantische voorsprong op architectuur als je naar performance per watt kijkt.
Procedé zegt helemaal niet zo vel over performance per watt. De chip architectuur speelt een grotere rol.

En dat TSMC en intel 7 (10nm) gelijk is aan dichtheid is al lang bewezen. Het is echter niet relevant. een Arm cputje op 7nm is ook vele malen trager als een x86 cpu. Heel ander design zelfde silicon maar wel super zuinig. Echter niet te vergelijken.
Blijkbaar veel intel fanboys onderweg hier die niet blij zijn dat AMD een 50% performance per watt voordeel heeft (en Apple zal wel rond de 100% zitten).
Je kunt in dit geval de Intel fanboy en AMD hater herkennen aan het aapje. Check z'n post history maar, staat-ie om bekend.

Hier is computerjunky's roze bril:

computerjunky in 'Intel geeft details Intel 4-chipprocedé en toont afbeelding Meteor Lake'

En hier heb je de uitgebreide context hoe 't werkelijk zit:

kidde in 'Intel geeft details Intel 4-chipprocedé en toont afbeelding Meteor Lake'

Bij vlagen lachwekkend, maar soms weet ik niet of ik er van moet lachen of huilen!
Het probleem is natuurlijk dat ie met die onzin een +2 krijgt. Het ging niet zozeer om hem maar om de 10 mensen die zijn onzin ook niet bijzonder goed vonden.
Klopt. Nou zal dat misschien nog wel gecorrigeerd worden (en die discussie hoort dan ook elders, zoals eigenlijk ook deze discussie). Punt is dat je dan een uiteindelijke score hebt, maar die doet er niet meer toe behalve de statistiek (de buehne), want het gros heeft z'n onzin al lang en breed gelezen omdat de meeste pageviews vlak na posten ontstaan. Je kunt propaganda, trollen, flamebait, ed. alleen bestrijden als je er niet alleen actief tegenop treed maar ook nog eens tijdig. En dat laatste zit er bij deze community helaas niet in.
Als ze kleiner zijn passen er toch meer op , dat scheelt toch weer productie kosten.
True, Intel heeft dan wel weer het geluk eigen fabs te gebruiken waardoor ze niet de winst van TSMC hoeven te spekken waardoor ze daar wat verlies kunnen pakken en toch dezelfde prijs kunnen vragen.
er worden echter wel degelijk Intel-chips bij TSMC gemaakt
Nog niet maar het staat in de planning. De vraag is echter of intel zijn designs zich zo makkelijk laten porten. Een fout die ze in het verleden gemaakt hebben is hun design af te stellen op hun in-huis procedé waardoor ze niet eens echt de mogelijkheid hadden om even snel een chip bij TSMC of Samsung te laten maken. Maar eind van het jaar begin volgend jaar gaan we zien wat er van komt.
Gezien de bedragen die bij dit soort contracten denk ik niet dat je er nog maar aan moet twijfelen dat die er effectief gaan komen. Als er in Q1 '23 al revenue verwacht wordt, zal er al wel ergens een zakje Intel branded chips gevuld zijn ;)
"even snel een chip laten" maken is in deze sector natuurlijk een proces dat makkelijk een jaar of langer duurt, om nog maar te zwijgen van ego's bij Intel en beschikbaarheid in de orderboeken van TSMC of Samsung. Het feit dat ze het nu wel kunnen/moeten wil zeggen dat ze hun trots hebben ingeslikt en geleerd hebben uit hun fouten.
Moderne transistoren zijn al 3-dimenstionaal. Dan is een 1-dimensionale (lengte)maat simpelweg niet meer geschikt om te beoordelen of een transistor kleiner is.

En omdat een transistor 3-dimensionaal is, en er ook nog verbindingen gemaakt worden, moet elke moderne chip in meedere stappen gemaakt worden. Zoals het artikel al zegt, niet al deze stappen hoeven EUV stappen te zijn. Maar een andere consequentie is dus ook dat je met meer stappen hogere kosten hebt. Dat kan zomaar de winst van een hogere dichtheid teniet doen.
Als je miljarden weg gooien bedoeld om uit te vinden hoe je niet 10nm chips moet maken gelijk speel veld noemt. En dat intel chips kunt gebruiken om te eieren te bakken want effecient zijn ze totaal niet. 40% betere efficiency van heel veel is nog steeds veel te veel. Ze lopen gewoon generaties achter Arm en AMD als het om efficiency gaat. En intel road maps moet je met een flinke korrel zout nemen zou best we eens 2025 kunnen worden met een paar +++ generaties
Wat voor puntje probeer je hier te scoren? Weet je hoeveel miljarden AMD heeft weggooit met bulldozer ?
En het feit dat jij weer met het idiote efficiënt\ie verhaal aan komt laat zien dat je totaal niet weet waar je over praat. De 12900k is in cinebench efficiënter als de 5950c en ook in idle is de 12900k efficiënter. over een dat met deels idle deels renderen en deels gamen zal een 129900k dus minder kosten om da draaien en even snel of sneller zijn en bij een paar taken die de 16 cores gebruiken sneller zijn.

Het lijkt er meer op dat jouw informatie enige generaties achterloopt of je doet gewoon aan selectiefve research. Dat er bij de 145 watt en bij de ander 245 watt piek staat betekend dat niet dat dat degene met een lager nummer efficiënter is. Maar je vergeet voor het gemak de helft van de data zoals hoe lang draait een cpu op die 1435 watt vs 245 watt. en hoeveel verbruikt een pc in idle en compenseert dat het dagverbruik.

Maar goed mensen als jij willen maar 1 deel van de feiten in zien en nemen dat als de hele waarheid.
intel 10nm gelijk aan TSMC 7
Volkomen onzin. Intel Cannon Lake had een MPP van 36nm, maar is nooit op de markt gekomen (behalve de excuus 8121 die geen hond wou kopen, en nooit buiten Azië verkrijgbaar was, in slechts een lullige 3 laptop modellen waarvan nooit iemand een in het wild gezien heeft).

TSMC N7+ (EUV) had een MPP van 36nm, Ice lake (DUV, SAQP) heeft 40/44nm. Dus nee die zijn niet gelijk. Sowieso was Ice Lake 1 gHz Lager geklokt dan Intel 14nm omdat de Line Edge Roughness van Ice Lake zo waardeloos is. Daarom konden er geen desktop CPU's op Intel 10nm gemaakt worden, terwijl TSMC N7 (DUV) mateloos populair werd op de desktop (AMD Zen). Dus een proces dat 100% ongeschikt is voor desktops vergelijkbaar noemen met een die miljoenen keren verkocht is, dat is sowieso al kolder.

Verder stelde Intel natuurlijl helemaal niet 'de standaard', dat deed TSMC. Intel 10nm had immers helemaal geen klanten,.allemaal weggelopen. Nokia Reefshark op 10nm gecancelled, Intel Cannon Lake mislukt, LG heeft haar hele smartphone SoC tak opgedoekt, Ericsson zwaar in de.problemem, Spreadtrum weggelopen en bijna failliet. Achronix terug naar TSMC, en Altera heeft Intel moeten overnemen om te voorkomen dat ze wegliepen, daarna heeft Intel FPGA alsnog van Xilinx verloren. Dus Intel heeft _al_ haar externe klanten verloren bij 10nm, en had daarna exact 0 externe klanten over.

Natuurlijk boeit het dan niemand wat Intels standaard is.

TSMC had een duidelijke standaard, waarbij de wortel van de de dichtheid gewoon netjes een lineair verband is met het node-getal. Duidelijk en simpel. Bij Intel klopte er al jaren niets meer van, want zoals uitgelegd had Ice Lake 10nm een 15% lagere dichtheid dan het mislukte 10nm Cannon Lake.

Scotten Jones heeft ervoor gelobbied om ervoor te zorgen dat Intel de lineaire standaard van de marktleider ging volgen, wat natuurlijk nodig was omdat Intel 0 klanten had. Een potentiële Intel klant wil vergelijken met TSMC en dat ging niet met Intels onzin-naamgeving met betrekking tot 10nm. Uiteindelijk is Intel overstag gegaan.

https://semiwiki.com/semi...intel/295767-intel-nodes/
Intel deed dat origine dan ook niet, en was juist heel conservatief in hun naamgeving van de nodes. maar doordat Samsung en TSMC het steeds meer wel als marketing tool gingen gebruiken moet Intel helaas haast wel meegaan. Ik had ook liever gezien dat Intel het niet zou doen en dat Samsung en TSMC er ook mee zouden stoppen, helaas gebeurt dat niet en zal je nu dus zien dat iedere foundry zeer waarschijnlijk de node naamgeving als marketingtool gaat inzetten.
Ben benieuwd wat ze het over 10 jaar gaan noemen. -5nm? Op een gegeven moment komt er in ieder geval een eind aan.
Intel volgt de markt gewoon. De andere fabs gooien ook maar cijfers met een "nm" suffix, ondanks dat het moeilijk naar die maat te herleiden valt. Intel dropt de nanometer-marketing dus.

Of roep je al jaren dat TSMC, Samsung en GloFlo flauwe marketing trucs gebruiken? Doe in dat geval dan lekker alsof ik dit niet zei.
Hoezo is het een marketingtruc?

Het getalletje staat dus blijkbaar los van de gebruikte technologie?
Dus eigenlijk is het niks anders dan dat Apple/Samsung/enz steeds een nummertje omhoog gaan. Je kan echt niet zeggen dat het 'versies' zijn, die elk een soort van revolutie op de vorige zijn. Het zijn op z'n best volgnummers.

Nou snap ik uiteraard wat je bedoeld, dat ze 'suggereren' dat het met de nanometers te maken heeft. Maar dan geldt wat mij betreft ook weer. Marketingtruc? Voor wie dan? De consument heeft geen benul wat een nanometer is, laat staan dat ze door hebben wat het potentieel met een processor te maken heeft.
De mensen die wel een benul hebben, weten één op één dat het getalletje van de productserie niets zegt over het aan nm in de chip.

Het is wezenlijk niks anders dan een 'xyz pro(ssional)'. Professioneel betekend (taalkundig) voor zakelijk/professioneel gebruik. (Dus wezenlijk dat dat iets of iemand z'n geld mee verdiend). Die term wordt ook te pas en te onpas misbruikt om aan te geven dat het 'iets beter(?)' is dan de andere variant.

Negen van de tien keer houdt iets dat zich verkoopt als 'professioneel' in, dat ze iets anders aan het compenseren zijn (ofwel dat het 'troep' is). Ik heb het hier dus nadrukkelijk niet over een 'iphone xyz pro, of samsung galaxy xyz pro (als die bestaat), maar over een 'gouden handschaar voor professioneel gebruik' voor €3,79 of een 'professionele kappersschaar' voor €4,49 (vraag maar aan je kapper wat hij/zij voor z'n/d'r schaar heeft betaald en hoe vaak die onderhouden wordt ;-) )

Ik zie dit soort termen ook echt meer als een 'woord'/'term', dan als iets dat daadwerkelijk iets over de technologie zegt.
Intel was lange tijd juist de enige partij waar nanometers wel wat aangaf. Omdat TSMC en Samsung er Quatsch van maakten moest Intel uiteindelijk wel mee.
Is dan '21.5 %' ook opnieuw gedefinieerd als iets wat eigenlijk veel lager is?
Ik zou dat ook met een korreltje zout nemen ja. Zelf weleens de power getallen van een oude high end GPU vergeleken met een even snelle moderne mid/low end GPU. En dan die verbetering vergelijken met de claims van tsmc hoeveel zuiniger de processen zijn geweest.

Dan zijn enige twee mogelijke conclusies dat of de gpu makers steeds slechtere ontwerpen hebben, of tsmc is heel creatief bij die claims.
Dat is goed nieuws. Ik zie veel liever dat er weer geconcurreerd wordt op performance per watt dan een steeds hogere clock met steeds meer energiegebruik en warmteontwikkeling.
Dat is natuurlijk heel erg afhankelijk van je toepassing. Voor een onderzoeksopdracht had ik de snelst mogelijke processor (single core snelheid) nodig en boeide het stroomverbruik en prijs me me weinig. Als thuisgebruiker wil ik juist een zuinige core, dus vergelijkbare performance als vorige model, maar dan met kleinere accu of gelijke accu en langere accuduur.

Voor beide markten is vraag.
Per taak gebruikt die 12900k dan weer hetzelfde als een 5950x omdat hij sneller klaar is maar mensen blijven maar vallen over de 180 watt vs 245 watt. Verder wordt wr niet gekeken. Power draw is niet echt relevant zonder ook te kijken naar hoeveel werk je verzet. Een baas zou iemand die 2x zo hard werkt ook een 2x zo hoog loon geven en onder de streep beter af zijn.
Per taak gebruikt die 12900k dan weer hetzelfde als een 5950x omdat hij sneller klaar is
Dat lijkt niet te kloppen met deze testresultaten. zie onder kopje Efficiëntie.

De 12900k is wel sneller, maar gebruikt buitenproportioneel meer energie dan de 5950x.
De 5950x is dus efficiënter in dat opzicht.

edit. @computerjunky Ik vergeet de tijd niet. Dat is precies de reden dat Tweakers dat stukje over efficiëntie in de test heeft opgenomen. In de Tweakers test is de 5950x efficiënter. Nou hangt dat natuurlijk weer af van wat je precies met je processor doet, maar globaal zeggen dat de Intel zuiniger is klopt ook niet :)

[Reactie gewijzigd door locke960 op 22 juli 2024 13:45]

Ik denk dat Tweakers daar PBO voor Ryzen niet heeft aangezet waardoor het efficiënter overkomt. In tegenstelling tot MCE aan de Intel kant wat vaak standaard wel aanstaat. Hierdoor gaat de Ryzen CPU maximaal 140W gebruiken en piekt de Intel alsnog richting 250W.

Zonder PBO levert de Ryzen niet zó heel veel performance in maar zoals met alle chips betekent het voornamelijk een veel lager verbruik.

In de comments achter je link zie je dat computerjunky óók de resultaten betwist en het zoals gewoonlijk niet eens is als Intel eens niet wint.
Als je de 12900k locked op 125 watt dan verliest hij maar iets van 5% prestaties maar krijg je heel andere verbruiks data die veel gunstigere prestatie per watt heeft.
Yadda yadda yadda.
Het is altijd "jamaar jamaar zij doen het zo en dat is fout en als je dit doet dan is Intel net goed en als je het anders berekent dan komt het beter uit".

Ja, waarom mag het dan niet gewoon allemaal zo getest worden? Waarom is het dan fout dat reviewers testen met een bepaalde geheugensnelheid of MCE uit? Wat is er mis met dat ze de stock cooler gebruiken als dat bij de concurrent ook zo is?
In één test komt de ene er net iets beter uit dan de andere, om en om. Dat is gewoon zo. Dat is gewoon ok. Concurrentie.

Het is echt áltijd wat met jou.
Je moet gewoon testen op de manier waarop een product gebruikt gaat worden. bij eerdere intel chips was dit met MCE aan (tegenwoordig niet meer omdat dat niet meer kan) en met minimaal 3200 cl15 geheugen omdat de rest gewoon significant trager is. dat is geen vreemde eis maar gewoon en realistische situate.
ik ken 4 mensen met een ryzen systeem en deze hebben aleemaal pbo aa staan voor de extra clocksnelheid en fps maar pbo off geeft een heel ander beeld. En intel heeft zijn standaard mode aangepast waardoor pbo aan vs de nieuwe test methode van intel realistischer is. als je pbo off test vs intel alleen aan krijg je een vertekenend beeld. zet de intel limiet aan en je ziet ineens heel wat anders. je moet gewoon een eerlijke vergelijking testen en dat gebeurt te vaak niet. Daar kan je proberen mij op aan te spreken maar het zijn de reviewers die er een klerezooi van meken en de fanboys die ermee aan de haal gaan.

eerlijk speelveld eerlijke test en alle data ipv de data die iemand het beste uitkomt dat maakt een goede review en die zijn zeer zeldzaam.
Nee je vergeet namelijk 1 belangrijke factor. De tijd die het kost om de taak te voltooien. Als je 30% meer gebruikt maar 30% sneller klaar ben is je netto stroomgebruik dus hetzelfde ondanks de lagere watt rating.

zo kan de 12900k 50% meer werk verzetten in de tijd dat een 5950x 19 cinebench runs voltooit (intel doet 13.8 runs in dezelfde tijd).
Als je dat omrekend gebruikt over de duur van de runs de 5950x 10 watt meer als de 12900k.
tijd die de cpu nodig heeft voor de taak is dus heel belangrijk als je echt verbruik wil meten.
Ja je schikt iets meer van 245 watt als 170 watt maar als je de tijd niet meerekent heb je de feiten niet op tafel.

https://www.pcworld.com/a...-a-power-hog-its-not.html

[Reactie gewijzigd door computerjunky op 22 juli 2024 13:45]

Ik zou de link maar volgen. De tabel in kwestie drukt de efficiency expliciet uit in Wh, Watt-uren.

Je mag zelfs niet het piekvermogen vermenigvuldigen met de tijd; je moet een integraal nemen. Het is namelijk niet zo dat de hele Cinebench test exact hetzelfde vermogen gebruikt.
Ja dat is een goede zaak - ook het focusen op core count zou wat minder mogen, grote aantallen inactieve cores zijn leuk voor de synthetische benchmarks, maar doen weinig voor real-life performance en zijn zonde van (duur) silicon en Watts.
Dat klopt natuurlijk niet geheel, het hangt immers volledig van de workload af of deze beter schaalt op bijv. clock frequentie of met (veel) meer cores. Voor gaming is inderdaad vaak lager aantal, maar hoog geklokte cores hetgeen je wil hebben, echter voor (zakelijke) productivity workloads is dat vaak anders, en heb je liever (veel) meer, maar lager geklokte cores.

Daarnaast is juist vaak de klok frequentie een stroomvreter die ook nog eens niet linear schaalt, en hoe hoger je gaat qua boost, hoe slechter de perf per watt normaliter wordt omdat hoe hoger de frequentie wordt, des te slechter de perf / watt ccaling normaliter is.

Cpu's met veel cores en gematigde clocks hebben over het algemeen een veel betere performance per watt dan cpu's met weinig cores, maar boost frequenties van 5+Ghz, juist die laatste paar extra Mhz boost is vaak erg 'duur' qua verbruik.
Dit helemaal. Zie bvb 64 cores EPYC met een TDP van 280W (waarbij die 280W ook het absolute maximum is).
Een 12900KS scoort ~29000 in cinebench R23 aan ~250W. 116 punt/Watt
2x Epyc 7763 (128 cores totaal, 2x 280W max) scoort 113566. Geen verbruikscijfers gegeven, vermoedelijk onder de 560W. Echter, zelfs aan 560W zou dat 202 punt/Watt zijn. Aan 500W is het 227punt/Watt.

Dus ja: meer tragere cores is efficiënter.
Hier heb je het alleen over zwaar geparalleliseerde server-like workloads. Als je het hebt over clients, vrijwel niemand staat continu zware video encoding of grote hoeveelheden multi-user SQL queries te doen, ze doen web browsing, email, Word, Excel, Powerpoint, etc. Op zulke systemen heb je veel meer aan de single-threaded responsiveness die minder-maar-snellere cores bieden.

De huidige markt trend is (helaas) dat server-workload-optimized chips in client devices worden geduwd, mede gedreven door de marketing rond synthetische benchmarks. Als je kijkt naar de real-world responsiveness van een 2016 Skylake systeem of een 2022 Alder Lake systeem, dan is er nauwelijks verbetering. Natuurlijk, als ik een zware simulatie moet draaien zijn die extra cores handig, maar al die extra cores geven me niks extra voor 95% van mijn dagelijks werk.

[Reactie gewijzigd door Dreamvoid op 22 juli 2024 13:45]

Een 12700k heeft een grofweg 60% hogere single-core performance dan een 6700k. Toch wel een aanzienlijk verschil als je het mij vraagt.
Ja, op een 56% hogere kloksnelheid (5.0 vs 3.2 GHz). Ik vind dat toch een bijzonder teleurstellende ontwikkeling in zes jaar.

[Reactie gewijzigd door Dreamvoid op 22 juli 2024 13:45]

Nu doe je alsof hardware zich maar moet aanpassen aan software. Dat is niet vanzelfsprekend. Hardware is beperkt door natuurkundige wetten, software niet. Voor SQL queries is het simpel: jde gebruikers van die software hebben de software makers te kennen gegeven dat ze't maar parallel moeten maken. Dat is niet vanzelfsprekend; een simpel product als SQLlite is niet threaded.
Software is ook beperkt door hoe paralelliseerbaar algoritmes zijn. Idealiter kijk je naar de typische workload, en ontwerp je de hardware ervoor. Wat je nu ziet, is dat server-optimized hardware (grote dies met heel veel cores) in client devices wordt geduwd, vooral gedreven door marketing (meer cores, betere synthetische benchmarks, etc) waardoor je nu met laptops zit met oversized cpu's die er geweldig uitzien in benchmarks, maar zeer duur en stroomvretend zijn. Geen wonder dat de Apple chips (die veel meer op single-core performance gericht zijn) zulke geweldige resultaten laten zien qua stroomverbruik en responsiveness in client-focused apps.

Ik snap ook wel dat het grote geld bij Intel en AMD uit de server markt komt, en dat de cpu's daar dus op worden ontworpen, maar daar heb ik als laptop koper weinig aan.
Voor standaard office gebeuren heb ook meerdere threads nodig voor oa de a-sync io gebeuren. Of a-sync compute en dan thread voor afhandelen van de ui gebeuren, naast weergave. Vaak zijn de pure single threaded apps ook licht dat single thread voldoet. Daar vallen office aps en web browsers al niet meer onder. Die maken ook gebruik van meerdere threads en lichte loads. Omdat multithreade ook het responsiever maakt.
Mij lijkt top ipc en klok voor zulke niet veel eisende loads ook helemaal niet nodig.
En je heb mogelijk wel ruim voldoende aan beetje 4core met SMT.

Maar met high-end kunnen zij niet heel veel meer in proppen voor ipc en klok en caches, maar is de huidige trent van meer cores. IPC is toepassen van transistor density als 1.25x core vetter maakt meer ipc maar door dieshrink de core toch kleiner is. Dus moderne high-end bied steeds meer cores. Je kan niet zomaar 16core er 4core van maken. Kan wel core next-gen die 8x smt doet.
Of ipv 5,5ghz schaling de stages van ver over de 20 voorbij Netburst , bulldozer 20. Om idioot hoge klokken, en daar weten we al dat het extra veel vermogen vreet.
Dus ja wat blijft dan over , meer cores.
En dat houd in dus dat je om huidige en toekomstige high-end die many core goed te gebruiken. De software architectuur zo efficient mogelijk multithreaded gemaakt moet worden. En dat is geen makkelijke opgave. Omdat je niet elke software probleem een ideale oplossing of algoritme is waar probleem in onafhankelijk of non shared data stukjes te verdelen is.
Ergens gebeurt dat ook wel. ServerCPUs als de Epyc 7763 in een 2-socket configuratie doet gemiddeld nog geen 500W. Klinkt als veel maar da's <4W per core. Voor een 12900K(S) zou datzelfde verbruik per core uitkomen op 64W.

Afgezien van de topmodellen voor consumenten zijn die dingen tegenwoordig best zuinig. De Apple M1, AMD 6xxx-reeks en Intel laptopmodellen tonen allemaal aan dat er serieuze performance geleverd kan worden met relatief laag verbruik.
64 watt per core voor de intel? Volgens mij is er iets fout gegaan in je berekening. De 12900 heeft een max van 245 en heeft 8 power plus 8 e cores. Je komt in de verste verte niet aan de 64 watt per core.

En we weten allemaal dat hoe hoger de clocks hoe meer efficiëntie er overboord gaat. Mijn 690pxt draait standaard 2480 mhz maar als ik hem underclock naar 2200 scheelt dat al 40% verbruik. Voor maar een paar procent prestatie verlies. De innovatieve is de laatste jaren gewoon gestagneerd en daardoor werd het factory overclocken een must en werd de power draw hoger.
Datzelfde ga je nu bij amd ook langzaamaan zien waar 7xxx meer gaat verbruiken want vroeg of laar is de rek uit dat design zoals dat bij intel het geval was rond 8xxx.

[Reactie gewijzigd door computerjunky op 22 juli 2024 13:45]

Nee, 64W in totaal voor de 12900K als die aan dezelfde efficiënte (4W/core) zou draaien. Maar inderdaad, die heeft bijna 5x zoveel nodig. Dus minder efficiënt.

Verder is er helemaal geen reden dat AMD niet vooruit zou gaan in efficiëntie. Intel had architecturale vooruitgang gekoppeld aan nieuwe nodes. Toen ze niet van 14nm naar 10nm konden springen betekende dat ook dat alle geplande veranderingen niet meteen te zien waren. Het heeft heel lang geduurd om dat proces en de ontwerpen aan te passen. Intel rolt terwijl nieuwe nodes én architecturale veranderingen uit. Net als AMD die voor de komende jaren gepland heeft.

[Reactie gewijzigd door Arrigi op 22 juli 2024 13:45]

De grap is als je een 1290pk zou maken met 16x e cores op 3 ghz de efficiëntie een heel ander plaatje zou zijn. Die e-cores zijn echt super efficient het zijn de p cores die het meeste verbruiken.

Ben echter wel benieuwd wat een dual epic als idle verbruik zou hebben. Daar heb ik nog nooit data van gezien maar ryzen is minder efficiënt in idle.

Nou zijn epyc servers niet ontworpen om idle te draaien maar toch interessant.
P-cores zijn SMT/HT en e-core geen SMT lagere IPC en klok.
Zuinig is handig als je even niet de performance nodig hebt. Goed voor bat duur.
En voor desktop en mobiel heb je het zware en lichte werk situaties.
Maar als voor server waar de doel vaak 1 specifieke task dan moet die diespace van 8- pcores vervangen door 8x4 ecores 32core en dan kom misschien beter uit kwa performance efficientie.
Een 12900k. 8+8. 24T. Wordt dan 40c 40t
Een 13900k. 8+16. 32t. Wordt dan 48c 48t

Denk dat 48e-core het ook heel goed doet kwa vermogen en performance in cinebench
Zouden ze niet dezelfde fout maken als met de 11900K ? Die was volgens reviewers een stuk minder goed dan de 10900K door de minder aantal cores. Vandaar dat ze bij de 12900K weer naar 8 cores zijn gegaan.
Welke socket gaat de Meteor Lake gebruiken, dat kan ik niet vinden in het artikel. Of ik kijk er over heen.
Hopelijk kan deze CPU nog op socket 1700 dan kan ik mijn z690 Formula nog even door gebruiken.
Helaas, Meteor Lake gaat LGA 1851 gebruiken :)
Das indd een beetje jammer, Dan maar weer een nieuw bord halen :P
Natuurlijk stel je voor dat mensen na een paar jaar een nieuwe cpu kunnen kopen zonder een nieuwe Intel chipset te hoeven kopen via het moederbord.

Hier ligt echt wel wat ruimte voor verbetering bij Intel. Behalve als je low of midrange instap bij een nieuw socket heb je bij Intel eigenlijk gewoon geen relevant upgrade pad voor je cpu (relevant in de zin van de je echt een stap kan maken qua prestaties van de cpu).
Jammer genoeg zal dat niet het geval zijn. Enkel Raptor Lake heeft nog een LGA1700 socket en is compatibel met Z690 bordjes. Uiteraard zullen er ook nieuwe Z790 bordjes komen.

Meteor Lake voor desktop zal een nieuwe socket gebruiken,socket LGA1851. Deze zal wel dezelfde mounting holes voor koelers gebruiken als LGA1700.

Over het aantal cores; zie mijn post hieronder. De getoonde die is een mobile die. Alder Lake-P (mobile) is ook een 6P+8E cores die net zoals de hier getoonde chip.
Helaas indd, Als de Raptor een leuke upgrade heeft haal ik die cpu wel en dan later over naar de Meteor Lake met een ander bord. Wel fijn dat de koeler weer gebruikt kan worden gezien ik dan mijn EKWB velocity2 kan blijven gebruiken.
Dank voor je aanvulling over het aantal P-cores.
Wel goed dat ze zijn afgestapt van de schijnheilige nanometer namen voor procedés.

Edit: Merk op dat ze het geen 4 nanometer, maar Intel 4 noemen.

[Reactie gewijzigd door PizzaMan79 op 22 juli 2024 13:45]

Het proces waarop het gemaakt word is überhaupt niet relevant. Het is de marketing die er wat van probeert te maken. Een intel 9900k op 14nm is sneller als een ryzen 3800x op 7nm. Het is gewoon niet echt boeiend maar met getalletjes gooien verkoopt nou eenmaal.
Ohja?

De index van alle resultaten door Tweakers kwamen uit op dat de 3700X 2% sneller was in "synthetisch", de 9900K 3% in "praktijk" en 4% in games. Dat is een beetje om en om, maar je kan nog wel zeggen dat de 9900k nét iets sneller is.

Tegelijk zie je dat de 9900K dan wel vrolijk 50-60% meer energie gebruikte om die resultaten te bereiken.

Maken die nanometers nu écht niks uit?
In games in de 9900k sneller en gebruikt niets meer. power draw in games word maar wat vaak genegeerd omdat dat een heel ander beeld laat zien. dan gebruikt de cpu maar 75 watt max uit mijn ervaring. oftewel niets meer.
Daarnaast kon ik met een 9900k snel geheugen gebruiken voor meer fps iets dat met een ryzen geen optie was. Ook kwam de 3xxx serie veel later uit en duurder het bijna 4 maanden voordat ze fatsoenlijk beschikbaar waren.
Al met al maakt het procedé dus gewoon niets uit. mensen blijven maar staren naar. Procede zou echt helemaal niets uit moeten maken bij je keuze van een cpu. gewoon naar de data kijken en dat is waar het om gaat. Een paar puntjes in een cinebench test maakt me ook niets uit net als het verbruik in CB omdat dat voor mij niet mijn workload is.

ook is die hele tweakers data nutteloos. niemand met zijn gezonde verstand gaat nog ddr4-2667 CL13 gebruiken.. echt kansloos geheugen en dus is alle geproduceerde data zo slecht dat het de kliko in kan.

https://www.youtube.com/watch?v=oDVUdpcKZMA

Dat is getest met 3200 cl14 een veel redelijkere set geheugen. zelf draai ik 4000 cl16 wat daar nog een boost overheen geeft.
Dat gedoe met kleine cijfertjes is ergens wel een koppeling met de steeds kleinere maat van de structuur op de chip. Die kleinere structuur is dan wel in potentie een maat voor de snelheid of de zuinigheid. Maar het is volgens mij ook een (omgekeerde!) maat voor de kwaliteit en de houdbaarheid. Kleinere structuren zijn veel vatbaarder voor storingen en veroudering.

Daarmee zou ik de houdbaarheid en langere bruikbaarheid (en dus de duurzaamheid) van de chips uit deze processen juist als negatief beoordelen! Voor de industriële toepassingen waar bruikbaarheid en houdbaarheid van meer dan 5 (of liever 10) jaar wenselijk is, wordt volgens mij al jaren aangehouden dat de structuur niet te klein moet zijn.

Of heb ik het ergens mis?
Hmm... toch nog niet helemaal hoor. Kleinere procedés an sich zijn niet echt minder duurzaam. Sterker nog, de kwaliteit van chips gaat sterker achteruit door blootstelling aan hogere temperaturen. Aangezien 'dezelfde' chip in een kleinere node minder verbruikt en dus minder temperatuur produceert zal hij normaal gezien iets duurzamer zijn. De volgende nodes zullen stilaan onderhevig zijn aan kwantum-effecten en daardoor potentieel wel fouten vertonen.

Waar het verschil in kwaliteit zit is niet in de grootte, maar in de maturiteit. Grotere procedés zijn meestal ouder en fabrikanten hebben de productie dan zo op punt gesteld dat er inderdaad minder fabricagefouten voorkomen. Een oudere node is doorgaans ook goedkoper. Aangezien industriële toepassingen vaak geen state-of-the-art performance nodig hebben, primeren de prijs en kwaliteit van een ouder procedé.
De volgende nodes zullen stilaan onderhevig zijn aan kwantum-effecten en daardoor potentieel wel fouten vertonen.
:D

Elke transistor werkt door quantum effecten. Halfgeleiders zijn geen klassieke natuurkunde - een halfgeleider heeft een deels gevulde geleidingsband, en quantummachanica verklaart waarom je uberhaupt geleidingsbanden hebt.

Zónder quatumeffecten heb je dus de meest grote fout denkbaar: een chip die net zoveel doet als het zand waar die van gemaakt is.
Iets zegt me dat ze daarmee niet bedoelen dat ze nu ~6.7GHz (5.5GHz * 1.215) boost kunnen halen :+

Maar goed dat Intel hun energieverbruik/clock omlaag heeft weten te krijgen, echt een uitdaging bij de huidige generaties.
Een deel van de performance winst zit mogelijk in een hogere clock, maar een groot deel van de winst zal er ook in zitten dat ze simpelweg minder energie per transistor nodig hebben en dus meer transistoren bij een gelijk TDP kunnen gebruiken. Dit zie je zo goed als altijd bij een verkleining van het procedé. Dan kan je performance prima beter worden zonder een boost in het aantal Hz. Het kan ook zo zijn dat die nieuwe generatie lagere kloksnelheden zal hebben en toch een betere performance geven.
Weet iemand wanneer we redelijkerwijs een update van de xeon workstation cpus kunnen verwachten? xeon w-3300 series (icelake) is vorig jaar gelaunched en op zich een welkome update tov w-3200 series (8 channel DDR4 3200 memory, pci eindelijk op 4.0 en weer meer lanes) maar verder toch een beetje ‘last gen’, zeker qua single threaded performance.
Er zijn geruchten voor Q4 dit jaar / Q1 volgend jaar voor een nieuwe generatie Xeon voor workstations, verdeeld in 2 ranges, een range tot 24 cores (single socket) en een range tot 56 cores per socket (max 2 sockets per systeem).
Dieshot lijkt 6P + 8E cores te zijn...
Ik ben blij dat Intel eindelijk eens significante voortgang lijkt te boeken anders dan op steeds hogere kloksnelheden. Hopelijk is het meer dan alleen een aankondiging.

Op dit item kan niet meer gereageerd worden.