Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Intel Raptor Lake-cpu met 24 cores en 32 threads verschijnt in benchmarkdatabase

Er is een vroege versie van een Intel Raptor Lake-cpu verschenen in de BAPCo-database. De chip beschikt over 24 cores en 32 threads, blijkt uit de benchmarkresultaten. De Intel Raptor Lake-generatie wordt eind volgend jaar verwacht.

De BAPCo-listing werd opgemerkt door Twitter-gebruiker Komachi_Ensaka. Daaruit blijkt dat de Raptor Lake-desktopchip beschikt over 24 cores en 32 threads. Dat komt overeen met eerdere geruchten, die stellen dat Intel meer efficiënte E-cores zal bieden in zijn volgende generatie processors, terwijl het aantal P-cores gelijk blijft ten opzichte van de huidige Alder Lake-processors. De geteste Raptor Lake-processor beschikt hiermee vermoedelijk over acht P-cores met hyperthreading en zestien E-cores zonder hyperthreading.

De resultaten zijn inmiddels verwijderd, maar Tom's Hardware heeft screenshots van de listing. Het testsysteem beschikte over 32GB aan DDR5-4800-geheugen, hoewel Raptor Lake volgens geruchten officiële ondersteuning voor DDR5-5600 krijgt. De chip wordt aangeduid als 'Genuine Intel 0000', zoals gebruikelijk is voor engineering samples van Intel-cpu's. Er worden geen kloksnelheden vermeld.

Tom's Hardware meldt dat de BAPCo-benchmarkresultaten momenteel langzamer zijn dan die van de huidige Intel Core i9-12900K. Deze resultaten zijn niet indicatief voor de uiteindelijke prestaties van Raptor Lake, aangezien het een vroege testversie van de Raptor Lake-cpu betreft. Die processor zal daarom waarschijnlijk aanzienlijk lagere kloksnelheden hebben dan de uiteindelijke releasechip.

De Raptor Lake-chip presteert in de BAPCo CrossMark-benchmark vergelijkbaarder met een AMD Ryzen 9 5950X, maar ook deze resultaten dienen met een korrel zout genomen te worden, merkt ook Tom's Hardware op. AMD en Nvidia zijn in 2011 uit het BAPCo-consortium gestapt. Dat deden de bedrijven vanwege vermeende bias voor Intel-chips in benchmarkprogramma's van BAPCo.

Intel Raptor Lake moet eind volgend jaar uitkomen. De chips zullen gebruikmaken van socket LGA1700, net als de huidige Alder Lake-chips. De chips zouden volgens geruchten, naast de extra E-cores, over extra L2-cache beschikken en ipc-verbeteringen bieden ten opzichte van Alder Lake. Er verscheen eerder al een mogelijke line-up van Intel Raptor Lake-processors, waaronder een Core i9-variant met 24 cores en 32 threads.

De benchmarklisting bij BAPCo. Bron: BAPCo, via Tom's Hardware

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Daan van Monsjou

Nieuwsposter

04-12-2021 • 17:08

61 Linkedin

Reacties (61)

Wijzig sortering
Toch apart om meer kleine cores toe te voegen dan meer grote cores.

Al zijn die kleine cores alsnog best pittig, en een stuk kleiner.

Maar begint er op te lijken, intels core count gaat omhoog, en de prestaties zijn ook niet mals zen4 vs raptor lake wordt interessant.

En dat is goed nieuws :)
Heel veel workload zijn een van twee typen:
  • Slecht schaalbaar over cores, bijna alles op 1-thread
  • Goed schaalbaar over cores, bijna alles over veel threads
Het aantal workloads daar tussen in, die bijvoorbeeld wel schalen naar 4 of 8 cores maar niet naar meer, is gewoon heel klein.

Voor de slecht schaalbare workloads, wil je een paar hele snelle cores. Hoe veel, hang voornamelijk af van hoeveel slecht schaalbare workloads je tegelijk wilt draaien. Voor een game zijn dat er misschien 3 tot 6, meer vaak al niet.

Dan heb je de goed schaalbare workloads. Die kan je natuurlijk sneller maken door zo veel mogelijk grote en snelle cores op een chip te proppen. Maar dat is niet de effectiefste manier, omdat grote cores buitenproportioneel extra ruimte besteden om de laatste beetjes performance eruit te persen. En die ruimte is schaars op een chip, elke mm2 kost extra.

Als we naar de SPEC2017 benchmarks kijken van Alder Lake, zien we dat een P-core een score heeft van 8,14 voor integer operaties en 14,16 voor floating point. De E-core heeft een score van 5,25 voor integer (65% van de performance) en 7,66 voor floating point (54%). Grofweg tussen de helft en tweederde van de performance dus, natuurlijk afhankelijk van de workload.

De ruimte die een E-core in neemt is echter veel kleiner. Ik kan de exact die sizes even niet vinden, maar er passen dus pak weg 4 E-cores op hetzelfde oppervlak als 1 P-core. Dat vier E-cores hebben dan samen (met perfecte schaling) 2.6x de integer of 2.2x de floating point performance op hetzelfde oppervlak als 1 P-core!

Ik zie dus in de toekomst heel veel chips met 4 tot 8 performance cores voor single-thread performance, en tientallen efficiency cores voor multi-thread performance. En niet alleen Intel lijkt dit door te hebben, maar ook AMD zou bezig zijn met Zen4 Dense cores.
Heel veel workload zijn een van twee typen:
  • Slecht schaalbaar over cores, bijna alles op 1-thread
  • Goed schaalbaar over cores, bijna alles over veel threads
Het aantal workloads daar tussen in, die bijvoorbeeld wel schalen naar 4 of 8 cores maar niet naar meer, is gewoon heel klein.

Voor de slecht schaalbare workloads, wil je een paar hele snelle cores. Hoe veel, hang voornamelijk af van hoeveel slecht schaalbare workloads je tegelijk wilt draaien. Voor een game zijn dat er misschien 3 tot 6, meer vaak al niet.

Dan heb je de goed schaalbare workloads. Die kan je natuurlijk sneller maken door zo veel mogelijk grote en snelle cores op een chip te proppen. Maar dat is niet de effectiefste manier, omdat grote cores buitenproportioneel extra ruimte besteden om de laatste beetjes performance eruit te persen. En die ruimte is schaars op een chip, elke mm2 kost extra.
Het kan eigenlijk niet in de beschikbare ruimte zitten aangezien alder lake fysiek groter is geworden dan vorige generaties (grotere rechthoek om ruimte te maken voor de extra cores).

De verklaring zit dan ook ergens anders. Om precies te zijn in het TDP (stroomverbruik). Stroomverbruik volgt uit de formule 2*voltage * frequentie. Overclockers zullen bekend zijn met het fenomeen dat hogere clocksnelheden hogere voltages vereisen. Een snelle core die naar 5 Ghz boost zal per definitie dan ook relatief veel stroom verbruiken, het voltage gaat immers omhoog én telt dubbel én er wordt vermenigvuldigd met een hogere frequentie. Daardoor krijg je dat extreme stroomverbruik wat we de laatste jaren hebben gezien.

De kleine cores hebben een hele andere insteek. Deze worden beperkt in Ghz waardoor ze minder voltage nodig hebben. Op een 12900K doen ze 2.4 Ghz base clock met 3.2 Ghz boost clock. Tevens zijn er elementen uitgeschakeld waardoor ze uberhaupt met minder stroom overweg kunnen (hyperthreading vreet bijvoorbeeld stroom). Hierdoor is de prestatie per watt hoger. Met deze efficiëntere kleinere cores kun je meer prestaties uit hetzelfde vermogen halen. Aangezien het doel TDP vooraf vaststaat kun je de totale rekencapaciteit van een chip verhogen door deze efficiëntere cores te gebruiken.

Dus TLDR: Wanneer je voor 125W een cpu gaat bouwen dan is Intel momenteel beperkt tot 8-10 snelle cores. Door de clocksnelheid en complexiteit van de cores te verlagen komt er uit hetzelfde TDP méér multithreaded performance. Het slimme is dat ze een aantal snelle cores behouden waardoor je het beste van twee werelden hebt. Een cpu met 16 efficiëntie cores met 3.2 Ghz hoef ik namelijk niet om op te gamen ;).

[Reactie gewijzigd door sdk1985 op 4 december 2021 19:51]

Precies dit.

Eigenlijk is big little voor Intel niet meer dan wat AMD klassiek deed om performance te pushen: add moar cores. En dus grotere, duurdere dies. Intel heeft duidelijk geen marge-voordeel met hun huidige strategie tov de volledig schaalbare Zen-stack. Ze maken nog altijd monolithische giganten. En dat was precies de reden dat ze lang op quad core bleven en alles daarboven peperduur maakten.

En dus blijven het ook duurdere chips, Ryzen zal in de nabije toekomst veel sneller in prijs zakken dan ADL. Dat is ook nu al zo geweest voor de afgelopen generaties.

Het valt dus nog te bezien of big little voor Intel meer zal zijn dan het kopen van iets meer tijd zonder te ver achterop te raken.

[Reactie gewijzigd door Vayra op 5 december 2021 11:54]

Ik ben tevens ook benieuwd wat deze nieuwe socket 1700 24 cores processor moet gaan kosten.
En ik kijk ook uit naar een synthetische benchmark in vergelijking met een ryzen core processor en intel.
Intel heeft duidelijk geen marge-voordeel met hun huidige strategie tov de volledig schaalbare Zen-stack. Ze maken nog altijd monolithische giganten.
nVidia's Ampere 54 miljard transistors, Apple's M1 Max 57 miljard transistors. Microsofts's Xbox series X AMD APU 15,3 miljard transistors.
Al begrijp ik zeker je punt wel dat een monolitische chip een nadeel kan zijn ten opzichte van een chiplet/tiles/MCM ontwerp.

Intel's Alder Lake komt voorlopig met maximaal 8 performance en 8 efficiënte cores. Bij Alder Lake is 1 performance core ongeveer even groot is als 4 efficiente cores. Zulke grote monolitische chips zijn die Alder Lakes dus niet meer.
En dan even naar AMD, die gebruikt met hun Zen 2 en Zen 3 al CCD tiles met 8 cores. Al begrijp ik dat een Zen 2 of Zen 3 core nog kleiner zijn dan een Golden Cove core in Alder Lake. Zen 4 komt voor zover ik weet ook weer met 8 cores per CCD tile.
Dus is Alder Lakes monolitisch ontwerp echt nog een issue vergeleken met AMD? Ik denk van niet.

reviews: Intel 12th Gen 'Alder Lake' - Core i9 12900K, i7 12700K en i5 12600K
Golden Cove: 5 mm2 per core.
Gracemont: 4,5 mm2 per 4 cores.
Ter aanvulling, de Sapphire Rapid chips maakt Intel met 16 cores per tile, waarvan 1 uitgeschakeld, maximaal 15 actieve cores per tile.
Meer grote cores toevoegen = nog hoger verbruik.

Alder lake mag dan een grote inhaalslag maken tov AMD, qua verbruik under load kunnen ze niet typen aan gen 3 Ryzen.
Het is mij ook niet duidelijk in hoeverre de inhaalslag is gebaseerd op beter chipontwerp of meeliften op ontwikkelingen in productieproces met toevoeging balancering.
Nou je kan het zo zien
Intel 7 vs tsmc 7
Pcore met HT vs 4 ecores.
Waarbij p-cores AVX512 heeft maar met aktieve Ecores is dat disabled
En zen cores zijn maatje kleiner zie het als medium met SMT
Het bakbeest core met friemel coretjes vs flinke medium core.
AMD komt met latere gen met zen dense cores medium lite met 16core chiplet

Het is duidelijk dat op redelijk grote DIE aardig wat p cores kwijt kan en als die 5ghz kunnen halen maar met all cores je boven 8 stuks naar 16 of meer je idioot hoge power gaat trekken het is dus zonde van godzilla cores in een ulv setting met zeer lage klok daar 32core van te maken. De kracht van de ecores is dat ze goede performance per watt en diespace hebben en in masive parralel task goed schalen.
Dit probleem speeld al veel langer en ook AMD heeft daar last van.
Je hebt daar met Epyc een 16core met flink hogere allcore klok tov 64 core met lage kloks om binnen die 250watt te blijven.

Big liitle zal dus ook bij AMD komen met Zen dense chiplets.

Het idee is dit.
Fictief 200watt voorbeeld
5 miljard transistor core op 5ghz. Ipc 10 trekt 50watt. 8 stuks. 4000 performance
5 miljard transistor core op 3ghz. Ipc 10 trekt 10watt. 20 stuks 6000 perform
1,25miljard transistoren op 3,5ghz ipc 6 trekt. 2watt. 100stuks 21000 performance

Per miljard transistoren
100performance met 8 p-cores
60performance met 20 p-cores
168 performance uit 100ecores

P-core is dus tot 8 cores heel zinvol.
Wil je meer zul je er extra ecores bij plaatsen .
Je ziet dat ingeval van slecht schalende software de p-cores grote meerwaarde hebben en bij goed schalende de ecores grote meerwaarde hebben. En bij matig schalende is hybride aanpak of als je app nogal in schaling verschillen zoals prosumer die ook gamed.
Daarnaast moet AMD meer effort steken in o.a. hun software. Bijvoorbeeld betreft de AVX2 die in de AMD processor zit zoals die van mij. (5950x) kun je eigenlijk niet echt goed wat mee.
Intel heeft daarnaast al de AVX512 dat niet alleen, maar ook hebben ze hun SOFTWARE goed op orde!! Ze hebben namelijk de MKL (library) die steengoed is als interface voor software. AMD heeft dit niet, en ze leunen op slechte opensource alternatieven die naar verluid wel 20x trager kunnen zijn.

Boodschap aan AMD: Doe wat aan je drivers en software. Zet daar meer mensen op.
Uiteindelijk is het een combi van hardware+software om het beste resultaat eruit te halen.
Ik zie persoonlijk de professionele wereld NIET overstappen naar AMD vanwege het AVX verhaal.

[Reactie gewijzigd door Immutable op 5 december 2021 10:17]

Heb je ook praktijkvoorbeelden van je claims? Dat intel op hele specifieke workloads(waar je je van kan afvragen of je die wel op een CPU moet willen doen) een voordeel kán hebben is waar, maar volgens mij is eigenlijk geen enkele benchmark of praktijkvoorbeeld te vinden op HEDT(Workstation) of server gebied waar intel potten kan breken ten opzichte van AMD.
Zoals gezegd, hele specifieke workloads uitgezonderd.
De 'gemiddelde' professionele wereld heeft al tijden niets meer te zoeken bij intel, puur als het om prestaties gaat tenminste.
Gewoon alle software wat gebruikt maakt van speciale instructiesets die zaken accelereren. Wat dus veel wordt gebruikt in de professionele wereld waar veel wiskundige instructies gebruikt worden. Dus echt berekeningen worden gedaan. Je bent bekend met AVX ? En hoe beroerd dat bij AMD is ?
Een slome Intel met AVX + MKL kan veel sneller zijn dan een snelle AMD waarbij AVX niet goed werkt vanwege de software.

Hopelijk komt de nieuwe ZEN4 met AVX512 en gaan ze eindelijk iets qua software opzetten wat net zo goed werkt als MKL.

[Reactie gewijzigd door Immutable op 5 december 2021 10:54]

Ja, dat is wat je in je eerste post ook al zegt. Heb je daar ook praktijkvoorbeelden van? Ik kan zo wat AVX benchmarks voor je opzoeken, maar in geen van dat soort benchmarks komt naar voren wat jij beweert.

Edit:
En ja, als jij matlab gebruikt uit 2018 incl intel's MKL dan, tenzij je gaat lopen tweaken, traag. Dat heeft niets met het slecht werken van AVX op AMD CPU'S te maken. Ik werkt bij een bedrijf waar veel met datamodellen gewerkt wordt. Tegenwoordig allemaal R en Python. Oude matlab versies /runtimes zijn niet van belang.
Ook nieuwe matlab versies werken uitstekend op AMD processoren.
Al met al staan oude maltab versies niet perse synoniem voor 'de professionele wereld'.

[Reactie gewijzigd door YoMarK op 5 december 2021 11:32]

Welke bibliotheek gebruik je dan voor AVX op AMD? Of gebruik je de workaround met een ouderen versie van MKL om dan MKL werkend te krijgen met een AMD CPU?
Ik moet bekennen dat ik er een tijdje al niet meer heb gekeken tussen OpenBlas en MKL op dit moment. Zal er nu weer eens in kijken, en misschien wat versies bijwerken. (Zelf alleen een hele oude Intel PC thuis, en verder een 5950x AMD)

Werkt OpenBlas nu wel sneller op AMD? Destijds een truukje om MKL werkend te krijgen voor AMD.
Ja doe wel een beetje wat met Python met python-scikit-learn. Voorheen was het zo dat als je python-scikit-learn gebruikte met MKL op intel sneller zou zijn dan Openblas op AMD. (Tenzij je de workaround deed met MKL)
Wat gebruiken jullie dan onderliggend betreft Python?

Begrijp me niet verkeerd, ik zou graag willen dat het goed werkt op AMD.
Begrijp me niet verkeerd, ik zou graag willen dat het goed werkt op AMD
Waarom doe je dan niet eerst wat research voor je deze zaken loopt te verkondigen als feit?
want nu vraag je opeens af of het nog steeds zo is terwijl je net loopt te verkondigen dat het slecht werkt...

Dit is IMO vaak het hele probleem van AMD, mensen roepen maar wat en de volgende persoon zoekt naar AVX op AMD en komen toevallig jouw post tegen, en daar gaat het gerucht verder de wereld in
Maar wie zegt dat ik ongelijk heb. :) kan helaas geen intel benchmarken. En ik kan NERGENS op het internet vinden dat openblas sneller is als mkl. En laat intel ook avx512 hebben en amd AVX2.
Een vrij standaard voorbeeld is NumPy (numerieke library voor Python), waarvan Intel een AVX-MKL variant levert. Die is significant sneller, zeker wanneer je die AVX512 kan gebruiken.
Is maar net wat je workload is. Mijn pc word nooit gebruikt voor synthethische loads die een afbeelding eruit gooien of een score geven en uitsluitend voor gamen en streamen en dan is deze 12th gen zuiniger in standby, video's kijken, browsen en gaming.
Diegene die echt dit verbruik gaan meemaken met deze systemen geven dus geen snars om deze power draw omdat het door het werk betaald word of dus belasting aftrekbaar is. of ze een threadripper gebruiken.

In het juiste perspectief heb ik liever een 12th gen intel als bijvoorbeeld een 5900x omdat die in idle meer verbruikt en de pc staat toch zon 8-12 uur per dag zo goed als idle en is met gamen ook nog eens sneller en als ik dan een keer een hoge power draw heb is dat al lang en breed goedgemaakt door de idle stand en game verbruik. Als ik dus echt veel werk gerelateerd spil zou doen zou ik en geen 5xxx hebben en geen 12th gen maar gewoon een 39xxX
Dat klinkt leuk, maar AMD gebruikt juist minder stroom dan Alder Lake. Zowel in idle, gaming en première pro. Dit is te zien in de 'CPU + moederbord' resultaten hier: reviews: Intel 12th Gen 'Alder Lake' - Core i9 12900K, i7 12700K en i5 12600K
Ik mis in test het gebruikte moederboard voor de AMD combinatie. Dat maakt nl. nogal wat uit. Voor een fair vergelijk moet je de Intel Z690 vergelijken met de AMD X570 range.
Ook opvallend in eerdere review verbruikten de AMDs meer dan in deze tabel.
https://tweakers.net/revi...bruik-en-efficientie.html
toen 5800x 15,86W in de door jou aangehaalde cijfers wordt verbruik van de 5800X op 13,13W gemeten.

Vergelijk ook https://nl.hardware.info/...-een-3900x-stroomverbruik en https://tweakers.net/revi...elijk-stroomverbruik.html
Waar de intel systemen zuiniger lijken te zijn dan de AMDs

Conclusie: In idle zit het erg dicht bij elkaar en hangt het ook erg af van je moederbord , des te luxer des te hoger het verbruik. Al met al kan je niet zomaar zeggen of Intel/AMD zuiniger is in idle.
Waarmee Tweakers heeft getest staat er gewoon bij (pagina "Testverantwoording").
En dat is inderdaad een AMD X570 bord, dus dat zou iig fair zijn.
Verschil in de metingen kan liggen aan dat ze de laatste keer blijkbaar testten met Windows 11 en een andere GPU.
In die vergelijking met Alder Lake zou GPU hetzelfde zijn op alle platforms dus dat is ook prima.

In jouw Tweakers link (Alder Lake DDR4) gebruikten ze weer een andere voeding en RAM, en helemaal geen GPU? En bij Hardware.info andere voeding/RAM/koeler. Dan lijkt me dat juist de minst betrouwbare vergelijking.
Stroomverbruik gaat over impact op je systeem en build, niet over je elektra. Dat verschil is verwaarloosbaar. De hitte en extra koeling is dat niet. En die heb je onder load nodig - een PL1=PL2 241W peak ADL chip kost netto veel meer als je die prestaties zoekt die Ryzen op circa 120-150W neerzet.

Intel heeft n mooie brij gemaakt van de marketing, laten we het even platslaan voor een eerlijk beeld ;) Als je ADL aan het werk zet is het weinig nieuws onder de zon : hete, TDP limited chips die heel bursty zijn en veel koeling vragen. Zen is vele malen 'rustiger' en zelfs die vergt al aardige koeling. En als je deze chips niet vol benut, had je ze ook niet nodig. Idle gedrag is echt een non argument.

[Reactie gewijzigd door Vayra op 5 december 2021 12:01]

Dat is jouw mening ik vind 100 kwh per jaar meer of minder zeer relevant en de warmte output dan weer minder.
Daarnaast kom je weer met diezelfde hoge load zoals mensen graag aangrijpen om intel af te kraken maar ik geeft in mijn bericht al aan dat die hele load voor een groot deel van de gebruikers totaal niet relevant is.
ik zou de load op 100 watt kunnen limiteren en geen enkel prestatieverlies hebben.

De rest van je verhaal slaat dan ook nergens op want het is heel duidelijk en heeft werkelijk niets met maketing te maken maar gewoon met feiten. Feit is namelijk dat voor veel usecases de cpu zuiniger is en dus nooit dat dramatische stroomverbruik haalt die veel mensen aangrijpen net als jou om de cpu af te kraken.

Netto kost deze cpu dus MINDER omdat hij voor al mijn workloads minder stroom gebruikt en niet meer. piek power is voor mij dus totaa irrelevant omdat deze piek NOOIT gehaald gaat worden in mijn gebruik.

Mijn auto gebruikt in zijn 3de versnelling op de snelweg ook 3x zo veel benzine maar zo gebruik ik hem nooit dus dat is niet relevant.
Je probeert iets te vergelijken waarvan ik al aangegeven heb dat het nooit gebruikt gaat worden om een punt voor ryzen te maken en dat punt is er gewoon niet.
Dat is net zoals zeggen dat een 12900k beter is als een 5950x omdat hij 12% meer fps haalt in game x terwijl hij nooit voor gamen gebruikt gaat worden.

Realiteit is dat de overgrote meerderheid van deze cpu's gebruikt gaat worden voor de usecase zoals door mij aangegeven. Gamen + wat basis taken die zo goed als idle zijn. De mensen die renderen en wetenschappelijke berekeningen doen op een lokale pc zijn echt een fractie van een fractie van de pc gebruikers en die doen het of voor de lol of zakelijk en als je dan bij een 12900k uit komt moet je gewoon je IT afdeling ontslaan.
Gaming en basis taken vergen geen PL1=PL2 ;) Daar gaat je hele verhaal mis. Je hoeft dan niet meer dan een i5 non k te pakken. Dat is ironisch genoeg ook de sweet spot voor ADL. En juist die i5 ADL als 'upgrade' is in veel gevallen niet echt de moeite tov wat er al op de markt was. Want je hebt ook nog alle andere kosten en ongein...
Bord, W11 early adoption herrie, enz.

Enne... 100kwh per jaar vanuit een TDP verschil op je CPU?! Interessant. Hoe kom je aan dat getal? Daar zit dan weinig idle bij... en dan zijn we weer rond. Maar met jouw gaming/basis taken ga je daar niet komen, zelfs niet 24/7 op load OF idle.

[Reactie gewijzigd door Vayra op 5 december 2021 12:43]

Lariekoek. De i9 is gewoon flink sneller als de 12600. Dus alleen een i5 pakken slaat nergens op.

En de review die ik gezien had was 15 watt lager idle a 10 uur per dag bij mij (office taken) en zon 25 watt bij gamen a een uur of 3/4 x365 dagen dan kom he al snel op 100 kwh. Daarnaast is mijn type gamen high fps competitief dus de snelste cpu is de beste. Als de 12600k meer cache zou hebben had je een punt gehad maar de cache is een enorm verschil in prestaties met gaming.

En Windows 11 is totale onzin met 12th gen intel sterker nog het presteert slechter in gaming tenzij je de E cores uit zet. (Trouwens wel benieuwd wat dat met idle efficiency zou doen). Die data heb ik nog niet kunnen vinden.

Anyway fijne Sinterklaas. Ik ga mijn nichtje even pesten.

[Reactie gewijzigd door computerjunky op 5 december 2021 13:25]

100 kWh per jaar is ruim 20 euro.
Als de stroomprijs flink omhoog gaat misschien dertig.
Een deel ervan bespaar je zelfs omdat de (gas?)kachel minder hoeft te werken. Misschien moet de airco in de zomer weer wat harder werken.
Gamen en power user met een dergelijke processor in je pc: je schriijft waarschijnlijk een veelvoud per jaar op je hardware af...
Maar is alderlake cpu idle zuiniger dan AMD SoC want het gaat om idle uit net niet de cpu wat trekt , Dus alderlake inside pc vs directe AMD PC tegenhanger. Want moederboard bridge chip en algehele platform invloed op idle vermogen.
Daarnaast is voor de een zuinigheid belangrijk ivm kosten. Voor de andere meer koeling probleen en. Nood voor dikkere Voeding kosten en is daarmee het piek verbruik belangrijker.
It’s not about the size, but it’s about how you use it.

En dat geld hier ook. Wellicht dat in synthetische benchmarks gen 3 Ryzens het zouden kunnen winnen (al betwijfel ik dat wel een beetje) kan het big-little ontwerp voor bepaalde real-world workloads veel efficiënter zijn. Ik heb zelf een Ryzen 5900x, welke onder flinke multithreaded workload toch een aardig stukje terugklokt tov de max boost clock van die cpu door de warmte ontwikkeling. Als de kleinere cores van Intel relatief minder energie gebruiken en cooler blijven kunnen ze wellicht wel effectiever boosten.

[Reactie gewijzigd door Laurens-R op 4 december 2021 19:24]

Daarnaast ligt het ook aan het type applicatie. Bepaalde applicaties kunnen bijvoorbeeld CPU specifieke optimalisaties hebben. Laat INTEL daar nou enorm veel effort in hebben gestoken door middel van software libraries aan te bieden. AMD doet dit dus amper, en loopt echt super ver achter op drivers en libraries. Dan kan je wel op papier een snellere processor hebben.

Maar als je dan een applicatie hebt die bijvoorbeeld gebruik maakt van MKL bibliotheek dan gaat die op de AMD langerna niet zo snel. Ook al is de AMD "sneller".

Het gaat uiteindelijk om de netto speed, wat betekend dat je software en hardware zo goed mogelijk samenwerken.
Behalve als je de i5 en i7 neemt natuurlijk.
Mee eens. Vind het ook apart dat er zwaarder ingezet wordt op de E-cores ipv van de P-cores. Vele workloads profiteren toch nog het meest van een gefixeerde hoeveel sterke cores. E-cores blijken voornamelijk interessant voor de multi-core worksloads die 'lineair' schalen met het aantal threads.

Verder zijn er momenteel toch nog steeds veel ongewenste side effects door te toegenomen complexiteit van verschillende soorten cores op dezelfde CPU.
Ergends kan ik me voorstellen dat als een e core de helft van de diespace inneemt maar 40.% trager is.

Het voor die lineaire workloads beter kan zijn om 2 ecores te hebben ipv 1 extra p core.
+100% vs +40% in multithreaded workloads

Dus mischien is dit nog zo gek niet.
En voor workloads nie meer single threaded zijn of iig minder threaded, zijn er 8 p cores welke gewoon zo snel mogelijk zijn.

An sich dus geen slecht idee maar niet super intuitief ;)

[Reactie gewijzigd door freaq op 4 december 2021 17:36]

Ook niet vergeten dat zulke processoren worden gebouwd voor de komende jaren. In die jaren is het aannemelijk dat software steeds meer schaalbaar wordt en de E core dus steeds relevanter. Als de developers het zelf niet voorzien dan zijn het vaak de engines / onderliggende frameworks die hierin veel stappen zetten.
Je kan 4x de cores kwijt op dezelfde die space en ze zijn in het meest ongunstige geval 55% trager oftewel al met al 90% meer prestaties met 20% minder clocksnelheid op hetzelfde oppervlakte. in andere workloads is het verschil minder groot. (gebaseerd op een 12900k test die ik gezien heb)

Voor workloads die het ondersteunen dus een toppertje. En gezien een Hyperthread thread maar 30 a 35% van de extra prestatie oplevert en deze E cores dat dus niet hebben doen ze het zelfs nog beter als een power core met hyperthreading.
Vele workloads profiteren toch nog het meest van een gefixeerde hoeveel sterke cores.
En daarmee geef je het zelf al aan: waarom zou je dan meer dan 4-8 P-cores hebben?

Qua die-space en verbruik is het heel realistisch om gewoon 20 E-cores toe te voegen. Kost véél minder die-space dan een paar extra P-cores, en zeker als ze niet te aggresief geklokt worden is tientallen E-cores best haalbaar.

Dan heb je sneller single-core performance vanwege je 4-8 P-cores, en goede multithreaded performance vanwege je 20 E-cores.
Nou wat ik zie is dat big little juist heerst op slecht schalende software zoals games en nu ook met ecores ook multithreaded AMD aan kan.
Waarbij enkele game niet goed reageren met dat big little, maar als het om performance reductie gaat nog steeds speelbaar is. En bij grotere problemen komen er patches voor.

Die ecores zijn dus heel belangrijk. En AMD gaat ook die kant op met 16 dense cores chiplets. En Arm doet het al langer.

Het probleem is dat met dieshrinks de klok ceiling verlegd wordt er veel meer cores en cache toegepast kunnen worden , maar als voor maximale performance ceiling het vermogen met elke dieshrink ook omhoog gaat.
We zijn van passief 80286 naar alderlake 241watt.
Van 1 core naar 64cores voor epyc.
Je begrijpt dat als 200watt tdp voor 64 cores dat er nogal zeer lage budget per core overblijft.

Nou met 8 pcores kun je zeer slecht schalende software met s9nglecore boost aanpakken en semi pro spul dat net niet lekker schaald maar 8 cores kunnen gebruiken
Goed mee pakt en andere pro spul dat goed schaald de e cores bij kunnen springen.

Blijkbaar weten ARM iNtel en AMD en Apple wel de voordelen van big little.
Het wordt al jaren op mobieltjes gedaan. 4 kleinere cores en 4 grotere cores.
Als processen die weinig cpu gebruiken maar veel context switching e.d. veroorzaken is het beter om trash en background zooi te isoleren van power demanding processen.

Hiermee verlaag je ook de kans op cache misses / invalidation, en krijgen intensieve applicaties maximale efficiency.

Ik zie wel nut in deze big little designs.
Kan zo m'n game script aanpassen die zorgt dat alle applicaties behalve de game zelf op een enkele core draait en alles van elkaar isoleert. Zo zou ik eigenlijk alles op die low performing cores gooien en m'n games het alleenrecht geven aan performance cores.

[Reactie gewijzigd door Marctraider op 5 december 2021 00:37]

Intel lijkt terug te komen, nu nog op de markt en in real world situaties zien hoe goed ze zijn. Maar goed, ook deze i9 heeft maar 2 memory channels met een maximale geheugen bandbreedte van 76.8 GB/s.
Echt baanbrekend dus nog steeds niet. Jammer. Meer concurrentie is goed voor iedereen.
De langzamere Ryzen 9 5950X heeft 83 GB/s.
Je computer is uiteindelijk zo snel als de langzaamste bottleneck, maar goed, wat dat is hangt af van waar je hem voor gebruikt. Gaming stelt andere eisen dan Data analyse of videobewerking, rendering of het draaien van VM's
Je overschat het effect van geheugenbandbreedte aanzienlijk. Latency en cache zijn veel nuttiger voor een CPU. Hier een review van een AMD Zen 2 chip met 448GB/s geheugenbandbreedte en die is ook niet vooruit te branden.

[Reactie gewijzigd door fapkonijntje op 4 december 2021 18:51]

Is slechts een voorbeeld van een bottleneck. Geheugenbandbreedte is wel degelijk belangrijk, maar niet voor alle toepassingen. Videobewerking of Database verwerking hebben er bv profijt van, bij Gaming veel minder.
En zoals ik zei, het totale systeem is zo snel als je langzaamste bottleneck. Als dat cache grote of latency is, maakt veel en breed geheugen niet zoveel uit.
Zet een snel systeem neer met een hdd dan is dat een trechter met poep

[Reactie gewijzigd door Jan Onderwater op 4 december 2021 19:01]

Wat ook belangrijk is zijn speciale instructies in de CPU die bepaalde taken gigantisch veel sneller kunnen doen. Vooral wiskundige instructies. Daar staat Intel nog steeds op nummer 1. En wil AMD maar geen moeite steken in de bibliotheken of hun hardware. Het is alsof het ze niet boeit.

AMD en AVX? Zoooo jammer AMD zo jammer... doe er iets aan.

[Reactie gewijzigd door Immutable op 5 december 2021 10:21]

Klopt, zie ook de bv HW gebaseerde video-codecs en -bewerking in Apple Silicon.
Het is dat voor reguliere pc gebruik caches goed traag memory verdoezelen en prosumer die big data verwerkt pas flessehals merkt omdat de caches die hoeveelheid met traag memory het niet kunnen bijbenen.
Ik lees al jaren over schaalbaar. Hoe sommige software zeer goed gebruik maakt van veel cores en andere software veel minder of slechts 1 core.
Al in de tijd dat ik mijn eerste quadcore kocht waren er mensen die van mening waren dat alleen zeer specifieke software daar gebruik van zou maken. De meeste mensen hebben aan dual-core (ruim) voldoende.
Persoonlijk hebben veel cores altijd prima voldaan voor mij, en dat terwijl ik niet (constant) software draai die zeer goed met veel cores werkt. Wel ben ik iemand die altijd heel veel taken heb draaien. Misschien allemaal single-core maar wel minimaal een dozijn.
Op die manier kun je ook veel voordeel hale uit extra cores.
wat versta jij onder "taken draaien"?
Als je daarmee bedoelt dat je meerdere programma's tegelijk open hebt staan, dan staan er waarschijnlijk heel erg veel programma's te wachten totdat jij weer wat doet.

Bedoel je daarmee dat je excel tien keer open hebt staan, en alle tien zijn ze tegelijk een zeer grote draaitabel aan het verwerken, dan heb je inderdaad iets aan multicore. ( excel is een extreem voorbeeld van een programma wat bij moeilijke berekeningen over een sheet ivm afhankelijkheid van andere cellen slechts single threaded is.

spelletjes draaien over het algemeen op het aantal cores wat op dat moment normaal is in gameconsoles.
Ik denk dat Windows dan meer naar virtuele memory naar disk aan swappen is.
Heel veel task heeft zin als je frequent van taak veranderd door specifieke workflow.
Mij lijkt dat eerder een teken dat werk en software niet goed de taak dekt.
En in geval van extreem veel apps gebruiken is swap disk op 0 en ontiegelijk veel systeem memory ook wel handig.
Ik zou eerder de neiging hebben om als het ongerelateerde taken zijn meer focusen op 1 taak dan alles door mekaar. Of iig op meest belangrijke taken.
De meeste mensen doen 1 taak met paar lichte achtergrond taken.
En als daadwerkelijk meerdere zware task doormekaar moet gebruiken is dat ook meer edge case. Maar als je nu een 8core smt heb voldoet voor de meesten.multitask gebruikers. Tenzij er zwaar SMP taak tussen zit die zeer goed schaald en dan hebben die HEDT interessant en hebben dan meerwaarde.
Tja. Klinkt als workstation capable, maar ik zit een beetje op nieuwe generatie intel met ondersteuning voor DDR5 ECC te wachten (en dan bedoel ik niet slechts on-die ECC). Dacht de dat de nieuwe generaties xeons later in 2022 komen?
Vraag me af hoe ver 16 e-cores het schoppen in multicore workloads, zouden nog eens prima video edit pc's kunnen worden
Bij video is i/o belangrijk, naar de GPU en naar geheugen, en de snelheid van de SSD. Ligt er natuurlijk ook aan welke SW je gebruikt.
Als je professioneel bezig bent met video editing zou ik zeker kijken naar Apple, de HW in de M-serie is erg snel met video.

[Reactie gewijzigd door Jan Onderwater op 4 december 2021 17:57]

Kwa die space 4 e-cores vs 1 p-core dus 16 e-core chip komt overeen met quad pcore chip
Ipv 8 p-cores kan je er 32 e-cores
En niet alle video applicaties schalen zo goed.
En daar kan ook verschil zijn in windows video applicaties vs apple M1X en native apple applicaties
Als première pro/ Vegas beiden een 64 core threadripper kunnen maxen tijdens het scrubben denk ik dat een 24 core ook wel moet lukken
Het is leuk dat Intel met allerhande CPU's en borden,geschikt voor DDR 5 komt,maar zolang DDR5 haast,of helemaal niet te verkrijgen is,heeft de consument er eigenlijk niet veel aan.
Off-topic
Deze resultaten zuhb niet indicatief voor de uiteindelijke prestaties van Raptor Lake, aangezien het een vroege testversie van de Raptor Lake-cpu betreft.
Is er geen spellingscontrole op dit artikel of is “zuhb” een voor mij onbekende afkorting?
waarschijnlijk een typo...
Z klopt, maar bij uhb zat de rechterhand niet goed op het toetsenbord, Wanneer je die letters op het toetsenbord één opschuift, wordt het "ijn" met een Z ervoor wordt het "zijn" :-)

sry, kon het niet laten.
Ik vind het geen domme vraag zoals anderen dat wel suggereren.

Het antwoord wordt verderop gegeven, maar reacties als "lees je eens in" daar wordt niemand beter van, ook de poster niet.....
Arm doet het al heel langer omdat TDP in mobile branches al veel langer baat hebben bij deze tactiek ivm effocentie met TDP en idle vermogen daar grote invloed hebben op batterij duur.
Nu op desktop waar high-end voorbij 250watt tdp gaat speeld dit ook grote rol.
Niet voor batterij duur maar puur voor tdp grens verleggend groter wordt met elke dieshrink.
En AMD ook zal volgen met Zen dense chiplets.
Dit is de toekomst wat elke chipbakker gaat volgen.
Lees je eens in op Intels nieuwe architectuur voor je zoiets roept

12 snelle p core met hyperthreading, 8 e cores zonder.

[Reactie gewijzigd door Catch22 op 4 december 2021 22:03]

Maar als jij dan ook duistere antwoorden geeft, leg dat dan ook even uit:

https://nl.wikipedia.org/wiki/Frankenstein_(roman)

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True