'Intel Nova Lake-cpu's krijgen tot 60 procent betere multithreaded prestaties'

Er is een vermeende interne slide over Intels Nova Lake-cpu's uitgelekt, waarin de fabrikant enkele prestatieclaims over de processors deelt. Bij multithreaded rekenwerk zouden de cpu's tot zestig procent beter presteren dan de huidige cpu's van Intel. Nova Lake moet volgend jaar verschijnen.

De interne slide deed de ronde op sociale media, schrijft ook techwebsite VideoCardz. In het vermeende document adverteert Intel met 'leidende gamingprestaties'. De singlethreaded prestaties van Nova Lake zouden met meer dan tien procent stijgen. Dat is vermoedelijk in vergelijking met Arrow Lake, de huidige cpu-architectuur van het bedrijf. Het rekenwerk op meerdere cores moet dus tot zestig procent sneller gaan. Intel heeft die cijfers zelf niet openbaar bevestigd.

Er gaan al maanden geruchten rond over Intels Nova Lake-cpu's, en dan met name die voor desktops. De fabrikant zou die processors voorzien van maximaal 52 cores, bestaande uit 16 P-cores, 32 E-cores en 4 LP-cores. Dat laatste type cores is extra zuinig en wordt al langer gebruikt in Intels laptopprocessors, maar verscheen niet eerder in de desktopchips van het bedrijf. Met deze coreaantallen is het niet gek dat Nova Lake aanzienlijk betere multithreaded prestaties zou krijgen; Intels huidige topmodel, de Core Ultra 9 285K, heeft 24 kernen.

Volgens andere geruchten zou Intel ditmaal ook met een soort antwoord op AMD's X3D-cpu's komen. Die beschikken over extra L3-cache en presteren daarmee beter voor gaming. Intel-dataminer Haze2K1 schrijft op sociale media dat Intel met zogeheten bLLC-varianten komt. Dat staat voor 'big Last Line Cache', verwijzend naar de hoeveelheid L3-cache. De leaker suggereert dat er in ieder geval twee van dergelijke X3D-concurrenten aankomen. De eerste krijgt 8 P-cores en 12 E-cores; de tweede krijgt 8 P-cores en 16 E-cores.

Intel zelf heeft nog weinig laten weten over de Nova Lake-cpu's, hoewel de afgelopen weken wel de mogelijke specificaties van deze chips zijn verschenen. Naar verwachting verschijnen de processors in 2026. Er komt eerst nog een Arrow Lake-refresh uit.

Intel Nova Lake
Bron: X, via VideoCardz
Vermeende line-up Intel Nova Lake-desktopprocessors (via @chi11eddog)
Processor Cores Tdp
Core Ultra 9 16P + 32E + 4LP 150W
Core Ultra 7 14P + 24E + 4LP 150W
Core Ultra 5 8P + 16E + 4LP 125W
Core Ultra 5 8P + 12E + 4LP 125W
Core Ultra 5 6P + 8E + 4LP 125W
Core Ultra 3 4P + 8E + 4LP 65W
Core Ultra 3 4P + 4E + 4LP 65W

Door Daan van Monsjou

Nieuwsredacteur

30-06-2025 • 10:36

127

Lees meer

Reacties (127)

127
126
55
2
0
61
Wijzig sortering

Sorteer op:

Weergave:

Bij geruchten en marketing mis ik vaak de nuancering TOT 60% beter presteren. Het is een feit dat 60% in alle scenarios nooit haalbaar zal zijn toch? ;)
Er valt veel meer te nuanceren, het feit dat het een gerucht is, het feit dat het eigen promotie-materiaal is, het feit dat een CPU misschien wel echt een bepaalde mate sneller is maar de apps daardoor niet met dezelfde factor sneller worden.

Eigenlijk is het altijd maar een beetje gissen/gokken tot het onafhankelijk getest is met duidelijke reproduceerbare/testvoorwaarde (en dan nog zegt het enkel wat over hetgeen getest is). Daarom weet ik niet of een nuancering nodig is, het is al duidelijk een soort indicatie en geen gegeven allemaal.
AuteurAverageNL Nieuwsredacteur @Double-X-L30 juni 2025 11:03
Fair! Ik zal het wat nuanceren. Ik voeg ook een extra zin toe waarin nog eens extra wordt benadrukt dat dit een gerucht is (cc @watercoolertje). Stond natuurlijk al in de titel en inleiding, maar kan geen kwaad :)
Die 60% betere multicore scores zullen wel kloppen met zoveel meer cores.
Lijkt me stug dat ze echt uit het niets ineens 60% meer per core prestaties zien tijdens multithreaded workloads.
Gaan we de Core2Duo tijdens zien?

Dat Intel uit het niets uithaalt en jaren lang weer dominant is?
Ja, goede oude tijd. Een goede Intel Core2Duo E6600 of Core2Quad Q6600 scoren en op alle cores stabiel 3,6 GHz draaien (2,4 GHz standaard) en je kon toen vanaf release jaren vooruit (zonder dat je het zelf wist).

[Reactie gewijzigd door Jumpman op 30 juni 2025 10:57]

Het typeert Intel wel dat ze pas bij de Core2Duo weer wakker waren, nadat AMD met de 64bit K8 kwam. Ze bleven maar meer volt door de P4 sturen en innovatie stokte, een soorgelijk beeld wat je nu ziet. Dat is jammer want AMD moet constant innoveren en heeft dan soms een pareltje, terwijl Intel (te) lang lijkt te teren op oude successen.
Op het moment met hyperthreading te stoppen en in te zetten op E cores, is Intel wel veel innovatiever. Ik zie van AMD nog niks dat ze andere dingen gaan verzinnen om CPU prestaties op een hoger niveau te krijgen.
E-cores zijn ontstaan omdat de P-cores zo idioot veel stroom verbruikten en compleet op hun max liepen (zie de falende 14900K) dat ze daar niets meer mee konden. De E-cores waren een noodoplossing om nog mee te kunnen komen. Dat is zeker innovatief maar omdat nou als een positieve innovatie te zien...
E cores kunnen niet ontstaan zijn uit een "falende" 14900K want die had ze al. Je kan alleen refereren naar de voorgaande processor, 12900K.

Stroomverbruik was hoog inderdaad tov de 5950X, maar dan was de 12900K ook sneller dan de 5950X (beiden gemeten op CB23). De 5950X klokt flink terug wanneer alle cores gebruikt worden, wat de 12900K niet zo doet. En dat maakt verbruik daarvan hoger.

De innovatie is juist van hyperthreading af te stappen, omdat E cores efficienter en sneller zijn. E cores is nooit een noodoplossing van Intel geweest. Want je ziet ze in al hun producten, ook degene die niet eens midrange of topmodel zijn. 14900K gebruikt alleen zoveel stroom omdat ze 6000mhz halen. dat doen de meeste andere Intel processors niet.


Jouw verwoording is wat vaag.
Ik zeg ook niet dat de E-core zijn ontstaan uit een falende 14900K. Ik zeg dat de rek uit de P-cores was wat blijkt uit het falen van de 14900K (13th gen trouwens ook al) door ze steeds verder naar die limiet te duwen.
Die E-cores zijn toch meer een variant op de oude Atom architectuur?

Dus langere pipelines, zodat je minder werk doet per stap en dus minder energie verbruikt op hetzelfde stukje chip-oppervlak.

Geen idee of Intel dit ook doet, maar ik kan mij zo voorstellen dat ze de P-cores dan wat verder uit elkaar kunnen plaatsen op de CPU om de warmte en benodigde stroom beter te kunnen verdelen.

Nadeel is dan wel weer dat de data ook 'van ver' moet komen.

Dus wellicht dat ze nu zeg maar 'tegeltjes' van 2 E-cores, 1 P-core en flink wat cache maken en die in een mooi patroon over het chip-oppervlak verdelen.

Alternatief zou namelijk zijn om de P-cores allemaal dichter bij een grote blob cache te plaatsen om zodoende de snelheid van de cache wat op te hogen, maar dan zou het weer een heethoofd kunnen worden vermoed ik, omdat de P-cores dan zo dicht op elkaar zitten.
Jouw verwoording is wat vaag.
Volgens mij is jouw geheugen wat vaag, of je bent iets wat bevooroordeeld 😅

de 12900k vs de 5950x: in het algemeen was de 5950 toch echt iets sneller, goedkoper en verbruikte veel minder, en als de 12900K wel sneller was, was dit echt maar minimaal met een vele male hoger stroomverbruik

YouTube: 12900K vs 5950X - Which CPU is the Best Right Now?
De innovatie is juist van hyperthreading af te stappen, omdat E cores efficienter en sneller zijnp
Maar het heeft ze amper geholpen? hun nieuwe processoren zonder hypertreading zijn langzamer als hun eigen voorgangers met hyperthreading.

Ben er overig ook van overtuigt dat E cores toevoegen iets was wat niet anders kon, ze zaten al zo hoog met hun stroomverbruik dat ze onmogelijk meer cores konden toevoegen, behalve als dit E cores waren

[Reactie gewijzigd door Sinester op 1 juli 2025 10:55]

Dat is een beetje flauw.

E cores zijn niet ontstaan omdat ze niet anders konden maar omdat door arm socs met big.LITTLE het duidelijk was dat one size fits all core op je cpu sowieso, hoe hoog of laag je je cores ook klokt, suboptimaal is. De E cores deden hun intrede bij de 12th gen en toen was het nog lang niet zo erg als met de 13th en 14th gen qua stroomverbruik.

Op deze manier kun je alle innovatie af doen als "ze konden niet anders". Intel pentium M als opvolger van de hete Pentium 4 want ze konden niet anders. Ware het niet dat de twee platformen naast elkaar bestonden en dus geen oorzakelijk verband was tussen het bestaan van Pentium M en de heethoofderij van de Pentium 4, terwijl je dat door je wimperharen bekeken ook net zo goed zou kunnen stellen.
Ik vind het totaal niet flauw. Intel was bezig met een nieuwe architectuur ontwerpen en door tegenslagen was die nog lang niet klaar. Er moest een oplossing komen voor de inefficiency en daarom zijn de E-cores ontstaan: het uitvoeren van achtergrondtaken op een efficiente manier aldus Intel zelf (zeg ik uit mijn hoofd trouwens). Als hun P-cores niet zo veel stroom hadden verbruikt was dat helemaal niet nodig geweest. Dat ging echter niet. Het niet voor niets dat er ook in latere generaties (13 en 14) er nooit meer dan 8 P-cores zijn geweest. De schaalbaarheid was eruit dus er moest snel wat nieuws komen.

Het feit dat er zoveel E-cores zijn laat dit ook al blijken. 16 efficient cores in een 14900K voor achtergrondtaken? Als die architectuur nog fatsoenlijk had gewerkt waren het 12 P-cores geweest met 4 E-cores (even als voorbeeld). De E-cores zijn in mijn optiek puur ontstaan om multi-threaded scores te kunnen halen die met de P-cores niet meer konden.

Mijn mening uiteraard :)

[Reactie gewijzigd door Korvaag op 30 juni 2025 14:08]

Het feit dat er zoveel E-cores zijn laat dit ook al blijken. 16 efficient cores in een 14900K voor achtergrondtaken? Als die architectuur nog fatsoenlijk had gewerkt waren het 12 P-cores geweest met 4 E-cores (even als voorbeeld).
Het feit dat de P cores tot het uiterste worden gedreven is een feit, maar daaruit kun je geen armoedigheid ervan (of van de architectuur) concluderen. Het enige wat je daaruit kunt concluderen dat Intel ver gaat om de performance crown te behouden.

De verhouding P en E cores is ook een non-argument voor de armoedigheid van de P cores:
Single core applicaties schalen niet met het toevoegen van P cores en het ophogen van het aantal E cores
is gunstiger voor performance per watt in multithreaded scores dan het ophogen van P cores.

Dat heeft niks te maken met limieten van de P cores en alles met de relatie warmte versus kloksnelheid. Dat is een natuurkundig gegeven en geen gebrek aan de architectuur van de P cores. Al was de rek er nog niet uit, en konden ze de P nog 1GHz hoger klokken was het nog steeds een goed idee om een bak E cores naast een kleiner aantal P te zetten.
De E-cores zijn in mijn optiek puur ontstaan om multi-threaded scores te kunnen halen die met de P-cores niet meer konden.
Klopt.
Dat ben ik niet met je eens. De design architectuur van Intel was gebaseerd op maximaal 8 P-cores. Ze hebben bij het design nooit rekening gehouden met het feit dat er wel eens meer zouden moeten worden. Power delivery, heat dissipation waren allemaal zo ontworpen dat het wel stopte bij 8. En dat is prima verder. Je kan gaat niet ontwerpen voor iets waarvan je denkt dat het onnodig is, maar omdat de nieuwe architectuur zo lang op zich liet wachten is Intel ingehaald door de tijd.

Ik ben ervan overtuigd dat als Intel het voor elkaar had kunnen krijgen om er 10 en 12 cores van te maken dat we twee nieuwe modellen i9 hadden gehad en dat we geen E-core gezien hadden in 12th, 13th en 14th gen.

[Reactie gewijzigd door Korvaag op 30 juni 2025 18:49]

Met alle respect, maar je staart je mijns inziens echt blind op details en irrelevante zaken om algehele uitspraken te doen over de P en E cores en daarmee het zwaktebod van Intel.

Zoals hoeveel er bedoeld zijn op een CPU. Ik ben het roerend met je eens dat elke generatie CPU een range krijgt van hoeveel cores ze kwijt willen op een die, meer voor het topmodel minder voor het instapmodel. Maar dat zegt werkelijk niks over het hoe en waarom van de E core en zijn bijdrage in de topsegmenten modellen.
Ik ben ervan overtuigd dat als Intel het voor elkaar had kunnen krijgen om er 10 en 12 cores van te maken dat we twee nieuwe modellen i9 hadden gehad en dat we geen E-core gezien hadden.
Dit is niet gestaafd en als dit de kern is dan zijn we het fundamenteel oneens en denk ik inderdaad dat ongeacht dat je 3 Intel devices hebt, je niet fundamenteel begrijpt wat een E-core zijn functie is. Dat is niet het tweederangs alternatiefje omdat de P het laat afweten, nee het is de volgende stap in verbetering van kracht, zuinigheid en vooral die combinatie op een die. Dat het toevallig redelijk tegelijk kwam met een P core die op zijn limiet loopt maakt het nog geen oorzakelijk verband.

Het is een beetje als zeggen "als de motor van je auto beter was had je geen turbo nodig" terwijl iedereen (intussen) inziet dat een motor met turbo gewoon de stap voorwaarts is voor de auto met verbrandingsmotor.

[Reactie gewijzigd door A Lurker op 30 juni 2025 19:03]

Ik begrijp wel wat de E-cores zijn functie is. Mijn server draait zelfs op alleen maar Gracemont E-cores. En ja, laten we het dan fundamenteel oneens zijn. Ik zie de E-core in 12th gen inderdaad als een tweederangs alternatiefje en pas bij de Ultra-200 series als een volwaardige oplossing (door de forse prestatieverbetering). Pas bij de Ultra series zijn ze die core echt gaan herontwerpen (hence de enorme prestatiewinst in Ultra-200). Daarvoor is het feitelijk een doorontwikkeling van de Atom architectuur.

Je motor-analogie zou voor hoe ik er naar kijk beter kloppen als je de introductie van oudere technologie zou gaan inzetten om de prestaties te verbeteren, dus (en het is onzin, maar dat is het punt ff niet): we krijgen niet meer vermogen uit de huidige Ecoboost motor dus we plakken een paard op de achteras voor meer PK }:O .

Overigens. je spreekt over niet gestaafd en dat klopt. Ik heb er geen bron bij. Wat ik wel weet is dat Intel bezig is met Bartlett Lake wat nu het wel kan, 12P cores gaat krijgen en 0 E-cores in Core 9 vorm en mogelijk supported door de huidige LGA sockets.

[Reactie gewijzigd door Korvaag op 30 juni 2025 19:29]

Interessant, deze reactie is verhelderend voor mij.

Eigenlijk zouden we alle details van de 12th gen moeten kennen (en ook interne info bij Intel) om te begrijpen wat er allemaal wel en niet mogelijk was om echt een weloverwogen conclusie te kunnen trekken over de E core in die gen en alle ontwerpbeslissingen omtrent de architectuur(limitaties).

Want inderdaad sindsdien zijn er serieuze stappen gezet vooral bij de E cores, maar dat is ook weer niet gek, de eerste versie is soms toch een veredeld prototype.

Dus ja is de oorzaak het gevolg of niet; denk dat we het daar inderdaad dan over oneens kunnen blijven :)

[Reactie gewijzigd door A Lurker op 30 juni 2025 19:19]

Ik zou inderdaad graag eens wat verhalen horen van iemand hoog in de boom bij Intel, maar ik heb zo het vermoeden dat ik dan kan wachten tot ik een ons weeg (en dat duurt wel ff). Wat we wel weten is dat Intel veel tegenslagen heeft gehad in het ontwikkelen van een nieuwe architectuur maar in hoeverre dat van invloed is geweest weten we niet.

Anyways. Ik heb de Ultra 265K hard overwogen maar uiteindelijk niet genomen omdat het voor mij simpelweg een te dure sidegrade was omdat ik al een AM5-desktop had. Mijn volgende desktop zou best wel eens Nova Lake kunnen worden en dan de versie met 14 P-cores :)
Onzin. Big.Little was al lang op ARM gangbaar voordat Intel hetzelfde concept op x86 introduceerde.

En in beide ontwerpen is de reden dat grote cores voor de meeste achtergrondthreads gewoon overkill zijn. Niets noodoplossing, gewoon efficient.
Dus daarom zijn er steeds meer van nodig tot 16 terwijl het aantal P-cores blijft hangen op 8 :P

Ze kunnen het verkopen zoals ze willen. Voor mij is het overduidelijk een noodoplossing om te kunnen voldoen aan betere multithreaded prestaties. Met P-cores hield het op. AMD kon verder met aantallen cores. Intel moest er cores bijverzinnen. En dat kan prima een keuze zijn, maar dit een goede innovatie noemen (waar ik op reageerde) ben ik het simpelweg niet mee eens.

[Reactie gewijzigd door Korvaag op 30 juni 2025 18:34]

Intel heeft vanaf de 12e generatie de E-cores er niet bij 'verzonnen'.

De E-cores zijn een doorontwikkeling geweest van de Intel Atom.

Ik vind dat persoonlijk best knap. Want de E-core verschilt wel degelijk met de P-core. Probeer dat maar eens te laten samenwerken. Dan moet je wel weten wat je aan het doen bent. Ik draai zelf een i5-12600K met 4 E-cores. Als ik bijv. een game download via Steam, dan zie ik dat de Steam app op dat moment voornamelijk de 4 E-cores aanspreekt en niet de P-cores. Dit hangt uiteraard af van welke applicatie je gebruikt en hoeverre dat geoptimaliseerd is. Maar dat is dus in principe een 'achtergrond taak' die in dit voorbeeld wordt verdeeld over 4 E-cores.

Er zullen vast ook scenario's zijn dat er een hele hoop achtergrondtaken allereerst naar de E-cores worden toegewezen en als er meer performance nodig is en de E-cores zijn maxed-out, dan worden de P-cores aangesproken. Intel Lunar Lake is daar een mooi voorbeeld van.

Dat je niet onder de indruk bent van deze vorm van innovatie, dat kan, maar die keuze van E-cores toepassen werkt wel degelijk en wordt nog steeds doorontwikkeld.

Dit zijn bijv. de highlights van Arrow Lake (Core Ultra 200S series) eind vorig jaar:
  • 70% hogere IPC performance op de E-cores
  • 10% hogere IPC performance op de P-cores
  • van 10nm naar 3nm lithografie
  • Multilevel die-to-die interconnect
  • meer dan 50% snellere iGPU
  • NPU voor AI offload taken
  • de allersnelste DDR5 geheugecontroller
Dit durf ik rustig innovatie te noemen.
En dat is precies de nieuwe architectuur waar ik het over had. Die was niet klaar dus ze moesten iets met wat ze hadden. Een trage Atom core die ze er tegenaan geplakt hebben. Pas toen ze zijn gaan nadenken over de E-core zie je de prestatiewinst van 70%. Je heeft hiermee precies aan waarom het een knee-jerk noodoplossing was om de thread-wedloop te kunnen winnen.

De 200-serie. Dat is innovatie. Compleet andere architectuur, keuzes om dan maar even een stapje terug te doen (is inmiddels aardig bijgetrokken trouwens met BIOS updates en optimalisatie). Die E-cores zo aangepakt dat ze fors sneller zijn dan de vorige generaties. Power delivery in de CPU fors aangepakt. Alles overhoop omdat de oude oplossing al jaren een suboptimale oplossing was: elke generatie 200MHz. erbij en 0,2 volt erbij totdat dat niet meer ging en er E-cores naast moesten.

[Reactie gewijzigd door Korvaag op 30 juni 2025 18:34]

Alles dankzij TSMC..... Je hebt niks aan die e-cores op een desktop als je "Op" Cores voldoende kan steken in een correct power budget. 9900x een 9950x zijn daar perfecte voorbeeld van. Dat noemen ze ruwe CPU power. Die massa e-cores is dagelijkse waste als je te weinig p Cores hebt
Voor mij is het overduidelijk een noodoplossing om te kunnen voldoen aan betere multithreaded prestaties. Met P-cores hield het op. AMD kon verder met aantallen cores. Intel moest er core bijverzinnen. En dat kan prima een keuze zijn, maar dit een goede innovatie noemen (waar ik op reageerde) ben ik het simpelweg niet mee eens.
Dan is op dezelfde redenatie de 3D cache van AMD geen goede innovatie. Dit is dan ook overduidelijk een noodoplossing van AMD om te voldoen aan betere gaming prestaties. AMD cpus zonder 3d cache bleven ver achter op Intel op gebied van gaming prestaties ten tijde van de release van de Ryzen 5000-series.

Bovendien is bij 3D cache ook sprake van een compromis; de CPU met 3D cache heeft naast voordelen ook een nadeel tov degene zonder dat 3D cache, namelijk iets lagere maximale clockfrequentie. De ideale wereld is dat je CPU met 3D cache altijd beter is dan zonder. Net zoals de ideale wereld is dat P cores even efficient zijn als E cores.

Maar in tegenstelling tot jij, vind ik zowel de 3D cache als de P en E cores goede innovaties. Omdat ik geen partij kies tussen Intel en AMD.

[Reactie gewijzigd door A Lurker op 30 juni 2025 18:18]

3D cache is een uitbreiding van cache die op een innovatieve manier in de die wordt ondergebracht waardoor er diversificatie is. Meer cache nodig? Dan neem je de CPU met meer cache. Vergelijk dat met Intel: meer cores nodig? Dat gaat alleen als we er trage cores bijplakken.

Als je het wil vergelijken had Intel er P-cores bij moeten plakken met een lagere clocksnelheid en/of minder cache. Dat kon echter niet dus zijn het maar E-cores geworden.

En waar slaat die laatste opmerking nou weer op. Goed om te weten dat jij precies weet dat ik partij kies. Eens zien hoor. Ik heb hier thuis 3x Intel en 3x AMD. Ik zal mijn Intel devices vertellen dat ik partij kies. De E-cores zullen helemaal ondersteboven zijn.
3D cache is een uitbreiding van cache die op een innovatieve manier in de die wordt ondergebracht waardoor er diversificatie is. Meer cache nodig? Dan neem je de CPU met meer cache. Vergelijk dat met Intel: meer cores nodig? Dat gaat alleen als we er trage cores bijplakken.
Op zich wel een grappig idee dat AMD met dat idee nu Intel eigenlijk voor weet te blijven, terwijl Intel dat een kleine 30 jaar geleden al toepaste in de Pentium Pro.

Daar hadden ze toen de CPU en de cache op verschillende stukjes silicon zitten en dat met van die kleine gouden soldeer-bruggetjes met elkaar verbonden.
De Pro. De grootste baksteen CPU ever :) prachtig ding.
Vergeet de eerste Xeon's in Slot-2 niet :)
Daar had ik wat minder een 'baksteen' gevoel bij. Meer broodtrommel door het plastic van de cassette.

De pentium 60 kwam ook een end in de baksteen-categorie.

[Reactie gewijzigd door Korvaag op 1 juli 2025 13:32]

Dat is mijn ogen niet hetzelfde. Maar als je dat argument zo graag wilt gebruiken om jezelf te overtuigen. be my guest.

Amd heeft de mogelijkheid om CPU's met 3D cache en zonder 3D cache te leveren en dat doen ze dan ook.

Intel had gewoon niet de keuze om een procerssor met 16 P cores te leveren. Dan kan je doen alsof dat hetzelfde is. Wat moet ik er van zeggen. ik zeg verder maar niks. want het is zonde van mijn tijd.
Klopt het is niet precies hetzelfde maar het is wel dezelfde gedachtegang, dat omdat Intel toevallig P cores had die heet werden en E cores daarom toegevoegd heeft. En daarmee zou dat een zwaktebod zijn van de kant van Intel.

Evengoed kan iemand dan zeggen dat aangezien AMD achter liep op gaming prestaties, het 3D cache een zwaktebod zou zijn om mee te kunnen blijven doen.

Enig abstract denken is wel vereist om de correlatie tussen de twee standpunten te zien.

Overigens hoef ik niemand te overtuigen, ik probeer te begrijpen waarom Intel's E cores als een zwaktebod gezien wordt. Ik heb inderdaad behoorlijk veel tijd verdaan hier zonder ook maar 1 steekhoudend argument te horen waarom dat zo zou zijn.

[Reactie gewijzigd door A Lurker op 30 juni 2025 18:58]

Bovendien is bij 3D cache ook sprake van een compromis; de CPU met 3D cache heeft naast voordelen ook een nadeel tov degene zonder dat 3D cache, namelijk iets lagere maximale clockfrequentie.
Dat was bij eerste twee generaties zo omdat de cache-chip boven op de cpu was geplaatst en deze daarom zijn warmte minder goed kwijt kon, bij de laatste generatie ligt de cache-chip onder de cpu cores en v.z.i.w. klokken die net zo hoog als de non-x3d versies en zijn nu ook volledig unlocked in ryzen master.
Wel een "nood oplossing " want intel kon geen 16P cores op hun CPU leveren i.v.m gebruikte node process en het daarbij gepaarde stroomverbruik.

En om mee te kunnen met de X core hype en hun multitread performance op pijl te houden hebben ze dus e-cores geïntroduceerd.

Dat neemt dit weg dat E-cores hun nut kunnen hebben. voor achtergrond processen.
Geen noodoplossing, want E-cores zijn simpelweg fundamenteel beter voor multithreaded applicaties. Het is niet dat als hun P-cores beter waren geweest, E-cores niet meer nuttig waren. Onder de streep krijg je diminishing returns als je maar meer en meer prestaties uit een enkele core wil pushen (wat je dus ziet met de P-cores, vooral bij de i7s / i9s). Een E-core kan 2x zo klein zijn, en bijvoorbeeld 0.7x de prestaties bieden van een P-core. Oftewel dan kan je in dezelfde area / power, 1.4x meer prestaties krijgen met E-cores. De eis is wel dat de applicatie goed schaalt naar meerdere cores, wat uiteraard niet alle applicaties doen. En daarom heb je dus een combi van E-cores en P-cores. En dus niet enkel voor achtergrond processen zijn E-cores nuttig, want dan had je er wel genoeg gehad aan 1-2. Voor alle processen die goed schalen over veel cores zijn E-cores efficienter dan P-cores.
Je kan agumenteren wat je wil Het feit blijft dat de enige reden dat we E-cores hebben dat intel gewoon niet genoeg P-core kon leveren met hun huidige ontwerp/process. Dat is het hele punt wat ik wilde maken.

Er dan zijn er nog mensen die intel roemen om hun inovatie omdat ze met e-cores op de proppen kwanen. Ze hadden gewoon geen andere keus op dat moment om met AMD te kunnen concureren op multitreaded workloads.

Ik beargumenteerd nergens dat E-core geen nut hebben of of dat ze minder verbruiken dan P-core. Ik ga al een tijdje mee dat hoef je echt niet aan mij uit te leggen.
Je kan agumenteren wat je wil Het feit blijft dat de enige reden dat we E-cores hebben dat intel gewoon niet genoeg P-core kon leveren met hun huidige ontwerp/process. Dat is het hele punt wat ik wilde maken.
Dit, begrijp ik nu net, is ook de opvatting van Korvaag maar ik en een aantal anderen zijn het hier fundamenteel mee oneens. Denk dat dit de kern van de discussie is; de stelling "de E cores waren er niet geweest (op desktop CPUs) als ze meer P cores op een die konden stoppen."

Pertinent oneens. Agree to disagree dan maar? ;)
Als je het met het fundament oneens bent kun je elkaar niet overtuigen.

[Reactie gewijzigd door A Lurker op 30 juni 2025 19:01]

Maar mijn hele punt is dat ook al hadden ze wel "genoeg" P-core kunnen leveren, dan nog waren E-cores een zinvolle toevoeging geweest. Als jij 2x zo'n snelle single threaded performance wil, kost het meer dan 2x de area en power. Als je 2x zo'n snelle multi threaded performance wil, dan kost het (bijna) precies 2x de area en power. E-cores zijn altijd efficienter dan P-cores voor applicaties die goed schalen met meer threads. En natuurlijk hadden ze zover voor gelegen op AMD dat het geen drol uitmaakte wat ze deden, dan was de E-core er misschien nooit gekomen. De wet van de remmende voorsprong. Maar ook dan was een E-core wel nuttig geweest.
nee intel is lekker bezig

60% betere prestaties met 60% meer stroom, dat is geen innovatie maar achteruitgang.
Wel bijblijven, Intel heeft vorig jaar een generatie uitgebracht die veel zuiniger is dan de voorgaande generaties. Ook iets langzamer...
Hyperthreading gaat weg omdat het veel ruimte inneemt op je chip. Als je toch E-cores hebt kun je die gebruiken. Maar hyperthreading draait op je snelle cores dus er is zeker nog wel winst als je weinig P-cores hebt.

Dus het is innovatie maar voornamelijk ook kosten reductie. AMD lift deels mee op de innovaties van tsmc hierdoor kunnen hun chips zuiniger zijn. Intel kan de architectuur en het productieproces tweaken, dus hopelijk gaan ze daar weer mooie dingen doen. Maar daarvoor moeten we nog even wachten, nu verbruiken hun CPU's nog teveel.
Hyperthreading is een truc dat de fysieke processor zich gaat gedragen als 2 logische processors. Dat neemt geen ruimte in volgens mij, tenzij er extra chips ergens nodig zijn om het als geheel mogelijk te maken.
"Volgens [Intel] kan een P-core zonder hyperthreading [...] tien procent minder chipoppervlak innemen dan een mét HT." (bron)
Precies - je hebt ongeveer 10% van een core nodig om een thread tijdelijk te parkeren terwijl de core een andere thread runt. Maar het OS kan een thread helemaal in RAM parkeren, en daar is veel meer van. Wat optimaal is, hangt af van hoeveel threads er zijn, hoeveel cores, en hoe actief elke thread is. HT is dus elke keer weer een afweging.
En het kost ook ongeveer 10% meer power. Door het uitschakelen van HT maakt Intel ook power budget vrij voor de (in Ultra-200 veel beter presterende) E-cores.
Volgens mij was het voornamelijk h=dat HT evenredig veel meer power gebruikte dan de perfomance verschillen.

HT levert vaak maar 5% verschil in performance en dat is gemiddeld en door geen HT meer op de core had men meer ruimte voor E-cores waarvan Intel zij dat dat meer opleverde.
Ht neemt wel degelijk wat extra plaats in op je chip, hoeveel etc weet ik niet maar het is niet zomaar gratis.
edit:
Was blijkbaar al gezegd

[Reactie gewijzigd door Pure_evil op 30 juni 2025 17:30]

Dat is geen evolutie, dat is zuiver gedaan omdat de schaling niet meer werkte in hun pijplijn en omdat de P Cores warmte problemen hebben met de extra HT.


Het schaalt van geen meter meer kan je perfect lezen in de phoronix review https://www.phoronix.com/review/intel-xeon-6300-amd-epyc-4005-smt/7


En als Intel dan zo vooruitstrevend is met e Cores waarom presteren de c Cores van AMD dan zeker zo goed en zijn volledig compatibel. Intel heeft gewoon 2 verschillende core lijnen proberen samen te smijten en is maar half gelukt. Scheduling van die dingen is een ramp als je niet genoeg P hebt. Enkel goed in benchmarks.
Mijn i7 2600k deed zonder problemen 4.3 ghz op alle 4 cores.
Maar na verloop van tijd vond ie het iets te veel.
Honderd mhz er af, en toen deed ie weer normaal.
Enorm lang plezier van gehad, 24gb geheugen er op (bijna 10 jaar).
Dat was niet uit het niets, de Core2Duo was een opvolger van Jonah en Merom (Intel Centrino platform) die weer een opvolger waren van de P6 (Pentium III).
Ja, maar niemand had zo'n verwoestend resultaat verwacht.

Mijn Q6600 heb ik jaaaaaaren gebruikt omdat upgraden tegenover AMD niet nodig was want ze hadden er geen antwoord op.
Ik heb jaren op de opvolger gezeten, de Q9450, wat overklokt naar 3500mhz was hij lekker snel.

Daarna de beroemde E8500 gehad, volgens mij ging die overklokt naar 4200mhz.

Nostalgie.
Niet met deze CPUs in ieder geval.

Er zijn nog steeds een boel workloads die hoofdzakelijk single-threaded zijn. En van wat we in het verleden hebben gezien zijn E-cores niet echt werkpaarden, dus van de Low Power cores hoef je helemaal niks te verwachten.

Ze zullen wel een inhaalslag richtig AMD maken, maar zowel AMD als Intel hebben een enorm probleem in de ARM OEMs. Die kunnen op het moment per watt veel meer prestaties eruit pompen.

Overigens hebben Nvidia en AMD dit probleem ook met GPUs.

Apple's M1 GPU haalt bij 60W dezelfde prestaties als een discrete laptop GPU bij 170W, en met 100W dezelfde prestaties als een RTX 3090 op 320W (!).

Daar zitten nog wel wat haken en ogen aan. Zo loopt Apple vaak 1 generatie voor qua fab proces, en de rauwe bandbreedte doen de discrete GPUs het vaak ook nog beter in. Daardoor moeten 'ARM' (heeft eigenlijk niks met ARM te maken maar zo noemt men ze) GPUs aan tile-based rendering doen en dat heeft wel wat extra voeten in de aarde.


Dit heeft overigens niks met de instructieset van x86 vs ARM64 te maken, dat is een hardnekkige mythe. Maar ARM processoren / SoCs worden ondertussen al bijna 20 jaar engineered op maximale energiezuinigheid omdat ze voornamelijk in apparaten met minuscule accus zaten. x86 komt uit de desktop wereld, waar het denkbeeld 40 jaar lang "extra veel stroom voor een extra procent performance" is geweest.
"E-cores niet echt werkpaarden"

Volgens intel waren de e-cores van de 285k net zo snel als de P-Cores uit de 12 serie.

"Apple's M1 GPU haalt bij 60W dezelfde prestaties als een discrete laptop GPU bij 170W, en met 100W dezelfde prestaties als een RTX 3090 op 320W (!)."

Google search gedaan, nergens een benchmark gevonden die de M1 in de buurt van een 3090 komt.

[Reactie gewijzigd door hbvdh op 30 juni 2025 18:25]

Een midrange Core i7 met al 14 P cores, dat wordt wel geweld.

Intel zit nu maar op 8 P cores. Als die 60% uitkomt, dan gaat AMD het moeilijk krijgen. Hun 16 core/32thread layout is nooit zover uit te melken.

AMD zal ook naar 24 core/48thread processor moeten voor consumer CPU's.


Wel goede tijden voor de consument!
Alles meer dan 8 cores is overkill, aangezien deze cores naar alle waarschijnlijkheid memory starved zullen zijn. Doe eerst maar eens quad-channel geheugen standaard maken.
dit _zou_ ook kunnen de reden zijn dat deze "zoveel sneller" worden - de memory bottleneck aangepakt. Is er al iets gezegd over het platform?
Een grote L3 cache is dus precies het antwoord daarop. Elke L3 cache hit hoeft niet uit DDR5 te komen.
Inderdaad, het kan ook veel 'simpeler' opgelost: gewoon een gigantische cache erop bovenop schroeven à la AMD's X3D-serie processoren.
Hoezo,

Mijn 12 core staat 80% van de tijd uit zijn neus te eten zou niet weten wat een 24 core moet doen, Zelfs in de nieuwe unreal 5.5 games zie je dat de processor lang en na geen 80% util haalt laat staan 100%.
Er is meer dan gaming, Alhoewel we op het punt staan dat 8 cores niet meer voldoende is, games gaan meer en meer ook graag 12 cores zien.
en wat doen de gemiddelde gebruikers met hun pc wat zoveel cores nodig heeft naast gaming,

Ik ken alleen wat niche functies van wat enhousiasts meer daar houd het dan ook mee op,
In de praktijk loop je tegen een aantal zaken aan met zoveel cores (merk ik nu al met 16 cores/32 threads): niet al het werk is zo lekker parallel te doen en de geheugenbandbreedte is te beperkt om alle cores met verschillende taken bezig te houden. Vandaar dat die dikke Epyc CPUs 12-channel memory gebruiken terwijl we het op de desktop met een schamele 2 channels moeten doen. Ik zou het leuker vinden als ze 16 cores houden maar 4 (of 6 of 8 channels) geheugen gaan ondersteunen. Kan wellicht ook de klok wat omhoog want met 2DPC is die ook niet om over naar huis te schrijven.

-
Zen6 gaat waarschijnlijk 24 cores krijgen voor desktop. Er was even sprake van 32 cores maar dat lijkt te zijn geschrapt. Ze gaan 12 cores per CCD uitbrengen (en dus wordt de 24-core weer een dual CCD chip). Server gaat naar maximaal 256 cores per CPU.

Allemaal nog niet officieel bevestigd natuurlijk.
Zal heel erg afhankelijk van de prijs zijn en waar die 60% gehaald wordt. Er zijn op het moment workloads waar Intel bijna 40% achterloopt. Doe daar 60% bij en ze zijn 15% sneller dan AMD. Als dat alleen dan op i9 is voor 1200 euro, dan zijn we terug in de tijd van de ZEN3, niet de core2Duo.

Concurrentie is natuurlijk goed, maar eerst even afwachten waar we werkelijk uitkomen.
Zeer onwaarschijnlijk om op te maken uit wat vage teksten en intern pr-materiaal.
"De singlethreaded prestaties van Nova Lake zouden met meer dan tien procent stijgen"

Dus nee. Geen Core2duo of Ryzen 'jump', want een single thread improvement is veel lastiger dan cores bijplakken.
1.1x ST betekent dat Intel net bij de 7800X3D komt voor games. En 1.6x MT gaat AMD in de volgende generatie al by default halen omdat ze van 16 naar 24 cores gaan.

Dat Intel met een verdubbeling van het aantal cores alsnog maar 1.6x MT performance beweert zou iedereen aan het twijfelen moeten zetten.
Kan ik me zeer weinig bijvoorstellen, maar je weet het nooit

Bij Intels processoren nu zie je ook dat ze best snel zijn in single core prestaties als je naar bijvoorbeeld Cinebench kijkt, maar in games zijn ze vaak als nog niet sneller als hun concurrentie.
Overig niet vreemd dat de multicore prestaties zo omhoog gaan als je er zoveel cores bij plakt.

Maar tijden zijn ook flink veranderd, toen Intel met de Core2Duo kwamen, waren ze al dominant in de CPU markt, en had AMD vele male minder geld te besteden als ze nu hebben

Dus nee, dat zie ik niet zomaar weer gebeuren
Hopelijk lezen de programmeurs mee en schalen de applicaties mee want feit is nog steeds dat veel threads van applicaties onbenut blijven, (ja Windows geeft aan zoveel threads toegewezen maar werkelijkheid kunnen benutten blijft lastig.

Doe mij maar sneller threads(Cores) ipv meer.

Ik spreek op desktop niveau, server niveau is ander verhaal natuurlijk.

[Reactie gewijzigd door mr_evil08 op 30 juni 2025 11:32]

Desktop is dat inderdaad beter. We hangen tegenwoordig teveel softwarematige oplossingen aan CPU's. Daardoor zouden ze theoretisch sneller en beter moeten zijn. Praktijk is dat de algoritmes en instellingen vaker de snelheid om zeep helpen. Als je ziet wat er in een BIOS allemaal geregeld is om een CPU iets te laten doen, dat is voor professionals.

Raw performance is iets dat altijd goed werkt. Ik zie liefst een 16 core processor zonder E cores of hyperthreading. Dan kan er ook weinig verknald worden door OS of BIOS instellingen.
Een probleem is dat veel problemen op de desktop niet echt parallel te doen zijn. Een dom voorbeeld: ik resize mijn browser window (UI werkt eigenlijk altijd in 1 thread) en het document op het scherm moet opnieuw opgemaakt worden (=reflow). Het opnieuw opmaken is lastig te paralleliseren want wat je op de eerste regel doet heeft effect op regel 2. Dus je kunt regel 2 pas opmaken als je regel 1 gedaan hebt. Je zou iets van het styling deel (CSS) parallel kunnen doen, maar dan moet je wel locken om te zorgen dat de threads elkaar niet in de weg zitten, maar locken kost tijd dus als je teveel threads hiervoor start dan ben je je absolute performance voordeel kwijt (maar in je taskmanager staan dan wel alle cores op 100%). Het is allemaal een beetje simplistisch hier uitgelegd, maar het is soms veel snellerom het niet concurrent te doen. Op een (web)server draai je heel veel requestst die onafhankelijk zijn van elkaar op 1 CPU. Daar is parallele verwerking triviaal.
Multipass. Single thread om dependencies te vinden daarna met meerdere threads details uitwerken.
Ook die zaken die jij beschrijft, zijn gewoon concurrent uit te voeren. En gebeurt ook in moderne toolkits als gtk4 of wayland.
Hopelijk lezen de programmeurs mee en schalen de applicaties mee want feit is nog steeds dat veel threads van applicaties onbenut blijven

Ik lees mee, echter meeste programmeurs zijn niet echt "multithread savy".
Dan moeten ze thread locking goed onder de knie hebben, en daar krijgen ze hoofdpijn van heb ik begrepen.

Hogere programmeertalen zouden dat automatisch doen, maar dat komt de efficiëntie niet altijd ten goede.

Parallel denken is niet voor iedereen weggelegd.... (no offence intended)
Mutexen (thread locks) zijn al lang achterhaald, tegenwoordig doen we aan lock-free en wait-free programming met atomaire instructies zoals cmpxchg en xadd.
Net iets te kort door de bocht ...
Op lower level wordt het uiteindelijk wel gedaan, of je er van bewust bent is een tweede...

Maar je hoeft er niet meer druk om te maken, dat klopt in 95% van de gevallen.
Er is maar 1 niveau lager dan machinetaal, en jij en ik hebben daar geen toegang toe. Lock-free algoritmes zijn 2 tot 3 ordes sneller dan thread locks (bij hevige congestie). Wat je waarschijnlijk (en hopelijk) bedoelt is dat lock-free algoritmes niet overal toegepast kunnen worden. Als het ingewikkelder is dan een linked list of een queue (meest gebruikte lock-free primitief) dan moet er toch een thread lock gebruikt worden. Zo had de Linux kernel jaren geleden één groot thread lock, nu hebben ze er meerdere (fine-grained locking).
Exact, context is zeer belangrijk.
Efficiënte thread locking vergt nu eenmaal additionele effort en kennis.
De meeste applicaties zijn tegenwoordig in de browser (helaas of gelukkig, ligt er maar net aan hoeveel je van CSS houdt), en browsers draaien tegenwoordig een of meer processen per tab.

De meeste desktop-workflows die al niet parallel zijn, zijn ook niet zo makkelijk parallel te maken. Je hebt natuurlijk wel workstation-taken als CAD die geoptimaliseerde applicaties vereisen en video-encoders die hier ook wat mee moeten, maar voor het meeste desktopwerk is er niet veel winst te behalen.

Een groot deel van de moderne GUI-applicaties is niet per se traag vanwege het werk dat gedaan wordt, maar vanwege de complexiteit van het synchroniseren van UI-status en applicatiestatus. 120x per seconde de status van een programma checken vereist de nodige complexiteit en die wordt nog meer verhoogd als je ook nog eens extra threads moet gaan bijhouden.

Plus, als je de klant vraagt of hij een snelle UI wil of de feature/bugfix die hij vorige week ingediend heeft, dan is het antwoord helaas bijna altijd "de feature/bugfix", totdat de applicatie zo baggertraag is dat het niet meer uit te houden is. Genoeg te zeggen over bijvoorbeeld de re-write van de Windows 11-taakbalk, die mooi en vloeiend geanimeerd is, maar waar mensen vooral boos over zijn omdat hij anders ishun favoriete features mist.

Met de trend richting talen als Rust (waar multithreading makkelijker is zonder gigantische bugs) en ontwikkelingen in green threading-architecturen, zoals Project Loom voor Java-applicaties, zie ik nog wel eens betere multithreading in applicaties verschijnen, maar verwacht er niet extreem veel van.

Overigens zijn ongebruikte cores niet per se slecht. Als al het werk gedaan kan worden met 2 cores, is het geen probleem als je er 10 niet gebruikt. Scheelt stroom en hitte, en laat je programma goed werken zelfs als Windows Update op de achtergrond aanslaat, of als je backupprogramma ineens inschakelt en die cores uit standby kunnen komen zonder je werk te verstoren.

[Reactie gewijzigd door GertMenkel op 30 juni 2025 13:53]

Blijft leuk om reacties te lezen van mensen die duidelijk nog nooit aan een daadwerkelijke applicatie met gebruikers gesleuteld hebben die dan zeggen "paralleliseer even aub, er zijn meerdere cores!"

Je moet wel echt nog nooit meer dan 10 regels geprogrammeerd hebben in je leven om dat te zeggen.

Dit is figuurlijk hetzelfde als aan een kok vragen om je eten uit te splitsen over 2 ovens zodat het sneller klaar is. Het werkt in veel gevallen gewoon niet zo. Je kunt niet met 2 vrouwen in 4,5 maand een baby produceren.

[Reactie gewijzigd door youridv1 op 30 juni 2025 16:52]

Ik begrijp best dat het lastig is om dit te verdelen over meerdere cores, feit is wel dat optimalisatie geld kost en een vies woord is bij winstgevende bedrijven en daardoor lage prioriteit heeft.

Het verhaal van de kok verdraai je vreemd dat moet je dan anders zien, je gebruikt 2 pannen ipv 1 en daardoor bespaar je tijd met opwarmen, 50% in elk pan.

[Reactie gewijzigd door mr_evil08 op 30 juni 2025 16:54]

Dat is heel wat anders dan maar gewoon dom paralleliseren. Alleen grof rekenwerk is goed te paralleliseren en dat komt voor veel desktopgebruikers gewoon weinig voor.

Het is niet dat kantoorapplicaties ineens 100 keer sneller zouden zijn met parallelisatie. Er is niks te parelleliseren

Moderne desktop applicaties zijn vaak vies traag omdat ze een of ander makkelijk framework gebruiken. Tegenwoordig moet alles cross platform zijn en is er geen geld voor aparte codebases. Dus je maakt 1 gedrocht wat "werkt" op zowel windows, linux, macos, etc

[Reactie gewijzigd door youridv1 op 30 juni 2025 16:55]

Als je processor 24 threads heeft en je gebruikt maar één is dat anders best wel zonde...

Dan heb je de standaard riedeltje van programmeurs "ja maar Windows gebruikt de andere processen voor andere zaken" Nee die staan uit hun neus te vreten(geparkeerd) ik ben bezig met applicatie x en verwacht dan ook minimaal 12 threads werkelijk gebruikt worden anders heeft hyper threading ook geen zin op mijn CPU.

[Reactie gewijzigd door mr_evil08 op 30 juni 2025 17:01]

Dan heb je de standaard riedeltje van programmeurs "ja maar Windows gebruikt de andere processen voor andere zaken" Nee die staan uit hun neus te vreten(geparkeerd) ik ben bezig met applicatie x en verwacht dan ook minimaal 12 threads werkelijk gebruikt worden anders heeft hyper threading ook geen zin op mijn CPU.
Again, dit is weer de "stop mijn eten in meerdere ovens zodat het sneller klaar is". Wie zegt dat "applicatie x" sneller zou zijn als de programmeur alles zou multithreaden? Bevat de applicatie rekenwerk wat geparalleliseerd kan worden? Wat voor soort applicatie is het uberhaupt?

Wat ik vooral hoor, is dat jij de verkeerde processor hebt gekocht voor applicatie X. Inderdaad, er zijn applicaties die niet goed gebruik maken van meerdere cores. Tenzij het om beruchte voorbeelden als Adobe applicaties of CAD programmas gaat, is dat echter vaak omdat er gewoon geen winst te behalen is met meerdere cores.

Je kan het werk wel over meerdere threads verspreiden, maar tenzij die threads volledig onafhankelijke input en output hebben, wat in de praktijk maar in een bepaald aantal specifieke usecases zo is, moeten ze alsnog op elkaar wachten. En dan heb je kans dat Windows ze alsnog op 1 core parkeert omdat die core tijd over heeft.

Heb je ooit een ikea meubel gebouwd met meer dan 1 persoon? Ja, er zijn stukken waar je samen 2x zo snel bent omdat je tegelijk verschillende stukjes kan bouwen, maar 75% van de tijd is maar één van de twee mensen nuttig en staat de ander te wachten totdat er weer een stap in het boekje komt waar er 24 schroeven tegelijk aangedraaid moeten worden op 24 verschillende plekken.

Als je nog nooit geprogrammeerd hebt aan een desktop applicatie dan snap je dat niet. Maar gangbare applicaties voor kantoorwerk hebben gewoon écht niks aan meerdere threads. Renderen, compileren, analyse software wel, maar dat gebruik jij overduidelijk niet.

En dan kun je wel aankomen met "ja maar ik verwacht" maar het boeit geen reet wat jij verwacht. Het gaat erom wat technisch mogelijk is en wat toegevoegde waarde heeft. Het binnen harken van jouw emails gaat niet sneller met 12 threads dan met 1.

[Reactie gewijzigd door youridv1 op 1 juli 2025 09:24]

Jij weet ook dat het zo niet bij computers werkt, de zwaardere applicaties laten wel degelijk behoorlijk winst zien.
Dat heeft niks met zwaar tegenover licht te maken. Dat heeft te maken met wat voor soort rekenwerk er gedaan moet worden. Het is niet zo dat als je meer werk hebt, het aantal cores wat je effectief kunt inzetten toe neemt. Dat heeft NIKS met elkaar te maken. Jij kan van alles denken, maar neem het nou gewoon aan van iemand die WEL weet waar hij het over heeft. Software is niet jouw vak. Doe niet alsof je het wel snapt.

Uit elke reactie van je druipt "ik heb 1x een pc zelf gebouwd met youtube videos en nu weet ik alles want ik ben een enthusiast en ik kijk benchmark videos" Terwijl je overduidelijk inhoudelijk geen idee hebt wat je zegt.

Je hebt nog niet één keer een applicatie genoemd waarvan je multihreading verwacht. Alleen maar hypothetisch en "applicatie X". Dat is omdat je geen concrete onderbouwing hebt voor wat die applicatie op meerdere cores zou moeten doen.

Ja blender of een compiler of adobe photoshop kunnen goed multithreaden omdat daar daadwerkelijk taken in zitten waar er gewoon dom veel rekenwerk gedaan moet worden wat goed op te delen is in meerdere compleet losse processen. Heel veel applicaties hebben gewoon niet dat soort werk om te doen.

Word heeft geen 12 taken die tegelijk gedaan moeten worden. Outlook ook niet. Firefox 9/10 keer ook niet. OBS ook niet tenzij je software rendering aanzet. Multihreading zou die applicaties LANGZAMER maken

Als de applicaties die jij doorgaans gebruikt nooit 12 logische cores aanspreken, koop dan geen CPU die dat heeft. Dat is verspild geld. Wat je niet moet doe nis een dure CPU kopen en dan klagen dat hij niet bij je usecase past. En als je er dan op gewezen wordt dat je gewoon niet het juiste product gekocht hebt maar gewoon grijpen naar een bullshit argument als "dit was allemaal geen probleem als ontwikkelaars maar beter zouden optimaliseren" Want daar klopt geen. reet. van.

[Reactie gewijzigd door youridv1 op 1 juli 2025 09:38]

super goed dat er nu eindelijk weer wellicht wat competitie voor AMD aan komt, want ze zijn wel een beetje alleenheerser nu.
Intel heeft ongeveer 75% van de x86 markt, en AMD de resterende 25%, dus Intel is nog steeds dominant. AMD's marktaandeel groeit wel ten koste van Intel, maar zo snel gaat dat niet.

Op de universiteit waar ik werk, zie ik nagenoeg geen AMD laptops / servers / desktops. Alles Intel of Apple-ARM. Geloof dat dat bij veel instellingen/bedrijven zo is.
Ik heb het meer over de enthosiast market. Mensen die weten wat ze kopen, kopen echt wel AMD cpu's , en de huidige lineup van Intel wordt eigenlijk op alle serieuze sites ook afgeraden. voor dat dat doorsijpelt naar jan op de hoek duurt inderdaad even, maar het feit is wel dat AMD op dit moment superieure cpu's heeft. Dat kan je in de comments hier ook volop lezen :)

Ook op server gebied zet amd met hun epyc grote stappen.

[Reactie gewijzigd door Visgek82 op 30 juni 2025 11:45]

OK, heb net een Intel gekocht. Goed om te weten dat ik kennelijk niet weet waar ik het over heb...

De Core Ultra 7 265K is goedkoper dan Ryzen processors die even goed presteren in de productivity benchmarks (Photoshop e.d.). Daarnaast is de integrated GPU een stuk beter, wat voor de productivity markt heel belangrijk is. Losse GPUs zie je maar zelden in een kantoor.
Dat is inderdaad het enige waar ze beter in zijn (soms). Kijk je naar al het andere, maken ze geen kans. De Core ultra lijn wordt dan ook voornamelijk gezien als een stapje in de goede richting, maar toch teleurstellend.
Heeft er ook mee te maken dat het aanbod van zakelijke AMD modellen door de OEMs nog steeds achter blijft t.o.v. Intel. Dat en het feit dat veel bedrijven in hun requirements vaak nog steeds vaak alleen maar Intel benoemen. Dat laatste zorgt er imho voor dat het eerste niet sneller wordt opgelost.
Intel heef grote productie capaciteit om daar hoog rendement uit te halen hebben ze groot aandeel nodig in de markt.
Het wordt toch tijd dat een vermaard bedrijf als Intel eens met een waardige concurrent komt voor de Ryzen 7 9800X3D.

Ik heb onlangs een nieuwe PC aangeschaft en Intel was niet eens een optie. Dat is toch wel andere koek dan mijn jeugdjaren met de "Pentium inside"!
Die Core Ultra met 16 P cores kan dat worden.

Je zet E cores en de LPE cores uit. Dan is elke taak van gaming altijd op een volledige core. Geen misvattingen meer van de Windows Scheduler. Met 16 cores op 5700-6000mhz, dan kan je wel op tegen de 9800X3D.

Sowieso bij 90% van de games (want die zijn GPU bound), en in die laatste 10% is het al een niche vinden waar de X3D dan echt loont.

Beter zou zijn als Intel dit standaard al uitbracht. Maak een 16 core CPU met alleen X3D erop en voor de rest alles uitgezet. Dan pas krijg je appels met appels vergelijking.
Maar waarom zou je dan een Intel cpu kopen. Als je Intel koopt, en dan een groot gedeelte van de cpu gaat uitzetten ben je ook niet heel erg efficient bezig. En juist de E-Cores zijn momenteel de meerwaarde waar Intel nog op drijft in sommige productivity workloads, Intel zet daardoor ook op volop in op E-Cores. Als je die 16P cores wil kan je net zo goed, zo niet beter een AMD kopen op het moment.

Het heeft er immers volgens de geruchten die wat verder kijken op de horizon er alle schijn van dat Intel bezig is met een 'unified core', maar dat het de E-Cores zijn die daar de basis voor gaan zijn en niet de huidige P-Cores, want Intel lijkt Intern vrij on tevreden te zijn met de huidige P-Core design teams.

Daarnaast wil je vermoed ik straks niet ook een cpu gaan kopen die 'op kan' tegen de 9800X3D, Intel NVL moet een Zen 6 X3D concurrent zijn, niet de concurrentie aankunnen met Zen 5, dat zou een gigantische flater zijn, mogelijk nog groter dan Arrow Lake al was voor gaming. Als ze slechts zouden concurreren met AMD's 9000 serie in gaming, gaan dit geen succes worden in het enthousiast segment.
Dat is wel efficient. Een 9800X3D is ook zeer snel in gaming, maar zeer traag in multithreaded workloads. Als je ziet hoeveel midrange processors van Intel en AMD sneller zijn dan de 9800X3D.

De 14 core zou ook al voor dit doel kunnen zijn als je minder geld wilt uitgeven. Maar wat ik zei, Intel zou een dedicated CPU moeten uitbrengen die echt kan concurreren. To dan blijft het appels met peren vergelijken.

Het zou ook raar zijn dat Intel zonder X3D, bij AMD zou komen met X3D. Dat is als een auto zonder turbo, een auto met turbo voorbijgaan.
Veel gamers interesseert een typische multi thread workload niks. Videos colorgaden, 1000 fotos batch in Lightroom aanpassen...dat zijn typische multi thread zaken. Of het dan 1 minuut duurt of 40s, boeit die gamers doelgroep heel weinig. Die willen gewoon bang for the buck waar het uitmaakt.

[Reactie gewijzigd door kabelmannetje op 30 juni 2025 14:59]

Het klinkt indrukwekkend. Tot je het tegen de huidige AMD line-up houdt. De huidige AMD's zijn zuiniger en een pak sneller dan Intel. En AMD laat het daar niet bij zitten. Die hebben hun antwoord al klaar liggen. Dus of dit het verschil gaat maken betwijfel ik ten zeerste. Ze hebben nog wel wat tijd nodig om weer in te lopen. En in die tijd snoept AMD vrolijk aan het marktaandeel van Intel. Naast het gegeven dat ARM inmiddels ook aan hun marktaandeel knaagt.

[Reactie gewijzigd door Seth_Chaos op 30 juni 2025 11:41]

AMD is niet zuiniger, idle is Intel zuiniger, en CPU's staan zelden uren lang op alle cores te draaien.

Ik denk dat na een jaar gebruik van een CPU, de Intel eigenaar meer geld in zijn zak heeft weten te houden.
Dat is een fabeltje. Mijn 7800X3D doet 3,5 watt Idle (Zelfs nog iets lager. Deze zakt naar 3,3 watt maar gemiddeld is het 3,5 watt). Er zijn een hoop mensen op social media die anders beweren, maar zonder enige bron en of onderbouwing. Als ik mijn discord, en discord scherm, deze browser en alle overige onnodige applicaties sluit, haal ik 1,5 watt. Mijn computer gestuurde lichtschakelaars verbruiken nog meer.

Als AMD gebruiker kun je dat ook real time zien in Ryzen Master.

[Reactie gewijzigd door Seth_Chaos op 30 juni 2025 16:14]

Dat zijn alleen je cores. Je SOC moet je daar ook nog bij optellen. Dat is afhankelijk van wat voor geheugen je hebt en op wat voor voltages alles draait zo tussen de 12 en 20W. Je hele package (PPT) verbruikt zo'n 30W idle. Daar zit uiteraard wat variatie in zoals ik hierboven aan gaf, maar wat je zegt klopt maar deels. CPU is inderdaad laag (hier nu 2,8W) maar CPU zijn alleen je cores en daar zit de SOC niet bij. Open HWiNFO en zoek naar Cpu Package Power. Wat daar staat is wat je gehele processor verbruikt: CPU, SOC, Fabric. Hier nu 28W met een 9700X.

Monolithic dies zoals de G series op desktop zitten lager en zo rond de 10-12W idle power voor de gehele processor.
'The devil finds work for idle cores.' Ik raad iedereen dan ook aan Prime95 te draaien.
Ik zou het wel bijzonder vinden als ze hun cache-rijke CPUs enkel en alleen in de Ultra 5 serie zouden pioneren. Lijkt mij ook bijzonder geschikt voor Ultra 7 en 9 zoals AMD heeft gedaan. Dat zijn tenslotte ook de CPUs met hogere marges. Bovendien simulator spellen, zoals MS Flight Simulator, profiteren ook graag van extra cache en cores, dus het zou raar zijn als je dan een keuze tussen de twee moet maken.

Nou lijken deze Ultra 5's ook niet misselijk ten opzichte van AMD's (te) dure 8-cores met X3D. Indien deze 8P cores even hard tikken als Zen 5 (of 6), dan zijn die E cores een leuke bonus voor productivity. AMD moet wel iets gaan doen in core counts en/of product stack-up.

Mits ze op prijs niveau ook tegen elkaar op boksen. Zo hebben we zowel AMD en Intel toch net zo hard nodig.
2026 als ze dat halen is meer zen6 concurrent
Pech 2027
Is Zen6 x3D er ook al
Multithreaded verbeteren is makkelijk. Gewoon meer cores op het vervangende model zetten. Ik ben vooral benieuwd naar de prestaties van dingen die niet zo goed naar veel cores schalen
Er zit natuurlijk ook nog een hele cache/geheugen infrastructuur achter.

Een dual-channel DDR5 6000MT/s kit heeft zo'n 64GB/s bandbreedte. Een CPU met 52 cores/threads heeft dan slechts 1.2 - 1.3GB/s per thread aan ruwe geheugenbandbreedte. Een 32 thread CPU heeft nog 2GB/s. Dan geeft deze CPU toch 40% minder bandbreedte. Een goede bak cache kan dat misschien opvangen, of wellicht een hogere 'vereiste' geheugenkitsnelheid (veel reviews testen met premium geheugen kits die bij een review kit geleverd wordt). Ik ben benieuwd of deze CPUs die MT prestaties in elke applicatie kan halen.

Verder wel eens dat single thread voor mij vaak het meest interessante is. Als je ziet wat Apple kan doen met hun ARM CPUs, die op single thread flink concurreren met ruim 1GHz minder kloksnelheid, dan lopen AMD en Intel echt flink achter in IPC.

[Reactie gewijzigd door Hans1990 op 30 juni 2025 13:14]

Als je zoveel meer cores toevoegt is 60% meer MC performance heel normaal denk ik. 52 totale cores is een hele hoop. Ik ben benieuwd wat het echte verbruik zal zijn, want 150 watt tdp zal die in de verste verte niet halen onder zware load.


Van belang zal zijn dat de gaming performance een heel stuk beter zal zijn, want dat loopt nu erg ver achter met de huidige architectuur. Indien ze beide waarmaken zou het nog wel eens een heel goede cpu kunnen worden.
De 150W tdp is in elk geval al meer dan de 125W van de Core Ultra 7 265k. Ik dacht dat ze naar zuinigere chips gingen. Niet meer... Mega irritant deze trend.
Gaming is puur tegen de 9800X3D. Meeste gamers hebben dit niet nodig vanwege dat 90% van de games toch GPU bound zijn en dan nog op de hogere resoluties 1440p en 2160p spuigen de Intel processors genoeg fps (max en low 1%) dat je game ervaring prima is.

Het meten van de reviewers op 1080p is wat er technisch uit de processor te halen is. Goed om beter te vergelijken maar niet de werkelijkheid die men thuis ervaart.

Intel ontbreekt het wel dat het geen pure 9800X3D tegenstander maakt.
Ze claimen TOT 60% en ze zeggen nergens in welk programma of welk soort programma's. Het zal best wel zo zijn dat ze die 60% gemeten hebben maar dat zegt dus helemaal niets over specifieke gevallen of gemiddelden.
Vergelijken ze het dan met de huidige 65W Ultra 5/7/9's ? 60% is echt veel (los van dat het marketing is).

Heb altijd begrepen dat L3-cache wat gevoeliger is voor hitte (d.w.z. sneller stuk gaat) dus daar moeten ze met 125W ook op gaan letten.

[Reactie gewijzigd door lodu op 30 juni 2025 10:53]

Ik zou helemaal niet kijken naar zo'n gespecificeerde TDP waarde, zeker niet in een gerucht, dat zegt immers niets over het werkelijke maximale verbruik bij stock settings. Daarvoor moet je naar de powerlimits kijken en die liggen normaliter nog wel wat hoger.

Van de Intel Sku's zullen we dat pas zeker weten wanneer de datasheets beschik baarkomen bij launch, maar ik zou daar zeker niet onder de 200W verwachten voor de absolute top modellen.

Voor AMD's Sku's met X3D Cache zitten de Stock powerlimits op 162W voor de 8/12 Core Sku's en 230W voor de 16 Core modellen in de 9000 serie.

[Reactie gewijzigd door Dennism op 30 juni 2025 11:27]

Apple liet hun Intel CPUs altijd gigantisch warm draaien (tot tegen de 100°C) omdat ze een stille laptop meer premium vonden voelen, en MacBooks stonden over de linie genomen toch bekend als laptops die jaren langer meegingen dan vergelijkbare Windows laptops.
Apple's eigen ARM-cores zijn ook een stuk efficiënter, maar daar ging het hier niet om. De nieuwe Macs zijn van zichzelf stiller omdat hun chips gewoon niet zo warm worden. Dat was in het Intel-tijdperk wel anders.

Apple's Intel-macbooks waren namelijk ook veel stiller dan de concurrentie, alleen ging dat wel ten koste van (soms tientallen) procenten performance voor taken langer dan een paar seconden vergeleken met andere laptops. Apple wist dat heel slim weg te werken door het boostgedrag van de chips zo aan te passen dat als je iets doet (een programma start, een tabblad opent, etc.) de CPU snel heel hoog te klokken. De CPU wordt dan binnen de kortste keren warm en raakt zijn thermische limiet, maar als je programma of tab open is voordat die limiet bereikt is, lijkt het net alsof je computer altijd zo snel is. Zette je een langere taak aan, zoals het renderen van video of een spel, dan werkte die illusie niet meer omdat de CPU permanent warm was, en dan merkte je ook de beperkingen van Apple's ontwerp.

In sommige gevallen vlak voor de introductie van hun ARM-chips werd de CPU van hun laptop eigenlijk amper gekoeld terwijl ze chips van Intel kochten die echt niet gemaakt waren voor de semi-passieve koeling die ze gebouwd hadden. Fluisterstil, maar wel trager dan de concurrentie met een ventilator.

Nu maakt het niet zoveel meer uit. Apple's chips zijn net zo snel of een klein beetje trager dan Intel's chips, maar voor een fractie van het stroomgebruik. De chip wordt niet zo warm meer dus trucjes en verborgen thermal limits zijn niet meer nodig. Ik hoop dat Intel en AMD snel Apple en Qualcomm achteraan gaan op dat vlak, want het is toch redelijk bizar om te zien hoeveel warmte er uit een desktop komt wil die Apple's Mac Mini evenaren qua performance.
Ik wilde aangeven dat Apple het stil zijn van een computer belangrijk vind daar waar het Intel weinig lijkt te boeien. Niet dat Apple het altijd netjes oplost.

Er zijn genoeg thermische oplossingen met heat pipes of fluister stille ventilatoren in de markt, de kosten daarvan vallen reuze mee, maar Intel koos ervoor om zo'n typische laptop ventilator met een hoog, snerpend geluid in haar Nuc te zetten.

Op dit item kan niet meer gereageerd worden.