Gerucht: Intel Nova Lake heeft 52 cores en Arrow Lake-refresh komt toch uit

Intels aankomende Nova Lake-desktopprocessors krijgen naar verluidt in totaal maximaal 52 cores mee, meer dan het dubbele van de vorige generatie. Daarnaast zou Intel weer werken aan een Arrow Lake-refresh, nadat deze cpu afgelopen september werd geannuleerd.

Nova Lake, die naar verwachting in 2026 verschijnt, zou beschikken over maximaal 16 P-cores, 32 E-cores en 4 energiebesparende low-power E-cores. Dat meldt de doorgaans betrouwbare leaker Jaykihn. Intel zou daarnaast werken aan twee andere Nova Lake-configuraties, waarvan een met 8 prestatie-, 16 efficiëntie- en 4 low-powerkernen en een andere met 4 P-, 8 E- en evenveel LP-cores. Ter vergelijking: voorganger Arrow Lake bevat maximaal 24 cores, waarvan 8 prestatie- en 16-efficiëntiekernen. Overigens gaat het volgens Jaykihn om voorlopige coreconfiguraties, wat betekent dat Intel de rekenkernverdeling nog zou kunnen aanpassen.

Daarnaast meldt een andere leaker dat Intel het werk aan de Arrow Lake-S-refresh weer heeft opgepakt. In september verscheen het gerucht dat Intel deze desktopprocessors heeft geannuleerd, maar nu schrijft Golden Pig Upgrade op Weibo dat de refresh 'weer tot leven' lijkt te komen. De npu van de oorspronkelijke Arrow Lake zou in de refreshversie vervangen worden door die van de Lunar Lake-chips, terwijl andere aspecten zoals het aantal cores en de kloksnelheid naar verluidt hetzelfde blijven. De refresh stond in eerste instantie op de planning voor volgend jaar. Het is onduidelijk of dat nu nog steeds moet gebeuren.

Door Kevin Krikhaar

Redacteur

08-02-2025 • 10:28

85

Submitter: Vurenvos

Reacties (85)

85
82
29
0
0
37
Wijzig sortering
Ben ik de enige die zich zorgen maakt over de koelbaarheid van zo’n 52c chip?
We zitten stilaan op de limieten van verkleinen, en je kan ook niet verder blijven optimaliseren. Op een gegeven moment kan je alleen maar meer rekenkracht bekomen door meer of snellere cores te maken en dat brengt een hoger piekverbruik met zich mee.
Het ligt natuurlijk compleet aan het formaat van elke core. Die kunnen heel groot of heel klein zijn. Maar voor hoge single threaded performance kom je waarschijnlijk niet om een performance core heen die behoorlijk wat gebruikt.
Ik zou graag wat meer 2/4 P core + 4-6-8 E core configuraties voor de desktop willen zien eerlijk gezegd.
Ben eventjes door intel's tabbelen gegaan en Ik heb er een paar gevonden zoals deze: (https://www.intel.com/con...0-ghz/specifications.html). Maar dat zijn meestal mobile chips die je niet zomaar op een standaard moederbord kunt prikken en je offert er DIMM slots en PCIe lijntjes voor op.

Zo heeft dit (YouTube: Will the MinisForum BD795M Change the PC Building Industry?) om dezelfde reden mijn interesse gestolen. Als je er een deftige bifurcation PCIe riser op zou kunnen plaatsen. Kan je dit gebruiken als low power mid-level desktop met gaming mogelijkheden (+mid-level GPU kaart erbij Intel B570/B580, Radeon RX7600, NV RTX 4060) en later doorschuiven en hergebruiken als low power NAS (+LSI3008/LSI2008) en/of firewall (+2/4 x Intel x540 10Gbase-T, Intel x710, ...).

52 cores wow... imposant maar ik ben geen hobby hyperscaler.
14600K of 245K zijn prima processors voor jouw doeleinden.

Weinig P cores en meer E cores/hyperthreading.
Mja dan liever de 14400 en eentje met 4 P-cores en 6 E-cores :D. De base power van de 14600K is gigantisch ookal kan je met het instellen van de wat is het nu PPT en undervolten wellicht wel hele goede resultaten verkrijgen.
heb je niks aan die troep, e-cores is gewoon wat voor de benchmarks mooi uit te zien.
P-cores op de 14th zijn slurpers.

wie nu nog zo een cpu koopt is 8)7
platform is zo dood als een pier

[Reactie gewijzigd door d3x op 10 februari 2025 09:14]

Jij gelooft niet in grote en kleine cores of is dit een viscerale reactie (heel begrijpbaar wel) op de 13xxx en 14xxx serie die Intel absoluut verpest heeft door het te veel vermogen te geven, slecht te testen en dan nog te doen alsof er niks mis was en klanten in de kou heeft laten zijn ?

Persoonlijk vind ik het jammer want Alder Lake is/was quasi competitief met Ryzen. Er is een reden waarom AMD nu ZenXc cores heeft.

Ik heb een tijdje op een mini-PC met dual core atom/celeron gezeten (Intel(R) Celeron(R) CPU 3215U @ 1.70GHz) dat max 20W verbruikt (firewall applicatie nu) en dat 2 jaar aan het opwarmen was als htpc en dat deed eigenlijk wel het meeste wat ik verwachtte van een volledige computer. Zelfs Rocket League als je alles op laag zette speelde voor een couch appliance goed genoeg (30-60 fps 90%). Niet ideaal per se maar goed genoeg en een leuke vervanger/afwisseling voor N64 "Mario Kart".

Dus ik hoop ooit de ideale configuratie van P-cores te hebben (2-6 desktop) en E-cores (4-8) zodat ik het verbruik van een low end laptop heb 90% van de tijd en het verbruik van pakweg een Xbox X/S (<=200 W) 10% van de tijd. Maar ja ze maken ze niet echt voor mijn use case, ... en er zijn maar zoveel SKU's dat ze gaan kunnen maken en willen uitbrengen. En Intel wel ... blijft Intel fratsen uithalen waardoor ze hun eigen innovaties ondermijnen en mollen (Optane, Omni-Path, SIMD en andere extensies die ze willens nillens aanzetten hier en uitzetten daar, de altijd aanwezige Intel markup terwijl je al lang niet meer de top performer bent, etc ...). Jammer echt jammer.
er is zeker een markt voor, maar die is niet gewoon desktop. Mobile heeft meer voordelen als en als het juist kan werken met scheduling, cache assignment, downclocken etc.

het is al lang bewezen dat dit werkt voor mobiele devices (waar geen windows onderhangt 8)7 )

trouwens AMD heeft niet later die techniek uitgebracht, ze wilden het gewoon niet zomaar naar desktop/mobile brengen wegens de beperkte waarde. Uiteindelijk hebben ze het naar rmobile gebracht ook deel sonder druk van concurrentie, maar geven duideljik aan dat het weinig zin heeft op desktop. Het is trouwens een heel andere insteek, terwijl Intel werkt met een andere core, heeft AMD gekozen om eenzelfde core te finetunen met specifieke doel. Beide hebben voor en nadelen.

https://www.pcgamer.com/a...e-intels-efficient-cores/

Intel heeft het daarentegen overal op gesmeten wegens gewoon hun giga problemen met P cores. De power die nodig is om P-cores in gang te houden en dan hun proces problemen hield hun gewoon tegen om mee te kunnen schalen in de core race, meer dan 8 zou totale TDP doen ontploffen en schalingsproblemen geven. Dat zie je al jaar en dag in Xeon servers waar ze totale boost snelheden missen. Dat kunnen ze niet op desktop brengen want dan is hun gaming offering dood.
Het is trouwens een heel andere insteek, terwijl Intel werkt met een andere core, heeft AMD gekozen om eenzelfde core te finetunen met specifieke doel. Beide hebben voor en nadelen.
Yep Amd ZenXc is een low power zen met dezelfde instructieset, terwijl E-cores opgewaardeerde Atom cores zijn die heel wat extensies en instructies missen. Intel heeft een oppervlakte voordeel (4 x e-core == 1 p-core), maar AMD heeft het veel simpeler op softwarevlak.
Avx heeft te maken dat windows de scheduling beheert. En twee typen cores met en zonder AVX512 dus een probleem is.
Wat niet zo hoeft te zijn.
PS3 CELL PPE SPE cores.
Maar dan moet de kernel flink op de schop.
En user de vrije hardware threads kunnen managen
"52 cores wow... imposant maar ik ben geen hobby hyperscaler."
Inderdaad. Ik heb ook zelf liever meer krachtige P cores en minder E core opvulling.

Ik vraag mij af hoeveel procent van de Desktop gebruikers een Desktop CPU nodig hebben met meer dan 8 cores? Als het toevoegen van een 9e ... Ne core ten koste gaat van de eerste 8 krachtige cores.
Ben ik de enige die liever 8 sterkere P cores wenst, in plaats van 52-8=44 cores op datzelfde oppervlak bij gelijke totaalverbruik.

Dus liever minder sterkere cores dan meer minder sterke cores. Toch?
er bestaat ook iets anders dan intel
Apple silicon blaast 6+ Ghz p-cores weg met 4,5ghz m4 big.

Dat heeft meer te maken met type transistor en logic en stages wat hoog klok ceiling heeft ver buiten efficiëntie curve ipv dense high ipc big cores .
Dat kan ook bij x86 anders
Jouw replies zijn altijd half begrijpbare puzzels maar er is altijd wel wat goud en l00t in te vinden.
Dus Ik wil het wat beter begrijpen:

Zeg jij nu dat Intel hun ijver beter zou moeten verleggen in het verbeteren van instructie decoders, micro-op caches en instructie dispatchers ? Of is dat voornmalijk de mening die ik heb van wate er zou moeten gebeuren alhoewel mijn kennis over de materie op z'n best gebrekkig kan genoemd worden ?
Nou dit inderdaad. Een nVidia RTX 5090 heeft 21.760 cores :+
Nou die cores zijn totaal niet vergelijkbaar, maar je maakt wel een valide punt :).
Een core ansich zegt niet zoveel hoeveel stroomverbruik er nodig is.
Het enige dat je mag verwachten is dat een E-core minder stroom verbruikt dan een P-core.

Ik vraag mij wel af of een moderne Windows machine wel efficient threads kan verdelen en verplaatsen, zodat die processor wel optimaal draait.
Nee dat kan windows niet om simple reden zij weten niet wat de gebruiker kwa processen samen toepast en elk proces en hun threads moeten gezamenlijk braaf de resources verdelen. Als het OS al 101 threads heeft en hoop idle heb je dus al gauw te maken met context switching. Elk OS gebruikt algoritme hier voor met elk pro en cons.
Een proces een app dus moet van grond af MT door ontwikkelen. C/C++ standaard voorziet er steed beter in ver weg van MT libraries. Zoals OpenMP pThreads. Programma paradigma die dat helemaal weg abstracten dan krijg je software engineering dat geen rekening houd met hardware. Moderne cpu hebben veel cores soms split L3 . Vanilla OOP houdt daar geen rekening mee.
Dat zeggen mensen al 10 jaar maar TSMC (en stiekem ook Samsung en Intel) weten alsnog om de 2-3 jaar behoorlijk meer transistors in hetzelfde oppervlak te proppen. Het gaat wellicht wat langzamer dan in het verleden maar het is nog steeds forse vooruitgang.
We zitten stilaan op de limieten van verkleinen, en je kan ook niet verder blijven optimaliseren.
Sorry, echt complete onzin. Gewoon verwijderen. Als je de IMEC roadmap er naleest is uw scenario 100% uitgesloten de komende decennia.
Geen idee wat al die jargon precies betekent, maar als straks in 2030 ofzo op 1nm schaal wordt geproduceerd, dan zit je volgens mij aan de maximale dichtheid van transistoren. Hoe ga je dan het aantal transistoren verder verdubbelen?

"Nothing Doubles Forever"
- Gordon Moore
Die vraag is al door Imec beantwoord. google eens. Wat mij stoort is dat buikgevoelreacties gepost worden alsof het een onderbouwde waarheid is. Dat is het in dit geval niet.

Er zijn naast verkleining nog manieren om transistors zuiniger te maken. Zuiniger = meer performance per watt. Dat wil niet zeggen dat het duurder wordt per transistor. Dat is een ander vehaal. Je zal zien dat cpu’s en gpu’s zuiniger of krachtiger worden over tijd.
Zolang niet iedere instructie in 1 kloktik loopt is er nog wel ruimte voor verbetering toch...
Elke instructie werkt op operand en dat komt ergens vandaan en moet ook ergens terug.
Simd AVX heb altijd ook load en store. Dus de data en instructies moeten efficient gestreamed worden heen en terug. Komt meer bij kijken.
Vooral big data.
Snelste in cpu zijn registers daar 1 cycle potentie maar die meg aan data is niet zomaar daar.
Ik gok dat Intel daar ook wel aan gedacht zal hebben, en het in de praktijk dus meevalt of op minst beheersbaar zal zijn.

Hangt natuurlijk ook van het type core af. Zoals het artikel al meldt is het merendeel van het Efficiency- of Low Power-core type, die pakken dus al iets minder stroom (en dus warmte) dan een Performance-core.

Sowieso zijn dit soort CPU's met dit aantal cores niet voor gemiddeld huis- tuin- en keuken gebruikers bedoeld (iets met nogal overkill) om bijvoorbeeld wat te surfen of een briefje te tikken. Dit soort CPU's worden meestal in meer professioneel-gerichte machines, zoals workstations etc gebruikt.

Je mag redelijkerwijs aannemen dat die sowieso al voorbereid zijn (qua koeling of andere zaken) op wat zwaardere (thermische) belasting. Een gewone consument neemt meestal een PC met wat minder cores. Want goedkoper enzo.
Ik gok dat Intel daar ook wel aan gedacht zal hebben, en het in de praktijk dus meevalt of op minst beheersbaar zal zijn.
Dat denk ik dus ook ze hebben immers nu een reeks 144 E-core cloud hyperscaler CPU's aan 330/250W TDP (de Intel Xeon 6780E en de 6766E)
(https://www.intel.com/con...0-ghz/specifications.html.
TDP is natuurlijk niet het daadwerkelijke vermogen van een chip.... Zo'n chip kan rustig het dubbele aan stroom trekken.
TDP is inderdaad ambigue maar Intel's USP voor die CPU's is betrouwbare performance/watt voor hyperscalers.
Huh? Opgenomen vermogen van zo'n chip wordt toch altijd omgezet in warmte? Ik snap 'm niet.

Volgens Intel:
TDP stands for Thermal Design Power, in watts, and refers to the power consumption under the maximum theoretical load. Power consumption is less than TDP under lower loads. The TDP is the maximum power that one should be designing the system for.
Natuurlijk kan de chip tijdelijk wel wat meer stroom gebruiken (piekverbruik) omdat de warmte zich eerst verspreid, maar uiteindelijk wordt al het opgenomen vermogen omgezet in warmte.

[Reactie gewijzigd door uiltje op 9 februari 2025 05:56]

het klopt dat het een thermische "gemiddelde" is, maar als jij 1000 servers hebt hangen, die ineens allemaal even het dubbele trekken met hun 2 of zelfs 4 CPU's erin kan dat ervoor zorgen dat al je zekeringen eruit klappen. Veel racks zitten immers aardig uit gemeten op hun stroom verbruik, je wilt immers zoveel mogelijk rekenkracht in een rack proppen.
Er zijn tegenwoordig allerlei definities van TDP, en Intel-chips hebben ook een MTB power (maximum tubo boost). Bv. Core i5-14400 / 14400F: TDP: 65W / MTB: 148W.
Dat mag maar "eventjes" gehaald worden zodat de koeler er niet op ontwikkeld hoeft te zijn, maar dit "eventjes" kan intussen geloof ik een minuut of langer duren.

AMD maakt er geloof ik ook een rommetje van.
TDP is niet alles zeggend.
De chip grote bepaald warmte energie teansport can DIE door heatspreader naar koelblok.
INtel heeft zich al gestoten aan dit probleem met Netburst. AMD met buldozer 20stages architectuur.
Intel 12th 13th gen.
Architectuur met veel stages en dikkere transistoren voor geweldige klok schaling allen vermogen lift on evenredig mee. E-core dat basis atom. Architectuur die zuinige transistoren en niet wild gaat met stages kan je van little ook basis nemen voor big.
En extra transistoren die big transistoren en al die stages verminderd komt IPC ten goede. M4 big op 4,5 ghz is zoiets net als Zen dense
Niet gehinderd door enige detail kennis, maar ik kan me voorstellen dat er een moment komt waarop 2 parallele CPU's makkelijker te koelen zijn en dus meer constante performance kunnen halen, dan 1 'superchip'

Geen idee of dat klopt
Dat is in de server wereld al heel gangbaar (dual socket). Vooral ook omdat je dan meer memory lanes hebt en dus meer meer memory per core hebt. Maar doordat er zoveel cores op een enkele CPU komen zie je wel dat de trend weer is om single socket te gaan voor de generieke workloads / virtualizatie. Dit is vaak de meest energie effectieve oplossing en dat is met de hoge energie prijzen en focus op carbon emissie reductie vaak het belangrijkst.
Je kan ook nog groter gaan, quad/octo socket en HP heeft nog een 16 socket x86 systeem (HPE Compute Scale-up Server 3200).
server wereld gaat net volledig weg van meerdere sockets... je hebt 12-16 mem lanes op een socket
alleen de oude believers zitten nog op 2 socket en al die gerelateerde numa shit en PCI-e split.
Er zijn natuurlijk nog platformen met 4-8 sockets maar dat zijn heel specifieke monoliethe applicaties die ook al eens tijd voor is om eens te ehrschrijven.
Mss kort door de bocht geredeneerd van mij maar: Dat zal waarschijnlijk ook wel zo zijn maar dan zit je met het probleem van interconnects die latency toevoegen. Ook NUMA-nodes wordt dan een dingetje waarbij je voor geheugen-hongerige applicaties leentjebuur bij de andere cpu moet gaan spelen om geheugen te verkrijgen dat buiten de eigen toegewezen geheugenruimte ligt. En dat zijn performance-killers.
Dat latency verhaal snap ik. Maar je moet toch ergens op een break even komen dat alles in 1 CPU niet meer fatsoenlijk weg te koelen is. Misschien met een dispatcher daarboven? Die is er nu ook, die wijst processen aan cores toe (nogmaals niet gehinderd door kennis)
Kijk eens naar chips zoals de Cerebras WSE-3. Deze wafer scale chips zouden erg efficiënt kunnen zijn voor AI gezien je de overhead zo laag mogelijk maakt door alles op dezelfde wafer te houden. Of dit daadwerkelijk een doorbraak gaat maken weet ik niet, maar i.i.g. zijn zij ervan overtuigd. 🤷

Cerebras v NVIDIA Blackwell:
https://cerebras.ai/blog/...-ai-accelerators-compared

Het is wel echt koel om te zien hoe massive de chip is! Ik vraag me wel af wat de yields zijn op dit soort wafer size chips.

[Reactie gewijzigd door master.fean op 9 februari 2025 01:29]

Dat is al lang gewoon zo, het zijn enkel specifieke use cases waarin het belangrijker is dat alles binnen 1 cpu kan gebeuren mbt latency enzo dan het rauwe brute voordeel van een tweede fysieke chip. De limiet opzoeken van 1 cpu en opschalen met extra cpus dus

[Reactie gewijzigd door TWeaKLeGeND op 8 februari 2025 12:31]

Nou ja, specifieke use-cases... zo ongeveel al het huis-tuin-en-keukengebruik draait beter op een enkele CPU dan op een dual-socket PC. Misschien dat je rekenwerk als beeldbewerking nog onder huis-tuin-en-keukengebruik kan scharen, dat is soms goed parallelliseerbaar, en dan nog ben je nu beter af met een Ryzen met meerdere CCD's (zolang de bandbreedte van een desktop-platform genoeg is).

Nou is huis-tuin-en-keukengebruik überhaupt ook niet iets waarmee je een moderne CPU nog snel op de knieën krijgt, behalve met gaming - en dat is dan juist weer wél heel latency-gevoelig.

[Reactie gewijzigd door bwerg op 8 februari 2025 20:12]

Misschien dat je je meer zorgen moet maken over de rekencapaciteit die gevraagd wordt. Of je nu 1 dan wel 256 cores hebt, als je totale workload toeneemt, dan zal je verbruik ook toenemen als je per instructie evenveel blijft verbruiken, want cores die niet gebruik worden verbruiken maar een fractie van wat ze onder load verbruiken, daarom dat er vaak ook idle verbruik in reviews wordt vermeldt.
Geen probleem volgens mij. Die 16 van mij hebben na full load ongeveer 3 seconden nodig om weer idle temperatuur te bereiken. Ik denk dat 128 of zo het niet zo veel verschil zou maken. Voordeel is dat er dan ook meer ruimte is om een load naar een andere core te sturen als er ergens een groot temperatuurverschil ontstaat. Je hebt waarschijnlijk in totaal wel een zwaardere koeling nodig omdat de chip gewoon groter is en meer verstookt.
Nee, ik maak me meer zorgen of deze nieuwe CPU zichzelf niet opstookt.
Ik hou Intel even voor gezien.
Arrow Lake is prima zuinig en Intel zit nu ook op kleine nanometer zoals AMD.

Ikzelf heb 14900K, maar hij is zo stil en koel als wat. Gewoon finetunen. Helemaal geen heethoofd en op luchtkoeling. 80 graden en toch 40000 CB23 points performance. Dat doe je niet met AMD.
Toch apart, want volgens de review van Tweakers scoort deze qua efficientie slechter dan alle CPU's van AMD, noemen ze dat daar "extreem slecht" en vinden ze over het geheel "Extreem hoog stroomverbruik", "Beroerde efficiëntie" en "Praktisch onkoelbaar". Hoe heb jij die dan gekoeld dat deze zowel stil is, relatief koel blijft en toch zo'n performance haalt? Vast niet met een normale koeler zoals dat bij AMD wel kan. En dat je een CPU "koel" weet te houden betekent niet dat die "prima zuinig" is. Anders zou Intel je volgens mij heel graag als werknemer hebben om hun CPU's beter te tunen dan ze zelf kunnen.

Volgens de cijfers in die review zal een AMD-systeem met jouw koeloplossing stiller en koeler werken, terwijl die vergelijkbare performance neerzet met minder stroomverbruik (dus zuiniger is).

[Reactie gewijzigd door DataGhost op 8 februari 2025 17:29]

De Be quiet Dark Rock Pro 5 koelt erg goed, tot 270W TDP, als je de powerlimits in het bios instelt (en wellicht wat undervolt) krijg je de 14900K goed onder controle hij boost gewoon tot 6 Ghz en presteerd erg goed en ook niet terugthrotteld, als je alles op default laat staan is hij inderdaad erg inefficiënt en niet te koelen omdat hij 330+ watt trekt, en constant throtteld omdat je hem zelfs met een custom loop niet gekoeld krijgt.
Maar dit ligt vooral aan de moederbord fabrikanten die alles uit de cpu willen halen voor marketing doeleinden.....
Ik heb vele Intel systemen gebouwd met 14900K's, gewoon goed afstellen en je hebt nergens last van ;)
als je al moet beginnen om het goed af te stellen.... misschien eens afvragen waarom je iets koopt als je het nog eerst goed moet afstellen. :Y)

realiteit heeft gesproken wat je allemaal moet afstellen , het internet staat vol met returns van die krengen :O

[Reactie gewijzigd door d3x op 10 februari 2025 09:20]

Dat moet je mijn klanten vertellen, die willen hem hebben ;)
Ook al geef ik zelf goede AMD alternatieven :)
Geen idee waar we heengaan qua temperatuurbeheersing maar desnoods is er stikstof voor te krijgen.
Of een al langer bestaande waterkoelsysteem.
Ik denk dat onze benadering van chips beter kan. Met deze vraag ga je uit van out of the box koelbaarheid.
Misschien is de chip 15% koeler bij 5% minder prestaties. en 35% koeler bij 10% minder prestaties. Dan is een max TDP geen 250 watt, maar rond de 170 watt.

Ik zou best in staat zijn een dure 5090 te kopen en deze terug te clocken in plaats van een 5080 te kopen. Maar mijn doel is dan maximale prestaties bij zeg 15dB aan geluidsproductie (onder vollast). Dan haal ik de volledige potentie niet van de 5090 niet (ja, zonde, maar afweging prestaties-geluid waar bij de voorkeur bij geluid ligt). Maar als die 5090 wel dan >50fps haalt en de 5080 amper dertig, dan zou de 5080 misschien zonde zijn.

CPU's en GPU's zijn de laatste jaren heel erg uitgeknepen, met gevolgenvoor het stroomverbruik. Zolang we dat kopen, houden we dat in stand.
Denk dat geen probleem is als ze net als amd een kleiner procede gebruiken. Goede optimalisaties. Als dit op het sub 2nm is gebruiken ze niet heel veel meer verwacht ik dan 7nm waar ze ook op hangen.
We zullen het gaan meemaken.
Als de opervlakte twee keer zo groot is als Arrow Lake dan moet het geen probleem worden .
Ik gebruik nu al 3 radiatoren met een 14700k en 6900XT...
Nova Lake, die naar verwachting in 2026 verschijnt, zou beschikken over maximaal 16 P-cores, 32 E-cores en 4 energiebesparende low power-E-cores.
Ben ik de enige die de mix van cores niet snap?

De 4 energiebesparende cores kan ik begrijpen, vooral als je systeem niet in gebruik is en je toch wat achtergrondtaken wilt draaien. 16P cores voor de user-interactive voorgrond taken, ook te begrijpen. Maar wat moet je met 32 E-cores? Hoeveel achtergrondprocessen heb je draaien in een desktop systeem dat je daar 32 cores voor nodig hebt?
"Ben ik de enige die de mix van cores niet snap?"

Dat kan ik niet met zekerheid zeggen, maar ik snap die mix in ieder geval wel. :P Als je richting de 16+ threads belast ben je praktisch altijd met zwaar, goed parallelliseerbaar rekenwerk bezig. Dan schalen R-cores veel beter dan P-cores, qua budget van zowel chip-oppervlakte als stroomverbruik.

Anders gezegt, voor die 32 E-cores had je misschien 4-8 P-cores gehad, en in parallelliseerbaar rekenwerk scoren die E-cores samen vele malen beter.

[Reactie gewijzigd door bwerg op 8 februari 2025 20:26]

Als ik nu in mijn taskmanager kijk bij tab prestaties zie ik 3800+ threads in 277 processen. Kan straks ieder watchdog process zijn eigen core krijgen lol.
Je kan je ook afvragen of dat niet opzich al onhandig is. Waarom zou een pc zoveel processen moeten draaien? Daar zit sowieso onzin bij zoals updaters, die zouden heel anders kunnen draaien door een soort notification proces die vervolgens de updates (namens verschillende apps) gaat zoeken volgens een ingesteld patroon. In plaats van dat je dat 10 updaters tegelijk hebt, heb je er 10 die gemanaged worden.
Dat betekent dat Windows uniform gebruikte diensten gaat bieden. Dat lukt al 20+ jaar niet met alle installers die er troep van maken en package managers bij de vleet. Windows als platform zou meer kunnen zijn, maar MS wil de teugels niet aanhalen. Dus Store apps via de store (maarja, de meeste apps staan daar niet). Andere applicaties updaten bij het starten zelf. Weer andere via een package-manager al-dan-niet automatisch. Het is allemaal niet heel erg fout maar wel heel erg wastefull.
Zoveel E-cores omdat die qua oppervlakte en performance/watt een betere optie zijn dan nog meer P-cores toevoegen. Een P-core is groot en in diezelfde oppervlakte van de chip kan je ook kleinere en meerdere E-cores bieden die totaal gezien meer performance bieden dan 1 P-core.
Op een gegeven moment heb je eigenlijk niets meer aan meer P-cores, bijvoorbeeld voor spellen heb je eigenlijk maar 8 P-cores met hyper-threading of SMT nodig, meer geeft niet veel meer extra performance, uitzondering daargelaten.
Natuurlijk zijn er dan wel zaken waarvoor je wel meer performance nodig hebt, maar dat zijn taken die dan een langere tijd nodig hebben om zaken te berekenen, geen voorgrond taak, en dan bieden de E-cores een betere optie door meer performance per oppervlakte te bieden en zo houdt je je chip ook iets kleiner en kan je er waarschijnlijk meer uit een wafer halen ook.

Maar zoals door andere gebruikers ook al aangegeven, die cpu's met zoveel cores is eigenlijk alleen voor een speciale high-end doelgroep.
Volledig mee eens!

Wat moet de gemiddelde (of veruit de meeste) Desktop gebruiker met een Desktop CPU van met 16 E cores boven op een aantal krachtige P cores, laat staan een absurd totaal aantal van 50 cores? Servers en virtual machines die de hele dag zitten te renderen okay... maar Desktops?

Geef mij maar liever 8 krachtige P cores die in single thread gemiddeld genomen 20% sneller zijn dan het voorgaande product :)

PS. Vond onderstaande link het nieuws inhoudelijk beter verslaan dan bovenstaand artikel, omdat het met links verbonden is met achtergrond informatie En in iets meer details de context schetst. Zo wordt daar gezegd en beargumenteerd, dat die 52 cores uiteindelijke waarschijnlijk helemaal Niet zullen worden gerealiseerd, net zoals van de destijds gelekte Intel Arrow Lake die "tot wel maarliefst 40 cores Arrow Lake cores hebben" niets van is terechtgekomen.

https://www.techpowerup.c...6p-32e-4lpe-configuration
Waarom is iedereen zo bezorgd over de hoeveelheid cores? Processoren met 64+ cores bestaan al jaaaaaren in workstations en servers. Bovendien hebben we het dan over 64+ "P-cores" mét multithreading, en niet 16 "P-Cores" met een bijeengeraapt zooitje zuinige cores.

Zie de pricewatch bijvoorbeeld: categorie: Processors

Het enige waar ik benieuwd naar ben is de prijs en of dit in een gangbaar desktop socket wordt uitgebracht, of dat dit toch ook een soort workstation CPU wordt met dito socket en moederbord.
Omdat het praktisch nut van zoveel cores voor een desktop cpu misschien wat overkill is, afgezien high-end power users.
Voor een normale desktop van wat browsen, social media en media tot een werkstation in een bedrijf hebben zoveel cores over het algemeen niet nodig. En voor games is 8 P-cores ook wel genoeg, een uitzondering daargelaten.
Natuurlijk krijg je allemaal verschillende versies met verschillend aantal P- en E-cores, maar de versie met 52 cores is meer iets voor de HEDT.
Bovendien kan het nut van zoveel cores voor een desktop cpu niet echt
vergelijk met het nu van zoveel cores voor een server cpu denk ik persoonlijk. :)
Ik zou niet eens een desktop meer bouwen, als deze niet veel krachtiger is dan een mini-PC. Dan wordt het inderdaad een soort workstation. Maar ik hoop dat ze dan wel op zijn minst 4 geheugenkanalen inbouwen, omdat zo'n processor wel genoeg geheugenbandbreedte moet hebben. Voor het lichte werk heeft Intel al chips zoals Alder Lake N en in de toekomst Wildcat Lake.
Onbeantwoorde vragen die in mij opkomen als ik aan Intels Roadmap denk:

- Wie is het beoogde doelgroep van een 16+32+4= 52 core ontwerp van Intel?
- Welk strategisch voordeel of voorbeeld probeert Intel hiermee te bereiken?
- Welk procede wordt de volgende herziene architectuur CPUs? 20A? 18A? 3nm?
- Hoeveel zuiniger kan een 20A procede zijn vergeleken met hudige 5nm+3nm tiles?
- Komt er nooit meer een monolitische CPUs voor desktops?
- Zou er geen markt bestaan voor goedkopere simpelere 8P+0E core Desktop cpus?
- Waarom niet interessante opties bieden zoals 16P+4E en 4P+32E?
- Hoe vaart de nieuwe CEO een koerswijziging na afgelopen jaren?
- Is Intels 144MB L3 cache een antwoord op AMDs 3D cache voor games?
- Zijn Intel en Microsoft bezig om ook Thread Scheduler klaar te stomen?
- Wat als ongemerkt en ongezien Windows LP cores voor P cores ziet?
- Hoe schalen oude bestaande softwares mee met gebruik van de E/LP cores?
- Nadert men de absolute limieten zoals heat/power density?
- Komen er vernieuwingen voor moederborden om CPUs van twee kanten te koelen?
- Waarom draaien 15 jaar oude Intel CPU's op 20+nm wel foutloos en soepel?
- Welk rol of verantwoordelijkheid hebben productivity software makers hierin?
- Welk rol of verantwoordelijkheid hebben game ontwikkelaars hierin?
- Welk rol is weggelegd voor de consument bij aankoop en orientatie?
- Welk rol heeft de consument na aanschaf? Product Tester? Bios Updater?
- Wat is de rol van de overheid in het waarborgen van betrouwbare Desktop chips?
- Alles beziend, zijn CPU makers als geheel eigenlijk nog wel op de goede weg?
Die 52 cores bij intel is zoals 1900 Mbit bij routers.
Die 52 cores zijn verschillende soorten cores die andere performance hebben.
Als je bij AMD Ryzen zegt 16 cores zijn dit 16 x dezelfde cores met dezelfde performance.
Als je dan Adobe Photoshop gebruikt , kan Photoshop 16 cores gebruiken bij AMD Ryzen.
Stel bij Intel 8 P-cores dan zal Photoshop maar op 8 cores werken en die tragere E-cores links laten, of zie ik het verkeerd?

In verband met router, daar tellen fabrikanten de 2 frequentie ook op.
Vb 2.4 Ghz is maximaal 600 Mbit en 5 Ghz is maximaal 1300 Mbit, conclusie router is een 1900 Mbit toestel.
En hier ook, ofwel zal je 2.4 Ghz gebruiken of 5 Ghz op een toestel en niet beide tegelijk.
Kwestie van hoge cijfers op de specs sheet en doos te hebben.
het hangt er maar van af hoe aware de software en het OS zijn
Punt is alleen dat photoshop nooit al die cores tegelijk zou gebruiken, en alleen maar dezelfde cores is juist overkill, een OS heeft genoeg zaken die op een zuinigere core goed hun volledige werk kan doen. Lang niet alles in een systeem heeft de krachtige cores nodig, dus ik heb liever 24 cores waarvan 12 krachtig en 12 zuinig, dan 16 cores alleen maar krachtig.
De E-cores kunnen ook prima ingezet worden hoor. Daar komt net een heleboel prestatiewinst uit voort voor taken die heel goed paralleliseerbaar zijn.
Ik ging er van uit dat een software agent (Windows 11) kijkt welke applicatie draait en dan de "juiste" CPU-cores kiest.
Beetje zoals AMD chipset driver kijkt welke applicatie de cores verbonden met3D cache moet gebruiken.
vb.
Photoshop P-cores gebruiken
Outlook E-cores gebruiken

Dus Photoshop kan maximaal 16 cores aan, dus er zullen P- en E-cores tegelijk worden gebruikt.
Maar E-cores zijn toch stuk trager, gaan deze de P-cores niet vertragen als 1 programma beide gebruikt tegelijk?
Als ik een foto moet rederen, zal die E-cores geen rem zijn?
Als ik een foto moet rederen, zal die E-cores geen rem zijn?
In het algemeen hangt dat af van de specifieke toepassing. Beeldbewerking is vaak erg goed te paralleliseren, ook met een asynchrone verdeling, omdat het vaak gewoon heel veel kleine taakjes zijn die bijna onafhankelijk van elkaar uit te voeren zijn. Is een P-core al klaar met 'zijn taak' terwijl de e-core nog bezig is, dan pakt de P-core gewoon wat nieuw werk op.

In het fotobewerkingsprogramma dat ik zelf gebruik zie je bij een zware rekentaak alle cores tegelijk naar 100% schieten en daarna ook allemaal tegelijk weer terug naar <5%. Dan heeft gewoon elke vorm van rekenkracht nut.
Volgens mij zijn E-cores niet meer een stuk trager, maar bijna even snel als P-cores. I heb gelezen dat er daarom bij Intel gedacht wordt aan een "Unified" core, die gebaseerd is op de huidige en toekomstige E-cores. Over Photoshop weet ik niet zoveel, maar schaalt dat überhaupt wel naar zoveel cores?
Daar kan je vast goed mee gamen. Geavanceeerde physics, A.I. De future is here now.
Dat ligt eraan LordLuc in principe heb je gelijk. Maar het ligt dan weer aan het soort game en het meest belangrijke. Kunnen developers zo'n CPU tot hun recht laten komen? En dat denk ik eerlijk gezegd nog niet. En dat heeft dan weer allerlei oorzaken. Welke? De technische stand van zaken qua game engines maar ook programmeer technieken onder de knie krijgen etc etc. Denk aan de cell cpu van de playstation destijds. Een van de redenen dat het geen vlucht nam was het ontwikkelen op dat systeem.
Je hebt gelijk dat de Cell heel moeilijk te programmeren was maar desondanks was de Playstation 3 wel een redelijk success. De Xbox kreeg destijds ook een Cell achtige processor (3 core Xenon) and er was een tijd dat YellowDogLinux en een rack Playstation 3's je de beste beowulf cluster kon geven voor het geld.
De future is here now.
Just not evenly distributed yet
Betekent dit nieuws dat Intel het andere CPU (Battlemage?) met 10P cores en 0 E cores tot maximaal 12 P cores en 0 E cores geannuleerd heeft? Waarvan het nog onzeker was of dat voor de servermarkt of desktop markt was.

Of kan het zijn dat dit nieuws parallel naast een desktop CPU zou kunnen komen met enkel en alleen maar krachtige (single core) P cores?
Intel is slecht bezig. Zo'n 3 types cores vergen software om dat deftig te verdelen qua workloads en software is tegenwoordig een zo slordige opeenstapeling van bugs geworden dat niks nog vlot draait. Ik spreek dan ook van geïnterpreerde interpeters die onder een webbrowser draaien bovenop een OS dat te veel kan voor wat nog nodig is. De hakbijl in de ICT - dat wil ik lezen. Het einde van X86 en overstappen naar Risc V.
Waarom heeft de EU toch ARM cadeau gedaan aan die japanners - na er zelf zo veel geld in gepompt te hebben? Dat had toch europees gehouden moeten geworden zijn met een eu-investeringsfonds?
We moeten ophouden met die uitverkoop - zeker nu Orangeface de plak zwaait. Die schoft buit al onze zwakheden zonder scrupules uit. America First! (en dat is even erg als Poeter met Rusky Mir).
Wel omdate die neo-liberale mindset van globalisatie fixed alles; alhoewel onze voormalige economische adviseurs hun kar al een tijdje hebben gekeerd en met "het kan anders" boeken uitkomen, nog altijd aanzien wordt door beleidsmakers als "het werkbaar recept" om welvaart te creeeren. Althans dat is mijn mening. (ARM verkoop en andere Asset wholesales)
Ben ik met je eens. Het hangt zo op software en Windows of de aansturing van de juist core wel correct gaat, en dat altijd. Meestal werken dit soort systemen in theorie goed in de praktijk slecht. Hoe meer er geregeld wordt rondom een processor, hoe meer het een loterij wordt, of hij wel het juiste doet.

Intel moet zich bij P cores en E cores houden. En Hyperthreading en extra zuinige cores in de vuilnisbak gooien. Daar zit geen toekomst in.
Hyperthreading staat op de ultra 200 serie al uit. Dus ze luisteren wel naar je :+

Op dit item kan niet meer gereageerd worden.