CPU-Z-screenshot toont Intel Core Ultra 9 285K-desktop-cpu met 5GHz-kloksnelheid

Er is een CPU-Z-screenshot verschenen met details over een toekomstige Intel Arrow Lake-desktopprocessor. Deze Core Ultra 9 285K beschikt onder meer over een kloksnelheid van 5,0GHz. De cpu komt later dit jaar officieel uit.

CPU-Z-screenshot Intel Arrow Lake via @wxnod
Bron: @wxnod

De screenshot met informatie over Intels komende desktop-cpu werden onlangs op sociale media gedeeld door @wxnod, merkte ook VideoCardz op. Veel specificaties van de chip zijn gecensureerd, hoewel onder meer de kloksnelheid nog zichtbaar is.

Duidelijk is dat het een Core Ultra-cpu betreft op basis van de komende Arrow Lake-architectuur en het LGA-1851-platform. Naast de 5,0GHz-kloksnelheid, wordt ook een tdp van 125W vermeld. CPU-Z meldt dat de chip op 7nm wordt geproduceerd, maar dat is een fout; de cpu-chiplet van Arrow Lake wordt op een geavanceerder procedé gemaakt.

Volgens VideoCardz betreft de processor in kwestie een Core Ultra 9 285K. Voor zover bekend wordt dat het topmodel in de Arrow Lake-line-up voor desktops. De processor moet over 8 P-cores en 16 E-cores beschikken. De Arrow Lake-architectuur ondersteunt geen hyperthreading, dus de cpu zou daarmee ook 24 threads hebben. Dat wordt ook bevestigd door bekende leaker HXL, die ook de hoeveelheden cache van de cpu in kwestie deelt op sociale media. Zo moet de chip beschikken over 2,4MB aan L1-cache, 40MB aan L2-cache en 36MB aan L3-cache.

Intel heeft de Core Ultra 200-processors voor desktops nog niet officieel aangekondigd, hoewel de eerste LGA-1851-moederborden in juni al wel werden getoond door moederbordfabrikanten tijdens de Computex. Intel heeft echter bevestigd dat de desktop-cpu's in het vierde kwartaal van 2024 beschikbaar komen.

Door Daan van Monsjou

Nieuwsredacteur

24-07-2024 • 20:57

31

Lees meer

Reacties (31)

31
31
12
0
0
14
Wijzig sortering
Kunnen we please een hele, hele, snelle single core cpu krijgen? Eentje voor de makers. Erg treurig om 63 cores niks te zien doen, terwijl 1 core al het werk doet. In mijn geval gaat het om CAD.
Als een noob op cad gebied zou mijn vraag zijn: is cad/cam software tegenwoordig ook niet multithreaded geoptimaliseerd? En wanneer dit het geval is, is dit een bewuste keuze?

-ontopic: ik irriteer mij enorm aan de nieuwe "benummering" die intel aan hun cpu's geeft. Dus dit is eigenlijk de 15e generatie en zou volgens de "oude" benummering een i9-15285k zijn?
-off-topic: helaas. Parametrische berekeningen volgen elkaar op. Het is geen bewuste keuze, enkel het gevolg van wiskunde? Mocht iemand hier een ander licht op schijnen, please. :)
Een CAD tekening bestaat toch uit meerdere onderdelen en dat kan toch parallel? Stel ik heb heb een theepot. Dan kan ik toch het hengsel, de pot en de tuit afzonderlijk parallel tekenen?
Het gaat meer zo:

Als jij de afmeting van het hengsel veranderd, zal dat gevolgen hebben voor de dimensies van andere delen. Op de 0,001mm. Of minder. Als je dus een model veranderd moet alles opnieuw worden gegenereerd. In bijv blender is dat niet zo, want dat is loze data. Die nauwkeurigheid jan-van-gent belang als je bijvoorbeeld een stalen mal wilt laten frezen, omdat je met een spuitgietproduct bezig bent. Dan moet alles heel nauwkeurig zijn.
Tekenen is nog steeds single core
Autocad doet nu wel multicore regeneren, en printen. Maar dat is vrij beperkt volgens mij Max 4 cores.

Er is ooit eens een bedrijf geweest dat poogde een multicore takenpakket te maken maar die is opgeslokt door autodesk
@whersmy Als dit zo is dan moeten niet de chipmakers aan de bak maar de ontwikkelaars van autocad ;)
De meeste CAD pakketten werken met een chronologische opbouw. Elke volgende bewerking is gebaseerd op de vorige. Dat kun je dus niet of nauwelijks parallel op meerdere kernen berekenen.
Is wel veel verbeterd de laatste jaren en steeds meer functies die verdeeld kunnen worden worden dat ook maar de bulk van het rekenwerk tijdens teken kan maar op 1 kern.
Dat is dan mijn gebrek aan CAD kennis. :)
Dit klinkt als iets dat prima paralleliseer naar is door er een boom van te maken, en te controleren of de resulterende graaf een DAG is.

Het grootste probleem is dat de solvers vrijwel allemaal single thread ontworpen zijn en alles direct interacteert hier mee. Zodoende is het aanpassen van de solvers het aanpassen van alles en dat is te veel kosten voor te weinig opbrengst voor bedrijven als autocad (die liever de markt stuk maken dan verbeteren). Overigens niet alleen een closed source probleem, freecad heeft hier ook last van.
Dit klinkt als iets dat prima paralleliseer naar is door er een boom van te maken, en te controleren of de resulterende graaf een DAG is.
Je schiet er helemaal niets mee op om er 'een boom van te maken'. Iedere bewerkingstap heeft de uitkomst van de vorige stap nodig als input. Dat kun je representeren als een tree maar dat doet niets af aan het feit dat je pas met de volgende stap kan beginnen als de vorige stap is afgelopen, m.a.w, je kan de stappen niet parallel aan elkaar runnen.
Geen ervaring mee, maar kon het niet laten te googlen...
https://www.quora.com/Is-...PU-cores-into-1-fast-core

Er staat 1 reactie tussen die wel interresant is, alleen verder googlen naar "CPU core pooling" levert weinig op.

Toch lijkt het mij sterk dat er geen platformen zijn waarmee je cores/cpu's en zelfs hele racks als 1 cpu kan laten werken om een complexe berekening sneller te doen,met uiteraard wel de nodige overhead..
Ik zal het met de engineers even doornemen morgen, dank!
Dan ligt dat toch echt aan de makers van de CAD software als die maar 1 core gebruikt, tijd om een fatsoenlijk modern CAD applicatie te gaan gebruiken.
Engineers die autos en bijv schepen tekenen werken met Solidworks of Catia. Die werken aan projecten die jaren kunnen duren. Alles in dusdanig opgezet dat de workflow correct is. 0,00% kans dat ze gaan overstappen naar iets anders.
Tja, blijft nog steeds dat get dus aan de software ligt. Waarbij zeker moderne software vaak veel van die 'oude' formaten kan inlezen, juist vanwege dat soms projecten jaren kunnen duren.
Het ligt ook zeker aan de software! (En vooralsnog werken programma’s als solidworks of catia of inventor helemaal prima. Maar zodra je echt complexe assemblies tegen komt, bijvoorbeeld een schip, een complete server, een complete auto, of bijv een Rolls-Royce: MTU Series 2000, dan kan het wel eens voorkomen dat je letterlijk een halfuur moet wachten totdat een verandering is gemaakt. Volgens mij is het in dit geval meer: de code is ooit opgebouwd voor single core. Prima, maar daar kunnen we nu niet meer van afstappen. Ergens denk ik wel dat een multi core benadering moet lukken, tijd zal het uitmaken.
De multiplier van 52 hebben ze dan niet goed afgeschermd.
Dus dit zal dan ook niet om een 5GHZ cpu gaan, eerder een 5.2 Ghz
Zelf heb ik geen intresse in een P en C combinatie op een cpu,
Helemaal als hier dan ook geen HT voor is.
Neem aan dat HT beschikbaar blijft voor de Xeon line?

[Reactie gewijzigd door itcouldbeanyone op 24 juli 2024 22:08]

Zelf heb ik geen intresse in een P en C combinatie op een cpu,
Helemaal als hier dan ook geen HT voor is
En waarom niet? Het aantal threads is bij de Ultra 9 ook gewoon veel, 24. Het is niet alsof HT echt wat bijdraagt dat je niet door een E-Core kunt laten opknappen. Tijdcritische processen draaien gewoon op een P-core, net als vroeger.

HT is nooit een echte vervanger geweest van te weinig P-cores, want je bent heel erg afhankelijk van het gebruik van de P-core en kan er dus nooit vanuit gaan dat er genoeg cpu-tijd beschikbaar is.

Dus ik ben benieuwd waarom jij zo stellig stelt dat je er geen interesse in hebt.
Das nou jammer: heeft CPU-Z voor zich maar vergeet in het 6de tabblad op [Bench CPU] te drukken. 8)7
Heeft Intel al geschat met hoeveel % een 285K de 14900K evenaart in Single thread prestaties?
Hoe kunnen we op basis van deze printscreen en verwachtte aantal P/E cores de cache grootte van de i7 265K berekenen?

De i9 285K heeft dus 2,4MB L1, 40MB L2 en 36MB L3.
3 MB per P core en 4 MB per cluster van 4 E cores.

Even kijken of ik goed heb berekend:
2,4 + ((8*3)+(16/4*4)) + 36 = 78,40 MB !?

De L2 van de i7 264K zou dan dus moeten zijn 36 MB, immers ((8*3)+(12/4*4)) = 36.
40 MB vs 36MB L2 cashe, geen groot verschil tussen 265K en 285K.

Hoeveel L1 en L3 cache heeft de i7 265K?
Er wordt gesteld dat er 3 MB level 2 cache in Arrow Lake zit.

3x8P-cores en 4x4C-clusters van 4 cores =24+16. Dus dat is die 40 MB. De 265K heeft 1 cluster E-cores minder, dus 36 MB

Oh, ik zie dat je die al had.

Volgens de websites is de l3 33 MB.

[Reactie gewijzigd door White Feather op 25 juli 2024 08:03]

Goh intel is eindelijk van 10nm afgestapt?
Je weet dat een 10nm procedé niet per se "groter" hoeft te zijn dan een 7nm procedé, hé?
Nee, niet echt. Staat in het artikel.
CPU-Z meldt dat de chip op 7nm wordt geproduceerd, maar dat is een fout;
Je laat welbewust het tweede deel van de zin weg, waarin wordt toegelicht dat het om een geavanceerder procedé dan 7 nm gaat:
CPU-Z meldt dat de chip op 7nm wordt geproduceerd, maar dat is een fout; de cpu-chiplet van Arrow Lake wordt op een geavanceerder procedé gemaakt.
Wat versta je onder "geavanceerder procedé"? Die term zegt precies niks zonder uitleg. "Intel 4" wat deze series gebruikt is 7nm, "Intel 7" is 10nm. Dat er gebruik wordt gemaakt met chiplets klopt maar staat daar los van. Dus ik zou wel graag de claim dat CPU-Z onjuist is toegelicht zien met feiten.
Is dit het antwoord op de x3D lijn van AMD of zit ik er dan volledig naast?
nee dit is een poging van intel om een betere cpu te brengen dan alderlake en raptor lake :P
maw de volgende generatie desktop.

maar dit screenshot kan 100% fak foute info geven waardoor er eigenlijk niks aan hebt.
maar voor velen zal dit wel weer hot nieuws zijn, zeker de "125W tdp" en de "5ghz"....
Nu met 3 maanden garantie ;)

Op dit item kan niet meer gereageerd worden.