Intel Core Ultra 9 285K haalt hoogste singlethreaded score in PassMark-benchmark

De Intel Core Ultra 9 285K haalt in de PassMark-benchmarktool een singlethreaded score van 5.268 punten, de hoogste score tot nu toe. Voor multicoreprestaties haalt de cpu een score van 46.872 punten, lager dan de voornaamste Intel-chips van de vorige generatie.

De aankomende Intel Arrow Lake-cpu is, wat singlecoreprestaties betreft, 8 procent sneller dan de Intel i9-14900KS en 11 procent sneller dan de Intel i9-14900K. PassMark zegt via X dat het geteste exemplaar een engineeringsample zou kunnen zijn. Het is dus nog af te wachten hoe de retailexemplaren van de cpu in dezelfde test scoren.

Wat multicoreprestaties betreft is de Intel Core Ultra 9 285K ongeveer 25 procent trager dan de i9-14900KS en ongeveer 22 procent trager dan de i9-14900K. De 14900KS behaalt een score van 62.510 punten in de PassMark-multicoretest en de 14900K scoort in diezelfde test 60.305 punten. De benchmarkresultaten bevestigen ook eerdergenoemde specificaties van de Ultra 9 285K. De processor beschikt over 8 P-cores en 16 E-cores, en heeft 24 threads. Er is geen ondersteuning voor hyperthreading.

Intel heeft de Core Ultra 200-processors voor desktops nog niet officieel aangekondigd, hoewel de eerste LGA-1851-moederborden in juni al werden getoond door moederbordfabrikanten tijdens Computex. Het Amerikaanse chipbedrijf heeft bevestigd dat de cpu's in het vierde kwartaal van 2024 beschikbaar komen. Volgens leaker Benchlife wil Intel zijn nieuwe Arrow Lake-processors op 10 oktober introduceren. Volgens techwebsite Hkepc zou het bedrijf de chips echter op 24 oktober willen uitbrengen.

Benchmarkresultaten singlethreadedtest PassMark. - Bron: PassMark
Benchmarkresultaten singlethreaded test PassMark. Bron: PassMark

Door Jay Stout

Redacteur

07-10-2024 • 08:24

167

Submitter: Vurenvos

Lees meer

Reacties (167)

167
166
61
8
0
75
Wijzig sortering
Wat multicoreprestaties betreft is de Intel Core Ultra 9 285K ongeveer 25 procent trager dan de i9-14900KS en ongeveer 22 procent trager dan de i9-14900K.
Zat er dik in met het uitschakelen van HT. Dat win je niet zomaar terug in 1 generatie.

De 285K zou 8 P-cores en 16 E-cores hebben, net als de 14900K. Die 8 threads die je verliest win je niet zomaar terug met 8-11% meer performance per P-core

Ziet er naar uit dat de 7950X en 9950X de favoriete CPU's gaan zijn voor grote compiled codebases en alle andere zware multi-core workloads. Voor gaming en consumententaken maakt het niet zo veel uit, maar daar koop je ook geen i9 voor.

[Reactie gewijzigd door youridv1 op 7 oktober 2024 09:49]

Nog even afwachten.

Je vergeet de 13900K en 14900K die sneller zijn dan de 7950X op vrijwel alle vlakken.

Als je echt veel coding alleen doet, kan je beter zelfs hoger in de high end lineups gaan zoeken.

Prijstechnisch is een willekeurige midrange processor nog steeds het beste.
Je vergeet de 13900K en 14900K die sneller zijn dan de 7950X op vrijwel alle vlakken.
Niet in code compile, 3D rendering, AI etc. review: AMD Ryzen 9 9900X en 9950X - Zo kan de snelste cpu toch teleurstellen De 9950X is, als je gaming buiten beschouwing laat, momenteel de snelste consumenten CPU overall en zeker in de meeste creative workloads waar dit soort CPU's met name voor worden aangeschaft.

Dus ik weet niet wat jij onder "alle fronten" verstaat, maar ik zie er niet veel in de benchmarks. Premiere Pro is de uitzondering.
Als je echt veel coding alleen doet, kan je beter zelfs hoger in de high end lineups gaan zoeken.
Is de meerprijs echt niet waard tenzij je voor een mega bedrijf met groot budget werkt. Voor een verdubbeling van je compile performance betaal je 2,5K voor een threadripper. Daar heb je een heel 9950X workstation voor.

Prijstechinisch zijn de R9 en oudere i9's nu een best wel sterke optie voor 3D en code. De meerprijs van ~200-300 euro is prima in ruil voor de prestaties die je krijgt als je op een hele workstation rekent.

[Reactie gewijzigd door youridv1 op 7 oktober 2024 10:05]

Ik heb expliciet de 7950X neergezet in mijn bovenstaande post, niet de 9950X.
Te snel gelezen. Het performance verschil overall tussen een 14900K en een 7950X is ~1%. De 7950X verbruikt zo'n 10% minder stroom onder full load / voor een volledige render. Hij kost ongeveer hetzelfde.
Oja, en je weet zeker dat hij zichzelf niet doorfikt. Intel beweerde dat het met 0x129 opgelost was, maar publiceerde kort daarna wéér een microcode versie met nog meer patches. Eerst maar eens zien of het nu écht dit keer allemaal opgelost is.

Sorry, maar dan laat ik de 14900K links liggen.

[Reactie gewijzigd door youridv1 op 7 oktober 2024 12:14]

Het is even wachten op de 9900X3D en/of 9950X3D. Als die weer een heel stuk sneller zijn dan de 7800X3D dan worden het beesten van cpu's. Vooral voor gaming is de 7800X3D heer en meester op dit moment. Gewoon 50% sneller dan de 14900K op dit moment.

[Reactie gewijzigd door sygys op 8 oktober 2024 11:46]

De multicore zou 46.872 zijn voor de 285K. Dat is een flinke achteruitgang.

Een gewone Ryzen 7900 zit al op 48.851
Een Ryzen 7900X zit op 51.740
En een Ryzen 9900X op 54.631

Oftewel: als deze resultaten de daadwerkelijke resultaten zijn, dan is dat toch een flink gat met zelfs de oudere generatie Ryzens, laat staan met de huidige generatie. Een 12 core AMD verslaat dan zonder problemen een 24 core Intel...
25% tragere multicore prestaties klinkt voor mij wel best shocking, moet wel heel erg veel om singlecore performance geven als je dit zou willen kopen
De strategie van Intel voor dit segment is er volgens mij op gericht dat je deze CPU's voornamelijk voor HEDT toepassingen en gaming gebruikt, en dat je voor HPC-achtige taken of taken die van nature extreem goed paralleliseren, geen Core Ultra moet kopen maar een Xeon. Eigenlijk was dat voorheen ook al enigzins het geval maar nu Intel volledig op P+E cores inzet helemaal.

Volgens mij is dit ook gewoon een logische en slimme keuze, het klinkt op papier leuk om 16 gelijke cores met maximale specs te hebben, maar het soort taken (en synthetische benchmarks) dat daar echt van profiteert is voor de meeste mensen niet zo relevant, en als dat wel zo is dan heb je waarschijnlijk meer aan een Xeon met nog veel meer cores, quad-channel memory etc. Dan zit je wel in een heel andere prijscategorie natuurlijk.
Prijscategorie is wel een dingetje daar ja, zou leuk zijn om een processor te hebben die voor development, rendering etc. leuk is maar ook gewoon voor dagelijks gebruik fatsoenlijk is. Denk dat de 14900 daarvoor nu de koning blijft
Volgens mij is dit ook gewoon een logische en slimme keuze,
Klinkt als een zeer slecht idee die mensen naar de concurrent stuurd
Dan zit je wel in een heel andere prijscategorie natuurlijk.
Dat is denk ik precies de reden dat dit geen slim idee is

Mensen kopen ook "Geforce kaarten" omdat Quadro kaarten te duur zijn voor zakelijke doeleinden voor veel mensen

Zelfde met AMD, die zijn zo populair geworden omdat ze zoveel meer cores hadden en dus niet alleen voor gaming gebruikt kunnen worden

Als dit echt Intels strategy is ben ik bang dat het slecht voor ze gaat uitpakken

[Reactie gewijzigd door Sinester op 7 oktober 2024 11:58]

Uh... even samenvattend: je koopt deze 16+8 core processor dus vooral voor de singlecore snelheid? heus?
Nee, voor toepassingen die baat hebben bij 8 hele snelle cores + een berg minder snelle cores voor taken die geen piek performance nodig hebben. Dat is een enorme klasse van taken waarmee je veruit de meeste gebruikspatronen wel gecovered hebt. Heb je meer parallele prestaties nodig dan kies je een 24 of 32 core Xeon en dan lever je in op single-thread performance en stroomverbruik. Zelfde verhaal waarom je beter een 7800X3D kan kopen als je vooral wil gamen, in plaats van een 7950X. Is niet zo ingewikkeld toch?
Nou, voor mij wel: voor singlecore prestaties met een beetje extra voor andere zaken lijkt me een processor met b.v. 8 cores (maar wel hoge kloksnelheid) handiger en goedkoper. Het zal wel mijn gebrek aan fantasie zijn, maar of je het een zware taak met parallel kunnen waarvoor je dus richting Xeon zou moeten gaan - of een generatie terug waar je dus duidelijk betere prestaties krijgt of een zware task die echter niet goed over meerdere cores gaat, waar je dan een snelle core moet hebben. Zo maar 24 cores hebben die niet optimaal kunnen samenwerken maar klaarblijkelijk wel allemaal aan de bak moeten zie ik persoonlijk minder gebeuren - maar ik ben geen expert.
Deze CPU’s hebben geen hyper threading meer, dus waar je voorheen zeg 8 cores met hyperthreading kreeg (dus 16 hardware threads), krijg je nu 8 P-cores met 16 E-cores (24 hardware threads). Het relatief hoge aantal E-cores is dus deels om het gebrek aan HT te compenseren). De nieuwe cores hebben dan ook nog allebei een design dat breder is waardoor je (in theorie, onder de juiste omstandigheden) op lagere kloksnelheden meer prestaties zou kunnen halen (=hogere IPC). Ik zie geen kloksnelheden in het artikel maar ik vermoed dat ze lager gaan zijn dan de 14900, in ieder geval voor de E-cores.

Het is een trade-off, en waar Intel tot nu toe altijd vooral heethoofdige CPU’s met een focus op hoge kloksnelheden koos, gaan ze nu meer voor een ontwerp waarin de E-cores een belangrijkere rol krijgen, met alle voor en nadelen die daar aan vast zitten. Ik denk persoonlijk dat 8 P-cores voor piek performance en een sloot E-cores voor multithreaded workloads die niet 100% compute-bound zijn (maar bijvoorbeeld memory-bound of I/O bound, of taken met afhankelijkheden waar een aantal threads voluit gaan en de rest af en toe stilstaan) best een goede keuze is voor wat mensen met deze CPU’s willen doen. Beter dan wat Intel eerst had. AMD doet het weer anders, die voegen extra cache toe (X3D), of combineren dezelfde cores maar op verschillende processen (en dus kloksnelheden) op 1 chip (Zen 5c), wat in feite hetzelfde doel nastreeft (piek performance voor sommige taken, en iets minder performance in ruil voor zuinigheid voor andere taken). Wie er gelijk heeft zal blijken maar ik denk dat wat Intel doet zeker niet vreemd verzonnen is.

Die ‘25% minder MT performance’ benchmark verhalen zou ik met een flinke schep zout nemen. Dat gaat waarschijnlijk over 1 specifiek scenario waar deze trade-off minder gunstig uitpakt, maar dat hoeft niks te zeggen over het totaalplaatje.

[Reactie gewijzigd door johnbetonschaar op 7 oktober 2024 19:49]

OK, bedankt voor de uitleg: ik heb persoonlijk altijd vraagtekens gehad bij die "stapels" E cores, die kennelijk de lichtere taken moeten overnemen: hoeveel is er voor die dingen te doen? Tuurlijk: het is zonde een zware core flauwekul werk als input op te vangen maar hoeveel lichte processortjes heb je dan nodig? En je merkt het al: HT heb ik ook nooit zo begrepen: het lijkt me gigantisch veel extra werk tussen die taken te jongleren, wat dat betreft kan ik me voorstellen dat Intel er ook weer mee gestopt is, maar ik ben benieuwd of de combinatie van 2 soorten cores dan wel een blijvertje is: het lijkt me dat het voor Windows & Co. ook lastig wordt alle processen aan de juiste processor toe te wijzen, zie ook de misère bij de nieuwste AMD series waar de acces tijden tussen sommige CPUs absurd lang is. Het zal vast allemaal weer met een generatie of 2 op te lossen zijn, maar dan is er weer wat nieuws verzonnen wat dan weer problemen veroorzaakt voor de bleeding edge of technology.
Hoe snel een computer alle draaiende taken uitvoert gaat niet alleen over peak performance (latency) maar ook over hoeveel taken op elk moment voortgang kunnen maken (throughput). Ik zal eerlijk toegeven ook geen expert te zijn als het over het schedulen van taken over CPU's met verschillende cores gaat, het is nogal een complex onderwerp. Maar in zijn algemeenheid kun je wel stellen dat in de meeste gevallen er maar een handjevol threads actief zijn die een core op volle snelheid willen en kunnen benutten. Veruit de meeste threads staan het grootste gedeelte van de tijd stil, op I/O te wachten, op RAM, op andere threads, etc. Het OS kan al dat soort taken over de 'langzamere' cores verdelen, en wanneer nodig zware threads naar de snellere cores migreren.

Er zijn altijd uitzonderingen waar deze aanpak faalt, en dat is bijvoorbeeld taken die zwaar parallel + compute bound zijn, bijvoorbeeld simulatie software of CPU-renderen in Blender. Dat soort taken houden prima 16 snelle cores bezig, en daar zal het soort multi-core performance regressies wat je in dit soort benchmarks ziet waarschijnlijk te vinden zijn. Andersoortige taken kunnen trouwens ook problematisch zijn, bijvoorbeeld threads die continu wisselen in het soort bewerkingen dat ze uitvoeren, en het OS die zou gaan ping-pongen tussen snelle en langzame cores bijvoorbeeld, wat bijvoorbeeld weer desastreus is voor cache efficiency (de eerste/snelste cache levels zijn niet gedeeld tussen P en E cores). Vandaar inderdaad dat een OS scheduler voor dit soort CPU's zo ingewikkeld is tegenwoordig en je bij nieuwe CPU's regelmatig ziet dat de prestaties tegenvallen tot er een OS patch is dit beter omgaat met hoe die CPU's zijn opgebouwd.

Je kan je afvragen waarom niet gewoon zeg 12 snelle cores in plaats van 8 snelle + 24 minder snelle, maar de gedachte is dat de 'minder snelle cores' zuiniger zijn en er daarom meer ruimte overblijft om de snelle cores hoger te kunnen klokken. Plus dat je er binnen hetzelfde power budget meer van kwijt kan dan P-cores. Het 'langzaam' van de E-cores moet ook niet overschat worden want zo extreem langzaam zijn ze nou ook weer niet trouwens.
Ik werk met AutoCAD en Civil3D. Voor zover ik weet, benutten deze programma's nog steeds maar één core (waarom? Geen idee). Maar voor dit soort programma's lijkt het mij dus wel handig om de single core prestaties hoog te hebben.
Er draaien tegenwoordig toch altijd meerdere cores? Want je draait niet alleen AutoCAD....

Dus single core performance klinkt als een behoorlijke niche....

Of moet ik dat lezen als: een enkele core krijgt een boost clock en de rest niet?
Of moet ik dat lezen als: een enkele core krijgt een boost clock en de rest niet?
Als je *alle* cores gebruikt, is de performance 25% lager. Wat het verschil is bij twee tot twintig threads weten we dus nog niet, maar ik verwacht eerder beter dan slechter.
Wat bedoel je twee tot twintig? Alleen de P-cores hadden hyperthreading, je mist dus 8 threads.
Wat bedoel je twee tot twintig? Alleen de P-cores hadden hyperthreading, je mist dus 8 threads.
Het top model kan dus 24 in plaats van 32 threads runnen. Tot en met 8 threads mis je dus sowieso niks. HT wordt volgens mij pas ingezet nadat alle fysieke cores aan het werk gezet zijn, dus tot en met 24 threads zou je ook niks moeten missen.
Correct. Met de vorige generatie was de performance volgorde doorgaans (maar workload-afhankelijk)
  • P-core, 1 thread
  • E-core, 1 thread
  • P-core, 2 threads
Met 8 foreground threads zal het OS dus in beide situaties kiezen voor de 8 P-cores, elk 1 thread. En zelfs met 16 foreground threads zal het OS nog geen moeilijke keuzes hebben; dan is 8P+8E de beste keuze. Dan heb je alsnog genoeg E cores voor services in de achtergrond.
Goh, interessant! Ik dacht altijd dat na P de HT en pas als laatste de E cores aan de beurt kwamen.
Ik vind dit super relevante informatie, omdat ik nu nog meer inzie, hoe belangrijk de E cores zijn!
Nog belangrijker dan de HT taaklasten van de Performance cores.

+2 omdat mijns inziens dit essentieel is om de "spelregels" van de P/E taak-prioritering beter te kunnen begrijpen én beter te kunnen voorspellen, ook voor de aanschaf van een CPU, om een goede inschatting te maken hoeveel P (en evt E) cores men nodig heeft en of men voor Arrow Lake (P+E, -HT) of Ryzen moet kiezen (P+HT).

Bronvermelding van jouw prioriteitschema is welkom @MSalters.
Geldt de volgorde die je schrijft alleen voor Windows 10/11 Pro of is dat besturings-systeem onafhankelijk en geldt dat voor Alle besturingssystemen?
De daadwerkelijke thread scheduling in het OS is zeker OS-afhankelijk. Een oud OS weet niets van P/E cores en zal ze redelijk at-random gebruiken. Maar voor een modern OS moet je uitgaan van Intel Thread Director, die naar de feitelijke workload kijkt. Soms is het handiger om twee threads op dezelfde P-core te houden, als die twee threads nauw samenwerken, vaak op elkaar wachten, en dus dezelde CPU cache kunnen delen. Dat is bijvoorbeeld het geval bij producer/consumer thread paren.
Ik heb het geprobeerd onder Windows 8.1 en die weet inderdaad het verschil niet tussen schedulen van een P core of E core. Hij ziet ze als hetzelfde en daardoor mis je snelheid. Of iets op 5400mhz gaat of 4200mhz scheelt een 30%.

Pas Windows 10/11 weten er mee om te gaan. Linux kan ik niks over zeggen.
Hyperthreading wil zeggen dat je twee threads op één P-code scheduled. In de tijd dat de ene thread op een memory access wacht kan die andere thread dan draaien. De consequentie is dus dat je alle core resources moet delen: instruction ports, cache, register file, etcetera. En vanwege SPECTRE-achtige threats moet de core echt helemaal switchen van de ene thread naar de andere. De enige winst is dat de CPU zelf sneller een thread dan switchen dan het OS. (En dat verklaart hoe Intel HT kan schrappen: als je het OS-pad sneller maakt, dan hebbel alle threads winst).

Maar je draait dus liever die tweede thread op een inactieve E-core. Die is net zo goed in "wachten op geheugen" als een P-core maar wel een stuk efficienter. En als je chip daardoor minder warm word, dan zijn alle threads sneller.
Uit het artikel:
De processor beschikt over 8 P-cores en 16 E-cores, en heeft 24 threads. Er is geen ondersteuning voor hyperthreading.
Dus HT.... nope.
Ik denk dat je niet goed leest, de vorige 14900K had wel hyperthreading, 24 cores, waarvan 8 p-cores, dus 8x2 + 16 = 24 cores en 32 threads. Deze 285K heeft 24 cores en 24 threads, je mist dus 8 threads.
Je gaat inderdaad slechts op 1 core boosten, de rest werkt aan een veel lager tempo waardoor er meer stroom ter beschikking is voor die ene core terwijl de CPU netjes binnen zijn temperatuurbereik blijft.
Think again.. Ik heb al jaren een 24core amd ryzen pro.
Dikke miskoop omdat bijna niemand echt multicore soft schrijft.

Cinema4D, de simulaties allemaal single core.
Rendering doen we ook net meer op CPU, dat is allemaal gpu geworden.
Adobe after effects 2018 was de laatste versie die multicore rendering kon (echte multicore).
Dat hebben ze dan opnieuw ontworpen met als gevolg dat we 5j lang geen multicore rendering hebben gehad. Nu zit het erin maar het voel aan als max 2/3 cpu cores ipv 24. Zeer zwakke prestaties.
Bij compileren haal ik er het meest uit omdat dat een miljoen kleine taken zijn die zelfstandig kunnen voltooien. Probleem is dat alle gangbare gebruiks-software monolittisch is. Je kan wel 2 threads parallel draaien, maar als de 1e moet wachten op input van de 2e ben je daar alleen wat mee opgeschoten als de 1e alvast iets anders kan doen tijdens het wachten. Daar softtware tegen ontwikkelen maakt alles overcomplex en uiteindelijk waarschijnlijk langzamer. Wat het gemiddelde OS aan tijd wint door processen over cores te schedulen is minimaal vergeleken met gewoon single-core multitasking. Voor het grootste deel vereist alles een sequentiele verwerking. Als je meerdere cores aan het werk ziet doen ze meestal voor 99% hetzelfde om mogelijk ergens 1% tijdswinst te maken.

Volgens mij moeten ze wat nu de board-chipset is ook per core compleet uitvoeren, dus onafhankelijk adresseren en bronnen aanspreken. Dan heb je eigenlijk gewoon meerdere computers in 1 maar je zou geen verschil moeten merken tussen 1 x Windows op het hele systeem of 2x met allebei de helft van de resources gereserveerd. Ze moeten in theorie kunnen draaien zonder van elkaars bestaan te weten.

[Reactie gewijzigd door blorf op 7 oktober 2024 15:29]

Wat het gemiddelde OS aan tijd wint door processen over cores te schedulen is minimaal vergeleken met gewoon single-core multitasking. Voor het grootste deel vereist alles een sequentiele verwerking.
Gelukkig is dat gewoon niet waar. Dat hangt helemaal af van wat men probeert te bereiken en of het opdeelbaar is of niet.
Als de ene thread gereed moet zijn voordat thread 2 verder kan dan heeft het geen zin idd.
Het is alleen maar interessant als je een taak hebt die van zichzelf opdeelbaar is. Normale software zit daar ver vanaf. Het ontwerp van besturingsystemen is het tegenovergestelde daarvan. Die doen nooit meer van hetzelfde.

[Reactie gewijzigd door blorf op 7 oktober 2024 15:55]

Normale software zit daar ver vanaf.
Waarom? Bijv. een Navigatie app heeft een thread nodig die opvraagt waar men is, een thread die nieuwe routes berekend, een thread die de GUI regelt, enz.
Dat een enkele taak vermoedelijk single-threaded zal zijn kan kloppen, maar het systeem als geheel gebruikt meerdere threads.
Anders gezegd: aan welke software denk jij dan? Zelfs een 3D tekenpakket kan meerdere threads gebruiken als er bepaalde controles worden gedaan die achteraf [dus na de teken-actie] extra info toevoegen (of misschien zelfs besluiten dat het toch niet 'past']. En als er data wordt uitgewisseld met andere systemen dan is een extra thread ook voor de hand liggend.
Een navigatie-app doet niet eens rekenwerk dat merkbaar tijd kost.
Jawel toch - routes worden herberekend op basis van bijv. afsluitingen, filemeldingen of gemiste afslagen.
En het bepalen van een optimale route leent zich heel goed tot parallisme - dus meerdere threads.
Dat gebeurt in een flits. Het is een kwestie van wachten op binnenkomende data.
En waarom denk je dat dit in een flits gebeurt? Juist.... multi-threading. :Y)
Nee, omdat de hoeveelheid rekenwerk te verwaarlozen is voor wat er aan computer een telefoon zit. De cpu-load van een navigatie-app is wat de grafische weergave vereist. Daar ga je met meerdere cores ook niks verdienen, want voor de graphics is er maar 1 apparaat waar je het mee moet doen.

Misschien zou je de cores kunnen gebruiken voor bepaalde random-effecten in games. Dat moet vast al wel bestaan. Als die cores direct de GPU kunnen aanspreken zouden er mogelijkheden moeten zijn voor graphics.

[Reactie gewijzigd door blorf op 7 oktober 2024 17:01]

Bij mijn weten was Assassin's Creed één van de eerste die echt een dualcore CPU sterk adviseerde omdat ze alle NPC's op de tweede core verwerkten. Dat zal tegenwoordig wel minder noodzakelijk zijn omdat alles veel sneller is geworden maar daar kan ik me nog wel voorstellen dat het nut heeft.

Ook bij games als Civilization zou ik verwachten dat die heel sterk zijn in multicore gebruik maar daar heb je ook veel minder onderlinge afhankelijkheden.
omdat bijna niemand echt multicore soft schrijft.
Wat?.... :?

Het OS (Windows, Android) gebruikt toch al meerdere cores?
Een GPU is een enorme multi-core (honderden).

Dat niet alle 24 cores worden benut is weer een ander verhaal.
? Het gaat over soft, niet de OS.
Zoveel processen zijn niet nodig in een OS.

Ik koop zo'n cpu voor serieuze video/3D toepassingen en die zijn meestal singlecore.
Want een OS is geen sottware?
Zoveel processen zijn niet nodig in een OS.
Eh, jawel.... (tegenwoordig dan)
Een OS is software, maar er wordt duidelijk applicaties bedoelt. Beetje flauw.

En er zijn heel veel processen in een modern OS, maar die hebben over het algemeen erg weinig cycles nodig, niet voldoende om zelfs maar 1 core echt te belasten.

Dus in die zin heeft @multipasser nog steeds wel gelijk.
Beetje flauw om te denken dat we 'alleen' een game draaien. En om het nog wat te onderbouwen: de grootste voorsprong in performance is gekomen bij de overschakeling naar multi-cores gecombineerd met software (OS en applicaties) die multi-threaded draait).
Ook al zijn bepaalde processen misschien minder rekenintensief; het punt is dat het geen bottleneck meer vormt (wat wel het geval is met een single core).
Mijn 5800X geeft tussen de 0.3 and 1% aan terwijl ik dit aan het typen ben, en dat is met meerdere tabs actief (en een paar KDE-widgets onder andere om de CPU in de gaten te houden). Dus ja, als je aan het gamen bent dan is de game het enige wat daadwerkelijk CPU vraagt.

Als we naar de initiele post kijken dan heeft multipasser 24 cores met single core applicaties (klaarblijkelijk). Dan ga je echt niets hebben aan de meeste cores; aan 4 cores in een 2hpf + 2e cores config heb je dan zat. Vergeet ook niet dat die Pro CPU's dus minder single core performance bieden.

Ik heb ook wel eens de koop van een Niagara Sparc gebaseerde server tegengehouden omdat ie enkel voor server-to-server werd gebruikt, en dus volledig afhankelijk was van de IO, en nooit veel multi-threaded zou doen. Eerlijk gezegd was de Xeon CPU sowieso overkill.

[Reactie gewijzigd door uiltje op 8 oktober 2024 14:47]

Single-core niche? Dat is bij mij toch altijd wel het belangrijkste. Lineaire rekenkracht... Wat je met een multithreading consttuctie nog kan winnen is alleen noemenswaardig bij eenzijdige processen die veel naast elkaar kunnen draaien omdat ze elkaars data niet constant nodig hebben.
Je kunt ook meerdere single core applicaties draaien. Dan benut je ook meerdere cores.
Je hoofdtaak op 1 core en de achtergrond taken op een ander core. Dan heb je aan 2 cores voldoende.
Maar als die achtergrond taken zwaar zijn (encoding, uitpakken, etc) dan zijn meer cores handig.
bij eenzijdige processen die veel naast elkaar kunnen draaien omdat ze elkaars data niet constant nodig hebben.
Daar valt het draaien van meerdere programma's ook onder.

Of je daarvoor 4, 8, 16, whatever cores nodig hebt is weer een heel andere discussie.

[Reactie gewijzigd door TechHead op 7 oktober 2024 13:33]

Ik denk dat het tegenvalt. Bijv. eem browser en een vm-programma tegelijk gaat bijna alleen maar sneller worden bij hogere single-core prestaties. Het totale gebruik van resouces is in beide gevallen hetzelfde. Je hebt alleen voordeel bij momenten van puur rekenwerk over meerdere cores tegelijk, zonder het tussentijds aanspreken van opslag of andere apparaten..
Geen enkel wat groter OS draait nog single thread. Aparte thread voor representatie, aparte thread for data-retrieval, aparte thread voor user-input verwerking, enz.....
En veel applicaties gebruiken dat natuurlijk ook.

Nu kun je wel multi-thread / multi-process werken op een enkele core maar de winst zit toch echt bij de multicores. Natuurlijk moet een systeem / programma dit dan wel benutten. Maar als een systeem vrijwel altijd op een multi-core draait, doen ze dat dus ook.
Natuurlijk helpt het als de cores of de meest gebruikte, lekker snel zijn/is. Maar het vrijwel altijd sneller om multi-threaded te draaien. De data kan dan ook in brokken worden opgehaald en verwerkt. Dat is uiteindelijk sneller dan eerst alle data ophalen en dan pas alle data verwerken.
Dat optimalisaties werden gedaan om een singlecore sneller te krijgen komt nu ook niet meer voor denk ik. De overhead van de context-switch was een reden om het niet te doen, maar nu hebben we ook echt meer cores beschikbaar. Dat sommige programmas het niet zo goed benutten is weer een ander verhaal.
Autodesk Fusion 360 alle cores
Spaceclaim alle cores
Far Cry 6: 12 cores
Fusion 360 draait grotendeels op 1 core. Zie je ook als die weer eens vast hangt om na te denken.
Fusion heeft best wat onderdelen die goed multicore ondersteunen, maar dat betekent niet dat alles ook multicore kan. Als je parametrisch modelaanpassingen maakt, dan zijn de berekeningen altijd sequentieel omdat de tweede berekening afhankelijk is van het resultaat van de eerste
De core count is hetzelfde, gebruiken ze ook alle threads?
Alle threads , bestaat niet ?
das maar deels waar autocad, en andere prodcuten uit die stal doen al jaren zowel multipocessing als multithreading voor allerlei subprocessen. Het kan best dat dingen als de main wiskunde nog single threaded is, maar dat is vergelijkbaar met wat browsers doen. Je kunt nog steeds allerlei andere tabs.views randzaken offloaden op andere cores of wel paralel uitvoeren.
Multicore support is wel aanwezig maar het wordt alleen bij specifieke functies gebruikt. Bij de standaard werkzaamheden zal je het inderdaad niet zien.
Blender gebruikt alle cores.
Tijdens rendering op cpu misschien maar nooit als je een simulatie gaat doen van particles of dynamics. Want core 2 weet niet wat core 3 aan het berekenen is.
Klopt ik had het over rendering. Die gebruikt nagenoeg 99% van alle cores.Je uitspraak over particle simulatie is te algemeen. De blender extensie Mantaflow is bijvoorbeeld wel multicore.
Correct. We hebben hier op het werk ladingen met computers waarbij de eis was de snelste single thread performance, specifiek voor Civil3d. Een extra core of 3 extra is leuk voor Windows, maar verder niet zo belangrijk.

Ik wil je wel uitleggen waarom. Het is hele oude software die elke keer een patch krijgt met een paar functies. Als ze Civil3D en andere pakketten willen uitbrengen met multithreaded ondersteuning, zullen ze vanaf de basis alle pakketten opnieuw moeten bouwen. Dat kost geld en dat willen ze niet.

We hebben nu computers met Intel 12900 processoren. Binnenkort maar eens gaan upgraden als de processor van het artikel uitkomt.
Ergens verdenk ik Intel er wel van om over en jaar ofzo met een 290K te komen met 32 native threads, dus 32 cores, die weer gehakt maakt van de vorige processors.
Want het loopt nu zo lekker bij Intel dat een dergelijk (uitstel)scenario loont?
Maakt niet zo veel uit hoe het loopt, doen ze overal. NVidia komt straks ook met een zooi 50-serie kaarten met eigenlijk net te weinig geheugen en gaan daarna nog weer komen met upgraded modellen met 1,5x zo veel geheugen.
Ik denk niet dat Intel op dit moment in de positie is dat ze zulke grappen kunnen uithalen, de vergelijking met nVidia klopt dan ook niet omdat nVidia in een veel en veel betere positie is als Intel

Nvidia kan het maken zonder dat ze er iets van merken, Intel absoluut niet meer

Intel moet er nu alles aan doen om met fatsoenlijke performance te komen die geen gebreken hebben om mensen weer te overtuigen Intel te kopen.. dat gaat niet lukken als ze bewust hun CPU kreupel maken

[Reactie gewijzigd door Sinester op 7 oktober 2024 11:53]

Volgens mij vergeet je alle HP, Dell, e.d. workstations die overal zakelijk staan te draaien op Intel-only hardware. De nVidia-doelgroep is nietig daarbij vergeleken.
Kan zijn, maar verdienen ze daar ook nog wat aan? AMD kan die chips ook leveren en zelfs Qualcomm staat stevig aan die deur te rammelen, dus de marges staan daar fors onder druk. Kun je wel veel verkopen maar als je marge maar een paar cent is schiet dat niet op.

Het is niet voor niets dat er inmiddels al twee keer gespeculeerd is over een overname van Intel, want zowel ARM als Qualcomm hebben al interesse getoond.
Dat is inderdaad een zeer veel toegepaste strategie, als je mee kunt komen met de concurrentie.
Maar als de winst onder druk staat, er een deuk in het imago is vanwege technische problemen, etc, heb je als bedrijf niet de luxe om wat snelheid op de plank te laten liggen tot volgend jaar.
Intel heeft nu een antwoord nodig op AMD nog een jaar achterlopen is geen optie. En als Intel volgend jaar die extra snelheid v/d plank haalt lopen ze misschien nog steeds achter omdat AMD in dat jaar uiteraard niet stil zal zitten.
Toch denk ik dat ze bewust hebben gekozen voor 245, 265 en 285 en niet voor 260, 270 en 290, wat logischer was als opvolgers van de 1X600K, 1X700K en 1X900K.
Games en veel apps schalen slecht naar meer dan 8 - 24 cores, zo shocking vind ik het dus niet, dan ga ik liever voor 10% meer per-core performance.
Ben je de hele dag aan het renderen dan is het een ander verhaal, maar in beide gevallen zou ik gewoon de benchmarks afwachten.
Games en veel apps schalen slecht naar meer dan 8 - 24 cores
Tja, games worden geoptimaliseerd naar de grote gemene deler en die verschuift langzaam naar meer cores denk ik.
Maar meer apps tegelijkertijd gebruiken als het goed is echt wel meer cores. Dat er dan weer ergens anders bottlenecks kunnen ontstaan is een ander verhaal.
Het is sowieso moeilijk om games multicore te laten lopen. Afhankelijk van het genre gaat er vaak een primaire thread zijn die sequentieel afhankelijk is van zichzelf... Dus er zullen nog wel een tijdje gamers op jacht gaan naar de snelste singlecore, en deze zullen ook nog wel een tijdje bovenaan blijven bij de gamebenchmarks
aan de sloot e-cores die er in 12-13-14th gen zaten in de hogere series had je ook niets in dagelijks gebruik, het gaf alleen maar wat hogere benchmark scores op. Voor +90% dagelijks gebruik niet nodig.
wil niet zeggen dat enkele e-cores wel toegevoegde waarde kunnen zijn.

En single core boost kan je beter met een korrel zout nemen in deze zeer synthetische benchmark.
E-cores gebruiken minder stroom dan P-cores. Dus wanneer prestaties niet super hoog hoeven te zijn, bijvoorbeeld bij het schrijven van een emailtje of het lezen van Tweakers in een browser, kunnen de E-cores de taken afhandelen. Ga je een spelletje spelen dat veel rekenkracht vraagt, dan nemen de P-cores het weer over.

In de praktijk ben je dan afhankelijk van hoe goed het systeem schakelt tussen de P-cores en de E-cores.

Steeds meer mensen vinden hun stroomverbruik belangrijk. In testen zie je dat nog niet echt terug, daar gaat het nog om deze CPU presteert in single core mode maar liefst 8 procent beter dan de vorige kampioen.
E-cores hebben 2/3 van een P core kracht, pakweg grof gerekend... je hebt niks aan een sloot van 10-14 van zulke dingen.

Het is trouwens beter om verschillende processen op enkele cores te draaien en de rest in slaap te houden dan alle processen te verdelen over de sloot kwa energie... want dan moet je veel meer activeren van de CPU.

trouwens als je stroomverbruik je lief is koop je geen desktop CPU of blijf je bij generaties van enkele jaren geleden... want alle laatste generaties geheugen en PCI-e, USB etc slurpen gewoon energie.

Heel je stroomverbruik verhaal vervalt als je P-cores hebt die als ze moeten werken dan ook ineens veel gaan verbruiken en als je er tekort hebt dan ga je het ook merken in prestaties....

INtel heeft dit niet gebracht voor de consument, ze hebben dit in het leven geroepen omdat ze niet beter konden... (meer dan 8 Pcores onmogelijk binnen power budget en boost ghz...) + sloot e-cores voor de benchmarks.

[Reactie gewijzigd door d3x op 7 oktober 2024 11:23]

Je hoeft mij niet te overtuigen, het is Intel die je moet overtuigen. Maar nu ze binnenkort overgaan op het 14A-node procedé zou het me ook niet verbazen als het e-core concept naar de achtergrond verdwijnt.
14a binnenkort? producten ergens ver in 2026 bedoel je "als alles goed gaat" en nog niet eens zeker of "alles wat vooropgesteld" was marketing er wel in zal zitten.... 20 en 18 zijn al mooie voorbeelden hoe alles aangepast wordt van specs.
Ik heb zo het vermoeden dat de meeste mensen niet zo afhankelijk zijn van het aantal cores in hun pc, en dat een verbeterde single core performance voor hun eerder voelbaar zal zijn dat die 25% bij belasting van alle cores
Zet eens alle andere cores uit met je BIOS of run een VM op een single core. Gaat je nog tegenvallen hoe die PC reageert. Quad core is voor mij toch wel het minimum. En dual core is heel veel beter dan single core wat betreft reactiesnelheid van het OS / de GUI.
Het verschil tussen -25% minder snelheid met alle cores belast of helemaal terug maar het tijdperk van single core cpus zal inderdaad wel voelbaar zijn
Juist niet. Single performance persen uit een CPU is natuurlijk veel interessanter, en moeilijker. Zeker op architecturaal gebied. Het zegt dus veel meer over de staat van de architectuur. (Als we het hebben over IPC gains uiteraard)

Cores kan je bijplakken, en zegt veel minder over het algehele design, en meer over de throughput voor geschaalde apps.

En in de praktijk? Goed als je gamer bent, minder als je aan data processing doet.

[Reactie gewijzigd door Marctraider op 7 oktober 2024 11:48]

Ik denk dat voor gewoon dagelijks werk en games deze processor super zou zijn. Ben geen Intel fan (heb een 5950x), maar 8% meer performance uit 1 core op 5700mhz dan de 14900ks op 6200mhz lijkt me een super verbetering (~16%).
En je hebt er 8 cores op die snelheid (of iets lager), wat de sweet spot is bij games. Alleen bij de echte multi-core speciale programma's is hij langzamer. Maar wie gebruikt er blender etc? Alleen bij schaalbare games (meer dan 8 cores) op 1080p zou het kunnen schelen, daarboven is het toch de GPU die het regelt.
Ook voor office work zie ik liever een hogere single core performance dan de 16 or meer cores. Dus een super game/office work chip met een zooi extra cores.
AMD zal nu wel een 9950x3D met 2x extra cache (op elke die) moeten maken om dit te overtreffen. Ben erg nieuwd wie deze nw battle gaat winnen. Qua multi-core lijkt me AMD, maar qua games en office work lijkt me de 285k wel een contender.

En misschien gaat die multi-core waarde nog omhoog als er nog een scheduling optimalisatie slag gaat komen.

[Reactie gewijzigd door groene henk op 7 oktober 2024 13:26]

Wordt ook een kwestie van de benchmarks afwachten... Als developer zijn multi-core workloads wel belangrijk voor mij, waar wil ook gewoon een fatsoenlijke gaming processor hebben...

Then again, waarschijnlijk maakt CPU bijna niet meer uit voor gaming als je het al over i9 en vergelijkbaren hebt.
Best wel shocking? Ik vind het wel mee vallen hoor. Dit zijn ontzettend goede cijfers. Multi-core berekeningen boven een bepaald aantal cores zijn voor de meeste gebruikers onrealistische werk scenario's. Voor gaming kan het maar eens zo zijn dat deze processors ontzettend goed gaan presteren, en ik kan mijn voorstellen dat zonder Hyper Threading zaken zoals latency ook nog eens een stuk beter zijn. Intel kon zo maar eens de gaming "kroon" terug kunnen pakken. Om nog maar niet te spreken van audio rendering in DAW's waar singlecore ontzettend belangrijk is.

Ik ben heel positief verrast met deze leak, we gaan het zien in de praktijk. over 3 dagen de officiële aankondigen en dan nog 2 weken wachten op de echte benchmarks.
In een tijd waarbij veel applicaties en vooral games goed schalen op meer cores is het geen goede reclame voor Intel als hun top model 25% lager scoort als hun vorige topmodel als het gaat om multicoreprestaties.

Dat is net zoals een nieuwe Ferrari kopen die maximaal 250km/h kan i.p.v. ruim 300 zoals het vorige model.
Ach, wanneer die Ferrari wel 11% sneller optrekt, dan is kan het een prima afweging zijn. Gebruik je de Ferrari op de weg of op het circuit? In het eerste geval zal je die topsnelheid nooit halen en ik kan ik me voorstellen dat je voor de betere acceleratie gaat.
Maar wat nou als je je processor wel serieus gebruikt en dus die 100% van de performance wel tientallen keren per dag gebruikt?
Dat is dus elke programmeur met een groot project in een gecompileerde taal of een video edittor of 3D graphics maker.

Dan baal je dat er dus vooralsnog niets snellers komt voor je usecase uit intel
Dan maak je dus een andere afweging en kies je voor de topsnelheid.
Dan maak je dus de enige juiste afweging voor een i9. Vooralsnog is de nieuwe i9 sneller in single core en langzamer in multicore. Klanten die dat interessant vinden, kunnen beter een i7 kopen. Sinds Intel de i9 introduceerde is de i7 al "de i9 met minder multi core"
Ik vind dat multicore zo'n score als vermeld zelfs een blunder van de hoogste plank is.

Als je P core en E core snelheid een stuk beter zijn als 14th gen, dan ga je ervoor dat die multicore ook beter is. Sterker nog, Intel komt zelden uit met iets wat trager is multicore.

10900K naar 11900K was zo'n geval? 10 core naar 8 core.
Soms moet je een paar stapjes terug doen op sommige vlakken met een nieuw design, om over de gehele linie en op de lange termijn weer vooruit te gaan. Het is gewoon een design keuze. Misschien willen ze wel de zware multicore gebruikers naar andere duurdere platforms pushen. Dan is het ook een productpositioneringskeuze.

Daarnaast denk ik dat we ook niet teveel waarde moeten hechten aan deze vroege benchmark. Ik snap zelf niet helemaal waarom de processor zoveel slechter zou presteren, terwijl de P cores het individueel dus beter kunnen doen (want de single threaded score is tenslotte significant beter). Wat er mist zijn 8 extra threads doordat er geen hypter threading is. Maar het is toch niet logisch dat dat dan meer dan 25% van de multicore performance kost? Hyper threading heeft helemaal niet zoveel impact. Ik vermoed dat de CPU simpelweg conservatievere power limit settings heeft. Mogelijk nog voorzichtige instellingen voor stabiliteitsissues bij maximaal all core gebruik? We gaan het dadelijk zien bij de volledigere officiële tests.

En er geldt natuurlijk ook: zijn die scores van de 14th gen CPU's wel terecht gezien alle problemen die er zijn doordat ze op te hoog voltage lopen. Als zo'n CPU binnen een jaar stuk gaat, geldt zo'n score, wat eigenlijk een overclock score betreft, toch niet echt? Vermoedelijk is Intel nu een stuk conservatiever met de instellingen van de nieuwe serie wat betreft het hoog clocken en stroomverbruik, na aardig wat reputatieschade te hebben opgelopen afgelopen tijd. Als deze score daadwerkelijk met de helft van het stroomverbruik lukt, wat ik me nog kan voorstellen, is het niet eens zo slecht. Wederom, we'll see.
Algemeen gesproken is de winst van hyperthreading tussen de 15-30%.
Zo gek is een verlies van 25% dan niet.
Erg jammer ja inderdaad. Misschien dat de Core 7's wel fatsoenlijke multi-core performance hebben... Ben benieuwd, anders maar kijken naar de 14th gen of naar alternatieven bij AMD
Voor een processor klopt je vergelijking niet helemaal. Je weet niet altijd of er multicore ondersteuning is en als die er wel is of het goed ingebouwd is. Terwijl een circuit, kun je altijd van te voren inspecteren.
Maar een goede single core performance kun je juist beter vergelijken met enkel een iets hogere topsnelheid maar voor de rest dus minder performance (snel optrekken heb je veel vaker nodig op een circuit en heb je ook meer aan op de weg). Hogere top is juist van beperkt nut. Net zoals single core performance dus. De meeste OS draaien multi core en gebruikers draaien meerdere applicaties tegelijkertijd.
Zolang we geen impressie hebben van andere variabelen zoals energieverbruik etc dan blijft het een beperkte vergelijking.
Inderdaad ik ben erg benieuwd naar hoeveel wattage deze erdoorheen jaagt om aan deze score te komen, bij singlecore kan het meevallen maar ben vooral benieuwd naar de multicore prestaties/ verbruik/ warmte ontwikkeling
Als je een 600-700 euro gaat stukslaan op een processor, geef je weinig om energieverbruik. Je wilt vol prestaties en dat de cores hard gaan.

Het is als een Ferrari of Koenigsegg kopen en dan beginnen over brandstofverbruik of bandenslijtage. Dat hoort wel het laatste te zijn waaraan je denkt.
Games schalen helemaal niet op meer cores. Een 9600x is daarom ook sneller dan een 7950x. Voorbij 12 threads zie je zelden tot nooit veel impact.

Het is inderdaad geen goede reclame.

[Reactie gewijzigd door napata op 7 oktober 2024 09:51]

Wel rekening mee houden dat je met meer cores/threads je andere programma’s niet hoeft af te sluiten wanneer je gaat gamen.
Je moet dat wel doen als je prestaties wil maximaliseren want het heeft sowieso impact. Doe maar eens een geheugentest met geen programma's versus een hoop programma's die in de achtergrond idlen. Zelfs al zijn ze volledig idle elk programma dat actief is, heeft een impact op geheugenprestaties en dit laatste is nu bijna altijd de bottleneck bij game prestaties.

Als je actief programma's wil gebruiken (bijvoorbeeld streamen) dan is het wel zinvol. Het zal sowieso prestaties kosten maar de impact is veel kleiner als je veel cores hebt.

[Reactie gewijzigd door napata op 7 oktober 2024 14:33]

Ik bedoel dus dat je met meer/voldoende cores dat niet hoeft te doen als je ff relax wil gaan gamen. Ik had tot voor twee jaar nog een 6600K en dat was in zware games een ramp als er nog maar een browser met veel tabs of discord of spotify open stond. Toen een systeem met een 5800X3D gebouwd en het maakt niks meer uit wat er allemaal open staat of op de achtergrond draait.
Onzin. Mijn 8 core 16 threads pu heeft gewoon 16x 80-90% belasting in meerdere games waaronder starfield en battlefield. Op de lange termijn is het dus zeker belangrijk voor games om meer threads te hebben. Dag is ook een reden dat ik deze hele cpu ga negeren. E-cores zijn nutteloos voor gaming en dan blijven er dus een karige 8 threads over.
Je noemt games, specifiek daarvoor is dat nou net weer geen probleem. Die hebben relatief weinig baat bij hyperthreading en E-cores.

Deze achteruitgang zal eerder te merken zijn in taken die makkelijker in gelijke kleine blokjes op te delen.
Aan de andere kant; als deze cpu geen permanente beschadiging oploopt ivm hoog stroom verbruik, vind ik dat wel een essentiele ontwikkeling.
Ik vind "the bare minimum" niet echt een essentiële ontwikkeling.
De lat ligt wel heel erg laag als we "hij doet niet aan zelfvernietiging" als feature gaan zien.

Intel kán voor deze release geen chip meer maken die stabiliteits issues heeft. Dat zou de 3e keer op een rij zijn en dat gaat echt heel veel schade aan hun imago aanrichten.

[Reactie gewijzigd door youridv1 op 7 oktober 2024 09:48]

Hij heeft wel een punt natuurlijk. Hyper Threading bleek een veiligheidsrisico en de prestaties van de vorige generatie een enkeltje doorgebrande CPU, simpel gezegd.

Laat Intel nu maar even terug naar de basis gaan en een nieuwe baseline zetten om op voort te borduren.

Probleem is, dat imago is reeds aangetast. Wie gaat er nu de gok wagen een CPU van een aangetast merk te kopen zeker indien de prestaties nergens de concurrentie naar de kroon steken?

Aan de andere kant, wat concurrentie op prijs is ook niet verkeerd.
In een tijd waarbij veel applicaties en vooral games goed schalen op meer cores is het geen goede reclame voor Intel als hun top model 25% lager scoort als hun vorige topmodel als het gaat om multicoreprestaties.
Games schalen juist helemaal niet goed naar heel veel cores. Boven de 6 wordt de winst van extra cores toevoegen steeds marginaler.
Zal dit de comeback van intel kwa prestatie-stroomverbruik worden??? 😬
Die multicorescore is waardeloos.
Benchmark eens wat zware applicaties en games, volgens mijn gevoel zal de nieuwe cpu 99% van de tijd beter zijn.

Het is niet voor niks dat ze stoppen met hypertreading.

[Reactie gewijzigd door David77 op 7 oktober 2024 10:02]

Boeiend hoor, die nieuwe processoren van intel en AMD. Vroeger hoorde je nog wel eens dat de nieuwe generatie "up to 25% " sneller was dan de vorige, dat was dan meestal voor een paar specifieke instructites en de gemiddelde winst was maar 5-10% of zo. Nu hoor je dat de nieuwe processoren zo'n 20-25% trager is. Leuk dat hij single-threaded 8% sneller is, maar daar koop ik persoonlijk geen 16+8 core processor voor...
Nu dat Microsoft zijn Surface lijn ook van ARM processors voorziet lijkt het einde nabij voor Intel. Ze kunnen er niet meer omheen. De cpu’s van Apple en Qualcomm zijn zoveel sneller en zuiniger. Zodra de ondersteuning vanuit softwarefabrikanten breder wordt kan het hard gaan. Straks kan iedere Windows gebruiker eindelijk Mac prestaties en accuduur ervaren. Ik kan iig niet wachten en ga vast een poging wagen.

[Reactie gewijzigd door fRiEtJeSaTe op 7 oktober 2024 08:41]

Dit gaat om een desktopprocessor. Voor laptops heeft Intel recentelijk Lunar Lake uitgebracht, die qua prestaties en accuduur heel erg vergelijkbaar is met de M3, en ook nog eens een hele goede GPU heeft. En dan heb je ook nog eens geen ARM compatibiliteitsproblemen.
Op papier ja. De praktijk bij Intel processors is al jarenlang dat de snelheid wordt teruggeschroefd omdat laptop fabrikanten de warmte niet krijgen afgevoerd.

De meeste mensen willen geen beest van een cpu. Ze willen een cpu die hun (basis) taken snel uitvoert, en dat zo lang mogelijk vol houdt.

[Reactie gewijzigd door fRiEtJeSaTe op 7 oktober 2024 09:06]

Niet op papier, Lunar Lake is al uit, en dit is wat de reviews ons vertellen.
de reviews vertellen dat de intel lunar lake gewoon terug meekan met de compititie AMD-Arm-Apple.
niks meer dan dat.....
Op papier ja. De praktijk bij Intel processors is al jarenlang dat de snelheid wordt teruggeschroefd omdat laptop fabrikanten de warmte niet krijgen afgevoerd.
In benchmarks kunnen de nieuwste intel mobile chips zich gewoon meten met de nieuwste Apple M.

Ook is er nog steeds heel erg veel software die gewoon alleen op x86 goed werkt en te performance kritisch is om in emulatie te draaien.
Straks kan iedere Windows gebruiker eindelijk Mac prestaties en accuduur ervaren.
"Mac prestaties" vind ik een rare. Vooralsnog is een Windows desktop met een i9 of R9 nog steeds véél sneller dan de snelste M-chip.

Ik kan ook makkelijk een dag lang kantoortaken op mijn thinkpad uitvoeren zonder enige accu problemen. Zodra ik code ga compileren gaat het mis, maar als een M-chip voluit moet is je accuduur ook nihil.

[Reactie gewijzigd door youridv1 op 7 oktober 2024 09:43]

Ook is er nog steeds heel erg veel software die gewoon alleen op x86 goed werkt en te performance kritisch is om in emulatie te draaien.
Kan je daar een paar voorbeelden van geven die niet zo niche zijn dat het voor 99% van de gebruikers een non-argument is?
"Mac prestaties" vind ik een rare. Vooralsnog is een Windows desktop met een i9 of R9 nog steeds véél sneller dan de snelste M-chip.
Prestaties is natuurlijk maar net wat je besluit te meten. Feit is dat Macs op dit moment de beste performance per watt prestaties hebben.
Ik kan ook makkelijk een dag lang kantoortaken op mijn thinkpad uitvoeren zonder enige accu problemen. Zodra ik code ga compileren gaat het mis, maar als een M-chip voluit moet is je accuduur ook nihil.
Ik kan de hele dag developen op een M3, zelfs logge Java projecten trekt het ding er bijna 2x zo snel doorheen dan Windows laptops uit dezelfde prijsklasse.
Prestaties is natuurlijk maar net wat je besluit te meten.
Gewoon, prestaties. Renderen, compileren, extracten, etc. Prestaties =\= hoe lang kan hij kantoortaken uitvoeren. Dat valt onder battery life tests. Voor dat soort taken voldoet iedere laptop i5/i3/apple M chip van de afgelopen 6 jaar ook.
Feit is dat Macs op dit moment de beste performance per watt prestaties hebben.
Dat valt mee. Lunar Lake zit zo goed als op hetzelfde niveau als M3. De MBP14 met M3 zit binnen een paar minuten van een Lunar Lake XPS 13 bijvoorbeeld.
https://www.tomsguide.com...e-m3#section-battery-life
Ik kan de hele dag developen op een M3, zelfs logge Java projecten trekt het ding er bijna 2x zo snel doorheen dan Windows laptops uit dezelfde prijsklasse.
Dan is jouw dev werk minder intensief. Een M3 trekt 21 watt onder full load. Een macbook pro heeft een 70 Wh accu. Je krijgt dus ~3,5 uur aan full CPU load. Dat is in iedergeval voor mij ver van voldoende voor een dag intensief werk. In beide gevallen heb ik een oplader nodig als ik hem voor veldwerk nodig heb en in beide gevallen kan ik makkelijk een dag werken als ik kantoor taken doe en videos kijk. Functioneel identiek.

Verder is een MBP met M3 meer dan 2K. Je bent mesjogge als je denkt dat je voor dat geld geen snellere windows laptop kunt krijgen.
De 14900HX slaat de M3 Pro de hersens in in zwaar werk. Ja, hij verbruikt meer stroom, maar hij is wel sneller en aan zuinigheid heb ik weinig als ik de dag alsnog niet door kom.

[Reactie gewijzigd door youridv1 op 7 oktober 2024 12:42]

Gewoon, prestaties. Renderen, compileren, extracten, etc. Prestaties =\= hoe lang kan hij kantoortaken uitvoeren.
Lekker selectief.
Dat valt onder battery life tests. Voor dat soort taken voldoet iedere laptop i5/i3/apple M chip van de afgelopen 6 jaar ook.
Ook kantoortaken, videobellen etc wil je graag op een beetje vlotte manier kunnen uitvoeren, en daarbij helpt een efficiënte laptop aanzienlijk. Ik denk dat de meeste mensen geholpen zijn met dat soort 'vlotheid' in tegenstelling tot een benchmark die aangeeft dat een zip bestand 5 seconden sneller kan worden geopend...
Dat valt mee. Lunar Lake zit zo goed als op hetzelfde niveau als M3. De MBP14 met M3 zit binnen een paar minuten van een Lunar Lake XPS 13 bijvoorbeeld.
Dat artikel zegt letterlijk: "The results are clear: Lunar Lake is more energy-efficient than its Meteor Lake predecessors, but it still can't outlast the best laptops for battery life powered by Apple and Qualcomm silicon."
Bovendien is M3 nu al meer dan een jaar oud, M4 komt er aan en schijnt zeker 25% sneller te zijn.
Dan is jouw dev werk minder intensief. Een M3 trekt 21 watt onder full load.
Leuke rekensom weggehaald: dev werk bestaat ook nog uit het bedenken van code, lezen van documentatie, communiceren met collega's. Je bent niet iedere seconde aan het compileren. 4 uur pure compilertijd is geen relevante beperking tenzij je Linux distributies compileert of zo (en dan zit je waarschijnlijk niet 'in het veld'...)
Verder is een MBP met M3 meer dan 2K. Je bent mesjogge als je denkt dat je voor dat geld geen snellere windows laptop kunt krijgen.
De 14900HX slaat de M3 Pro de hersens in in zwaar werk. Ja, hij verbruikt meer stroom, maar hij is wel sneller en aan zuinigheid heb ik weinig als ik de dag alsnog niet door kom.
Allemaal niet relevant voor de performance per watt waar ik het over had. Daarnaast zit je wel met een baksteen omdat je laptop anders de warmte niet kwijt kan en de hele dag in het ventilatorlawaai.
Lekker selectief.
Zijn gewoon de standaard taken die worden gebenchmarkt. Op 3D tekenen en muziekproductie na zijn het ook zo'n beetje alle workstation taken.
Ook kantoortaken, videobellen etc wil je graag op een beetje vlotte manier kunnen uitvoeren, en daarbij helpt een efficiënte laptop aanzienlijk. Ik denk dat de meeste mensen geholpen zijn met dat soort 'vlotheid' in tegenstelling tot een benchmark die aangeeft dat een zip bestand 5 seconden sneller kan worden geopend...
Dat kan ook met iedere low power i5 van de afgelopen 7 processor generaties. Ik weet niet of je recent nog een laptop hebt gebruikt met een 8e of nieuwere generatie Intel U chip, maar die zijn nog razend snel voor kantoor werk. Daar heb je geen macbook pro van 2K voor nodig.
M4 komt er aan en schijnt zeker 25% sneller te zijn.
Is er dus nog niet. Dus die kun je ook niet vergelijken met componenten die wél verkrijgbaar zijn. Je hebt geen glazen bol.
4 uur pure compilertijd is geen relevante beperking tenzij je Linux distributies compileert of zo
Hoeft ook geen 4 uur pure compile tijd te zijn. Een debugger aan een embedded systeem hangen is voldoende om je accu leeg te trekken binnen een dag testen en ontwikkelen buiten de deur.
Allemaal niet relevant voor de performance per watt waar ik het over had.
Wel relevant als je daadwerkelijk iets aan het doen bent anders dan videobellen, mailen en documenten lezen/tikken. Wat, nogmaals, al jaren met iedere low power laptop kan.
Dat artikel zegt letterlijk:
"The results are clear: Lunar Lake is more energy-efficient than its Meteor Lake predecessors, but it still can't outlast the best laptops for battery life powered by Apple and Qualcomm silicon."
Je stopt te snel met lezen.
It's awfully close though, with the Lunar Lake laptops we've tested so far nipping at the heels of Apple's long-lasting 16-inch MacBook Pro. And as you can see, the AMD-powered laptops we've tested are now the least power-efficient of those being compared.
En als je dan daadwerkelijk de metingen even bekijkt, zie je dat de dell xps13 vrijwel dezelfde accuduur behaalt als bijvoorbeeld de mbp 14

Maar als het allemaal zo mega fantastisch is en Apple M zo veel beter en zuiniger en sneller is en het allemaal zo mooi is als jij belooft en normale laptops zo slecht, waarom heeft de macbook dan 15% market share? Je hebt al een Macbook met M2/3 voor 999 euro. Waarom geniet niet iedereen van die weergaloze performance per watt van apple?
https://www.statista.com/...-pc-shipment-share-apple/
Hint: Omdat de verschillen in de praktijk helemaal niet zo groot zijn en voor de meeste usecases een M-powered macbook niet de juiste computer is.

[Reactie gewijzigd door youridv1 op 7 oktober 2024 13:45]

Zoals andere al aangeven, dit is niet op papier maar in de praktijk.

Maar nog belangrijker, Intel geeft de mogelijkheid, indien je het nodig hebt heeft Intel voor jou de snelste single threaded CPU voor je. Dat dit voor 95% van de mensen die op zoek zijn naar een nieuwe CPU niet belangrijk is zal best, maar voor die 5% is dit toch geweldig om te hebben? Toen ik nog een jonge enthousiasteling was, keek ik hier naar uit. Dit was de CPU samen met een leuke grafische kaart.

Maar ook heden ten dagen als professional heb ik baat bij een snelle CPU met hetgeen wat ik doe (data bewerking). Het vertaald zich niet in 5-10% tijdwinst maar op jaarbasis is dit best wel interessant.
Ik zie dat deze cpu een passmark single core van meer dan 5000 heeft. Die qualcom doet 3800 single core. Ik weet wel wat ik zou willen.
Eerst maak eens kijken hoeveel stroom dat ding gebruikt zou ik zeggen. Als dat ding single core boost als een malle en 100 wat voor die ene core verstookt is het niet echt indrukwekkend.
Zeer onwaarschijnlijk. Single core vermogens liggen voor goed gekoelde cpus ergens tussen de 10 en 40 watt als ik een quickscan doe op cpus uit de laatste generaties van de concurrenten. Intel heeft de met 13e en 14e geen gewoon weer een pentiumpje 4 gedaan voor hen die die nog kennen. Deze core is herontworpen dus daar mogen we iets meer van verwachten. Een beetje zoals de banias/conroe core na de pentium 4 was.
Dit is wel heel kort door de bocht, denk je niet? Intel heeft nog steeds op laptop gebied 72% van de x86 Windows markt in handen. Dat is een forse daling tov van 5-6 jaar geleden (toen was het 92%), maar het is nog steeds meer dan 2/3 van de markt.

De transitie naar ARM zal denk ik op Windows lang niet zo snel gaan als bij Apple. Apple is van de ene op de andere generatie helemaal overgegaan van x86 naar ARM. Als app developer hoefde je dus vanaf dat moment eigenlijk niet meer een x86 versie van je apps te onderhouden/bouwen. Daarentegen is het marktaandeel van ARM op Windows momenteel klein (11%), wat app developers toch minder aanzet om ook een ARM versie van hun x86 app te maken (want kost geld om te onderhouden/bouwen).

Daarnaast heeft Intel met Lunar Lake laten zien dat x86 ook extreem zuinig kan zijn. Ja, je geeft daarvoor multi-core prestaties op, maar je krijgt er compatibiliteit met alle programma's voor terug. Dat is voor veel mensen een serieuze afweging om toch x86 te gaan.
Qualcomm heeft Intel al benaderd voor een overname. Dus ja, het kan hard gaan. Waarom zou een partij als Microsoft, die sinds jaar en dag op x86 draait, ineens Qualcomm cpu’s in hun eigen Windows tablets zetten, terwijl ze zelf weten dat de ondersteuning op dit moment matig is. Mijns inziens omdat ze zien dat ARM de toekomst is.
Omdat Windows niet al "sinds jaar en dag op x86 draait"? Windows heeft op zijn hoogdagen op 8 verschillende architecturen gedraaid. De tijd dat alleen x86 ondersteund werd is relatief kort. Het feit dat alleen x86 ondersteund werd is ook puur en alleen marktwerking en niet iets waar Microsoft expliciet voor gekozen heeft. Heck, de eerste kans die ze kregen - in 2011 - begonnen ze weer te werken aan ondersteuning voor andere architecturen (namelijk ARM). Om nog maar te zwijgen over het feit dat Microsoft natuurlijk ook zelfs SoCs maakt voor servers (die ook Windows draaien).
Microsoft probeert Windows al sinds de Windows RT dagen (2012) op ARM te laten draaien. AL 12 JAAR DUS. En dat zonder ook maar enige mate van succes. Alles faalt steeds, want óf slechte performance, óf slechte app compatibiliteit, óf beide. Nu komt er één generatie goeie Qualcomm processoren om de hoek kijken en meteen is 'het de dood van Intel?'

Een overname zegt overigens weinig. Intel heeft het bod van Qualcomm al afgewezen. Ze hebben een fantastisch product in Lunar Lake. Xeon 6 ziet eruit als een goed product. Er komen veelbelovende GPUs aan in 2025 (als we kijken naar de iGPUs van LNL). Arrow Lake wordt nog even afwachten. In ieder geval genoeg goeie technologie in het portfolio om nog niet zoveel zorgen te maken over een architecture met momenteel maar 11% marktaandeel.
En een paar maanden nadat hij uit is gaat er 20% vanaf door allerlei microcode patches vanwege problemen..
Installeer microcode 0x129 eens, kennerlijk ben je nog niet op de hoogte.
Dit gaat over een CPU die nog niet uit is, het is de laatste tijd vaker voorgekomen dat Intel met een nieuwe CPU de prestatiekroon pakt, maar een tijd later toch weer een deel moet inleveren.
Kom met voorbeelden ipv zomaar iets roepen want daar heeft niemand iets aan.
Spectre/Meltdown had je ook nog. Ondertussen alweer 6 jaar geleden. 13900K is 2 jaar oud welke ook problemen gaf. Ik doe graag 5 tot 7 jaar met mijn CPU, dus dat is voor mij wat te vaak problemen.

Intel komt nu met een nieuwe procedé EN 10% meer performance. Dat lijkt me een recept voor early adapter issues. Ik zou minstens een maand of 3 wachten, maar de veilige optie is AMD.
Dat zijn oude processors.
We hebben het hier echter over de recentere processors.

[Reactie gewijzigd door mr_evil08 op 7 oktober 2024 15:59]

review: Hoeveel trager worden Intel-processors door de nieuwe 'Default Settin...

"Intels nieuwe 'Default Settings' voor de processors uit de dertiende en veertiende Core-generaties raken je vooral als je een van de topmodellen hebt. De Core i9 14900K laat in onze tests de grootste prestatieverliezen zien, van in het slechtste geval 8 à 9 procent."

[Reactie gewijzigd door Navi op 7 oktober 2024 12:51]

Je verwijst naar een oud artikel waarbij het gaat om micropatch 0x125 ipv 0x129.
Intel heeft dat toen gedaan om veiligheidsoverwegingen dat processor,s niet verder beschadigen, pas bij 0x129 was er een oplossing voor de voltage spike en is de restrictie er weer afgehaald.

[Reactie gewijzigd door mr_evil08 op 7 oktober 2024 13:25]

Wat dat betreft lijk ik op het juiste moment te zijn ingestapt op het Z790 platform met de 13900K, zelf geen stabiliteitsissues o.i.d. al bijna 2 jaar niet, maar hyperthreading en een moederbord waar je tenminste nog fatsoenlijk een 5.1 audio set op kan aansluiten, een multi-threaded performance downgrade dan wel minder threads voelde toch niet helemaal lekker toen ik de vroege geruchten las. Volgens mij moet de serie daarna wel weer vergelijkbaar of meer aantal threads moeten leveren maar dan wel op e-cores vlak.

De extra performance die hyperthreading levert is in multi-workloads wel fijn, gebruik het systeem dan ook voor van alles dus jammer dat dit er vanaf lijkt te gaan, weet niet of de series daarna het wel krijgen.
Hoezo juiste moment, heb zelf een 12600K, prachtig ding, maar als je zou willen kan je nu alsnog instappen in een Z790 met 13 of 14th gen toch? Voor minder zelfs. Ik ga wel even uitzoeken welke processen die ik gebruik allemaal baat hebben bij hyperthreading, VRay sowieso, Premiere e.d. weet ik niet.

Wel is deze een stuk zuiniger en waarschijnlijk minder heet dan z'n vergelijkbare voorganger.
Ik had hiervoor een 3930K maar die begon vrij traag te worden onder Windows 10 en trok een spel als Halo Infinite niet meer, het meeste wat het nog fatsoenlijk kon was BF:V met 100+ fps maar dan zat je rondom ~90% CPU.

En bij de 13900K zit een Z790 Extreme moederbord die vrijwel per direct na launch was uitverkocht en niet meer terug kwam, rijke featureset die je nu toch wel steeds minder gaat zien denk ik, heb er dus al wel bijna 2 jaar plezier van i.c.m. 128GB DDR5.
Dat is wel lekker, ik heb nog 32GB DDR4 en wil ook minimaal naar 64GB DDR5, nieuwe koeler, 2x nieuwe NVMe, dus dan mobo en cpu ook maar. Wordt denk ik de 265K, in afwachting op de reviews.
Werk jij dan nog op CPU met Vray? Hier Corona dus sowieso op CPU. Gedacht met mijn nieuwe pc over te stappen op de nieuwe generatie maar nee. Dan toch nog een 14900K vermoedelijk. (Geen AMD liefhebber hier)
Ja, maar niet bijster veel meer, AI neemt de boel steeds meer over.

Denk dus ook dat ik hyperthreading niet echt ga missen.

[Reactie gewijzigd door JDx op 7 oktober 2024 09:10]

als de geruchten over de 9800X3D kloppen word dit een nek aan nek race voor single core performance in sommige games

en zal het zoals vaker van de game afhangen wie wint en of je betere 1% lows wilt

[Reactie gewijzigd door atthias op 7 oktober 2024 11:40]

De 7800X3D is al te koop (uitvoering: AMD Ryzen 7 7800X3D Boxed), ik gok dat je de 9800X3D bedoelt.
inderdaad wat dom dank u

Op dit item kan niet meer gereageerd worden.