Gerucht: Intel Arrow Lake krijgt tot 15 procent hogere multithreaded prestaties

Er is een uitgelekte Intel-slide opgedoken op het forum van AnandTech. Daarin staan enkele nieuwe details over Arrow Lake, waaronder de prestatiedoelen. Arrow Lake wordt de vijftiende generatie Core-processors en staat op de planning voor volgend jaar.

De uitgelekte slide werd in september al gedeeld op het AnandTech-forum door gebruiker uzzi38, maar werd nu pas opgemerkt door onder meer VideoCardz. De slide is grotendeels gecensureerd door de gebruiker zelf, maar bevat wel de prestatiedoelen die Intel hoopt te bereiken met zijn Arrow Lake-S-processors voor desktops.

Volgens de slide moeten de singlethreaded prestaties van Arrow Lake-S vijf procent hoger zijn dan voorheen. Bij multithreaded workloads moeten de cpu's tot vijftien procent sneller zijn. Vermoedelijk zijn die prestatiestijgingen in vergelijking met de Raptor Lake-refresh, die volgens geruchten binnenkort uitkomt. Intel zou die verbeteringen behalen met nieuwe P- en E-cores.

Arrow Lake verschijnt naar verwachting in de tweede helft van volgend jaar. Het wordt de opvolger van Meteor Lake en de Raptor Lake-refresh. Arrow Lake wordt naar verwachting deels geproduceerd op Intels komende 20A-procedé, dat gebruikmaakt van gaa-transistors. Volgens de slide van uzzi38 krijgt de cpu ook een tweede generatie Arc-gpu geïntegreerd.

Intel Arrow Lake-S-slide via uzzi38

Door Daan van Monsjou

Nieuwsredacteur

13-10-2023 • 19:09

38

Lees meer

Reacties (38)

Sorteer op:

Weergave:

Nadeel van die synthetische scores vind ik altijd dat het dan op papier veel lijkt maar in de praktijk dit vaak dan tegen valt. Liet mij jaren ook altijd mee slepen door de synthetische scores en elk jaar dan het hele systeem vernieuwde. Maar in de praktijk viel het dan elke keer toch weer tegen met de gewone normale dagelijkse taken op de pc. Als je dan je pc hoofdzakelijk voor office taken gebruikt dan kan je je gaan afvragen of verniewen wel zin heeft zoals in mijn situatie.

Ik denk dat het veel zinvoller is om een aantal generaties links te laten liggen zeker al met de snelheid waarmee het nu gaat.
Ja wat office werk en die scores betreft.
Kijk je naar singlethread Passmark scores van de desktop i5 non-K serie (om maar iets normaals te nemen), dan stegen die met gemiddeld 9%/jaar (sinds de eerste generatie 13 jaar terug?).
Kijk je naar multithread, dan stegen die de laatste tijd met 31%/jaar (sinds Intel dat "moest" vanwege Ryzen concurrentie), dus veel meer!
Maar ik krijg het al nauwelijks voor mekaar om 4 cores aan het werk te zetten, wtf moet ik dan met 10 extra cores?
Ja het is leuk voor als je af en toe wat moet compilen/comprimeren/transcoden oid. Maar dat doe ik zelden, en als dat langer duurt ga ik ondertussen gewoon wat anders doen, dus dat was toch al geen verloren tijd.
Behalve dat is voor mij vooral die singlethread relevant, en ja daarbij is de vooruitgang dus niet zo spectaculair.
Als je daarnaast ook de efficientie meeneemt is de vooruitgang nog minder (bijv als je zou kijken naar singlethread prestaties bij gelijk verbruik).
Ja, de Ecores zijn efficienter, maar die gebruik je niet als het je te doen is om snellere singlethread.
Maar ik krijg het al nauwelijks voor mekaar om 4 cores aan het werk te zetten, wtf moet ik dan met 10 extra cores?
Ik gebruik zelf dan wel een 10 core cpu ( i5 12600 K ) omdat ik voor 2 jaar terug nog best veel aan video-editing deed. Dat scheelde dan toch wel tamelijk wat tijd maar inmiddels is video-editing op een laag pitje te komen staan. Daarom dat ik nu ook zoiets heb van tja, voor puur officewerk en wat surfen, inderdaad dan krijg je met moeite 4 cores aan het werk.

Maar dat is hetzelfde ook met snelle M.2 ssd's waaraan je heel snel gewend raakt en eigenlijk alleen een gigantische snelheidswinst merkbaar was bij de stap van harddisk naar ssd. Daarna, tja, van de ssd naar een M.2 ssd had ik eigenlijk al zoiets van hmm, veel verschil is er niet.
Je zou wat processen kunnen associëren met bepaalde cores.
Dat Word altijd de snelste heeft ofzo. In zijn eentje.
Maar misschien is je OS daar al goed in dat dit nvt is.
Maar misschien is je OS daar al goed in dat dit nvt is.
Eerlijk gezegd geen idee hoe Windows 11 daarmee om gaat maar ik denk wel dat Windows gewoon de 1ste Core toewijst. Kan er voor de aardigheid wel eens op letten maar er zijn al vast Tweakers die daar meer van weten.
Thread scheduling is in de jaren echt een stuk beter geworden op zowel windows als unix based systems. De meeste software pakketten krijgen niet eens meer te zien waar ze op draaien want onderliggende firmware regelt dat gewoon. Zo worden applicaties op macos op een quadcore met HT gewoon zo verdeeld dat ze de 4 fysieke kernen voor 25% gebruiken.

Zelfs “single threaded” taken zijn uit te splitsen op die manier.

Daarnaast heb je ook gewoon nog honderden andere threads draaien.

Kijk naar een chrome. Iedere tab krijgt zijn eigen threadpool. Javascript is juist singlethreaded, maar daar kun je nog steeds een hoop asynchroon mee doen door bepaalde listeners op een andere thread te zetten. Wordt in ieder modern OS dan ook gedaan.

Ik zie tegenwoordig bijna nooit meer een enkele core op 100% draaien.
De meeste software pakketten krijgen niet eens meer te zien waar ze op draaien want onderliggende firmware regelt dat gewoon
Waar ik meer op doelde was of je dan binnen Windows ook zelf cores kan toewijzen aan bepaalde programma's. Maar ik dacht ook al dat dit vaak dan automatisch gaat via firmware of het OS en mij niet bekend is dat je dit ook handmatig zou kunnen instellen. Weet ook niet echt of dat handig zou zijn om dat dan allemaal te gaan uitzoeken, althans ik zou mij er de tijd niet voor nemen.
Kijk naar een chrome. Iedere tab krijgt zijn eigen threadpool.
Ik weet niet of je dan Google Chrome bedoeld of dan onderliggend chromium waarbij ik dan er vanuit ga dat hetzelfde ook gebeurd bij Edge.

Verder let ik eigenlijk zelden erop hoeveel cores er gebruikt worden en alleen dan wel eens als ik video ga renderen. Dan kijk ik meestal wel even of de videokaart renderd of dat die toch dan via de cpu renderd maar dat is dan meer een simpele check.
Met alle respect, maar dat is 99% van de tijd echt gerommel in de marge en maakt t er vaak niets beter op. Je OS is erg goed in processen in en uit schedulen, vooral dingen als Word draaien ook als een zonnetje als er nog wat windows processen op draaien. Pas als je zware use cases tegenkomt als gaming kunnen andere processen wat in de weg gaan zitten, maar dat is eigenlijk ook voornamelijk omdat de schedulers nog niet zo goed geoptimaliseerd waren voor P en E of dat game engines uberhaupt nog niet gebouwd waren met de echt hogere core counts in het achterhoofd een tijd geleden. Zo draaide in sommige spellen je AMD cpu beter als je in de bios 8 van je 16 cores uitzette een aantal jaar terug.

Maar de meeste problemen worden met updates verholpen en om in de scheduler te knoeien is meestal tevergeefs.
Meer cores is leuk zolang de applicaties het ondersteunen. Zeker in de begintijden van quad core etc had je genoeg software die puur single core werkte, dan kan je wel meer cores in je systeem zetten maar dat deed niets
Meer cores is leuk zolang de applicaties het ondersteunen.
Klopt en tja als je daar eens op gaat letten dan staan veel cores de meeste tijd niets te doen als je alleen wat office dingen doet op de pc. Enigste wanneer alle cores aan het werk gaan is eigenlijk vooral bij, in mijn geval dan, renderen van video's. Maar voor die keren dat ik video bewerk vind ik het zelf niet de investering waard om te gaan upgraden vanaf een Intel Core i5 12600 K.
Voor standaard pc gebruiker is een koderne tripple of quad ook meer dan genoeg, zeker als de core beetje 2.5 plus geclocked is.
Dat je niet veel opschiet met de allernieuwste high-end CPU met office taken is vrij algemeen bekend. Zeker als je dan van de vorige high-end generatie komt.
Synthetische benchemarks zijn meer voor de gamers onder ons zodat ze niet zolang hoeven te wachten voordat dat x dat bestand geladen heeft in het spel.Voor huis tuin en keuken gebruik hoef je daar idd niet zo op te letten ook voor office natuurlijk niet.Bovendien hebben de mensen toch een pc die meer dan 4 cores heeft of zij moeten al een vrij antieke computer hebben.Het licht er natuurlijk ook aan waar je je pc voor gaat gebruiken als je een nieuwe koopt.Als je hem ook koopt voor een film om te zetten in 4k of full hd zou ik ook een snellere core processor van amd of intel kopen.Voor gaming ook maar voor de rest zou ik gewoon een mindere processor kopen.Het hoeft voor mij niet allemaal high-end te zijn omdat ik alleen maar mijn computer gebruikt voor huis tuin en keuken gebruik. ik game zelf niet, zit geen zware applicaties te draaien.
Waar ik hem wel voor gebruik is internet net zoals op deze website dat ik even ga kijken wat voor een nieuws er is.En voor de rest gebruik ik mijn computer bijna niet meer.Vroeger toen ik jonger was gebruikte ik mijn pc wel vaker voor gaming, ik ben daar een beetje uitgegroeit en ik speel alleen maar ut99 en voor de rest game ik niet meer.hoogstens een reactie op deze site zetten.
ik wil aleen maar zeggen ik hoef niet de laatste nieuwere processor te hebben voor de computer waar ik het voor gebruikt.

[Reactie gewijzigd door rjmno1 op 22 juli 2024 16:27]

De trend van licht user gebruik is dat ipv standaard 250watt desktop of heden krachtigers in de 400wat. Kan je nu uit met Nuc. Of mac mini.
De vooruitgang maakt dat je volgende pc stuk zuiniger kan zijn en kleiner.
Maar ook vele jaren zal voldoen. Ik zit nog op Zen1 en x86 mac mini.
Sowieso zinvol om elke keer een paar generaties over te slaan. Wie gaat nu elk jaar upgraden??
Dat is ook het probleem ze komen elk jaar met iets nieuws als het niet van intel is dan is het wel van amd.
Voorheen deed ik dat wel hoor en puur en alleen om dan het nieuwste van het nieuwste te hebben. Mede ook wel dan laten meeslepen door vaak de hele hype er omheen, reviewers/influencers etc...Maar gelukkig ben ik daar vanaf gestapt en bekijk het nu veel meer puur praktisch.
Het was niet alleen hype hoor, het verschil was ook gewoon groter. Begin 2000 kon je in een paar jaar van een enkele 1.6 ghz core naar twee 2.2 GHz cores gaan ofzo. Dat merkte je in enorm veel taken. Nu, van 6x 4.4 naar 8x 4.8 GHz, nee, dat merk je niet…
Begin 2000 kon je in een paar jaar van een enkele 1.6 ghz core naar twee 2.2 GHz cores gaan ofzo.
In die tijd had je dan wel ook een flink prijsverschil maar ik doel eigenlijk meer op zo vanaf ongeveer 2017 dat ik vaak elk jaar alles vernieuwde.
Nogal logisch dat je niet elk jaar een nieuwe PC koopt als je alleen wat "dagelijkse taken" uitvoert.
Uiteindelijk zit er meer in je PC dan een processor. Zelfs met gebruik van een SSD kan IO bijvoorbeeld nog steeds een beperkende factor zijn. Zeker bij het opstarten kan het nog wel even tijd kosten alles te laden.
Dit is al zo’n 10 jaar het geval qua cpu, je kan makkelijk wat generaties overslaan want het zijn steeds kleine verbetering van 10-20%
Meer multitasking performance!
Nu hopen dat ook de single thread en goede boost krijgt!
(Autodesk gebruiker hier)
singele thread was 5% las ik elders

waar ik nogal van baal gezien ik zelf ook hongerig ben voor meer single core power
Dat zal waarschijnlijk een stuk lastiger zijn om te realiseren. Bij single-core performance loop je (lijkt mij) sneller tegen natuurkundige limitaties aan, zoals de lichtsnelheid. Verbeterde multi-threading lijkt mij makkelijker te realiseren middels betere caching, scheduling en gewoon meer cores.
Denk dat je meer winst kunt halen uit code optimalisatie maar dan hebben we een nieuwe generatie oude coders nodig ipv een luie generatie ai coders.
Je hebt geen AI nodig om de code langzamer te laten lopen. Met de al jaren gaande trend in de programmeerwereld van focus op bitjes naar libraries, wordt er steeds makkelijker omgesprongen met meer bits in ruil voor functionaliteit. Managers zien performance pas wanneer het er niet is, maar dat lost een snellere processor wel op.
Er wordt wel aan gewerkt gelukkig.
Zo heeft de nieuwe Python versie wat zaken die het sneller maken. Vooral loops iirc (Moet er nog induiken)
Op bepaalde punten komt het toch aan op de programmeurs zelf. Ik ben zelf veel bezig met cryptografie en zie de laatste tijd dat programmeurs niets meer streamen. Dus als ze een file willen encrypten laden ze het gewoon in geheugen, versleutelen ze het naar geheugen en schrijven ze het dan weer terug. Zelfs API's die ontwikkeld worden gaan gewoon uit van alles in een keer. Dat gebeurd zelfs als ze de streaming API van Microsoft gebruiken; klaarblijkelijk gaat er zelfs dan geen lichtje branden en blijven ze bij MemoryStream.

En ik zie dit soort zaken ook bij het laden en schrijven van XML, JSON etc. etc. Als je dat dan combineert met die heerlijke micro-services waarbij alles continue gestreamd moet worden....

Een taal beter laten presteren is leuk, maar vaak komt het aan op dit soort beslissingen op de architectuur en implementatie.
Vaak helpt het om de langzame stappen om te zetten naar c++ of Julia als je al niet al iets als numpy gebruikt.
AI kan daar bij helpen om developers met minder ervaring of talen kennis de trage stukken code om te laten zetten. Eind controle moet je toch zelf doen, maar de drempel wordt een stuk lager
Lichtsnelheid? Hoe is dat een natuurkundige limitatie waar CPU ontwerpen tegen aan lopen? Licht is vele malen sneller dan elektra.

Ze lopen constant tegen natuurkundige problemen aan, daarom is het zo onder andere zo moeilijk zo een chip te ontwikkelen.
Lichtsnelheid is letterlijk het laatste wat een bottleneck is.
klopt maar als je gebonden bent aan processen die op elkaar moeten wachten/reageren en dus niet of weinig heb aan muilticore is het erg vervelend als dat begrijpelijkerwijs (om de reden die jij noemt) langzaam gaat
Enige wat je kan doen is rond kijken naar alternatieve of concurrerende applicatie die wel goed of iig beter multithreaded schaalt.
Goede MT software engineering begint al bij software architectuur en algoritme keuzen en ook program paradigm en programmeer talen, die beter rekening houden met multithreading. Naast dat je inhous ook top multithreaded programmer moet hebben.
Dat kan je wel verwachten in branches zoals server taken en HPC. Ook wel pro software. Maar er zijn task die gewoon slecht parallelliseerbaar zijn. Moeilijk in te schatten tot concurrent voorbeeld laat zien hoe het wel moet.
En een 30% hoger energieverbruik vast. Ik blijf me verbazen over het (idle) verbruik van moderne Intel processoren: ze lijken door de tijd meer, in plaats van minder warmte te gaan produceren als ze niet gebruikt worden. Mijn nieuwste laptop blaast bijna reveille met z’n fan terwijl hij idle is.
Extra performance door de toelaatbare energie 50% omhoog te schroeven.
Mooi voor de winter
Ik begrijp deze launch ook totaal niet.

De 14600k en 14900k zijn exact gelijk aan hun voorgangers behalve een kleine overclock maar ook meer verbruik.

Mijn 13600kf draait vanaf de eerste minuut met een kleine undervolt en +100mhz, verder geen tijd in gestoken want is snel zat en heet genoeg. Met een nog dikkere koeler dan mijn mugen 5 zal 5,5ghz a 5,6ghz geen probleem zijn (met veel hoger verbruik en temp). Richting 6ghz haalbaar met exotische koeling.

De 14 serie lijkt precies hetzelfde te doen. 200mhz overclock met meer verbruik. Zinloos product. Meer cache was een veel betere keus geweest, of een 8 core uitbrengen zonder e cores met meer cache en hogere clocks.

Op dit item kan niet meer gereageerd worden.