Gerucht: Intel Arrow Lake-desktopprocessors komen pas in december uit

De nieuwe Arrow Lake-S-processors van Intel komen mogelijk pas in december dit jaar op de markt. Dat stelt hardwareleaker @9550pro op X. Eerder werd nog gesproken over een release in oktober 2024.

De leaker maakt niet bekend wat de bron is van het gerucht of waarom de processors vertraagd zouden zijn. Volgens Tom's Hardware suggereert een eerdere claim over de release van de processors echter dat de informatie klopt. X-gebruiker Jaykihn zei eerder dat de zogenaamde quality samples van de Arrow Lake-S pas in week 40, dus rond eind september of begin oktober, klaar zijn. Daarna zou het nog drie tot vier maanden duren voordat de daadwerkelijke cpu's worden verkocht.

Eind juni was de verwachting dat Arrow Lake-S zou worden onthuld tijdens het Intel Innovation 2024-evenement, dat op 24 september plaatsvindt. Benchlife meldde destijds dat de eerste cpu's uit deze productlijn in oktober beschikbaar zouden zijn. Verschillende bronnen zeiden tegen Tweakers tijdens de Computex-beurs dat ze in de eerste helft van de maand zouden uitkomen. Die tijdlijn lijkt nu dus te zijn opgeschoven. Intel zelf maakte in mei al bekend dat de nieuwe Arrow Lake-cpu's in het vierde kwartaal van dit jaar zullen verschijnen.

Tijdens de Computex-beurs zeiden bronnen tegen Tweakers dat Intel zou starten met de overklokbare K-sku's en de bijbehorende Z890-moederborden. De lager gesegmenteerde processors en moederborden met een B860- en H810-chipset worden pas begin volgend jaar verwacht. Of die planning hetzelfde blijft, is onbekend.

Door Eveline Meijer

Nieuwsredacteur

12-07-2024 • 14:22

32

Lees meer

Reacties (32)

Sorteer op:

Weergave:

Ik snap het wel, zeker na alle ellende met de laatste twee generaties.
YouTube: Intel has a Pretty Big Problem

Analyse van Level1Techs. Hij heeft inzicht gekregen in de crash reports van gamedevs en ook van een dedicated gameserver host. Tot 50% van de intel CPUs crasht 1x per week in een server omgeving.

De kosten voor betaalde zakelijke garantie van een server leverancier spreekt dan ook voor zich:

3 years parts and labor 24/5 next businessday on site repair:
  • amd 7950x - $139,-
  • intel 14900k - $1280,-
i7 als server cpu gebruiken? Vreemd. Is totaal geen server platform....
Dat is helemaal niet vreemd. Het is maar wat je nodig hebt.

Wat vreemd is dat dit geen groot nieuws is op tweakers, zeker als de CPU gewoon stuk is na initiële crashes en dat 4200Mhz max geheugensnelheid nodig is om stabiel te blijven. Ook hebben microcode en BIOS updates niet geholpen, wat aan een hardware fout doet denken. Dus minimaal 50% van de CPU's is stuk gegaan.
Het is geen gerucht want onderbouwd met "harde" data en in die 8 maanden heeft intel nog niets laten horen, wat betreft erkennen van een grootschalig probleem en/of ruime garantievoorwaarde, cq een inruilprogramma.

Ik vind dat tweakers alle test met 13* & 14* CPU's opnieuw moeten doen met geheugen op 4200Mhz, of er in ieder geval een disclaimer bij moet plaatsen.
Als iemand iets als server verkoopt verwacht ik minimaal server features zoals ECC, multi-cpu, meer pcie lanes, etc.... i7 is leuk voor thuisservertje met Plex of zo maar bedrijven willen toch ECC enzo.
Denk voor Cloud gaming en of game servers.
Opvolger daarop van Level1Techs samen met Games Nexus:
YouTube: Intel's CPUs Are Failing, ft. Wendell of Level1 Techs

Jammer! Ik had mij erg verheugd op en uitgekeken naar de Intel Arrow Lake S dekstop processors, maar na het zien van deze waarschuwingen over de stabiliteit weet ik niet meer. Volgens de video crasht maarliefst de helft van alle niet-overgeklokte 13e en 14e generatie Intel CPUs regelmatig op server moederborden. 8)7

Levert Intel CPU's af die inherent fout gebakken zijn?
Waarom hebben 12e generatie niet dat probleem?
En die andere 50% foutloze betrouwbare 12e en 13e generatie chips dan, waar komen die vandaan?

Wat mag je als consument doen als na de afkoelingsperiode hier achterkomt?
Is stabiliteit iets wat ten alle tijde verwacht mag worden en gegarandeerd moét worden door de maker?
Of mogen processors eens per zoveel uren (hoeveel?) in de aan-stand in fabrieksinstellingen, gewoon crashen, ook als dat Niet aan ander hardware/software ligt en goede processors daar Niet op crashen?

Bizzar! Paradigm shift voor Intel als het waar is, voor diegene onder ons voor wie stabiliteit belangrijk is.
Al helemaal in niet-overgeklokte staat.
Vreemd, ik had gereageerd op dit artikel en opeens is het een nieuw artikel.

Wat mij niet duidelijk is, is of bijvoorbeeld een Core Ultra 5 245K met 14 cores en dus 14 threads nog wel veel sneller is met bijvoorbeeld 3D Studio en VRay, dan zeg een 13600K met 14 cores en 20 threads.

Dit was de post.
Het probleem wat Intel nu creëert is dat je niet meer kan zien hoeveel P-cores en hoeveel E-cores er in een cpu zitten. Dat kon je voorheen zien aan de combinatie cores en threads.

14 cores en 20 threads:20-14=6 P-cores en dan 14-6=8 E-cores.

Nu is het 14 cores, die van alles kunnen zijn. Ergens zullen er wel clusters van 4 E-cores in zitten, (volgens mij niet meer die 2 extra low power van Meteor Lake), dus 4 E en 10 P, 8 E en 6 P of 12 E en 2 P. Daarvan is de 8E de meest logische en de juiste.

Bovendien is één enkele P-core van een 245K misschien in single threading sneller dan een P-core van een 13600K, maar in multithreading waarschijnlijk niet.

Intel gaat eigenlijk de kant op: enkele snelle P-cores en veel E-cores om flink aan multithreading te doen.

Maar er zijn 2 maren:
1) Het aantal tijdkritieke processen moet kleiner zijn dan het aantal P-cores (dit fenomeen speelt ook bij de huidige generaties natuurlijk)
2) er moet een aantal E-cores bijkomen om het werk dat door de hyperthreading gedaan werd te compenseren òf de nieuwe P-cores moeten totaal hetzelfde werk verzetten als een oude P-core (wat erg onwaarschijnlijk is).
De nieuwe scheduler iig Lunar lake is Ecores first als die vol zijn dan P cores.
Mij lijkt het dat dan snappiness van systeem achteruitgaat. Ook als Pcore down powered zijn. Geen idee of Arrow lake deze scheduling doorzet. Gezien Desktop target of high-end laptops.
De 12600k "still going strong" hier :) en moet nog niet direct vervangen worden.

Ik denk ook dat we van deze generatie niet "te veel" moeten verwachten.

Wel laat alles uitschijnen dat de efficienty een behoorlijke sprong zal maken.

Iets in de trend van performence per watt +30-40% , ben benieuwd wat het uiteindelijk gaat worden.
Sinds er veel apps en games multi-core/multi-thread ondersteunen (meer dan 2 of 4, gewoon bijna alle cores/threads) zie je ook dat Processoren zo'n enorme voorsprong hebben op applicatie en game 'demands' dat zelfs processoren van generaties terug zelfs nog enorm goed zijn en lang niet uitgeteld.

Zelf heb ik de i7-12700H (laptop) processor. Als ik dan zie wat het deze CPU doet in games dan is dat bar weinig. Terwijl de GPU zit te zweten als een malle (RTX3070Ti).
Ik dacht toch echt dat intel stopte met Multithreading in Arrowlake
Geen hyperthreading meer, dus alleen nog fysieke cores.
Het laatste gangbare desktop-OS dat draaide zonder multi-threading is windows 3.11, dus ik hoop het niet. :P
Hmm, maar de doeleinden waar de gemiddelde persoon zijn pc voor gebruikt is niet veranderd. Beetje surfen, beetje filmpje kijken. Al die extra hardware zorgt er ook voor dat ontwikkelaars lui zijn geworden op het vlak van resourcebesparing.
Spreek voor je zelf.
En toch klopt het. Veruit de meeste mensen gebruiken minder dan 10% van de capaciteit van hun computer.

Zo ongeveer het enige dat veel vraagt van consumenten pc's is spelletjes spelen.
"Spreek voor jezelf"

Snap ik niet. Bedoel je dat ik de gemiddelde gebruiker ben en alleen surf? Voel je je aangesproken en beschouw je jezelf als de gemiddelde gebruiker en doe je meer dan surfer?
Je comment verrast me. Ondanks dat de laatste jaren een hoop games een stuk beter gebruik maken van alle cores, zie je als je goed gaat analyseren dat de meeste games alsnog voornamelijk op 1 of een paar cores leunen en daarmee de maximale performance van de CPU of zelfs van de game op zich (indien je CPU bound bent door type spel/engine/instellingen). Meestal is het in de praktijk dan ook zo dat de snelheid van 1 a 2 cores de snelheid van CPU in de game bepalen. De overige cores doen ook wel wat,

Bij welke games zie je dit terug? En hoe bekijk je het CPU verbruik? Gebruik je de taakmanager en bekijk je dan de 'Overall utilization' of de 'Logical processors'? Of gebruik je zoiets als Afterburner?

Misschien zit ik er helemaal naast en beschik je over veel meer kennis hierover dan dat ik nu lijk te insinueren, maar als jij naar 'Overal utilization' kijkt snap ik waarom je het zegt (en dan durf ik ook te zeggen dat je ernaast zit). Wat er dan namelijk gebeurt is dat, omdat je zoveel cores hebt, en het merendeel van de cores grotendeels staat te niksen (omdat veel games in beginsel vanwege het realtime aspect zo slecht programmeerbaar zijn voor meerdere threads en dus multi-core/multit-hreading), dat de overal CPU utilization heel laag is, terwijl alsnog 1 of een paar cores de daadwerkelijke performance bepalen omdat deze volledig worden gebruikt en op maximale snelheid draaien, en daarmee de bottleneck vormen in het hele systeem.

Ook als je naar Logical processors kijkt, het feit dat het erop lijkt dat in de meeste grafiekjes je nog veel CPU capaciteit over hebt, is misleidend. Het gegeven dat veel games vanwege het basisprincipe relatief zwaar op singlethread performance leunen (turn based strategy games bijv. daargelaten), betekent in de praktijk dat single thread performance van CPU's nog steeds enorm belangrijk is, en daar is de ontwikkeling helaas een aantal jaren erg matig geweest (grofweg tussen Intel Core 6th en 11th generation).

Deze afbeelding geeft in extreme mate weer wat ik bedoel:
https://qph.cf2.quoracdn....3e5c197d50cc8e2e6a1bd6f98
De overal utilization van 10% valt heel laag te noemen. Maar op specifiek het moment van het maken van de screenshot (of eigenlijk vlak daarvoor) is er maar 1 core die echt zwaar belast werd en hij werd ook maximaal belast. M.a.w. 1 core is de bottleneck, waardoor je ook kan zeggen dat CPU op dat moment de bottleneck was. In de afbeelding is specifiek de 20e thread en dus 10e core die maximaal belast wordt en dus waarschijnlijk een bottleneck vormt.

Ik zie dit soort CPU gedrag bij een heleboel games nog steeds terug, al worden tegenwoordig 2e t/m 8e threads een stuk zwaarder belast, wat inderdaad een goede ontwikkeling is. Games als Far Cry 6 (OK, in basis een verouderde engine, een doorontwikkeling van de eerste Far Cry games, met Far Cry 7 starten ze met een andere engine) en Serious Sam 4 zijn daar voorbeelden van.

Met mijn 5800X3D, niet een laatste gen CPU maar nog steeds een CPU die specifiek wat betreft gaming tot de snelsten behoort, ervaar ik dit probleem nog steeds in sommige games. En de switch van een 5950X naar een 5800X3D, waardoor ik 2x zo weinig cores had, merk ik wel degelijk in games, bijv. in de Far Cry games, om een stabiele 120 FPS te halen. Als je in dat soort games heel veel grafische pracht uit zet en de resolutie omlaag haalt, is het goed merkbaar dat je vaak nog steeds flink CPU bound bent. Als je echt GPU bound zou zijn, dan zou de minimum 1% en 0.1% fps flink omhoog moeten gaan, maar dat gebeurt niet. Dat komt door de CPU.

Samengevat
- overall low cpu utilization betekent niet dat de CPU (of enkele core(s) daarvan) geen bottleneck kunnen zijn
- het gegeven dat veel games tegenwoordig een grotere hoeveelheid cores benutten betekent niet dat je daarmee niet meer geen CPU bottleneck kan hebben. Op die momenten dat 1 core/thread 100% benut wordt is de kans groot dat je CPU bound bent. Waarschijnlijk wordt op die moment de GPU niet 100% belast. Ook als er nog 8 andere threads voor 60 a 80% worden belast (wat mijns inziens goed gebruik van cores is in een game), is dat alsnog maar 80%. De core die 100% belast wordt bepaald de snelheid van de CPU: op dat moment zat er niet meer in en de rest van alle logica in de game en dus in de PC moet daarop wachten.

Bij dit laatste is zo'n task manager performance overzicht (of van Afterburner for that matter) best misleidend tegenwoordig: doordat de zwaarste processen zeer regelmatig van cores wisselen (vanwege thermal en power load, dat regel de CPU zelf), zie je niet in 1 grafiekje terug dat er de hele tijd 1 (of een paar) threads/cores zijn die 100% belast worden. Als je echter heel rustig kijkt of er voor ieder moment wel een core of thread is die 100% wordt belast, zul je dat bij een hoop games toch zo terugzien, tenzij je echt GPU bound bent. Het ligt er ook maar net aan welke games je speelt, me wat voor een resolutie en overige settings.

[Reactie gewijzigd door xtlauke op 22 juli 2024 13:21]

Helpt het dan eigenlijk nog om via taakbeheer bijv. een game aan specifieke cores toe te wijzen ipv multithreaded aan alle? Overruled het OS dan niet de CPU als je het handmatig instelt? Neem bijv. aan dat mbt warmteontwikkeling en turbo op enkele cores dit ook voordeliger kan zijn.

Maar soortgelijk is altijd al. Toen ik nog aan distributed computing deed merkte je bij sommige renders al dat bijv. Intels hypertreading uitzetten meer loonde, ondanks er dan minder rekendraden tot de beschikking waren. Mogelijk is dat hier bij jouw AMD ook het geval. Kan je proberen via de bios. Bovendien met alle virtuele threads uitgeschakeld kan je vaak de fysieke cores hoger klokken, dat vereffent het verlies aan virtuele threads dan mogelijk weer. Het verschilt vaak per applicatie/doeleind wat nu beter is. Maar uiteindelijk is er altijd wel ergens een bottleneck.
Helpt het dan eigenlijk nog om via taakbeheer bijv. een game aan specifieke cores toe te wijzen ipv multithreaded aan alle? Overruled het OS dan niet de CPU als je het handmatig instelt? Neem bijv. aan dat mbt warmteontwikkeling en turbo op enkele cores dit ook voordeliger kan zijn.
Mijn ervaringen wat betreft dit soort dingen zijn beperkt, maar ja, volgens mij kan dat. Als ik hier serieus mee aan de slag zou gaan zou ik kijken naar Process Lasso. Die heb ik regelmatig voorbij zien komen in discussies en is voor zover ik het begrijp betrouwbaar. Maar je kan ook Task manager proberen, zeker een goede om te beginnen als je hier tijd aan wil besteden en wil beoordelen of het uberhaupt merkbaar effect heeft en alle moeite waard is. Enkele discussies die ik zo snel kan vinden:
https://www.reddit.com/r/...ocess_lasso_myth_or_fact/
https://www.reddit.com/r/...ve_for_games_and_windows/
https://www.reddit.com/r/...res_on_a_per_application/

Ik zelf vind het de moeite niet waard, althans, dat denk ik, maar ik ben tegenwoordig ook wat gemakszuchtiger en wil simpelweg niet uren kwijt zijn om te optimaliseren (al heb ik dit soort dingen wel nog geprobeerd met mijn 5950X toen ik fanatiek Far Cry 5 was aan het spelen).

Your Mileage May Vary is een understatement hier. Het ligt er maar aan hoeveel verschil er in snelheid is tussen cores en hoe het de CPU wordt 'gemanaged' voor een specifiek. Als de snelste core tot 0.5 Ghz hoger kan clocken dan je slechtste is dat best een aardig verschil. Maar het is toch maar ong. 10% van de max snelheid. En als je dipt/stottert op bepaalde zware momenten in een spel, gaat die tot 10% hogere performance het echt oplossen? Normaliter zal het hoogstens enigszins minder merkbaar zijn, maar ik denk bij zoiets, als je zoveel aandacht aan iets besteed, dan vallen dat soort problemen ook nog meer op.

Voorbeelden van use cases die ik wel nog zie:
- Je speelt 1 specifiek spel echt veel en zelfs misschien wel behoorlijk competitief.
- Je hebt een CPU of game waarbij de CPU specifiek slecht 'gemanaged' lijkt te worden. De Intel 13th Gen CPU's met P cores en E cores hadden dit issue eerder vaker, en met een CPU als de 7950X3D met waarbij de helft echt X3D is (zo meen ik te herinneren, met meer snel (het 3D) cache geheugen en lagere clocksnelheden) en de helft niet X3D is (dus geen 3D cache maar wel hogere clocksnelheden), kan het van de specifieke use case (X3D werkt extra goed of de lagere clocksnelheden van de X3D cores werken juist tegen) is zoiets ook te overwegen. Al hoop je toch dat er op een gegeven moment een update uitkomt waarmee het specifieke issue is gefixt.
Toen ik nog aan distributed computing deed merkte je bij sommige renders al dat bijv. Intels hypertreading uitzetten meer loonde, ondanks er dan minder rekendraden tot de beschikking waren. Mogelijk is dat hier bij jouw AMD ook het geval. Kan je proberen via de bios.
Dat is inderdaad een goede tip. Ik heb dit toen met mijn 5950X (en daarvoor 5800X) vaker geprobeerd met Far Cry 5. Ik meende dat het enig effect had, het SMT (Simulataneous Multi-Threading heet het bij AMD). Desalniettemin heeft het nooit echt voldoende effect gehad om me er niet meer aan te storen, en zoals ik al zei, ik was er hierdoor extra mee bezig en extra op aan het letten, wat juist de fun in het gamen voor mij enigszins verpest (ik wil tegenwoordig minder lang te hoeven klooien voordat een game goed werkt).

Voor alle duidelijkheid trouwens i.v.m. mijn vorige comment: ik heb het nu niet meer nodig, de 5800X3D was voor mij een positieve verandering t.o.v. mijn 5950X in gaming (ik pas dit nog even aan in deze post). Niet reuze veel, maar wel een stukje. Samen met een snellere GPU draait Far Cry 5 en 6 behoorlijk goed (het is geen stabiele 120+ FPS en dipt echt nog wel eens onder de 100 op mijn 5120*1440 resolutie, maar meestal merk ik dat niet meer). Bij een game als Serious Sam 4 merk ik het wel nog. En ik lees ook nog klachten van gebruikers met een 7800X3D of Intel 14th gen CPU. Dat spel of de enige van dat spel is dan ook minder goed ontwikkelt denk ik, al heeft die Dunia Engine van Far Cry ook mankementen, daarom switchen ze tenslotte bij Far Cry 7, en stoppen ze met het doorontwikkelen ervan. Het is simpelweg niet een engine zoals die van Doom 2016 of Doom Eternal (ID Tech 7 begrijp ik) of zoiets als de Unreal Engine. Je merkt bij die engines simpelweg dat het vaak goed loopt als je rond de 100 FPS zit. Bij Serious Sam 4 merk ik meer stuttering, zelfs met 100+ FPS of zelfs nog veel meer.

Edit: OK, die oude post kan ik niet meer wijzigen. Het staat er een beetje onduidelijk en kan dus gelezen worden alsof de 5800X3D mij een slechtere game ervaring biedt dan de 5950X, maar dat is dus andersom bedoeld.

[Reactie gewijzigd door xtlauke op 29 juli 2024 23:07]

Dat is omdat i9 hogere boostkloks hebben en i7 i5 i3 elk lagere core boost krijgen.
Kom je kwa CPU bin en spect in de grotere spec marges terecht .
Dit doet mij denken aan PIII 1133 GHZ die net niet trok vs 1200Mhz AMD en FAB OS PIII van de markt werd gehaald. Intel heeft de klok grenzen en vermogen grenzen opgezocht en zit dus op de blaren. Naast gemeengoed van overklokken. Mobo merken ook buiten specs cpu stock OC’ed laten draaien Vcore verhogen naast mem buiten specs. Maakt het verre van robuste platform.

I3 i5 zal meevallen i7 begint ellende en i9 spannen de kroon als fab OC en mobo OC
Alderlake Raptorlake zijn nogo gezien de boost vermogen 400wat er lekker voor hotspot in dat kleine chippies en dat om gamekroon te benaderen.
Lunarlake en Arrowlake nieuwe kansen. Vraag is dan of iNtel ook weer wild gaat met boostkloks voor arrowlake.
Hier ook. Met een 4090 op hoge resoluties is 12600K geen bottleneck in games en nog zuinig en stil ook.
Was Intel altijd zo stil over de verwachtte prestatie toename? Zover ik me kan heugen, was Intel altijd communicatiever in de 4 maanden voorafgaand aan hun Oktober sales. Kan dit alles betekenen op een ramp-release wat betreft Arrow Lake, of is het gangbaar dat intel Niets weggeeft over de prestaties in de maanden voor release?
INtel haalt vaker hun planning doelen niet.
Wat Arrowlake wordt hangt af hoe agressief intel de boostkloks en base kloks sets.
En is dus afhankelijk wat Zen5 brengt.
Als Arrowlake voor Zen5 uitkomt dan heb je periode waar het VS zen4 en zen4 x3d
Zen5 == Zen4 x3d maar als Arrowlake meer rond Xen5 x3d uitkomt komt die te laat.
Tenzij prestatie groterzijn dan Zen5 x3d zonder fab OC truckjes.

Wat Zen5 & x3d en arrowlake uiteindelijk op de tafel brengt zijn geruchten dat ze beide flinke stap zijn. Wie kroon pakt en of dat met marge is. Kunnen we naar gissen tot de onafhankelijk reviews er zijn.
Interessant inderdaad dank voor deze verheldering.

Spannend wat de single core benchmarks gaan brengen tussen Arrow lake en Zen5 en bij welk opgenomen vermogen ze die prestaties neerzetten.

Ander nadeel van een December uitgave is dat de Black Friday November deals gemist worden dit jaar, wat processors/moederborden/ddr5 betreft (omdat die vaak in combiantie worden gekocht).
Edit: verpaatst

[Reactie gewijzigd door SambalSamurai op 22 juli 2024 13:21]

Bij dit soort berichten denk ik altijd "so what", maakt toch geen r**t uit of die in oktober of pas in januari uitkomt. Die bestaande doen het toch nog steeds? Alsof we niet vooruit kunnen zonder het nieuwste.
https://www.techradar.com...s-in-october-not-december

"Terrible timing for the December rumor (which is 100% not true).
Late October."
Ik ben rustig aan het wachten, want ik wil een nieuwe pc bouwen. Het liefst met een Intelprocessor.

Maar is er dit bericht weer :

YouTube: Intel Needs to Say Something: Oxidation Claims, New Microcode, & Ben...

Intel verkoopt instabiele processoren xie roesten.

Op dit item kan niet meer gereageerd worden.