Intel: Application Optimization komt niet naar cpu's van 12e en 13e generatie

Intel is niet van plan om de nieuwe functie Application Optimization beschikbaar te stellen voor processors van de twaalfde en dertiende generatie Core, zegt de chipfabrikant tegen Tweakers. Wel werkt Intel aan het toevoegen van meer games aan de prestatieverbeterende functie.

APO is een softwarematige feature die Intel vlak na release beschikbaar stelde voor de Core i7 14700K, Core i9 14900K en de F-versies daarvan zonder igpu. De softwarelaag optimaliseert de toewijzing van programmathreads aan de verschillende soorten cores in de recentste Intel-cpu's. Uit tests van Tweakers bleek maandag dat APO prestatieverbeteringen tot wel negentien procent kan opleveren.

Hoewel processors uit de twaalfde en dertiende generatie technisch grotendeels identiek zijn en er dus vergelijkbare prestatiewinsten mogelijk moeten zijn, heeft Intel geen plannen om APO ook voor die cpu's beschikbaar te stellen. "De instellingen van Application Optimization moeten voor elk model apart worden bepaald, op basis van de aantallen P- en E-cores en de aanwezigheid van HyperThreading", licht de fabrikant toe in een reactie op door Tweakers gestelde vragen. "Omdat er enorm veel handmatig testwerk nodig is om de optimale instellingen te vinden voor specifieke games, hebben we besloten om alleen onze op gaming gefocuste modellen te ondersteunen."

Ook de Core i5 14600K(F) wordt om die reden niet ondersteund door APO. Intel belooft wel dat de lijst met ondersteunde games, die op dit moment alleen Metro Exodus en Rainbow Six Siege omvat, in de toekomst wordt uitgebreid. Concrete details over wanneer dat gaat gebeuren en om hoeveel games het gaat, wil de cpu-fabrikant nog niet delen.

Tot slot vroeg Tweakers Intel ook naar verbetering van de beschikbaarheid van APO. Tijdens de test liepen we er onder meer tegenaan dat de benodigde drivers niet direct via de Intel-website te downloaden zijn. Ook is er nog geen openbare lijst van ondersteunde games. "Op dit moment hebben we niets te melden", was daarop het korte, maar krachtige antwoord.

De uitleg van Intel Application Optimization in het 14th Gen Core-slidedeck
De uitleg van Intel Application Optimization in de 14th Gen Core-slidedeck

Door Tomas Hochstenbach

Redacteur

31-10-2023 • 11:13

89

Reacties (89)

89
88
55
4
0
28
Wijzig sortering
Haha, dit is toch wel een uiterst zielige poging van Intel om hun 14th gen processoren aan de man te brengen. Is allang gebleken dat een 14900K niets meer is dan een wat hoger geclockte 13900K met gelijke performance, nu brengen ze wat software uit waarvan alleen de 14900K (en andere 14th gen) kan profiteren van wat performancewinst. Echt heel sneu dit.
En voor zowel de 13900k als de 14900k krijg je 90% van de performance tegen 100% van de prijs.
Ze zijn immers zo heet, dat koelen bijna onmogelijk is geworden en die dingen altijd staan te throttlen :)
Dit klopt niet geheel, ga je hele dagen cinebench achtige workloads draaien met een volle belasting op alle cores. Ja, dan ga je inderdaad problemen krijgen met throttling, zolang je niet de 'best of the best' gebruikt qua koeling. Ga je echter simpelweg gamen, en ander huis tuin en kuiken gebruik zal het verbruik lang niet zo hoog zijn en zal deze cpu ook zeker niet 'altijd staan de throttlen'

Renderen / Cinebench e.d. is dat niet iets dat de meeste consumenten 24/7 doen, en is dit helaas ook iets dat de meeste reviewers zeer slecht testen, die meten verbruik / temperatuur alleen tijdens bijvoorbeeld een cinebench (of ander maximale load applicatie) run en dan concluderen ze, 'ja, dit is niet te koelen, en hij throttled', wat op dat moment uiteraard klopt, maar je kan dat niet klakkeloos overnemen voor bijvoorbeeld gaming, iets dat helaas veel reviewers wel doen zonder daar verder onderzoek naar te doen. Een manco van veel reviewers.

Kijk je bijvoorbeeld naar een Review als die van Igor, die dit soort zaken als van de weinige reviewers wel uitgebreid test zie je een heel ander beeld. https://www.igorslab.de/e...energetic-final-stage/12/

Ja, in de render test zie je een verbruik van 288W, wat je ook de andere reviewers ziet meten in hun reviews en wat inderdaad lastig te koelen gaan zijn (en sommige moederborden geven deze cpu nog meer sap, terwijl eigenlijk 253W de standaard maximale waarde zou moeten zijn, maar veel moederbordfabrikanten houden zich niet aan de spec, voor betere review resultaten).

Kijk je echter naar de verbruikscijfers in gaming, zie je dat het verbruik ineens bijna de helft is en een stuk dichter bij de concurrentie zit dan je zou verwachten op basis van de metingen van andere reviewers.

Verbruik in gaming op 1080P en 1440P

https://imgur.com/S1jBCzU

Efficiëntie in gaming:

https://imgur.com/xqAkQUC

Ga je zo'n cpu dus voornamelijk voor gaming / office / schoolwerk / youtube gebruiken zal je dus normaliter eigenlijk nooit tegen thermal throttling aanlopen.

Waarbij Igor ook nog een duit in het zakje doet over de idiote (default) settings op sommige moederborden die ik eerder al aanhaalde:
I did not have any cooling problems in any test phase, neither with the Pure Loop 2 360 from be quiet! nor with my Alphacool system including chiller. However, anyone who lets the Raptor Lake Refresh run freely at well over 300 watts just because the motherboard completely brainlessly suggests it (water cooling and 4096 watts) has only themselves to blame in the end. With the usual 181 and 253 watt settings, it works completely uncomplainingly and the CPU has a built-in thermal safety leash anyway. Just like the Ryzen 7000. That’s why there is no detailed discussion here in the conclusion, because those who build such systems themselves should also know what they are getting into.
Neemt echter niet weg dat zelfs met deze data deze cpu's nog geen aanrader zijn, immers als je wil gamen, schoolwerk wil doen en wat wil chillen met youtube, pak een 7800X3D en die is alsnog een stuk efficiënter en goedkoper.

[Reactie gewijzigd door Dennism op 22 juli 2024 13:25]

Dat enige nuance op zijn plaats is, prima. Maar jij schrijft een heel verhaal over een top-segment CPU van ruim €600 en zegt dan "ja dat is enkel een probleem als je hem ook echt wilt gebruiken als top-segment CPU, een briefje typen in Word kan gewoon!".
Ook dat klopt niet, ik geef de duiding dat je hem prima als top segment gaming cpu kan gebruiken, waar Intel hem ook voor positioneert in de markt. Maar dat hem gebruiken als 24/7 render of compile cpu, waar de meeste reviewers feitelijk op beoordelen wanneer ze kijken naar verbruik en warmte nu niet direct een taak is waar deze cpu goed in zal zijn. Dat is echter ook niet iets waar je snel een cpu als deze voor al kopen.

Wat ik eigenlijk aangeef is dat de meeste reviewers verbruik en warmte ontwikkeling veel te mager testen, waardoor je claims krijgt die simpelweg niet kloppen als 'deze cpu zal altijd throttlen' zoals die in de post waar ik op reageer, terwijl bij normaal gebruik, deze cpu zeker niet 'altijd' zal throttlen, voor deze meeste gebruikers zelfs zeer waarschijnlijk bijna nooit.
Iets zal niet gauw throttlen als je hem niet zwaar belast, dat lijkt me niet meer dan logisch. Maar een CPU hoeft geen 3 uur te staan renderen voordat ie zwaar genoeg belast is om mogelijk te throttlen. Als je hem wilt gebruiken om iets te renderen, is de kans groot dat deze zal throttlen en je dus niet de performance krijgt die deze CPU eigenlijk zou moeten geven. Dat is net het punt. Hoe vaak en hoe lang iemand em zo belast is irrelevant, want niemand belast een CPU altijd op 100%.
Hoe vaak en hoe lang iemand em zo belast is irrelevant, want niemand belast een CPU altijd op 100%.
Dat is dus wel relevant, want het gros van de reviewers trekt hun conclusie wel alsof dat zo is, zonder enige nuance te maken. Sowieso is het vrij raar om voor een consumenten cpu verbruik alleen te testen in een applicatie die de gemiddelde consument eigenlijk nooit zal gebruiken, in plaats van juist te testen in applicaties die dezelfde consument wel zal gaan gebruiken. Maar als je het dan toch zo wil testen, maar dan in ieder geval de nodige nuances, of test meerdere scenario's.

Immers voor een gamer is het niet interessant hoe warm een cpu wordt tijden het compileren van een linux kernel, of het renderen van een afbeelding in Cinebench en of je tijdens die handelingen al dan niet performance inlevert. Je wil echter wel weten hoeveel warmte de cpu tijdens het gamen uitstoot en of je dan nog prettig in je 'mancave' kan zitten in de zomer. Of dat misschien in de winter de verwarming uit kan blijven of niet.

Daar komt nog bij dat veel reviewers de boel test op instellingen waar Intel helemaal niet mee adverteert. Het is nog maar de vraag of je wel wat van de geadverteerde snelheid verliest, en je dus niet krijgt waarvoor je betaald. Of dat je overklok performance wat minder is, omdat de reviewer de cpu overklokt ten opzichte van de Intel spec getest heeft omdat de moederbord fabrikant die spec volledig negeerd.

[Reactie gewijzigd door Dennism op 22 juli 2024 13:25]

Als een CPU gaat throttlen krijg je per definitie niet de geadverteerde snelheid, daar lijkt me geen discussie over mogelijk, of het moet gaan om een wel heel absurd slecht CPU ontwerp.

Intel zegt niet dat dit een gamer-only CPU is, ze adverteren daar op geen enkele manier mee. Het is gewoon een high-end CPU voor high-end taken. Je bent hyper-focused op gaming, maar streep dat eens even weg. Beter nog, negeer voor het verhaal ook even alle reviewers. Wat hou je dan over? Een CPU die te warm wordt en daardoor moet(!) throttlen bij hoge belasting, of dat nou 5 minuten of 5 uur is. Of dat nou een 3D render of een kernel compile is.
Je kan niet gamen weglaten als legitieme workload omdat je dan je punt kan maken. Je moet sprinters niet toetsen op een marathon.

Maar dit is daarmee dus wel een "sprint" CPU, als een opgevoerde supra. Niet ideaal voor woon/werk verkeer of voor op vakantie, maar een niche ding.
Maar mijn punt was juist dat je gaming niet als enige legitieme (hoge) workload moet beschouwen.
De effectief geadverteerde snelheid van een 14900K is 3.2 ghz en daar zal hij nooit onder gaan in een normale situatie. Je krijgt dus altijd de geadverteerde snelheid, maar mensen laten zich makkelijk misleiden doordat ze lui zijn. Daar gaat marketing natuurlijk van uit dat de meesten niet even gaan opzoeken wat men bedoelt met Intel Turbo Boost.

Intel heeft zelfs een hele pagina over hoe je hun kloksnelheden moet interpreteren, maarja wie kijkt daar nu naar?
What Does Turbo Frequency Mean?

Intel processor specifications list both Max Turbo Frequency and Processor Base Frequency. The processor base frequency refers to the its regular operating point, while the Max Turbo Frequency refers to the maximum speed the processor can achieve using Intel® Turbo Boost Technology.

Intel Turbo Boost Technology enhances clock speed dynamically to deal with heavy workloads. It works without requiring any installation or configuration by the user. The technology judges the amount of heat the system can tolerate, as well as the number of cores in use, and then boosts clock speed to the maximum safe level.
https://www.intel.com/con...rces/cpu-clock-speed.html

[Reactie gewijzigd door napata op 22 juli 2024 13:25]

Wat hou je dan over? Een CPU die te warm wordt en daardoor moet(!) throttlen bij hoge belasting, of dat nou 5 minuten of 5 uur is. Of dat nou een 3D render of een kernel compile is.
En dat lijkt nu dus juist niet te kloppen, zoals Igor ook aangeeft, als je de CPU op de geadverteerde spec draait, en dus het verbruik limiteert op de door Intel voorgeschreven 253W lijkt deze niet te thermal throttlen, Zie ook de quote die ik aanhaal in de eerste post. De cpu lijkt pas daadwerkelijk te throttlen wanneer deze buiten spec draait omdat de moederbordfabrikanten bezig zijn met een wedstrijdje verpissen. Sommige moederborden jassen 300W door deze cpu heen, terwijl 253 de bovenlimiet hoort te zijn. En dan ook nog een alleen in bepaalde workloads. Dat is waar het misgaat.

Dat deze cpu een heethoofd is, zeker wanneer buiten spec gedraaid wordt staat niet ter discussie, het probleem is simpelweg de belabberde duiding die hieraan gegeven wordt door juist de mensen die deze duiding zouden moeten geven, waardoor je dus berichtgeving krijgt die niet klopt, zoals 'deze cpu throttled altijd', terwijl de cpu alleen lijkt te throttlen wanneer deze buiten spec gedraaid wordt en dan ook nog eens alleen in specifieke zware workloads.

Als de cpu binnen spec throttled is dat uiteraard kwalijk, ook wanneer dat slechts in bepaalde gevallen gebeurt. Als de cpu echter alleen buiten spec throttled is dat prima, je krijgt dat immers wat geadverteerd is, en zelfs wat meer, alleen wanneer je teveel buiten spec gaat ga je wat inleveren omdat je te ver pushed.

[Reactie gewijzigd door Dennism op 22 juli 2024 13:25]

Ook dat klopt niet, ik geef de duiding dat je hem prima als top segment gaming cpu kan gebruiken, waar Intel hem ook voor positioneert in de markt
Zelf in gaming is dit ding een inefficiënte heethoofd, in vele gevallen gebruikt hij vele male meer als bijvoorbeeld de 7800X3D terwijl hij een stuk langzamer is
https://youtu.be/0oALfgsyOg4?t=1209

En in workloads is het ook zo erg dat je niet eens 24/7 hoeft te draaien om dit ding te laten throttlen, 3 runs is daar al voldoende voor, daarom is hij in die taken soms zelf langzamer als de 13900k die minder snel gaat throttlen

Eigenlijk is er gewoon weinig goed te vertellen of goed te praten over deze CPU

[Reactie gewijzigd door Sinester op 22 juli 2024 13:25]

Dat staat dan ook al in mijn post, voor gaming inderdaad de 7800X3D kopen en niet omkijken. Al zou ik niet direct uitgaan van de powermetingen van HUB, ik ben groot van hun over het algemeen, maar hun power metingen en efficiëntie metingen zijn zeer matig, vaak het meest zwakke punt van hun reviews. Voor dat soort zaken kun je over het algemeen beter kijken bij bijvoorbeeld https://www.igorslab.de/ , zoals aangegeven is dat een van de weinig cpu reviewers die verbruik en efficiëntie test in meerdere en zeer verschillende workloads en dan ook nog eens de andere componenten uitsluit. Iets dat HUB bijvoorbeeld niet doet.
Inderdaad, was eerst nog onder de indruk van deze technologie en dacht dat ik misschien mis had gegrepen met mijn 7800X3D maar als dit standaard iets word waar je alleen wat hebt met de allernieuwste processor dan hoeft er bij mij geen intel meer in.

Koop je een 14900K en dan loop je na een jaar of 2 10%+ potential performance mis in nieuwe games omdat ze niet de moeite in de software willen stoppen voor "oudere" modellen.
Mijn insteek, het type CPU je gebruikt voor gaming is al een aantal jaren niet echt meer van belang.

Bekijk bvb de volgende review. review: Intel 12th Gen 'Alder Lake' - Core i9 12900K, i7 12700K en i5 12600K

Maakt het echt uit of je CPU 155FPS haalt of 190FPS gemiddeld in games?

Wat ik zeker weet is dat de meeste mensen in een blinde test niet consistent gaan kunnen zeggen welke game locked is op 80 FPS en welke game locked is op 300FPS.

Baseer je keuze voor CPU's op de apps waar je veel tijd in steekt, maar niet op gaming prestaties. En wat mij betreft mogen de prestaties in games van CPU's minder uitvoerig besproken worden in CPU reviews en volledig geschrapt voor mid-range en high-end modellen die alle games (heel) vlot draaien.

Verder maakt dit nieuws van Intel ook weinig uit als je BSD of Linux gebruikt op de desktop, want ik denk dat deze tech specifiek voor windows10/11 gebruikers is.
Naja dit is misschien een slecht voorbeeld maar wel een eigen ervaring:

Ik heb dus dit jaar een upgrade gedaan eindelijk na 6-7 jaar, namelijk van een i7 5820k (6 core-12 thread 4,5GHz) naar een r7 7800X3D (8 core-16 thread 5GHz, 3D cache) en in sommige games maakte het niet heel veel uit naast wat minder microstutter.

Maar elden ring bijvoorbeeld? ik ging van limgrave 50-55 fps naar 100+ fps op dezelfde locatie (fps unlock mod), natuurlijk is mijn RAM ook beter maar dat heeft zelfs minder invloed dan de cpu, dus het kan zeker wel uitmaken zou ik zeggen, en het moet besproken worden, alleen niet van 1 generatie op de andere en dus meer een focus op het grotere plaatje want voor mij was het zeer lastig om de keuze te maken, aangezien niemand oude cpu's test tegen nieuwe cpu's alleen 1-2 generaties er voor at most.

[Reactie gewijzigd door Joshuffle op 22 juli 2024 13:25]

Alleen i7 en i9 van 14th gen hebben hier support voor, niet eens alle CPU's. Het zal mij aan de andere kant benieuwd hoe lang het gaat duren eer een aangepaste versie online staat die alle CPU's van de 12e, 13e en 14e generatie ondersteund.

[Reactie gewijzigd door CH4OS op 22 juli 2024 13:25]

En dan alsnog kopen want 14900K (99% van intel users)
Ik mis even de bron van verontwaardiging. Het is toch beter dat men een refresh met APO dan een refresh zonder APO uitbrengt? Dan is er in ieder geval nog iets innovatief...
Ik mis even de bron van verontwaardiging. Het is toch beter dat men een refresh met APO dan een refresh zonder APO uitbrengt? Dan is er in ieder geval nog iets innovatief...
Ja maar als er 1 reden voor mij is om nog geen Intel te kopen alhoewel hun cores competitief zijn en je met wat sleutelen aan PL1 en PL2 ook kunt geraken waar je wilt zijn (qua stroomverbruik/prestatie), dan is het de nodeloze productdifferentiatie. Extensies die ontbreken voor geen rden, minor releases die alleen wijzigen hebben in een paar mhz, etc ... Ze zouden beter het de mensen wat makkelijker maken en dit uitrollen voor iedereen want big.little is nieuw op de Desktop en het zou keuriger zijn om iedereen die zich daarin heeft gekocht te ondersteunen en de retailers zo helpen om hun oude stock te slijten.
Dit is zeker zielig gedrag van Intel, tegelijkerdtijd krijg je bij AMD zelfs op oude chipsets zoals de B450 uit 2017 allerlei nieuwe snufjes zoals SAM ( Smart Acces Memory), dat doen ze bij AMD toch beter.
Laat ze maar dit soort fratsen uithalen. Er komt een moment dat marktaandeel van AMD naar 50% klimt. Dat en die van Nvidia omlaag naar dat getal in de GPU markt en dan hebben wij als consument weer de leiding. Tenzij er nog wat vuile prijsafspraakjes worden gemaakt. We kunnen slechts hopen.
Intel is eigenlijk nooit echt een consument vriendelijk bedrijf geweest, en zal dat helaas ook nooit worden.
Denk dat de -1 komt omdat mensen nou niet echt van userbenchmark taferelen, daarnaast is het wel on topic.
tweakers redactie zou beter eens wat dieper testen en uitzoeken wat er in de achtergrond effectief aangepast wordt met het platform en de cores en hoe de intel SW reageert als je andere load gaat combineren...

wie van de gesponserde reviews sites durft het aan ... O-)

en dank u fantastische modding wederom 19* -1... prachtig deze website tegenwoordig.
leuk om te weten dat elke review site gewoon blind iets moet overnemen en niks onderzoeken.Wat schiet er hier nog over van tweakers tegenwoordig..
Ben het wel met je eens dat bijna iedere reviewer dezelfde koek serveert maar je kan toch niet verwachten dat ze hier eventjes de geavenceerde Thread Scheduler tweaks gaan black box reverse engineeren ?
ze kunnen toch tenminste een analyse doen van waar de CPU load op welke core zit voor en na, core boost analyse, power consumptie etc...

niet zo moeilijk lijkt mij als start.
Toont dit niet een major flow aan in de litte-big set up? Als er met de hand per CPU/Game combinatie een instelling bepaald moet worden?
Ja. AMD heeft hetzelfde probleem met hun 7950X3D die cores met en zonder 3D cache heeft. De windows scheduler doet het in de praktijk gewoon fout en je cores zonder 3D vcache disablen verbetert gaming performance.

Ik heb nog geen voordelen ondervonden aan de big-little setup voor de desktop waar ik voor zou willen betalen. De e-cores zijn voor bijna iedere workload nutteloos. In renderen of compileren kunnen ze een beetje meedoen, maar ik kan nou niet zeggen dat ik in plaats van 8 e-cores niet liever 2 extra P-cores had gehad ofzo. Mijn 12900KS was een objectief betere CPU geweest zonder E cores maar met 10 P-cores met hyperthreading.
Voor gamen doen e-cores sowieso helemaal niets nuttigs.

Misschien dat die laptop cpu's met 2 P-cores en een zooitje E-cores wel nuttig zijn in de praktijk.

[Reactie gewijzigd door youridv1 op 22 juli 2024 13:25]

Mijn 12900KS was een objectief betere CPU geweest zonder E cores maar met 10 P-cores met hyperthreading.
voor jouw gebruikt misschien inderdaad, echter klopt wat je zegt over de E-cores niet direct, deze doen juist bij veel workloads goed mee, en dan zeker bij renderen / compileren (zonder die E-Cores en met 10P cores zou Intel niet in de buurt komen van de 7900X en 7950X, terwijl ze dan nu wel doen, en ze, zeker de 7900X, regelmatig verslaan. Ik zou zelfs eerder stellen dat mogelijk eigen alleen gaming een workload is waar de E-Cores niet heel veel brengen, maar dat is dan vaak weer omdat games over het algemeen simpelweg vrij matig lijken te schalen met cores. Je ziet hetzelfde bijvoorbeeld bij een AMD 7700X tegenover een 7950X, die extra cores van de 7950X doen weinig in de meeste games, soms brengen ze zelfs een performance degradatie t.a.v. het 8 core model.

Maar ik zou ook niet direct verwachten dat een hypothetische 12900K met 10P cores het veel beter zou doen dan een model met 8 P-Cores in gaming, terwijl AMD dan in multithread genadeloos de vloer met Intel aangeveegd had, zoals je ook zag met de 3900X / 3950X vergeleken met de 8 en 10 core Coffee Lake en Rocketlake Sku's.

Juist vanuit dat oogpunt is Intels keuze voor P en E Cores denk ik juist een slimme, ze kunnen nu in ieder geval op performance concurreren. Nu moeten ze echter nog hun productie nodes op orde brengen zodat ze ook op efficiëntie weer mee kunnen in de zwaarste workloads. Daar blijven ze nu immers hopeloos achter.

[Reactie gewijzigd door Dennism op 22 juli 2024 13:25]

voor jouw gebruikt misschien inderdaad, echter klopt wat je zegt over de E-cores niet direct, deze doen juist bij veel workloads goed mee, en dan zeker bij renderen / compileren
Mijn gebruik is multicore compile en 0% gaming. Ik heb het hier over mijn workstation. Mijn game pc thuis draait op een 5800X3D.

Ik heb zojuist een stuk of 10 test runs gedaan. Compilatietijd verschil op een full core compile van mijn cmake+clang project is 1 seconde op 2 minuten tussen E-cores aan en E-cores uit. Lijken me klare metingen.

De afname die ik krijg als ik 2 P-cores uitschakel is veel groter. Dat loopt richting de 8 seconde. Vandaar dus dat ik zeg: Doe mij maar 2 extra P cores ipv die 8 E-cores.

Wat ik me van de launch coverage van de 12e gen kan herinneren nemen 4 E-cores namelijk samen de oppervlakte van een P-core in. Dus daar kwam initieel mijn 2/8 vergelijking vandaan.

Wat je zegt klopt, de 12900KS in mijn workstation is erg competitief in compilatie tests tegenover de AMD CPU's uit dat jaar. En de 12900K is inderdaad 30% sneller in compileren dan de 11900K, maar de E-cores dragen daar voor mijn workload niet aan bij. Ik vermoed eerder dat het bijvoorbeeld in de stevig toegenomen L2 cache per core zit en andere pipeline verbeteringen.

[Reactie gewijzigd door youridv1 op 22 juli 2024 13:25]

Op zich wel opmerkelijk denk ik, kijk je bijvoorbeeld naar de Phorinix resultaten, een van de weinige reviewers die helaas dit soort zaken test zie je bij compilen tocht aanzienlijke voordelen voor de standaard configuratie tegenover de config waar de E-Cores uitstaan.

Op deze pagina staan de compile benchmarks: https://www.phoronix.com/review/alderlake-p-e/6

Bijvoorbeeld bij een Linux kernel compile is dit bijna 22% sneller, terwijl 2 extra P cores theoretisch 25% beter zouden kunnen schalen, maar je dat in de praktijk niet snel zal zien, omdat bij full core loads deze cpu vaak al aan de max zit en extra P-Cores zeer waarschijnlijk de powerscaling negatief zullen beïnvloeden aangezien de E-cores maar een relatief klein deel van het powerbudget gebruiken bij een full load, terwijl de 8P+0 configuratie actief eigenlijk het gehele power budget al gebruikt daar dit bij een 12900K 241W is. Zie ook bijvoorbeeld deze test van Anand:

https://images.anandtech....Ray%20Ramp%20EP_575px.png

Helaas geeft Anand weer niet de scores per run weer.
Ik zou eens moeten nalezen hoe hij zijn benchmarks draait. Power instellingen, koeling etc. Ik kan zijn resultaten niet reproduceren en heb 4 stuks van de 12900KS draaien.

Wat ik direct opmerk is dat hij Linux draait en ik Windows 11. Helaas heb ik geen usecase voor linux compilatie, was dat maar zo.

[Reactie gewijzigd door youridv1 op 22 juli 2024 13:25]

Dat is in dit geval zeer relevant. De Linuxscheduler is geavanceerder dan die van Windows. Best kans dat je dit soort software nodig gaat hebben om de rekenkracht onder Windows te kunnen gebruiken.
Bij compileren moet je je extra kernen kunnen bezighouden. Veel bestanden wachten op andere bestanden die gecompileerd zijn. Bij de Linuxkernel zijn er zeer veel drivers die geen afhankelijkheid van elkaar hebben, dus is het makkelijk de kernen bezig te houden. Ik kan me goed voorstellen dat het bij veel projecten anders ligt.
Je ziet echter die verschillen bij iedere compilatie benchmark die hij doet. het is dus niet exclusief iets voor de linux kernel test
Die scheduler driver van AMD voor 3D cache doet het bij mij goed voor de 7950X3D, ik kan hem op de bios op prefer cache gooien voor hetzelfde resultaat. Games komen netjes in de cores waar die 3D zit en niet games bij de andere terecht.
review: AMD Ryzen 7 7800X3D - De langverwachte Intel-killer in games Out of the box is de 7800X3D 7,5% sneller in games dan de 7950X3D. De scheduler doet het dus niet goed of in ieder geval niet zo goed als het simpelweg disablen van je 3D loze cores.

De 7950X3D is wel 10% sneller dan de reguliere 7950X, dus de scheduler doet het net iets beter dan 50/50, maar benut hem dus zeker niet volledig in games.

Maarja, je koopt een 7950X3D omdat je zowel wil gamen als zware multithread taken wil doen, dus je wil ook weer niet al je taken op de 3D cores gooien met die bios setting van dan gaat je compilatie/render snelheid achteruit.

[Reactie gewijzigd door youridv1 op 22 juli 2024 13:25]

Dat dan weer wel. Bij andere tech sites was het verschil wat kleiner en bij sommige titels was na wat tweaks de 7950X3D zelfs sneller.

Moet zelf nog data vinden voor de performance na wat driver updates van AMD zelf. Geloof dat het nu wel op orde is.

Tweakers had op discord ook aangegeven dat ze de 3D cache driver niet beschikbaar hadden. Weet niet of ze binnenkort opnieuw gaan benchen en de data gaan updaten.

[Reactie gewijzigd door Markus_Pardoes op 22 juli 2024 13:25]

Je kunt dan ook gewoon de 7800X3D pakken, die bovendien goedkoper is ook nog. Volgens mij zijn de gaming performances redelijk gelijkwaardig, dus de meerprijs voor de 7950X3D is het gewoon niet waard.
Dat ben ik ook zeker met je eens. Dat is juist mijn argument tegen heterogene processors. Ze zijn eigenlijk de meerprijs niet waard.
Voor laptops en systemen die vaak vrijwel idle draaien is het wel zinvol. Bijvoorbeeld een thuisserver die het grootste deel van de tijd alleen heel lichte taken heeft, maar af en toe even flink aan het werk gezet wordt.
Maar daar hebben we toch P en C states voor? Het ene hoeft het andere niet uit te sluiten. Maar ik heb zo mijn twijfels over dit hele P en E cores verhaal. Het is weer een extra stukje complexiteit waar rekening mee moet worden gehouden.
Je hebt er wel voordeel.aan ondervonden doordat je meer cores hebt gekregen dan je met alleen p cores had gehad. Multicore prestaties zijn dus hoger dan ze anders waren geweest.
Niet noemenswaardig. Ik heb de E-cores wel eens disabled en de performance afname bij een full compile was nu niet je van het. Ik zou moeten hertesten voor specifieke getallen
Oh en jij weet dus al perfect hoe Intel APO werkt en gaat er vanuit dat dit gewoon een scheduling fout is tussen P en E cores.

Denk nu net dat er meer achter zit kwa finetuning op basis van core affiniteit, caching, preferred cores en downscalen van andere cores . Anders zou het heel simpel zijn en voor veel meer in te zetten, terwijl INtel hier heel sterk aangeeft dat het uber fine tuning is.

Helemaal dus iets anders dan de standaard windows scheduler die er is voor Intel met P en E core en de optimalisatie die bestaat voor AMD met CX met en zonder 3D cache.

De vraag is wederom welke site zal het indepth gaan testen en verschillende load profielen combineren.
Maar is dat probleem er ook niet al een beetje met cores op verschillende CCX en de assymetrische toegang naar geheugen ?
Als het zoveel tijd per combinatie van CPU en applicatie kost, is het dan wel de moeite waard om dit te doen als Intel? En zou het niet beter zijn dat Intel de nodige tools voorziet aan software developers zodat de developers in hun code rekening kunnen houden met de verschillende coretypes en zo beter zelf kunnen optimaliseren?
Niet echt, daarom doen ze het ook niet, voor de meeste CPU's en games. ;)

Voor zover ik weet zitten deze optimalisaties niet in de code van de games maar in een externe applicatie die de CPU instrueert, dus voor een game-developer is het in de huidige situatie erg lastig, zo niet onmogelijk, om dit zelf te doen. Daarnaast: als je kan rommelen met de scheduler kan je ook veel stukmaken, dus ik denk dat Intel game-developers nooit 100% zelf hun gang zal laten gaan, al gaat het maar over de eindcontrole.

Vooralsnog zie ik dit vooral als een poging om een intel CPU bovenaan de game-benchmarks te krijgen... Daar hebben ze met het oprekken van de TDP's al heel wat moeite voor gedaan, en dat leidt ook tot zwaar onpraktische producten. Dat ze zich alleen richten op CPU's die "op gamen gericht zijn" is een mooi excuus maar een i5 is meer op gamen gericht dan een i9 met zijn tig e-cores. Laat staan de non-K-modellen en de 12e/13e generatie die prima zijn voor gamen.

[Reactie gewijzigd door bwerg op 22 juli 2024 13:25]

Voor zover ik het begrijp is die externe applicatie er omdat dit soort optimalisaties (nog) niet native in de applicatie / game (engine) code zit, waardoor er nu een extra software laag is om de on-die thread director direct aan te sturen met een vooraf geoptimaliseerd profiel in plaats van dat de thead director dit real time doet in combinatie met de OS scheduler.

Van wat ik gelezen heb is het zonder deze applicatie zo:

Applicatie (of game) > thread director > OS (Windows) scheduler

Met deze applicatie:

Applicatie (of game) > APO driver + profiel dat de thread direct aanstuurt > thread director > OS (Windows) scheduler
Ik bedoel, gezien aan de GN review op youtube zit Intel eindelijk weer nek aan nek met AMD (in games) of zelfs wat percent voor kwa framerate door deze optimalisatie, dus daarom vonden ze het zeker waard om zelf de moeite er in te stoppen, ziet er goed uit on paper.
"... hebben we besloten om alleen onze op gaming gefocuste modellen te ondersteunen."

Dus de 12e en 13e generaties CPU's zijn niet bedoeld voor gaming? Wat een onzin. En het aantal P en E cores zijn toch hetzelfde tussen de generaties?

En APO lijkt mij ook zinvol buiten gaming, zoals rendering etc.
Nee ze zijn nú niet meer bedoeld voor gaming.

Dus een maand geleden was de 13900K dé gamingchip volgens Intel en nu niet meer omdat een eigen applicatie de kunstmatige beperking heeft de 12th en 13th gen niet meer te ondersteunen :+

Alsof die CPU’s opeens niet geschikt meer zijn.

Voor renderen is APO juist niet interessant want over het algemeen laten rendertaken zich juist heel goed over de cores verdelen/schaalt het goed mee.
Ja ik zit nog steeds te klooien met dingen op de voorgrond gooien omdat ze dan sneller lopen (3D Studio, Handbrake), blijft een gedoe.
Kan je dan niet gewoon de prioriteit van de taak handmatig hoger zetten en 'm alsnog in de achtergrond zetten?
Dat is immers wat er gebeurd als iets op de voorgrond draait.
Klopt, maar even op de voorgrond gooien is zo veel makkelijker en dan is het coderen van een episode ook zo gedaan, het is irritant om elke keer te klooien met die prioriteiten of je moet het al vast kunnen zetten ergens dat bepaalde apps altijd voorrang krijgen?
Je kunt bij het starten van een applicatie via command prompt of via powershell de prioriteit ingeven. Als je dus altijd die hogere prioriteit wilt hebben dan zou je dat kunnen gebruiken door een nieuwe shortcut te maken en die te gebruiken.
Dit is dus ook nog eens een leugen, want het zit hier gewoon op mijn 13900k. :')
Dat kreeg je na een update ofzo, op de 12600K zie ik in ieder geval niets.
Even de UEFI bijwerken en aanzetten bij de CPU options was alles wat ik hoefde te doen.
Welk moederbord? Want dat speelt ook een rol. :)
In mijn geval de Gigabyte Auros Z790 Elite AX v1.1
Je kunt ook gewoon de e-cores uit zetten in de bios.

Amd heeft een vergelijkbaar probleem met de 7950x3d. Maar de heflt van de cores hebben extra cache, en de standaard scheduler heeft geen idee wat ie er mee moet en je een speciale tool moet downloaden. Ik vraag mij überhaupt af of je hier een scheduler slim genoeg voor kunt krijgen zonder speciale whitelist/blacklist.
Kan vast wel iets met AI gedaan worden, is nu helemaal de rage.
Ah yes, intel praktijken.

Jammer dat ze het weer zo doen.
Ik vind dit soort Nvidiapraktijken weer sneu
Ben ik de enige die dit een flauw excuus vindt ?
"De instellingen van Application Optimization moeten voor elk model apart worden bepaald, op basis van de aantallen P- en E-cores en de aanwezigheid van HyperThreading"
Het is niet dat 13th en 14th gen verschillen op dat vlak, er is letterlijk maar één 14th gen CPU die een andere opbouw heeft dan 13th gen. Bovendien vraag ik mij dan af wat het toekomstig draagvlak is van deze tool, want voor 15th gen moeten ze alles terug opnieuw doen.

Hopelijk voor Intel is dit iets minder invasief dan de AMD driver voor de 7950X3D.
Ik zou zeggen dat je dit in het geheel niet moet overwegen in je aankoopbeslissingen. Zodra de 14900 niet meer belangrijk is voor Intel stoppen ze gegarandeerd met het bijhouden van deze instellingen en dan heeft het geen voordeel meer.

Sowieso maakt Intel naar mijn mening waarschijnlijk gebruik van een zwakte in de Windows-scheduler. Dat betekent ook dat Microsoft de mogelijkheid heeft om deze software van de ene op de andere dag overbodig te maken. Sowieso heeft Linux een hele andere en doorgaans betere scheduler en zal in deze spellen andere cijfers neerzetten.
Dat lijkt mij dus ook. Nu het eenmaal bekend is, is het wachten totdat MS of iemand anders dit implementeert.
Ze moeten het gewoon open maken (een linux implementatie opensourcen). Zo geef je zelf de voorzet voor de little.big Desktop wereld ipv dit weer toe te dekken en te misbruiken voor de korte termijn.

Op dit item kan niet meer gereageerd worden.