Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Intel geeft specificaties en prijzen twaalfde generatie Core-processors vrij

Intel heeft de specificaties van zijn twaalfde generatie Core-processors vrijgegeven, die tot nu toe bekendstonden onder de codenaam Alder Lake. Topmodel Core i9 12900K krijgt in totaal zestien cores en een maximaal stroomgebruik van 241W. De cpu's liggen op 4 november in de winkel.

In augustus gaf Intel al de nodige technische achtergrondinformatie over de Alder Lake-processors vrij, op basis waarvan Tweakers een uitgebreide preview schreef. Nieuw zijn onder meer het Intel 7-procedé en de hybride architectuur met een combinatie van zuinige Gracemont-cores en snelle Golden Cove-cores. Ook ondersteunen de processors voor het eerst DDR5-geheugen en PCI Express 5.0. Om al die veranderingen te faciliteren, wordt bovendien de nieuwe socket 1700 geïntroduceerd.

Nu geeft Intel een concreet voorbeeld van wat er mogelijk is met deze hybride architectuur, die de chipfabrikant 'de grootste architectuuromslag in een decennium' noemt. Bij een gelijkaardig stroomgebruik zou de Core i9 12900K 50 procent hogere multithreaded-prestaties leveren dan de 11900K. Voor gelijke prestaties als de 11900K (250W) zou de 12900K genoeg hebben aan een vermogen van 65W.

Specificaties en afscheid van TDP

Nog niet officieel bekend waren de specificaties per model. In eerste instantie komt Intel met zes modellen: de Core i9 12900K, Core i7 12700K en Core i5 12600K, waarbij van elke variant een F-versie zonder geïntegreerde gpu te koop zal zijn. De cpu's hebben tussen de zes en acht snelle cores en vier of acht zuinige cores, elk met eigen base- en turbokloksnelheden.

Opvallend is dat Intel niet langer een tdp opgeeft, maar spreekt van een 'processor base power' van 125W en een 'maximum turbo power' die aanzienlijk hoger ligt. Daarmee zet Intel in elk geval voor de overklokbare K-processors een streep door de verwarring die de PL1- en PL2-powerlimits bij de afgelopen generaties veroorzaakten. De nieuwe standaard voor deze processors is dat ze onbeperkt kunnen boosten, tenzij de pc-fabrikant (en in geval van zelfbouw ben je dat zelf) anders bepaalt om binnen de mogelijkheden van de koeling en stroomtoevoer te blijven.

Cores Caches Kloksnelheden Gpu Stroomgebruik
P E L2 L3 Base P Turbo P Base E Turbo E Base Turbo
Intel Core i9 12900K 8 8 14MB 30MB 3,2GHz 5,2GHz 2,4GHz 3,9GHz UHD 770 125W 241W
Intel Core i9 12900KF 8 8 14MB 30MB 3,2GHz 5,2GHz 2,4GHz 3,9GHz Geen 125W 241W
Intel Core i7 12700K 8 4 12MB 25MB 3,6GHz 5,0GHz 2,7GHz 3,8GHz UHD 770 125W 190W
Intel Core i7 12700KF 8 4 12MB 25MB 3,6GHz 5,0GHz 2,7GHz 3,8GHz Geen 125W 190W
Intel Core i5 12600K 6 4 9,5MB 20MB 3,7GHz 4,9GHz 2,8GHz 3,6GHz UHD 770 125W 150W
Intel Core i5 12600KF 6 4 9,5MB 20MB 3,7GHz 4,9GHz 2,8GHz 3,6GHz Geen 125W 150W

De eerste benchmarks

Ook gaf Intel de eerste benchmarks van de Core i9 12900K vrij. Die zijn uitgevoerd en uitgezocht door Intel zelf, dus het is verstandig om ze met een korreltje zout te nemen. Gemiddeld zou de i9 12900K rond de 15 procent sneller zijn dan een 11900K in games, wat ruim voldoende moet zijn om de achterstand op de Ryzen 5000-chips om te zetten in een voorsprong. In een minder uitgebreide vergelijking met de AMD Ryzen 9 5950X komt de 12900K dan ook duidelijk als winnaar uit de bus - waarbij de Windows 11-patch voor AMD-processors nog niet is toegepast.

Voor contentcreatie zou de 12900K nog meer winst boeken ten opzichte van zijn voorganger, namelijk tussen de 22 en 100 procent sneller in vijf softwarepakketten. Een vergelijking met AMD laat Intel op dat punt achterwege. In een laatste vergelijking van verschillende cores op dezelfde kloksnelheid is te zien dat de kleine Gracemont-cores net zo snel zijn als de 'grote' Skylake-cores die tot de tiende generatie Core-processors werden toegepast.

Adviesprijzen

De nieuwe processors zijn duidelijk duurder dan hun voorgangers. De Core i9 12900K is het meest in prijs gestegen; hij gaat omgerekend en inclusief btw 615 euro kosten. De 11900K had nog een adviesprijs van 548 euro, wat betekent dat de nieuwe chip 67 euro duurder wordt. Ook de i7 12700K en i5 12600K zijn wat prijziger dan hun voorgangers in de 11-serie, maar het verschil blijft bij die modellen beperkt tot enkele tientjes.

De nieuwe processors zijn inmiddels gearriveerd in het Tweakers-testlab, vergezeld van de nodige Z690-moederborden en DDR5-geheugen. Vanaf donderdag 4 november kun je de nieuwe hardware aanschaffen - maar of dat ook een goed idee is, lees je dan natuurlijk op onze site.

Dollarprijs Europrijs (incl. btw)
Verschil t.o.v. voorganger
Intel Core i9 12900K $ 589 € 615 + € 67
Intel Core i9 12900KF $ 564 € 589 + € 68
Intel Core i7 12700K $ 409 € 427 + € 21
Intel Core i7 12700KF $ 384 € 401 + € 21
Intel Core i5 12600K $ 289 € 302 + € 36
Intel Core i5 12600KF $ 264 € 275 + € 34

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Tomas Hochstenbach

Redacteur componenten

27-10-2021 • 18:00

229 Linkedin

Reacties (229)

Wijzig sortering
Op zich lijkt het wel veelbelovend maar ik wacht ook liever eerst de onafhankelijke reviews af van b.v. Tweakers en alle andere Youtube reviewers. Benchmarks van Intel zelf heb ik altijd zoiets van tja een fabrikant zal nooit minder goede resultaten van benchmarks bij introductie tonen. Waar ik dan wel van schrik is het best hoge verbruik en daar naar mijn mening eigenlijk weinig aan gedaan is.

Het is natuurlijk allemaal wel leuk en aardig dat de 12de generatie dezelfde prestaties als de 11de generatie neer zet met dan de helft van het verbruik. Maar evenzogoed wanneer je dan de cpu op zijn staart trapt schiet het verbruik weer naar hetzelfde niveau als de vorige generatie. Tuurlijk kan je zeggen dat dan toch de 12de generatie zuiniger is maar in de praktijk ligt het toch weer anders.

De meeste gebruikers zullen echt niet hun 12de gen Intel cpu dan netjes gaan afkappen voor een lager verbruik. Net als dat moederboard fabrikanten ook niet gek zijn en er wel voor zorgen dat die 12de gen cpu's flinke prestaties neerzetten. In die zin kijk ik toch met een half oog richting Apple met hun M1 cpu die wel een aanzienlijk lager verbruik met hoge prestaties neer zet. ( eh, geen Apple fanboy, sterker nog, helemaal niets van Apple in huis ).

Update:
Voor de geïnteresseerden en met een glimlach :
https://www.youtube.com/watch?v=_4geLPDnLx0

[Reactie gewijzigd door Roel1966 op 27 oktober 2021 23:11]

Dat wattage hakt er inderdaad in, in het achterhoofd houdend dat een Watt per jaar ongeveer 2 euro kost en zo best wel richting de 3 kunnen gaan in het komende jaar. Dus als-ie vol staat te stampen is dat 480 euro per jaar aan stroom, met mogelijk 720 euro in 2022. Dan is de aanschaf maar een relatief klein deel van de prijs.
Reken ik verkeerd, of ga jij uit van +/- 2000 kWh verbruik per jaar? (500 euro / 0.25 ct p kWh)

Een gemiddeld gezin verbruikt per jaar ongeveer 2750 kWh, dus dat lijkt me erg ruim gemeten.
240 watt voor het CPU -> 0.24 kiloWatt * (24 * 365) uur = 2102.4 kWh.
Dat is bij volle belasting wat niet altijd zal gelden, maar dan reken ik de overhead voor de koeling ook niet mee.
Dus je gaat ervan uit dat de processor niet 24x7 op volle belasting draait, maar ‘slechts’ 23 uur per dag. Het moge duidelijk zijn dat dat voor de overgrote meerderheid van gebruikers een verre van realistische aanname is.
Overhead alleen koeling???? Uhh.

HDD, memory, mainbord, GPU, randapparatuur zoals een toetsenbord/ muis. En een monitor. Misschien nog fancy RGB. Fans in de case. Misschien nog een externe HDD. Verbruik kan best wel oplopen.

Maar ik zou die 100% cpu verbruik eerder schalen op 10% van het jaar. In 60% van de de tijd zal je CPU voornamelijk niets doen de 30% die overblijft zal je cpu op halve of zelfs mindere kracht draaien.

Maar er zijn natuurlijk uitzonderingen. Zeker als je mee doet aan folding@home bv of hele dagen aan het compileren bent.
Op zich heb je gelijk, maar de HDD, memory, mainbord, GPU, randapparatuur etc. verbruiken niet meer stroom bij een dikker CPU, terwijl er bij een hogere TDP van het CPU wel meer warmte kwijt moet worden gemaakt.
Op zich heb je gelijk, maar de HDD, memory, mainbord, GPU, randapparatuur etc. verbruiken niet meer stroom bij een dikker CPU
Dat hoeft niet waar te zijn, een GPU die bijv. altijd tegen een cpu bottleneck aanloopt kan wel degelijk meer verbruiken met een snellere cpu. Dit geldt ook voor andere hardware.
Schermen, receiver, extra dac, soms een beamer of tv, mixer, geluidsinterface, etc. Ik durf te wedden dat er menig pc is waar de randapparatuur meer verbruikt dan de pc zelf.
jemig wat een berekening. PC's staan meestal geen 24 uur per dag aan en daarnaast komt het gemiddelde cpu gebruik niet boven de 20 a 40% als die wel aan staan als je het mij vraagt.
Ha maar niet uit van 25 ct p kWh want kies je nu voor 1 jaar vast dan ziet je op 32 ct p kWh bij budget energie. Heb je variabel dan zit je op 45 ct p kWh...
Dan compenseert dat voor als je compu af en toe staat te idlen. :P
gemiddeld gezin zou ik in deze zin niet echt gebruiken.... een gemiddeld gezin kan zich amper een degelijke PC aanschaffen laat staan een high end of laatste generatie. Deze week artikel dat een gemiddeld inkomen netto nog geen 20K euro is....

Ik denk dat je eerder richting 3500-4000 kwh mag kijken bij een gezin dat wat mee is in het huidige verdien model (geen zonnepanelen in beschouwing genomen)

[Reactie gewijzigd door d3x op 28 oktober 2021 10:16]

Waarom niet? In een gemiddeld gezin zitten ook de uitschieters naar boven en beneden. Dus de mensen zonder pc en de mensen die 24u hun pc aan laten staan. Deze Intel processoren zijn primair bedoeld voor de consumentenmarkt, dus die 2750 kWh (inclusief pc) per jaar van Nibud lijkt mij een stuk realistischer dan een berekening waarbij je 365 24/7 dat ding vol aan hebt staan.

Ik zit trouwens met mijn gezin op 1800 kWh met energiezuinige apparatuur (zonnepanelen niet meegerekend), maar dat terzijde.
een gemiddeld gezin wordt aanzien met 2 volwassenen en 2 puber kinderen

1800kwh dan ben je een marginaal verbruiker, dan heb je maar 200W per uur.... dat is geen gezin verbruik, ik denk dat je of niks van electrische toestellen (diepvries-ijskast-fornuis-oven-micro-X computers - tv) hebt of gewoon niet juiste berekening hebt.

en idle gebruiken die systemen allemaal in dezelfde range, daarvoor hoef je geen nieuw systeem te kopen. Dan kom je in uw geval voor electriciteist reductie ook toe met een single core celeron.

[Reactie gewijzigd door d3x op 28 oktober 2021 10:22]

Koelkast met vriezer (150w, a+++), wasmachine (a+++) die dagelijks gebruikt wordt, oven, magnetron, Nespresso, waterkoker, rijstkoker, televisie, game pc met beperkte gpu, PS4 , 2 laptops voor thuiswerken, haardroger voor vrouw en kids, 3x per week stofzuigen, en in de winter verwarm ik t kantoortje met een elektrische kachel. Overal led-verlichting, inclusief tuin.

Ik geloof best dat genoeg mensen meer verbruiken dan die 2750 kWh, maar wij verbruiken al jaren tussen de 150-200 kWh per maand. Ik vind het leuk om bij te houden, en wij leven echt niet spartaans.

De zonnepanelen leveren zo'n 3700 kWh per jaar op.

[Reactie gewijzigd door peeceej op 28 oktober 2021 11:40]

In denk dat @d3x wel een punt heeft, die 2730kWh gemiddeld van het nibud is voor alle Nederlandse huishouders, hier zitten dus ook een grote groep alleenstaanden e.d. in.

Als je kijkt naar een gezin van 4 personen (wat vaak gebruikt wordt als een gemiddeld c.q. doorsnee gezin in vergelijkingen) dan rekent het Nibud met gemiddeld 3840kWh per jaar.
Zie ook: https://www.nibud.nl/consumenten/energie-en-water/

[Reactie gewijzigd door Dennism op 28 oktober 2021 11:06]

Nee hij rekent met huidige stroom tarieven
Als je de machine 365 dagen per jaar op 100% load laad draaien dan zou dat natuurlijk wel kunnen.

241W*24*365 dan kom ik op 2100kWh uit.

Gebruik je de pc normaal dan zal dat verbruik vele malen lager liggen natuurlijk. Gebruik je hem wat steviger dan zou je best wel wat meer kunnen verbruiken. Maar 24*7 de pc op 100% laten draaien lijkt me niet echt noodzakelijk. Dan komt daar ook je overige verbruik van de pc er nog bij natuurlijk
[off-topic]

In België ligt het verbruik van een gemiddeld gezin toch net iets hoger:
Gezien een gemiddeld gezin statistisch gezien uit 2,4 personen bestaat, zal het verbruik ook iets hoger liggen dan 3900 kWh. De federale regulator (CREG) en Eurostat gaan uit van 3500 kWh elektriciteit per jaar voor een standaardgezin.
[/off-topic]
Dit soort processoren moet je ook niet 24/7 willen laten stampen! En waarom zou je?
Idle (en bij lage belasting) zou het verbruik juist wel gunstig kunnen zijn, omdat enkel de kleine cores gebruikt worden.
Voor 24/7 systemen kan je beter hele andere oplossingen zoeken. Een Raspberry Pi op 5W bijvoorbeeld.
Als die processor niet lekker staat te stampen kun je net zo goed een mid range processor kopen.
Dan ben je voor een fractie van het geld klaar.
600 euro uitgeven voor een processor om die vervolgens niks te laten doen is zonde van je geld.
Beetje vreemde stelling. De processor gaat hier aan het werk zodra ik de build opdracht geef. (Of het nu gulp, golang of ts is) Hoe sneller dat allemaal klaar is hoe korter ik hoef te wachten. Zo zal het voor de meeste professionals zijn.

Dat ding hoeft echt niet 24/7 te stampen om nuttig te zijn.
Want een systeem af en toe gebruiken om te gamen en dan laten stampen is zonde van je geld? Waarom moet dat ding 24x7 100% load hebben?
Maar onze e-p33n dan?!
Ah, heeft u een threadripper? Zonee, dan valt u samen met mij in de peasant class, als het om e-p33n gaat. ;)
Hij heeft het denk ik enkel over de uptime e-peen. Niet
de prestatiebeest-e-peen.
Dus omdat je totaal maar 300GB per maand verstookt is meer dan 1mbit aan internet snelheid onzin? Prima, ben je grootverbruiker met 3TB per maand, heb je maar 10mbit nodig.
Hoezo?
Als ik wil gamen dan graag op 4K met settings on high, b.v. 12700+3080Ti = 190 W + 450W + zeg 60W voor de rest=700W dat is dus meer dan het complete verbruik van een standaardgezin (400W, gerekend over 24/7). Dat is natuurlijk een obsceen energieverbruik!
Maar als ik per week 8 uur game en het ding voor de rest uit staat, dus 5% van de tijd, dan is het verbruik, gerekend over 24/7 nog "maar" 33W, oftewel 8% van het verbruik van een standaardgezin.
En dan reken je alsof je 24/7 op vollast draait, in praktijk draait de processor het grote gros van de tijd idle.
Dat is niet het geval voor gamers die frequent gamen, die plaatsen urenlang een hoge load op de CPU. En zijn gamers niet de doelgroep van Intel? Ook web servers of databases plaatsen meestal een hoge load op de CPU.

Is Arm Architecture the Future of Cloud Computing?
https://thenewstack.io/is...uture-of-cloud-computing/

Web tier projects are a great starting point for Arm integration. As an example, projects like Apache and NGINX are very popular web servers that already support the Arm architecture. It is worth noting that support for Arm is not the only benefit here, since running NGINX as a caching server or a reverse proxy in an ARM environment will achieve better performance in comparison to x86.

In-memory databases are another area where Arm architecture can provide improvements. Using RISC architecture, applications like Redis can achieve eye-catching performance in comparison to an x86 environment.

Dus ARM is waarschijnlijk beter voor zowel web servers als databases. Wat betekent dat Intel geen kans maakt in de komende jaren.
Server diensten is deze CPU niet voor bedoelt, we hebben het hier over de desktop markt.

Dus ik ben heel erg benieuwd naar hoe je aan die x euro per watt komt per jaar.
Want een gamer moet perse zodra de PC aan staat aan het gamen zijn ? en even wachten op updates enzo bestaat niet?
Ze zijn ook regelmatig gewoon in Windows bezig aan browsen bijvoorbeeld en niet gamen.

Processors staan meer in idle dan je denkt.

[Reactie gewijzigd door mr_evil08 op 27 oktober 2021 22:19]

Het is heel moeilijk om een processor echt volledig aan het werk te houden.

Bij gaming verwacht ik niet dat dat continu het geval zal zijn.

Voor wat betreft databases en webservers; de meeste sites hebben te maken met pieken en dalen in hun belasting. In theorie kan je dan natuurlijk met cloud-computing steeds precies genoeg 'nodes' activeren om ze allemaal op 100% belast te hebben, maar in de praktijk zal er doorgaans overcapaciteit zijn. Ook om ervoor te zorgen dat dat op- en afschalen of het uitvallen van nodes onopgemerkt kan gaan. En als je niet in de cloud zit zal je liefst voldoende capaciteit hebben voor tijdens die pieken.

Verder moeten webservers en databases vaak ook op geheugen-, disk- en netwerk-io wachten. Dat maakt het volledig vullen van de cpu's sowieso al erg lastig.

Tweakers heeft bijvoorbeeld op het moment van schrijven veel overcapaciteit (we zitten niet in de cloud en hebben dus ook geen automatische scaling). Dat zal op aankomende black friday een stuk minder zijn, maar de database is bijvoorbeeld vooral overgedimensioneerd om ervoor te zorgen dat achtergrondtaken niet de boel ernstig in de weg zitten - en dat gedurende de beoogde minimaal 5 jaar aan levensduur ook voldoende kan blijven doen.
Dat betekent echter dat als er geen achtergrondtaak bezig is, dat er dan dus een hoop idle tijd is op cpu-niveau (op moment van schrijven varieert het van 70-90% idle).

[Reactie gewijzigd door ACM op 28 oktober 2021 07:46]

Nu ik er verder over na denk kom ik tot de conclusie dat er maar heel weinig games zullen zijn die meer dan 40% CPU gebruik zullen hebben bij deze nieuwe Intel generatie. Dit kan eigenlijk wel grappig worden over bvb 5 jaar wanneer het 12900K equivalent van die periode dit soort prestaties haalt in 'veeleisende games': https://www.youtube.com/watch?v=mOAneP7rqbI

Een server of database gaat inderdaad meestal tussen 10% en 50% load zitten, maar aangezien die 24/7 draaien en regelmatig langdurig naar > 50% load overschakelen vermoed ik dat energieefficiëntie voor een server wel nog steeds van belang is.

Het enige waarvoor je dus nog > 90% load op dit soort CPU zult hebben is waarschijnlijk voor renderen en sommige zeldzame taken.
Dat is niet het geval voor gamers die frequent gamen, die plaatsen urenlang een hoge load op de CPU.
Ik weet niet wat jij een "frequente gamer" noemt, maar als je een heel jaar lang permanent gamed en dus niet slaapt, eet of naar school/werk gaat is stroomverbruik niet je grootste probleem. :+

In de praktijk zal zelfs een iemand met een flinke game-verslaving zijn best moeten doen om een derde van de tijd te gamen als je daarnaast ook nog school of een baan hebt.

[Reactie gewijzigd door bwerg op 28 oktober 2021 09:29]

Games gebruiken helemaal geen hoge load. Integendeel zelfs aangezien de meeste games gelimiteerd zijn door single core performance. Ik heb ook een CPU die 200-250W kan gebruiken in zoiets als Linpack, maar bij games zie ik hem nooit boven de 100W komen. Vaak gebruikt hij maar 30-50W.

Dan nog zijn er grote verschillen tussen 100% load in een game of 100% load in Linpack.

[Reactie gewijzigd door napata op 28 oktober 2021 14:34]

Dit is precies de reden waarom ik het verbruik altijd meeneem in de kosten. Als je je geld verdient met je computer, heeft het echt veel zin om iedere paar jaar je computer te upgraden, maar ook om die alleen aan te zetten, wanneer die echt nodig is.

Voor normaal gebruik kom ik redelijk uit met een laptop met een Celeron N3060 en als ik dan echt rekenkracht nodig heb, zet ik mijn zwaardere laptops in. Mijn oude desktops (omdat ik geen nieuwere meer heb gebouwd) gebruik ik nauwelijks meer, omdat de voordelen nauwelijks opwegen tegen de nadelen. Zo af en toe een paar uur om een bepaalde taak uit te voeren. De enige machine die altijd aan staat is een ARM SBC met een verbruik van 5W.
Het lijkt allemaal pietluttig gedoe, maar dat scheelt dus inderdaad honderden euro's per jaar aan stroom.

Ik heb nu een CPU upgrade gekocht, waardoor wat eerst op twee computers draaide nu op eentje kan draaien. De dual socket Z800 kan daarmee uit en die mooie Ryzen 5900X heb ik in twee tot drie jaar terugverdiend.
Als je PC een heel jaar lang 24/7 100% utilization heeft, dan heb je daar duidelijk ook een financieel doel mee dus dat lijkt me een nogal scheve berekening.

Gemiddelde PC's zijn 80% van de tijd aan het idlen, als het niet meer is. En bij belasting is het verbruik van een heel systeem zelden 100%. Zeker niet op de CPU - dat geldt alleen maar als je vol parallele workloads aan het pushen bent. En dat is, zeker 24/7, toch echt meer zakelijk gebruik.

Maar het heeft invloed, dat is zeker waar. Deze CPU TDPs zijn simpelweg van de pot gerukt. En het enige doel is minimale winst om in benchmarks mooi voor te komen. ADL presteert alleen beter bij PL1=PL2 en de marketing van Intel is puur en alleen op 241W piekverbruik ge-ent.

Goed om in het achterhoofd te houden. Heb je geen ditto koeling (en nog wat meer dan dat) dan kun je fluiten naar je snellere CPU. Dan heb je netto niets gewonnen behalve een beetje IPC.

Alder Lake is zo schokkend niet voor desktops.

[Reactie gewijzigd door Vayra op 2 november 2021 12:51]

Onafhankelijke reviews afwachten sowieso. Ik vind het ook al apart/verdacht wat en hoe ze presenteren in de benchmarks. In gaming zetten ze zich af tegen zowel de 11th Gen van Intel als ook tegen de 5950X van AMD, maar bij productivity vergelijken ze alleen met hun eigen voorgaande reeks.

Daarbij de TDP waardes....240W, zelfs als dat een realistische waarde is onder full load (en Intels opgaves van verbruik zijn meestal een understatement) is dat nog een flinke toename en fors meer dan de 5950X (die onder full load rond de 180W kan halen). Dan vraag ik mij serieus af wat deze CPUs gaan vergen van de moederborden (de VRMs) en de benodigde koeling. Of krijgen we daar een Bulldozer fiasco, waarbij low end moederborden in theorie wel de highend chips ondersteunden, maar de VRMs het totaal niet aankonden met alle gevolgen van dien.

[Reactie gewijzigd door Moi_in_actie op 27 oktober 2021 18:49]

het belangrijkste om op te letten bij de gaming scores is de test op windows 11, dat welbekende prestatie-problemen opleverde voor AMD omdat microsoft enkel met Intel samen werkte om de p-e scheduler te tweaken. Deze resultaten zullen hoogst waarschijnlijk van voor de update van AMD zijn. Het ziet er dus behoorlijk onbetrouwbaar uit.
Ik verwacht uiteindelijk een kleine "winst" voor Intel op gaming, maar enorme voorsprong voor AMD op productivity. Energiezuinigheid zal ook wel in het voordeel van Intel zijn, op windows 11, maar dat is nog totaal koffiedik kijken.
Maar waar ik helemaal naar uitkijk is de 3D$ die die we van AMD uiterlijk in maart kunnen verwachten, en 15% game performance increase met zich mee brengt.
Ik verwacht uiteindelijk een kleine "winst" voor Intel op gaming, maar enorme voorsprong voor AMD op productivity.
Dat verwacht ik eigenlijk totaal niet, met uitzondering van de winst in gaming. Die verwacht ik ook.

Ik verwacht echter op basis van de bekende geruchten (die bijna alleen maar over productivity workloads gingen) dat:

De 12600K de 5600X zal verslaan in gaming en productivity.
De 12600K mogelijk zelfs in de buurt komt van de 5800X m.b.t. productivity en wint in gaming.
De 12700K de 5800X zal verslaan in gaming en productivity
De 12700K mogelijk zelfs in de buurt komt van de 5900X m.b.t. productivity en wint in gaming.
De 12900K de 5900X zal verslaan in gaming en productivity.
De 12900K mogelijk in de buurt komt van de 5950X m.b.t. productivity en wint in gaming.

Die enorme voorsprong van AMD verwacht ik dus eigenlijk niet, al zal denk ik de 5950X wel de consumenten Sku blijven met de beste productivity resultaten accross the board. Echter verwacht ik dat AMD het in de andere segmenten lastig gaat krijgen, ook qua multithread performance. Zeker in het middensegment waar de 5600X tegenover de 12600K staat.

In ieder geval tot de Zen 3 met V-Cache release, dan kan alles uiteraard weer veranderen.

[Reactie gewijzigd door Dennism op 27 oktober 2021 20:12]

Ah dat is waar ook, het onderscheid in de sku s had ik niet gemaakt. Ik had het over de topdogs. En die hogere kloksnelheid van de i9, denk niet dat het verschil van 8power cores (8 power in Intel, 16 in AMD) dat kan overbruggen in de productiviteit.
Maar, de 6 vs 6 in de 600sku, die zal Intel idd gemakkelijk kunnen pakken. Daar ben ik het met je eens. Intel zal dus voor de pc's op het middensegment de betere keus blijven.
Maar voor het betere budget segment weet ik het nog niet zo zeker, want die prijzen zijn wel echt een stuk hoger voor alder lake. Misschien dat een 11e generatie erom kan spannen met AMD, zeker na de q1 5xxx xt release, wanneer de 5xxx prijzen wat goedkoper zullen worden.
Voor het echte budget is een 11400 nog altijd de beste.

[Reactie gewijzigd door Brattoes op 29 oktober 2021 12:34]

Met de oplopende energie prijzen gaat het hoge stroomverbruik van intel wel een rol spelen, zelfs bij consumenten. De genoemde 150 Watt voor de intel 12600 tegen de 65 Watt van de AMD 5600X zorgen jaarlijks voor een extra kostenpost bij de intel 12600 en niet bij de AMD 5600X. Dan slaat de balans al snel om.
Dat kan uiteraard wat schelen, echter een PC is veel vaker idle dan dat deze op vol vermogen draait, en volgens mij heeft Intel nog altijd een lager stroomverbruik idle.

Op volle load zal AMD inderdaad een voordeel hebben, hou er echter wel rekening mee dat een AMD 65W Sku 76W of 88W mag verbruiken, bij AMD moet je voor het maximale verbruik op stock kijken naar de PPT waarde, niet naar de TDP waarde.

Hou er ook rekening mee dat een cpu vrijwel nooit onder volle load zal draaien bij normaal gebruik door een consument, bijvoorbeeld bij gaming, youtubing, browsing, thuiswerken / schoolwerk e.d. zal je dat soort waardes (vrijwel) niet halen en zal het verbruik veel lager zijn.

Neemt niet weg dat AMD nog altijd zuiniger zal zijn (en mogelijk ook efficiënter, al hangt dat af van het werkelijke verbruik en de performance in een bepaalde workload) onder bepaalde workloads, maar je kan niet zeggen de Intel 12600K kan maximaal 150W verbruiken en een AMD 65W Sku slechts 76W of 88W dus de AMD zal per uur minimaal 0.062kWh besparen. Daarvoor moet je echt het stroomverbruik gaan meten bij jouw eigen gebruik van de PC, en die verschillen zullen zeer waarschijnlijk op jaarbasis een stuk kleiner zijn dan dat je nu denkt :)
Het begint wel een beetje op meten met twee maten te lijken. Ik kan me nog een tijdperk herinneren waar steen en been geklaagd werd dat AMD enkele Watts meer nodig had dan intel voor dezelfde prestaties.
Nu intel het dubbele of drie keer zoveel watts nodig heeft is het ineens geen probleem meer. :?

Je koopt zo'n zware cpu natuurlijk niet voor niets. Wanneer je die koopt voor wat browsen en een enkele email gaat er sowieso iets niet goed.

Stel even dat die intel cpu over 24 uur per week 85 Watt meer verbruikt dan de AMD. Dus 144 uur niet.
Dan kost dat bij de huidige hoge kwh koers van 40 cent al snel 106 X 40 = 42 euro per jaar extra.
Bij een afschrijving van 5 jaar dus 212 euro extra voor de stroom vretende intel.
Stel even dat die intel cpu over 24 uur per week 85 Watt meer verbruikt dan de AMD. Dus 144 uur niet.
Dan kost dat bij de huidige hoge kwh koers van 40 cent al snel 106 X 40 = 42 euro per jaar extra.
Bij een afschrijving van 5 jaar dus 212 euro extra voor de stroom vretende intel.
Dat klopt, echter zal je dat in de praktijk niet zo snel zien. Als jij immers een youtube filmpje kijkt, in een teams sessie zit of een game speelt verbruikt die cpu, of dat nu Intel is of AMD niet het maximale. De situatie dat een Intel cpu structureel in een consumenten PC 85W meer verbruikt zal dus ook (vrijwel) nooit voorkomen. En waar gaat het nu om, om een theoretisch maximaal verbruik dat je zelf vrijwel nooit zal ervaren, of het werkelijke verbruik dat je tijdens jouw workloads gaat hebben. Dat laatste is natuurlijk waar je uiteindelijk je aankoop beslissingen op moet baseren, niet op het eerste, dat is immers vrij onzinnig.

Ga zelf maar eens meten wat jouw cpu (niet je PC wanneer mogelijk) daadwerkelijk verbruikt wanneer je de zaken doet die normaliter doet. Dat zal je ziet dat bij normaal gebruik (tenzij je 24/7 aan het renderen bent ofzo) je verre van maximaal verbruik voor een cpu zal zitten.
Het begint wel een beetje op meten met twee maten te lijken. Ik kan me nog een tijdperk herinneren waar steen en been geklaagd werd dat AMD enkele Watts meer nodig had dan intel voor dezelfde prestaties.
Dat geklaag was dan ook vaak net zo onzinnig dan dat het andersom nu is.
Je koopt zo'n zware cpu natuurlijk niet voor niets. Wanneer je die koopt voor wat browsen en een enkele email gaat er sowieso iets niet goed.
Geloof me, je wil ze de kost niet geven. Genoeg mensen die een uurtje of wat per dag gamen of een andere wat meer eisende taak uitvoeren voor de hobby of het werk, maar de rest van de tijd alleen maar aan het youtuben, zoomen of e-mailen of zelfs niet met de PC aan het doen zijn. Je koopt dan zo'n cpu uiteraard bijvoorbeeld voor het gamen, maar dat betekent niet dat gamen ook hetgeen is dat je het meest doet.

Ik heb hier bijv. een Ryzen PC die soms even wat zwaarder belast wordt omdat ik even een homelab situatie moet opstarten via virtualisatie voor het werk of voor cursus of wanneer ik s' avonds een game speel. Maar het over grote deel van de tijd staat dat ding cpu technisch niets te doen.
Een bekend verhaal, wanneer het andersom niet zo lekker uitkomt is het ineens allemaal niet waar. :)
Ik begrijp niet heel goed wat je hier bedoeld, ik leg je netjes uit hoe het in de praktijk zit, waar je als aspirant koper op moet letten (het werkelijke gebruik bij de workloads die jij gaat uitvoeren, en niet de theoretische maxima) en waar jouw redenatie misloopt (je blijft rekenen met het maximale theoretische verbruik, waarbij je dat van AMD nog mis hebt ook nog, immers je moet bij AMD naar PPT kijken, niet naar TDP, daar PPT AMD's maximale verbruik aangeeft), misschien zou je eens inhoudelijk kunnen reageren in plaats van met dit soort troll achtige reacties? Ik wil best een discussie voeren, maar dan wel op inhoud, niet op onderbuik gevoelens.

Of heb je simpelweg geen reactie op de inhoud, omdat jouw redenatie niet klopt en kom je daarom met een inhoudsloze, niet kloppende oneliner, dat zou jammer genoeg wel erg zwak zijn.

[Reactie gewijzigd door Dennism op 30 oktober 2021 10:21]

Inhoudelijk reageren met een theoretisch maximum ? Geen probleem, u vraagt wij draaien. :)

Bij 85 Watt extra verbruik door de stroom vretende intel cpu kost dat over 5 jaar levensduur vd cpu:
85 X 24 X 365 X 5 = 3723 kilowattuur extra. Bij huidige stroomprijs kost dat 1490 euro meer dan de AMD.
Bij de aanschaf van de intel cpu betaal je dus nog 5 keer het aanschafbedrag aan extra stroom kosten.
TCO intel i5 12600 over een periode van 5 jaar: 1780 euro.

Ik ben zelf meer iemand van de praktijk maar wil best kijken naar je theoretisch maximum, no problemo.
Nu ga je hieronder weer reageren dat het allemaal niet realistisch is, maar dan blijven we bezig. :O
Nee, ik geef juist aan dat je niet naar het theoretisch maximum moet kijken, dat is immers onzinnig en inderdaad niet realistisch. Waarom blijf je daarmee rekenen, terwijl je volgens mij uitstekend begrijpt dat het onzinnig is. Het doorhameren op dat theoretische verbruik is nu juist wat zo trollerig overkomt ;)

Ik haal de merknamen even uit de discussie, want dat lijkt de discussie schijnbaar te vertroebelen omdat Intel als een rode lap lijkt te werken en zal je de volgende vraag stellen, hier draait je discussie immers om:

Er zijn 2 processors op de markt waar jij tussen moet / wil kiezen, Y en Z, wanneer je een aspirant koper bent voor een van deze processoren ben jij dan van mening dat je naar het verbruik in de praktijk moet kijken, en dan enkel naar verbruik tijdens jouw specifieke gebruik (dus de workloads die jij uitvoert) van de PC, waardoor je het daadwerkelijk verschil in kosten in beeld hebt tussen Y en Z tijdens de periode dat jij het systeem zal gebruiken (bijvoorbeeld jouw 5 jaar) of ben jij van mening dat je moet gaan rekenen met het theoretische maximale verbruik, wat een heel groot getal is, maar in de praktijk nooit zal kloppen.

[Reactie gewijzigd door Dennism op 30 oktober 2021 10:49]

Misschien kun je zelf dan ook iets minder op de man reageren ?
Volgens jou ben ik inmiddels een "inhoudsloze onderbuik gevoelens spuiende troll".
Dat lijkt me op zijn minst niet helemaal de gewenste omgangsvorm hier. O-)
Excuses als dat zo overkomt, zo negatief bedoelde ik het niet. Ik vind het alleen wel jammer dat ik moeite steek in deze reacties, maar dat jij telkens de inhoud negeert, mij beschuldigd van partijdigheid en dat komt niet echt netjes over.

Dat gezegd hebbende, inhoudelijk dan maar weer?
Inderdaad, geeft Windows 10 dan een beter beeld van de echte prestatie winst ?
Want Windows 11 is in samenwerking met Intel gemaakt om die E cores beter te benutten etc....
Je moet wel gelijke test omstandigheden hebben natuurlijk :P
Eerst zien dan geloven :)
Eerlijk gezegd zou het mij niet eens uitmaken als hij beter presteert in windows 11 dan 10 vanwege de nieuwe layer die te threading aanstuurt. Alles voor meer performance toch. De prestatie boost van 30% klonk erg interessant. Evenals het deeplink gedeelte waarbij je geen performance impact op gaming hebt als je gelijktijdig streamt.
Ik denk eerlijk gezegd niet dat je met alder lake op window 10 moet gaan testen, want ik weet niet of W10 daar ook geschikt voor is op de p-e cores te kunnen schedulen. Een goede vergelijking is dus denk ik nog niet mogelijk, totdat Windows 10 en/of AMD hun volledige optimalisaties hebben doorgevoerd. Het is dus nog even wachten tot we echt goede vergelijkingen kunnen maken.
Daarbij de TDP waardes....240W, zelfs als dat een realistische waarde is onder full load (en Intels opgaves van verbruik zijn meestal een understatement) is dat nog een flinke toename en fors meer dan de 5950X (die onder full load rond de 180W kan halen). Dan vraag ik mij serieus af wat deze CPUs gaan vergen van de moederborden (de VRMs) en de benodigde koeling. Of krijgen we daar een Bulldozer fiasco, waarbij low end moederborden in theorie wel de highend chips ondersteunden, maar de VRMs het totaal niet aankonden met alle gevolgen van dien.
Zelfs 180W is enorm; dus AMD geeft voor zijn 5950X ook niet de echte maximale waarde op?

Ik heb een bepaalde workload die de computer soms 24 uur ofzo volledig belast, op alle cores. Nog los van de hoge TDP's is het voor deze workload erg vervelend om cores te hebben van verschillende typen. In een volgende processor, voor mijn hoofdsysteem, wil ik echt een CPU met 16 of meer dezelfde cores; en dat hoeft dan nog niet eens de snelste processor te zijn.

Ik denk erover om er een computer naast te nemen met een AMD 5700G voor deze workload, totdat Zen4 uitkomt, want ik ga niet mijn huidige computer vervangen voor een PC gebaseerd op het AM4-platform. Dan wacht ik wel totdat Zen4 op AM5 uit is, en Debian 12 beschikbaar is ergens in augustus 2023. Als Zen4 in 2022 uitkomt, dan zouden de kinderziektes ook uit de moederborden en BIOS-sen moeten zijn.

Onafhankelijk van hoe de prestaties van de Core 12 serie gaan uitdraaien, gaat deze serie het hem niet worden. De enige kans dat ik nog een Intel-CPU ga aanschaffen is als ze in de Core 13-serie of in een nieuw HEDT-platform komen met een "ultra-highend"-model met 16+ gelijke cores. (En als er dan nog extra kleinere cores op zitten, dan zal ik die waarschijnlijk uitschakelen omdat die voor mijn workloads niet geschikt zijn; net zoals voor sommige workloads hyperthreading en turbo-boost ook niet geschikt is die dan door sommige mensen uitgeschakeld worden.)

[Reactie gewijzigd door Katsunami op 28 oktober 2021 01:56]

De 5800X, 5900X en 5950X hebben een TDP van 105Watt en zijn standaard gelimiteerd tot 140Watt. (De 5600X heeft een TDP van 65W en is gelimiteerd op 90W of 95W.)

Los daarvan, persoonlijk vind ik het wel een welkome wijziging van Intel om open kaart te spelen over het verbruik. Dus geen misleidend TDP meer waarbij het reële verbruik meer dan dubbel bleek eens alle turbo-levels inkickten.
Enerzijds kan ik het wel begrijpen dat Intel geen benchmarks van een concurrent erbij zet maar anderzijds kan je ook denken van wat steekt daar verder achter. Je zou dan inderdaad ook kunnen denken dat ze die expres niet erbij zetten omdat dan de cijfers ietwat minder gunstig uitvallen. Daarvoor blijft het nu nog koffiedik kijken en eerst maar eens afwachten op onafhankelijke benchmarks en vergelijkingen.

Qua VRM's denk ik dat het niet zo'n vaart zal lopen want mensen die de meer high-end cpu's kopen van Intel zullen ook meer high-end moederboarden gaan gebruiken. Maar oke, ook dan valt af te wachten hoe goed/slecht fabrikanten de koeling van VRM's hebben aangepakt. Zal je misschien gaan zien dat prestaties tegenvallen van die 12 gen cpu's door beperkingen van de koeling.
Volgens onderstaand artikel heeft Intel geen productiviteit vergelijkingen gemaakt met AMD voor deze generatie omdat Intel op dit gebied gelijkaardig gaat zijn met de AMD processors, maar waarschijnlijk met een lichtjes hoger verbruik. In gaming gaat Intel uiteindelijk maar +- 9% sneller zijn dan de huidige AMD generatie, ipv de cijfers die Intel opgegeven heeft.

Intel Core i9-12900K Used 2.3x Power than the Ryzen 9 5950X in Official Benchmarks, Lacked the Win 11 L3 Cache Fix https://www.hardwaretimes...-the-win-11-l3-cache-fix/
Ja en dat is juist het punt wat ik wil maken namelijk dat het meer een uitdaging is prestaties te verhogen met een juist lager verbruik. Sterker nog, ik vind het zelfs al een grotere prestatie wanneer het verbruik gelijk zou blijven en alleen prestaties omhoog zijn gegaan. Deels scheelt dat weer in de energierekening maar deels ook niet te vergeten dat het qua koeling kan schelen. Zie ook dat b.v. de gen 12 cpu's alleen tot hun max gaan wanneer de koeling toereikend is en natuurlijk het moederboard dit toe laat.

En tja wanneer ik een vergelijk maak tussen mijn desktop met Intel cpu en de laptop met een wel dan mobiele AMD cpu dan doet die AMD cpu het simpelweg beter. Prestaties zeg ik nog van dat het niet helemaal een goede vergelijking is namelijk een Ryzen 7 vergelijken met een i5 van Intel. Evenzogoed is die Ryzen 7 een mobiele cpu die dan een stuk hoger scoort met lager verbruik.
Het artikel dat ik vermeld had was enkel bedoeld om te bevestigen dat Intel Alder Lake waarschijnlijk inderdaad gelijkaardig gaat zijn aan de Ryzen 5000 generatie. (op gebied van algemene prestaties mbt productiviteit workloads)

Ik ben ook van mening dat een nieuwe generatie niet meer zou moeten verbruiken dan een voorgaande generatie. Maar Intel heeft nodes die minder efficiënt zijn dan de nodes van TSMC. En AMD gebruikt bovendien waarschijnlijk een heel efficiënt en schaalbaar design voor deze TSMC nodes.

We zijn 2021, maar de architectuur die Intel momenteel gebruikt is nog steeds gebaseerd op de Nehalem generatie uit 2008. (https://www.techpowerup.c...y%20as%20its%20new%20CEO.) The original "Nehalem" CPU microarchitecture from 2008 was pivotal to Intel, as it laid the foundation for Intel's mainline server and client x86 processors for the following 12-odd years. En Intel gaat blijkbaar pas terug innoveren rond 2025: https://www.theverge.com/...e-roadmap-naming-7nm-2025

Intel heeft nu wel het geluk dat er momenteel een chip tekort is, zodanig dat ze hun productie makkelijker kwijt kunnen. Maar zonder chip tekorten had Intel waarschijnlijk heel veel marktaandeel verloren. Wat ik me persoonlijk afvraag is wat Nvidia met ARM van plan is. Gaan ze ARM competitief gebruiken om de processormarkt en grafische markt te domineren en gigantische innovaties te maken? Of hebben ze ARM enkel opgekocht om geen echte concurrentie te hebben? (zodat hun positie niet in gevaar kan komen en de CPU en GPU markt niet gedwongen worden om sterk te innoveren)

Verder is er op gebied van efficiëntie nog een laatste vraag die misschien belangrijker is dan wat Intel, AMD en Nvidia momenteel doen. Volgend jaar komen 3nm nodes en rond 2025 of 2026 gaan we waarschijnlijk 1nm nodes hebben. Maar ik heb mijn vragen of deze 3nm, 2nm en 1nm nodes even duurzaam en kwalitatief gaan zijn als de huidige nodes. Want je zit dan met heel veel problemen zoals quantum tunnelling en enkele andere problemen.

1 nanometer is meestal 2 tot 5 'silicon atomen'. Dus je kunt niet veel kleiner gaan. De transistor industrie zit hierdoor over enkele jaren bijna volledig vast. En dat is een probleem als je weet hoe snel de IT en AI sector groeit. We kunnen om deze redenen concluderen dat Intel, AMD en Nvidia al jaren zitten verder te boorduren in een doodlopend straatje. En dit is blijkbaar al decennialang geweten dat men al de biljoenen investeringen die in transistors decennialang gestoken zijn eingenlijk tijd en geld verspilling zijn geweest omdat lichtcomputers waarschijnlijk superieur en noodzakelijk zullen zijn: https://www.heise.de/hint...chnen-laesst-6165686.html
Daarvoor denk ik dat het nu juist belangrijk word dat er gekeken word naar meer efficiënte cores in plaats van het telkens verkleinen van transistoren. In die zin ligt Intel gewoonweg achter en proberen ze nu alleen maar prestatie te leveren in plaats van efficiëntie. Dit heeft deels natuurlijk vooral met concurrentiepositie te maken wat wel begrijpelijk is maar niet bijdraagt aan ontwikkeling.

Ik denk ook dat het niet alleen in het hardware deel gezocht moet worden maar ook softwarematig OSsen en programma's efficiënter moeten worden. Een tijd lang zag je dat men zoiets had van ach de hardware is krachtig genoeg dus hoezo efficiëntie. Daardoor is men een beetje te zeer verwend geraakt met ietwat uitzondering daarin Apple en Linux.

Apple heeft dan wel weer het nadeel dat zowel hardware als software erg dichtgetimmerd zit en niet direct universeel is. Linux daarentegen laat zien dat je ook universeel kan werken en het OS in elk geval ook werkt op eenvoudige energiezuinige hardware. Windows daarentegen blijft gewoon een lomp OS net als alle toepassingen ook eigenlijk best lomp zijn.
Deze cpu's zullen in de basis niet meer gaan vragen dan voorheen. Ook niet met deze aanpassing van TDP naar Base en Boost vermogen. Benodigde koeling zal dus ook niet veel verschillen en VRM's zijn op fatsoenlijke borden al jaren overkill en geschikt voor loads tot ver over de 300W en dus ook geen issue. Waarom niet?

Omdat DiY moederbord fabrikanten al jaren trucjes gebruiken om deze PL1=PL2 modus onofficieel te activeren op DiY moederborden. Wat Intel nu 'Processor Base Power' noemt is wat Intel voorheen specificeerde als TDP. Turbo Power is wat DiY fabrikanten al jaren standaard unlockten door zaken als ongelimiteerde Tau waardes. Alleen op borden in de onderkant van de markt waren deze trucjes niet altijd standaard, dat zal nu mogelijk wel gebeuren en daar zou je dus mogelijk wel wat grote aanpassingen kunnen zien in VRM kwaliteit.

Voor DiY builds zal er in de praktijk dus niet veel veranderen, het enige dat hier gebeurt is dat wat vroeger een trucje was van moederbord fabrikant nu officieel support wordt door Intel als operationele modus.

[Reactie gewijzigd door Dennism op 28 oktober 2021 10:01]

Ik vraag mij vooral af wie een 5950X gaat runnen met 3200MHz ram (zonder we de timings weten) en op Windows 11 zonder de patch. Goed setje 3600MHz met strakke timings en windows 10 gaan hier al goed helpen en het verschil een heel stuk verkleinen!
Dat je DDR4-3200MT/s gebruikt voor reviews is heel logisch. Het is immers het maximale dat AMD officieel ondersteund.
Daar je niet overclocked wil testen in je baseline resultaten is DDR4-3200MT/s dus de norm voor Zen 3 cpu's in reviews.
Datzelfde zal je met Intels 12th gen ook gaan zien, daar zullen de cpu's ook niet getest worden met sneller ram dan dat Intel officieel support.
Hou er ook rekening mee dat 3600MT/s niet werk op iedere Ryzen cpu, ik heb hier bijv. een exemplaar met een dud ICM, waardoor deze niet stabiel wil werken op 3600MT/s, terwijl een andere Ryzen het in hetzelfde systeem prima doet op 3600MT/s.

Vrijwel iedere hoog aangeschreven reviewer gebruikt DDR4-3200MT/s voor hun cpu reviews in combinatie met Zen 3 (en uiteraard ook Zen 2 en bijv. Intels 11th gen. Zie o.a:
Anandtech: https://www.anandtech.com...5800x-and-5700x-tested/11
Techspot (is Steve van Hardware Unboxed): https://www.techspot.com/review/2131-amd-ryzen-5950x/
Gamers Nexus tests methodology: https://www.gamersnexus.n...-2020-compile-gaming-more

Windows 11 is natuurlijk wel een terechte opmerking, gelukkig is AMD's nieuwe chipset driver de 21ste gereleased dat de problemen met 'Preferred cores' oplost, en is ook de benodigde Windows Update vanuit Microsoft voor het L3 issue uitgekomen en zijn beide problemen volgens AMD opgelost, Zie ook: https://www.amd.com/en/support/kb/faq/pa-400
als je zo'n situatie wilt gebruiken om ze te vergelijken dan ben je de naam reviewer onwaardig en hoop ik dat AMD je schrapt bij het uitdelen van de volgende review-samples.

*edit* zie mijn reactie hieronder, dit is niet als persoonlijke flame bedoeld!!!

[Reactie gewijzigd door dasiro op 27 oktober 2021 20:30]

De vergelijking is van Intel, dus verbaast het niet dat men AMD met performanceproblemen wil laten zien.
huh wtf??? Als je windows 11 zonder patch draait komt AMD er juist sléchter uit en dat is net wat ik NIET wil zien in de resultaten, omdat je dan op voorhand weet dat ze een vertekend beeld geven.

Die karma-punten kan ik nix aan doen, die zijn op een duistere manier toegekend door tweakers op basis van reactiemoderaties. Ik snap dan ook niet waarom mijn reactie zo zwaar wordt gedownmod.
Aangezien die patches al uit zijn (zie https://www.amd.com/en/support/kb/faq/pa-400 ) verwacht ik niet dat dit een issue gaat zijn, en als die patches niet released zouden zijn zouden de gerenommeerde reviewers echt niet gaan testen met een ongepatchte windows 11 zonder daar zeer duidelijk in te zijn.
inderdaad, daarom snapte ik niet waarom daar +3 en +2 voor werd uitgedeeld, want zo'n situatie raakt kant noch wal, waarmee je je *als reviewer* gewoon belachelijk zou maken als je zo'n config met een 12th gen zou willen vergelijken.
Goh die nieuwe Intel CPU's zijn sneller dan AMD in gaming, alleen "ze vergeten te vertellen" dat dit in Windows 11 pro is (kleine letters), en dat AMD stelselmatig nog steeds under performed in Windows 11. (Patch is onderweg)

Ben ook benieuwd wat de stroomkosten worden met die TDP.

En die eerste grafiek is niet echt indrukwekkend.

Ander onderwerp, Geekbench moet vernieuwen en meer relevant worden:

dus:

- Single core:
- Multi core.
- Verbruikte Wattage
- Performance / Watt
- CPU troughput.
Goh die nieuwe Intel CPU's zijn sneller dan AMD in gaming, alleen "ze vergeten te vertellen" dat dit in Windows 11 pro is (kleine letters), en dat AMD stelselmatig nog steeds under performed in Windows 11. (Patch is onderweg)
Beide patches zijn al bijna een week beschikbaar:
Zie deze support pagina van AMD:
https://www.amd.com/en/support/kb/faq/pa-400

Dat Intel test onder Windows 11 is trouwens logisch, immers heeft Intel flink ingezet, in samenwerking met Microsoft, op een betere scheduler die, schijnbaar (moet natuurlijk nog getest worden in onafhankelijke reviews) alleen optimaal werkt in Windows 11.

[Reactie gewijzigd door Dennism op 27 oktober 2021 20:00]

Apple had in de M1 Chip (vorig jaar November) al een scheduler aan het werk.

https://www.extremetech.c...-apple-m1s-responsiveness
Dat klopt, maar dat dit gaat specifiek over de combinatie Microsoft en Intel, waardoor je dus zou moeten zien (let wel, benchmarks moeten dit nog uitwijzen) dat Intels 12th gen cpu's beter presteren onder Windows 11 dan onder Windows 10. Deze oplossing is deels hardware (Intels Tread director) en zit deels in het OS (qua Windows voor zover bekend alleen in Windows 11), qua Linux is Intel ook bezig om daar support te bieden, echter week ik niet of dat in de nu courante distributies al opgenomen is, daarvoor gebruik is consumenten versie's van Linux te weinig.

Dat Apple dit ook heeft in combinatie met hun OS'sen klopt, maar dat zal voor reviews waar AMD en Intel getest worden op Windows 11 (en waarschijnlijk ook op Windows 10) niet heel relevant zijn.

[Reactie gewijzigd door Dennism op 27 oktober 2021 20:26]

Ik wacht inderdaad wel op Anandtech en GamersNexus, dan heb ik de twee beste ook gelijk gehad :P.
Inderdaad, ben benieuwd naar de echte reviews ipv de slager die zn eigen vlees keurt }:O
Beiden kijk ik ook vaak maar vergeet ook niet Der8auer die ook altijd alles neutraal bekijkt en test. Meestal vorm ik mij dan een gemiddeld beeld van verschillende reviewers en trek daar mijn eigen conclusie uit.
Dat heb ook…. ben (nog) geen Apple adapt qua PC/laptop, maar de M1 is wel zeer indrukwekkend qua verbruik en prestaties. Misschien toch maar eens een Mini proberen om te zien of MacOs bevalt.
Ik heb zelf een 9 serie gekocht 2 jaar geleden een koffie lake met asus moederbord.
Hij doet alles wat hij wilt maar in die 2 jaar tijd zijn wel 3 nieuwere processors op de markt gekomen met nu dus met de twaalfde generatie een platform update met natuurlijk ddr5 en pciexpress 5.0.
Met dat in het achterhoofd zullen dus nieuwere videokaarten komen en nieuwere m2 harde schijven, wat dus op dat nieuwe moederbord moet gaan werken.Ik vind het allemaal erg snel gaan anno 2021.
Vooral met de pciexpress versie nummers.
Of het is latijd zo snel gegaan, zodat ik het niet in de gaten had.Ze zouden dus een hybride chip maken van golden cove en gracemont cores die dus die taken allemaal gaan afhandelen voordat windows idle gaat,Het licht er ook aan hoeveel intern geheugen dat je hebt.

[Reactie gewijzigd door rjmno1 op 27 oktober 2021 20:15]

Op zich lijkt het wel veelbelovend maar ik wacht ook liever eerst de onafhankelijke reviews af van b.v. Tweakers en alle andere Youtube reviewers.
In vind die gamebenchmarks niet echt denderend.. nauwelijks vooruitgang in flink wat games.
Maar een M1 draait geen Windows en kun je niet goed op gamen.
Het is natuurlijk allemaal wel leuk en aardig dat de 12de generatie dezelfde prestaties als de 11de generatie neer zet met dan de helft van het verbruik. Maar evenzogoed wanneer je dan de cpu op zijn staart trapt schiet het verbruik weer naar hetzelfde niveau als de vorige generatie. Tuurlijk kan je zeggen dat dan toch de 12de generatie zuiniger is maar in de praktijk ligt het toch weer anders.
Dat geldt voor alle generaties.
Bij de eerste sheet van de benchmarks staat dat er getest is met ddr5 op 4400mhz vs ddr4 op 3200 mhz. Dan ben je al niet appels met appels aan het vergelijken. Dan ook nog eens op Windows 11, wat echt nog maar door een mega klein percentage gebruikt wordt. Dit is gewoon cherry picken wat Intel doet.
Precies daarom raad ik iedereen een Asus moederbord aan. Asus is bij mijn weten de enige die Intel cpu's binnen de spec houdt (los van OC Features). Alle andere fabrikanten voeren zelf 'vanilla' de voltages gigantisch op zodat zelfs het slechtste stukje silicon 0.3 bclk erbij krijgt oid. Gamers Nexus heeft daar een jaar of wat geleden goed onderzoek naar gedaan.
Asus doet dat ook gewoon hoor, tenzij ze er recent mee gestopt zijn. Misschien niet op alle borden, maar de top borden van Asus gebruik(t)en ook gewoon ongelimiteerde Tau waardes waardoor deze onbeperkt kunnen boosten en dus (veel) meer verbruiken dan je zou verwachten op het eerste gezicht.

[Reactie gewijzigd door Dennism op 28 oktober 2021 10:05]

Uit de enige test die mij daarvan bekend is (van gamers Nexus) kwam het rog bord er als enige uit dat 'vanilla'/out of the box binnen de spec van Intel bleef.
Het Asus board dat ik hier in mijn 2de machine heb doet dat bijv. niet. Maar dat is een bordje van de vorige generatie. Misschien dat Asus in latere modellen het leven gebeterd heeft :)
Dit doet Asus niet meer hoor. MCE staat default aan.
Het is natuurlijk allemaal wel leuk en aardig dat de 12de generatie dezelfde prestaties als de 11de generatie neer zet met dan de helft van het verbruik. Maar evenzogoed wanneer je dan de cpu op zijn staart trapt schiet het verbruik weer naar hetzelfde niveau als de vorige generatie. Tuurlijk kan je zeggen dat dan toch de 12de generatie zuiniger is maar in de praktijk ligt het toch weer anders.
Je presenteert het als een tegenstelling maar dat is het niet. Als Intel de prestatie per watt zou verdubbelen en tegelijkertijd het maximale toegestane verbruik zou halveren dan eindig je met een product dat exact even snel is. Aangezien Intel nu op AMD achterloopt is dat geen aantrekkelijke optie.

Wanneer de architectuur het aan kan (een Ryzen krijg je niet op 5.2 Ghz) en je wil die prestatie kroon dan is het helemaal niet gek om een hoger vermogen toe te staan. Natuurkundig is het zo dat hoe hoger de frequentie des te meer voltage nodig is (2v*frequentie). Daar volgt automatisch uit dat je op dat prestatie punt een stuk minder efficiënt gaat zijn.

Is alles dan voor niets? Nee want persoonlijk ben ik met mijn 8700K in geen enkele game momenteel cpu limited. Zou ik upgraden naar een Alder Lake dan ga je die chip deels belasten en dan ga je profiteren van de hogere prestaties per watt. Pas wanneer ik een nieuwe videokaart (3090 oid) zou aanschaffen zou ik wellicht meer cpu kracht nodig hebben en dus al dan niet wat meer gaan verbruiken. Dat is het mooie van de huidige techniek, ze verstoken alleen waar je om vraagt.

Bij videokaarten zie je al een tijdje hetzelfde. De prestaties per watt nemen toe maar de maximale vermogens ook. Hierdoor nemen de prestaties verder toe dan alleen mogelijk zou zijn op basis van prestatie per watt verbeteringen. Opnieuw ga je deze wattages alleen halen als je daadwerkelijk zoveel rekenkracht aanspreekt. Dit laatste heb je zelf in de hand (resolutie, fps caps). Wanneer ik Civilization speel dan vind ik 60 fps prima en dan draait mijn systeem op een veel lagere load dan in een willekeurige shooter.

[Reactie gewijzigd door sdk1985 op 28 oktober 2021 14:28]

Waar ik veel meer naar kijk is dat we aan alle kanten bezig zijn met zuiniger omspringen met energie. Tja als ik dan kijk naar een max TDP van 241 watt kan ik niet zeggen dat dit zuiniger is. Waarbij je er vanuit kan gaan dat mensen die dit soort cpu's kopen ook alles eruit willen halen. Dus even ongeacht of hogere prestaties automatisch meer energie vergt, iets waar je ook vraagtekens bij kan zetten.

Persoonlijk vind ik dus de uitdaging niet zitten in hogere prestaties maar juist in de combinatie energieverbruik t.o.v. hogere prestaties. Als je pakt bij b.v. dan de 12900 K zijn de prestaties wel verdubbeld maar het verbruik is ook net zo goed het dubbele. Je bent het dan toch hopelijk met mij eens dat het een betere prestatie van Intel was geweest als het verbruik dan maar b.v. 170 watt was geweest. Liefst natuurlijk nog lager maar dan dus met dubbele prestaties.

En ja dan ontkom je er niet aan dat Apple met die M1 cpu wel aantoont dat het kan, even ongeacht dan hoe ze dit gedaan hebben. Ook heeft AMD hier naar mijn mening 'betere' stappen in gemaakt vooral als je naar de mobiele cpu's van AMD kijkt. Let wel, ik ben geen AMD fanboy of Intel fanboy, ik gebruik zelfs beiden op het ogenblik. In mijn desktop heb ik een i5 11400, prima cpu, krachtig en niet duur, en dan in de laptop zit een AMD Ryzen 7 5800H.
Je verwart hier de 'topsnelheid' met de normale snelheid. Kijk bijvoorbeeld naar een 11900K (125W/251W) high end systeem met een RTX 3090 op 4K dan praat je over een gemiddelde van 68W. Er zijn pieken naar 240watt, maar het gemiddelde over de hele run is 68W. Het heef totaal geen nut om te doen alsof 241W het gemiddelde standaard verbruik in een normaal office/gaming scenario is.

Permanent dat soort vermogens kan alleen bij een combinatie van unlimited turbo (via de board partner), extreme koeling en een render/compile taak. Die taken zijn dan sneller klaar en gegeven de hogere prestaties per watt zal de totale benodigde energie voor die taak dan ook minder zijn dan de vorige generatie. Overigens kun je naast via de UEFI/BIOS in het OS de boost functie uitschakelen door je maximale cpu belasting op 99 te zetten. Dan blijf je in een efficiënter voltage/frequentie zitten.

Verder lijk je te impliceren dat Intel de mens tegen zichzelf moet beschermen door deze piek prestaties kunstmatig achter te houden. Dat mag je vinden maar dat is een collectivistische/socialistische insteek die niet echt strookt met de realiteit van de vrije markt economie. Daarbij vraag ik mij vooral af of je dan wel op de goede dingen aan het focussen bent. Het elektra verbruik per huishouden in Nederland is namelijk sinds 1990 vooral gestegen (met 15%). Dit terwijl de gemiddelde computer aanzienlijk minder verstookt, vooral idle is een wereld van verschil.
Persoonlijk vind ik dus de uitdaging niet zitten in hogere prestaties maar juist in de combinatie energieverbruik t.o.v. hogere prestaties. Als je pakt bij b.v. dan de 12900 K zijn de prestaties wel verdubbeld maar het verbruik is ook net zo goed het dubbele.
Uit het artikel: "Voor gelijke prestaties als de 11900K (250W) zou de 12900K genoeg hebben aan een vermogen van 65W."

Vergeet niet dat die kleine cores op een efficiëntere curve zitten en een lagere maximum clock hebben. Dus die gaan aan twee kanten aan efficiëntie winnen; ze werken op gelijke clock op lager voltage en ze kunnen minder hoog clocken.

[Reactie gewijzigd door sdk1985 op 28 oktober 2021 22:41]

Ik weet ook wel dat het TDP van 241 watt een maximale waarde is die misschien zelden gepiekt zal worden door de doorsnee gebruiker. Zeker ook afhankelijk van soort koeling etc.. maar het gaat mij er veel meer om dat er 241 watt nodig is om aan max prestaties te komen. Persoonlijk zag ik veel liever dat dezelfde prestaties gehaald werden met een veel lager wattage. Dan pas zeg ik van ja, kijk, dat is nu eens vooruitgang maar dit vind ik geen vooruitgang puur op energieverbruik dan.

Wat je schrijft van vrije markt economie, tja, ik was en ben er nog steeds absoluut geen voorstander van maar ik denk dat dan de hele discussie teveel gaat afwijken. Wat ik meer wil zeggen is dat mensen geen pak weg dik 600 euro betalen om vervolgens de cpu te gaan knijpen. Ze betalen juist zoveel geld voor de geboden prestaties wat weer extra energieverbruik tot gevolg heeft. En nee, het heeft geen zin dat Intel dan een cpu gaat knijpen en dat is ook totaal niet waarop ik doel.

En tja wat je schrijft qua pc verbruik ben ik het toch niet echt met je eens want vergis je niet erin wat een beetje gamingpc uit de muur trekt. Voor een aantal jaren terug was dit gewoonweg nog niet mogelijk, althans voor de doorsnee gebruiker. Dat verschil maak je echt niet goed door een lager idle energieverbruik, dat maakt niemand mij wijs.

Maar ja goed, meningen en inzichten verschillen, maar goed ook trouwens want anders was het ook maar saai he.
Nou ja voor zo ver ik het zie doet Intel wat je wenst, die prestaties van nu op 125W maar dan op 65W. Dit is echter een product wat én én levert. Dus én de mogelijkheid om het huidige prestatie niveau op 65W te draaien én de mogelijkheid om de boel op zijn staart te trappen tot aan het maximum van deze architectuur. Dat is precies wat je van een K cpu (K=unlocked) mag verwachten. Wil je dat niet dan moet je een ander type kopen zoals een non-K of zelfs een T (verlaagd TDP). Dit zijn echt de 'extreme' producten.

Wat betreft pc verbruik is gaming natuurlijk een fractie. Het gros is idle/office gebruik. Bij de mensen thuis zijn het vooral tablets en laptops. Overigens bestaat pas sinds 2000 Intel speedstep. Daarvoor draaide je cpu altijd op dezelfde stand. Tegenwoordig kun je idle onder de 5W krijgen, zie bijvoorbeeld https://gathering.tweaker...message/63857976#63857976 Daar zit de winst. Wat betreft gaming is enige nuance op zijn plaats. We hebben de tijd van SLI gehad waarbij het redelijk normaal was om twee videokaarten in een systeem te draaien (Nvidia Nforce 680 chipset om maar wat te noemen). Een overgeclockte Q6600 zat snel over de 200W. Gooi daar twee videokaarten bij en je gaming load zat al snel op 500W+. Dat is redelijk vergelijkbaar met wat je nu ziet bij een high-end setup van een 11900K+3090. Persoonlijk zit ik eigenlijk al sinds 2011 rond de pak hem beet op een gaming load van 300-350W en dan heb ik vaak een Nvidia 6 of 7 series gedraaid (260,460,660ti,1070,2070).

Het toenemend stroomverbruik zie ik persoonlijk eerder vanuit andere bronnen ontstaan. De terras heaters en airco's zijn tegenwoordig bijna niet aan te slepen. Men gaat ook langzaam richting elektrisch verwarmen want we moeten van het gas af. Verder krijgen mensen steeds meer apparaten in huis. Denk aan een access points, een Netgear R7000 kan 34W verstoken, domotica en mediaboxen (ziggo Horizon box kan gewoon 60W verstoken). Gelukkig is circa de helft van het jaar die restwarmte nuttig.
Wat ik meer wil zeggen is dat mensen geen pak weg dik 600 euro betalen om vervolgens de cpu te gaan knijpen. Ze betalen juist zoveel geld voor de geboden prestaties wat weer extra energieverbruik tot gevolg heeft.
Niemand gaat tijdens zijn gaming sessie ineens Prime95 draaien puur om zijn cpu bezig te houden. Normale workload gaat op 4K onder de 68W zitten puur omdat de performance per watt flink is toegenomen. Enige moment dat je het volledige vermogen aanspreekt zijn voor render/compilatie taken die een vaste hoeveelheid rekenkracht vereisen. Die zijn simpelweg sneller klaar en worden met hogere performance/watt afgehandeld en kosten dus netto minder energie. Dus ook daar is weinig aan de hand. Overigens kan het voor die laatste groep best nog zo zijn dat je alsnog de turbo eraf haalt omdat je bijvoorbeeld je pc niet wil horen als hij aan het stampen is en het hierdoor nóg minder energie kost.

Ik zou gezien je interesse vooral techpowerup even in de gaten houden straks voor deze twee grafieken (energie in kJ gebruikt voor een SuperPi run (single-threaded) en een Cinebench run (multi-threaded):
https://tpucdn.com/review...ficiency-singlethread.png
https://tpucdn.com/review...fficiency-multithread.png
Op basis van wat Intel nu aangeeft zou er een flinke daling zichtbaar moeten zijn bij in kJ per taak.

[Reactie gewijzigd door sdk1985 op 29 oktober 2021 00:07]

Ben benieuwd hoe dit zich verhoudt tegen de M1. Of is dat lastig te vergelijken met deze benchmarks omdat die op ARM gebaseerd is?
Het is complex:

Apple’s stark advantage in specific workloads here do make us ask the question how this translates into application and use-cases. We’ve never seen such a design before, so it’s not exactly clear where things would land, but I think Apple has been rather clear that their focus with these designs is catering to the content creation crowd, the power users who use the large productivity applications, be it in video editing, audio mastering, or code compiling.

Komt uit dit goede artikel van Anandtech:
https://www.anandtech.com...m1-max-performance-review
Benchmarks altijd met een berg zout nemen, zeker als je een X86 CPU met een SoC als de M1(pro, max) wilt vergelijken omdat Apple nogal wat taken uit de CPU heeft gehaald en in speciaal daarvoor ontworpen HW heeft gezet.
Als je wilt gamen is X86 met een dikke grafische kaart nog steeds de beste keuze, niet omdat die principieel sneller zijn, maar omdat er voor Apple weinig titels beschikbaar zijn, vooral native. Voor Video-Editing op niveau is de M1max met afstand de betere keuze.
Note: Dit was NIET native maar 'emulated' door Rosetta. Wat het is voor native games is de vraag, het scheen vrijwel gpu bound te zijn dus dan hoeft het niet per se veel uit te maken maar toch.
Uiteindelijk dus iets van 20% trager dan een PS5, nog best ok dus. Met 5nm vs 7nm zal de Apple chip ook een stukje groter zijn en is die 10 TFlops van de M1 Max minder waard dan de 10 TFlops van de PS5.

Bron benchmarks op notebookcheck en de specificaties van techpowerup van de 6600M en 6700M.
Ja, maar dan uiteraard wel zonder een dedicated gpu als de 3060, dus alleen de m1(max /pro) met ingebouwde graphics .

En dat is een behoorlijk groot verschil, zeker mbt stroomverbruik.
Das leuk, maar een M1 max kost zo'n 3000 euro. Een laptop met een 3060 begint bij zo'n 1000 euro. Voor gaming hoef je een M1 max dus niet te kopen.
Op sommige punten wel maar je kunt natuurlijk op beide soc's iets renderen en dan kijken welke het snelste is.
Imho een compleet onzinnige vergelijking. Wil je een M1, dan moet je voor MacOS gaan zonder Windows virtualisatie mogelijkheden. Als je voor MacOS moet gaan ben je erg beperkt in je keuzes qua applicaties. Als al je applicaties ook op MacOS M1 kunnen draaien zal je specifiek moeten kijken naar de performance van die applicaties, daar gaan generieke benchmarks niets zinnigs over zeggen...

Daarnaast zijn de M1 Pro en Max Macs nog zo nieuw dat ik betwijfel of er veel software zal zijn die optimaal gebruik maakt van GPU acceleratie van een Pro/Max, dat maakt de vergelijking nog schever.

Kiezen voor een M1 Mac of een Intel/AMD is imho meer een software keuze dan een hardware keuze, die over het algemeen voor je wordt gemaakt...
zonder Windows virtualisatie mogelijkheden
https://www.parallels.com/pd/general/
Misschien had ik moeten stellen, zonder werkbare Windows x86 virtualisatie mogelijkheden. Op een normale M1 (MacMini) scoorde Geekbench op singlecore gelijk aan een bijna 15 jaar oude Q6600, multicore is het helemaal een drama, aangezien die niet veel sneller scoort dan een single core. Een standaard x5950 scoort ~5x zo hoog onder single thread en bijna 50x zo hoog onder multi core.

Als performance belangrijk is ga je zeker niet Windows emuleren op een M1 machine.

Past je hele workflow zonder issues op een M1 bak, dan is het zeker een optie. Maar voor zover ik weet is performance vs. een highend x86 Windows machine heel erg afhankelijk van de applicatie die je draait. Sommige applicatie performen uitstekend op een M1 chip, anderen not so much...
Ja man, Windows ARM versie only. Kan je netzogoed een chromebook gaan halen.
Je kunt ook benieuwd zijn naar de vergelijking los van de machine die je hebt/wil kopen. Ik ben sowieso wel benieuwd hoe deze processoren ten opzichte van elkaar performen.
Jup, veel fijne software is niet beschikbaar voor Windows
Veel zelfs... Noem 's wat?
Swish, Alfred, NotePlan, Focus, KeySmith, One Switch, ProxyMan, Paw etc
Dat zijn mooie prijzen voor het aantal cores. AMD zit op bijna €200 meer voor de 16 core variant.
Maar dat zijn 16 identieke cores ?
En core-count zegt ook echt niet alles.
tegenwoordig zijn er zoveel metrics dat iedereen zich wel ergens mee kan profileren. corecount, performance/watt, performance/$, clockspeeds single/all base/turbo, ... en dan spreken we nog niet over de tientallen verschillende benches met telkens weer verschillende bench-settings en memory/memorysettings

je moet echt al op zoek gaan naar een CPU die overal slecht in is, maar dan kom je waarschijnlijk bij Zhaoxin uit wiens producten niet echt relevant zijn bij ons
Precies, dit zijn 8 performance cores en 8 power efficient cores. Al is dat laatste ook een lachertje als je het verbruik ziet.
Nee, die zuinige cores gebruiken ze _juist_ omdat het verbruik zo hoog is.
Zouden ze alleen performance-cores gebruiken, dan haal je minder prestaties uit hetzelfde verbruik. Of anders gezegd, wordt bij gelijke prestaties het verbruik te hoog.
Daarom ook heeft het i9 topmodel, waarvoor men kiest juist vanwege de performance, alleen maar extra zuinige cores, en geen extra performance cores. En aan de andere kant, hebben de laagste modellen naar verwachting alleen performance cores en helemaal geen zuinige cores.
Moederborden voor de intel cpu's zijn in het algemeen ook duurder en gaan minder generaties mee. Dat zal je ook mee moeten nemen.

edit: en daarbij heb je bij AMD 16 cores met 32 threads en niet 8 cores + 8 energie zuinige cores. met 24 threads

[Reactie gewijzigd door Knijpoog op 27 oktober 2021 18:36]

AM4 loopt op zijn laatste beentjes, dus het argument van het moederbord valt momenteel weg. Wil je langer met je moederbord dan zal je moeten wachten op AM5.
Je blindstaren op het aantal cores lijkt me geen goed idee, zeker omdat de helft van die 16 cores niet van hetzelfde kaliber is als de andere helft. We zullen de benchmarks moeten afwachten die niet op een PP presentatie worden getoond... En zelfs dan is de vraag hoe goed dat gaat werken in de praktijk met al je (oude) software...
Het zegt zeker niet alles. Ik maak alleen een opmerking over de data die we wel hebben...
Moederborden (wegens PCIe 5.0) en RAM (wegens DDR5 / spanningsconversie op de modules) zullen vast ook wat duurder geworden zijn...dus juich niet te vroeg.
Maar die pakt ruim 200 euro per jaar minder aan stroom als ze beide vol staan te loeien.
Wat een max verbruik zeg...
Ja, maar hij heeft ook E-cores. Dat zorgt misschien voor minder stroomverbruik bij eenvoudige taken zoals browsen?
Browsen zou ik zeker niet als een eenvoudige taak beschrijven. Met alle plugins die er nodig zijn om het internet leuk te houden pakt Firefox op mijn 5900X als vlot twee cores.
Hm. Welke plugins installeer je dan? Ik browse dagelijks op het internet met een i3-3240. En ik heb momenteel trouwens ook mijn gpu verkocht, dus ik heb nu enkel een iGPU.

Maar mijn internet gaat nog steeds razendsnel voor 99% van de websites. Ik gebruik FreeBSD wat misschien ook meespeelt.
Ghostery, ABP, Privacy Badger, No Coin, en nog wat passieve dingen om downloaden makkelijker te maken, en last but not least: LASER CAT 8-)
Ik gebruik enkel uBlock Origin dat efficiënter gebruikt maak van systeem resources dan ABP.

Ik heb na 5 jaar nog geen coin minder opgelopen, dus ik vermoed dat je 'No Coin' niet nodig hebt als je je browsers heel de tijd up-to-date houdt en niet al te vaak louche zaken doet.

Ik heb ook nooit het gevoel gehad dat mijn downloads niet makkelijk lopen op FreeBSD, eerder het omgekeerde.

Voor privacy kun je gewoon een VPN en uBlock Origin gebruiken ipv de zaken die je allemaal gebruikt.
Browsen zou ik zeker niet als een eenvoudige taak beschrijven. Met alle plugins die er nodig zijn om het internet leuk te houden pakt Firefox op mijn 5900X als vlot twee cores.
Dat ie meer dan één core pakt zegt niets over hoeveel vermogen hij pakt.
Intel is over het algemeen zuiner dan AMD op idle en beperkte loads, zelfs zonder E-cores.

Dit is deels toe te schrijven aan het feit dat er geen IO-die is bij Intel en dat hun c-states beter zijn. Daarom dat ook alle mobiele en laptop CPUs van AMD monolitisch zijn. Bij Intel zie je die plotse temperatuur spikes dan ook niet bij laag gebruik.

Je kan hier een voorbeeld van zien:
https://www.youtube.com/watch?v=BAJVM01D2hw

De 11400 kan gemakkelijk tot 200W verbruiken in AVX taken die alle cores gebruiken maar in games is hij vaker zuiniger dan de 5600x, die nooit meer dan 80-90W zal gebruiken. Bij Intel is er ook enorm veel variatie in hoeveel stroom de CPU gebruikt, zelfs in taken die alle kernen volledig gebruiken. Ik heb zelf Intel en zo gebruik in in Cinebench bijvoorbeeld 100W minder dan in Linpack terwijl beide taken m'n CPU volledig gebruiken. Bij AMD heb je die variatie totaal niet.

Mijn punt is dus dat het max gebruik eigenlijk helemaal niets zegt over hoeveel het stroomgebruik je gaat kosten. Dit hangt dus volledig af van wat je doet met je CPU. Voor sommigen zal Intel dus een goedkopere rekening opleveren.
Oh, goede reactie, dank je wel. +2! (maar ik mag je helaas niet upvoten).
Die benchmarks van Intel ga ik niet geloven. Ik wacht wel op de independent benchmarks. Die zitten tenminste niet vol met leugens en misleiding.

Ik weet dan ook niet of Intel het deze keer deed of niet, maar het was al meerdere malen eerder voorgekomen.

EDIT: Deze benchmarks waren ook gedaan op Windows 11 voordat de scheduler was gefixt voor AMD, dus ook deze benchmarks kloppen dan waarschijnlijk ook niet (tenminste, aan AMD's kant).

[Reactie gewijzigd door secretqwerty10 op 27 oktober 2021 18:35]

Intel heeft ook wel eens benchmarks gedraaid met extreme koeling
Dat zal hier ook wel nodig zijn geweest, want niemand heeft even een CPU koeler die 241W wegtrekt
Dat is gewoon bijna net zoveel als een GPU...

[Reactie gewijzigd door Stijnvi op 27 oktober 2021 18:29]

Noctua NH-D15 kan 250 watt koelen.
Besloten om absoluut niet te gaan voor de 12900K, absurde 240W haarfohn / droogtrommel vermogen voor maar 2 extra E cores tov 12700K. Waardeloos en dat voor de hoofdprijs van ruim 600 euro! Voor mij of de 12700K of de 12600K (ik overklok altijd en van meetafaan). De KF versies zonder discrete graphics moeten minstens 50 euro goedkoper zijn, anders neem ik de K versie mét ingebouwde graphics. Redenering hierachter: mijn antieke GeForce 1060 GTX ontlast ik momenteel door de CPU de "Nvidia Physics" te laten berekenen, gezien (mijn) games de CPU toch vrjikwel Niet belasten, is er headroom over voor de CPU-graphics om wat extra graphics te lereven. Bovendien kan de CPU-graphics meehelpen in webbrowsing smooth scrolling en video codecs en andere encoding en decoding codecs.

Ookal zal ik straks upgraden naar een 3060 Ti of Intel Arc grafische kaart, schrijf ik de embedded diskrete Graphics op de Intel niet meteen af. Bovendien is het woord diskreet een lekker woord om uit te spreken :)

[Reactie gewijzigd door Eftegarie op 28 oktober 2021 12:00]

Ik loop een beetje achter. Hoe zit het nu qua cores en hyperthreading? Intel Ark geeft aan dat het om 16 threads gaat maar is het dan zo In het geval van een 12900K (8p &8e cores) dat het gewoon 8 cores met hyperthreading (16 threads) EN ook 8 zuinige cores met óók hyperthreading waar Windows dan zelf tussen schakelt :? :?

In het geval van een 12900K betreft het dus 16 cores met in totaal 24 threads. De efficiency cores hebben geen hyperthreading. Grappig dat dit tegenwoordig dus niet meer x2 is wat betreft threads.. Zeer interessant.

[Reactie gewijzigd door Craftypiston op 27 oktober 2021 19:12]

power cores hebben hyper threading e cores niet volgens mij
Laten we ook niet vergeten dat die Intel ruim 100watt meer verstookt dan die AMD's en daar weet Intel in het beste geval 20% uit te persen. Dus het en verbruik van 70% hoger.
Dit soort stroomverbruik is niet echt normaal eind 2021. Ryzen 1600 was 65W TDP in April 2017 en dit was een concurrent van de Intel i5 generatie.

Het betekent dat Intel nog geen antwoord heeft gevonden op ARM en AMD.

Als ARM nog marge heeft om serieus verder toe te nemen in prestaties en Intel de komende jaren geen antwoorden vindt dan denk ik dat Intel geen schijn van kans heeft in de komende jaren.
De enige kantteking is wel dat AMD gewoon niet meer uit het legendarische AM4 socket kan halen, wat betreft power delivery. Ze zitten daar nu vrijwel aan het plafond wat het socket kan leveren. (althans, dat heb ik mij wijs laten maken).

Ik hoop dan ook dat het tij niet gaat keren met de nieuwe socket die AMD wilt gaan uitbrengen omdat ze ze het dan wel kunnen. En dat AMD dan ook power hungry CPU's vrijgeeft.

De grote innovatie bij Intel is al jarenlang weg. Dat betekent niet dat het slechte processoren zijn. Integendeel. Maar wat AMD weet te persen uit een socket die al vele jaren meegaan is een innovatie. Bij Intel lijkt het er meer op dat ze gewoonweg meer energie door de CPU laten gaan et voilla, sneller.

[Reactie gewijzigd door SacreBleu op 28 oktober 2021 20:22]

v-cache op AM4 .... de ideale upgrade voor mijn 3000 series op een pcie-4 platform.

reviews: Het nut van meer cache - AMD's 3d-cache voor Ryzen-processors

[Reactie gewijzigd door d3x op 28 oktober 2021 08:27]

De stijgende prijs valt iig binnen de verwachting van de huidige op gang komende (hyper)inflatie. Nu de benchmarks nog
Ben ook wel benieuwd naar de beschikbaarheid van de chips bij launch. Wil graag upgraden maar gezien de huidige markt hou ik mn hart vast, ook qua prijs.
@Janbraam: De 1000-serie heeft nooit bestaan, ze zijn onmiddellijk van Core i5-650 naar Core i5-2500 gegaan. Dus zou het volgens mij wel degelijk de 12de generatie zijn.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True