Vermeende specificaties van AMD Ryzen 7000-processors verschijnen online

Wccftech en leaker Enthusiastic Citizen claimen de definitieve specificaties van AMD's Ryzen 7000-line-up te hebben. Daaruit blijkt onder meer dat de Ryzen 9 7950X een boostclock tot 5,7GHz heeft. De Ryzen 7000-processors worden halverwege september verwacht.

Volgens Wccftech en Enthusiastic Citizen komt AMD eerst met vier Ryzen 7000-modellen. Het topmodel, de Ryzen 9 7950X, krijgt volgens dat medium weer 16 cores en 32 threads. Daarbij krijgt de chip een kloksnelheid van 4,5GHz, waarmee de komende cpu standaard 1,1GHz hoger geklokt zou zijn dan de Ryzen 9 5950X. De boostclock moet 5,7GHz op een enkele core bedragen en de chip krijgt een tdp van 170W.

De Ryzen 9 7900X krijgt volgens de leaks opnieuw 12 cores, met een baseclock van 4,7GHz en een boostclock van 5,6GHz. De cpu krijgt wederom een tdp van 170W. De AMD Ryzen 7 7700X krijgt op zijn beurt 8 cores en 16 threads met een boostclock tot 5,4GHz en een tdp van 105W. Over een mogelijke Ryzen 7 7800X wordt niet gerept. Het laagst gepositioneerde model waar AMD in september mee komt, is de Ryzen 5 7600X. Die cpu krijgt 6 cores en 12 threads op 4,7GHz met een boostfrequentie tot 5,3GHz en een tdp van 105W.

AMD Ryzen 7000

De processors krijgen allemaal 1MB L2-cache per core. Dat is meer dan de voorgaande generatie: Ryzen 5000-chips hadden 0,5MB L2-cache per rekenkern. De hoeveelheid L3-cache van AMD's Ryzen 7000-cpu's blijft gelijk aan hun Ryzen 5000-voorgangers, met uitzondering van de Ryzen 7 5800X3D die beschikt over extra gestapeld L3-cache. Naar verwachting introduceert AMD later Ryzen 7000-modellen met 3D V-Cache.

Wccftech claimt verder dat gebruikers Ryzen 7000-desktopprocessors mogelijk alleen mogen undervolten, net als AMD's Ryzen 7 5800X3D. Die chip had een spanningslimiet waardoor gebruikers de chip niet echt konden overklokken. Ryzen 7000 zou daarnaast een frequentielimiet van 5,85GHz krijgen, zo claimt de techwebsite. Mogelijk komt dat door de verhoogde boostclocks ten opzichte van de vorige generatie, waardoor er minder ruimte is voor verder overklokken.

AMD brengt de Ryzen 7000-serie later dit jaar uit. Naar verwachting gebeurt dat op 15 september, maar AMD heeft dat nog niet bevestigd. Een aankondiging wordt deze maand al verwacht. De processors zijn gebaseerd op een nieuwe Zen 4-architectuur en worden geproduceerd op TSMC's N5-procedé. Daarbij maken de cpu's gebruik van een nieuw AM5-platform met een lga-socket. De processors krijgen daarnaast allemaal een geïntegreerde RDNA2-gpu en ondersteuning voor PCIe 5.0 en DDR5.

AMD Ryzen 7000-serie (via Wccftech) naast Ryzen 5000-tegenhangers
Modelnaam Architectuur Procedé Cores/Threads Baseclock Boostclock Cache (L2+L3) Tdp
AMD Ryzen 9 7950X Zen 4 TSMC N5 16C/32T 4.5 GHz 5.7 GHz 80MB (16+64) 170W
AMD Ryzen 9 7900X Zen 4 TSMC N5 12C/24T 4.7 GHz 5.6 GHz 76MB (12+64) 170W
AMD Ryzen 7 7700X Zen 4 TSMC N5 8C/16T 4.5 GHz 5.4 GHz 40MB (8+32) 105W
AMD Ryzen 5 7600X Zen 4 TSMC N5 6C/12T 4.7 GHz 5.3 GHz 38MB (6+32) 105W
AMD Ryzen 9 5950X Zen 3 TSMC N7 16C/32T 3,4GHz 4,9GHz 72MB (8+64) 105W
AMD Ryzen 9 5900X Zen 3 TSMC N7 12C/24T 3,7GHz 4,8GHz 70MB (6+64) 105W
AMD Ryzen 7 5800X Zen 3 TSMC N7 8C/16T 3,8GHz 4,7GHz 36MB (4+32) 105W
AMD Ryzen 5 5600X Zen 3 TSMC N7 6C/12T 3,7GHz 4,6GHz 35MB (3+32) 65W

Door Daan van Monsjou

Nieuwsredacteur

04-08-2022 • 10:22

193

Lees meer

Reacties (193)

193
192
98
9
0
72
Wijzig sortering
Ik snap dat er geraced moet worden tegen de TDP monsters van Intel, maar toch jammer dat ook AMD haar TDP's omhoog schroeft. Juist de lage TDP van Ryzen vind zo ongelooflijk netjes. Het is nog steeds een stuk betere TDP/Performance ratio dan Intel maar alsnog ergens jammer dat we weer richting de 200W gaan waar we eerst rond een prachtige 100W zaten met 16(!) cores.
Vergeet niet dat TDP de warmte is, niet het absolute verbruik van zo'n CPU. We hadden oude CPU's die een lagere TDP hadden, maar bij idle/mid gebruik per saldo aanzienlijk meer verbruikte dan CPU's vandaag de dag doen.

De 7series zouden tot 35% betere performance hebben, dus zij kunnen 'hetzelfde' als een oude CPU maar bij een aanzienlijk lager verbruik, dat is iets wat mensen veel vergeten.

Je ziet dit ook veel bij de GPU discussies, 'OMG 500WATT?!?!', mijn oude 270watt videokaart doet 100% voor een bepaalde taak, waar mijn huidige 350watt videokaart dit amper op 40% doet, netto is mijn huidige videokaart wel degelijk zuiniger dan zijn 'veel lagere' voorganger.
Waar, maar het is te kort door de bocht: Het probleem daarmee is dat ongebruikte rekenkracht zich lang niet altijd vertaalt in processorkernen in slaapstand. Bijvoorbeeld computerspellen zetten de processor niet in slaapstand terwijl ze op de GPU wachten, het zou veel te lang duren voordat de processor uit slaapstand ontwaakt.

Daardoor zal veel software op een krachtiger processor met hoger TDP, toch meer energie verbruiken, zelfs al zijn de prestaties door externe oorzaken (zoals het wachten op een GPU) beperkt.

Dit is één van de redenen waarom we vandaag de dag zuchtend naar het energieverbruik van onze computers kijken en een Commodore 64 al met 15 watt tevreden was. En daarmee komen we bij het tweede probleem: Een moderne PC is ongelooflijk vele efficiënter dan een Commodore 64 in prestaties per watt. De honger van de mensheid naar rekenkracht is evenwel niet te stillen.

Iemand die een snellere computer heeft, zal die rekenkracht gaan gebruiken. En daarom zijn de toegenomen prestaties/watt weliswaar technische vooruitgang, ecologisch gezien is die 170W echt wel een nieuwe milieuramp.
Iemand die een snellere computer heeft, zal die rekenkracht gaan gebruiken. En daarom zijn de toegenomen prestaties/watt weliswaar technische vooruitgang, ecologisch gezien is die 170W echt wel een nieuwe milieuramp.
Dit is totaal niet de realiteit. Kijk eens naar deze review: https://www.igorslab.de/e...d-really-frugal-part-1/9/

1440P stroomverbruik in gaming:
  • 11900K 121W
  • 5950X 104W
  • 11600K 97W
  • 5900X 84W
  • 5800X 70W
  • 12900K (241W) 68W
  • 12900KF (125W) 67W
  • 12600K 63W
  • 5600X 60W
  • 12700K (241W) 58W
Hier zie je dus een '250W' cpu minder dan 70W verstoken in een gaming workload. Sterker nog, hij verbruikt minder dan een cpu met een TDP van 105W (de 5800X). Hoe kan dit? Moderne cpu's passen hun frequentie en voltage aan naar gelang er meer of minder rekenkracht nodig is. Tevens kunnen delen van de cpu volledig worden uitgeschakeld.

Verder zijn moderne cpu's vaak idle ook een stuk zuiniger dan hun tegenhangers van een aantal jaar geleden.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 11:16]

Moderne CPU's en GPU's werken zo niet meer. Al enkele generaties geleden zelfs. Niks van slaapstand/ontwaken, niks idle.

Tegenwoordig heb je variabele snelheden (zie bijvoorbeeld ook boost clocks) waarbij de CPU zichzelf afstemt op het gebruik. Het is niet de software die de CPU aanstuurt, de CPU bepaald zelf wat er nodig is bij jouw gebruik.

De CPU zet automatisch cores aan/uit, verlaagt snelheden of overklokt zichzelf juist - en daarbij worden ook verbruik/voltages dynamisch non-stop aangepast. Dat gaat rustig in fracties van seconden heen en weer.
Terwijl ik dit type is mijn processor bijvoorbeeld op 1,33ghz aan het draaien. nee 1,54ghz. Nee 1,08 Ghz. nee 1,42 Ghz. nee 2,22 Ghz...

De piek TDP en piek verbruik zijn dus letterlijk dat - piek waardes. Iets wat je ziet in benchmarks ofzo. Maar als je game speelt, en je CPU draait op 40%? Of tijdens browsen en je zit op <20%? Als je dan daarnaast een monitor programma hebt lopen, zul je dat lagere verbruik letterlijk terug zien in o.a. lagere snelheden, lagere voltages en bijbehorend lagere temperatuur. Want wat je niet verbruikt hoef je ook niet te koelen.

[Reactie gewijzigd door Xanaroth op 23 juli 2024 11:16]

Dat klopt niet, wat jij beschrijft doen processoren, op voorwaarde dat software de processor laat slapen met de hlt-instructie, wat in praktijk neerkomt op het aanroepen van een routine zoals sleep. Als je dat doe dan krijg je intelligent gedrag zoals slaapmode C0 t/m C6 en het verlagen van de kloksnelheid.

Als ik evenwel in mijn code doe:

repeat
until gpu_is_ready(mijgpu);

... dan blijft die lus uitgevoerd worden en gaat de processor nooit in slaapstand en zal nimmer zijn frequentie verlagen. Dat is precies hoe het er in veel software (GPU's zijn een voornaam voorbeeld) aan toe gaat. Dit is namelijk de enige manier om zo snel mogelijk te kunnen reageren op een hardwaregebeurtenis.
Zo snel mogelijk reageren op interrupts, dat kan met een speciale interrupt register set, zoals ARM.
Geen registers vrij te maken om te kunnen gebruiken.
Ik vraag me echt af of CPUs zo dom omgaan met energie. Amd en Intel hebben er alle baat bij zeker met mobiele CPUs dat ze slim omgaan qua demand, hoeveel cores en welke cores aanspringen. Zo is Apple ongekend effecient hierin maar ook Intel heeft nu CPUs met sterke en zwakkere cores en na gelang gebruik zal de cpu enkel dat aanzetten wat nodig is.

Dus je voorbeeld qua idle processor kracht lijkt me zeer sterk. Het is dan nog steeds even afwachten en het zou leuk zijn als Tweakers tzt dit in de benchmark mee opneemt maar vermoedelijk is het verschil tussen single core en alle cores enorm verschillend qua verbruik. Niet 170/16 cores maar nog steeds veel minder.
Een moderne PC is ongelooflijk vele efficiënter dan een Commodore 64 in prestaties per watt. De honger van de mensheid naar rekenkracht is evenwel niet te stillen.
Is dat ook niet het gevolg van software ontwikkelaars die het zichzelf steeds makkelijker maken?

Ik heb een Kensington trackball met twee knoppen die je nog kan aanpassen aan bepaalde programma's. Voor het stuurprogramma heeft de programmeur 450 MB nodig gehad. Password manager Enpass werkt perfect, maar gebruikt daarvoor constant meer dan 100 MB van mijn werkgeheugen. Ik neem dat dat niet voor niets is maar gezien het vrij simpele werk wat de programma's moeten doen ik kan mij niet voorstellen dat het niet wat efficiënter en energie zuiniger geprogrammeerd had kunnen worden.
''De honger van de mensheid naar rekenkracht is evenwel niet te stillen.''

Deze honger wordt natuurlijk gecreëerd. Als je ziet waar we nu zitten met games bijvoorbeeld, heb ik soms zoiets van prima zo. Moet het allemaal nog strakker? 144hz 2K? Veel meer zou niet hoeven toch? We worden continue lekker gemaakt met de ''next-gen'' etc. De vrije markt, wat een parel.
Maar dat is toch geen nieuwe milieuramp als de Intel cpu's al lang vergelijkbaar verbruik hebben.
Volgens mij klopt er niets van je gaming en cpu verbruik uitleg.
Als ik bijvoorbeeld Battlefield 2042 speel is mijn cpu maar 50% belast en mijn power draw maar de helft van het tdp. Wat dus betekent dat tussen de berekening door mijn cpu niets staat te doen. Mijn cores trekken dus effectief geen power uit de muur. De intel CPUs kunnen binnen 1 clock cycle tussen idle en work switchen. Oftewel minder als een halve milliseconde. Bij amd is dit iets minder efficiënt maar gebeurt het ook. De cpu trekt dus wel degelijk even geen power als er geen taak is voor die core. Deze tijd is alleen zo kort dat dat niet word weergegeven in overlays maar als gemiddelde zie je wel een lagere power draw.
Quod erat demonstrandum: 50% is enorm veel voor een spel wat beperkt is door de kracht van je GPU.

De threads die met de GPU communiceren zijn flink aan het spinnen en vertonen het gemelde gedrag. Je kunt het onder Linux goed zien als je "perf top" draait, dan zie je wat er echt gebeurt en zie je dat er veel processorkracht verspild wordt aan wachtlussen.

Echter... niet je hele processor zal op 100% gaan draaien. Niet alle threads communiceren met de GPU of zijn niet continu met de GPU bezig. Als er echt niets te doen is, dan zullen threads alsnog op elkaar gaan wachten en dat gaat in de regel wel met een sleep-call. Maar je processor doet dus veel minder dan 50% aan nuttig werk.

Je kunt het ook testen door zelf met je klokfrequentie te spelen, die 50% gaat niet verhoudingsgewijs omlaag/omhoog met de rekenkracht die je verandert.
Mijn gpu load is minder als 70% het is een andere bottleneck in de cpu. Waarschijnlijk cache of iets dergelijks.

Wel draait de game gewoon boven de 180 fps wat dus cpu load veroorzaakt voor het verwerken van de frames.

En ja clocks zijn niet alles. Ik kan 10% overclocken maar het levert in games maar 4 a 5% fps op. In cinebench iets van 8% er zit gewoon elders een bottleneck.
De honger van de mensheid naar rekenkracht is evenwel niet te stillen.
in 6 staten in de VS hebben ze vorig jaar een wet aangenomen met als gevolg dat bepaalde alienwares niet meer verkocht konden worden in die staten.
Starting from July 1, 2021, high-end desktops can consume no more than 75 kWhr/year, but if it is equipped with a discrete graphics card or some other adder (from the ES list), its maximum power consumption can be increased based on bandwidth of graphics card's onboard memory.
jammer genoeg zit die wetgeving ook vol gaten, maar het zou goed zijn voor de innovatie om fabrikanten van componenten een max power drain op te leggen waardoor ze hopelijk terug technisch beginnen te innoveren qua beperking van het stroomverbruik ipv max performance ten koste ervan.
Je bedoelt denk ik dat tdp niet betekent dat hij dat ook echt verbruikt, alleen dat het ontworpen is dat het dat maximaal zou kunnen verbruiken.

Wat de cpu verbruikt en wat hij in warmte produceert is namelijk exact hetzelfde. Als dat niet zo zou zijn heb je de wet van behoud van energie gebroken. Een cpu heeft namelijk geen andere manier van stroom omzetten in energie, er komt geen licht uit en hij beweegt ook niet (nee, data is geen vorm van energie).

Verder wel met je punt eens, je moet echte tests afwachten om te zien hoe zuinig of onzuinig een chip is. En dan niet alleen maar wat hij maximaal verbruikt, maar hoeveel verbruikt hij om een bepaalde taak uit te voeren.
Op een paar nuances na correct. Een klein (heel klein) deel van de energie die in de processor gaat, gaat in de entropieverlaging van het lokale systeem zitten. Er wordt immers orde in de data geschept.

Een ander klein deel gaat in EM-straling zitten.

Bij benadering gaat inderdaad alle energie in warmte in de chip zitten, maar dus niet exact alles.
Hoe dat met entropieverlaging zit weet ik niet... Gevoelsmatig zeg ik dat dat niet kan kloppen (immers heeft die data waar je orde in schept geen potentie om weer andere energie af te geven... Maar ik werk hier met middelbare school kennis, kan goed dat ik dat gewoon niet genoeg snap).
Die straling wordt waarschijnlijk echter ook weer warmte daar waar hij geabsorbeerd wordt :) (maar dat is wel buiten de chip)

Maar goed, het ging me er ook eigenlijk ook meer om dat het gelijk is in de context van waar we het over hebben. Daarbij maakt het niet zoveel uit of het 100,00% is of 99,99

[Reactie gewijzigd door Finraziel op 23 juli 2024 11:16]

Gevoelsmatig is physics wel vaker vreemd. Praktisch gezien is het zo, het ging me erom dat je “exact” gebruikte. Het blijft Tweakers, he ;)
Ik zit op hooguit middelbare schoolniveau hoor, maar is een transistor die open en dicht gaat niet beweging, hoe klein die ook is?
Eh, volgens mij niet, maar zelfs als dat zo zou zijn... als iets in beweging komt en weer stopt, dan is de energie ook in warmte veranderd.
Nee want elektriciteit is een golf en er beweegt helemaal niks ofzo, ladingen worden verschoven maar het eindresultaat is neutraal. (Ja Ik ben er ook op los aan het speculeren met middelbare school niveau :D)

We gaan er denk Ik gewoon altijd intuitief van uit dat elektriciteit deeltjes zijn (electronen) en dat die benadering makkelijker is om mee te werken en resultaten geven die simpel zijn en goed genoeg qua accuraatheid.

[Reactie gewijzigd door goarilla op 23 juli 2024 11:16]

Golf of deeltje zijn allebei waar, soms gedraagt het zich als golf, soms als deelte :) Kwantummechanica tart de logica.
Jep, je hebt een heel corpus aan gedachteexperimenten en verhaaltjes nodig om het vreemde toch te proberen te verklaren (eg: ruimteschip met laser ivm speciale relativiteit en tijdsdilatie). Want intuitief is het vanaf Newton toch echt niet meer.
Warmte is ook gewoon elektromagnetische straling, he?
Warmte is warmte. Elektromagnetische straling en vooral IR voelt als warmte als het op je huid komt, omdat het daarin wordt omgezet.

EM straling is weliswaar energie, maar geen warmte.
Nee, warmte bestaat letterlijk uit fotonen, net als elke andere vorm van elektromagnetische straling. Ik stelde wellicht een retorische vraag, maar dat was een verhulde mededeling.
Knap, die warmte in je blokje metaal van 100 graden volledig in de vorm van fotonen. De moleculen staan verder stil..

Laat eens zien waar je deze informatie vandaan hebt? Welk boek? Welke resource?

Begrijp me niet verkeerd hoor, volgens mij heb je een keer een klok gehoord (black body radiation wss), en de zaken zijn ook vennijnig aanverwant, maar de definitie van warmte =/= foton.

“Warmte bestaat letterlijk uit fotonen” is gewoon onzin. Een beetje van het kaliber “Frequentie bestaat letterlijk uit trillende snaren”.

[Reactie gewijzigd door Boxman op 23 juli 2024 11:16]

Ik heb inderdaad te snel gereageerd, mijn excuses. Sommige warmte bestaat echter wel volledig uit fotonen, zoals infraroodstraling, dat eenvoudigweg als warmte wordt waargenomen door onze zintuigen.
Die zintuigen doen dat na energieomzetting van licht in warmte.
Een klein (heel klein) deel van de energie die in de processor gaat, gaat in de entropieverlaging van het lokale systeem zitten. Er wordt immers orde in de data geschept.
Entropie verlaging kost geen energie. Het kost alleen entropie verhoging elders.
Entropieverlaging gebeurt niet spontaan of zonder dat het energie kost.

Waar die energie wordt neergeslagen als warmte is nog interessant om over na te denken.
Sommige mensen denken nog steeds dat cpu 100 watt tdp, dat de cpu non stop 100 watt trekt... En dan hebben we nog niet eens het verschil tussen intel en amd tdp...

Laat staan hoeveel energie de computer verbruikt na een bepaalde taak...

De tijden van Prescot en amd thunderbirds zijn al allang voorbij...
Mensen vergeten dat ook zo vaak.

"Maar mijn 3700x verbruikt slechts 65 watt!"

Nee echt niet, de TDP is 65 watt en als ik precision boost (turbo) uit schakel dan ja, het verbruik is dan rond 65 watt.

Maar stock zie ik die CPU toch echt rond de 88 watt zweven als deze op volle toeren draait.

Leuke video daarover van Gamer Nexus

[Reactie gewijzigd door Mizgala28 op 23 juli 2024 11:16]

Leuke video daarover van Gamer Nexus
Wat je leuk noemt. In de eerste 5 minuten wordt zijn introtekst drie keer in andere woorden herhaald en ben je nog niets wijzer geworden. Verspilling van tijd.
Gamers Nexus staat erom bekend van de lange draad te zijn. Er is praktisch nooit een video van 5 min> op dit kanaal. Gelukkig zijn er timestamps die je kunnen doorleiden naar de juiste info.
De tests van Tweakers zelf laten zien dat zwaardere TDP's wel degelijk meer verbruiken; in absolute zin als in Watt/FPS. Zowel voor CPU als voor totale systeem.
Inderdaad er word een hoop geroepen door mensen die alleen ergens lezen "hoge TDP" terwijl ze verder geen idee hebben hoe het werkt :+
Eens, maar het boeit mensen blijkbaar niet. Als ik hier op tweakers in de desktop aankoop advies topics kijk wordt intel aangeraden zonder maar een woord te reppen over verbruik.

Die paar procentjes performance is het enige wat er toe doet.
Bijna al het gebruik is gaming en daar maakt het dan ook helemaal geen snars uit. Sterker nog daar komt intel beter uit de test met uitzondering van 12900k. Door de hoge boost is die inefficiënt. Die 245 watt haal je nooit met gaming loads voordat je bepaalde bottlenecks krijgt.

Pas bij render workloads word het een interessant topic. En dan kan zelfs de intel tot wel 30% efficiënter zijn als een 5950x in bepaalde workloads omdat hij zo enorm veel sneller klaar is. Maar bij andere workloads is hij weer 30% minder efficiënt omdat de e cores daar niet zo goed in zijn.

Al met al hangt het dus heel veel af van wat je doet met je pc. Het zal mij persoonlijk een worst wezel als mijn cpu bij renderen 1000 watt gebruikt. Ik render nooit. Als hij voor gaming maar top is en een high end gpu niet bottlenecked en onder de 100 watt blijft. De 12900k zou daar dus prima voor zijn daar waar de 5950x dat niet is.

Gamers moeten die power draw van de cpu minder serieus gaan nemen en kijken wat de game load/draw is ipv naar een nutteloos getal als tdp kijken.
In welke applicatie is hij dan 30% sneller? Als ik deze review bekijk mag je blij zijn als hij een paar % sneller is in renderen. Over het algemeen is het stuivertje wisselen tussen de 5950x, wat knap zou zijn als de 12900k ook een stuk zuiniger was.
Zie:
https://www.techpowerup.c...lder-lake-12th-gen/6.html
https://www.techpowerup.c...der-lake-12th-gen/20.html

Om 30% efficienter te zijn dan de 5950x bij gelijk gebruik moet hij ook 30% sneller klaar zijn. Helaas gebruikt de 12900k een stuk meer dus wat je zegt kan gewoon niet kloppen. Tenzij je een applicatie hebt waar dit het geval is.
Sorry ik was in de war met een 12600k vs 5600x review. Dat is niet door te trekken naar de 12900.
Bijna al het gebruik is gaming en daar maakt het dan ook helemaal geen snars uit. Sterker nog daar komt intel beter uit de test met uitzondering van 12900k
Ook al scheelt het niet veel, de 5600x is zuiniger in gaming en productivity dan de 12600k
Ja dat is dan ook dw enige uot de 5xxx lineup die zuiniger is. Wel trager. En volgens mij was de performance per watt ook minder gunstig. Maar het ontloopt elkaar niet veel. De enige uitschieters zijn de 2 top chips van intel en amd.
Het extra verbruik bij Intel is als de cpu volledig aan het werk wordt gezet en dat komt in de praktijk erg weinig voor. Het gemiddelde praktijkgebruik verschilt dan ook bijna niets met AMD.

Dus dan wordt het uiteindelijk enkele procenten performance tegen enkele procenten meer verbruik.
Dat heb ik inderdaad ook gelezen, maar het jammere is dat er in de performance-grafiekjes wel gekeken wordt naar piek performance.

Wat is de snelste processor? Ja Intel, die heeft 3% meer piek performance.
Wat is de zuinigste processor? Ja dat boeit niet, dat is alleen bij piek performance.

Dat is meten met twee maten, iets waar AMD niet tegenop kan.
Daar wordt wel degelijk naar gekeken door de betere reviewers. Gamers nexus, hardware unboxed hebben eigenlijk altijd wel power draw en performance per watt data in de review en soms zelfs idle verbruik wat je ook mee dient te nemen in de kosten analyse.
Sterker nog voor gaming is de intel 12xxx (met uitzondering van de 12900k) zuiniger als de ryzen 5000 lineup (met uitzondering van de 5800x3D) en sneller.
Daarnaast zijn ze idle op de meeste borden zuiniger. (Dit is mogelijk een moederbord probleem).
Maar mensen blijven maar hameren op power draw gebaseerd op de max. En eigenlijk alleen 11th gen was totaal ruk in alle aspecten.
reviews: Intel 12th Gen 'Alder Lake' - Core i9 12900K, i7 12700K en i5 12600K

Scroll even naar 'efficiëntie'.

Daar meet men verbruik per resultaat/taak. Voor cinebench is het verschil bizar, hier zou ik wel mee grafiekjes van willen. Want power draw is leuk maar zegt enkel hoe zwaar je voeding en koeling moet zijn. Verder niks.
Efficiëntie bij deellast, zoals bij de meeste games is niet heel veel anders dan bij AMD. Het komt niet vaak voor dat CPU’s voor langere tijd volledig belast worden, laat staan bij de 8+ core-CPU’s.

Zoals ik al aangaf:
Het extra verbruik bij Intel is als de cpu volledig aan het werk wordt gezet en dat komt in de praktijk erg weinig voor. Het gemiddelde praktijkgebruik verschilt dan ook bijna niets met AMD.
Tja, het is dan ook een paar procent meer verbruik vs een paar procent meer performance.
Eens, maar het boeit mensen blijkbaar niet. Als ik hier op tweakers in de desktop aankoop advies topics kijk wordt intel aangeraden zonder maar een woord te reppen over verbruik.
In de aankoopadvies topics, wordt dan met name gekeken naar performance/euro binnen het opgegeven budget, als je een wat ruimer budget hebt, heb je meer mogelijkheden en kun je TDP als extra weging meenemen. Bij lagere budgetten is die ruimte gewoon veel minder.

[Reactie gewijzigd door CH4OS op 23 juli 2024 11:16]

Vreemd, Zen is geweldig voor gaming. Het zit niet voor niks in de Xbox en PlayStation.
Ik snap dit soort comments niet. Dan zet je toch zelf de TDP op 65/100/125W? Wat stopt je om dat te doen?

Alleen dan wel opletten dat je dan wel vergelijkt wat de performance verschil is met vergelijkbare power limits.

Bij intel gebeurd eigenlijk al hetzelfde, maar de vraag is hoe gewenst dit is waar iedere moederbord een andere standaard instelling heeft... Maar dat heeft meer te maken met de vrij extreme maximale turbo limieten die speciale HW (VRM of koeling) vereisen

Zolang de perf per watt maar significant omhoog gaat (met dezelfde power budget) vind ik het prima.

[Reactie gewijzigd door Thomg op 23 juli 2024 11:16]

Ik snap dit soort comments niet. Dan zet je toch zelf de TDP op 65/100/125W? Wat stopt je om dat te doen?
Ik zie het alleen als een negatieve ontwikkeling dat zulke hoge TDP's worden genormaliseerd. (En met name door Intel)
Verder top natuurlijk dat het kan. :)
Helaas moet AMD mee in de trend van Intel. Dan is AMD misschien beter met performance per Watt, maar moeten ze het ontgelden kwam piek performance. Mensen kijken helaas voornamelijk naar de piek performance scenario's.

Ik ben voorlopig even helemaal Intel af en deze nieuwe generatie hardware is mijn volgende desktop.
Ik denk dat wat Intel doet maar een deel van het probleem is. Ook zonder Intel had AMD het TDP omhoog gedaan en de reden is de manier waarop nieuwe chipprocessen gemaakt worden: De transistoren worden amper nog kleiner, maar de moderne processen zorgen dat er wel meer op hetzelfde oppervlak passen. Het gevolg is dat de transistoren amper nog zuiniger worden, maar je meer transistoren kunt kopen voor je geld.

Dat betekent dat een processorfabrikant voor hetzelfde geld een krachtiger processor kan maken, maar niet als het TDP gelijk blijft. En dus is het logisch om het TDP op te schroeven.

Je ziet hetzelfde in de GPU-markt: De nieuwste Nvidia-GPU's krijgen een bizar energieverbruik. Je kunt stellen dat AMD Intel moet volgen, maar Intel en Nvidia hoeven elkaar beslist niet te volgen. Het is dus een trend in het algemeen en AMD houdt het energieverbruik ietwat netter dan Intel, maar dat is het dan.
Je spreekt jezelf tegen: Transistoren worden amper kleiner maar er zijn er meer op hetzelfde oppervlak?

Transistoren worden nog steeds kleiner. Als je naar Intel kijkt zijn die inderdaad wel lang op dezelfde grootte gebleven, maar de verkleining is nog steeds gaande als je kijkt naar de laatste generaties amd cpu's:
Zen: 14nm, zen+:12nm, zen2/3: 7nm en zen4: 5nm. Op 2 generaties tijd 50% kleiner vind ik toch een behoorlijk verschil...

Het hoger worden van het verbruik ligt gewoon aan het feit dat de transistoren meer verbruiken door de hogere frequentie. Dat vraagt meer energie en dus een hogere TDP. Dat vertaalt zich echter niet in een hoger verbruik, alleen dat er meer performance beschikbaar is en een hoger verbruik kan toelaten.
Mooi plaatje:

https://overclock3d.net/g.../2016/01/05082359541l.jpg

Links een traditionele plainaire transistor (tot 22nm de norm). Rechts een finfet, waarbij het geleidingskanaal verticaal is gezet en dus minder ruimte inneemt. In de kleine inzet een zgn. trigate-finfet, feitelijk 3 transistoren met een gedeelde gate. Kan ik, marketingcreatief gezegd, 3 maal zoveel transistoren kwijt op mijn chip, dus even omrekenen en dat is xx nanometer vergeleken met de 22nm aan planaire transistoren. Op deze wijze gaat het tegenwoordig met de 14nm, 10nm en 7nm.

Mijn gate is echter niet gekrompen, het oppervlak dat met het kanaal gemaakt wordt is ook grofweg gelijk gebleven, dus de parasitaire capaciteit daalt niet noemenswaardig.
Volgens het plaatje daalt het "active power" met 50 procent. Dat lijkt in strijd met jouw stelling. Niet dat ik weet hoe dit werkt. Daarom hoor ik graag jouw reactie daarop.
Finfets hebben natuurlijk niet alleen maar nadelen (er is een reden waarom we ze gebruiken). Er staat ook precies bij waarom: Meer controle over het kanaal, waardoor je minder lekstromen door het kanaal heen hebt. Het is dus niet zo dat er helemaal geen vooruitgang is geboekt sedert 22nm. De parasitaire capaciteit is evenwel niet noemenswaardig afgenomen.

Dit is een beetje de kern van de materie: In het verleden zorgde miniaturisering haast als vanzelf voor zowel lagere prijzen als lager energieverbruik. Dus betere lithografiemachine kopen, kleinere transistors tekenen en tadaa! Tegenwoordig is het hard werken voor iedere verbetering. Finfets maken is best wel lastig. De volgende stap, GAAFET, is nog lastiger.

[Reactie gewijzigd door dmantione op 23 juli 2024 11:16]

Transistoren worden nog steeds kleiner. Als je naar Intel kijkt zijn die inderdaad wel lang op dezelfde grootte gebleven, maar de verkleining is nog steeds gaande als je kijkt naar de laatste generaties amd cpu's:
Zen: 14nm, zen+:12nm, zen2/3: 7nm en zen4: 5nm. Op 2 generaties tijd 50% kleiner vind ik toch een behoorlijk verschil...
Ter algemene info: de *nm namen zijn pure marketing en hebben weinig meer met de effectieve grootte van de transistors te maken.
Vind ik ook jammer, maar blijkbaar heeft men gewoon meer behoefte aan performance dan aan zuinig. Ook bij CPU reviews is de insteek vaker, we kijken eerst hoe hard we m kunnen laten gaan, oja en dan kijken we hoeveel ie op die snelheid verbruikt.
Bij koelers zie je vaak genormaliseerde tests, dan kijken ze hoe heet de boel wordt bij gelijke herrie. Dat maakt dingen veel beter te vergelijken dan "de een is het koudst maar maakt het meeste herrie, en de ander maakt het minste herrie maar is wel het heetst. Kies maar!".

Zo zou je ook CPUs kunnen testen bij gelijke vermogens; ben benieuwd hoe Intel vs AMD er dan uit komt te zien.
Een test die ik me herinner is deze; daar zie je bijvoorbeeld dat Intel zuiniger is dan AMD bij hogere vermogens. Wat dus heel anders is dan hun reputatie doet vermoeden, die vooral is ontstaan door hun default of piek vermogens.
Een test die ik me herinner is deze (LTT video).
LTT is best vermakelijk (als het je smaak is), maar als het op dit soort zaken aankomt (hardware tests en benchmarks) zijn er betere op YT, zoals HUB of GN bijvoorbeeld.
Ik ben ermee bekend, maar ik kan me geen vergelijkbare tests van hen herinneren. Jij?
Het was meer een vriendelijke manier om te zeggen; neem LTT tests liefst met een korreltje zout. ;)
Ok, nouja ik weet dus geen betrouwbaardere bron. En dat is ook wel de ergernis, dat bijna niemand dat test. LTT is dan niet ideaal, maar tenminste hebben zij ooit 1 poging gedaan, en zijn het ook weer niet de grootste prutsers/leugenaars.
Ik wil het liefst een computer die redelijk stil is en niet teveel koeling nodig heeft.
Ah dan heb ik je bericht niet goed begrepen, je hebt het echt specifiek op de normalisering van hoge TDP.

In dat geval snap ik wat je bedoelt, maar als AMD hierin niet meegaat zullen ze waarschijnlijk achterblijven op Intel, dus een "race to the bottom" helaas. Of top.
Ik snap dit soort comments niet. Dan zet je toch zelf de TDP op 65/100/125W? Wat stopt je om dat te doen?
99,9% van de gebruikers zal dit niet doen (die weten niet eens dat het kan), waardoor het stroomverbruik in bijna alle gevallen dus omhoog zal gaan. Slechte zaak.

[Reactie gewijzigd door josh-hill op 23 juli 2024 11:16]

Dat verbruik wordt uiteindelijk gemeten in kWh. Als een snellere CPU meer vermogen gebruikt om een taak sneller af te ronden kan het alsnog best zo zijn dat het totale verbruik lager is. Dat is ook in een aantal AMD vs Intel-benchmarks te zien. CPUs in consumentendesktops zitten tegenwoordig voor het overgrote deel van de tijd idle of maar op een paar cores te draaien waardoor dat verbruik veel belangrijker is dan het piekverbruik. Ook in games en zeker met freesync/gsync komt de CPU over het algemeen niet aan 100% en is het vooral de GPU die hard werkt.
Als ze gewoon hetzelfde doen op hun pc als daarvoor, dan neemt het verbruik dus af.

Hun webpagina is sneller geladen en in totaal heeft de nieuwe cpu dus minder verbruikt.

Alleen als ze aan het gamen zijn en eerst door de cpu gebottleneckt werden omdat ze op heel lage resoluties speelden, zal de cpu meer werk (moeten) verzetten. Dan is het nog steeds de vraag of deze CPU’s dan meer gebruiken dan hun voorgangers.

Binnen dezelfde generatie is het net zo: een 16 Core 5950X verbruikt meer bij bv renderen dan de 8 core 5800X maar is ook veel sneller klaar en daardoor uiteindelijk efficiënter dan een 8-Core uit dezelfde reeks.

En ja, een 5700x is zuiniger dan een 5800x, dat komt omdat er voor de laatste paar 100 MHz relatief de hoogste stroom nodig is waardoor het verbruik relatief veel stijgt ten opzichte van een cpu die die laatste MHz-en niet krijgt.

[Reactie gewijzigd door White Feather op 23 juli 2024 11:16]

Ja dit kan ik zeer aanraden. Mijn 5900X is op 65W in multicore slechts marginaal langzamer dan op 105W.

Maar uiteindelijk is dit ook een marketing probleem. Hier zullen wel mensen zijn die snappen dat wattage gewoon een nummer is waarmee je je CPU kan afstellen. Maar voor de doorsnee consument is het TDP op het doosje definitief.

Nu we een trend zien naar hoge ootb TDP's voor de performance crown zou ik graag zien dat moderne chips met meerdere TDP's geadverteerd worden. Release gewoon een CPU met marketing voor 65W TDP eco mode, 105W balanced mode en de 170W performance mode. Zodoende zullen reviewers dit meenemen en kunnen consumenten met een druk op de knop hun TDP kiezen.
Is het niet zo dat de 65/105/170 Alleen maar een vaste waarde is voor de moederbordfabrikanten en koeler fabrikanten?
Dat een MB voor max 65 of max 105 of max 170 Watt geschikt moet zijn?
Dat een cpu welke je een 65 profiel geeft, inderdaad niet boven de 65W mag uitkomen, maar bij een 105W profiel, gerust daar ver onder mag blijven?

Dat een koeler 65/105/170W moet kunnen afvoeren.

Dat wanneer je een 170W koeler op een 65W CPU zet, en deze op een 105W MB plaatst, dat deze cpu heeeel erg lang in de turbo stand kan, zonder thermisch te throttlen ( vast niet goed gespeld ? ) ?
Ja TDP is bedoeld als baseline van de spec die de hardware aan moet kunnen. Maar in dit geval probeer ik juist een argument te geven om de CPU's onder meerdere TDP's te marketen. Dit neemt natuurlijk niet weg dat als je je CPU op 170W TDP wil kunnen draaien dat je daar de voeding en koeling voor nodig hebt. Ik hoop slechts dat het adverteren en makkelijker beschikbaar maken van lagere energie configuraties beter word. Ik had zelf bijvoorbeeld niet heel veel informatie hoe een R9 5900X op 65W zou performen omdat bijna niemand dit test, maar nu ik hem heb en heb getest op meerdere energie levels was mijn bevinding dat de performance/watt veel aantrekkelijker was dan stock.

En ik denk dat er veel meer consumenten zijn die graag bijvoorbeeld 10% performance in willen leveren voor 30% lager verbruik. Je moet alleen wel de optie zo beschikbaar mogelijk maken en dit goed naar de klant communiceren.
Eens. Ik draai mijn 3080 ti ook gewoon op max 250 watt
Best of both worlds. Hiermee zegt AMD: "Kijk Intel, als wij onze TDP opschroeven zijn we veel sneller dan jullie". Uiteindelijk gaat het waarschijnlijk om een relatief kleine boost voor de hoeveelheid extra TDP. Als er via de BIOS dan een optie is om de TDP naar bijvoorbeeld 105W te zetten voor de 7950X, en daarna de base en boostclocks 0.2GHz te laten zakken, ben je ook in de markt voor mensen die liever iets minder stroomgebruik en warmteontwikkeling hebben.
Ze kunnen ook gewoon een 7950 (non-X) uitbrengen die op 105 watt TDP loopt.

Dat willen ze echter niet voor mainstream. Dat doen ze alleen voor OEM. Zo zijn er 65 watt versies van de 5900 (is dus een non X) en de 5800 (die uiteindelijk als de 5700X regulier is uitgebracht).
Grote kans dat dat uiteindelijk dus gaat gebeuren. Maar dit is hoe het gaat: Je brengt eerst high-end uit, de wafers die gebrekkig zijn verzamel je en breng je later uit voor een lagere prijs. Zo heb ik nu ook een 5600, als ik die meteen had kunnen kopen had ik dat gedaan. Maar omdat ik moest wachten ben ik toch maar voor een 5600X gegaan. Meer winst voor AMD :)
Als de prestatie per watt omhoog is gegaan kan je volgens mij prima naar een zuinigere chip gaan zonder verlies van prestaties tov wat je nu hebt, dus kan je nog steeds stellen dat het er beter op wordt. Als je concurrent er gewoon extra power tegenaan blijft knallen terwijl je in benchmarks/reviews en door consumenten voornamelijk wordt afgerekend op de pure totale performance zal je toch mee moeten bewegen. Dat wil niet zeggen dat er niet alsnog zuinige chips in je aanbod kunnen zitten.
Gelukkig voor gaming maar een 65 Watt CPU nodig tegenwoordig :)
Je kan gewoon undervolten als je het er niet mee eens bent he.
Wat een kul argument. Dan heb je een hele andere performance en dus kan je misschien beter 5xxx kopen of intel.
Om het over stabiliteit nog maar niet te hebben.

[Reactie gewijzigd door computerjunky op 23 juli 2024 11:16]

en dus kan je misschien beter 5xxx komen of intel.
Als je een Ryzen 5000 of Intel neemt en die gaat undervolten worden je prestaties toch nòg veel lager?

De voornaamste factor in voor de prestaties per watt is toch het productieprocedé, en op basis van de prestaties van de apple M1's verwacht ik dat deze Ryzen 7000's topdingen zijn om zeer goede prestaties te leveren op een laag ingesteld TDP. Hier zou je zomaar 4GHz met een verbruik van 30W mee kunnen halen of iets dergelijks.

Hoewel dat niet de standaard-TDP is is dat wel degelijk interessant want daar is een doelgroep voor. Zo kun je bijvoorbeeld best deftige game-hardware kwijt in een mini-ITX-kast met weinig airflow. Als je er toch geen GTX4090 naast gaat zetten is iets als 4-4,5GHz voor de meeste doeleinden ruim voldoende om niet te bottlenecken.
[...]
De voornaamste factor in voor de prestaties per watt is toch het productieprocedé,
Nee dat is het niet, zeker niet voor gamen.
-Cache heeft een grote impact terwijl de power draw impact laag is.
-Enn frequentie boost van 4ghz naar 5 GHz is minder als een 25% performance boost maar meer als een 25% power draw increase omdat de laatste paar MHz uit een cpu persen ZEER inefficiënt is.
-Architectuur is ook zeer belangrijk anders hadden allen 7nm cpus met eenzelfde oppervlakte even snel geweest.

5,7,10,14 nm zegt helemaal niets. Nvidia en intel lieten amd een poepje ruige. Toen intel nog 14nm cpus maakte en ams al 7 (10nm vergelijkbaar) en nvidia 12nm gpus maakte en amd 7nm.

Er komt veel en veel meer bij kijken dan een procedé. Procedé moet dan ook NOOIT een factor zijn bij je aanschaf van een product. Lager is niet per definitie beter. Het betekent zelfs niet dat het de potentie heeft beter te zijn.
Vroeger was het wel goedkoper maar ook dat is al niet meer waar.
Nee dat is het niet, zeker niet voor gamen.
Wel. Ik zeg dat het de voornaamste factor is, niet de enige factor. De grootste sprongen in prestaties per watt zien we toch gewoon bij nieuwe procedés.

Je hebt natuurlijk wel gelijk dat de gekozen hoogte van de kloksnelheden ook een groot effect heeft, maar dat is vrij te kiezen voor elke CPU. Op gelijkblijvende kloksnelheden of prestaties zal Ryzen 7000 gewoon een stuk boven Ryzen 5000 en Alder Lake uitsteken, of je ze nou op hoge of op lage kloksnelheden vergelijkt, dat was mijn punt.

[Reactie gewijzigd door bwerg op 23 juli 2024 11:16]

Wel. Ik zeg dat het de voornaamste factor is, niet de enige factor. De grootste sprongen in prestaties per watt zien we toch gewoon bij nieuwe procedés.
Maar is dat omdat nieuwe procedé gebruikt worden voor nieuwe chips die sneller moeten zijn als de voorgaande omdat ze anders niet verkopen of omdat die nieuwe chips nieuwe designs hebben?
Beide 3xxx en 5xxx zijn op 7nm gemaakt maar de 5xxx had een grotere prestatievooruitgang als 3xxx.

Het is een combinatie van factoren maar of procedé de grootste is? Ik denk eerder gewoon 1 van de factoren.
Het is een combinatie van factoren maar of procedé de grootste is? Ik denk eerder gewoon 1 van de factoren.
De grootste, kortere lijntjes is hogere snelheid ongeacht design.

Waarom denk je dat Intel z'n highend laat produceren bij TSMC?
En wie zegt dat er "kortere lijntjes 'zijn bij TSMC? TSMC 7nm is gelijk aan intel 10nm. dat getalletje betekend helemaal niets en we hebben het over hoogstens 1 nanoseconde wat echt irrelevant is. AMD's chiplet design heeft al een 20-30 ns penalty door het chiplet gebruiken daar merk je helemaal niets van.
Dat zeg ik :)

TSMC is al verder dan 7nm en ook al beweert Intel dat 10nm concurrerend is is het dat niet, want niemand, zelfs Intel niet, produceert de highend er op en ik heb geen concurrerend eindproduct gezien op basis van Intel 10nm.

Waar snelheid niet relevant is wordt nog gewoon op oudere procedes tot 32nm gebakken en welk getalletje je er ook aanhangt, diegene die de hoogste dichtheid voor elkaar krijgt heeft de kortste lijntjes en dat is TSMC.

Dan kan je beweren dat een nanoseconde niets uitmaakt maar dat is flauwekul wanneer timing van o.a. DRAM al zo nauw luistert.
Intel 12th gen is gewoon door intel inhouse geproduceerd op 10nm.
Ik had ook gehoopt dat het stroomverbruik niet omhoog zo gaan, maar ik had ook niet verwacht dat er overal een GPU in zou komen. Zet die uit en het scheelt al een stuk van de TDP.
De IGP zal nagenoeg niks verbruiken. Die heeft maar 2 compute units, waarschijnlijk op niet al te agressieve kloksnelheid. Een APU als de 6800U heeft 12 CU's op (voor een IGP) redelijk hoge kloksnelheid en de TDP van de gehele APU komt niet boven de 28W uit. De IGP van de 7000's zal daarmee hooguit 5W verbruiken, waarschijnlijk nog wat minder.
Snelheid heeft een prijs.
Over het GPU-verhaal: hoe kom je aan beeld wanneer je de GPU uitschakelt?
Juist.
Op dezelfde manier dat mensen aan beeld komen met de vorige generatie AMD processoren?
Juist.


ter verduidelijking: J2S heeft het over dat alle 7xxx series een Igp hebben/apu zijn, waar het gros van de huidige amd chips enkel een cpu zijn en een externe GPU nodig hebben. Gezien bij de TDP berekening de IGP mogelijk mee genomen word kan dit een rede zijn dat de TDP hoger uit valt.
Uit jouw antwoord maak ik op dat een uitgeschakelde apu een externe kaart nodig maakt met ergo een hogere vermogensvraag. Dat is precies wat ik suggereer. Forgive me if I'm wrong.
Lees overigens verderop in dit forum dat de betreffende APU vrijwel niets verbruikt wat deze discussie nogal triviaal maakt.

[Reactie gewijzigd door JPK1960 op 23 juli 2024 11:16]

Zeker maar gezien de discussie enkel gaat over de 170W TDP van de nieuwe AMD chip. dan is het niet heel gek om af te vragen of nieuw toegevoegde onderdelen binnen die chip daar invloed op hebben.
(wat, zoals je ook aan geeft niet echt het geval blijkt)

Het feit dat een externe gpu hoogstwaarschijnlijk bakken extra gaat gebruiken is weliswaar een juiste aanname, maar valt tegelijkertijd enigzins buiten de discussie over de cpu zelf.

Echter is het zeker een belangrijk punt wat je aan kaart dat degene die dit soort chips kopen hoogstwaarschijnlijk er toch linea recta een monster van een videokaart onder gooien.
Ik ben het met je eens, sterker nog je laatste opmerking had ik al eerder ter harte genomen vanwege het renderen met Lumion (5950X/3080Ti)
Dank je voor de verdere verduidelijking!
De TDP van een CPU veranderd niet wanneer de GPU uit of weg is? Of ik begrijp niet wat je wilt zeggen.
Zet die uit en het scheelt al een stuk van de TDP
Zo werkt het niet, kijk maar naar Intel, de normale cpu en de F versies hebben allemaal dezelfde TDP.
Ook bij de K KF modellen.
Het is ook niet 1:1 vergelijkbaar. AMD berekend de TDP op een andere manier dan Intel dat doet. Het is dus ook lastig te vergelijken.
Dan undervolt je je cpu toch als je wilt dat die minder verbruikt.
Dit komt onder andere door de iGPU. Als je die moet voeden met het oude TDP (betekenis daarvan even daargelaten) blijft er simpelweg minder over voor de CPU. Onwenselijk. het 'iGPU TDP' komt dus 'bovenop' het oude TDP voor alleen de CPU.
Dat denk ik niet, de IGP's van de huidige APU's verbruiken al niet bijzonder veel en deze nieuwe IGP's worden ten eerste op 6nm gebakken i.t.t. de 7nm van de meeste andere IGP's (uitgezonderd de zeldzame Ryzen 6000's). En daarnaast hebben deze IGP's maar 2 CU's, waarschijnlijk niet op extreem hoge kloksnelheid, want ze zijn toch bedoeld voor beeld, niet voor prestaties. Het zou me verbazen als deze IGP's meer dan enkele Watts zouden verbruiken.
Ik denk dat dat te laag is ingeschat, maar de testen zullen het uitwijzen :) Ik verwacht dat je snel tussen de 5 en 10 watt zit. Dat verklaart dan absoluut niet de totale TDP-stijging, maar mijn stelling was ook: "onder andere".

Ben benieuwd naar de benchmarks en bijbehorende power figures.
Valt nog wel mee als je kijkt naar de 12 series van intel.
Je mag de kloksnelheid ook verlagen. Ieder zo zijn ding.
Die tdp's kloppen ook totaal niet. Hoe kan een 7900x nou hetzelfde verbruiken als een 7950x?
Is een hoger TDP nu echt zo erg?
Deze chip is waarschijnlijk sneller met een lagere kloksnelheid (lees: lagere TDP). Dus als iemand een render op de CPU doet, is deze CPU toch ook sneller klaar, en daardoor dus minder energie gebruikt?
Mwa, een hogere TDP (thermal design power) betekend meer hitte. Die hitte moet ook afgevoerd worden. Het zegt niet direct iets over hoe efficient de CPU is en hoeveel stroom hij gebruikt.

Twee CPUs kunnen dezelfde TDP hebben waarbij 1 heel efficient is en snel klaar is en de ander inefficient en later klaar is.

Het is daarom interessanter om te kijken naar de performance per watt.
Klopt, dat is de zogenaamde race-to-idle (of race-to-sleep), hoe je het wilt noemen. Hoe sneller een CPU klaar is met een taak, hoe sneller deze weer naar de zuinige ruststand kan. De vraag is natuurlijk hoeveel energie de CPU gebruikt per berekening.

Dit gaat echter ook om gaming CPUs. Daar is een taak nooit echt klaar, dat ding loeit gewoon op x vermogen tot het spelletje klaar is.
Dit gaat echter ook om gaming CPUs. Daar is een taak nooit echt klaar, dat ding loeit gewoon op x vermogen tot het spelletje klaar is.
Op een beetje normale resolutie wordt je meestal door de gpu beperkt, deze CPU’s zullen op dat moment gewoon zuiniger zijn dan hun voorgangers.

Tenzij je natuurlijk op ultra low settings en resolutie gaat lopen gamen, ja dan zal de cpu de beperkende factor zijn en dus zal deze generatie meer doen en verbruiken dan de vorige.
Dit gaat echter ook om gaming CPUs. Daar is een taak nooit echt klaar, dat ding loeit gewoon op x vermogen tot het spelletje klaar is.
Maar vrijwel nooit een vermogen dat bij de tdp in de buurt komt.
Inderdaad dat is hoe het werkt :) , maar helaas weten veel mensen dat niet en roepen ze alleen maar oh nee nog hogere TDP.... :+
Met een kleine kanttekening, als je een cpu laat renderen, bijv Cinebench, dan verbuikt hij alles wat hij heeft on zsm zn werk te doen, dus op dat moment zal hij inderdaad die hoge TDP aantikken, en moet je zorgen dat je koeling op orde is.
Maar voor gaming draait de cpu (normaal gesproken) nooit op 100 %
Mooie specs, maar het stroom verbruik neemt wel enorm toe. Weet niet of ik daar een fan van ben.
Ik dacht altijd dat kleinere procedé lager stroomgebruik betekende. Vraag me af of dat nog wel van toepassing is.
Nee, dat is zeker niet zo.

Stroomverbruik is een complex verhaal dat opgebouwd is uit meerdere delen. Om het kort samen te vatten heb je:
  • Schakel verliezen: Dit gebeurt wanneer een transistor schakelt tussen 0 en 1, hierbij heb je in feite een kortstondige kortsluiting. De schakelverliezen zijn afhankelijk van de klokfrequentie, schakelsnelheid, en voltage. Een kleiner procédé zorgt vaak voor een lagere spanning en hogere schakelsnelheid, dit zorgt ervoor dat het verbruik van de CPU omlaag gaat. De klokfrequentie neemt echter toe waarmee het verbruik stijgt doordat je vaker schakelt.
  • Ohmse verliezen: ohmse verliezen in de "draden" van de CPU: I2R met een kleiner procédé neemt de stroom toe, de weerstand is een vraagteken, de spoortjes worden dunner, maar ook korter. Hoe dan ook zullen de ohmse verliezen toenemen, maar dit is een relatief klein aspect.
  • Lekkage: met een kleiner procédé gaat lekkage een steeds grotere rol spelen. Ondertussen zitten er nog maar enkele atomen aan isolatie tussen verschillende sporen en transistoren, hierdoor kunnen elektronen gaan "lekken" naar andere circuits of de nul. Dit kan je vergelijken met een tuinslang met kleine gaatjes erin. Hoe kleiner het procédé, hoe meer gaatjes erin komen. Hierdoor neemt het verbruik dus ook toe.

[Reactie gewijzigd door knirfie244 op 23 juli 2024 11:16]

Een transistor (MOSFET) heeft een parasitaire condensator, immers een condensator ontstaat als geleide materialen dicht bij elkaar komen met een isolator ertussen, precies de situatie in een MOSFET, waar de gate geïsoleerd is van het geleidend kanaal.

Een nieuw procedé verlaagde het energieverbruik omdat door de kleinere transistor het oppervlak van de parasitaire condensator kleiner werd, en de capaciteit dus daalde. Bovendien kon de transistor op een lagere spanning schakelen, waardoor er ook minder lading in de condensator zat en dus minder lading aangevoerd/afgevoerd hoeft te worden als de transistor moet schakelen.

Maar ja, transistoren zijn amper nog gekrompen vanaf de 22nm, we stoppen er alleen meer op een chip. Dat betekent wat kortere afstanden, dus wat minder ohmse verliezen, maar de fundamentele reden waarom het energieverbruik omlaag kon, is niet langer aanwezig.
Duidelijke uitleg. Dank daarvoor.
Simpelere verklaring: zelfs als het verbruik bij gelijkblijvende kloksnelheden omlaag gaat, kun je dat natuurlijk ook als extra marge gebruiken om de kloksnelheden omhoog te gooien. Om de winst in energieverbruik om te zetten in winst in prestaties.

Als we elke generatie alleen maar het verbruik zouden verminderen en niet de prestaties zouden verhogen hadden we nu wel een CPU gehad met de prestaties van een pentium 1 en met een verbruik van een milliwatt. En verhip, dat soort CPU's zijn ook best te krijgen maar dan in een NFC-chip in plaats van in een desktop.
All things equal wel, maar als je dan ziet hoe ver de kloksnelheden omhoog gekrikt zijn wordt dat meteen weer te niet gedaan :P
Bij gelijke klok/specs in de basis wel, maar als je de vervolgens ook weer een tikje omhoog gooit, haal je die winst daaruit meteen weer onderuit.
Dat is zeker zo... bij een zelfde prestatie. Zelfde als moderne motoren zuiniger zijn maar niet als je ze vervolgens 2 keer zo groot maakt om een SUV mee in beweging te brengen.

De chip bakkers zeggen het altijd met een kleiner procede kan het stroom gebruik omlaag bij dezelfde prestaties maar de prestaties blijven zelden gelijk op de desktop. In laptops en telefoons zie je dit wel gebeuren en zie je dat sommige merken echt langer mee gaan met zelfs kleinere batterijen.

Je heb als chipmaker de keuze maar wees nu eerlijk zou jij echt een nieuwe desktop CPU kopen die hetzelfde presteert maar 10% minder stroom verbruikt en hetzelfde kost?
Hoe kom je daar precies bij ? Even afgezien van het feit dat TDP niet zo heel veel zegt over absoluut stroom-verbruik is het toch niet heel zinvol zonder context over stroomgebruik te spreken.

Je hebt een bepaalde 'opdracht' die je moet uitvoeren op die PC. Daarvoor heb je X secondes nodig op CPU1 en 0.7X secondes op CPU2. Dan wil je eigenlijk enkel Performance / Watt weten - als je je drukmaakt om stroomverbruik

Laat die nu net volgens dat artikel verbeterd zijn:
AMD has highlighted a >15% Single-Threaded, >35% Multi-Threaded and >25% Perf/Watt increases when comparing Zen 4 to Zen 3 cores.

Dus in absolute performance is ie beter (sneller), in performance / Watt is ie beter (efficiency). En anders kun je de rommel zelf wel (kunstmatig) cappen door een langzamere variant te kopen, bv. 65W tdp variant.
Gelukkig heb je altijd nog undervolting als optie. Bij een 12700K bijvoorbeeld kun je de met undervolten het maximale stroomverbruik eenvoudig met 20% verlagen zonder prestatie te verliezen, en nog verder met een kleine underclock. Is zo'n beetje het eerste wat ik doe met een nieuwe pc, bij gpu's is het verschil in stroomverbruik nog groter en je krijgt er ook stabielere fps voor terug. Echt een grote aanrader dus.

Performance per watt is mijn inziens de belangrijkste graadmeter, alleen jammer dat er in reviews over het algemeen niet wordt gespeeld met voltages om te kijken wel product na optimaliseren nu echt het beste presteert.
TDP is geen stroomverbruik, dat is al vaker gezegd.

Het zal hoger liggen dan met de huidige series, maar als je ook ziet hoeveel hoger de baseclocks zijn was dat wel te verwachten.

Tenslotte kan iemand de boel ook undervolten indien nodig.
Ik weet niet of het bedoelt is maar uw zin is erg grappig :+
Weet niet of ik daar een fan van ben.
Ik denk wel dat je er een extra fan voor nodig hebt :P
Ik vermoed dat het te maken heeft met de AVX512 extentie. Bij iNtel vreet dat ook extra sap. En uiteraard de hogere klok schaling. Zou kunnen dat je zonder AVX512 gebruik de vermogen mee valt en grof hetzelfde is. Misschien beetje meer ivm hogere kloks.
Als je er geen behoefte aan hebt kun je ook de kloksnelheid verlagen of een goedkoper model installeren.
misschien heb ik iets gemist maar we waren op de 5K serie , bijv 5800x die ik nu heb. Waarom is er dan geen 6800x? maar wel een 7700x? Is de 6K serie overgeslagen?
6K series is voor laptops. Zen 3 maar op een kleinere procede, 6nm als ik me niet vergis.
De 6000 serie is alleen voor laptops. AMD heeft dit gedaan om een duidelijk onderscheid te maken tussen de mobiele en desktop processors.
Willen ze niet omdat de laptop 6000 generatie al uit is en die niet op zen 4 zit.

Alternatief: misschien komt 6000 nog uit op AM4 als lichte refresh ofzo. Er zijn hier en daar geruchten en inuendo’s van AMD dat AM4 nog niet helemaal dood is.
Ze hebben nog geen low end op AM5 en met de DDR5 prijzen gaat dat nog wel even zo blijven, 16GB DDR5 is bijna duurder dan een R3 segment processor.
Dus of ze houden Ryzen 5000 in productie als value offering, of ze refreshen die nog een keer lichtelijk

[Reactie gewijzigd door youridv1 op 23 juli 2024 11:16]

Tot en met de 7700 zie ik vooruitgang. Daarna neemt het stroomverbruik dusdanig toe ten opzichte van de snelheidswinst dat dit tegenwoordig niet meer verstandig is.
Maar die 7700 is daarentegen een super mooie CPU.
Nou is het natuurlijk wel zo dat je niet constant dat hoge stroomverbruik zult halen.
Daarna neemt het stroomverbruik dusdanig toe ten opzichte van de snelheidswinst dat dit tegenwoordig niet meer verstandig is
Ik weet zeker dat er veel zakelijk (3D rendering etc) en ook particulieren (video bewerking) zijn die zeker deze 7900X of 7950X cpu willen hebben als die veel sneller klaar is met zn taak, want dan verbuikt hij als het goed is juist minder energie.
Je kunt je blind staren op TDP maar dat heeft geen enkele zin.

Even als voorbeeld, ik heb al een aantal systemen mogen bouwen voor klanten met een i5 12600K die een TDP heeft van 125W, in de praktijk met gaming verbuikt hij maar +/- 60W en in Cinebench maar 100W op 100% load, dus dan zelfs minder dan opgegeven door Intel.
Ik lees vaak over stroom verbruik
Maar hoeveel stroomverbruik is dat dan
Laten we zeggen ik kom van werk en ben rond 18:00 thuis dan game ik van 19:00 tot 00:00
Dat is zo’n 5 uur per dag
En weekenden rond de 7 uurtjes dus 14 uur de weekenden en 25 uur de werkdagen
Als je vaak leest over stroom gebruik dan weet je ook dat dit niet zo simpel is uit te rekenen en je een hele berg aannames moet doen.

Je processor verbruikt niet continu zoveel stroom, elke batch CPUs is ook lichtelijk anders, je game gebruikt niet altijd 100% CPU etc etc.

Wil je dit weten, prik dan een zo'n slim stopcontact in de muur met je pc er in, dan kun je precies bekijken hoeveel stroom het vreet met je huidige setup.
... wow... _/-\o_ Dat is nog eens een serieuze gamer ikzelf trek dat niet meer moet dan echt :z

Maar het antwoord is niet zo simpel. TDP zul je niet vaak halen tenzij je CPU staat te loeien als een gek wat bij spellen niet vaak voorkomt. Die laten de GPU hard werken.

Daarnaast heb je natuurlijk nog de koeler die wel al die hitte moet kunnen afvoeren als je CPU wel op 100% staat, je moederbord, geheugen en grafische kaart.

Die worden allemaal van stroom verzien door je voeding die een bepaalde efficiëntie heeft zeg 90% en dus meer stroom vraagt aan het net dan het levert aan de computer.

reviews: Tdp: minder simpel dan het lijkt

Je kunt in de praktijk alleen meten hoeveel stroom je verbruikt omdat de rekensom veels te veel factoren heeft.
Als je kan leven met 60fps dan kan je in elk modern spel cappen op die framerate en als je dat monitort zie je dat zowel je cpu als je gpu dan minder hard moeten werken en bijgevolg minder verbruiken waardoor je pc ook minder hard moet blazen voor zijn koeling.
de cache van 7700x naar 7900x bijna dubbel? met maar 4 meer cores?
De 7700x heeft 1 CCX, de 7900x heeft er 2, vandaar dat de 7900x 2x zoveel L3 cache heeft. L2 cache per core blijft hetzelfde.
hmm, nou ben ik benieuwd naar de bench's, dat zou het een flinke boost kunnen gegeven in games. zou dit de x3D versie overbodig maken?
Nee dat doet het niet. Het kan zelfs de prestaties verminderen als het game proces van de ene ccx naar de andere verplaatst wordt en zijn cache kwijt is. Je moet echt naar de cache per ccx kijken, niet naar het totaal.
L3 is eigenlijk shared toch? Voor registers L1 en L2 heb je 100% gelijk. Oh wat ik zeg is per core, wat jij zegt aparte hele cpu/ccx dus dan heb je eigenlijk 100% gelijk?
De L3 cache zit in de CCX, dus als er 2 CCXen zijn dan zou data via de Infiniti Fabric van de ene naar de andere CCX verplaatst moeten worden, wat een latency hit kost. Ik geloof wel dat de CCXen bij elkaar in de cache kunnen kijken, maar je zou de L3 op de andere CCX als een soort L4 kunnen zien, dus weer een rang langzamer.
de X3D cache is een extra cache bovenop de reguliere L3, dus dat is gewoon meer L3 cache op dezelfde CCX.
Voor gaming is het goed mogelijk dat een enkele 8-core (of zelfs 6-core) CCX beter is dan een CPU die er 2 heeft, zeker als die 2 elk "maar" 6 cores hebben.

Maareh, rustig de benchmarks afwachten natuurlijk.
7700x 105w?? Wel aantrekkelijk…
Meh, de 5700x is 65W wat een hele efficiënte processor is op deze manier. Veel meer zo dan de 5800x. Hij is ook uitermate geschikt om in een B350 moederbordje te plaatsen omdat de stroomvoorziening van deze bordjes nog wel eens te kort schiet. 65 Watt moeten ze dan wel makkelijk kunnen leveren. Ideaal voor een ITX pc. 8 core/16 threads power in zo'n klein kastje is erg leuk.
"Naar verwachting introduceert AMD later Ryzen 7000-modellen met 3D V-Cache."

Natuurlijk zullen die beter zijn maar moet dat nog echt iets bijzonders zijn of waarschijnlijk een paar procenten erbij?
Het is afwachten natuurlijk... Maar afgaande op de 5800x3d wacht ik denk ik bij de 7000 serie ook even op die variant.

Als je bij de 5800x3d puur naar gemiddelde fps keek dan was het leuk maar niet wereldschokkend, en dan is het toch wel een dure cpu vooral nu de 5800 flink afgeprijsd is en de 3d niet. Maar als je kijkt naar de 1% en 0,1% lows, dan zie je dat het net op die paar momenten dat het moeilijk wordt de 3d cpu het een stuk beter kan doen. En het zijn net die momenten die soms kleine hickups kunnen geven in de ervaring. Vooral omdat ik ook wel eens VR lijkt me dat erg fijn, wil ik er wel even op wachten en iets meer betalen en boeit het me zelfs niet als de kloksnelheid iets minder hoog zou zijn.
Ik ben benieuwd of de 7900X, gezien de hogere kloksnelheden, ook een hogere singlethreaded performance heeft dan de 7700X. Bij de vorige generate hadden de CPU's met meer cores juist een lagere kloksnelheid waardoor ze langzamer waren bij singlethreading.

Op dit item kan niet meer gereageerd worden.