Gloeilamp wordt ledlamp
Jaren geleden was het de normaalste zaak van de wereld om een gloeilamp van 60W in een armatuur te schroeven. We hadden immers niets anders dan de bekende gloeilamp; je kon er hooguit voor kiezen om eens een lamp van 40W of 25W in de fitting te draaien. Met de komst van spaarlampen kwam daar verandering in. De langzaam opgloeiende cfl-verlichting spaarde niet alleen het milieu, maar ook je portemonnee. Een beetje spaarlamp kon met ongeveer een kwart van het vermogen een equivalente gloeilamp vervangen.
Juist toen spaarlampen steeds beter werden, met minder opwarmtijd en nog compactere behuizingen, kwamen de ledlampen in opkomst. Die zijn nog wat zuiniger dan spaarlampen. Bovendien zijn ze dimbaar en inmiddels ook verkrijgbaar in smart- en rgb-varianten. Lampen zijn slechts één voorbeeld van hoe we energieverslindende technologie langzaam vervangen door zuinigere varianten.
Met computeronderdelen ging het lange tijd net zo. Fabrikanten gingen steeds zuinigere processors en videokaarten maken, zodat wij als consument niet meer een voeding met een vermogen van een kilowatt of meer hoeven te kopen. Ook in dit geval geldt natuurlijk dat een zuinigere pc niet alleen het milieu, maar ook je bankrekening spaart. Die positieve trend lijkt echter langzaam te keren. Met concurrentie die steeds heviger wordt, moet elk beetje performance uit een chip worden geperst. Dat dit de efficiëntie allesbehalve ten goede komt, lijkt van ondergeschikt belang.
Videokaarten
Nvidia
Het meest recente voorbeeld van dit fenomeen is de introductie van de RTX 3090 Ti. Deze gpu telt maar liefst 28 miljard transistors en om die aan het werk te zetten, moesten nieuwe standaarden worden ontwikkeld. De kaart heeft een aparte connector in de vorm van de PCIe Gen 5-connector, bij sommigen beter bekend als de 12VHPWR-connector. Dat is een 12-pinsconnector die in het geval van de 3090 Ti maar liefst 450W vermogen aan de videokaart moet kunnen leveren. In de PCIe Gen 5-standaard is echter voorgeschreven dat de connector nog een stapje verder kan en 600W kan en mag leveren.
In een tijd waarin we allemaal doordrongen zijn van het belang van het terugdringen van energieverkwistende technologie is dit vrij bizar. Overheden stellen klimaatdoelen die nog veel te conservatief zijn om snel voldoende impact op het opwarmen van de aarde te hebben, en fabrikanten schroeven doodleuk het verbruik van hun videokaarten met tientallen procenten omhoog. Nu kun je natuurlijk zeggen dat de milieu-impact daarvan gering is, maar denk in dat geval ook even aan je eigen portemonnee. Met de huidige energieprijzen - een kilowattuur kost makkelijk 60 cent - kost elke watt meer op jaarbasis ongeveer vijf euro.
- TDP topmodellen
- xx80 Ti-kaarten
- xx80-kaarten
- xx70-kaarten
- xx60-kaarten
- xx50-kaarten
Als we naar Nvidia-kaarten kijken, zien we een duidelijk stijgende lijn in tdp's. Een van de zuinigste series was de GTX 900-serie. Sinds die Maxwell-kaarten stijgt het stroomverbruik gestaag: waar een Maxwell GTX 1080 tevreden was met 180W, zit de 3000-serie bij het instapmodel RTX 3060 op een vergelijkbaar verbruik. De 300W en meer van de 3080 (Ti) en 3090 (Ti) is sinds de tijden van dual-gpu-kaarten niet meer voorgekomen.
AMD
Bij AMD-kaarten is er door de steeds wisselende naamgeving een iets minder duidelijk historisch overzicht. Duidelijk is echter wel dat het verbruik van AMD's kaarten weliswaar soms wat is gestegen, maar niet de sterk stijgende lijn vertoont van de Nvidia-kaarten.
- TBP topmodellen
- TBP x8x X(T)-kaarten
- TBP x8x-kaarten
- TBP x7x X(T)-kaarten
- TBP x7x-kaarten
- TBP x6x-kaarten
Nu is het gestegen vermogen natuurlijk slechts één kant van de medaille; de videokaarten zijn bij elke generatie ook stukken krachtiger geworden. Om dat te illustreren, kunnen we naar de prestaties per watt kijken. Omdat we niet van elke kaart onze eigen gpu-prestatiescore hebben, kijken we naar de opgegeven rekenkracht van de kaarten in Gflops. Dat geeft geen volledig beeld van de daadwerkelijke prestaties, aangezien gaming-workloads verschillen van theoretische floating point-prestaties. Dat is vooral bij de laatste generatie Nvidia-kaarten zichtbaar; de streamingprocessors kunnen immers hun INT- en FP-units gezamenlijk aan het werk zetten voor FP32-berekeningen. Dat levert een heel gunstig beeld op in deze berekening, maar in een normale workload zie je dat niet terug. Als we de prestaties van de Ampere-architectuur terugrekenen naar Gflops/shader (reminder: die shaders waren dankzij het meerekenen van de INT-units ook verdubbeld), zien we opeens een cijfer dat veel meer in lijn met Turing en Pascal ligt.
Generatie-vergelijking videokaarten
Het blijkt een flinke uitdaging om deze data op een zinnige manier weer te geven. Simpelweg de vermogens van alle kaarten vergelijken, heeft niet zo heel veel zin. Experimenten om kaarten in dezelfde serie met steeds een generatie verschil te vergelijken, leveren ook niet de meest nuttige inzichten. We hebben daarom besloten van elke architectuur het aantal Gflops per watt, het aantal shaders per watt en het aantal Gflops per shader op een rijtje te zetten. Daarbij kiezen we de beste cijfers van elke generatie desktopkaarten. We hebben bij AMD een uitzondering gemaakt: we tellen de R9 Nano niet mee. Die kaart uit 2015 met de GCN 3-architectuur heeft weliswaar een uitstekende verhouding tussen bovenstaande eigenschappen, maar dat komt vooral doordat de kaart in een compacte form factor moest worden gegoten en veel lager is geklokt dan de verder vrijwel identieke Fury X-kaart. Waarom dat trucje van belang is, bespreken we straks. Helemaal eerlijk vonden we het niet om die kaart zijn generatie te laten vertegenwoordigen.
- Vergelijking AMD-generaties
- Vergelijking Nvidia-generaties
Als we het aantal gigaflops per shader bekijken, is AMD met de laatste RDNA 2-generatie bijzonder efficiënt geworden. In voorgaande architecturen waren AMD en Nvidia aan elkaar gewaagd, maar Big Navi maakt een flinke stap. Historisch gezien loopt AMD wel wat achter als het om het aantal shaders, of cores, per watt gaat. Met Navi, of RDNA 1, stond AMD redelijk op gelijke voet met Nvidia, maar die fabrikant neemt met Ampere flink afstand. Dat komt uiteraard weer mede door Nvidia's INT/FP32-truc. Kijken we ten slotte naar de in deze context belangrijkste verhouding, namelijk die van het aantal gigaflops per watt, dan loopt Nvidia opnieuw uit met zijn Ampere-architectuur. Die theoretische prestaties zie je echter nauwelijks terug in games. Als we naar onze eigen prestatie-indices kijken, scoren Ampere-kaarten maar een beetje sneller dan hun AMD-concurrenten.
Snelheid tegen een prijs
We hebben gezien dat videokaarten ieder jaar eigenlijk op alle aspecten efficiënter worden, maar toch hebben ze ook een steeds hoger stroomverbruik. Zou je niet het tegenovergestelde verwachten? In theorie kunnen de gpu's inderdaad zuiniger zijn, maar aangezien AMD en Nvidia elkaar voortdurend de loef willen afsteken qua prestatiekroon, worden de gpu's steeds groter en - niet onbelangrijk - steeds sneller. Meer silicium en dus meer transistors betekent meer stroomverbruik, maar ook de kloksnelheid drijft het vermogen omhoog. De eerder al genoemde R9 Nano illustreerde dat mooi. Deze kaart had iets lagere prestaties dan de sneller geklokte R9 Fury X, maar verstookte veel minder. De 150MHz lagere kloksnelheid die de kaart in de praktijk aanhield, was daar de hoofdoorzaak van. Dat zie je uiteraard ook terug in mobiele processors of gpu's. Ze worden lager geklokt dan hun desktopvarianten, waardoor het opgenomen vermogen drastisch daalt.
Voltage-frequency-curve
Verbruik van een cpu/gpu
Er zijn veel verschillende factoren die samen het verbruik van een cpu of gpu bepalen; van lekstromen, de actieve schakelstroom en de temperatuur tot het ontwerp. Een van de formules die kunnen worden gehanteerd voor het berekenen van opgenomen vermogen van een mosfet is de frequentie maal elektrische capaciteit maal het kwadraat van de voedingsspanning. Een hogere spanning levert dus een niet-lineair hoger vermogen. Bovendien moet de spanning, om hogere frequenties te halen, bij vrijwel alle processors en gpu's worden verhoogd. Daarmee loopt het vermogen nog verder op.
Voor hogere kloksnelheden zijn hogere spanningen nodig. Dat leidt uiteraard tot een hoger verbruik. Nu schaalt het actieve verbruik van transistors kwadratisch met de spanning. Dat betekent niet direct dat een cpu of gpu die twee keer zo veel spanning gebruikt daardoor vier keer zo veel vermogen verbruikt, maar het opgenomen vermogen neemt wel veel sneller toe dan de spanning. Dat zagen we ook bij de Vega-generatie videokaarten. Die chips zijn weliswaar ontworpen voor hogere frequenties, maar hebben bij lagere snelheden een veel gunstiger verhouding tussen snelheid en verbruik. Om toch in de buurt bij Nvidia te blijven, krikte AMD de kloksnelheden omhoog tot voorbij het ideale werkgebied. Die gpu's voelen zich veel meer thuis in regionen met lagere werkspanningen en frequenties, getuige het feit dat ze als igp in vier generaties apu's zijn gebruikt.
Een ander goed voorbeeld van een kaart met een hoog verbruik als gevolg van spanning en frequenties die eigenlijk op het uiterste randje van het werkgebied van het ontwerp liggen, is de RTX 3090 Ti. De GA102-gpu daarin heeft weliswaar tweeënhalf procent meer SM's geactiveerd dan de gpu in de RTX 3090, maar de 160MHz hogere kloksnelheid levert een 100W hoger verbruik op. Uiteraard dragen in het geval van de 3090 Ti ook de hogere clocks van het GDDR6x-geheugen een beetje bij, maar dat is lang geen 100W.
Processors
Bij processors zien we een tweedeling tussen AMD en Intel. AMD maakt steeds zuinigere processors, terwijl Intel juist de andere kant opgaat. Als we naar de x700X-serie van AMD kijken, dat zijn vier generaties Zen-processors, zien we de tdp dalen van 95W naar 65W, met een uitstapje naar 105W voor de 2700X. Oudere processors zoals de A10-5800K zaten op een tpd van 100W en de Steamrollers zoals de 8170 op 125W. Ook als we kijken naar complete series AMD-processors, overigens zonder de zuinige varianten, hanteert AMD in de regel een tdp van 65 tot 95W, of 105W voor de Ryzen-processors van de afgelopen vijf jaar.
AMD-generatie |
Minimale tdp (generatie) |
Maximale tdp (generatie) |
Zen 3 (Vermeer, 2020-2022) |
65 watt |
105 watt |
Zen 2 (Matisse, 2019) |
65 watt |
105 watt |
Zen+ (Pinnacle Ridge. 2018) |
65 watt |
105 watt |
Zen (Summit Ridge, 2017) |
65 watt |
95 watt |
|
|
|
Intel-generatie |
Minimale tdp (generatie) |
Maximale tdp (generatie) |
Alder Lake Maximum Turbo Power |
69 watt |
241 watt |
Alder Lake (2021/2022) |
65 watt |
125 watt |
Rocket Lake (2021) |
65 watt |
125 watt |
Comet Lake (2020) |
65 watt |
125 watt |
Coffee Lake Refresh (2019) |
65 watt |
127 watt |
Coffee Lake (2017) |
65 watt |
95 watt |
Kaby Lake (2017) |
51 watt |
91 watt |
Bij het blauwe Intel-kamp zitten de Core-processors, de zuinige T-varianten uitgezonderd, op 65 tot 125W. Kaby Lake uit 2017 was zelfs iets zuiniger, met tdp's van 51 tot 91W. Bij de nieuwste generatie heeft het bedrijf echter de remmen losgegooid om de maximale prestaties uit zijn processors te kunnen halen. Bij eerdere generaties bleken de processors al flink meer dan hun tdp te verbruiken, maar bij Alder Lake, de 12000-serie, is de tdp verhoogd tot maximaal 241W. Als we net als bij AMD vijf jaar terugkijken, in dit geval tot Kaby Lake, dan is de tdp van de x700K-processor toegenomen van 91W voor de 7700K tot maximaal 190W voor de 12700K. Met powerlimits aan is de tdp van dat laatste model 125W. Dat past nog steeds in een tendens die het tegenovergestelde is van die bij AMD.
- Performance tegen vermogen
- Verbruik idle
- Verbruik Cinebench
- Verbruik ingame
- Efficiëntie Cbench
We hebben geen theoretische prestatieniveaus van de processors, maar van een aantal hebben we wel eigen data. Als we onze eigen cpu-prestatiescore afzetten tegen het stroomverbruik dat we meten, zien we dat AMD-processors de beste performance per watt bieden, met af en toe een instapmodel van Intel in de bovenste regionen. Dat laatste is weer terug te voeren op de voltage-frequency-curve, waarbij de instappers met lagere spanning en dus lager vermogen werken. De topmodellen van Intel moeten relatief hoge spanningen aanwenden om de laatste paar megahertzen eruit te persen. Dat kost buitenproportioneel veel energie. In onze efficiëntietests, waarin we de energie meten om een benchmark af te ronden, scoort Intel ook aanzienlijk minder goed dan AMD.
Prestaties kosten geld
Het lijkt een open deur, maar prestaties kosten geld. Dat kosten ze zelfs meerdere keren, om te beginnen bij de aanschaf. Topmodellen bieden in de regel niet de gunstigste mix van prestaties en kosten. Voor een paar procent hogere prestaties moet je vaak tientallen procenten meer betalen. Als je altijd het snelste van het snelste wil hebben, zul je wellicht vaker upgraden. Bovendien zul je voor een snelle processor en videokaart in de regel ook een duurder moederbord, meer en sneller - dus duurder - geheugen, en een snellere en duurdere ssd willen hebben. Voor dat alles is uiteindelijk ook een duurdere voeding nodig, of in ieder geval een variant met meer vermogen.
Daarnaast kosten prestaties ook geld doordat je meer kwijt bent aan energie. Die dikkere voeding levert meer vermogen aan je systeem, en dat vermogen kost geld. Momenteel kost het zelfs veel geld, want de energieprijzen zijn de laatste maanden de pan uit gevlogen. Een kilowattuur stroom kost op het moment van schrijven pakweg zestig cent. Een pc met een verbruik van 600W tijdens gamen - een vermogen dat een systeem met een 3090 Ti-kaart en i9-12900K-processor met gemak haalt - kost met een bescheiden 20 uur gamen per week ongeveer 375 euro per jaar aan energie. Lever je pakweg tien procent aan prestaties in door voor een combinatie van een 6900 XT en een 5600X te kiezen, dan verstook je in-game ongeveer 400W, waarmee je energiekosten op ongeveer 250 euro komen. Bovendien bespaar je op de aanschaf van onderdelen, zonder zaken als een krachtiger voeding meegerekend, al zo'n duizend euro.
Nu ben je niet altijd aan het gamen op je systeem, dus kijken we voor de aardigheid ook even naar het idle-verbruik. Stel dat je je pc alleen 's nachts gedurende tien uur uitzet, en de rest van de tijd (los van die 20 uur gamen per week) lekker idle laat staan. Dan verstookt het eerdergenoemde 5600X-systeem met een 6900 XT ongeveer 20W idle, tegenover de 30W idle-verbruik van de 12900K/3080 (Ti)-combinatie. De 3090 Ti doet daar nog een schepje bovenop, maar dat negeren we even. Op jaarbasis kost je dat 50 euro voor het AMD-systeem en bijna 75 euro voor het Intel/Nvidia-systeem.
Tot slot
Nu kun je uiteraard altijd redeneren dat prestaties best wat geld en energie mogen kosten. Toch is het iets om rekening mee te houden: om dat laatste beetje prestaties uit een plak silicium te halen, moet vaak buitenproportioneel veel energie worden gebruikt. Prestaties versus vermogen schaalt nooit evenredig, en op het grensgebied is sprake van diminishing returns. Dat geldt bij de aanschaf en voor het energiebudget. Vergeet daarbij niet dat meer vermogen verbruiken ook betekent dat er meer warmte moet worden afgevoerd. Je koeling moet dus harder werken en ruimer zijn gedimensioneerd dan wanneer je iets conservatievere hardware koopt.
Los van de consequenties voor je eigen portemonnee is er misschien wel een bredere discussie mogelijk over het hogere energiegebruik dat het resultaat is van de zoektocht naar dat beetje meer performance. Zoals we dit verhaal begonnen: we proberen met zijn allen hier en daar het milieu wat te sparen, met spaarlampen die voor ledlampen worden gewisseld, gas-guzzlers die voor hybride of elektrische auto's worden ingeruild, en het afnemen van 'groene' stroom bij energieleveranciers. Moet de tech-industrie dan niet meebewegen met die trend, die hij zelf overigens ook jaren heeft gevolgd, en juist streven naar zuinigere hardware? Met processors die meer en meer verstoken, moederborden met vrm's die honderden watts aan die hongerige processors kunnen voeden, en videokaarten die richting de halve kilowatt gaan, lijkt er eerder een beweging in de andere richting.
Stem op je favoriete onderwerpscategorie
Ben je Plus-abonnee? Dan horen we graag van je in welke onderwerpscategorieën je meer Plus-artikelen zou willen lezen. Je kunt stemmen in het Aboforum.