Door Reinoud Dik

Redacteur

Energie besparen op je videokaart

Grafische monsters getemd

23-04-2022 • 06:00

85

Multipage-opmaak

Een zuinigere videokaart

Videokaarten worden elke generatie weer efficiënter, maar tegelijkertijd neemt het stroomverbruik ervan de afgelopen jaren wel toe. Door toegenomen concurrentie tussen AMD en Nvidia worden voor de topmodellen maximale prestaties verkozen boven een laag verbruik, met als doel om koste wat het kost bovenaan in de grafieken van reviewers te verschijnen.

Voor veel gebruikers zal de videokaart een component zijn om games mee te spelen, of om mee te renderen. Toch voert dit stuk hardware nog wat meer taken uit, waarvoor verschillende delen van de chip worden aangesproken. Moderne videokaarten zijn goed in staat om het energiegebruik terug te schroeven wanneer de chip of het geheugen deels of in het geheel niet wordt belast. Maar wanneer de belasting erop wel hoog is, geldt dat net zo voor het energiegebruik.

Met de huidige energieprijzen kan frequent gamen of renderen daarom een dure kwestie worden. In dit artikel bekijken we zowel hoe het stroomverbruik onder belasting is terug te dringen als in welke scenario’s je een hoger verbruik kunt hebben dan je misschien zou verwachten. Hoewel er in een pc veel meer componenten zitten die allemaal bijdragen aan het totaalverbruik van het systeem, is de videokaart in veel gevallen het onderdeel met het hoogste energiegebruik. Daar valt in die zin dus ook de meeste winst te behalen.

Of je de pijn van de hoge energieprijzen wat wil drukken, de ruimte waarin je zit te gamen deze zomer wat minder heet wil laten worden of het milieu wat wil sparen, met dit artikel krijg je hopelijk een idee waar je kunt beginnen als het om een zuinigere videokaart gaat.

Ontwikkeling van power states

Videokaarten zijn goed in staat om hun energiegebruik flink te beperken wanneer ze niet of amper aan het werk worden gezet. Dit was echter niet altijd zo. Generaties terug kenden gpu’s maar één kloksnelheid waarop ze draaiden, ongeacht wat er op dat moment van ze werd gevraagd. In die periode nam de rekenkracht per generatie drastisch toe, en het energiegebruik ervan steeg ook aanzienlijk, wat weer tot gevolg had dat gpu-koelers grotere afmetingen kregen.

AMD ZeroCore
In de loop der jaren kreeg het idle-verbruik van videokaarten steeds meer aandacht

De noodzaak van een lager idle-verbruik nam toe en dat was de reden om gpu’s te voorzien van power states. Daarbij ging het in eerste instantie maar om twee niveau’s: een idle-state en een load-state. Generaties later werden steeds meer p-states toegevoegd, waardoor het power management steeds uitgebreider en verfijnder werd. Ook werd het steeds normaler om het videogeheugen terug te klokken om energie te besparen. Met slimmere aansturing van de gpu en monitoring van de stroomvoorziening kon de gpu-kloksnelheid nog dynamischer worden geregeld. Dit werd opgevolgd door boost-algoritmen die hogere kloksnelheden mogelijk maken wanneer de temperatuur en stroomvoorziening dit toelaten.

Idle en lichte belasting

Het stroomverbruik in idle is bij de meeste videokaarten dus relatief laag, maar ook bij dit component kan sluipverbruik optreden zonder dat je dit wellicht door hebt. Zo kan het aantal aangesloten monitoren invloed hebben op het idle-energiegebruik van je videokaart. Bij gebruik van meerdere monitoren, met name als ze een hoge schermresolutie hebben, heeft de videokaart meer werk te verrichten omdat er simpelweg meer pixels zijn aan te sturen. Afhankelijk van de videokaart kan dat ervoor zorgen dat de zuinigste idle-stand niet meer wordt bereikt.

Naast het aantal monitoren kan de verversingsfrequentie van het scherm ervoor zorgen dat je videokaart in idle meer energie gebruikt. De high refresh rate-monitoren die populair zijn voor gaming, zorgen er bij sommige videokaarten voor dat de gpu en met name het videogeheugen niet meer de laagste kloksnelheid gebruikt. Dat hoeft niet eens tijdens het gamen te gebeuren; ook tijdens het browsen of simpelweg weergeven van de desktop kunnen videokaarten hogere kloksnelheden aanhouden om een vloeiende werking en responsieve ervaring op bijvoorbeeld 144Hz-monitoren te garanderen.

Energieverbruik multimonitor GPU's
AMD's multimonitor-energiegebruik is vanaf de RX 6000-serie flink lager. Bij Nvidia is sinds de RTX 20-serie een stijging zichtbaar. Bron (bewerkt): Techpowerup

Met name AMD-videokaarten van de afgelopen generaties gebruiken relatief veel energie wanneer er meerdere monitoren zijn aangesloten. De website Techpowerup houdt al jarenlang bij hoeveel energie videokaarten gebruiken bij gebruik van meerdere monitoren. Bij de RX 6000-serie werd dit gebruik lager, terwijl de trend bij Nvidia bijna andersom is: de GTX 10-serie kende nog een bescheiden energiegebruik terwijl de meeste GeForces erna juist meer gebruiken.

In onze reviews tonen we altijd het idle-stroomverbruik van videokaarten. Met gpu’s van de afgelopen generaties valt te denken aan een idle-stroomverbruik van doorgaans 5 tot 10 watt, al zijn er high-end modellen die hoger uitkomen, zoals de recent uitgebrachte GeForce RTX 3090 Ti. Bij gebruik van meerdere monitoren is dit voor elke videokaart dus hoger, al hangt van het model en de generatie af hoeveel hoger het verbruik is. In absolute zin kan het verschil tussen een enkele en meerdere monitoren dus klein zijn, maar bedenk dat deze toename wel geldt voor elk moment dat je pc aanstaat. Als je een hoog idle-verbruik met een monitor met een hogere refreshrate hebt, kun je - wanneer dat uitkomt, zoals buiten het gamen om - de verversingsfrequentie verlagen om het idle-verbruik van de videokaart omlaag te krijgen.

Verbruik onder belasting terugdringen

In games wordt je videokaart meestal flink aan het werk gezet. Afhankelijk van hoe zwaar het spel in grafische zin is, welke instellingen zijn gekozen en op welke resolutie en framerate je speelt, kan het verbruik snel oplopen tot de maximale vermogenswaarde die de fabrikant opgeeft.

Alle chips van een bepaalde gpu die in de fabriek van de band rollen moeten aan bepaalde specificaties voldoen die de fabrikant heeft vastgesteld. Kloksnelheden zijn hier een goed voorbeeld van, en dus erg bepalend voor het energiegebruik. Van een grote hoeveelheid geproduceerde en geselecteerde chips wordt aan de hand van de 'slechtste' chip hiervan gekozen welke spanning nodig is om deze kloksnelheid te behalen. Voor de veiligheid wordt hierin door fabrikanten ook altijd een marge ingerekend. Heb je een videokaart met een van deze minder geslaagde chips, dan zal de spanning waarop hij werkt ook noodzakelijk zijn om stabiel te functioneren. Maar heb je een chip te pakken die juist van een beter deel van de wafer afkomstig is, dan is de standaard gebruikte spanning lang niet altijd nodig voor een stabiele werking. Het proces van handmatig deze spanningen verlagen heet undervolten, en wie een beetje geluk heeft, kan het verbruik aanzienlijk terugdringen zonder hiervoor enige, of al te grote, prestaties in te leveren.

In hoeverre op een videokaart het energiegebruik met undervolten teruggedrongen kan worden, verschilt dus per exemplaar. Wel kun je in alle gevallen de power limit aanpassen, waarmee je letterlijk het oorspronkelijk maximale vermogen van de videokaart aanpast. Daarmee lever je wel wat aan prestaties in, maar hoeveel dat is hangt ook weer af van het model dat je hebt. Om een globaal idee te geven van beide scenario's hebben we hieronder beschreven wat we op twee videokaarten hebben bereikt en hoe we te werk zijn gegaan. Hiervoor hebben we ons standaard gpu testplatform gebruikt dat bestaat uit een AMD Ryzen 9 5950X processor, ASUS ROG Crosshair VIII Hero moederbord met daarop 32GB DDR4-3600 geheugen. Onze eigen richtlijn voor deze test is dat we willen proberen het energiegebruik zoveel mogelijk te verminderen zonder daarbij meer dan vijf procent op de prestaties in te leveren.

GeForce RTX 3080

We beginnen met de makkelijkste manier om het energiegebruik van de RTX 3080 terug te dringen, en dat is door de power limit aan te passen. Met programma's zoals EVGA Precision of MSI Afterburner zijn deze instellingen met een paar muisklikken aan te passen en we gebruiken laatstgenoemde tool om de power limit telkens met 10 procent te verlagen. Als test voor stabiliteit en prestaties draaien we de benchmark van Metro Exodus op 4k met Ultra-settings.

De RTX 3080 hoort op standaard instellingen onder volle belasting maximaal 320 watt te verbruiken, en we zien dat de power limits die we achtereenvolgens instellen, keurig worden aangehouden. De prestaties lopen met de lagere power limits terug, maar lang niet evenredig. Zo ligt de gemiddelde framerate in Metro Exodus met een power limit van 80 procent slechts 5,5 procent lager, terwijl het verbruik dus wel met 20 procent afneemt - een vermindering van 65 watt in absolute zin.

Stellen we een power limit van slechts 60 procent in, dan wordt er 129 watt minder verbruikt. Daar staat dan ook een 18 procent lagere framerate tegenover en zit daarmee op het niveau van een RTX 3070 Ti. Kopers van een RTX 3080 hebben deze videokaart ongetwijfeld niet gekocht om hem vervolgens flink af te knijpen, en het zal duidelijk zijn dat je met het verlagen van de power limit ook te ver kunt gaan als je de prestaties nog enigszins wil behouden.

De prestaties die we zijn verloren willen we natuurlijk het liefste zoveel mogelijk terug krijgen zonder daarbij het energiegebruik weer te verhogen. Omdat door de lagere power limit ook een lagere spanning wordt gehanteerd, kunnen we makkelijk wat prestaties terugwinnen door de kloksnelheid van de gpu en het videogeheugen te verhogen. Dit is handig om in kleine stapjes op te bouwen en daarbij elke keer op stabiliteit te controleren in een benchmark of game.

Stapsgewijs komen we met de RTX 3080 uiteindelijk uit op een toename van 200 MHz op de core en 300 MHz op het geheugen. Ter verificatie draaien we nogmaals de benchmark van Metro Exodus die stabiel werkt, maar wanneer we hetzelfde doen in Doom blijken onze instellingen toch instabiliteit te veroorzaken. Een combinatie van het verhogen van de power limit met één procent en een 25 MHz minder hoge overklok blijkt wel stabiel in de geteste games. Het resultaat: een 30 procent lager verbruik tegen vijf procent prestatieverlies, wat onder volle belasting 90 watt scheelt.

  • Metro: Exodus
  • Doom Eternal
  • Red Dead Redemption 2

Radeon RX 6800 XT

Hetzelfde proces als hierboven hebben we ook bij de RX 6800 XT uitgevoerd. Omdat we op deze kaart de power limit vanuit de software niet meer dan zes procent kunnen verlagen, richten we ons primair op het verlagen van de spanning op de gpu in Afterburner. Dit doen we in de Voltage/Frequency curve editor van het programma.

RX 6800 XT Afterburner voltage/frequency curve editor

Er blijkt veel rek in de gpu van onze RX 6800 XT te zitten. Zoveel zelfs dat we als core voltage op de ondergrens van 0,881V in de tool van MSI uitkomen. Het videogeheugen kunnen we 150 MHz sneller laten lopen dan standaard en de ingestelde kloksnelheid van de gpu komt daarbij uiteindelijk op 2114 MHz uit. Dat is lager dan de originele 2250 MHz maar het maakt de lage spanning ook mogelijk, gezien de relatie tussen kloksnelheid en spanning. De toename in geheugensnelheid weegt voor de prestaties in dit geval ook zwaarder dan de iets lagere core clock.

Het resultaat met de RX 6800 XT en het streven naar een maximaal prestatieverlies van vijf procent is dat we met bovenstaande instellingen de geteste games stabiel draaien met een 20 tot 25 procent lager verbruik, afhankelijk van het spel. In absolute zin is dat een daling in het verbruik van 60 tot 77 watt.

  • Metro: Exodus
  • Doom Eternal
  • Red Dead Redemption 2

Duurzamer, koeler, stiller en goedkoper

Van alle componenten die in je pc zitten, zou de videokaart zomaar het onderdeel kunnen zijn dat onder belasting de meeste energie gebruikt. Vooral de luxere en snellere modellen verlangen meer vermogen en de komende generatie lijkt daar nog een flinke schep bovenop te doen. Duur zijn ze al, maar je mag daarnaast ook een hogere energierekening verwachten als je regelmatig aan het gamen bent met een dergelijke kaart. Met de huidige energieprijzen tikt dat helemaal aan, wat reden genoeg was om eens in het stroomverbruik van de videokaart te duiken.

Tijdens het gamen wordt de videokaart doorgaans flink belast. Hier is dus winst te behalen door zelf wat instellingen aan te passen, zoals wij voor dit artikel hebben gedaan met de GeForce RTX 3080 en Radeon RX 6800 XT. Met de power limit als makkelijkste optie (mits hij uiteraard beschikbaar is) bleek de RTX 3080 in een handomdraai een stuk zuiniger te maken. Een 65 watt lager verbruik met de power limit op 80 procent had een prestatieafname van slechts 5,5 procent tot gevolg.

Met het verder finetunen van de powerlimit en de kloksnelheden kregen we de RTX 3080 uiteindelijk 30 procent zuiniger zonder meer dan vijf procent in te leveren op prestaties. Dat is een 90 watt lager verbruik, wat je niet alleen in je portemonnee voelt maar ook scheelt in geluid en temperatuur. Minder warmte betekent een stillere koeler en een koelere kamer, en bovendien is het duurzamer.

Bij de RX 6800 XT konden we het stroomverbruik ook reduceren door de spanning op de gpu te verlagen. Opnieuw hielden we maximaal vijf procent prestatieverlies aan als uitgangspunt. Op onze Radeon viel 20 tot 25 procent te besparen, wat een afname van 60 tot 77 watt betekent en geld scheelt als je veel speelt. Met een kilowattuurprijs van 60 cent en gemiddeld 20 uur gamen per week kost 60 watt extra tijdens het spelen op jaarbasis al 37 euro. De besparing op de RTX 3080 zou in dat scenario zelfs 56 euro bedragen.

De besparing op het stroomverbruik tijdens gaming is al snel de moeite waard, al zullen de besparingen op minder high-end videokaarten doorgaans kleiner zijn. De maximaal haalbare resultaten zullen sowieso per exemplaar verschillen. Daarnaast valt ook in idle winst te behalen, zeker als de pc hele werkdagen - of zelfs continu - aan staat. Een gamingmonitor is leuk om op te spelen, maar wanneer de hoge refreshrate van zo'n scherm voorkomt dat je videokaart bij licht desktopgebruik zijn kloksnelheden kan terugschroeven, heb je op de achtergrond een hoger verbruik dan je wellicht doorhebt. Het zijn misschien kleine verschillen van een tiental watt, maar wie overtuigd is dat alle beetjes helpen, zal de grotere optelsom al snel voor zich zien.

Reacties (85)

85
83
39
1
0
28
Wijzig sortering
Ook op idle-verbruik met een multi-monitoropstelling kun je makkelijk besparen (iig met een 5700XT). AMD heefteen feature in de drivers die zorgt voor voldoende performance bij hoge resoluties/refreshrates. Dit in combinatie met 'verkeerde' timings voor je monitor zorgt dat de memory clock niet netjes naar idle gaat. Zie https://www.reddit.com/r/..._clocks_at_144hz_problem/. Ik heb het opgelost door de timings van mijn schermen met CRU aan te passen naar degene die de TS daar linkt als "LCD standard"

Ik vond het bij mij namelijk extra frappant omdat ik 2x 1920*1200 draai op 60hz (2x Dell U2410m). de timings waren echter wel veel te snel, nu alles volgens de "LCD standard" is ingesteld loopt de kaart idle netjes op 200 MHz, en bij zaken als youtube schommelt het tussen de 350 en 900 MHz.

Grootste voordeel: de fans slaan niet meer om de haverklap aan, en de boel blijft lekker koel in mijn Ieniemienie case (Fractal Design Node 202).
Heb zelf 3 monitoren (1080p144) en kreeg deze niet met deze methode goed.

Na veel testen er achter gekomen dat op 111Hz ik wel de memory clock laag krijg, dus hier mijn schermen maar op gezet. Vind het wel prima zo, bespaart me al snel 1.1kWh per week (20W minder power draw)
In het beste geval kun je volgens het artikel zo'n 100 watt minder vermogen realiseren.
Stel de pc gaat 10 uur een zwaar spel draaien.
E = 100/1000 kW x 10 h = 1 kWh
1 kWh kost nu ongeveer 0,60 euro.
Mocht je vrijwel elke dag 10 uur zwaar gamen, dan bespaar je een 200 euro per jaar aan stroom.

Een realistischer aantal game-uren is 40 uur per week en dat is rond de 2000 uur per jaar. Dat resulteert in een besparing van rond de 100 euro per jaar aan stroom door de methode in het artikel. Onder voorwaarde dat je de pc ook constant vol aan het werk hebt tijdens gebruik.

Dat laatste is (bij mij) zelden het geval. Ik gebruik vsync en beperk daarmee de fps altijd tot 100 fps en momenteel meestal tot 60 fps (voor Souls-games).
De dikke gpu werkt door fps-beperking al redelijk vaak ver onder de 100% van zijn kunnen. De besparing komt daardoor op een 50 euro per jaar uit voor een dagelijkse gamer met een RTX 3080.

Punt is dat het echt te weinig helpt qua duurzaamheid en geld. Het helpt wel om een systeem en de kamer koeler te houden. En voor met name cryptominers is het uiteraard wel erg interessant.

Mijn huis heb ik energie-neutraal gemaakt met een zonneboiler en zonnepanelen. 16 zonnepanelen (complete prijs is een 5000 euro) leveren al 1000 euro per jaar op aan stroom, plus het betekent voor mij in de praktijk dat stroom gratis is. Of ik nou 4000 of 5000 kWh per jaar verbruik, ik wek zelf toch rond de 5000 kWh op. Het overtollige deel gaat het net in en daar krijg je weinig tot niks voor.
Zonder de salderingsregeling zou ik alsnog een deel van de stroom zelf opwekken als ik tijdens zonuren game. Dat zou de besparing per jaar alsnog stevig verlagen.
In de praktijk levert het mij dus vrijwel niks op om zuinig te doen met de gpu. Bij mensen zonder duurzaam huis/energie is het al een geringe winst.

Duurzaam is erg belangrijk, maar de nuance ook. Alle kleine beetje helpen, maar het is beter om het groot aan te pakken.
Een realistischer aantal game-uren is 40 uur per week
Pfoe, naast gemiddelde werk- of studiedagen en normale nachtrust weet ik niet of de meeste mensen dat gaan redden ;)
ik wek zelf toch rond de 5000 kWh op. Het overtollige deel gaat het net in en daar krijg je weinig tot niks voor.
Daar denkt een groep mensen op het forum toch heel anders over.
Duurzaam is erg belangrijk, maar de nuance ook. Alle kleine beetje helpen, maar het is beter om het groot aan te pakken.
Helemaal mee eens, en met al die kleine beetjes kunnen we het collectief heel groot aanpakken! Ook als jij je GPU/pc zuiniger maakt is elke extra kWh die je daardoor het net opstuurt er eentje die niet meer fossiel hoeft te worden opgewekt.

[Reactie gewijzigd door Jan1337 op 22 juli 2024 14:15]

Pfoe, naast gemiddelde werk- of studiedagen en normale nachtrust weet ik niet of de meeste mensen dat gaan redden ;)
Precies. Was meer een worst-case inderdaad, maar dat maakt de te behalen winst alleen maar minder.
Daar denkt een groep mensen op het forum toch heel anders over.
Nee? Er is wel geld mee te verdienen, maar zo weinig dat het de extra investering niet of nauwelijks waard is.
Helemaal mee eens, en met al die kleine beetjes kunnen we het collectief heel groot aanpakken! Ook als jij je GPU/pc zuiniger maakt is elke extra kWh die je daardoor het net opstuurt er eentje die niet meer fossiel hoeft te worden opgewekt.
Dat klopt, maar het punt is dat dit wel heel kleine beetjes zijn. Het is verder financieel voor mensen met een degelijke eigen energie-opwekking niet interesant, want het levert vrijwel niks op, terwijl je wel een minder presterende en deels onstabielere game pc er voor terugkrijgt.
Ik zeg ook niet dat mensen het verder niet moeten doen. Ik weet allen wel dat ik meerdere andere keuzes heb gemaakt, waardoor mijn CO2 afdruk vele malen kleiner is dan eerder (of een ander). De videokaart begrenzen doe ik al met Vsync of een fps-limiter. Die energieopties uit dit artikel werken verder prima, maar zijn lichtelijk een wassen neus als het over klimaat en duurzaamheid gaat.
Het is ook helemaal niet de bedoeling dat een terugleververgoeding de investering waard zou zijn. Als je er met die mindset in zou stappen, dan ben je gewoon foutief bezig. Het doel is nog altijd je eigen verbruik af te dekken met de installatie die je thuis hebt, niet meer en niet minder.

Je blijft ook altijd maar terugkomen op dat financiele, maar dat is dus de verkeerde insteek wanneer je kijkt naar energiegebruik. Jij gaat er in met de gedachte: ik wil geld besparen, dat klimaatgedoe is leuk om het te verkopen, maar dat interesseert mij een stuk minder.

En hoe klein of groot een besparing ook is, alle beetjes helpen.
Jij denkt dat iedereen zo graag milieu wil sparen dat men geld wil uitgeven om dat te doen? Ben je een van de zeer weinigen, veel geluk daarmee.

Als het de investering gewoon niet waard is, wordt het lastig om dat verhaal te verkopen.
Laat me even beginnen met het volgende: Ik ben geen voorstander van de industrietruc die "carbon footprint" heet. Dat is een afschuiven van de verantwoordelijkheid door grootvervuilers in de energie (en inmiddels vrijwel elke andere) industrie op de consument die nul controle heeft over hoe, hoe efficiënt of hoe duurzaam zij te werk gaan en vooral ook een marketing tool om mensen een schoon geweten te laten kopen (tegen absurde meerprijzen die niet te rechtvaardigen zijn).

Maar: elk klein beetje helpt wel. GPU-fabrikanten stellen hun silicone niet af op maximale efficiëntie, maar op ruwe prestaties (hetzelfde geldt voor CPUs/RAM/SSDs etc grotendeels net zo). De recente 3090 Ti toont dat indrukwekkend aan: +30% verbruik, +5% prestaties.

Maar wat dit artikel toont is dus dat er op per kaart basis aardige winsten in de efficiëntie te behalen zijn zonder dat dat veel moeite moet kosten. Een basic aanpak heb je in een half uurtje klaar.

En de implicaties zijn ook groter dan alleen -20€ op je energierekening op jaarbasis. Het betekent ook minder belasting voor je PSU en die kan potentieel langer meegaan. Ook geen enorm effect natuurlijk. Maar als veel gamers dit doen, begint het wel op te tellen. Stel: 1/10 huishoudens heeft een PC-gamer (geen idee hoe realistisch dat is) en 25% daarvan doen zo'n optimalisatie met als resultaat gemiddeld -50W, hoofdzakelijk in (gemiddeld) 2 piekuren in de vroege avond. Reken daar nog efficiëntieverlies door PSU bij (gemiddeld misschien 10%). Allemaal redelijk conservatieve schattingen als je mij vraagt. Het resultaat is een besparing van meer dat 20MWh per dag.

Maar waar het vooral om gaat: Je kunt deze besparing halen zonder noemenswaardig prestaties in te leveren. Veel andere besparingen op CO2 (denk minder vliegen/vlees eten/autorijden/verwarmen/airco/goederen kopen) brengen praktisch altijd een merkbare (soms enorme) impact op de levenskwaliteit met zich mee. Dat is hier dus totaal niet aan de orde van de dag en juist dat maakt dat het eigenlijk een no-brainer is om dit te doen. Natuurlijk los je de klimaatcrisis hiermee niet op, maar elk beetje helpt en elk beetje is nodig. Er is namelijk niemand (ook geen bedrijf of industrie) die dit in z'n eentje kan oplossen. Als wij kunnen bijdragen zonder dat het ons pijn doet, zou het vanzelfsprekend moeten zijn dat we dat ook doen.

[Reactie gewijzigd door Darkstriker op 22 juli 2024 14:15]

die kleine beetjes kunnen we het collectief heel groot aanpakken! Ook als jij je GPU/pc zuiniger maakt is elke extra kWh die je daardoor het net opstuurt er eentje die niet meer fossiel hoeft te worden opgewekt.
Op zich ben ik het er mee eens hoor, en ik ben ook wel een voorstander van om in je eentje goeie dingen te doen zodat het vervolgens bijdraagt aan het geheel. Maar ik heb soms wel het gevoel dat mensen, maar ook overheden, zich hierop blindstaren: als nou eens iedereen een klein beetje energie bespaart, dan komt het allemaal goed! Maar het grote probleem is dat het niet schaalbaar is.

Ga maar eens na. Hoeveel apparaten zijn er waar videokaarten in zitten? Vervolgens, hoeveel van die videokaarten hebben uberhaupt de mogelijkheid om getweaked te worden, sowieso niet allemaal? Volgende stap, hoeveel mensen hebben ook daadwerkelijk de kennis en motivatie om er wat aan te tweaken? En ten slotte, van die mensen, hoeveel zetten ook daadwerkelijk de stap om dat te gaan doen (en daarbij helpt het bijv. niet dat dit artikel een Plus artikel is, dus het aantal mensen die het ziet is erg beperkt)?

Als je dan de paar Watt die die mensen bij elkaar besparen bij elkaar optelt kom je uit op bijzonder weinig. In Nederland, heel optimistisch gezien, misschien genoeg om 1 windmolen extra te kunnen benutten voor andere zaken dan videokaarten ofzo (geen idee, misschien meer of minder, maar in ieder geval niet genoeg dat we 10 kolencentrales kunnen sluiten)?

Daarom, om de problemen écht op te lossen, zijn er dwingende, centrale regels nodig. Als alle overheden in de wereld (heel hypothetisch natuurlijk) nu zouden zeggen dat videokaarten (uit de fabriek) minimaal een bepaalde performance per Watt moeten hebben. Van die belachelijke videokaarten als een 3090Ti die zo enorm veel stroom verbruiken voor zo'n kleine performance increase mogen dan uberhaupt niet meer, hoppa weg ermee (als klant kan je dan nog wel kiezen om een mindere kaart te kopen en thuis lekker te overclocken, maar dan is het dus omgedraaid: slechts het handjevol mensen met kennis en motivatie zullen dat doen). En het zou ook betere innovatie stimuleren: ipv dat hardware fabrikanten maar met producten komen die steeds meer stroom verbruiken en daardoor marginaal beter presteren (looking at you Nvidia, Intel) worden ze geforceerd om met zuinigere ontwerpen te komen, die beter presteren voor minder stroom.

Waar we nu naar toe gaan is dat over een aantal jaren videokaarten standaard meer dan 500W gebruiken en dat een handjevol Tweakers zo attent zijn om die een beetje te tweaken naar 400W (bij wijze van spreken)... niet echt een gewenste situatie.
Ik geef je gelijk dat alleen met kleine beetjes er niet gaan komen, maar om dan maar te zeggen "dan doe ik het niet, want het is toch niet genoeg" is toch ook geen goede houding imho.
Kleine beetjes helpen zeker.
Een druppelende kraan (10 druppels per minuut) lijkt ook niet veel water te verliezen, maar als je er een emmer onder zet, blijkt dat die na twee dagen toch vol zit.
Wat jij zelf (in geld) bespaart door zuinig te gamen is niet veel, maar als je dat omrekent naar CO2 uitstoot en je doet dat met de hele straat of wijk, dan tikt dat over een heel jaar toch behoorlijk aan. De energie die jij het net inpompt hoeft immers niet van een gas of kolen-centrale te komen.
Als we aan het milieu willen denken moet je niet alleen aan je financiële opbrengst denken, maar wat het oplevert als we allemaal een tikje zuiniger aandoen in termen van CO2 uitstoot.
Het grappige van water is dat grootverbruikers in Nederland minder betalen dan de consument.
Dat geldt(of in elk geval gold) ook voor stroom, zelfs als consument. (Voor elke kWh) Boven de 10000kWh betaal(de) je minder en boven de 50000kWh nóg minder.

Daarom nemen sommige grootverbruikers (zoals een collega van mij) dus geen zonnepanelen. Bizar principe. Je zou (ook bij water) verwachten dat zuinig doen extra beloond wordt.

EDIT: Het lijkt vanaf dit jaar veranderd, maar dat kan ook de tijdelijke maatregel zijn:

https://www.belastingdien...arieven_milieubelastingen

[Reactie gewijzigd door MN-Power op 22 juli 2024 14:15]

Grootverbruikers van stroom betalen vaak minder omdat zij een constante of voorspelbare afname hebben alsook vaak een overeenkomst dat indien noodzakelijk voor de stabiliteit van het net, hun systemen mogen uitgeschakeld worden.
In de supermarkt en bouwmarkt zijn grootverpakkingen naar verhouding ook goedkoper. Eigenlijk kan je bij alles wat je in grote hoeveelheden afneemt wel korting krijgen. Die kortingen kunnen flink oplopen, zeker als je vaste aantallen per week/maand afneemt.
40u per week gamen is wat mij betreft alsnog vrij veel. Dat is meer uren dan de meeste mensen werken op een week. Zelfs dat lijkt mij niet realistisch en kan je voor een gemiddelde persoon volgens mij nog eens halveren.

Dat voor jouw in de praktijk stroom gratis is, is leuk, maar die stroom is uiteraard niet gratis en dat is ook de reden dat je er in de toekomst wel degelijk voor zult moeten gaan betalen.

Je schrijft dat duurzaam belangrijk is, maar blijkbaar is het dat dan toch niet voor jouw als jij niet inziet dat minder energieverbruik nog altijd de essentie is van duurzamer omgaan met onze maatschapij.

Toen jaren terug in Vlaanderen nog subsidies werden gegeven aan zonnepanelen moest je dan ook een verklaring ondertekenen waarin je aangaf dat je woning voldoet aan minimale vereisten van energiezuinigheid. Je moet eerst je energieverbruik verminderen en dan pas gaan kijken wat je duurzaam kunt gaan opwekken. Het heeft geen zin van een veel te grote installatie te plaatsen, want de fabricatie en installatie van dat systeem heeft ook een impact op het klimaat.

Energieneutraal is leuk, maar je beseft zelf ook dat je dat alleen maar haalt doordat je vandaag nog die salderingsregeling hebt, die er dus binnen enkele jaren uitgaat, of in Vlaanderen voor enkele honderdduizenden gezinnen zelfs al niet meer bestaat. Energieneutraal zegt dan uiteindelijk ook niets. Wat een grotere betekenis heeft als het op duurzaamheid aankomt zijn termen als een passiefhuis (geen verwaming nodig).

In de toekomst ga je trouwens verder moeten investeren om je woning als bijna energie neutraal (BEN) te houden. Dat zal je kunnen bekomen met bijvoorbeeld een thuisbatterij. Maar vergeet ook niet, als je over energieneutraal spreekt, dan hebben we het niet enkel over elektriciteit, maar ook over gas. Als jij je elektriciteitsmeter op 0 weet te houden, maar in de winter nog met gas moet verwarmen, ben je alsnog niet energieneutraal. En die zonneboiler gaat je woning in de winter niet verwarmen.
Mocht je vrijwel elke dag 10 uur zwaar gamen, dan bespaar je een 200 euro per jaar aan stroom. Een realistischer aantal game-uren is 40 uur per week en dat is rond de 2000 uur per jaar. Dat resulteert in een besparing van rond de 100 euro per jaar aan stroom door de methode in het artikel. Onder voorwaarde dat je de pc ook constant vol aan het werk hebt tijdens gebruik.
Valt me eigenlijk erg mee vergeleken met de aankoopprijs van de GPU :) En de games.

Dit soort bedragen zijn niet echt iets wat bij mij op de radar staat als gaming enthousiast. 100 euro per jaar is 8 per maand. #care... De 3080Ti alleen heeft me al 1199 euro gekost en dat was al een super lage prijs destijds (founders edition drop tegengekomen). Ik heb zo veel geld uitgegeven om de beste prestaties te hebben (ik doe veel VR), dan ga ik niet lopen rommelen om centen per dag te besparen. En die 40 uur per week haal ik bij lange na niet dus ik zit er nog verder onder.

Overigens heb ik hier geen panelen, ik woon in Spanje en daar doen ze niet aan saldering dus het heeft gewoon geen zin meer. Stroom is te goedkoop tijdens zonne uren. Bovendien woon ik in een appartementencomplex dus het kan ook helemaal niet.

Ik heb wel een energiezuinige desktop voor dagelijks gebruik (een intel NUC) maar die laat ik dan weer niet in slaap gaan, ik vind het vervelend als ik hem wakker maak en hij een minuut traag is omdat alles bijgewerkt moet worden. Liever gewoon in standby, die 10W idle die hij verbruikt is ook niks. Mijn energierekening is zelfs met de huidige tarieven maar 60 euro per maand (incl vastrecht, en inclusief verwarming want dat heb ik ook electrisch) dus ik doe al voldoende 'voor het milieu' vind ik.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 14:15]

Een realistischer aantal game-uren is 40 uur per week
Poe, dat red ik tegenwoordig denk ik niet eens meer in een half jaar. 40 uur per week is gewoon bijna 6 uur per dag. Dat lijkt me eerder zorgelijk voor iemand die een baan en/of gezinsleven heeft.
Gemiddeld haal ik het denk ik wel, omdat ik 12 weken vrij ben per jaar.
Ik werk verder vier dagen, vriendin ook. Daarnaast twee kinderen.
Maar 40 uur per week is inderdaad voor een normale gamer wat het maximum, en dat maakt het voor alle andere gamers dus nog minder aantrekkelijk. Ook al werkt het en is het zuiniger.
Edit: 40 uur gemiddeld is wel wat veel ja. Nog even gerekend en ik game veel, dat wel, maar kom denk ik aan 20-30 uur gemiddeld per week.

[Reactie gewijzigd door Playa del C. op 22 juli 2024 14:15]

Ik ben het gedeeltelijk eens met je betoog, maar niet met de laatste opmerking:
Alle kleine beetje helpen, maar het is beter om het groot aan te pakken.
Juist bij klimaatsverandering geldt dat niet: het is juist hier dat vele kleintjes een grote maken. tuurlijk: het zou leuk zijn als iemand met een nucleaire fusie generator kwam die op water loopt en geen afval veroorzaakt, maar tot die tijd moeten we en
- beter isoleren
- meer zon
- meer wind
- meer elektrische auto's
- minder vlees
- minder vliegen
enz. enz. enz...
Ik kan zeker deze aanraden voor 3060ti:
Zuiniger, koeler, stiller draaiende RTX 3060 Ti (undervolt)
een undervolt guide van hemmer02.
Met deze manier van undervolten verlies je ook effective clocks, misschien interessant om deze post even te lezen.
dank, zal ik zeker doen!
Dank je voor het compliment 😊. Mijn grootste doel was vooral om de RTX zo stil te maken dat je hem praktisch niet meer kon horen. Dat je een paar tientjes aan stroom per jaar minder verbruikt is mooi meegenomen.

De link waar @Kingsanity aan refereert is helaas niet helemaal correct. Want het punt met de blauwe pijl waar +105 staat kan op mijn manier van undervolten hoger staan dan de groene lijn.

Als je geen voltage- en frequentiewisselingen hebt door een optimaal punt vast te zetten, wordt je GPU namelijk nog net iets minder warm en stabieler dan wanneer er continu gemoduleerd wordt. Dus meer FPS met eenzelfde voltage!
Door de gehele curve naar beneden te halen, verhoog je het voltage op de lagere clocks. Inderdaad loopt die hoogste clock op een lager voltage bij jouw manier, maar bij 700 mV loopt je GPU ook 300 MHZ lager.

Hier nog een link waarin de poster het beter uitlegt.

[Reactie gewijzigd door Kingsanity op 22 juli 2024 14:15]

De link die je nu stuurt, is zowel van een andere poster als met een andere methode dan de eerste link die je doorstuurde. De eerste link is met een gebogen curve met alleen offset, de tweede is een gebogen curve met flatline na een bepaalde frequency/voltage.

En het maakt niet uit met welke frequentie je GPU op 700mV loopt. Alleen de optimale frequentie-voltage combinatie is van belang als je GPU maximaal belast wordt in bijvoorbeeld gaming of mining. Zodra hij niet of minder belast wordt (bijv. desktop) is het niet meer merkbaar of je 300MHz of zelfs 800MHz langzamer draait.
Het is inderdaad een andere poster, maar hetzelfde verhaal. In de eerste post staat er bij dat je de curve plat kan maken op het einde.

Maar goed, het ging er vooral om dat de je de rest van je curve zo underclocked, dus alles waarmee je je GPU niet volledig belast, loopt niet optimaal? Hij heeft op hetzelfde elk voltage minder clock snelheid, tenzij hij volop belast wordt.

Als je puur naar gaming kijkt, is jouw methode zeker de snelste en simpelste. Echter probeerde ik enkel aan te geven dat je het zo nog wat verder kan optimaliseren, mits je de tijd neemt.
Het is allemaal natuurlijk leuk en aardig om videokaarten te gaan undervolten en dergelijke maar eigenlijk vind ik er toch iets dubbels aan zitten. Enerzijds denk ik dan van pak een videokaart die minder verbruikt dan een snellere videokaart te moeten gaan undervolten. Plus dat ik mij af vraag waarom fabrikanten niet al op het idee komen om videokaarten standaard te undervolten.

Zeker gun ik iedereen hun gameplezier maar ik blijf het toch best wel schrikbarend vinden dat videokaarten vaak ruim boven de 200 watt gaan. Ook dat fabrikanten tegenwoordig al voedingen aanbieden die ruim boven de 1,2 kWh gaan. De uitdaging ligt er volgens mij veel meer in door eens niet door te gaan met telkens hogere prestaties maar juist het energieverbruik aan te pakken.

Gek ook wel dat op de een of andere manier bij desktops nog geen fabrikant op het idee gekomen is om de externe videokaart aan de interne videokaart te koppelen ( mits aanwezig natuurlijk ). Hierbij denk ik aan de vele laptops die kunnen switchen tussen de interne en externe videokaart. Simpele taken via de interne gpu en zwaardere taken via de externe gpu ook op desktop.

[Reactie gewijzigd door Roel1966 op 22 juli 2024 14:15]

Plus dat ik mij af vraag waarom fabrikanten niet al standaard op het idee komen om videokaarten standaard te undervolten.
Omdat niet elke GPU en geheugenchip even goed presteert na de productie. Een fabrikant moet dus een spanning kiezen die garandeert dat alle kaarten op de geadverteerde snelheid kunnen draaien, ook diegene die maar net goed genoeg zijn. En de kaart moet dit kunnen doen in uiteenlopende omstandigheden. Er is dus wat marge nodig. Undervolten is die marge verkleinen en dat kan heel goed gaan net zoals overklokken in de andere richting.
Ik snap wat je wilt zeggen maar het lijkt mij alleen van belang bij OC dat er een bepaald 'basis' voltage aangehouden word. Bij undervolten belast je in feite de chip juist minder waardoor ook net zo goed mindere videochips goed zouden moeten blijven presteren.

Feit alleen al dat ik mensen zie schrijven dat bepaalde videokaarten bij undervolten zelfs beter presteren zegt mij dat fabrikanten maar wat doen. Dat hun eigenlijk alleen puur prestatie interesseert maar energieverbruik eigenlijk op een laatste plek komt te staan.
Ik denk dat je een aantal dingen door elkaar haalt. Een mindere chip gaat een hogere spanning nodig hebben om een bepaalde kloksnelheid te halen. Dit gaat gepaard met een hoger verbruik en warmteontwikkeling.

Moderne videokaarten mogen echter boosten naar een nog hogere snelheid zolang de temperatuur en het stroombudget het toelaten. Als je jouw GPU kan undervolten dan kan het zijn dat hij langer de boostsnelheid kan aanhouden omdat de temperatuur binnen de perken blijft of dat hij hoger kan boosten omdat het stroombudget minder snel overschreden wordt. Soms maakt het geen verschil omdat op stock spanning het temperatuur- en stroombudget nooit overschreden werd. Dit allemaal onder aanname dat de kaart stabiel blijft bij de undervolt natuurlijk.
Dat wist ik dat een mindere videochip een hoger voltage nodig heeft om een bepaalde kloksnelheid te halen net als dat lagere temp voor een hogere boost kan zorgen. Alleen is het punt wat ik meer wil maken dat er door fabrikanten in de specs een bepaalde kloksnelheid gezet word. Deze kloksnelheid word bepaald aan de hand van wat mindere videochips aan kunnen zonder hoger voltage/temp.

Echter, evenzogoed kan je dan een mindere videochip undervolten waarbij wel dan niet de vermelde kloksnelheid gehaald zal worden die de fabrikant vermeld. Wel zal evenzogoed een mindere videochip dan ook minder energie verbruiken en misschien de betere videochips nog minder. Maar waarom vasthouden aan een bepaalde kloksnelheid terwijl je dan weet dat het energieverbruik ook hoger is.

Ik zeg voor mijn deel dan van waarom vasthouden aan een kloksnelheid die de fabrikant vermeld en gerelateerd is aan mindere videochips. Waarom niet eens gekeken naar het verbruik en dat is waarom ik schrijf van standaard videokaarten te undervolten. Vroeger of later zal je toch gaan zien dat er een Europese wet komt die een halt gaat toeroepen aan verbruik van videokaarten.

Trouwens, ik zelf gebruik een RTX 3050 dus in die zin zeker geen energie vreter puur omdat ik sowieso geen gamer ben en alleen de videokaart voor rendering van video's gebruik. Eerlijk gezegd nog geeneens gekeken wat die kaart bij renderen verbruikt.
Beetje appart om dit te doen. Als je zo nodig energie wilt besparen waarom niet gewoon een 3060ti halen of een 3070 halen die gebruiken standaard al 100 watt minder en kosten ook een stuk minder.
Exact een 3060ti verbruikt stukken minder , ik heb deze kaart en ook in VR behaal ik goede resultaten , 2k monitor zit ik gemiddeld aan de 70 fps , tuurlijk een 3090ti zou leuk zijn maar is niet haalbaar met de huidige energie prijzen .
Omdat deze kaarten misschien niet meer echt capabel zijn om hoge fps te leveren bij hogere refresh rates?

waarom denk je dat de 3080 en 6800xt de favoriete kaart zijn momenteel? Omdat beetje gamer tegenwoordig al liever een 1440p setup heeft...
Ik heb een 1440p set up en zit met de hoogste settings tussen de 60 en 80 FPS , dus weet niet waar je het over hebt 👍
En 60-80fps noem jij capabel? ik noem dit low end fps gaming op 1440p. Ik vermeld duidelijk hoge refresh rate 120-144hz.
Als ik het goed begrijp ... Als je de 3080 op een Power Limit van 60% zet, krijg je dezelfde prestaties als met een 3070 Ti, terwijl je dus maar 191W ipv 340Wverbruikt. Als gelijk maar een 3070 Ti koopt, verbruik je echter de normale 290W.
Ik heb enige moeite om "energie te besparen op je grafische kaart" te rijmen met 800+ euro uit te geven voor een GPU.
Er is meer dan alleen de prijs van het verbruik natuurlijk. Al doe je het alleen maar om in de zomer minder hitte uitstoot te hebben, of minder lawaai van je koeler.
Kijk! Lekker tweaken met hardware, ik heb direct zin om mijn eigen hardware nog wat verder te optimaliseren. Heb zelf een Dan-A4 case gemod met een 5800x en een 6900xt.

Dat is met warme dagen een uitdaging om niet te laten throttle-en.
Interessant artikel. Ik ga dit zeker proberen te realiseren op mijn 3080. Het was ook wel mooi geweest als dit soort instellingen als standaard preset beschikbaar waren op de videokaart. Of dat het automatisch aangepast kon worden door de software zelf. Als ik dan bijvoorbeeld Apex speel, dat alle overpower uitgeschakeld wordt zeg maar.
Tsja. Ik denk dat de fabrikanten niet de deur op een kier willen zetten voor klagers die met hun exemplaar net iets minder kunnen behalen dan een ander exemplaar van dezelfde kaart. Uit het artikel wordt uitgelegd dat ieder exemplaar kan verschillen.
Het werkt bij de Vega 56 een beetje anders blijkbaar.
Ik heb de voltages verlaagd en de powerlimit verhoogd.
Tevens de kloksnelheid een beetje verhoogd.
De maximale kloksnelheid is nu 1660 mhz op 1080 mV.
Het geheugen heb ik nu op 920 Mhz en 950 mV.
De powerlimit heb ik op +50%.
Hoi, ik heb er verder geen Vega verstand van, maar heb je dit al gelezen: https://nl.hardware.info/...ties-door-minder-spanning

Even OT, sorry Dik maar, ik vind dit dat er beter info staat in de aangedragen reacties en links, dan in dit wat zwakke paywall artikel.
Dit artikel is inderdaad matig.
Ik heb mijn info van het Youtube kanaal: Ancient gameplays; https://www.youtube.com/watch?v=SySAEMm9rJM&t=3s
Hier wordt zeer gedetailleerd uitgelegd hoe de Vega te undervolten en overklokken, en wat alle instellingen doen. Hij biedt zelfs de settings ter download aan, die je dan gewoon kunt inladen.
Het geheugen overklokken helpt ook veel bij de Vega.
Je moet geluk hebben met de Vega Gpu, het standaard voltage is 1,2 V, daar wordt hij behoorlijk heet van.
De meeste kaarten kunnen met minder toe, maar sommigen hebben blijkbaar het hogere voltage nodig.
Ik heb geluk gehad.
Tijd geleden m’n 3080 undervolted aan de hand van deze step-by-step guide. Mega groot verschil! 👍

https://youtu.be/FqpfYTi43TE

Op dit item kan niet meer gereageerd worden.