[...]
Dat hangt natuurlijk volledig van de workload af, als je enkel uit gaat van 'gaming' vaak inderdaad niet, bij zakelijke workloads komt dit zeker wel voor, waardoor je simpelweg ziet dat er meer werk gedaan kan worden in een bepaald tijdsbestek, of een gelijke hoeveel werk in een korter tijdsbestek of zwaardere workloads die bijvoorbeeld eerder niet rendabel waren.
Ik ga inderdaad van gaming uit, aangezien we het hier over een 3090ti hebben. Ja, die kan ook professioneel worden gebruikt, maar dat zullen weinig bedrijven doen. En al zouden we de Quadro-kaarten meenemen, dan nog maakt NVidia's professionele serie minder dan 10% van hun totale omzet uit (Omzet NVidia: in Q4 van boekjaar 2021 is ~
$7,6 miljard, omzet uit Quadro's:
$577 miljoen. Tel daarbij op dat een Quadro fors duurder is dan een RTX en dat zijn in absolute aantallen nog minder Quadro's dan de <10% doet vermoeden.
Dus dan zou het hogere verbruik in de professionele wereld wel gecompenseerd worden doordat werk sneller klaar is (al zetten die engineers echt niet na 4 ipv 8 uur hun computer uit omdat ze klaar zijn, ze doen gewoon meer werk en werken met complexere modellen, waardoor hun PC's nog steeds meer energie verbruiken dan met de generaties GPU's daarvoor). De overige >90% van de markt bestaat uit gamers en miners die geen minuut minder gamen of minen met een nieuwere, snellere, efficiëntere videokaart.
[...]
Dit is natuurlijk simpel weg een keuze, ik pas bijvoorbeeld relatief vaak een FPS limiter toe (of een undervolt), waardoor ik mijn kaart, omdat deze efficiënter is dan de voorgaande generaties ik nu met een kaart die op papier een hoger TBP heeft juist een vrijwel gelijk verbruik heb dan mijn oude kaart, terwijl ik hogere settings kan draaien en meer FPS haal.
Undervolten doen alleen Tweakers, het gros van de gamers heeft geen idee wat dat is. Ik geloof ook echt niet dat mensen games dan maar in minder hoge grafische kwaliteit gaan spelen om energie te besparen. Een GPU staat 9 van de 10 keer gewoon op 100% te draaien tijdens games.
Ik kan er inderdaad ook voor kiezen om er nog meer performance winst uit te halen bij een hoger absoluut verbruik. Maar zelfs dan is de perf / W vele malen beter dan mijn oude kaart.
Ik zei al eerder dat perf/W niks zegt. Een GPU draait bij bijna alle gamers gewoon continu bijna maximaal. Gamers die hem op 50% hebben draaien om energie en warmte te besparen, zijn letterlijk op 1 hand te tellen.
Je hebt volgens mij echt wel even moeten zoeken om dit specifieke voorbeeld te vinden. Tot de GTX900-serie is het verbruik langzaam omlaag gegaan met een TDP van 148W voor de GTX970 als dip. Daarna is de TDP gewoon gestaag omhoog gegaan van 148 naar 150 (valt nog reuze mee) naar 175 (dat is al een forse stijging) naar 220W (50% erbij in 2 generaties!). Of neem de GTX1080: die had een TDP van 180W tegen een RTX3080, die dus maar 2 generaties nieuwer was, die een TDP van 320W heeft, bijna 80% hoger!
Je kunt statistieken cherrypicken om een verkeerd beeld te schetsen, maar feit blijft dat de afgelopen jaren de TDP omhoog is geschoten en de geruchten gaan dat het met de RTX4000-serie niet beter wordt. In tegendeel: er wordt gespeculeerd op een TDP tot zelfs 800W.
[...]
Dat vind ik een vreemde, je krijgt meer gedaan in hetzelfde tijdsbestek of net zoveel in een korter tijdsbestek. Natuurlijk heb je daar wel wat aan.
Hoe krijg je als gamer net zoveel spel in een korter tijdsbestek? Spelen ze GTA V ineens op 2x speed ofzo?

Ik legde hierboven al uit waarom de professionele markt zo marginaal klein is, dat die compleet overschaduwd wordt door de gamer markt. Een gamer gaat gewoon zitten gamen voor een X-aantal uur, dat wordt niet korter met een snellere en efficiëntere videokaart.
[...]
Ook dit klopt natuurlijk niet, efficiëntie helpt ook als de workload zwaarder wordt, immers het trekken van die zwaardere aanhangers uit jouw voorbeeld zou met een minder efficiëntie voertuig simpelweg niet gaan, of langer duren (en dus meer kosten). Waardoor je niets of minder gedaan krijgt, of je gebruikers ervaring een stuk slechter is.
Je gaat volledig voorbij dat games kunstmatig worden afgestemd op de GPU-power die voor handen is. Als NVidia en AMD (en Intel straks) echt willen, kunnen ze zuinige videokaarten maken die een fractie gebruiken van wat de huidige generatie doet. En geen gamer die daarover klaagt, want je hebt nog steeds een topmodel dat iets sneller is dan de modellen daaronder en mainstream kaarten die Jan Modaal kan betalen en instapmodellen die de "af en toe gamer" kan kopen.
Je draait daarmee oorzaak en gevolg om: doordat videokaarten steeds sneller worden, komen er vanzelf allerlei grafische effecten die die rekenkracht gaan aanspreken. Het is echt niet zo dat je een RTX3090TI koopt om Microsoft Flight Simulator op 40% GPU-belasting te draaien ipv 100% bij dezelfde settings. Je koopt die GPU om hem volledig te benutten.
En al die argumenten over efficiëntie slaan als een tang op een varken in een discussie over de TDP van een RTX3090TI. Dat ding presteert out of the box vergeleken met zijn generatiegenoten echt [ur=https://wccftech.com/nvidia-geforce-rtx-3090-ti-graphics-card-turns-into-a-high-end-efficiency-king-beats-amd-6900-xt-at-300w/]on-ge-lo-fe-lijk slecht[/url]. Sterker nog: in dat artikel wordt aangetoond dat hij heel efficiënt zou zijn, als hij gecapt was op 300W. Dus als je hem van ~500W naar 300W terug had geschroefd, was je een "whopping" 10% aan frames per seconde kwijtgeraakt. Dus 60% meer energieverbruik voor 10% meer performance. Dat is toch een absurde trade off?
[...]
Dat klopt, gaming kan de uitzondering zijn op de regel, al moet je de gebruikers ervaring ook meenemen. Zie mijn voorbeeld eerder deze post, de ervaring in MS Flightsim gedurende een 2 uur durende vlucht zal met een RTX 3070 een stuk aangenamer zijn (en zelfs een wat lager absoluut verbruik) dan met een GTX 770 van 9 jaar oud.
Een GTX770 zal dat spel niet draaien. Ik beargumenteer ook niet dat we allemaal terug moeten naar stokoude videokaarten, maar dat het verbruik hard omhoog gaat over de laatste paar generaties (grofweg vanaf de GTX1000-serie) en dat vooral de topmodellen heel veel extra energie verbruiken voor een paar procent extra prestatie.
Daarnaast is "gebruikerservaring" iets wat volkomen afhankelijk is van wat je gewend bent. Als we 2-3 generaties GPU's terug een ander pad in waren geslagen en desnoods onder druk van Europese regelgeving de TDP van videokaarten op 200W hadden beperkt, hadden games er nu een ietsiepietsie minder mooi uitgezien, had niemand daarover geklaagd (want we wisten niet beter) en waren games gewoon qua grafische specs aangepast aan wat GPU's aan konden. En bedenk je eens wat voor bak energie we dan hadden bespaard?