Igor's Lab: Nvidia RTX 5090-stroomgebruik kan pieken naar 901W onder de 1ms

Uit metingen van Igor's Lab blijkt dat Nvidia's RTX 5090 in stroomgebruik kan pieken naar 901W gedurende minder dan 1ms. Daarmee blijft het verbruik binnen de moderne ATX 3.1-standaard, maar dat kan problemen opleveren voor gebruikers met een oudere psu.

Igor's Lab bracht het stroomverbruik van de RTX 5090 gedetailleerd in kaart, inclusief de korte stroompieken die de gpu heel kort kan vragen, buiten het standaardstroomverbruik. Dat standaardverbruik ligt volgens metingen van Tweakers gemiddeld op 562,61W, wat nog onder de maximale continue stroomlimiet van 600W van de 12V-2x6-connector ligt. Igor's Lab zag dat de piek kan oplopen tot iets meer dan 900W.

Het piekverbruik dat de kaart bij 10 tot 20 milliseconden kan halen, piekt op 627,5W. Bij 5 tot 10ms ligt dat op 738,2W en bij 1 tot 5ms op 823,6W. Het piekverbruik bij minder dan een milliseconde kan pieken op 901,1W, zo blijkt uit metingen van Igor's Lab.

Daarmee valt het verbruik van de RTX 5090 binnen de bestaande ATX 3.0- en 3.1-standaarden. Die staan beide stroompieken toe van 200 procent boven het standaardvermogen van de gpu, mits die minder dan 1ms duren. Dat betekent dat de kaart maximaal 1200W zou mogen verbruiken bij zo'n piek, maar daar blijft de 5090 dus onder. Igor's Lab schrijft dat een moderne ATX 3.1-voeding van 1000W of meer voldoende headroom biedt voor de RTX 5090.

Desondanks kan het verbruik een probleem opleveren voor gebruikers die een oudere voeding hebben. Standaard gebruikt de RTX 5090 een nieuwe 12V-2x6-aansluiting voor de stroomvoorziening, onderdeel van de ATX 3.1-standaard. Nvidia levert de GeForce RTX 5090 FE ook met een adapter, waarmee de kaart ook op oudere psu's kan worden aangesloten met vier 'gewone' 8-pinsaansluitingen. Dat zijn doorgaans voedingen die een oudere ATX-standaard ondersteunen, zoals ATX 2.51, die minder goed kunnen omgaan met dergelijke stroompieken. Daardoor kan de overspanningsbeveiliging ingeschakeld worden wanneer het stroomgebruik van de RTX 5090 piekt, waardoor de pc uitvalt.

Igor's Lab RTX 5090-stroompieken
Het piekgebruik van de RTX 5090. Bron: Igor's Lab

Door Tijs Hofmans

Nieuwscoördinator

24-01-2025 • 15:38

176

Reacties (176)

176
175
59
6
0
68
Wijzig sortering
In het huishouden van de toekomst heb je zonnenpanelen op je dak en een grote thuisaccu in de schuur die de hele dag staat op te laden om 's avonds twee uurtjes te kunnen gamen. :)

Ik heb steeds vaker het idee dat we aan het einde zijn gekomen van de PC-architectuur uit de jaren 80.

De CPU is niet langer het belangrijkste of duurste onderdeel van de meeste computers.
Storage is niet langer dé grote bottleneck waar alles op staat te wachten.
De meeste systemen hebben "genoeg" RAM.
De grafische kaart is het hart van (game) PC's.
Het moederbord is geen domme connector meer maar bevat een hoop chips en intelligentie.
De centrale gedeelde bus werkt steeds meer als point-to-point netwerk.
Randapparatuur is niet meer veroordeeld tot langzame externe connectoren.
Randapparatuur wordt steeds vaker aangesloten via docks en hubs ipv op de PC-kast zelf en een deel daarvan kan zelfstandig werken zonder PC. Docks kunnen zelfs voeding aan de PC/laptop leveren, in plaats van andersom.
En ik kan nog wel even doorgaan.

Dit alles wekt bij mij de verwachting dat externe grafische kaarten met een eigen voeding de toekomst hebben. Onze PC's kunnen weer een kleiner worden als er geen bakbeest van een grafische kaart in hoeft en de voeding en koeling kan dan ook bescheiden blijven. Voor de graca is het dan weer handig om een eigen geoptimaliseerde behuizing en koeling te hebben in plaats van in een PC te zitten en mee te moeten liften op reeds aanwezige koeling.

Wellicht is het een leuk alternatief om de grafische kaart in een beelscherm in te bouwen in plaats van in de PC en dan het hele scherm in te zetten als koellichaam en te bedekken met koelribben. Onze schermen worden steeds groter terwijl onze PC's steeds kleiner worden. Onze PC's staan in een slecht geventileerd hoekje onder het bureau terwijl het scherm er bovenop in de vrije lucht staat. Zet het scherm dus maar in als radiator. Fabrikanten kunnen vast ook nog wel leuke integraties bedenken van beeldschermen en grafische kaarten die precies op elkaar zijn afgestemd.

[Reactie gewijzigd door CAPSLOCK2000 op 24 januari 2025 16:55]

Je moet deze halo kaarten echt niet als de norm zien. De xx80 kaarten zijn nog steeds de benchmark voor de zaken die je noemt, niet de xx90. Die lopen rond de 320w, wat niet heel veel meer is dan 10 jaar geleden.

De gigantische koelers zijn ook meer 'omdat het kan' dan 'omdat het nodig is', daarom is de 5090 founder's nu zoveel kleiner geworden.

De xx90 kaarten zijn gewoon de titan kaarten van vroeger. Nvidia maakt die 'omdat het kan'.
Die koeler is zoveel kleiner geworden omdat ze het PCB hebben verkleind en opgedeeld in drie delen waardoor ze een dubbel flow-through ontwerp hebben kunnen neerzetten voor de koeler. Heeft niks te maken met dat vorige ontwerpen overkill zouden zijn.
Geen gek idee wat je zo beschrijft. Dat maakt de pc weer ouderwets zuinig, behapbaar en compact.

Ik zie alleen wel een probleem qua latency tussen gpu en cpu/ram. Zeker wanneer de kabel van pc naar monitor 1 meter of meer is. Dat kost een hoop tijd over koper. Daar staat tegenover dat de integratie van cpu, ram en gpu juist bij de PS5 steeds dichter naar elkaar toe groeit om de latency zo laag mogelijk te houden. Waarbij ram en vram hetzelfde zijn, cpu en gpu delen hetzelfde gddr6 ram.

Ben wel benieuwd hoeveel impact het heeft wanneer je de gpu extern van de behuizing plaatst, het concept is wel interessant.
Dan doen we alles in de tv ;)
Als je het kabeltje beperkt houdt in lengte, kan er veel. Jaren terug heb ik wel eens een GPU in een PC gezet die daar niet voor bedoeld was dus die kwam op de bodem te staan. Was niet hip in die tijd, was gewoon noodzaak door verkeerd meten. Flex-riser card uit de UK er tussen waar een heuse 6 Gb/s doorheen kon. Met 2x de lengte van die riser sta je al net buiten de kast. Het kon wel een duur kabeltje worden, maar het is niet alsof die bakbeesten van xx90 GPUs nou zo goedkoop zijn.

Als mensen bijna 3k neerleggen voor een kaart is 200 piek extra om een nog idioter model te kunnen voeden niet meer het probleem. Naar buiten brengen op een van de bekende sleuven aan de achterkant, 24V voeding er op en gaan.
Zet dan terwille van de latency de cpu en ram ook in het beeldscherm. En dan kun je net zo goed de kast wegdoen en alles gewoon in het beeldscherm proppen. Noem ‘t vervolgens een iMac Pro en dan kun je er ook nog eens de dubbele prijs voor vragen :+
alles is toch al meer dan de dubbele prijs bij Apple :)
Streaming en ai generated is de toekomst
Maar een stofzuiger die maar 10 minuten per dag aanstaat is gelukkig nog maar 600 watt.
Een TV mag straks nog maar 77 watt verbuiken.
Groot formaat schermen zijn gewoon niet meer legaal in de EU met maar max 90 watt volgens de Energy Efficiency Index (EEI) .
Maar een GPU die 400 a 500 watt trekt de hele dag door is geen probleem.
Tel daarbji de rest van het systeem op, wat meestal ook best flink is met gaming systemen.
Een zware CPU (laten we een lompe 9900X even als voorbeeld nemen) trekt 120W (TDP). Zelfs met boosts houdt het na 162W (PPT) wel een keer op. Tel 10W per schijf, maar gaming PCs gaan zelden voorbij de 2-3. Het is geen NAS. CD spelers kopen we niet meer, tel nog een keer 10W voor adapters en bluetooth etc. Dan komt 'de rest van het systeem' nog niet op 50% van wat die GPU in z'n eentje doet.

Dat die GPU enorm veel trekt ben ik met je eens, maar wat bedoelde je precies met die laatste zin? Zelfs als we nog 50W aan lampjes rekenen voor RGB waar lang niet alle gaming systemen aan mee doen dan blijft de GPU de grootste zuiper waar de rest bijna tegen weg valt.
Met Thunderbolt 4 wordt dat nog een realiteit.
Mooi betoog. Nu wil ik ook een externe grafische kaart in mijn meterkast.
Ik zou het bij je CV ketel/warmtepomp plaatsen. Dan heb je er 's winters nog wat aan.
Wellicht ben ik een uitzondering, maar ik vind het stroomverbruik van de nieuwe 5090 niet normaal. Gemiddeld 562W met een piek van 901W! Prestatie per W lijkt niet of nauwelijks vooruit zijn gegaan sinds de vorige generatie.

Hoeveel zal het gemiddelde stroomverbruik van een PC met 5090 per jaar zijn?
Ik vind het verbruik van een Bugatti Veyron ook niet normaal. Dat is het ook niet, “de norm”. Maar op één of andere manier zie ik dat soort commentaren maar zelden op een autoforum.

Dit is gewoon een “omdat het kan” kaart voor mensen die het willen betalen. Niets van de concurrentie komt in de buurt. Het staat iedereen vrij - en 99,9% van de wereldbevolking zal dat ook doen - om de kaart niet te kopen (ik ook niet). Maar die mensen die het willen doen, gun ik het van harte. En stiekem ben ik een beetje jaloers. Net als op de Bugatti Veyron.
Toch vindt ik dat er langzamerhand wel een energielabel op 3d kaarten mag komen.

Dit begint namelijk enorm veel te lijken op de stofzuiger race die niet perse veel betere stofzuigers opleverde maar wel stofzuigers die steeds meer stroom verbruikten.

Even voor context. Deze 3d kaart gebruikt evenveel (600watt) als mijn warmtepomp op dit moment waarmee ik mijn huis verwarm. Persoonlijk vind ik dat veel te veel.
Die vergelijking is onzin. De 5090 biedt ook werkelijk meer performance, bij stofzuigers was dat niet zo. Daar was het probleem dat mensen de stofzuiger met het hogere wattage kochten ook al presteerde die helemaal niet beter. Die regel is er toen gekomen om daar iets aan te doen. Er is niemand die een 5090 koopt omdat hij veel energie verbruikt, ze kopen hem voor de performance. Die is bij een videokaart namelijk wel uitgebreid te checken voordat je hem koopt (of überhaupt zelf daarna, bijna niemand gaat bij een stofzuiger zelf meten wat de werkelijke zuigkracht is).

Maar goed, een energielabel op zich, ja dat mag... maar ondanks dat er hier regelmatig mensen zijn die claimen dat de duurste Nvidia kaarten alleen verkocht worden aan mensen die gewoon het duurste willen hebben geloof ik daar bijzonder weinig van. Ik verwacht dat de meerderheid echt wel weet wat ze kopen en dat het veel verbruikt, maar dat ze bewust de afweging maken dat ze dat overhebben voor de performance die het levert.

En als je dan zo'n energielabel zou maken dan denk ik dat je ook de performance die het ding levert in mee moet nemen. Anders dan krijgen alleen de meest anemische IGP's automatisch het beste label en is het weinig waard. Maar kijk je bijvoorbeeld naar de performance per watt test van Tweakers in de 5090 review, dan wint de 5090 gewoon van de kaarten die er naast gezet zijn. Ja het stroomverbruik is extreem, maar de geleverde prestaties zijn dat ook.
Jij kan het onzin vinden en het blijft een mening die ik ook deel met deze tweaker.

Dit zouden wij ook niet moeten/willen accepteren ( zoveel verbruik ).
Nou, dat "onzin" ging over de vergelijking met stofzuigers, niet over de mening over of dat verbruik acceptabel is of niet, daar had ik het niet over.

Maar om het daar wel over te hebben, wat is precies je probleem er mee? De kaart is veel te duur en verbruikt veel te veel... Koop hem niet? Doe gewoon net alsof die 5090 niet bestaat... dat geldt ook voor mensen die zo boos zijn over de prijs en dan vergelijken ze met topkaarten uit eerdere generaties voordat er een 90 versie was.
Of vind je echt dat andere mensen het ook niet mogen hebben?

Het probleem wat ik daarmee heb... vind je dan ook dat we vliegen voor vermaak af moeten schaffen? Dat vind ik dan weer veel absurder, kost véél te veel energie en wordt om een of andere reden relatief goedkoop gehouden. Of iets dichter bij PC's, vind je dan dat het niet toegestaan moet zijn om meer dan één PC per persoon te hebben? Immers, als je geen 500 watt mag verbruiken in een videokaart, waarom mag je dan wel 3 pc's hebben staan waar je alsnog die energie staat te verkwisten? Grote TV's ook verbieden? Grote auto's trouwens ook, iedereen in Fiat Panda's... Vrijstaande huizen moeten we ok maar afschaffen, kost te veel ruimte en kosten meer energie dan gelijk geïsoleerde rijtjeshuizen, laat staan appartementen.

Het is gewoon een optie voor wie die performance belangrijk vindt. Net zoals we dikke auto's hebben, grote huizen en zoveel dingen. Willen we dat allemaal afschaffen, dan moeten we het ocmmunisme toch maar gaan omarmen en iedereen een betonnen blok om in te wonen met een trabant om in te rijden en een standaard PC waar je 'alles mee kan'.
Dan kunnen we beter niks meer eten en drinken en de stekker eruit trekken zoals jij typt.

Met de ontwikkeling zou het zuiniger moeten worden en kleiner en slimmer.
Dit is de omgedraaide wereld!

En waarom om de 2j nieuwe vid?
of elke 6 maanden nieuwe mobieltjes?
Dat is pure verspilling!

Over de stofzuiger is wettelijk vast gesteld als er een regel komt voor videokaarten kan je de lol op.
Let op want dan kunnen ze het wel zuiniger maken enz....
p.s fiat pinda rijd niet lekker...vroeger niet.
En ik fiets niet elctro,,,benewagen

[Reactie gewijzigd door xaradine op 25 januari 2025 00:33]

Met de ontwikkeling zou het zuiniger moeten worden en kleiner en slimmer.
Dit is de omgedraaide wereld!
Niet echt. "De ontwikkeling" is Moore's law. Als je de hele transistor-schaling doorrekent, dan zie je dat kleinere transistors per stuk zuiniger zijn, maar als je hetzelfde oppervlakte ermee opvult en steeds de maximaal mogelijke clocks gebruikt, zal het vermogen stijgen. Het oppervlakte van top-GPUs is al lange tijd ongeveer gelijk, ik meen 600 mm² bij nVidia.
In mijn studie in ~2003 had de professor dat al uitgelegd en het is inderdaad exact zo waar geworden. Als je het maximale vermogen beperkt zouden bij verdere transistorverkleining de clocksnelheden zelfs moeten dalen, maar dat lijkt men vooralsnog niet te doen.
Ah ok... zoveel verstand heb daar niet van ( technische kennis).
Maar goed je zou toch denken dat het zuiniger zou zijn en efficiënt genoeg met juist minder stroom

Zoals bij moters meer vermogen met minder benzine enz....
Nou ja, de individuele transistor is inderdaad zuiniger bij gelijke snelheid. Het probleem is alleen dat we er steeds meer op steeds hogere clocksnelheden in kunnen bouwen, en er voor kiezen dat ook te doen.
Een MOS technology 6502 met zijn 4528 transistors op 1 MHz (dat zat in de Commodore C64) zou gigantisch zuinig zijn tegenwoordig.
Echter hebben we een 5090 met 92 miljard transistoren op 2 GHz. Dat is een stuk sneller, maar gebruikt wel meer.

Trouwens, bij het opzoeken viel me net op:
De 3090 was schijnbaar 2.2 GHz, terwijl de 4090 2 GHz is. Misschien zijn we al bij dalende clocks.
Kleine correctie, mijn rtx 4090 draait vanuit de doos op 2730 mhz en kan hem overclocken richting de 3ghz.
De rtx 5090 heeft wel iets lagere clocks als de 4090.
Oh OK, met dank. Ik kon het een beetje moeilijk vinden. Ik had het over de basis-clock, maar het schijnt allemaal per model te verschillen en wat ze dan tijdens gebruik doen kan ook weer anders zijn.
Elke 2 jaar een nieuwe videokaart, laat staan elke 6 maanden een nieuw mobieltje (wie doet dat?) is natuurlijk ook vooral aan de consument die het koopt. Als je nu een 4090 hebt dan hoef je niet per se een 5090 te kopen maar kun je prima nog op een volgende generatie wachten. Zelfde voor telefoons, mensen met een S24 hoeven nu echt nog geen S25 te kopen.

Zelf heb ik een 7900XT als videokaart en die gaat voorlopig echt nog niet vervangen worden. Ik typ dit nu op een Galaxy S20 FE en die is nu langzaam eens aan vervanging toe, maar ik denk dat ik zelfs nog even wacht tot later dit jaar op de nieuwe pixel modellen. Het feit dat er nieuwe toestellen beschikbaar zijn wil niet zeggen dat je die móet kopen. Maar, stel nou dat er maar eens per drie jaar een nieuw model uit zou mogen komen en je toestel gaat 2,5 jaar na release van dat model kapot... Dan heb je geen andere keuze dan weer dat oude model kopen terwijl over een half jaar er ineens een grote sprong is als het nieuwe model komt, dat zou toch ook niks zijn?

En zoals pussycat uitlegt is het niet zo dat ze dezelfde performance wel veel zuiniger zouden kunnen maken als ze gedwongen worden. Deze techniek zit echt al op de cutting edge. De impuls om het zuiniger te maken is er ook al want dat is een enorm voordeel voor mobiel gebruik, maar ook bijvoorbeeld voor datacenters. Betere efficiëntie betekent rechtstreeks minder kosten in zowel voeding als koeling. En dat is waar het grote geld zit.

En dat is dus waarom het zo anders is dan bij stofzuigers. Daar was geen impuls om zuiniger te worden want consumenten hadden geen duidelijke manier om de werkelijke prestaties te zien van stofzuigers en keken daarom maar naar het wattage met de gedachte meer watt is meer zuigkracht. Daardoor was het juist slecht voor een stofzuiger fabrikant om een zuinigere stofzuiger te maken want die zou niet verkopen (toen). Bij videokaarten, als iemand een videokaart maakt die de helft verbruikt met dezelfde performance als een 5090 dan zou dat de markt compleet op zijn kop zetten en die partij zou het juist wel heel goed doen op de markt. Zouden ze dat kunnen dan deden ze dat wel.
Dito,

Hoewel het gelukkig met zowel hardware als telefoons zo is dat deze niet op de afvalberg belanden maar met een afschrijving worden doorverkocht aan iemand anders.

Mijn 2e hands 980ti heb ik 2 jaar geleden vervangen voor een nieuwe 6900xt (de 980ti is naar weer een 3e of 4e eigenaar gegaan) Ik zie geen reden om deze al te vervangen, ik draai 4k epic/ultra met FSR3.0 op 60fps in gray zone, niks van te zeggen.
Mijn intel i5 10400f is 4 jaar oud, gekeken naar een i7, maar effectieve winst is relatief weinig t.o.v. de financiële investering maar ook het verbruik en warmte ontwikkeling. Dus die cpu gaat gewoon nog 2 a 3 jaar mee minimaal mee.

Mijn s21 ultra 2 jaar geleden gekocht als overjarig model. Werlt nog net zo goed alt toen Dus nul reden om te vervangen (ik kwam van een a12 af). Zelfs bog het identieke hoesje.

Maar kort samengevat. In de pc markt gaat er relatief weinig naar de afvalberg. Zelfs mijn oude 8500 64mb (nieuw gekocht toen die uitkwam) heb ik een paar jaar geleden voor 120 verkocht.

Qua milieu/duurzaamheid zit er denk ik meer winst is fast fashion en verpakkingen.

Hoewel ik het wel eens ben dat de efficentie (stroomverbruik en warmte ontwikkeling beter kan). Die pc kachel is niet erg in de winter, maar in de zomer moet de airco er bij aan
Wat dat laatste betreft ben ik het ook mee eens. In de zomer als het echt heet is gaat mijn pc gewoon bijna niet aan. Dan game ik liever op mijn Steam Deck die meer iets van 10-20 watt aan warmte de lucht in gooit (wat verwaarloosbaar is). Voor de gein eens even mijn pc met Diablo 4 gestart en die hele setup (inclusief de 42" tv die ik gebruik en de soundbar) gaat meer richting de 400 watt. Dat merk je inderdaad echt wel als het al warmer is dan gewenst.

Maar goed, ondanks dat je zou kunnen zeggen dat diezelfde game toch ook op de Steam Deck draait dus waarom nou zoveel energie verbruiken... Het is toch wel een andere ervaring om te spelen op 800p op een 7 inch schermpje, of uhd op 42 met bombastisch geluid.
True, wij hebben gelukkig airco en zonnepanelen, we wekken meer stroom op dan we gebruiken in de zomer.

Gelukkig nog een oud contract tot voorjaar 2026, dus we salderen nog. Maar daarna is het gebruiken wat je opwekt.

Voordat we airco hadden activeerde ik energie besparing op het systeem om het een beetje in toom te houden.

Hier een gaat de PC met HDMI naar een 5.1 versterker en vanuit daar naar een 50 inch tv... op de bank met toetsenbord en muis, scheelt weer ruimte voor een appart bureau en display ;)
ik wacht wel effe wat Amd doet....zit nu nog met oude 1070ti kaart.
Of je ziet het als een warmtebron met een COP van ongeveer 1. Waar je ook een spelletje op kan spelen.
Even voor context. Deze 3d kaart gebruikt evenveel (600watt) als mijn warmtepomp op dit moment waarmee ik mijn huis verwarm. Persoonlijk vind ik dat veel te veel.
Dan koop je toch een RTX 5070 en blijf je op 1080p120.
Of, je verbetert de techniek waardoor je met minder wattage betere of gelijkwaardige prestaties krijgt... Want dat is vooruitgang
Nou, ga bij NVIDIA werken zou ik zeggen, blijkbaar heb jij de oplossing op zak.
Bugatti Veyron verbruikt 1 op 4,5. Er worden werden wereldwijd +- 35 per jaar geproduceerd en met een prijskaart van 350.000 euro is het een zeer exclusief product.

Een 5090 is niet zeer exclusief en is een massaproductie product. Als jet het wil vergelijken met een auto, dan kun je het beter vergelijken met een krachtige massaproductie auto zoals een BMW i7, Tesla Model S of Mercedes EQS. Kijk maar bij autoforums en veel mensen hebben het over verbruik van een i7, S of EQS.

[Reactie gewijzigd door Lisadr op 24 januari 2025 17:50]

Offtopic, maar een Veyron wordt niet meer geproduceerd en zeker niet voor 350.000 euro. Een nieuwe Chiron begint bij een paar miljoen.
Bedankt voor je toevoeging. Een paar miljoen 8)7 Het is nog exclusiever geworden.
Een Veyron was al meer dan een miljoen om te kopen.
Ze hebben nooit 350.000 gekost. Het was al exclusief.
Mja, ik zeg niet dat de Veyron de perfecte vergelijking is, maar het gaat erom dat de 5090 momenteel de “ultieme” kaart is (geen idee hoe je die kan vergelijken met een Model S, dat is hoogstens een hogere middenklasser).

En natuurlijk is de prijs hoog, en het verbruik hoog. En is het duidelijk dat NVidia tegen hun limieten botst of gewoon geen concurrentie heeft en dus niet meer moeite doet. Ik zeg ook niet dat dat niet mag gezegd worden, al die opmerkingen zijn terecht. Maar ik word er ook een beetje moe van, van dat gekanker. Op een tech-forum wil ik graag enthousiast worden van nieuwe technologie (met de sterktes en gebreken), zeker als er een nieuw topmodel komt.

En dan nog dat “misschien ben ik de enige” ook… Sorry, dat ben je niet, je praat net iedereen na. Je bent tegenwoordig in de minderheid en ongewenst (“fanboy” anyone) als je enthousiast wordt van technologie. Kunnen we niet gewoon een beetje blijer zijn?
Artikel gaat over het hoge verbruik van de 5090, mijn comment is mijn mening over het verbruik. Het is geen aanval op jou. Je hebt recht op jouw mening en als jij enthousiast wordt van een nieuwe GPU ben ik heel blij voor je. Geniet lekker van het enthousiasme en laat je aub niet stoppen door een paar comments. 🤗🤗

Als een comment zoveel emotionele belasting geeft, kan het goed zijn om even offline te gaan of iets anders ontspannend te doen. Sporten en wandelen in de natuur helpt bij mij.
Het probleem is dat er zonder deze context ruchtbaarheid aan gegeven word. De gemiddelde gamer wilt vooral tonen wat hij heeft zonder het effectief te gebruiken.

Zelfde bij hoofdtelefoons. Heel veel mensen die een koptelefoon van 500 euro hebben met high end noice canceling waar je niets door hoort maar dan spotify opleggen omdat hun playlist daar staat. Maar hey, ik heb wel een beats audio dus respecteer mij!
Ik vind die "*TOK* Noice!" meme dan ook wel erg irritant en overgebruikt, ik zou er ook noice cancelling voor in huis halen.
Dat hangt er natuurlijk helemaal vanaf hoeveel je hem gebruikt en onder welke belasting...
Als je 4 uur per dag die 562 watt trekt gemiddeld dan kom je op 562*4*365/1000 = 820,5 KWh.
Een Nederlands huishouden verbruikt jaarlijks gemiddeld 2.479 kWh, een GPU dat (bij 4 uur per dag gamen) 820 kWh verbruikt, is gelijk aan 4 maanden stroom voor een gemiddelde Nederlands huishouden. Dat is alleen GPU en niet een hele PC 8)7
400€ ongeveer per jaar dus.
Dan heb je wel een heel erg slecht contract hoor...
Volgens overstappen.nl (waar ik net via google op uit kwam) is de gemiddelde KWh prijs momenteel 32 cent, dan is het 262 euro. Zelf zit ik een heel stuk lager met een contract dat ik afgelopen herfst ergens afgesloten heb en zou ik rond de 143 euro zitten (afhankelijk van of het voornamelijk piek- of daltarief zou zijn).
Maar goed, ik vind dat mijn huidige 7900XT wel meer dan genoeg verbruikt eigenlijk... niet dat dat de primaire reden is dat ik niet voor een 5090 ga, ik wil de kaart zelf gewoon al niet betalen :+
Dat is best hoog ik zit:

Leveringstarief (normaal)

€ 0,19377

Leveringstarief (dal)

€ 0,20587
Tja, het is een hobby, en een hobby mag best wat kosten. Als de 2400 euro voor aanschaf al geen probleem is, dan zal de kosten voor het stroomverbruik ook niet echt een probleem zijn. Veel mensen geven vele malen meer uit met uitgaan over zo'n periode.
Dat vind ik een drogreden...(Hobby)
Feit is gewoon teveel stroom en te duur.

Stel voor geen dure aanschaf en half Nederland koopt de kaart.....moet er een kerncentrale gebouwd worden voor deze onzin ;)
Is anders ook gewoon de reden waarom niet iedereen met een lambo rondrijd. Ieder zijn hobby maar die auto zuipt ook benzine als een malle. Geen haan die daarom kraait hoor als ze hem kopen. Ik zit ook in het schuitje, een hobby mag geld kosten. De ene drinkt het op, de andere sport het op, enz… al vind ik deze gpu los daarvan ook gewoon teveel stroom gebruiken.

Zoals hierboven ook aanhaalt, je moet gewoon eens uitrekenen wat je kwijt bent met elk weekend uitgaan. Denk dat je onder de 50€ al niet ver meer komt tegenwoordig. Dat x52 weekenden loopt ook stevig op.

[Reactie gewijzigd door Powerblast op 24 januari 2025 18:50]

Hint....ik ga al 24 jaar niet meer uit ( stad ).
1 glaasje bier is in sommige steden een krat bier ;)

Restaurants? Ook niet ik kook thuis wel.
Het is natuurlijk niet gemiddeld om 365 dagen per jaar 4 uur te gamen ;) Plus lang niet alle games trekken maximale belasting.
Met DLSS trek de 5090 zo'n beetje 350 in 4K.
Over belasting gesproken: Het gamen zorgt direct of indirect uiteindelijk voor een grotere zorgvraag. Immers: waar een generatie of 1,2 terug hij of zij ter ontspanning buiten ging sporten is het nu de gewoonte om een uren gamend achter een pc door te brengen. Tel uit je winst.
Een gemiddeld huishouden heeft ook geen 5090 in huis ;)

Vind het stroomverbruik wel meevallen. Je krijgt er ook power voor terug.
Nee hoor het kost alleen maar power, maar misschien betaal je de rekening niet zelf dat kan natuurlijk.
Die power wordt omgezet in warmte dus die stook je minder. compenseert dus een beetje, zeker in mijn geval met alleen elektrische paneel verwarming.

In mijn geval is kan het zelfs kosten besparend zijn om mijn huis te verwarmen met een paar miners met 5 van deze kaarten op waterkoeling erin, met een warmtewisselaar aansluiten op de warm water voorziening en ik heb ook nog eens goedkoop warm water, in de zomer dan op zonnepanelen, gratis geld...wat de kaarten dan weer terug verdient.
Een Nederlands huishouden verbruikt jaarlijks gemiddeld 2.479 kWh ...
Dat heet dan selectief quoten :)

Er staat in jouw bron:
Een Nederlands huishouden verbruikt jaarlijks gemiddeld 1.169 kuub gas en 2.479 kilowattuur electriciteit.
Een Nederlands huishouden gebruikt dus in feite volgens jouw bron ca 15.000kWh, 1 kuub gas is immers meer dan 10kWh.
Ik gebruik 22.000 kWh per jaar voor een 4 kamer woning met alleen elektrische paneel verwarming en een elektrische boiler van 270L.

Bij gebruik van de split air converter als air to air warmtepomp kan dit zakken naar ongeveer 18.000kWh.
Maar jah, her wordt het af en toe ook wel -20°C in januari en februari, hoewel, dit jaar nog niet gezien... zal wel een goedkoop stook jaar worden dit, echt Hollands winter weer hier, (zuid Finland).
Een andere bron heeft het over 5.430 kWh stroom per jaar voor een woning zonder gas.
Lijkt zowat alsof Nvidia die 600w 4090TI heeft gebruikt die niet eerder uit was gekomen en er een 5090 stickertje op heeft geplakt.
Als je de 5090 een beetje tweaked kan je hem 20% efficiënter krijgen dan de 4090.

Bron: YouTube: 20% Efficiency Boost by RTX 5090 Power Target Tweaking
Bedankt voor het delen. 20% is flink.
Ja ik vind het ook heel hoog. Het is zelfs zo hoog dat je eigenlijk een aparte groep moet hebben voor je Gaming PC, net als voor je wasmachine 8)7
De hoeveelheid extra warmte die in de zomer in je woning wordt gedumpt tijdens het gamen is ook niet altijd aangenaam. In de winter is het wel een leuke bijverwarming :)
De hele 50-series zal je niet tot nauwelijks efficiëntiewinst zien. Productienode is identiek aan de 40-series. Raster-performance is identiek tussen Blackwell en Ada als architectuur. Ray-tracing is het wel iets efficiënter geworden.

De winst die je ziet zit in meer cores, hogere voltages en software-optimalisaties (die voor een redelijk deel ook naar de oudere RTX-kaarten komen).
Is sneller GDDR7 vs GDDR6 en GGDR6X ook niet een vooruitgang?
Ik heb ooit in een ver verleden een ATI 5870 Gedraaid van 4x molex -> 2x PCIe 6 pin, dat gaf me niet een gevoel van veel vertrouwen. Voor een kaart zo duur als een 5090 lijkt het me toch dat men een nieuwe voeding aanschaft als er nog geen 12VHPWR connector op zit?
Voor een kaart zo duur als een 5090 lijkt het me toch dat men een nieuwe voeding aanschaft als er nog geen 12VHPWR connector op zit?
Ik zou dat op mijn Corsair HX1200 wel aan durven die geen 12VHPWR heeft. Dus 4x PCIE kabels die 150watt kunnen = 600watt, gelijk aan 12VHPWR dus :)

Was wel mooier als (want compleet modulair) er een kabel van Corsair zou zijn die dat doet, dus in 4 connectors in de voeding en 1 connector aan de videokaart-kant.

Molex vertrouw ik toch wel een stuk minder dan PCIE connectors, dus ik deel je zorgen op dat gebied wel, maar wel specifiek op molex.

[Reactie gewijzigd door watercoolertje op 24 januari 2025 16:27]

Seasonic heeft dit voor somige voedingen. Ik heb er 1 gekocht.
https://seasonic.com/12vhpwr-cable/
Ik hoop dat mensen die een +2000k euro kaart willen kopen, dat niet zien als upgrade voor een jaren oud systeem :P en beter nog, wat advies winnen...

En dan heb je nog de groep die winkel X binnenstapt voor het 'beste' (lees duurste), wat het ook moge kosten.
Ik gok dat die laatste groep uiteindelijk het gros van de ultra high end's koopt.
Tuurlijk, als je al 2400 euro uitgerft aan een GPU, dan zal je ook geen probleem hebben om eventueel 100-250 euro extra uit te geven aan een nieuwe voeding.
Idioot verbruik, zelfs als je niet gelooft in duurzaam handelen zou dit de rillingen moeten geven voor een stukje hardware voor videogames. Wat doen die ontwerpers? Waar blijven de nieuwe ontwerpen die meer performance bieden en tegelijk juist energiezuiniger zijn?

Besef dat als je zo'n voeding koopt en dit accepteert zoveel energie ook veel warmte creert, die moet weg en dan heb je dus een fan die keihard moet werken. Ik geloof dat niet iedereen met een headset gamed maar dit ga je horen. Veel plezier daarmee.
Waar blijven de nieuwe ontwerpen die meer performance bieden en tegelijk juist energiezuiniger zijn?
Nergens. Op dit moment is dit de enige manier om dergelijke prestaties te halen en niemand die een bewezen alternatief heeft. Er zijn wel ideeen maar die zijn allemaal nog in een zeer vroeg stadium.

Overigens moet je het allemaal in verhouding zien. Viftien jaar geleden kon je dergelijke prestaties ook halen maar dan was het stroomverbruik ettelijke malen hoger. Per 'actie' is deze nieuwste generatie bijzonder zuinig en zeker AI berekeningen die voorheen onmogelijk waren zijn nu binnen bereik. De 5090 als een graphics card voor games zien doet de waanzinnige stappen die NVIDIA heeft gezet echt te kort. De eerste testen die wij hebben gedaan in onze render taken geven een 120% verbetering ten opzichte van een 4090. Iets wat voorheen 7 uur duurde kan nu in 3 uur. Voor de workflow is dat een gigantische verbetering omdat je van een generatie per dag maar twee kan gaan. Voor mijn energie rekening ook want ten opzichte van een 4090 besparen we 40%.

Jij noemt het idioot gebruik, ik noem het een geweldige stap voorwaarts!
Het is wachten op de volgende stap in GPU land. Als je vroeger aan iemand met een paard vroeg wat hij daarna zou willen hebben om snel van A naar B te gaan dan zou die zeggen "een sneller paard". Later werd een paard door een auto vervangen.

Ik vond zelf de stap van de 2xxx generatie naar de 3xxx generatie echt heel mooi. De 3xxx kaarten waren snel en stil, en de 4xxx generatie deed het nog beter. Vooral door de dikke koeler/ blok op de kaarten. Ik hoopte eigenlijk dat dat goed zou worden voortgezet richting de 5xxx serie. Onder andere er rekening mee houdende dat meer en meer huishoudens bezig zijn met hun energieverbruik. De tijd dat je maar kon doen en laten wat je wil is ver achter ons

Ik vind dat je met een voeding van 750 wat meer dan genoeg moet hebben om hele kast (inclusief) gpu van prik te voorzien. Als ik dan lees hoe het zit met deze 5090 dan vind ik dat gewoon heel jammer. Als deze kaart namelijk en snel en zuinig zou zijn door een mooi (revolutionair?) ontwerp dan zou ik misschien nog 2.5k betalen ook.

De 4090 heeft trouwens de naam van zeer krachtig en zeer stil, maar dan kom ik terug op dat dikke koelblok!
Ik denk dat die persoon had geantwoord "een paard wat minder eet en langer leeft".
Ik vond zelf de stap van de 2xxx generatie naar de 3xxx generatie echt heel mooi. De 3xxx kaarten waren snel en stil, en de 4xxx generatie deed het nog beter.
Maar niet energiezuiniger waar je om vraagt.
Vooral door de dikke koeler/ blok op de kaarten.
Precies: die hebben meer koeling nodig omdat ze meer energie verbruiken dan de vorige generatie. En zo gaat het al sinds het begin bij iedere volgende stap in GPU land.
Wel zijn opeenvolgende generaties efficiënter (meer performance per Watt). Met een beetje goede wil kunnen die worden ge-ondervolt en onderklokt (en features zoals raytracing niet gebruiken) zodat je dezelfde performance hebt als de vorige generatie maar dan bij lager verbruik - maar bijna niemand wil dat.
"Als je vroeger aan iemand met een paard vroeg wat hij daarna zou willen hebben om snel van A naar B te gaan dan zou die zeggen "een sneller paard"."

Ik denk het niet. Mensen waren toen niet bezig met ieder jaar willen "upgraden". Planned obsolescence was toen geen ding. Je had immers geen venture capital die via globalistisch kapitalisme ieder jaar nieuwe projecten moest slijten voor de verplichte groei. Dat is pas gekomen na 1971, toen fiat geld het noodzakelijk maakte om de ontwaarding van geld voor te blijven.
Men dacht toen in lange termijn aankoop van een paard, dus duurzaamheid was belangrijk.

Je hebt een punt over energieverbruik, maar als je daar echt om geeft en bereid bent offers te brengen, zul je uiteindelijk moeten stoppen met gamen. Iedere ontwikkeling die zuiniger met energie omgaat, zal leiden tot meer van die chips op 1 kaart.
Het is erg veel (OK: het is idioot veel) maar dit is ook voor de absolute enthusiasts, niet voor normale gamers en natuurlijk voor professioneel gebruik. De meeste mensen kopen ook kaarten die een fractie van de 5090 kosten...
Waar blijven de nieuwe ontwerpen die meer performance bieden en tegelijk juist energiezuiniger zijn?
: in Fantasialand: nieuwe ontwerpen worden i.d.r. een beetje beter, zeg 30% of zo, daarmee kan je dus het energieverbruik wat beperken bij gelijke prestaties, ofwel de prestaties vergroten. Omdat dit het vlaggenschip van Nvidia is wordt gekozen voor de extra prestaties.

Voor toepassingen waarbij energieverbruik belangrijk is, mensen die graag de planeet heel willen laten, of b.v. laptops, vind je dan ontwerpen die niet zo goed presteren, maar wel beter per W. Dus b.v. de 5080Ti als die uitkomt, zou gelijk kunnen presteren als de 4090, bij een lager verbruik. B.v. de laatste generatie Intel CPUs presteert ongeveer als de vorige, bij lager stroomverbruik, en de meeste reviews waren niet blij...

[Reactie gewijzigd door batteries4ever op 24 januari 2025 17:07]

Als het echt zo makkelijk was om veel meer kracht er uit te krijgen voor minder verbruik, dan hadden ze dat echt wel gedaan. Maar dat gaat dus niet zo simpel, en afnemers willen nog snellere GPU's als dat ze hadden, niet alleen maar zelfde of minder snel maar minder verbruik.
Meer performance, minder verbruik zul je met nieuwe modellen niet zien, wel zal er altijd een nieuw, lager geplaats, model zijn met vergelijkbare performance maar minder verbruik. En zo zal het elke generatie gaan, waardoor we waarschijnlijk over 8-10 jaar mogelijk de 5090 performance op mobile hebben.
Hiermee kun je dus een slaapkamer volledig verwarmen zonder CV.
Een slaapkamer krijg je doorgaans niet warm met minder dan 1 milliseconde stoken vrees ik. Ook met 560 Watt (het standaardvermogen) krijg je die niet zo snel comfortabel warm ;)

Wel vind ik dit soort wattages een beetje richting het absurde gaan. Kom op mensen, 560 Watt (standaardvermogen) voor een videokaart, dat gaat toch nergens meer over?

Elke generatie lijkt ook weer meer wattage te trekken. Doen fabrikanten dan niets meer aan optimalisatie en stroomverbruik-reductie, in tijden dat er toch al problemen zijn met energiebeschikbaarheid en (relatief) hoge energieprijzen.

Wordt het niet eens tijd dat er wettelijk paal en perk gesteld wordt aan wat consumenten electronica (in zijn algemeenheid, dus niet alleen GPU's) mag gebruiken?

[Reactie gewijzigd door wildhagen op 24 januari 2025 16:16]

560 Watt begint op een goed geisoleerde kleine slaapkamer kamer al aardig zoden aan de dijken te zetten.

Voor wat perspectief, als je valsspeelt en je hetzelfde vermogen in plaats van te verbruiken in een grafische kaart door een moderne lucht/lucht warmtepomp gooit, dan kun je er wel 2 slaapkamers comfortabel mee verhitten.
Het is misschien een kromme vergelijking, maar hoewel ik het verbruik de 5090 enorm hoog vind (en het is al helemaal absurd hoeveel lager 5080 en daaronder zitten)

Ben ik meer geshockeerd hoeveel stroom een gemiddelde kookplaat tegenwoordig verbruikt.

mijn ouders zijn recent verhuisd, en mijn moeder wou per se een gaskookplaat (ze kookt enorm veel), ik zei tegen haar waarom niet op stroom, niet wetende hoeveel watt zo'n ding verbruikt (wij hebben in onze huur woning ook gas, en achteraf wordt elektrisch koken een probleem met een 2 fase aansluiting die ook nog niet apart is).

Misschien moet de EU zich daar meer bezig houden qua verbruik.


In ieder geval, ik mis de tijden dat high end GPUs wat minder verbruiken.
Gas kookt fijn maar daar is ook alles mee gezegd. Op inductie koken is het voordeligst en ook zeer handig eens je de plaat leert 'kennen'.

Al eens onderzocht hoeveel ongezonder koken op gas is tov elektrische kookplaten voor de lucht in je woning?
Zoals mijn andere comment al zei ben ik niet tegen koken op stroom, discussie ging over iets anders.
Ik weet niet wat voor kookplaatje hebt neergezet, ik hoop inductie, maar inductie (zeker met een goede pan) is significant zuiniger dan gas, puur vanwege het feit dat je de warmte in de pan concentreert ipv er omheen. Om over de luchtkwaliteit nog maar niks te zeggen.

Ben benieuwd wat een 5080 aan transients gaat doen, maar de 360W die er op staan (overigens dat is ongeveer het vermogen waarmee je een goeie pasta aan het koken houdt) vindt ik inderdaad meevallen. Ben echter benieuwd, gezien dat de 5090 'wel meevalt' in vergelijking met de voorgangers (fps/watt is zeker niet zo erg toegenomen), in welke mate dit voor de 5080 geldt. Vindt het VRAM namelijk wat mager en ik hoop dat framegen niet ALLES is.
Ik ging ook vanuit dat inductie/elektrisch goedkoper zou zijn, misschien voor mensen die normaal koken wel.

Hun huidige woning kwam met een gedeeltelijke keuken die eruit gaat, met een inductie plaat en beide klagen dat ze meer betalen dan ervoor.

Maar goed, of dat werkelijk klopt laat ik in het midden, het is verder ook niet mijn probleem, en ik blijf erbij dat ondanks het absurd hoge verbruik, het nog steeds goedkoper zou zijn dan koken op gas.

Maar terug on topic, vram is een probleem op de 5080 vind ik, ik had 20 of 24gb verwacht, de 5090 is van 24 naar 32gb gegaan, maar de rest is blijven steken op max 16gb.

Wat opzich voldoende is voor meer normale games of oudere titels, maar je ziet steeds meer games die meer nodig hebben, zelfs zonder ray tracing.

De hardware is capabel genoeg hiervoor, maar de vram is een beperking.

En qua framegen begin ik een beetje dood moe van te worden.

Prima tech, vooral bedoelt om hogere framerates dan 60fps te halen, of dat mensen gewoon grafisch hogere settings kunnen gebruiken met betere framerates.

En dan zie je games die het aanbevelen om een game überhaupt draaiend te krijgen (Monster Hunter Wilds bijvoorbeeld, maar ook paar andere)

Dat laatste is mijn probleem, veel games hebben optimalisatie problemen, en day one patches zijn voor grotere games zo goed als de norm.

En dan maakt Nvidia zo'n tech en gaat men daar natuurlijk op verkeerde manier mee om (doelend op devs)
Maar het kookt voor geen meter. De meeste kookplaten regelen door het max vermogen te schakelen. Dat betekent b.v. Op stand 5 van 9 eerst voluit koken gevolgd door niks en dan weer voluit koken etc.
Elke kok kan je vertellen dat dat funest is voor delicate gerechten
Dat merk je opzich wel alleen op die typische dunne aluminium pannen met die giftige teflon laag erop... je kan ook gewoon een betere pan kopen, ook bij gas trouwens ;) Periode gelede overgestapt op gietijzer en gemailleerd gietijzer en ik wil nooit meer anders. die worden gelijkmatig in zijn geheel heet en blijven ook heet. In zo'n "normale" pan kan je bij het neerleggen van je stukkie vlees altijd gelijk de hitte van de pan wel weer op je buik schrijven want die is die nu net kwijtgeraakt aan dat koud stuk vlees. Gierijzer niet. Inductie ook nog maar op de helft van de power nodig voor beter resultaat nu. Niet heel erg tweakers misschien maar, dit topic, maar toch wilde ik even mijn enthousiasme delen van gietijzer en gemailleerd gietijzer :)
Ik gebruik o.a. wmf pannen, met een speciaal dikke bodem voor inductie . Helaas merk je daar het pendelen toch ook, evenzo met een gietijzeren pan.

Op vakantie weer mogen koken op gas, wat een verademing stiekem toch

Zal ook wel aan de plaat zelf liggen. Gek genoeg doet een €39 ikea inductie plaatje het beter dan een prof keuken atag
Ben ik meer geshockeerd hoeveel stroom een gemiddelde kookplaat tegenwoordig verbruikt.
Bij een inductiekookplaat gaat bijna 100% van het vermogen naar het verwarmen van het object op de kookplaat. In principe een klassieke gaskookplaat is ook 2 tot 4kW vermogen. Dingen warm maken kost gewoon een hoop energie. Vandaar dat we zoveel mogelijk warmtepompen overal willen hebben!
Ben ik meer geshockeerd hoeveel stroom een gemiddelde kookplaat tegenwoordig verbruikt.
Dat is kortstondig piekverbruik met alle pitten op 100%
Met gas ben je meer kwijt omdat er nog genoeg warmte langs de pan gaat.

Met gas rekenen we anders dan op stroom.
Mensen vinden 1m3 gas veel minder dan 8-9kwh stroom terwijl in feite beide hetzelfde zijn.

Met stroom rekenen we 3 cijfers achter de komma en bij gas niet.

[Reactie gewijzigd door mr_evil08 op 25 januari 2025 10:24]

Toch is de inductiekookplaat de betere keuze; hij verwarmt de pan zelf, in plaats van de lucht eromheen. Qua efficiëntie zit je met elektrisch een stuk beter, om nog maar te zwijgen over de fijnstof die voort komt door het verbranden van gas.
Dat is ook een reden dat liever zou overstappen op inductie, alleen in onze huurwoning gaat dat niet gebeuren.

En wat mijn ouders hun mening betreft, ik betaal of controleer hun rekeningen niet, als hun vinden dat gas beter is dan is dat hun keuze.

sommige mensen maak je het gewoon niet wijs, hun vallen beide daaronder
Die inductieplaat bij ons werkt op één fase anders prima. Wel met 2x16A gezekerd natuurlijk.
Hier bij ons (jaren 70 appartement) ben ik beperkt tot wat de stopcontact kan leveren, dat is dus max 2 pitjes als ik verder geen andere apparaten in de keuken gebruik.

Dat is de helft van de tijd te weinig voor mij, meestal heb ik er 3 nodig, maar de woonmaatschappij is niet van plan om dit op te lossen als wij binnen 5 jaar van gas af gaan, hun "oplossing" is verhuizen naar een meer moderne woning (had ik zo gedaan als dat een reële optie was voor ons)
Mijn projector gebruikt zo’n 270 watt, na een film van 2 uur is de temperatuur in de woonkamer echt wel gestegen, het is een kacheltje aan het plafond
5090 is dan ook een halo product, de prijs, performance en het stroomverbruik bewijzen dat allemaal.

5080 en 5070 ti bijvoorbeeld zitten vele malen lager qua verbruik, de 5090 geeft dan ook een verkapt beeld van wat de rest van de serie verbruikt.

Ik zeg niet dat de zwakkere kaarten weinig verbruiken overigens, ze zijn efficient maar het verbruik is hoger dan met de vorige generatie, dus ik ben benieuwd wat de reviews van bijvoorbeeld Gamer Nexus gaan concluderen over de performance per watt van de nieuwe modellen (excl 5090).
Ja hier relativeer je het wel mooi. Ik ben het eens met je punt hier. We gaan het zien. Als de 5080 een performance boost levert (ten op zichte van mijn 3080) en ook nog eens energiezuinig is. Hopelijk nog wat zuiniger dan is die voor mij het overwegen waard.
Je bedoelt een wetgeving instellen zoals bij de stofzuigers, ik geef je geen ongelijk?
https://decorrespondent.n...ff-03fa-25a1-d50d6b217cd0
Lijkt mij best interessant om te zien als je bv een cap van maximaal 200W forceert via een wet, ineens moet je dan zo efficiënt mogelijk worden binnen die cap om marktleider te worden of blijven.

Levert denk ik hele leuke competitie op.
Je bedoelt de energielabels die je vind op allerlei apparatuur?
Dan krijgt Europa gewoon een versie die softwarematig een cap heeft, of simpelweg minder cores of lager geklokt is voor dezelfde naam met EU als toevoeging. Wel weer handig in het productieproces: kunnen de GPU's met kapotte cores of met onnauwkeurigheden gewoon naar de EU i.p.v. de vuilnisbak.

Maar heel simpel gezegd. Zoals de review van Tweakers zegt: net zo zuinig als de vorige generatie, totdat je de nieuwe functies gebruikt, dan zijn ze zuiniger.

De dominante marktpartij bepaald wat zuinig is zeg maar.

[Reactie gewijzigd door djwice op 24 januari 2025 17:03]

Sommigen zouden er versteld van staan als ze wisten hoe weinig TDP bij 100% warmte afgifte een kamer voldoende kan verwarmen, zeker met de huidige standaarden voor isolatie van gebouwen.

Toen we introkken in ons pas aangekochte, ongerenoveerde huis van 100 jaar oud, was onze slaapkamer niet geïsoleerd. We gebruikten toen tijdelijk een €20 elektrische radiator van de Action, die ik op 750W had ingesteld. Die 750W was wel voldoende om de kamer van 17 m2 te verwarmen in de winter. Ik ben zeker dat de continue warmteafgifte van 600W bij de 5090 de kamer voldoende warm had kunnen verwarmen. Doorgaans is er minder vermogen nodig dat velen denken om een kamer te verwarmen. :)

Bijna 15 jaar geleden woonde ik bij mijn ouders, hun huis van 50 jaar oud was beter geïsoleerd. Mijn kamer was toen ongeveer 9m2. De kamer werd toen ook wel te warm door de toenmalige GTX 560 Ti dat 150W dumpte. :D

De GTX 1080 Ti die ik 6 jaar geleden in een appartement gebruikte, maakte mijn bureaukamer ondraaglijk warm in de zomer. 8)7

Tijdens de pandemie, wanneer cryptomining erg interessant was, had ik een virtualisatieserver gebouwd met mijn 1080 Ti en de RX 5700 van mijn echtgenote. Die stond de badkamer te verwarmen in de winter toen we in het 100 jarige huis introkken. De verkregen cryptomunten gebruikten we voor ons stroomverbruik te betalen, dus ook de elektrische radiator van 750W dat in de slaapkamer stond. :+

De RTX 4060 Ti dat ik nu heb is nu wel voldoende voor mij, zowel als het om processing power komt als de TDP. Ik heb wel geleerd om mijn computer met 15m lange USB en Displayport glasvezelkabels te verbinden, zodat het in de kelder staat. :P
De mens zelf is natuurlijk ook een klein straalkacheltje. Daarnaast tikt een monitor ook al snel voor 50-100W mee, afhankelijk van de helderheid.

Ik luister zelf muziek nog via een externe versterker en de verwarming hoeft hier zelfs in de winter niet te draaien. En dat is slechts voor kantoorwerk. Als de GPU aan de bak moet wordt het gewoon echt warm.

De enige reden waardoor het soms toch wat koud aan kan voelen, is simpelweg omdat het tijd is een wandeling te maken.
Ligt aan je slaapkamer hoor. Als het een klein tot matige kamer betreft zal er geen radiator in hangen van tientallen kW's. Die draaien overigens ook niet continu, dus pak een dunne radiator van 2-2.5kW die 30-50% van de tijd brand, dan zal een game PC met schermen (en jezelf) die kamer ook goed op stoken.
Maar ligt volledig aan je huis. Ik heb in een A label huis gezeten waar nooit de kachel aan stond. En er zijn ook huizen met een F of G label waarbij het direct weer koud is als de kachel uit gaat.

Overigens doen fabrikanten zeker wel iets aan stroomverbruik reductie, maar herinvesteren ze die liever direct in meer prestaties. Een recent tijdperk waar een fabrikant dat niet deed, was toen Intel elk jaar een 5-10% snellere quad-core uitbracht. AMD gaf geen concurrentie, dus ze konden net zo goed een chip bakken die nergens 'tegenviel' maar een stukje zuiniger was. Ondertussen waren overclockers blij, want met een paar BIOS wijzigingen had je een CPU die 20% sneller liep.

Wil je dus iets met energielabels doen, dan zou ik pleiten voor 1 die de efficientie van een kaart uitdrukt. Probleem is alleen wel dat deze eisen waarschijnlijk hopeloos gaan achter lopen als een fabrikant een nieuwe kaart uit brengt, want regulerende instanties staan vaak niet bekend om reactief op de markt te zijn.
Doen fabrikanten dan niets meer aan optimalisatie en stroomverbruik-reductie,
Natuurlijk wel, het is zelfs het meest belangrijke ontwerp kenmerk. Alle draait daarom omdat alles wat je daar kan winnen een dubbel positief effect heeft. Maar niemand weet hoe we een kaart met 92,000,000,000 (!!!) transitors zuiniger kan maken.

De volgende generatie zal gewoon nog meer gebruiken. Dat is een wetmatigheid totdat we een heel nieuw idee over IC's krijgen.
Waarom beperken? Ik wil als klant de snelste GPU, de snelste CPU, en dan ga je de wet vragen om dat te beperken?

Als je een lamborghini of ferrari besteld voor een tonnetje of 5 dan wil je toch ook niet dat er een 3 cilinder 1 liter motortje van fiat in ligt te ronken?

Klant kiest voor high end, dan heb je ook de stroom high end.... ik zie t probleem niet, klant maakt de keus.
Tja en als je die maar zelden gebruikt maakt het ook niet uit, sportauto,s gebruik je ook niet voor dagelijkse leven.

Net als een COP1 kacheltje je ruimte verwarmen waar je 2x per jaar bent ga je ook geen warmtepomp neerzetten.

Of de gloeilamp in de berging/opslag kan je gerust laten hangen ipv vervangen voor led, gaat niks opleveren.

[Reactie gewijzigd door mr_evil08 op 25 januari 2025 10:28]

We worden al een tijdje behoorlijk geindoctrineerd met ideeen over zogenaamde duurzaamheid, o.a. het beperken van energieverbruik, omdat anders de wereld onleefbaar zou worden etc, en dus zie je dit soort geneuzel over stroomgebruik van een videokaart tegenwoordig ook op tech-hobby websites als deze.. Maar als je dan ook nog gaat lopen roeptoeren over beperkingen en verbieden, dan verval je naar radicaal activisme.. Zeer vermoeiend allemaal, vooral voor mensen wiens hobby jij dan wilt gaan beperken of zelfs verbieden..

Ik heb me werkelijk nog nooit druk gemaakt over hoeveel stroom mijn PC verbruikt.. Ik koop gewoon een zwaardere PSU bij een upgrade als dat nodig is.. En als ik dan enigsins miliieubewust bezig zou willen zijn dan schaf ik wel zonnepanelen aan waarmee ik zelf mijn stroom opwek (meer om kosten te drukken, of zelfs aan te verdienen zoals velen dachten met de salderingsregeling).. Elektriciteit zat in dit land, zoveel zelfs dat men het op veel plekken niet eens meer kwijt kan op het net door alle heisa rondom de zogenaamde energietransitie.. Ik zou er bijna een RTX 5090 voor kopen, gewoon om er expres tegenin te gaan, haha..

Edit: als stroomverbruik c.q. efficiency je wel boeit en je toch om wat voor reden dan ook een 5090 wilt gebruiken, misschien heb je hier dan wat aan: YouTube: 20% Efficiency Boost by RTX 5090 Power Target Tweaking

[Reactie gewijzigd door Inflatable op 25 januari 2025 04:24]

afhankelijk van het formaat slaapkamer en de isolatie is 560 watt toch wel meer dan genoeg om de kamer warm te stoken mits de pc de warmte efficient genoeg naar je kamer stuurt.

mijn watergekoelde 3900x / 2070S krijgen in de meeste spellen mijn water toch wel tegen de 30 graden in de winter, met 11 fan's die lucht door de behuizing heen aan het trekken zijn zal het je verrassen hoe effectief hij kan functioneren als verwarming :P heeft wel een half uurtje/uurtje van constant gamen nodig om goed door te warmen en dan gaat het wel vlot.

als het vriest heeft hij wel hulp nodig maar op koude dagen hoeft op mijn slaapkamer geen verwarming aan, hele dag 19-22 graden :P...zolang ik redelijk zware games blijf spelen.

al kan dat meer aan mijn loop liggen (alle warmte van de radiators word gelijk weg getrokken aka word mijn slaapkamer in gestuurt ipv in de behuizing of achter de behuizing blijven hangen.

[Reactie gewijzigd door anub1s17 op 24 januari 2025 17:44]

Trouwens ik heb een 1050W ATX 3.1 voeding dus deze kaart kan wel zelfs met die piek?
Een slaapkamer krijg je doorgaans niet warm met minder dan 1 milliseconde stoken vrees ik. Ook met 560 Watt (het standaardvermogen) krijg je die niet zo snel comfortabel warm ;)
Valt toch vies tegen, zowel m'n i7 3930k met 1080Ti destijds als nu de i9 13900k met de 1080Ti hoef ik de hele winter op de computerkamer geen verwarming aan te zetten, ding verbruikt idle pakweg 160-220w en het blijft netjes vrijwel altijd boven de 20°C in de kamer ook als het vriest met matige aluminium kozijnen die tochten.

Als ik een aantal uren aan het gamen ben overdag of in de avond wordt het netjes 22-24°C als je niet uitkijkt, de GPU pakt t/m 320W en de CPU kan 290W vreten maar eerder is 100-150W tijdens games wel de top. Hoogste verbruik dat ik op vollast heb gezien is 814W uit de muur (758W intern) op de AX1200i voeding.

Men die 10 jaar geleden me zou uitlachen voor deze ''overkill'' voeding hebben nu het nakijken, 10 jaar later functioneert hij nog steeds perfect en daar komt straks de 5090 aan te hangen. Een vergelijkbaar type voeding is al eens getest dat hij buiten zijn capaciteit van 1200W om zelfs dik 1500W+ aankan in pieken met 50°C graden kamertemperatuur dus dat zit wel snor.

https://web.archive.org/w...ax_1200w_atx_psu_review/5

Overigens heeft een vriend een i7 5960x nog met SLI EVGA 1080Ti FTW3 en wees maar gerust dat die beiden voor een sauna zorgen... 25°C is niet raar.

[Reactie gewijzigd door CriticalHit_NL op 24 januari 2025 17:51]

Het is niet laks heid van producenten. Maar keihard natuurkunde.
Je kijkt nu naar 4N moderne nodes.
Maar kijk eens naar riva TNT tot 5090.
Bij cpu is ook niet anders. Ook server niet.
Oer cpu waren chip met koelblokje erop passief. En de aller 1st 1Mhz hadden soms niet eens koeling.
Per cm2 en elke dieschrink kan je er kwadraat meer transistoren in kwijt ook hoger kan klokken en daarmee vermogen ceiling vergroot.
Dus als kijkt naar de 1milimeter nodes tot 4N node is er stijgende lijn in vermogen.

Maar er is meer , je kan op moderne node verschillende soorten transistoren maken.
p-core heel veel stages met dikke transistoren die 6ghz kunnen halen. 12th 13th gen.
Je kan ook denser maken 4ghz transistoren Ecores zen dense en apple silicon.
Maar kan ook extremer. Compacte core . Je hebt dus gradaties.

M4 met insane single treaded performance met lage klok 4,5ghz en dus insane big core IPc. Zou ik denken dat nv AMD gpu architectuur maar transistor implementatie zeer dense maken en dus ipv 3ghz target 2ghz en veel meer transistoren gebruiken om ipc op te krikken van de cores en of veel meer.
Probleem is nu dat de ideale curve positie te ver onder klok scaling zit. Die implementatie dead end handen ze dan beter ergens anders in kunnen steken.
Denser veel meer transistoren meer ipc ipv insane vermogen blijf het enig zins binnen de perken.
Een slaapkamer krijg je doorgaans niet warm met minder dan 1 milliseconde stoken vrees ik.
Die 1 ms gaat er over hoe snel het verbruik kan stijgen, niet over hoe lang die 900Watt verbruikt. Vervolgens kan je best iets draaien op de GPU wat continue 900Watt verbruikt, zolang voeding en koeling het trekken.
Beetje gamepc neemt al tussen de 650-1000W
Wanneer de GPU dus continue rond 1ms bezig is wat niet onrealistisch is dan zit je al snel aan 1000W continue verbruik en daarmee kun je wel degelijk een slaapkamer verwarmen.

Hier lukt de badkamer zelfs al met 60m/m2 terwijl het geen passiefhuis is(afgiftepunten berekend).

[Reactie gewijzigd door mr_evil08 op 25 januari 2025 10:20]

900 watt gedurende 1ms zal je weingi warmte opleveren.
Nee hoor een gemiddelde slaapkamer is 14m2 dan verwarm je met 80 w/m2 als je de rest van pc verbruik ook meerekent.

Daarmee kun je heel goed een slaapkamer warm mee krijgen.
DIe 900 watt is op 0.001 seconde he?
Stel als je gamed en die zit constant op 500 watt met de verliezen die je vandaag hebt als het nul graden is zal je lastig je kamer warm krijgen hoor. Als goed geisoleerd is zal wel lukken .
Ja, voor 1 ms …

Maar als het je om een verwarming gaat koop je voor hetzelfde geld een warmtepomp/airco.
Maar als het je om een verwarming gaat koop je voor hetzelfde geld een warmtepomp/airco.
Maar die draait geen Crysis.
Maar misschien wel Doom
Het gemiddelde verbruik van ruim 550W lijkt me anders ook wel afdoende. Indien niet, is er vast wel iemand die je voor een leuk prijsje een "upgrade" kan bieden naar een tweedehands Intel ;)

Een warmtepomp / airco is nu eenmaal wat beperkt in het spelaanbod. Tenzij je van Doom houdt.
Is goedkoper dan verwarmen met gas.
Ik doe hier een kamer, met een elektrische kachel van 400W. Dus ja.
Als ik het gebrek aan elco's op het PCB zie dan verbaasd mij dat weinig. Ben benieuwd of de niet Founders Edition modellen wel meer condensatoren zullen implementeren om deze stroompieken op te vangen. Nu wordt alles zowat direct uit de condensator van de PSU getrokken.
Om de kaart te kunnen afdoende te koelen en throttlen te voorkomen hebben ze de printplaat nog kleiner gemaakt.
De printplaat is 1/3 van de gebruikelijke grootte, de helft in lengte van de vorige generatie. Daardoor kunnen er niet één maar twee koelers ‘door’ deze kaart heen blazen.

De kaart bestaat uit vier printplaten, het hoofdbord met de GPU, de PCIe connector, het I/O-bord met aansluitingen en een flexibele printplaat die de andere drie met elkaar verbindt. Het hoofdbord zit in het midden van de kaart.

Ik verwacht dat andere fabrikanten dit thermisch ontwerp over zullen nemen. Of de kaart zal meer dan twee sloten in beslag gaan nemen waardoor de kaart in minder behuizingen zal passen.
Om de kaart te kunnen afdoende te koelen en throttlen te voorkomen hebben ze de printplaat nog kleiner gemaakt.
Dat zou raar zijn. In princiepe is een groter bord beter te koelen, want meer oppervlak en minder thermische bottlenecks.
Ik zou eerder denken dat ze het kleiner maken voor snellere communicatie tussen ic's.
Maar ik kan het fout hebben.
Ik heb dit YouTube filmpje als bron gebruikt, daar leggen de engineers uit hoe ze tot het ontwerp zijn gekomen:
YouTube: Designing the Founders Edition | GeForce RTX 5090
Tja, bijna 1 KW, ongelofelijk en dat in een tijd dat we op allerlei manieren energie proberen te besparen.
Best bizar ja dat een videokaart meer verbruikt dat een reguliere volledige computer.

Klinkt vast raar maar het voelt een beetje als valsspelen. Gewoon enorm veel vermogen erin pompen om de fps te halen. Ik weet dat dit ook veel uitdagingen met zich meebrengt. Maar een limiet op vermogen van een gpu zou misschien nog meer innovatie met zich meebrengen. Maar ja, zo werkt de wereld niet.
IDD eerste wat op kwam 901W voor een videokaart , in een tijd dat we op allerlei manieren energie proberen te besparen. vraag me dan ook af wat zo een heel systeem aan stroom verbruikt incl CPU
Die 1kW is niet het eigenlijke vermogen. Die piek duurt maar heel kort. Je voeding moet het dan wel kunnen leveren op dat moment, maar het gemiddelde verbuik is meer richting 600W.
Helemaal van de pot getrokken die gasten bij Nvidia. En dat de overgrote meederheid van de gamers die kaarten gewoon koopt tegen deze belachelijke prijzen met zulke enorme power usages en daarbij behorende supporting hardware.............

Een beetje high end kaart had met 300w al genoeg moeten hebben, dit gaat zo helemaal nergens meer over.

Boycotten die troep, op naar juist wat zuinigere hardware!
Absurd dat dit überhaupt nog mag. Zonder enige schaamte wordt dit generatie na generatie hoger. En de prijzen zijn absurd. Het wordt nu toch wel tijd dat de EU zich hiermee gaat bemoeien. Die kaart verbruikt bij 4 uur gamen meer dan mijn gehele huishouden. Knetter gek.
LOL, doe mij zo'n huishouden. Daar teken ik voor.

[Reactie gewijzigd door TTommie op 24 januari 2025 22:08]

Nodig tijd dat die dingen gewoon een eigen psu krijgen.

Op dit item kan niet meer gereageerd worden.