Modder haalt met shuntmod stroomverbruik van 800W op RTX 5090

De bekende overklokker Der8auer heeft door middel van een shuntmod een hogere score in 3DMark Speedway gehaald met een GeForce RTX 5090-kaart dan een RTX 6000 Pro-gpu. Hij mat ook een piekvermogen van meer dan 800W, terwijl normaal een limiet van 600W geldt.

3DMark RTX 5090Roman Hartung, de werkelijke naam van Der8auer, deed de test met de watergekoelde ASUS ROG Astral LC RTX 5090. Hij concludeerde bij het draaien van 3DMark Speedway dat de gpu op stockniveau continu op 600W kon draaien zonder te throttlen. Hij bleef bovendien redelijk koel: GPU-Z gaf een temperatuur van ongeveer 56 graden. In de test haalde de grafische kaart gemiddeld 145,7 frames per seconde.

Hartung verbond een aantal 5mΩ-shuntweerstanden parallel aan de 2mΩ-weerstanden die al op het pcb aanwezig waren en het stroomverbruik van de 12V-voedingsaansluiting meten. Daardoor is de uiteindelijke weerstand 1,4mΩ, waardoor de sensor op de videokaart ongeveer dertig procent minder stroomverbruik meet dan hij in werkelijkheid verbruikt.

Door alleen de modificatie te doen, mat Hartung al een verhoging van het stroomverbruik van tien tot twintig procent. De kloksnelheid van de gpu nam met 100 tot 110MHz toe, terwijl de kloksnelheid van het geheugen hetzelfde bleef. Nadat Hartung het gpu-voltage in ASUS GPU Tweak-software had verhoogd, mat hij een verbruik van 750W tot 786W. In 3DMark haalde de kaart met deze instellingen gemiddeld 152,1fps.

Vervolgens overklokte Hartung in GPU Tweak zelf het geheugen en de gpu, naar respectievelijk 32,2Gbps (4,2Gbps boven stock) en 2710MHz (130MHz boven stock). Met deze instellingen haalde de RTX 5090 in 3DMark Speedway gemiddeld 158fps. Daarmee komt hij zelfs boven de RTX 6000 Pro, het zakelijke topmodel van Nvidia, die zonder overklokken 157,4fps haalt. De RTX 6000 Pro deed dat overigens wel met flink minder vermogen, namelijk 556W, terwijl de overklokte RTX 5090 gemiddeld 778W verbruikte.

Update, 25 juni, 12.48 uur - In het originele artikel stond de naam Der8auer in de tweede alinea. In de nieuwe versie wordt zijn online alias al in de eerste alinea genoemd.

Door Imre Himmelbauer

Redacteur

23-06-2025 • 17:36

38

Submitter: TheProst

Reacties (38)

38
38
18
2
0
17
Wijzig sortering
Leuk zo’n mod, en natuurlijk heel knap gedaan. alleen de vraag is hoe lang de levensduur is van zo’n extreem overclocked GPU.
levensduur wordt vooral verkort door hitte. Dus zolang je het goed gekoeld houdt (niet voor niks is zijne watergekoeld) is het prima.
Nope. Levensduur wordt voornamelijk veroorzaakt door het krimpen en uitzetten van het metaal naargelang de temperatuur.

Een GPU die je constant op 80°C draait zal het langer uithouden dan een GPU in een game PC welke constant tussen 30°C en 65°C loopt te wisselen.
"Nope, Levensduur wordt voornamelijk veroorzaakt door het krimpen en uitzetten van het metaal naargelang de temperatuur."

Vereenvoudigen:
"Nope, Levensduur wordt voornamelijk veroorzaakt door de temperatuur."

Wat gelijk staat aan:
"levensduur wordt vooral verkort door hitte."

Die Nope was denk ik niet helemaal op zijn plaats.
Je begrijpt er dus weinig van ondanks mijn uitleg. Is niet erg, ik doe het graag nog een keer :)

We spreken van 'hitte' als iets bovenmatig warm is, en dit drukken we uit in een temperatuurschaal dit kan Celsius, Fahrenheit of Kelvin zijn.

80°C is een vrij hoge temperatuur voor een grafische kaart.

Als deze kaart constant met die hitte draait dan gebeurt er niet zo veel. Als we de logica van oorzaak-gevolg erbij pakken dan zien we dus dat hitte niet het probleem kan zijn, gezien het gevolg van thermische stress er niet is.

Gaat een grafische kaart dan langzaam aan stuk van koud zijn? Nee. Wederom zien we dat als we de PC uit houden of de grafische kaart alleen maar laten idlen er geen thermische stress plaats vindt.

Maar hoe kan dit dan? Als we even op microscopisch niveau kijken dan zien we dat metaal inkrimpt en uitzet als het kouder of warmer wordt. Dit is problematisch omdat de koeling of verhitting niet gelijkmatig is en er onregelmatigheden in het metaal zitten. Dit onregelmatig krimpen en uitzetten kun je vergelijken met het metaal keer op keer een klein beetje buigen. Als je dit bij bijvoorbeeld een paperclip doet knapt deze op een gegeven moment.

Hebbes! Nu hebben we dus onze oorzaak die we kunnen koppelen aan het gevolg. Het is niet de hitte of de koelte die het probleem veroorzaakt, maar juist de beweging van de ene staat naar de andere.

Hopelijk is het nu wat duidelijker :>
Klopt maar wel met een nuance. Er zijn 3 grote factoren als het over sltijtage gaat:

- Thermische stress door warmtecycli (kleine fysieke scheurtjes)
- Elektromigratie (chipbanen die stuk gaan door atomen die zich verplaatsen)
- Te hoge temperatuur (Het effect van elektromigratie stijgt exponentieel met temperatuur.)
- Te hoge stromen die elektromigratie in de hand werken

Elektromigratie is een fysiek fenomeen waarbij metaalatomen letterlijk worden verplaatst door een elektrische stroom, en dat kan op termijn leiden tot het falen van chips.

Het is dus én Thermische stress, én Temperatuur én hoge stromen. De laatste twee gaan vooral over die Elektromigratie op nano-schaal en thermische stress gaat micro cracks.

Bij het overclocking verhoog je de spaninning ---> Meer stroom en je haalt de frequentie naar boven --> Meer stroom. De lekstromen nemen exponentieel toe = Bijv 20% prestatiewinst maar we x2 verbruik en bijgevolg stroom en warmte.
Zoek beiden maar eens op het onderwerp "elektromigratie". Een vorm van migratie die wel schadelijk is en waar chips van kapot gaan.

Prima te voorspellen tegenwoordig, en ook de reden dat Intel een lijn van Xeons had voor langdurig gebruik (10 jaar lang) die daarvoor undervolted en underclocked werden.

Moraal van het verhaal is dat een normaal gebruikte chip de 10 jaar lang niet altijd zal halen.
Je hoort toch zelden dat oude computers stuk gaan omdat de CPU het begeven heeft. Eerder voeding, of opslag of grafische kaart.

Wij hebben thuis een laptop draaien uit 2013 (core i7) maar die doet het altijd nog prima. Ik denk dat hij nog wel 10 jaar kan meegaan.
Het is een betrouwbaarheidskwestie bij normaal gebruik. En de meeste laptops staan bovendien niet 24/7 aan op maximale klok.

Als je AMD gaat overklokken dan kan je een "PBO scalar" opgeven. Zet je die op 10, dan sta je toe dat je CPU 10 keer zoveel kans heeft om kapot te gaan door gebruik. De embedded processor stelt daat de klok- en spanningslimieten op af.

Die FIT-waarde (Failures In Time) kan je ook real time uitlezen. Die geeft het aantal defecte CPUs per miljard draaiuren.
Ik heb zelfs nog een oude gamepc uit 2008 met de eerste generatie core i7 (860). Die doet het nog steeds. Zelfs de oldskool harde schijf werkt nog. Toegegeven, die pc is uiteraard niet 17 jaar dag in dag uit gebruikt, maar toch voor jaren intensief op gegamed.
Ik heb 30 jaar oude harde schijven die het nog doen, toch is dat niet een statistiek waar je iets aan hebt of vanuit kan gaan.
Mijn eerste pc uit eind jaren 80 doet het ook nog steeds en kan ook nog 10 jaar mee
En toch heb ik hier een gtx 560 ti in een machine hangen die het al jaren goed doet. De CPU, een i7 2600k die het nog doet op het originele mobo en ram.
En zo heb ik wel meerdere oude gebakkies staan die gewoon nog draaien.
Laatst nog een laptop met windows XP aangepakt voor een collega(ww vergeten) en een machine met windows 98.
Mijn huidige smartphone is 6 jaar oud, ik heb ook nog mijn eerste liggen uit 2009 die door de halve familie is gebruikt en hier nu ligt als afstandsbediening voor kodi.

Dan vergeten we nog maar even alle computers die in auto's e.d. zitten die gewoon 20 jaar mee gaan (de auto's) en dan vraag ik mij echt af hoe een normaal gebruikte chip dan de 10 jaar niet haalt.

Het enige wat ik persoonlijk heb kapot zien gaan zijn HDDs, SSDs en van die rubbere schroefjes om pc kast ventilators op te hangen.
Ik weet wat elektromigratie is. Dat is minder relevant dan thermische stress.
Water heeft ook zo zijn limieten hoor, en die kom je met 800W wel tegen. Het probleem is niet lucht of water, het probleem is het kleine oppervlakte van de chip met het extreme vermogen. 1000W op 10 vierkante millimeter is niet te koelen met water. Er is geen mogelijkheid om het vermogen van de chip naar het water te krijgen zonder dat de chip te heet wordt. Ja, deze chip is flink groter, maar het probleem is er wel.

Ik draai hier al heel lang met customwaterkoeling en water is nooit het probleem voor hoge temps. De chips die steeds kleiner worden met steeds meer hitte, dat is het grote probleem. Je kan het halve huis volzetten met radiatoren en 10 pompen gebruiken, maar als de hitte van de chip niet in het water te krijgen is dan heb je er niets aan.

Tijdens gamen wordt mijn 7900XTX hotspot nog steeds in de 80 graden. Dat er dubbele 4x120mm rad's zijn met dubbele D5 pompen maakt niets uit. Nou helpt water zeker een hoop, maar hoe kleiner het oppvlakte hoe moeilijker het te koelen is, ook met water.

[Reactie gewijzigd door PilatuS op 23 juni 2025 18:29]

De warmtecapaciteit van water is enorm, maar als het kleine oppervlak een probleem is dan zou je in theorie ook over kunnen stappen op een vloeistof met een betere thermische geleidbaarheid, zoals bijv. ammoniak.
Het is jammer dat het zo corrosief is. En giftig. 🥴
Zijn er kant en klare systemen (voor consumenten) die andere vloeistoffen gebruiken?
Zo bedoel ik het niet. Het water is ook het probleem niet. Een kerncentrale kan ook koelen met water. Het probleem is eigenlijk de heatsink. Die kan niet genoeg opnemen en afgeven aan het water wanneer de CPU zo klein is. Je krijgt de warmte dus niet in het water.
Dat is precies zoals ik het bedoel. In een kerncentrale werkt het juist omdat het contactoppervlak zo groot gemaakt kan worden.
Met een klein contactoppervlak zijn er vanuit warmte-overdracht-eigenschappen technisch gezien ‘betere’ vloeistoffen* mogelijk, maar omwille van de veiligheid en kosten passen we die niet breed toe.

*(of fase-changing stoffen

[Reactie gewijzigd door Davey400 op 24 juni 2025 06:57]

Dit wil je niet 24/7 draaien. Al is het alleen al maar omdat het extreme vermogen geen extreme winst geeft. Voor iedere 10% vermogen dat je extra verbruikt krijg je een heel klein stukje extra snelheid. Als je op 500W iets van 100 fps haalt en op 800W ga je naar 110 fps, dan is het niet aan te raden dit ook echt te gebruiken. Even een record zetten en dan terug naar normale waarden.

Sterker nog, de meeste kaarten zijn maar ietsjes minder snel op veel minder vermogen. Genoeg kaarten zijn te undervolten, waarbij 20% minder verbruik slechts 5% snelheid kost. Dit is een stuk nuttiger dan de andere kant op. Los va het feit dat een chip prima kapot kan gaan met te veel vermogen voor een te lange tijd. Anders is het degradatie waarbij de chip niet helemaal kapot gaat, maar wel steeds slechter gaat presteren omdat er kleine defecten zijn. Voor lang gebruik is dit een heel slecht idee, maar het gaat hier vrijwel altijd ook puur om een record te zetten.
Die levensduur boeit natuurlijk niet echt. Dit gaat puur om een record te zetten en te kijken hoe ver je kunt gaan. Sowieso is overklokken om een snellere PC te krijgen tegenwoordig nauwelijks nog een ding volgens mij. Net als casemodden. Het gebeurt nog wel maar niet meer op de schaal van vroegâh.
Had LTT niet een week geleden al de 1000w aangetikt?
YouTube: Nvidia is never sending me a GPU again…
Dat was met een gemodificeerde vBIOS, waarbij ze met een niet vermelde methode de Nvidia powerlimiet hebben omzeild. Dus de vraag is hoe betrouwbaar zijn de waardes van software tools nog. Der8auer gebruikt een 'WireView' wat in feite een inline multimeter is. Die zal een stuk accurater zijn. Het hele systeem in de LTT video trok 950W op de meter dus ik vermoed dat deze ook redelijk in de buurt van de 800W uitkwamen, gezien de CPU op volle belasting ook wel wat lust. Heel veel meer gaat de 12VHPWR ook niet trekken. Dat is bij stock Wattages al een ding bij de 5090.
moest ik ook aan denken, maar daar hebben ze in theorie de limiet op 1000watt gekregen... wil niet zeggen dat ie het ook aantikte en kon gebruiken voor lang. Dat soort waardes lieten ze niet - echt - zien in de video.

Volgens mij was het (maar dit is echt onderbuikgevoel) een vbios die de limiet op 1000watt zet, vervolgens in software de power limit weer behoorlijk terug zodat je weer rond 'het normale' zit... en dan beetje bij beetje opkrikken om te kijken hoe ver je kan komen. Crasht ie, beetje meer voltage kijken of het helpt. Zo ja, rinse-repeat. En ondertussen de kaart koel houden.
Dammn dan heb je echt geen kachel meer nodig in de winter.
Ben benieuwd wat het hele systeem verbruikte
Der8auer heeft inmiddels wel zo'n naam verkregen in de wereld dat ik verder moest lezen om te weten dat het om hem ging.

Volgende stap is sneller geheugen op de kaart solderen, heeft iemand nog wat IC's liggen?
Nooit geweten dat "mat" een verleden tijd is voor "meten"? Ik heb altijd gedacht dat het "hij meette..." zou zijn.
edit:

Er klopte geen bal van wat ik zei. Weg ermee. :+

[Reactie gewijzigd door Bitmaster op 24 juni 2025 01:43]

Extra azijn: Vaktaal of jargon ;)

Maar zoals hierboven al gesteld is het formeel juist goed. Maar het leuke aan taal is dat het altijd in beweging is, dus hoelang mat nog formeel goed is, dat is maar de vraag... Wie weet krijg je dus later wel gelijk.

Dus de zin "Ik mat met jullie maten" is prima Nederlands. :*)
"Hij vroeg aan zijn maten hoe zij de maten van hun kleding maten" is dat ook (in dezelfde lijn als "Vrolijk naar Leiden leiden om daar te lijden")
Maar het leuke aan taal is dat het altijd in beweging is
Wollah, is goeie ding tog?

Maar zonder grappen, het is niet altijd goed ;)

[Reactie gewijzigd door Die_ene_gast op 24 juni 2025 09:34]

'Meette' wordt wel eens gebruikt, maar is de zwakke vervoeging van 'meten'. De officiële vervoegingswijze is 'mat'.

[Reactie gewijzigd door PCG2020 op 23 juni 2025 19:47]

Niet om het een of ander, maar er zijn al geruime tijd shuntmods die deze kaart en de 4090 ruim over 1000W laten gaan. 800W is niet meer heel "speciaal". Het is echter blijkbaar pas de moeite waard over te schrijven als een bekende youtuber het doet.
Niet een bekende youtuber, nee, een held in de modding en overclocking community al jaren en jaren.
Eigenaar van Thermal Grizzly, een echt europees bedrijf, wat hoogwaardige koelpasta's en andere vormen van aanbied zoals liquid metal en phasechange pads en koolstofpads etc. Die CPU-waterblokken voor Direct Die maakt en nu bezig is met GPU waterblokken. Alles in-house ge-engineerd en gemaakt met eigen apparatuur in een hal in Duitsland. Iemand die echt passie heeft voor de DYI.

Met de naam "youtuber" doe je deze man toch echt veel te kort. Deze man heeft inmiddels al zoveel betekend voor de community en altijd extreem transparant is in alles wat hij doet, ook zijn eigen tekortkomingen ziet en deze uitspreekt.
Het gaat in dit artikel over zijn youtube video. Buiten zijn (inderdaad bewonderenswaardige, daar niet van) algehele status, is hij ook "gewoon" een bekende youtuber. Mensen die hem verder dan dat kennen, hebben verder geen uitgebreid verhaal nodig, net zoals in het artikel zelf geen uitgebreid verhaal over zijn prestaties staat.
Je kan wel gelijk hebben, maar geef dan ook wat voorbeelden?
Er ging 13-14A over 1 van pins van de 12VHPWR :X
echt, he?
Volgens mij was de design limiet van deze stekker 9A per pin, waardoor je met 12V op 600W uitkomt (6*9*12).
14A ipv 9A is 50% over de max.
En dat terwijl de connector al zo'n goede naam heeft kwa smelten en slecht contact....
Ik had voor de gein de prijs opgezocht van de RTX 6000 pro. Het heeft 96GB DDR7, wat natuurlijk geweldig is en zou technische gezien ongeveer 10 á 15% sneller zijn dan een default RTX 5090.

Maar sommige websites claimen ook dat de RTX 6000 Pro de nieuwe king is van gaming GPU's. Maar was het niet zo dat dit soort kaarten juist ongeschikt zijn voor gaming? Nu laat deze persoon een mooie prestatie zien met een RTX 5090, die een betere score krijgt als een RTX 6000 Pro.

Maar hoe zit het nou precies met gaming? Dit is uiteraard maar een Benchmark om een GPU te testen, maar ik wil nu eigenlijk wel eens zien wat het verschil is in recente games. En uiteraard het verschil tussen stock en overclocked en dan ook een vergelijking met software waar deze professionele GPU voor bedoeld is.

Ga dan ook op alle vlakken testen, dan krijg je een mooier beeld tussen deze twee topmodellen.

[Reactie gewijzigd door Toonen1988 op 24 juni 2025 00:11]

Op dit item kan niet meer gereageerd worden.