ASUS introduceert ROG Matrix RTX 5090 die tot 800W kan ontvangen

ASUS komt met een nieuwe ROG Matrix-versie van de RTX 5090. Deze kan in totaal maximaal 800W aan stroom ontvangen, verdeeld over twee stroomconnectors. Volgens de fabrikant biedt dat meer ruimte om de gpu te overklokken. Het is niet bekend wat de videokaart gaat kosten.

ASUS kondigde de ROG Matrix GeForce RTX 5090 aan in het kader van de Gamescom in Keulen. De kaart krijgt twee verschillende stroomconnectors om aan zijn maximale stroomvoorziening van 800W te komen, hoewel gebruikers er ook voor kunnen kiezen om slechts één van de connectors te gebruiken. In dat geval ontvangt de videokaart 600W, iets hoger dan de gebruikelijke RTX 5090-tgp van 575W.

De kaart krijgt een 'gewone' 12V-2x6-aansluiting, zoals gebruikelijk is op RTX 50-videokaarten. ASUS voorziet de Matrix RTX 5090 daarnaast van een GC-Hpwr-connector. Die laatste is door ASUS zelf ontwikkeld, oorspronkelijk vooral om een 'kabbelloos' ontwerp mogelijk te maken. De GC-Hpwr-aansluiting zit aan de onderkant van de videokaart. Hij past in een bijbehorende aansluiting op sommige ASUS BTF-moederborden. Vervolgens worden aan de onderkant van het moederbord de daadwerkelijke stroomkabels aangesloten.

ASUS ROG Matrix GeForce RTX 5090ASUS ROG Matrix GeForce RTX 5090ASUS ROG Matrix GeForce RTX 5090ASUS ROG Matrix GeForce RTX 5090

Bron: ASUS

Gebruikers kunnen er dus voor kiezen om de 12V-2x6- en GC-Hpwr-connector afzonderlijk van elkaar te gebruiken. De videokaart wordt dan in beide gevallen voorzien van 600W aan stroom. Het is ook mogelijk om beide connectors aan te sluiten, waarmee de videokaart zijn volledige stroomvoorziening van 800W krijgt. De GC-Hpwr-aansluiting is afneembaar, dus gebruikers die deze connector niet gebruiken, kunnen hem van de Matrix RTX 5090 afhalen.

De 800W-functie zal voornamelijk interessant zijn voor extreem overklokken. De kaart is daar ook voor geoptimaliseerd, mede door een pcb met een dikkere koperlaag voor betere hittegeleiding. De kaart ondersteunt daarnaast een Memory Defroster-functie. Gebruikers die de videokaart koelen met stikstof of andere extreme koelmethoden, kunnen daarmee zorgen dat de geheugenchips niet bevroren raken; dat kan voor bugs en crashes zorgen.

Verder is de videokaart voorzien van een koeler met vier fans; drie aan de voorkant, en één aan de achterkant. De gpu wordt gekoeld met een vaporchamber die volledig van koper is gemaakt en met liquid metal op de chip is bevestigd. ASUS zegt vooralsnog niet wat de videokaart gaat kosten of wanneer die beschikbaar komt.

ASUS ROG Matrix GeForce RTX 5090. Foto's: TweakersASUS ROG Matrix GeForce RTX 5090. Foto's: Tweakers

Foto's: Tweakers

Door Daan van Monsjou

Nieuwsredacteur

19-08-2025 • 16:19

42

Reacties (42)

42
42
12
2
0
27
Wijzig sortering
Dus heeft een enkele 12V-2x6 connector die voor 600W al te zwak is met een headroom van ongeveer 615W.

En dan spreken we nog niet eens over het gevaarlijke board design van NVIDIA waar ASUS zich strikt aan moet houden.

Waar zijn we toch mee bezig...
Met niks bijzonders? Het verschil tov andere RTX5090s bij gebruik van één connector is 25W door die connector. Dat is nou niet een gigantisch verschil wat een compleet nieuwe situatie veroorzaakt.

En aan welk 'gevaarlijk' board design van Nvidia moeten ze zich houden? Ja ze moeten (volgens mij) die connector gebruiken, maar ASUS heeft al bij bijvoorbeeld hun ROG Astral GPUs een ander board design. Immers daar hebben ze per pin monitoring op zitten, wat niet in het Nvidia reference design zit, en wat dus niet overeenkomt met jouw stelling.

Onder de streep ja, het was mooi geweest als die 12V-2x6 connector wat grotere marges had. Tegelijk los van alle FP artikelen die Tweakers er aan het begin aan gewijd heeft, hoeveel voorbeelden heb jij bijvoorbeeld op GoT zien langs komen met gesmolten connectors? En dat wil je natuurlijk absoluut niet, dat je connector van je GPU van €2k+ smelt, maar voor het gevaarlijk is, dus dat er brand ontstaat, zijn we nog een heel stuk verder.
En aan welk 'gevaarlijk' board design van Nvidia moeten ze zich houden? Ja ze moeten (volgens mij) die connector gebruiken, maar ASUS heeft al bij bijvoorbeeld hun ROG Astral GPUs een ander board design. Immers daar hebben ze per pin monitoring op zitten, wat niet in het Nvidia reference design zit, en wat dus niet overeenkomt met jouw stelling.
Als je vijf van zes 12V draden doorknipt loopt alle 50 Ampere (600W) door één draadje dat maximal 9,5 Ampere mag hebben. NVIDIA heeft het ontwerp zo bedacht dat alle zes 12V draadjes op de kaart samen komen in één 12V lijn, en daar vandaan pas wordt het verdeeld over de power stages. Dus wat de kabel betreft word deze in zijn geheel gewoon gezien als een enkele die 600W kan doorvoeren.

En dat is met ASUS kaarten niet anders ondanks de monitoring, die hebben zich los daarvan gewoon aan het ontwerp van NVIDIA te houden wat betreft hoe de stroom de videokaart binnenkomt en verdeeld wordt. Als je de waarschuwing van de ASUS app negeert en één van de draadjes trekt 18A (omdat deze de beste verbinding heeft), gaat deze na een tijdje gewoon smelten.

Een goed ontworpen kaart zou de zes pinnen van de 600W 12V-2x6 connector verdelen over zes power stages zodat elke pin van de connector maximaal maar 100W kan trekken. Maar dat kost misschien wel $5 extra per kaart en dat is een hoop geld voor NVIDIA.
Nu verwacht ik bij de reguliere 8 pins connectoren dat ze wel load balancing per connector (vaak) doen, maar per pin? Ik heb mijn twijfels.

Maar heb je een bron dat ze geen load balancing mogen doen? Eerst was je stelling dat ze het referentie ontwerp niet mogen aanpassen. Dat is gewoon aantoonbaar onjuist. Het lijkt mij onwaarschijnlijk dat Nvidia ze verbiedt om load balancing per pin toe te voegen. Waarom doen ze het niet? Omdat het niet een hoop geld voor Nvidia extra kost, maar voor de AIBs. Die zitten helemaal niet te wachten op lagere marges. En granted, indirect zou dat Nvidia ook wel wat raken, maar primair de AIBs.

Het voordeel van de hele handel kortsluiten is dat je minder snel gesmolten connectoren krijgt. En ja, load monitoren zoals ASUS doet is zeker wat voor te zeggen! Maar load balancing zonder monitoring zou eerder het risico op een gesmolten connector groter dan kleiner maken. Immers dan trek je constant 8A per pin. Wat nou als één pin wat hogere weerstand heeft? Dan trekt hij nog steeds 8A door die pin, P = I^2 * R, en die pin smelt weg. Terwijl als je de hele handel kortsluit, de stroom de weg van de minste weerstand kiest, en die hele pin wordt gebypassed. Natuurlijk betekend dat meer stroom door andere pinnen wat ook niet de bedoeling is, maar hij zal in dat geval minder snel smelten.

En wat als je een pin hebt die lagere weerstand heeft? Laten we voor het gemak een twee pins connector nemen, waardoor totaal 2A doorheen gaat. Standaard hebben die allebei 1 Ohm weerstand: Dus 1A gaat er per pin doorheen, P = 1^2 * 1 = 1W verstookt elke pin in de connector. Nu heeft één pin een hele goede verbinding met maar 0.5 Ohm weerstand. Nu valt er nog maar 0.67V over de connector, wat bij de goede pin 0.67^2 / 0.5 = 0.9W is, en bij de originele pin 0.67^2 / 1 = 0.45W is. Oftewel door die hele goede pin gaat meer stroom ja, maar zijn vermogensdissipatie is alsnog lager dan het bij de normale pin is. (Ik ben te lui om uit te rekenen of het ook zo schaalt bij 6 pinnen, maar het punt blijft: Ja bij lagere weerstand gaat er meer stroom door die pin heen, maar lagere weerstand zorgt ook voor minder vermogensdissipatie).

En wat nou als er dus één van die twee pinnen belabberd is, en 10 Ohm is? Als er gewoon per pin load balancing was zonder monitoring, dan ging er nu 10W verstookt worden door die pin. Als we de handel kortsluiten valt er 1.8V over de connector, met 3.3W over de goede pin, en 0.33W over de slechte.

Dus onder de streep: Ja ik vind dat je een goed argument kan maken dat bij de 5090s monitoring wel een must is. Bij 5080s en lager zou ik me echt geen zorgen erover maken. Maar load balancing is absoluut niet de heilige graal om problemen met de connector te voorkomen. En tel daarbij op dat met hoe weinig ik in de praktijk hier posts zie van gesmolten connectoren, en dan hoewel het allemaal niet ideaal ontworpen is, is het misschien ook niet zo slecht als 'het internet' je doet vermoeden.

[Reactie gewijzigd door Sissors op 19 augustus 2025 17:49]

De specificatie verplicht dat alle 12v en gnd pinnen samen komen direct na de connector. Dat is geen expliciet verbod op load balancing, maar komt wel op hetzelfde neer.
Nu verwacht ik bij de reguliere 8 pins connectoren dat ze wel load balancing per connector (vaak) doen, maar per pin? Ik heb mijn twijfels.
Niet bij elke pin maar wel per connector, en aangezien 8-Pin maar 150W is is dat niet echt een probleem. Daarnaast zijn de pinnen van die connector dikker.
Maar heb je een bron dat ze geen load balancing mogen doen? Eerst was je stelling dat ze het referentie ontwerp niet mogen aanpassen. Dat is gewoon aantoonbaar onjuist. Het lijkt mij onwaarschijnlijk dat Nvidia ze verbiedt om load balancing per pin toe te voegen. Waarom doen ze het niet? Omdat het niet een hoop geld voor Nvidia extra kost, maar voor de AIBs. Die zitten helemaal niet te wachten op lagere marges. En granted, indirect zou dat Nvidia ook wel wat raken, maar primair de AIBs.
Bron is er niet echt voor is allemaal speculaas op het internet, maar alles duid erop dat NVIDIA strikte regels heeft. Zo mogen AIB's ook geen Dual GPU's meer maken. Daarnaast had de 30-series wel load-balancing, zelfs die van NVIDIA zelf, ook al was het per 2 pinnen. Sinds de 40-series zijn ze daar vanaf gestapt en zijn de problemen begonnen.

Als je ziet wat voor gimmicks derde partijen uithalen om de ontwerp fout tegen te gaan ben ik ervan overtuigd dat het niet mag van NVIDIA, want dan zouden kaarten van partners beter zijn dan de Founder's Editions.
Het voordeel van de hele handel kortsluiten is dat je minder snel gesmolten connectoren krijgt. En ja, load monitoren zoals ASUS doet is zeker wat voor te zeggen! Maar load balancing zonder monitoring zou eerder het risico op een gesmolten connector groter dan kleiner maken. Immers dan trek je constant 8A per pin. Wat nou als één pin wat hogere weerstand heeft? Dan trekt hij nog steeds 8A door die pin, P = I^2 * R, en die pin smelt weg. Terwijl als je de hele handel kortsluit, de stroom de weg van de minste weerstand kiest, en die hele pin wordt gebypassed. Natuurlijk betekend dat meer stroom door andere pinnen wat ook niet de bedoeling is, maar hij zal in dat geval minder snel smelten.
Met load-balancing is er niet meer uit een pin te trekken dan wat de limiet van de power stage is, als dat 100W is blijft dat bij 100W. En als een pin geen goed contact maakt trek de kaart gewoon minder vermogen en zie je dat terug in de prestaties.
Dus onder de streep: Ja ik vind dat je een goed argument kan maken dat bij de 5090s monitoring wel een must is. Bij 5080s en lager zou ik me echt geen zorgen erover maken. Maar load balancing is absoluut niet de heilige graal om problemen met de connector te voorkomen. En tel daarbij op dat met hoe weinig ik in de praktijk hier posts zie van gesmolten connectoren, en dan hoewel het allemaal niet ideaal ontworpen is, is het misschien ook niet zo slecht als 'het internet' je doet vermoeden.
Tweakers post hier weinig tot niets over, dat ze je eerder op Reddit en andere forums. Er zijn ook gevallen geweest waarbij de kaart 2 jaar was gebruikt en toen pas ging smelten, zo lang kan het duren.
Met load-balancing is er niet meer uit een pin te trekken dan wat de limiet van de power stage is, als dat 100W is blijft dat bij 100W. En als een pin geen goed contact maakt trek de kaart gewoon minder vermogen en zie je dat terug in de prestaties.
Maar dat is dus enorm problematisch! Als hij slecht contact maakt, zou hij theoretisch 100W in die ene pin kunnen verstoken (dat complete vermogen niet naar de GPU gaat, maar in die ene pin van de connector gedumpt wordt). En granted dat is een theoretisch maximum, maar ook significant minder dan dat is meer dan genoeg om die connector te laten smelten. Terwijl als ze kortgesloten zijn, de stroom gewoon een alternatief pad pakt met minder weerstand. En natuurlijk het is niet gewenst dat door de andere 5 pinnen dan 20% meer stroom gaat, maar dat is een heel stuk minder erg dan gewoon stug door een pin met slechte verbinding ~8A blijven trekken.
Tweakers post hier weinig tot niets over, dat ze je eerder op Reddit en andere forums. Er zijn ook gevallen geweest waarbij de kaart 2 jaar was gebruikt en toen pas ging smelten, zo lang kan het duren.
Na de release had op een moment Tweakers vier FP artikelen over de gesmolten connectoren, toen er wereldwijd drie van bekend waren, waarbij uit mijn hoofd eentje ook nog eens achteraf door een 4090 veroorzaakt bleek te zijn. En ja nu is dat gestopt, maar aan het begin waren het wel een hoop.

JayzTwoCents heeft ook zijn connector iets gesmolten gekregen: https://gathering.tweakers.net/forum/list_message/83175896#83175896, na bijna 3x het nominale vermogen door de connector te trekken, en daarbij richting de 9x meer vermogen erin te verstoken als normaal. Sapphire gebruikt de connector ook in hun high end kaarten. Intel heeft het iig in hun datacenter kaarten gebruikt (https://www.techpowerup.com/300931/intel-data-center-max-gpu-ponte-vecchio-implements-16-pin-12vhpwr-connector). En nogmaals, ja wat meer marge was leuk geweest. En de monitoring van Asus vind ik bij een xx90 serie kaart zeker een pré. Maar het blijft ook dat ik nog nooit op GoT iemand heb gezien met een gesmolten connector bij een 50XX kaart.
Het voordeel van de drie 8 pins aansluiting is dat er drie stroom"groepen" door de pcb lopen, wat de risico's beduidend verlaagt. Nvidia heeft gewoon slecht werk geleverd met de stroomvoorziening, dat kan veel beter en ja, ook zonder monitoring. Een slim ontwerp heeft geen monitoring nodig, wat bij de de 8 pins ook nooit het geval is geweest.

YouTube: How Nvidia made the 12VHPWR connector even worse.

Hier word het haarfijn uitgelegd.

[Reactie gewijzigd door Madrox op 19 augustus 2025 20:59]

Er is een verschil tussen de nVidia versie en al de andere versies, en de OEM's moeten zich niet houden aan de nVidia spec wat betreft de power monitoring ;) er is een Astral kaart uit die elke lijn meet ;) YouTube: It finally happened... Thankfully I caught it in time!
Lekker als je zo een videokaart moet gebruiken.

Geeft alleen maar aan dat het een slecht ontwerp is.
Waar TheDeeGee op doelt is dat het absurd is om zoveel vermogen te gebruiken voor grafische weergave. Dat is meer dan een heel gemiddeld huishouden per uur verbruikt.
Niet echt, dat moet iedereen zelf weten.

600W voor een enkele pin (in het ergste geval) moet niet mogelijk zijn, zelfs 200W is al te veel.

NVIDIA schuift het probleem gewoon onder het kleed, terwijl het echt hun schuld is. Ze blijven het schuiven op: "Je moet onze adapter gebruiken, want anders.". Dat zou betekenen dat alle voedingen op de markt niet deugen omdat die met een kabel worden verscheept die niet door NVIDIA is goedgekeurd.
Ik gebruik hem om het weer te voorspellen mag het dan wel? Moet iedereen toch lekker zelf weten. Als jij supergraphics wil en het geld hebt prima. Je kan ook een Porsche kopen. Das ook 4x de prijs van wat een gemiddeld huishouden voor de deur heeft staan.
Nee, dat is niet houdbaar. We moeten energie zuiniger gaan leven.
De connector heeft 6 12v pins en 6 aarde pins. Volgens het nvidia ontwerp moeten deze samen verbonden worden op één 12v rail.

De core kan dus niet zien of de 6 pins voor 12v goed aangesloten zijn, dus met elk 100w of bijvoorbeeld één pin met 300w en de rest met 50w.

De kaart ziet alleen één grote poule 12v en de sense pinnen. 12v is er, of niet. Als het sense gedeelte goed aangesloten is, dan is verder een één aarde en één 12v pin voldoende. De kaart checkt namelijk "is er 12v" en dat is er. Hij kan op geen enkele manier het verschil zien. Totdat je er 600w over probeert te sturen.

Bij de 6 en 8 pin aansluitingen is dat heel anders. Die hebben per stuk een rating van 75 of 150w en de kaart meet per aansluiting het stroomverbruik om te zorgen dat die waardes nooit overschreden worden. Als die niet goed aangesloten zitten dan is het maximale dus 150w over de wel aangesloten draden, ipv 600w.
Zie: Sissors in 'ASUS introduceert ROG Matrix RTX 5090 die tot 800W kan ontvangen', dat is dus niet noodzakelijkerwijs beter. Als hij slecht contact maakt blijft hij gewoon 150W door die connector trekken die slecht contact maakt. (Waarbij overigens de andere kant van de pigtail meestal ook geen 16 pinnen heeft, en ja dan moet je weer geen pigtails gebruiken, maar dat is wel de standaard bij de meeste voedingen).
Hoezo is 150w door één draad "niet noodzakelijkerwijs beter" dan 600w?

Het ene is veel gevaarlijker dan het andere.

Nu is een kabouter die toevallig de kabels doorknipt vrij onwaarschijnlijk, maar feit is wel dat een 8 pin pcie heel veel meer veiligheids marge heeft dan de 16 pin.

Veel waarschijnlijker is namelijk dat er kleine verschillen zijn tussen de verschillende draden, door imperfecte productie of assemblage.

De meeste kwalitatief hoogwaardige voedingen kunnen prima 8a of 96w per pin leveren. Dan kan er bij een pcie of cpu stekker tientallen procenten afwijking zijn tussen de verschillende draden zonder ook maar één issue.

Een 600w videokaart met pcie 8 pins zou er lelijk uit zien, maar als van de 4 aansluitingen alles aangesloten is dan is er capaciteit voor 4x 3x 96w = 1152w. Dan moet je wel hele gekke dingen doen voordat je issues hebt.

Ik zou eigenlijk liever EPS/CPU 4+4 pin stekkers zien. Als je 100w of 150w per 4 pin zou aanhouden en load balanceren, dan had je alsnog een kaarten met de normale look van 2/3x 8 pin, maar met veel meer veiligheid dan nu.
Vraag mij af of de AMD kaarten met die connector wel een beter board design hebben dan?

En qua Nvidia, naar mijn weten was dit allemaal beter ontworpen met de 3000 series, ik vraag mij werkelijk af waarom Nvidia met de huidige (absurde) GPU prijzen daarop heeft bespaard.
De Sapphire 9070 XT met 12V-2x6 heeft ook geen load-balancing, dus het is niet alleen een NVIDIA probleem.

Hier een video over die kaart.

YouTube: Taking a look at Sapphire implementation of the 12VHPWR connector on the RX 9070 XT Nitro+

[Reactie gewijzigd door TheDeeGee op 19 augustus 2025 19:22]

Dat is dus een sapphire probleem. Gewoon niet die ene duurdere met een inferieur design GPU kopen.

Met een RTX 5090 gaat dat wat lastiger. Er is namelijk geen alternatief product als je deze performance wil.
En waarom of voor wie zou je een kaart die 800wh vreet?

Echt onbegrijpelijk hahaha en Asus is niet meer.....van de goede service!

Ik koop niks meer van Asus door slechte service.
ASUS denkt, als mensen dit willen kopen voor epeen dan laten we hem er maar meteen uitzien als eentje.
Normaal vind ik de ROG kaarten niet lelijk (tenzij je hekel hebt aan gaming design, maar ook daar is genoeg keuze)

Maar dit ding is lelijk, smaken zullen verschillen en genoeg mensen die daar lak aan hebben.

Vraag mij af waarom ze niet gewoon de Astral or Strix design hadden gebruikt.
smaken verschillen inderdaad, maar dit design is in mijn ogen echt afzichtelijk. Zeker vergeleken met de Matrix 4090
Mijn kast is toch dicht, maar ik kan me voorstellen dat je met juiste verlichting hier een best mooi iets van kan maken met rood-zwarte kleurstelling. Dat gezegd, voor het geld waarvoor deze waarschijnlijk gaat hadden ze wel een systeem mogen maken waarbij je andere kleurtjes ook erop kan duwen.

Maar om je laatste vraag te beantwoorden: Omdat als je een peperdure kaart koopt, en je vindt uiterlijk belangrijk, dan is er een redelijke kans dat je ook wil laten zien dat je een bijzondere kaart hebt. Als hij gewoon identiek is aan andere kaarten tja, dan mis je iig de poch factor.
vanuit perspectief van een gebruiker is het eigenlijk bijzonder onhandig dat de PCI-express standaard niet voorziet in dit soort high-power toepassingen. In dat artikel laatst focust PCI-express vooral op de data / bandbreedte / protocollen maar de praktijk (iig de consumtenten-gaming hoek) lijkt vooral meer (stroom)vermogen te vragen; een PCI-e x16-Hpwr slot.

[Reactie gewijzigd door Tubby op 19 augustus 2025 16:28]

Wat is daar handiger aan? Dan moet je die kabel die nu in je GPU zit ergens in je moederbord prikken, even veel werk dus. Het is hooguit netter/mooier.

Daarnaast betaald dan iedereen voor die extra dikke koperbanen in je moederbord die voor veel mensen helemaal niet nodig zijn.

Nee geef mij de huidige oplossing maar, stroom via een kabelt in je GPU is imo gewoon prima. Dan kan je er ook 1, 2 of 3 in doen afhankelijk van je GPU en voeding.

[Reactie gewijzigd door watercoolertje op 19 augustus 2025 16:54]

Dat is wel heel ultiem, maar dat zal de prijs ook zeker zijn.

Moet je wel een moederbord hebben die überhaupt die connector heeft, dan had ik toch liever een dual 12V-HPWR gezien, toch iets minder vendor/moederbord locked en toch een betere speelruimte qua stroom als ze dat goed kunnen verdelen.

Kan ook net zo goed een gelekte 2000W vbios van een 5090D Astral flashen op een 5090, powerlimit omlaag gooien naar 800W en heb je ongeveer iets vergelijkbaars. De 5090 Astral trekt hier al met overclock zonder zoiets 639W uit de 12V-HPWR en bijna 26W uit het PCI-E slot met pieken naar 800W volgens de Wireview Pro dus die videokaart gaat er geheid nog een dikke 200-250W overheen in onbegrensde staat en wellicht zelfs nog 100W meer aangezien Igor's lab al aangaf dat standaard 5090s pieken van +900W onder de 1ms konden laten zien wat de Wireview wellicht niet ziet.

Overigens gaat het hier al 353kWh lang goed, geen verschil in de pinnen gemeten sinds nieuwstaat.
Ding past niet eens in mijn auto
800 watt aan hitte, hoe ga je dat wegwerken? Doe er dan nog een Intel heethoofd bij en je hebt een serieuze kachel in je kamer staan. Mensen op een zolderkamertje en/of zonder airco kunnen deze kaart rustig laten passeren, want dat gaat niet goed. En dan nog, hoeveel lawaai moeten die 4 fans maken?

In mijn ogen is het een defect :X Ik ben series benieuwd of het mogelijk is om de temperatuur schappelijk te houden. Ik vraag me dit serieus af.
Het is waarschijnlijk ook puur voor overclocking bedoelt, normale 5090 verbruikt dat niet.

Daarnaast zal die kaart vaak zat ver onder zitten, en zelfs op max denk ik dat de koeling het prima redt zonder al te veel lawaai.

Ik zou mij meer zorgen maken om coilwhine, is veel irritanter (persoonlijke mening).
Ik ben al 50 jaren oud/jong en hoor die hoge coilwhine niet of mijn systeem heeft er geen last van.

Ze hebben er veel aan gedaan zoals liquid metal koelpasta en 4 fans, maar de 600 watt die de GPU op stock speed verbruiken vind ik ook nogal heftig. Ik zou eerder aan de gang gaan met onderklokken en undervolten. Ik denk als je dit goed aanpakt dat je wegkomt met 400 watt voor 90% van de prestaties. Dat klinkt al heel anders.

En we zijn zo begaan met het milieu...
En we zijn zo begaan met het milieu...
Te begrijpen maar:

1. 600 (of 800) watt is alleen haalbaar als je de kaart max belast, en dat zullen de meeste games zelfs niet doen (en al helemaal niet als je de framerate capped)

2. dit is een niche product, een hele dure ook nog die de meeste mensen niet kunnen of willen kopen. Plus zoals ik in punt 1 al zei, dit verbruik is alleen als je de kaart max belast.

Ik maak mij meer druk over het verbruik van al die datacentra in Nederland, dan de kleine aantal mensen die in Nederland deze kaart hebben.

Maar ik ben er wel mee eens dat undervolten een goed idee kan zijn, zeker aangezien de 5080 veel minder kan verbruiken bijvoorbeeld.

[Reactie gewijzigd door Mizgala28 op 19 augustus 2025 16:58]

Ik denk dat als je in de doelgroep zit en dus met stiksstof gaat koelen / water gaat koelen dat je weinig hoord van die ventilators die ergens in een kast liggen omdat je ze wilt bewaren ipv weg gooien.
Is dit een definitieve bevestiging dat er geen 5090 Ti of Super komt?

Anders gaat een fabrikant zoiets niet ontwikkelen. Asus heeft zelf iets verzonnen om de markt voor de absolute top kaart te vullen.
Begin van het jaar mijn 10 jaar oude voeding een update gegeven van Seasonic Platinum Series 860W V2 met een nieuwe FSP HYDRO TI PRO 1000W Titanium. De hoop op de toekomst en nu een 5090 enkel met 800W. Dit zal mijn voeding nooit werken + het systeem. Ik ben benieuwd hoeveel de volgende generatie nodig gaat hebben.

[Reactie gewijzigd door Van der Berg op 19 augustus 2025 18:23]

compleet gestoord.

in een markt met de hoogste energieprijzen ooit (ok ik betaal geen 1.20 euro per kwh meer zoals net na de inval in oekraine, maar het is nog altijd fors hoger dan wat het daarvoor was)

is het balangrijker dan ooit om energiezuinige apparaten te hebben.
de meerprijs daarvoor verdien je immers rap terug.

een gpu van 600W waar de topmodelen van nvidea altijd 250W verbruikten (voor ze van het padje af raakten) is dan ook al compleet mesjogge,, we moeten juist OMLAAG.. een 5090 die 80% de prestaties heeft maar maar 200W verbruikt.. daar is vraag naar.

een idioot exemplaar dat op de kollosale energienota die vijfmaal de aanschafprijs van dit gedrocht is nog eens 200w toevoegd.. is geen marktgevoel hebben..
800W aan stroom? En ik maar denken dat stroom in Amperes gemeten werd en vermogen in Watt


Om te kunnen reageren moet je ingelogd zijn