ASUS RTX 5090 met afneembare connector kost grofweg 50 euro meer dan basisversie

De ASUS ROG Astral GeForce RTX 5090 BTF-uitvoering met afneembare connector voor 'kabelloze' stroomtoevoer kost ongeveer vijftig euro meer dan de standaardversie. De videokaart is beschikbaar vanaf 2950 euro, terwijl de standaardversie voor 2900 euro wordt verkocht.

De BTF-uitvoering van de ASUS ROG Astral GeForce RTX 5090 heeft in tegenstelling tot de standaardversie van de videokaart een afneembare GC-Hpwr-connector. Hiermee kan het moederbord via een poort in het verlengde van het PCIe-slot tot 1000W aan vermogen leveren. De daadwerkelijke stroomkabel wordt aangesloten aan de achterkant van het moederbord, waardoor deze vanaf de voorkant niet zichtbaar is. Omdat de connector hiervoor voortaan afneembaar is, werkt de kaart ook via een reguliere stroomtoevoer via een 12V-2X6-connector aan de bovenkant van de videokaart. De videokaart werd oorspronkelijk in mei 2025 aangekondigd, maar de europrijs was toen niet bekend.

ASUS ROG Astral RTX 5090 BTFASUS ROG Astral RTX 5090 BTFASUS ROG Astral RTX 5090 BTFASUS ROG Astral RTX 5090 BTF

De afneembare GC-Hpwr-connector en builds met de ROG Astral RTX 5090 en TUF RTX 5070 Ti BTF. Foto's: Tweakers

Door Yannick Spinner

Redacteur

11-08-2025 • 12:49

37

Reacties (37)

Sorteer op:

Weergave:

Die extra connector is een goed idee, zeker als hij afneembaar is en de videokaart ook gebruikt kan worden in moederborden die dit niet ondersteunen. Maar Asus heeft welgeteld twee Intel borden die dit ondersteunen en geen enkele optie voor AMD CPU's. Hopelijk komt er snel meer aanbod.

Ze claimen dat de nieuwe connector goed is voor 1000W. Maar als je dan naar die moederborden gaat kijken hebben ze een enkele 12V-2x6 (12VHPWR) connector aan de achterkant. Dit schuift het probleem gewoon op. I.p.v. dat de connector op de videokaart smelt, is het de connector aan de achterkant van het moederbord die het begeeft. Als ze effectief 1000W willen ondersteunen hadden ze hier twee connectors kunnen toevoegen die dan elk tot 500W afhandelen.

De enige toegevoegde waarde met de huidige selectie moederborden die deze GC-HPWR-connector ondersteunen is dat je de kabels kan verbergen achter het moederbord. Een gemiste kans om de problemen met de 12VHPWR op te lossen.
Helaas zijn de problemen met 12VHPWR niet op te lossen door AIBs. Het probleem ligt bij NVIDIA, maar die steken hun kop in het zand.

Daarnaast is het niet alleen NVIDIA, want Sapphire met de 9070 XT heeft ook geen load-balancing, en toch een 12VHPWR connector.
Ik vind dit wat raar. De nieuwere kaarten trekken alsmaar meer en meer stroom.

Bij mij bestond de impressie door de jaren heen dat de kaarten steeds meer krachtiger en zuiniger werden net als cpu's.

Ligt het aan mij of lijkt het erop dat kaarten wel sneller worden maar ook meer verbruiken?
Ze worden al ongeveer 3 a 4 generaties (6 a 8 jaar) steeds minder zuinig. Ik ben bang dat dit tij ook niet meer gaat keren. Hetzelfde is waar voor CPU's ook die vreten steeds meer stroom omdat ze factory overclocken.
Wat bedoel je precies met 'minder zuinig', verbruik alleen is niet heel erg interessant. Tenzij je daar zelf een limiet voor hebt (bijvoorbeeld, je wil geen kaart die meer dan 300W verbruikt in de game room omdat het dan onaangenaam wordt). De efficiëntie neemt over het algemeen nog steeds toe generatie op generatie. Een kaart uit AMD's 9000 of Nvidia's 5000 serie zal meer performance uit een powerbudget van bijvoorbeeld 300W kunnen halen dan een kaart van 6-8 jaar geleden, of als je naar verbruik kijkt minder verbruiken bij een gelijke performance dan die kaart van 6-8 jaar geleden en zijn dus wel degelijk zuiniger en / of meer efficient.
In theorie klopt dat in de praktijk echter niet. We halen niet meer fps in games omdat games tegenwoordig slechter en slechter geoptimaliseerd zijn en voor zo goed als geen. Visuele extras flink minder presteren.

Dus ja voor zaken als renderen krijg je meer prestaties per watt maar voor gaming merk je daar niets van.

Een groter probleem met kaarten tegenwoordig is hoe ze uit de fabriek rollen. Ik heb een 6900xt standaard 350 watt power limit. Met een 150 MHz underclock en een .6 undervolt halen alle 6900XT kaarten een power draw van 155 watt met 95% van de prestaties. Best bizar dat ze dan uit de fabriek rollen met een power draw van 350 watt.
In theorie klopt dat in de praktijk echter niet. We halen niet meer fps in games omdat games tegenwoordig slechter en slechter geoptimaliseerd zijn en voor zo goed als geen. Visuele extras flink minder presteren.

Dus ja voor zaken als renderen krijg je meer prestaties per watt maar voor gaming merk je daar niets van.
In de praktijk klopt dat ook prima, pak maar een game en 4 kaarten en test ze bij gelijke settings, een 6900XT (die jij hebt, en ik zelf ook toevallig), 9070XT, 5070Ti en 5080.

Die laatste 3 zullen allemaal (flink) efficiënter zijn dan de 6900XT, ze genereren ofwel meer FPS bij gelijk verbruik, of verbruiken minder bij gelijke FPS, zolang je appels met appels aan het vergelijken bent. Dat zie je echt niet alleen in renderen, ook gewoon in gaming. Je moet echter wel appels met appels vergelijken, dus stock v.s. stock of hyper tuned v.s. hyper tuned en niet jouw getunede 6900XT met een stock kaart.
Een groter probleem met kaarten tegenwoordig is hoe ze uit de fabriek rollen. Ik heb een 6900xt standaard 350 watt power limit. Met een 150 MHz underclock en een .6 undervolt halen alle 6900XT kaarten een power draw van 155 watt met 95% van de prestaties. Best bizar dat ze dan uit de fabriek rollen met een power draw van 350 watt.
Dat noemt men binning, en dat wordt juist gedaan omdat niet iedere 6900XT stabiel is op zo'n undervolt. Fabrikanten als Nvidia en AMD kiezen daarom juist een vrij 'veilig', voor stabilteit (en dus hoger) voltage. Zodat ook de matige bins zo hoog mogelijk in de stack verkocht kunnen worden en een zo hoog mogelijke marge kunnen generen.

Als AMD iedere 6900XT had stabiel had kunnen leveren met quasi 100% van de prestaties op 350W op 155W hadden ze dat echt wel gedaan. De praktijk is echter dat niet iedere 6900XT met zo'n undervolt in iedere workload stabiel is. En dus shippen ze met stock settings waarop een zo groot mogelijk percentage van de gefabriceerde dies dat wel is.
Wat mensen ook vaak vergeten is dat resolutie op twee dimensies werkt.
Van 1920x1080 naar 3820x2160 is 4x zoveel pixels.
Dat is nogal een stelling die je maakt. Ik vraag me echt af of games tegenwoordig minder geoptimaliseerd zijn. Het tegengestelde kan ook waar zijn. Voor alle extra pracht en praal, of extra systemen die op de achtergrond draaien, kan het zomaar zijn dat er veel meer optimalisatie gedaan wordt om het überhaupt draaibaar te maken op onze hardware. Ik vraag me ook af of je deze claim überhaupt kan testen.


En waarom ze zo uit de fabriek rollen. Elk stukje silicium moet werken. Dus ze optimaliseren niet voor jouw kaart, maar voor ALLE kaarten. Dat betekent ook dat de chip die uit het randje van de wafer wordt gesneden, waarbij de focus tijdens de litho niet zo goed was, waar de spincoating een beetje bleh ging en waar de etser zijn werk ook niet goed kon doen, moet net zogoed draaien als het perfectje chipje dat jij in je kaart hebt gekregen. Dat betekent inderdaad dat er chips zijn waarbij je lekker kan undervolten, maar het betekent ook dat lang niet alle kaarten dat kunnen. Als fabrikant kies je dan voor de laagst mogelijke spanning waarbij alle chips nog draaien. En die is hoger dan wat jij gebruikt.

Daarnaast heeft de 6900XT een TDP van 300W, en de mijne (custom loop, liquid metal, undervolt, met max power settings) trekt rond de 250W. Als ik de power limit halveer, haal ik echt geen 95% van de FPS die ik nu haal. Dus ik denk echt dat jouw stelling flink overdreven is. Ja ik geloof wel dat je met 20% minder power prima 5% minder frames kan halen. Maar verwaarloosbare prestatievermindering bij een halvering van het vermogen is niet echt realistisch.
Tegenwoordig bestaat optimalisatie niet meer, alles moet sneller gebouwd worden. Er is zeeen van cpu en gpu kracht dat je niet meer hoeft te doen.

Als je kijkt naar een simpele rekenmachine op je mobiel, weet je hoeveel mb dat is nu? Bij mij is het 32 MB!

Ik maakte websites altijd met kladblok. Toen was al gezeik met frontpage. Ja hrt was sneller gebouwd maar of het nou efficiënter is met de cpu en opslag? Verreweg. Bij games is het factor x-maal erger.

Tegen de tijd dat je klaar bent met optimalisatie, dan is het al obsolete.

Ook prestaties zijn altijd in een exponentieel curve. Als je een beetje terugschroeft in prestaties, kan je zoveel stroom besparen. Het is bijna asociaal wat ze nu stock uitbrengen. Onder de oude tweakers weten we nog allemaal met de p4 voordat de Monroe variant uitkwam. Dat waren een gedrocht.
Dan klopt het nog steeds. Ja stom dat games minder efficiënt worden geprogrammeerd, waardoor je niet de performance krijgt die je zou moeten krijgen. Maar dat maakt nieuwe GPU's niet ineens inefficiënt ten opzichte van hun voorgangers. De oudere GPU's kunnen die slecht geoptimaliseerde games nóg minder goed draaien. Maar als dat betekent dat nieuwe GPU's minder efficiënt werken, dan zijn ook de oude GPU's minder efficiënt dan ze waren.
Die inefficiëntie noemt men raytracing, waar er vroeger flink op los gefaked werd qua effecten voor belichting en reflecties wil men tegenwoordig accurate modellen zien. Hetzelfde met schaduwen, waar ingebakken shadow maps als achterhaald werden gezien omdat dat een naadloze dag/nacht cyclus in de weg staat.

Zet de RT uit en optimaliseer handmatig van ultra naar high en ineens blijkt dat er toch wel behoorlijke stappen qua rekenkracht zijn gemaakt.
Enige GPUs die het nog waard zijn qua efficiency zijn de 4060/5060 series ondanks alle vram haat
Nee de hogere klassen zijn veel zuiniger. Meer performance per watt. Als je laag verbruik wilt kan je beter een higher end kaart kopen en terugklokken en undervolten
Kan een 5080 hogere performance krijgen op 100w dan een 5060?
Het zal wel nog keren. Wanneer mensen stoppen met ze te kopen omdat ze teveel verbruiken, wanneer de PSU's het niet meer aankunnen of wanneer de koelers het niet meer aankunnen en de chips doorbranden. Maar zolang ze de schappen uitvliegen is er geen reden om ze efficiënter te maken.
Verbruik wordt niet perse minder (ook niet bij CPU's trouwens, AMD's en Intels topmodellen in het consumenten segment mogen tegenwoordig 230 respectievelijk 250W verbruiken op stock settings, daar kwam je 'vroeger' niet bij in de buurt op stock), wel zie je dat de kaarten (en cpu's) over het algemeen (er zijn uitzonderingen, vaak workload afhankelijk) steeds efficiënter worden dan de voorgangers. Maar daar is niet voor nodig dat ze ook minder gaan verbruiken. Zolang het verbruik minder snel stijgt dan dat er aan performance wordt gevonden zal een nieuwe generatie efficiënter zijn, ook als het verbruik in absolute zin meer is in een bepaalde workload.

Voorbeeld met gefingeerde getallen: een GPU in generatie A kan bij een verbruik van 300W 100FPS renderen in Game Y, of te wel 3W verbruik per FPS in die workload.

Dan komt de opvolgende generatie B, nu kan een GPU in dezelfde klasse 150FPS renderen in game Y bij dezelfde instellingen, maar het verbruik is nu 320W. 20W meer verbruik, maar het verbruik per FPS is nu 2,13W per FPS, een duidelijke verbetering.

[Reactie gewijzigd door Dennism op 11 augustus 2025 13:07]

De performance per wat die verbeterd ook wel, maar omdat onze honger naar meer rekenkracht toe neemt worden de kaarten ook zo ontworpen dat ze ook meer vermogen kunnen trekken. (De ruwe performance in benchmarks is dus toegenomen per watt)

Maar je kan wel zeggen dat een midrange kaart van 300w, evenveel kan als een oudere high-end kaart van 600w.
Qua performance per watt is er dus wel 50% winst geboekt in pakweg 10 jaar tijd (een zeer grove schatting zonder uitgebreid onderzoek).
De prestatie per Watt is wel verbeterd, maar de winst is grotendeels behaald door meer transistors die per stuk meer stroom verbruiken.
Vrij zuinige GPU's bestaan ook gewoon, 5090 is gewoon een geval apart op dat front.

Er zit fors wat verschil in wat een 5090 verbruikt tegenover een 5080 bijvoorbeeld, mensen staren zich ook een beetje te blind naar wat een 5090 verbruikt, en denken dat alle GPU's (AMD en Nvidia) dat qua stroom kunnen verbruiken.

vooral kunnen, als je Stardew Valley op je 5090 gaat spelen gaat hij heus geen 550+ watt qua stroom verbruiken onder normale omstandigheden

En er zijn nog zuinigere kaarten natuurlijk, en wie oudere en/of lichtere games speelt komt tegenwoordig ook vaak weg met een goede iGPU.

[Reactie gewijzigd door Mizgala28 op 11 augustus 2025 13:07]

Ik vind het helemaal niet raar, je hebt kaarten die zuiniger (en sneller zijn) dan hun voorganger, en je hebt kaarten die de grens van verbruik opzoeken (en dus altijd het maximale verbruiken wat op dat moment nodig/mogelijk is) om de snelste kaart te hebben/verkopen.

De consumenten hebben gewoon vraag naar beide types (en alles ertussen). Ik zou niet weten hoe je dat raar kan vinden dat is bijna hoe elke markt werkt.

[Reactie gewijzigd door watercoolertje op 11 augustus 2025 13:16]

Het is daarom op laptops een USP geworden dat je met een IGPU en een DGPU dynamisch kunt wisselen tussen de twee al naar gelang de workload. (Dus zowel Radeon als NVidia on board.)
Ze worden ook steeds zuiniger, als in, je kan er steeds meer performance uithalen voor hetzelfde vermogen. Een RTX5090 die 200W gebruikt zal een stuk meer performance leveren dan een RTX2080 die 200W gebruikt.

Alleen gooien ze de prestaties nóg zoveel meer omhoog, dat alles wat je wint aan zuinigheid meteen verloren gaat aan nóg hogere prestaties. Gamers willen doorgaans vooral dat hun nieuwe hardware sneller is dan hun oude hardware. Of verbruik omlaag gaat is van ondergeschikt belang. Dat wordt bereikt door zuinigere hardware te ontwerpen die vervolgens nog flink wordt opgevoerd. Dat opvoeren is juist mogelijk doordat de hardware zoveel zuiniger is dan de voorganger.

Al meen ik dat de RTX5000 serie met name is opgevoerd. Performance/watt verhouding is niet wezenlijk verbeterd ten opzichte van RTX4000.
Bij mij bestond de impressie door de jaren heen dat de kaarten steeds meer krachtiger en zuiniger werden net als cpu's.
Ze zijn duidelijk zuiniger per operatie. Maar we laten ze steeds meer operaties doen en daardoor gaan ze meer gebruiken.
T is ook wel zo ongeveer dat we de limieten van de verkleining hebben bereikt. Dus er word minder daadwerkelijk verkleind, waardoor men dus de zuinigheid niet kan verbeteren. (Want dat kwam door de verkleining). Nu kunnen ze dus alleen nog maar slimmer ontwerpen en grotere chips bouwen (die dan wel meer vermogen trekken). Resultaat dan is wel een snellere chip, maar zeker niet zuiniger.
Dat is niet zo raar als je weet wat ze bedoelen. Want ze worden wel zuiniger, maar er zitten ook veel meer transistoren op. En omdat er naar ratio meer transistoren op gaan dan dat ze zuiniger worden per transistor is het netto stroomverbruik hoger.

De RTX 5090 is ongeveer 1,000× meer power-efficient per transistor dan de NV1 (Hun eerste kaart).
  • NV1: ~6.8 × 10⁻⁶ W per transistor
  • RTX 5090: ~6.24 × 10⁻⁹ W per transistor
  • Ratio = 6.8 × 10⁻⁶ ÷ 6.24 × 10⁻⁹ ≈ 1,089
Dus, voor elke individuele transistor, gebruikt de 5090 meer dan 1000x minder wattage per transistor terwijl er 368.000 meer transistors op de kaart zitten.

[Reactie gewijzigd door markoverklift op 11 augustus 2025 18:28]

De nieuwe kaarten verbruiken steeds meer, maar ze zijn ook efficiënter dan de oudere kaarten.

De markt is ook verschoven, high-end is tegenwoordig veel meer high-end dan 10+ jaar geleden. De nieuwste chips hebben vele malen meer transistors dan de oudere generaties.
Met auto's is dat ook zo hoor.

De verbrandingsmotors, benzine eigenlijk alleen maar werden de laatste jaren zuiniger EN hebben meer top vermogen, maar als je dat MEER top vermogen aanspreekt verbruiken ze ook meer. Je haalt de kW uit de liters brandstof immers ;-) . Diesels zijn alleen maar meer gaan verbruiken toen commonrail op de markt kwam, was ook gelijk meer vermogen, vandaar dus meer verbruik maar bij diesel moet je het gas dieper indrukken om plezier te hebben (om koppel te genereren met open luchtklep), bij de dikkere benzine-motoren had je dat gelijk

Dus short story : if you want a fast gpx-card...it needs more power at peaks. at idle it uses less then before.

You gotta pay if you want to have fun.
De 5090!? Dacht dat mijn 3080 gloednieuw was.
De 3080 tikt alweer de 5 jaar aan volgende maand.
Ik hoop dat alle andere videokaart leveranciers dit ook gaan doen. Is deze GC-HPWR specifiek / gelicenseerd Asus design of mag elke videokaart maker dit toepassen?
Yo dawg, ik hoorde dat je connectors faalde vanwege overgangsweerstanden. Dus we hebben meer overgangsweerstand op je connector gemaakt.
Zit er ook een afdekplaatje bij voor het reguliere stroom aansluit punt ?
Eerste wat ik dan denk is dat ze 50 euro extra vragen voor een kaart die dan al 2900 euro is, het zou Asus netjes staan als de dat als extra accessoire gratis erbij zouden leveren. Tja en dan 1000 watt via het moederboard, ik weet niet maar een prettig idee vind ik dat niet. Kan mij ook zo voorstellen dat als er 1000 watt door dat moederboard heen gejaagt word dat andere componenten ook onnodig opwarmen.

En tja dat hele kabelloze, ik weet niet, vind het juist een kunst en uitdaging om juist gewone bekabeling netjes weg te werken. Om daar dan extra geld tegenaan te gaan gooien, nee, want uiteindelijk zal je aan de acherkant dan een nog dikkere bos kabels gaan krijgen.
Op zich een super idee, alleen het probleem blijft, maar smelt nu de connector op je moederbord. En dat is een vervelender probleem dan je videokaart vervangen.

NVIDIA (en ook AMD) moeten een flinke tik op de vingers krijgen en veilige videokaarten maken met load-balancing.
Zijn de aansluitingen op de Voeding niet standaard?
Waarom solderen ze die draden er niet gewoon op en dan naar de voeding met de stekker.

Op dit item kan niet meer gereageerd worden.