ASUS-software waarschuwt voor stroomkabelproblemen met ROG Astral RTX 50-gpu's

ASUS heeft een Power Detector+-functie toegevoegd aan zijn GPU Tweak III-software. Die wordt gebruikt om gebruikers met een ROG Astral-gpu te waarschuwen als hun 12V-2x6-stroomconnector problemen heeft. Dat moet voorkomen dat de connector doorbrandt.

De Power Detector+-functie voor ASUS GPU Tweak III gebruikt de sensors die aanwezig zijn in de ASUS ROG Astral-varianten van de RTX 5080 en 5090, naast de ROG Matrix RTX 4090. In die videokaarten heeft ASUS extra shuntresistors toegevoegd, waarmee het mogelijk is om in te zien hoeveel stroom door de afzonderlijke pinnen van de stroomconnector loopt.

Deze sensors konden al worden uitgelezen in GPU Tweak III, maar met de Power Detector+-functie gaat ASUS gebruikers actief waarschuwen als er iets fout gaat, merkt VideoCardz op. Gebruikers krijgen daardoor duidelijker te zien wanneer een van de pinnen te veel stroom vervoert. Ze kunnen daardoor op tijd ingrijpen, bijvoorbeeld door hun stroomkabel opnieuw aan te sluiten. Dat moet voorkomen dat de stroomconnector smelt.

De nieuwe feature volgt op problemen met de 12V-2x6-connector en zijn voorganger, 12Vhpwr. Gebruikers met een RTX 5090 meldden in de afgelopen maanden dat de stroomconnector op hun gpu te warm werd en in sommige gevallen is gesmolten. De oorzaak lijkt een gebrek aan loadbalancing te zijn. Daardoor is het in theorie mogelijk om tot 600W te vervoeren over een enkele pin, in plaats van de gebruikelijke zes pinnen. Dat veroorzaakt de hitteproblemen en kan er dus voor zorgen dat de connector smelt. De ASUS ROG Astral-kaarten hebben weliswaar ook geen loadbalancing, maar kunnen gebruikers dus wel waarschuwen als er iets mis is met de verbinding.

ASUS GPU Tweak III Power Detector+
Beeld: ASUS

Door Daan van Monsjou

Nieuwsredacteur

09-04-2025 • 19:29

84

Lees meer

Reacties (84)

84
84
33
5
0
45
Wijzig sortering
Titel is beetje clickbaity

ASUS-software waarschuwt voor stroomkabelproblemen met ROG Astral RTX 50-gpu's
->
ASUS-software waarschuwt bij stroomkabelproblemen met ROG Astral RTX 50-gpu's


Tis niet dat je meldingen gaat krijgen dat er stroomkabelproblemen kunnen zijn.
Je krijgt meldingen wanneer er stroomkabelproblemen zijn.
Ook jouw voorstel is nog niet helemaal goed - het impliceert nog steeds dat de Astrals er extra vatbaar voor zijn

-> "Software ASUS biedt extra veiligheidsmelding voor 12Vhpwr-stekkers"
Dat, en daar nog eens bovenop:
  • "De ASUS ROG Astral-kaarten hebben weliswaar ook geen loadbalancing, maar kunnen gebruikers dus wel waarschuwen als er iets mis is met de verbinding."
Kortom er wordt niet gesproken over de oplossing, oftewel hoe dit hele probleem volledig voorkomen en kan worden zodat het uitgesloten wordt.

Het is net alsof men bij een brandgevaarlijke slecht ontworpen adapter een bordje zet. "Waarshuwing, Brandgevaarlijk, vergeet niet de lader uit het stopcontact te trekken ivm smeltende componenten!"

Ligt het aan mij of is die hele 12Vhpwr van meet af aan tot en met nu een onbetrouwbare en ondoordachte bottleneck die de achilleshiel is van die ehum betaalbare en leuke grafische kaarten.
Dit is meer een feedbacktopic ding 😉
Gewoon schandalig van nvidia dat ze op deze gedoemde stekker blijven hangen.
Elke generatie is het wel weer zo ver.

Excuus dat nvidia gebruikt dat de stekker niet goed erin zit is flauwekul. Je moet van te voren zorgen dat het een goeie stekker is. Dat die goed werkt
Iedereen blijft maar zijken op die stekker terwijl daar niks mis mee is,

het is Nvidia die de load balance er uit heeft gehaald, je mag nooit zomaar aantal kabels aan elkaar lassen, als we dat in de 220 doen dan komt het never nooit door de keuring heen.
Maar is dit de verantwoordelijkheid van de kaart zoals jij schrijft of ook de voeding?

Ik vergelijk het zelf graag met een kookplaat welke veelal op 2x230 (of 3x bij de grotere modellen) is aangesloten. Het is - zeker bij de oudere platen - ook gewoon mogelijk om alles vanaf 1 Fase draad door te trekken en dan zal het apparaat in eerste instantie ook gewoon goed werken. Maar zodra je wat pitten tegelijk vol aan zat zal je meterkast ingrijpen omdat elke draad invidueel op 16A is afgezekerd zoals het hoort.

Waarom vinden we het dan wel acceptabel dat een computervoeding desnoods het volledige vermogen over één kabel kan levereren met brand als gevolg zonder enige beveiliging?

Vroeger waren de meeste voedingen in ieder geval nog multi-rail, maar de laatste 10 jaar is alles single-rail geworden. Dit principe van single-rail is letterlijk alsof je alle 16A automaten eruit gooit in een huisinstallatie en alles direct aan de hoofdschakelaar hangt :Y)
Oh jij wil 35A door één draad, hoofdschakelaar vindt het best terwijl de bedrading erachter wegfikt |:(

Tldr: Waarom niet gewoon elke 12V draad van die connector in de voeding afzekeren op 10A in plaats van blind te vertrouwen op de verbruiker.

[Reactie gewijzigd door !mark op 10 april 2025 10:20]

Omdat je niet blind op de verbruiker mag vertrouwen dat is joust wat hier mis gaat. !!! , Ook al zet je zekeringen dan knallen ze er aan de lopen band uit omdat het desing aan de verbruiker kant zich niet aan de afspraken houd.

De voeding is niet degene die beperkinen op legt, die moet flexible zijn.

Jouw voorbeeld een 16A automaat kan met gemak 25-30 A leveren zonder uit te springen een 25A automaat kan zelf 30-35 A leveren voor langen tijden.

Of te wel de voeding leverd veel meer dan de 10% marge die de connector heeft Juist omdat je parrallel mag koppelen.

In jouw voorbeeld mag je op 220 heel veel devices in parralel koppelen, het is aan de verbruiker -> jouw kook plaat om niet boven de 16A uit te komen en alle parralel geschakelde apparaaten samen ook. mocht er even 1 piek zijn 2x9A dan vliegt niet meteen de 16A zekering er uit.

Jouw 16A appliances worden hierop gekeurd dat ze niet meer dan de 16A mogen trekken wat de max standaard is van 2.5mm kabel binnen de NEN


Kijk je naar Nvidia dan gaat het juist daar fout de voeding en de kabel voldoen aan alle regels maar de consumer van de rail niet die bundled ineens meerdere kabels tot 1 en overschijft zo de max van de standaarden.

Zie het net alsof je kookplaat de 3 phases aan elkaar knoopt in je kookplaat zelf. Dat is ook de reden dat auto charges van 3 phases altijd even veel stroom vragen van elke phases en niet alles bundelen tot 1x 11kwh god zegen waar het vandaan komt en het dan gaan omvormen.

[Reactie gewijzigd door Scriptkid op 10 april 2025 11:53]

Dan zou ik eerder de vinger wijzen naar de PCI-SIG (of Intel, not sure of het nu een pure ATX of PCI-SIG spec is) die die standaard heeft ontwikkeld, want daarin staat dat het verplicht is om dit te doen.
Ik kan niet direct aan de PCI-SIG spec sheets, maar Buildzoid vermeld het ergens zijn rants over de 12V 2x6 connector.


//offtopic: dit is wel héél oud nieuws, die feature zat al in de software bij de release van die GPU
Heb je daar link voor kan me niet voorstellen dat een connector een verbruikers implementatie opneemt.

Daarnaast hebben de oude modelen dat wel dus dat is raar voor iets wat jij verplicht eist.
Ik kan de exact video en timestamp niet terugvinden (ben er zeker van dat hij ergens in zijn uren lange ramblings de specsheets laat zien), maar dit is het dichtste dat ik kan terugvinden: YouTube: LTT has issued a correction to their video in a pinned comment on th...

De connector is trouwens deel van een grotere specificatie en die bepaalt hoe je die connector moet gebruiken. Dus zeggen dat het één groot powerplane moet zijn kan best wel.
Ik kan het in de specs iig niet vinden,

Fun fact is wel dat de individuele pinnen niet meer dan 3mohm mogen afwijken kwa weerstand, wat ze dus wel doen blijkbaar als je de pulg niet goed vast maakt. daaruit kun je dus ook opmaken dat het geen goed idee is om alles aan elkaar te lassen want dan ga je over die spec heen met alle issues die we nu hebben als gevolg.

De kaarten moeten voldoen aan de PCIe* CEM 5.1 compliant standaard.

Also the connector is limited at 375W before software removed the limit and allowes to go upto 600, so one could argue that the software management is also not in place.

[Reactie gewijzigd door Scriptkid op 14 april 2025 18:11]

En we klagen allemaal en toch kopen we het elke keer weer. nVidia maakt ons spreekwoordelijk lekker met de doeltreffend verslavende combi van suikers en vetten. De endorfine-rush is gewoon te sterke dat je ineens van 150fps met alles op ultra/4k naar 380fps gaat.

En erover kunt pochen, onderschat dit niet.

Winstmaximalisatie is wat telt en als derde partijen contractueel gebonden zijn om diezelfde shitty aansluiting te leveren... tja.

[Reactie gewijzigd door SkyStreaker op 9 april 2025 21:30]

Misschien is het tijd om naar 24 of 48 volt te gaan in computers, voor dit soort stroomvoorzieningen.
Bij 48v kun je weer andere problemen verwachten wanneer printbanen heel dicht op elkaar zitten. Daar moet je dan heel goed een ontwerp op aanpassen omdat je geen arcing wilt op een PCB. Verder is het een prima oplossing dan komt het wel met geheel nieuwe issues als een fabrikant niet oplet. :)
Je kan printbanen ook dunner maken bij hogere voltages, dus dat schept ook ruimte om meer airgap te laten tussen traces. En uiteindeljk zullen de voltages op de print snel weer terug moeten naar lagere, anders heb je hele dure rookgenerators ;)
Magische rook ontsnapt maar één keer. ;)

Kunnen banen dan zoveel dunner, uiteindelijk moet het opgenomen vermogen er ook door. Ik merk dat mijn kennis stoffig wordt, tijd om de boeken er weer eens bij te pakken. :)
In de modelbouw worden kleine stekkers gebruikt die met gemak 100A aankunnen, Misschien moeten ze in de PC wereld eens afstappen van die brakke stekkers.
Vnl van die meerdere hele dunne kabels. Die zijn er niet alleen omdat het handiger is voor cable mgmt (buigzamer), maar ook omwille van de prijs.
Het gekke feit dat dit goedkoper is, wordt keer op keer ingebakken/overgenomen in standaarden. Imo zit de oplossing daar.
maar die kleine XT90 stekker die idd 90 amp kan hebben word wel aan een AWG10 kabel (5mm2) dat is dus nog heel wat dikker als wat je in je huis hebt liggen waar max 16 amp door heen gaat (gezien zekering) bij 2,5mm2
Maar het probleem van verbrande stekkers zit niet zozeer in de kabels maar in de connector zelf waar door het beperkte formaat vrij makkelijk het verende deel dat stevig contact op de pin moet houden slap raakt en een weerstand veroorzaakt.
heb een test gelezen waarbij ze 12V-2x6 connectors meerdere keren in en uit prikken en de stroom per kabel meten. Blijkt dat een connector beter contact gaat maken na verloop van tijd. Maar na nog meer x in en uitprikken het weer gaat afnemen.
Kortom niet iets wat je niet huis zou willen hebben ivm smelt/brand gevaar.
Je kabels in huis zijn veel langer. Dat is de reden dat 2,5 mm2 afgezekerd wordt met 16A.

Als de kabels te lang worden dan gaat de automaat er namelijk niet meer direct uit bij kortsluiting.

[Reactie gewijzigd door jbhc op 10 april 2025 02:16]

Idd Deans bijvoorbeeld?
Deans of ook wel T-stekkers zijn alweer uit de tijd om de simpele reden dat als er ook maar een klein beetje vervorming in de stekker zit 1 van de 2 vlakke contacten niet meer goed over de hele oppervlakte contact maakt. XT60 zijn redelijk populair en voor de echte zware gebruikers XT90 maar ook de EC5 en de bullet stekkers (soort banaanstekker) zijn veel gebruikt. Omdat ze rond zijn hebben ze altijd rondom contact ondanks vervorming in de stekker.
Was er ook alweer een tijdje uit. Zeker 10 jaar geleden reed ik mijn laatste clubwedstrijd met een Serpent 747. :)
"It's not a bug, it's a feature...."

Ongelofelijk dat dit soort zaken nodig zijn omdat nVidia zijn zaken niet op orde heeft (of krijgt) met die connector.
Geen enkele connector gaat vol vermogen over 1 pin tolereren, dat is aan de fabrikanten van de videokaarten om goed op orde te brengen.

Een gewone peg 8 pin gaat het ook niet tof vinden, alleen kon die officieel max 250 leveren dacht ik. Dat is iets anders dan 600..
Max 150, extrapoleer je dat naar 12 pins kom je op 225W. Punt is alleen dat er bij de normale 8pin voldoende marge is en bij de 12vhpwr niet.
Maar vraag je eens af waarom dit continu bij die 12VHPWR connector gebeurt maar niet bij de 150(niet 250) watt 8 pin niet? Het is gewoon een slecht ontwerp, en dat valt na die 100 video's echt niet meer te ontkennen.
Omdat het ook gewoon bij die connectoren gebeurd? Heb zelf een 8-pins connector ook gesmolten (aan de PSU kant). Op het internet kan je hele lijsten met gesmolten 8 pins connectoren vinden, om het nog niet te hebben over andere problemen met die dingen omdat PSU fabrikanten grootschalig kabels meeleveren die niet aan de eisen voldoen (lees: 2x8 pins aan een kabel zetten, en dan erbij zeggen dat je niet 2x150W eruit mag trekken. Stop dan niet 2x een 150W connector aan een kabel...).

Komt natuurlijk nog bij dat de RTX5090 gewoon heel veel stroom trekt, en je dan natuurlijk onder de streep een groter risico hebt dan bij eentje die 200W verbruikt.

Het verschil is wel dat als mijn 8 pins connector smelt, er geen Tweaker FP artikel aan gewijd wordt, itt een gesmolten 12VHWPR connector.

[Reactie gewijzigd door Sissors op 9 april 2025 20:37]

De 600watt connector heeft een archileshiel, alle stroom kom weer samen aan de gpu kant. Niets blijft gescheiden. Eigenlijk moet dit ontwerp meteen weer de prullenbak in, er is amper iets mee te doen. Het is een fundamenteel ontwerp "fout".

Bij de twee of drie 8 pins aansluitingen, kunnen ze twee of drie stroomgroepen maken op de pcb. Wat ook gebeurt. Dan kan er geen 600watt over één groep lopen. Zoiets kunnen ze ook doen met zo'n 12pins connector, maar dat zal vast een paar dubbeltje meer kosten.

[Reactie gewijzigd door Madrox op 9 april 2025 21:20]

niet alleen dat, de 2x6 stuurt in een perfecte situatie maximaal maar liefst 100W per 12V-pin ofte 8.33A (de overige 6 zijn ground) terwijl een 8-pin PCIE slechts 50W per 12V-pin ofte 4.17A.
Bij beide zijn de individuele draden 1.29 mm of in het geval van low quality kabels slechts 1.02 mm diameter.
Dubbel zoveel stroom geeft voor een kabel van 50cm 0.1425W tot 0.222W voor 12V2x6 vs 0.0356W tot 0.0556W voor een 8-pin PCIE. Het verschil tussen een goeie 8-pin VS een slechte 12V2x6 is dus bijna 4X zoveel warmte bij een ideale verdeling of tot 30° verschil. Combineer dat met pieken tot ver boven de 10A en je komt op 50° verschil ofte een smeltende connector.
Hoi allemaal ik heb hulp nodig bij het installeren van een pc. Waar kan ik dat het beste posten
Welkom bij de club! Van aankoopadvies tot hardware configuratie en software installatie vind je alles en meer op: https://gathering.tweakers.net/

[Reactie gewijzigd door SambalSamurai op 10 april 2025 01:34]

Het verschil is wel dat als mijn 8 pins connector smelt, er geen Tweaker FP artikel aan gewijd wordt, itt een gesmolten 12VHWPR connector.
Omdat je het probleem met de 8pin schromelijk overdrijft, iets wat al heel snel duidelijk wordt als je er werkelijk op gaat zoeken. Natuurlijk brand er wel eens wat door. Ik heb zelfs een 24pin ATX kabel gehad die door brandde, maar dat is echt een uitzondering.

Het verschil is dat de 12VHPWR connector door brand door een slecht ontwerp. Er zit speling in de connector en de kabels komen bij elkaar op de PCB zonder enige regulatie.
Komt natuurlijk nog bij dat de RTX5090 gewoon heel veel stroom trekt, en je dan natuurlijk onder de streep een groter risico hebt dan bij eentje die 200W verbruikt.
Wat een onzin zeg, zo bijzonder is het nou ook weer niet. Voor een videokaart is 600 watt inderdaad een hele hoop, maar als je even om je heen kijkt slaat het weer nergens op. We hebben het over 9,6A per kabel (rated power), dus is niet iets heel bijzonder. Het is gewoon een combinatie wat lakse specs en een slecht basis ontwerp.

[Reactie gewijzigd door Thekilldevilhil op 10 april 2025 11:14]

Wat maak je het lekker gezellig. Het gaat natuurlijk relatief tov andere GPUs waarmee ik het vergelijk. Ja leuk dat het minder stroom is dan je auto trekt bij laden, maar we waren natuurlijk aan het vergelijken tussen GPUs. En dan trekt een RTX5090 gewoon een hoop meer dan hetgeen waar verder vergeleken mee wordt. Dat op het PCB de pinnen van de connector aan elkaar worden kortgesloten heeft verder uiteraard ook niks te maken met de connector zelf. Deze ASUS kaarten laten juist zien dat dat helemaal niet hoeft, immers als je los van elkaar de stroom meet, kan je ook los van elkaar de stroom reguleren.
Zoals ik al zei, bij twee connector aansluitingen, was de stroom fysiek al gedeeld, en de ene stroom aansluiting bediende niet de hele kaart, maar pakweg de helft. De andere deed de rest. Gescheiden stroom dus.

Asus geeft waarschuwingen idd, maar daarmee heb je het niet perse voorkomen.
Dat zijn implementaties die los staan van de connector. Je kan met twee connectoren ook de hele handel kortsluiten op pcb. En je kan met één connector ook het per pin, of per groep pinnen, het los regelen.
Leuk geleuter, maar met de pcie=8 connectors hadden we het hier niet over. Feit is dat met de nieuwe aansluting en hoe Nvidia en partners het hebben uitgerold voor veel ophef heeft gezorgt, en terecht.

De hele handel kortsluiten met twee connectors, terwijl er fysiek twee gescheiden kanalen zijn, dat is knap en zou betekenen dat het ene kanaal contact maakt met de andere. Maar waar gaat het nu om? Het overbelasten en te heet worden bij de connector/kabel! Hoe meer stroom er door één draad kan door slecht contact, hoe heter en gevaarlijker het word. En dat, kan met gescheiden stekkers niet. Er gaat geen 600watt door één aansluiting (PCie 8pin), maar slechts 150watt. Wat met de nieuwe kabel/stekkers dus wél kan! En dat gebeurt dan ook, helaas.

De specs zijn ook nog eens opgerekt, waardoor het allemaal nog kritieker word. Kan zoiets ook met één aansluitng/stekker? Natuurlijk, maar dat moet dan wel aan de PSU en GPU kant ondersteunt worden en dat gebeurt nu dus niet.

[Reactie gewijzigd door Madrox op 10 april 2025 23:06]

Ja, geleuter is wel een redelijke beschrijving. Wat je schrijft is gewoon onjuist. Er is niks wat die 150W per connector bijvoorbeeld beperkt. Bedenk alleen aan de daisy chain kabels. Meeste voedingen hebben het ook gewoon allemaal op één grote 12V rails het zitten. Dus er is echt nul problemen met de 12v rail ook bij de gpu samen te voegen.
Ga je nu beweren dat de pci 8pin net zo gevaarlijk is als de nieuwe?

Weet je, ik laat het hierbij. De praktijk is duidelijk.

[Reactie gewijzigd door Madrox op 10 april 2025 23:45]

Het ligt niet aan de connector,

Het ligt aan het design aan de Video kaart ontwerp en de voeding kant,

Als bijde geen Load balance doen ben je aan de grace of god afhankelijk waar de stroom heen gaat wat voor type connect je er ook tussen zet , zelfs al zou je ze aan elkaar lassen.

Nvidia had NOOIT voor een non load balanced oplossing op de kaart mogen kiezen. Dat is alsof je een magnetron met 3 stekkers maakt die gewoon zijn doorgelust
1) Sinds wanneer zijn deze problemen ontstaan?

2) Hoe komt het dat dit probleem niet zo veel aan het licht kwam in de voorgaande vele GTX en RTX generaties, dat wil zeggen de hoeveelheid kaarten zonder 12vhpwr connectors?

3) Als wat jij stelt klopt, en het dus Niet aan de connector ligt maar puur aan het ontwerp van de Videokaart of de voeding, dan, wat is er dan nu anders dan voorheen, wat nu zoveel smelt problemen geeft?
Zoals hij al aangeeft...de load balancing.
Vroeger in de 2000 en 3000 series waren de 12v rails individuele rails van 1 kabel 6*1 ipv 1*6. Bij meer of minder weerstand is er dus geen 2de kabel waar de currency overheen kan.

Sinds de 4000 en 5000 heeft Nvidia die componenten weg gelaten en 1x 6 trunk gemaakt. Dit om kosten te besparen.
Het ligt deels ook aan de connector. Hoe verklaar je anders dat er soms geen goed contact is?

Dat, of de specs liggen te hoog wat de aansluiting gevoeliger maakt voor overbelasting.

[Reactie gewijzigd door Madrox op 10 april 2025 12:33]

Dat is een bijzaak die nu aan het ligt is gekomen omdat er domweg geen LB meer is.

slechtere contact maakt niet uit als het maar 1 kabel is dan gaat de weerstand omhoog en zorgt voor paar graden extra warmte wat totaal niet belangrijk is.


Doordat er geen LB meer is pakt stroom de weg van de minste weerstand, daardoor gaat er meer door de kabel dan hij op specs bedoeld voor is. Als Nvidia gewoon netjes multirail had gedaan zoals het hoord was er geen enkele issue geweest maar men kiest voor 5euro bezuinigen op een kaart van 1500+ euro

hierdoor krijg je allerlij bijverschijnselen.
LB is er ook met pci-e x8 stekkers niet. Daar zag je het probleem veel minder, verwaarloosbaar.

Ipv load balancing, is er namelijk gescheiden stroomvoorzieningen. De kaart heeft bijv 16 mosfets, 8 worden door de ene stekker/stroomaansluiting verzorgt, de andere door de tweede stekker/stroomaansluiting. volledig gescheiden op de videkaart pcb.

Dit is een effectieve oplossing en niet te duur. LB is niet goedkoper en heeft méér ruimte nodig op de pcb.
Het ligt niet aan de connector, uiteraard. We zeggen dit voor het gemak en omdat het hele euvel bij de stekker "naar boven" komt, aka smelt.

Natuurlijk ligt het aan het design eromheen. 8 losse pinnen en kabeltjes die iig aan de gpu kant, gezellig gebundelt word 600watt de PCB "inblaast" zal ik maar gemakzuchtig zeggen. Aan de PSU kant is ook al niet beter, want die is "dom" en duwt gewoon 600watt door een lullig kabeltje die daar niet op berekend is.

Bij pcie 8pins is de psu ook niet slimmer, maar de specs liggen daar een stuk lager. Er mag maar 150watt over zo'n aansluiting. En dat maakt een groot verschil.

Het gaat dus tweemaal fout. 1) alle amps worden gebundeld en 2) de specs zijn opgerekt waardoor er meer amps per draad mogen wat de risico's vergroot.

[Reactie gewijzigd door Madrox op 10 april 2025 23:13]

Nvidia is degene die het referentie design levert (en trouwens ook degene die gebruik van die connector afdwingt). Het is hún ontwerp dat direct na de connector alles gewoon weer samenvoegt zodat het onmogelijk is om te bepalen of bepaalde pinnen geen of te veel stroom leveren. Alleen duurdere kaarten, zoals deze van Asus dus, hebben afwijkende designs. Dus nee Nvidia is hier verre van onschuldig in.
dit was mijn eerste gedacht ook. schandalig is dit voor zo een bedrijf.
"It's not a bug, it's a feature...."
volgens spec.
Ongelofelijk dat dit soort zaken nodig zijn omdat nVidia PCI SIG zijn zaken niet op orde heeft (of krijgt) met die connector.
weet niet wat PCI SIG hier mee te maken heeft die bepalen alleen kabels en connector en spec van de kabel en connectors,

Het is Nvidia die besloten heeft de Loadbalance er tussen uit te slopen en de kabels aan elkaar te lassen.
weet niet wat PCI SIG hier mee te maken heeft die bepalen alleen kabels en connector en spec van de kabel en connectors

Het is Nvidia die besloten heeft de Loadbalance er tussen uit te slopen en de kabels aan elkaar te lassen.
????

het is hier Asus die besloten heeft om te zorgen dat ze de kabels kunnen monitoren.

iets r uit slopen kan alleen als dat r al in zat.....
...je bedoelt dat Asus een nvidia (gpu en pcb ontwerp) gebruikt .....

[Reactie gewijzigd door ioor op 10 april 2025 07:44]

& Dat Nvidia gewoon de PCI SIG spec aanhoud voor de gebruikte connector op hun pcb ontwerp

Tis niet Nvidia die deze connector bedacht heeft.....
Nvidia is wel de gene die kiest om hem op t PCB te plakken ipv de standaard 8 pins, (die ze 4x uit zoude moeten voeren voor 600w in spec)
Asus heeft dat toegevoegd omdat Nvidia het er uit heeft gehaald in het reg ontwerp, dus board partner Asus zag de bui al hangen en hebben tegen maatregelen genomen.

Ze kunnen niet zelf even de hele power cirquite opnieuwe designen.
Asus heeft dat toegevoegd omdat Nvidia het er uit heeft gehaald in het reg ontwerp,
Ze kunnen niet zelf even de hele power cirquite opnieuwe designen.
welke vd 2 is t nou? en dat is toch op de KAART en niet de CONNECTOR?
(aka reactie waar ik op reageerde...)
iets r uit slopen kan alleen als dat r al in zat.....
Deze zaten erin tot aan de 30** series, in de 40** en 50** hebben ze het eruit gehaald.
Zaten dus nooit in de 50 series. en daarmee zijn ze r dus niet uitgesloopt, maar gewoon slecht ontworpen? ;)
Lijkt me mooie toevoeging. Zou eigen standaard moeten zijn voor degelijke connectors, met 600W wil je geen risico nemen!
als ze nou beginnen met een degelijke connector
Vooral dit.

Ik werk al vele jaren met vergelijkbare Molex (het merk) en JST connectoren, met vergelijkbare vermogens en vergelijkbare condities (qua warmte ed).

De problemen die ik hier zie kan ik echt totaal niet bij.
Ten eerste niet voor technische redenen, dergelijke connectoren moeten dit makkelijk aan kunnen. (ook qua brandveiligheid)

Ten tweede niet hoe in hemelsnaam dit soort bedrijven hiermee weg kunnen komen.
Smeltende connectoren en zelfs open vuur is een absolute no-no.

Als een van de bedrijven waarvoor ik werk/gewerkt heb, dit zou doen, dan hebben die een SERIEUS groot probleem.
Jup omdat dit alleen voor 'huis tuin en keuken' gebruik is, boeit het niemand wat. Kom je met deze troep aan in industriële of zorg omgevingen, kan je meteen je toko opdoeken.
Klopt, Nvidia ziet 'de huis tuin en keuken gebruiker' tegenwoordig als 'de afgedankte melkkoe' die ze, met flinke tegenzin (want; daardoor minder AI geld!), nog producten moeten blijven leveren enkel omdat aandeelhouders/onzekerheid/contracten/e.d. dat nog vereisen...

Niet alleen de manier waarop ze de 12V-2x6-stroomconnector (600W pompen en dan NUL balancing/monitoring/beveiliging?) toepassen maar ook de missende ROPS, blijvend brakke drivers (het tegenovergestelde van waar ze om bekend staan), introductie van MFG (5070 = 4090 prestaties! :+ ), en 'druppel leveringen' zijn allemaal bewijs van het bovenstaande.

Slik onze troep afgedankte melkkoeien!
Met vriendelijke groet,
Nvidia
Ze kunnen daardoor op tijd ingrijpen
Tenzij je een rendertaak aanzet en gaat slapen. Of je GPU lekker laat stampen op wat AI werk. Of iets anders doet met je 3500 euro kostende GPU waar je niet constant achter de knoppen zit.

Maar verder prima toevoeging natuurlijk. Beter nog zou zijn denk ik als ze de het standaard gedrag maken dat je PC uitgaat als er een potentieel fataal probleem wordt gedetecteerd i.p.v. te wachten tot (of) een gebruiker ingrijpt.
Misschien, maar dan ook heel misschien is het een idee om gewoon een deugdelijke stekker te leveren. Bizar dat dit door een test komt en geleverd mag worden.
Snap niet waarom we perse naar die nieuwe connector moeten. 3x een 8 pin is in mijn mening nooit een probleem geweest tenzij het een kleine compacte pc moet zijn. Daarbij een degelijke psu wat ook 3 aparte 8 pin heeft zonder pigtails en het werkt prima. Zou dan zelf liever zoiets willen dat het via het moederbord gaat en dan geen gpu power cable meer direct op de gpu.
Precies dat, mee eens. Mogen fabrikanten vrij kiezen welke connector ze voor de 50XX gebruikenb? Of Moeten fabriekanten zoals Asus vanaf de 50XX generatie van Nvidia verplicht overschakelen naar de onbetrouwbare problematische 12vhpwr?
Het gaat ook om het referentieontwerp. De GPU-bakker zegt (heul heul versimpeld): "Als je dit doet en zo gebruikt dan hoef je geen problemen te verwachten".

De kaartenbakkers volgen dat over het algemeen op, als er dan iets gebeurt dan zijn zij niet (of verminderd) aansprakelijk omdat de GPU-bakker een ontwerp heeft neergelegd die de wereld kan volgen.

Er speelt natuurlijk wel meer dus vergeef mij als ik het onderbelicht. :)
kan me de video van Actually Hardcore Overclocking herinneren, waarin hij duidelijk uitlegt dat zelfs Asus met z`n extra shuntresistor en loadbalancing grotendeels compleet nutteloos is

Actually Hardcore Overclocking:
YouTube: How Nvidia made the 12VHPWR connector even worse.
Precies. Het lost geen fundamentele issues op.
Vind het wel een heel erge clickbait headline, alsof er echt problemen zijn met kaarten uit die ROG serie, maar blijkt puur om controle te gaan obv sensoren die op de kaart aanwezig zijn.
Voor mijn geen nvidia 😆

Op dit item kan niet meer gereageerd worden.