Moddiy raadt gebruikers aan kabel te upgraden na gesmolten RTX 5090 FE-connector

Moddiy, een fabrikant van thirdpartykabels voor voedingen, raadt RTX 50-gebruikers aan om een nieuwe 12V-2x6-kabel te kopen. Onlangs smolt de stroomaansluiting op een RTX 5090-videokaart, waarbij gebruik werd gemaakt van een kabel van Moddiy.

Moddiy heeft de aanbeveling toegevoegd aan zijn klantenservicewebsite, zo merkte VideoCardz op. Het bedrijf levert naar eigen zeggen sinds dit jaar een betere 12V-2x6-kabel, die 'specifiek zijn ontworpen voor de recent uitgebrachte RTX 50-serie'. De nieuwe kabel beschikt volgens de fabrikant over verbeterde materialen voor de connectorbehuizingen en dikkere draden.

Gesmolten RTX 5090-connector via Reddit
Gesmolten RTX 5090-connector.
Bron: Reddit

Het bericht van Moddiy volgt kort op een Reddit-bericht, waarin een gebruiker aantoonde dat de stroomconnector op zijn RTX 5090 FE was gesmolten bij een van de pinnen. De gebruiker in kwestie gebruikte een kabel van Moddiy, die eerder was gebruikt voor een RTX 4090. De RTX 40-serie gebruikte nog een 12Vhpwr-aansluiting voor de stroomvoorziening, die onderdeel is van de ATX 3.0-standaard voor voedingen en ook voor problemen zorgde. Bij de RTX 50-serie is die daarom vervangen door een soortgelijke 12V-2x6-poort, als onderdeel van ATX 3.1.

"We raden alle gebruikers aan om te upgraden naar de nieuwe 12V-2X6-kabels om optimaal te profiteren van de verbeterde veiligheids- en prestatiekenmerken die deze nieuwe standaard biedt", schrijft Moddiy nu op zijn website. Verschillende voedingsfabrikanten, waaronder Corsair en Seasonic, zeggen echter dat er in principe geen verschil is tussen 12Vhpwr- en 12V-2x6-kabels. Die laatste standaard heeft aangepaste pinnen die voor een betere veiligheid moeten zorgen. Die wijzigingen zitten echter enkel aan de kant van de videokaart en voeding en dus niet in de kabel zelf. Moddiy zegt zijn nieuwe kabel wel verbeterd te hebben, maar dat heeft dus niets te maken met de nieuwe 12V-2x6-standaard zelf.

Oorzaak nog niet bekend

Het is niet duidelijk waarom de 12V-2x6-aansluitingen van sommige RTX 5090-gebruikers 'smelten'. Eerder deze week publiceerde bekende overklokker der8auer een video, waarin hij meldde dat de stroomvoorziening mogelijk ongelijkmatig over de verschillende draden van de 12V-2x6-kabel wordt verdeeld. Bij een test vervoerde minstens één van de draden 22 ampère, terwijl sommige andere draden slechts 2A vervoerden. Daarbij bereikte de aansluiting na enkele minuten een temperatuur van maximaal 150 graden Celsius.

Verschillende reviewers hebben de test nagebootst, maar konden het voorval van der8auer niet altijd reproduceren. Falcon Northwest claimt 'veel RTX 5090 FE's' getest te hebben met meerdere voedingen en kabeltypes, maar dat de stroomvoorziening netjes over alle draden van de kabels is verdeeld. Andreas Schilling van HardwareLuxx zag op een RTX 5090 FE met een ATX 3.0-voeding kleine verschillen tussen de verschillende draden, maar dat verdween toen hij de kabel opnieuw inplugde.

Youtuber en overklokker Buildzoid speculeerde onlangs dat Nvidia de stroomverdeling heeft versimpeld in de nieuwe RTX 50-serie, wat mogelijk voor overbelasting van afzonderlijke draden kan zorgen. Nvidia zelf heeft nog niet gereageerd op de kwestie. Het bedrijf zei eerder wel onderzoek te doen naar 'gemelde problemen van de RTX 50-serie', maar dat ging voornamelijk over gebruikers die een zwart scherm te zien krijgen.

Moddiy 12V-2x6-melding
Bron: Moddiy

Door Daan van Monsjou

Nieuwsredacteur

12-02-2025 • 20:33

109

Lees meer

Reacties (109)

109
108
46
3
0
50
Wijzig sortering
Ik ben voor een 7900XT gegaan ~1,5 jaar geleden juist door het gedonder met deze kabels en in de 50xx serie is het dus nog steeds niet voorbij. :X
Zolang je geen 90 versie koopt zal je nergens last van hebben is de enigste kaart die zo close op de kabel limieten zit.
Problemen zullen zich minder snel voordoen, maar het probleem komt voort uit het pcb ontwerp.
De oudere 90 series kaarten hebben in dit opzicht een beter ontwerp omdat deze actief het vermogen over de bedrading kunnen spreiden en fouten in de bekabeling kunnen "voelen".

Dit maakt een 3090 veiliger dan een 4090/5090 zoals uitgelegd in deze video: YouTube: How Nvidia made the 12VHPWR connector even worse.

De 12VHPWR kabel gebruikt meestal 16AWG of 1,5mm² draden. Bij het wegvallen van meerdere draden zal een 3090 uitvallen. Een 4090/5090 is in staat vrolijk 400W over één draadje te trekken!

Dat is dus 400W / 12Vdc = 33,3 A over 1,5mm²... natuurlijk gaan dingen dan smelten. Omgerekend naar AC is dat 33,3A * 230Vac = 7659W... Alsof je 3 forse frituurpannen tegelijk aan een stekkerblok hangt.

Mijn punt is dat je prima een 3090 kunt kopen omdat deze een veiliger ontwerp hebben en daardoor niet goed te vergelijken zijn met andere 90 series kaarten.
...De 12VHPWR kabel gebruikt meestal 16AWG of 1,5mm² draden. Bij het wegvallen van meerdere draden zal een 3090 uitvallen. Een 4090/5090 is in staat vrolijk 400W over één draadje te trekken!

Dat is dus 400W / 12Vdc = 33,3 A over 1,5mm²... natuurlijk gaan dingen dan smelten. Omgerekend naar AC is dat 33,3A * 230Vac = 7659W... Alsof je 3 forse frituurpannen tegelijk aan een stekkerblok hangt.
Klopt, met de nuance/aanvulling dat 33A DC nog veel uitdagender is dan 33A AC, en dat als dit soort stromen door een kleine connector lopen, je al heel snel een sneeuwbaleffect krijgt qua overgangsweerstand/dissipatie. Met in het meest extreme geval brandgevaar tot gevolg.

Wat ook niet helpt is de trend dat we van koperen kernen naar goedkopere legeringen trenden vanwege de hoge koperprijzen, met als gevolg verder oplopende temperaturen en minder marge.

Het verbruik van high end videokaarten is m.i. ook te ridicuul voor woorden en ik zou nooit een videokaart willen die een halve kilowatt verbruikt. Maar als je het dan toch aanbiedt, neem dan in ieder geval een stroommeting per powerline mee in je ontwerp, dan hoeft niet eens met shunts maar kan gewoon in je PCB ontwerp meegenomen worden. Als de spanningsval over 1 van de voedingslijnen 2x de nominaal verwachte waarde is, een waarschuwing geven en videokaart uitschakelen of in "noodloop" schakelen. Raar dat fabrikanten van 4xxx en 5xxx kaarten dat blijkbaar niet standaard doen.

Dit is vragen om problemen. Misschien niet bij nieuwe kaarten & kabels, maar contacten degraderen altijd iets over tijd en ze kunnen vervuild raken met een hogere overgangsweerstand tot gevolg. Ik zie het gewoon als ontwerpfout als je zulke extreme vermogens door zulke compacte kabels/stekkers drukt met zo'n gevoeligheid voor milliohms aan overgangsweerstand, en dit niet elektronisch beveiligt.

Even opgezocht: Een RTX5090 heeft 92 miljard transistoren (!!! GPU only) en verbruikt onder volle belasting richting 600 Watt (!!!). Dus dat is 6 nanowatt per transistor. Een Voodoo 3DFX chip had 1 miljoen transistoren en zou met de hedendaagse chiptechnologie dus 0.006 Watt verbruiken. Een zinloze vergelijking wellicht, maar om het even in perspectief te zetten: De mensheid kiest voor brute force in plaats van efficiency, met continue toenemend absoluut verbruik terwijl semicon technologievoortgang ons in staat stelt hetzelfde te doen als rond de eeuwwisseling voor een honderdduizendste van het verbruik.

[Reactie gewijzigd door Timewa op 13 februari 2025 00:24]

De frequentie van de transistoren zit ook wel even wat verschil in. En dingen zoals anti aliasing was vroeger een luxe en dipte je frames enorm. Nu minimaal
Vroeger hadden games vaak forward lighting, niet deferred. Met MSAA 4-8x was dat echt niet zo zwaar, video kaarten waren daarvoor hardware matig voor geoptimaliseerd. Kijk maar naar Half-Life 2 engine bijvoorbeeld, helemaal geen luxe.
Tegenwoordig met TAA, DLAA,… is dat veel zwaarder (en helaas slechtere kwaliteit). Games tegenwoordig zijn juist meer blurry dan ooit.
Niet alle transistoren zijn tegelijk actief in een moderne chip, net omdat het verbruik anders veel te hoog zou worden. Dus om zomaar te zeggen dat elke transistor maar 6 nanowatt verbruikt klopt niet.

Wikipedia: Dark silicon

Vroeger had men een probleem dat men niet meer transistors op een chip kon zetten vooraleer deze te groot werd en dus te duur om te produceren. Hedendaags heeft men het omgekeerde probleem, Sky is the limit met transistor count, desnoods plakken we wel meerdere chiplets aan elkaar. (7900XTX) Maar deze kunnen niet allemaal tegelijk actief zijn of men krijgt de warmte niet meer afgevoerd. Zelfde probleem met moderne CPU's die maar een paar cores kunnen boosten en dan de spanning/kloksnelheid moeten laten zakken als alle cores tegelijk onder hoge load staan.
Mijn vergelijking was zwaar vereenvoudigd, je kunt het inderdaad niet 1 op 1 zo uitrekenen. Maar het punt was: Elke individuele transistorfunctie is extreem veel zuiniger geworden, miljoen keer in 3 decennia, en toch gaat het absolute verbruik omhoog.

Hetzelfde zien we bij auto's. Voor een EV SUV van 2500kg is helaas een behoorlijke markt, terwijl een uitgeoptimaliseerde lichte compacte auto die de helft verbruikt niet meer te koop is.

De mensheid wil blijkbaar gewoon maximaal haalbare performance/luxe ook al verbruikt dat in absolute zin extreem veel meer dan wat er theoretisch mogelijk zou zijn aan verbruiksoptimalisatie.

Geen waardeoordeel maar een constatering.
Je geeft aan dat het probleem bij het pcb ontwerp ligt, maar dat is dus pure giswerk, niemand weet waarom precies die connector bij die ene persoon doorgefikt is. De artikelen referen telkens naar dezelfde persoon, en de kaart die de youtuber testte WAS de kaart van die ene persoon.
Eigenlijk is dit wel terug te leiden tot een design fout. Omdat je normaal wil dat al die afzonderlijke verbindingen gelijk belast worden. Door alle verbindingen gewoon aan elkaar te hangen kunnen die nieuwe kaarten dat dus niet meer regelen/garanderen. Je hebt nooit exact evenveel weerstand over elke verbinding en bij hogere vermogens gaat dit een te meer naar boven komen. De oplossing is de load over die lijnen te gaan balancen maar dat kan op die kaarten dus niet.
De third party boards kunnen wel detecteren als er een probleem is, maar gaan dit dus ook niet zelf weg regelen.
De founders edition kan dit zelfs niet detecteren en daar smelt de boel dus.
Maar zoals je in het artikel kunt lezen, kunnen anderen dit probleem niet fatsoenlijk nabootsen. Zoals ik al aangaf, de kaart waarbij de infraroodcamera gebruikt was en dus die 150 graden toonde, was de kaart van de persoon die als eerste meldde dat zijn connector was doorgefikt, hij had zijn kaart uitgeleend aan die youtuber.
Het probleem is nu dus pas eigenlijk bij 1 persoon daadwerkelijk zo geconstateerd, waarbij de fabrikant van de kabel/connector inmiddels aangaf dat je niet de oude kabels van hun, die nog wel geschikt zijn voor de 4090, moet gebruiken, maar de nieuwere kabels, die ook al langer op de markt zijn.
Der8auer gebruikte zijn eigen FE kaart in de test; niet van kaart de persoon die als eerste meldde dat zijn connector was doorgebrand.
Hmm, dat was dan niet helemaal duidelijk. Wel is het zo dat hij Furmax gebruikte om de maximale stroom uit de kaart te krijgen EN dat het een customkaart was met zijn eigen custom waterkoeler. Dus de test was al niet helemaal gedaan met een standaard FE versie met standaard settings. De andere persoon was ook een enthousiast en had waarschijnlijk ook zijn kaart niet met standaard settings draaien.
Dat niet iedereen zijn 5090 op wil offeren om dit probleem na te bootsen betekend niet dat het niet bestaat. Als het PCB simpelweg alle lijnen combineert (wat aannemelijk is aangezien de kaart blijft werken als er een lijn wegvalt waar de 3090 dat niet doet), dan kan het nooit constateren dat een van de lijnen niet werkt, wanneer een van de lijnen niet werkt, gaat al het vermogen dus over de andere lijnen en worden die overbelast. Zelfs al bootsen mensen het niet na, als is geconstateerd dat het mogelijk zou kunnen zijn, dan is het een probleem. Dat het nu werkt, met gloednieuwe kabels en perfecte omstandigheden, betekend niet dat het over 5 jaar niet ineens fout kan gaan omdat een connector niet goed zit of er corosie is ontstaan. De kaart zou dan gewoon moeten stoppen met werken en niet 400W over een miezerig draadje moeten kunnen trekken.
Jij krijgt flink betaald door nvidia of niet?
Er staat "maar konden het voorval van der8auer niet altijd reproduceren"
niet altijd, dus wel, maar niet constant, ofwel het is gewoon niet goed. wederom heeft nvidia niet geleerd van het vorig debacle. 575W over een 600W kabel jassen is natuurlijk vragen om problemen, de draden in je muur in je huis zijn niet voor niets over gedimensioneerd, en dan niet met 25W
Volgens mij heb je het Youtube filmpje dat @donotwant linkte nieteens aangeklikt. Buildzoid doet 7 dagen in de week 52 weken per jaar niks anders dan PCB's analyseren (en geheugen overklokken). Daar is geen enkele sprake van 'giswerk' meer, gewoon keiharde analyse hoe het bestaat dat het kan voorkomen dat er over 1 draad 33A getrokken wordt.

[Reactie gewijzigd door Boxman op 13 februari 2025 00:47]

Het is echt een grove schande dat dit de staat van de huidige top gpu lijn is. Je betaald een vermogen maar dan krijg je ook een levensgevaarlijke gpu…
Ik denk dat er veel meer goedkope PCs uitfikken vanwege crap voedingen en plastic bouw waardoor hitte niet weg kan.
Zo'n top end GPU is gewoon een gigantisch dure chip. De concurrentie tussen de kaartenbakkers is dan beperkt tot de vraag wie er het goedkoopst een werkende videokaart omheen kan bouwen. Oftewel: je betaalt voor performance, niet voor kwaliteit.

[Reactie gewijzigd door bzzzt op 13 februari 2025 08:36]

Die kabels zijn meestal gemaakt tot een temp van 80C. Bij Derbauer werden de kabels al +150C na paar minuten benchmarken, met zijn 5090FE terwijl hij een goede voeding, OEM kabels gebruikt en correct ingeplugd waren. Dat stroomkabels echt warm worden (meer dan paar graden boven kamertemperatuur) is nooit goed in mijn beleving.
Het is allemaal voor de DIY markt dus het moet wel bepaald marge zijn dat het veilig en correct werkt. Er is zit geen controle op de GPU en blijkbaar ook op de voedingen geen controle of beperking.
33.3A op 12V DC is maar 1.74 A op 230V (400W / 230V).
Het amperage bepaalt de dikte van de kabel de hoeveelheid voltage is daarin verwaarloosbaar.

Daarom is 33,3A over stopcontact vrijwel gelijk aan 33,3A over 12V DC met betrekking tot de dikte van het draad. Er zitten wel wat nuances aan maar je kan het wel zo ongeveer stellen.
Nee, stroom dat door de stopcontact vlooit is malen kleiner dan achter de voeding. Je bedoelt hoeveelheid energie is gelijk.
correct me if im wrong maar wat hij probeert ze zeggen is dat de de dikte van de kabel bij zowel 12VDC en 230VAC gelijk is als je er 33,3A doorheen probeerd te jagen.
Dat is zijn punt niet. Het is te vergelijken met al je grote stroomverbruikers in 1 stopcontact en gewoon de zekering in de groepenkast 100A maken en verwachten dat er niets mis gaat.
En toch zijn er genoeg oudere 1-fase woningen die en warmtepomp of kookplaat op 32A aansluiten oftewel 7.4 kW. Maar goed je moet dan wel kijken naar 4mm² of 6mm² solide kabels.
Haha, geef jij daar ook garantie voor of moeten we in hoop leven?
Ach. Ik heb al sinds launch een 4080 super, gewoon met de bijgeleverde kabel aangesloten. Meerdere keren eruit gehaald en er in gezet...no problemo. Gewoon zorgen dat de connector er goed en stevig in zit en je hebt geen problemen...

Ondertussen game ik lekker lang op mijn 4080s , elke dag weer een genot.
Een 4080 gebruikt significant minder vermogen dan een 4090 of 5090, dus grote kans dat je gewoon niks merkt.
Of het probleem komt lang niet zo vaak voor als je denkt...
Precies dat, hier een 4090 die al 2 jaar lang 300/450 wat vreet voor meerdere uren per dag en geen enkel probleem.
Dit soort opmerkingen is zo leuk, man ik rij al jaren te hard en heb nog nooit een ongeval gehad. Die snelheidslimieten zijn zo idioot.
Uiteindelijk gaat in 99.99% van de gevallen niets gebeuren. Je zal natuurlijk maar de pech hebben dat jij de .01% bent. Persoonlijk ga ik gewoon weer voor een kaart met molex aansluitingen. ziet er minder strak maar dat neem ik er wel bij.
Ik heb ook nog nooit een kapotte auto band gehad. Ik kan dus constateren dat de mensen die dat wel hebben gekke dingen hebben gedaan.
Ik heb nooit gezegd dat die mensen gekke dingen hebben gedaan. Je maakt er nu weer iets raars van. Ik denk alleen dat het aantal gevallen gewoon heel erg laag ligt en het gros van de 4090 / 5090 bezitters helemaal geen issues ervaren.
Idem, geen spijt van
Ligt het aan mij of is er wel erg veel gedoe rondom deze specifieke soort kabels? Ik kan mij herinneren dat het tijdens nvidia 40x0 tijdperk ook veel issues mee waren?
Met de grote vraag hoeveel gedoe er is op het internet, en hoeveel gedoe in het echt.

Nu heeft Tweakers het ook in meervoud over smeltende connectoren, maar ik heb alleen nog dat ene voorbeeld zien langs komen. En natuurlijk, er zijn nog weinig kaarten verkocht uberhaupt, maar alsnog ben ik benieuwd hoeveel Tweakers dan heeft zien langs komen.

En ik ga ook echt niet ontkennen dat er issues zijn geweest met de eerste batches van die dingen. Maar tegelijk, ik heb eigenlijk nog nooit op GoT een gesmolten 12VHPWR connector gezien. En nu zie ik natuurlijk niet elke topic wat gemaakt wordt, maar de 40XX kaarten zijn ook gewoon heel populair geweest, en als die dingen allemaal aan het smelten waren, had ik meer topics verwacht.

Edit: We hebben nu al 2 frontpage artikelen gehad over één gesmolten connector, en nog een derde artikel die naar gesmolten connectoren verwees (wat niks met 50XX kaarten te maken bleek te hebben). En ja, misschien zit er een ontwerp fout op die kaarten waardoor er veel stroom gaat door een paar pinnen. Maar als we dit hadden elke keer dat een connector bij iemand op Reddit smolt, dan was de FP goed gevuld.

[Reactie gewijzigd door Sissors op 12 februari 2025 21:25]

Zou je met jouw theorie dan niet meer/evenveel verhalen over het smelten van de oude vertrouwde 8-pin PCI-Express connector moeten vinden?

Het idee was leuk, maar het is gewoon een ontwerpfout. Ik kijk uit naar de tijd waarin Nvidia terug gaat naar de 3-4x 8-pin PCI-Express connector. Tot die tijd koop ik AMD videokaarten.
Ik heb liever dat ze iets doen aan de power draw van die kaarten. De RTX 5090 FE is volgens de Pricewatch geraamd op 575 watt. Dat is wat mij betreft echt gestoord veel. De 4090 die qua prestaties niet veel onderdoet, zit daar met zijn 450 watt ruim 120 watt onder. Een 5080 FE die nog geen 7% onder de prestaties van de 5090 zit, heeft een max TDP van 360 watt. En zo kan ik nog wel even doorgaan.

De TDP van een videokaart (en ook die van een CPU) is bij mij wel degelijk een factor wanneer ik weer eens een nieuw systeem samenstel, en een videokaart die ruim een halve kilowatt uit de muur durft te eisen komt er simpelweg niet in.
Ja een 5090 trekt veel stroom... Nee, hij trekt relatief niet meer stroom voor hoeveel performance hij biedt. Je hebt nu een of andere vage test gevonden die zegt dat ze dicht bij elkaar liggen maar bij reallife gaming tests (die niet door iets anders gebottlenecked zijn) is de 5090 echt wel veel sneller dan de 5080, eerder zo'n 50% meer (of 33% minder voor de 5080 afhankelijk van welke kant je op rekent). Dus de performance/watt ontloopt zich dan ook niet veel.

En dat is dus ook het issue wat ik heb met al dat gezeur over dat de kaarten te veel stroom verbruiken... Ja, vind ik ook, maar koop ze dan niet? Het eigenlijke probleem is dat de efficiëntie en de performance niet meer echt hard omhoog gaan, maar dat komt doordat we zo langzaamaan tegen de limieten aanlopen van wat nog mogelijk is. Er is geen schaalverkleining geweest dit keer want dat lukt nog niet. Dat is waar voorheen de meeste winst uit kwam en dat zat er nu dus niet in. Ze proberen het nu met AI om dan nog maar ergens flinke performance winst te kunnen halen, maar als je dat niks vindt en niet meetelt dan blijft er inderdaad niet veel over. Maar het is niet zo dat 'als ze maar zouden willen' dat ze wel even die 5090 veel zuiniger konden maken met dezelfde performance. Dit is nou eenmaal wat nodig is om deze performance nu te kunnen halen (hoewel ik denk dat als je een béétje performance bereid bent op te geven je waarschijnlijk wel nog aardig wat kunt besparen op het verbruik door hem zelf wat te ondervolten of gewoon powerbudget wat te beperken).
Ik denk dat in bepaalde omstandigheden de RTX 5090 nog wel eens bruut sneller is dan de RTX 4090, dat heeft mijn inziens de kaart voor een groot deel te danken aan zijn geheugen bandbreedte.

zWORMz gaf aan dat bijvoorbeeld GTA V in 16K Low op de RTX 4090 zo'n 20 fps haalde op de plek waar de RTX 5090 gewoon in de 90s zat, dat kan ik aardig beamen gezien ik hier 16K getest heb in de benchmark en het zat vrijwel tussen de 72-130fps. Op maximale instellingen zonder MSAA haalt hij toch nog 22-32fps ongeveer maar valt wel buiten zijn VRAM budget.

YouTube: The RTX 5090 in GTA V - Now Playable at 16K !!!
Haha kan me precies niets schelen wat een component aan stroom vraagt, ik wil maximale fps!
Tja in het top segment gaat het uiteindelijk puur om de prestaties, daar wordt niet gekeken naar verbruik.
Als ze hun kaart 10% sneller kunnen maken door er dubbel zoveel stroom door te sturen dan doen ze dat.

Zelf heb je natuurlijk altijd nog wel de mogelijkheid om de kaart te undervolten, vaak kun je dan met een paar procent prestatieverlies de kaart zo naar de helft van zijn normale verbruik schalen.

Overigens vind ik zelf 575 watt ook onacceptabel, maar ik koop dan ook al jaren geen top modellen meer, te duur met te weinig prestatieverschil.
Hoe bedoel je dit? Mijn theorie is dat er niet zoveel 12VHPWR connectoren smelten. Dat staat toch helemaal los van 8-pin connectoren die al dan niet smelten?

Overigens die vertrouwde 8-pins dingen kunnen ook smelten. Ik heb er zelf eentje gehad die gesmolten was (aan de PSU kant), maar snelle Google:
https://www.reddit.com/r/...ms_to_have_melted_in_the/
https://www.reddit.com/r/..._cable_to_melt_like_this/
https://www.reddit.com/r/...gpu_is_there_an_easy_way/
https://www.reddit.com/r/..._cable_to_melt_in_my_gpu/

Zo kan ik nog een tijdje doorgaan. En ook dit zegt heel weinig! Immers er zijn verschrikkelijk veel kaarten met zo'n connector, en het zal weleens fout gaan. Maar ook die kunnen dus smelten. De eerste batches van de 12VHPWR connector hadden gewoon slecht geproduceerde connectoren. Dat lijkt nu opgelost te zijn. Of er specifiek problemen gaan zijn met de 12VHPWR connectoren bij de 50XX serie moeten we gaan zien. Maar als het een ontwerp / productie fout is waardoor er een door slechts een paar pinnen alle stroom getrokken wordt, ipv netjes verdeeld, dan is dat een probleem wat natuurlijk helemaal los staat van de connector. Als je 4 8-pins connectoren in een 5090 had gestopt, en je gooit al het vermogen door een paar pinnen, dan zullen die ook problemen krijgen.
De kans dat een 8-pins smelt is significant lager omdat er gewoon fysiek veel meer marge is. Dat is gewoon natuurkunde. Nu heb ik het niet zelf onderzocht, maar er zijn op de wereld heel veel meer 8-pin kabels dan er 12-pin kabels zijn. De kans dat je een paar 8-pin kabels vind die gesmolten zijn is dus zeker aanwezig (want 98% van de gebruikers heeft 6 of 8 pins); en toch is het aantal relatief laag als je het vergelijkt met de 12-pin gevallen.

Die 12-pin kabel is gewoon een goedkoop ontwerp met een veel kleinere marge, waardoor user error of een productie fout veel eerder voor problemen gaat zorgen.

[Reactie gewijzigd door Sp3ci3s8472 op 13 februari 2025 02:45]

Maar hier lijkt het dus eigenlijk op een fout van de 3rd party verloop kabel, waarbij 1 draad andere eigenschappen lijkt te hebben en daar alle stroom door gaat.
Wat is dan voor draad, een met supergeleiding?
Draden zijn altijd allemaal hetzelfde, gewoon koper met een vastgestelde dikte.

De enige manier waarop dat kan is als de videokaart slecht is ontworpen, of als alle andere draden een hoge overgangsweerstand hebben. En dat kan bijvoorbeeld weer als de connector niet netjes past, omdat een leverancier een kloon of inferieure stekker heeft gebruikt.
Misschien geen koper, maar een vage legering of verkeerde dikte draad? Brakke soldeer connectie..

[Reactie gewijzigd door burgt op 12 februari 2025 22:57]

Daar heb je ook wel een punt. Volgens mij was het nog helemaal bij introductie (ik heb het niet meer zo scherp, maar volgens mij was er ook nog eens discussie over adaptoren vs "native" psu kabels). Maar later hoorde ik inderdaad niet heel veel meer over.
Met de grote vraag hoeveel gedoe er is op het internet, en hoeveel gedoe in het echt.
Heel goede opmerking. Problemen kunnen helaas altijd voor komen. Ik heb ook al uitgebrande contacten van autoladers gezien. Niemand die roept dat dat foute connectoren zijn. Al zitten ze met deze 12V-2x6 toch wel op het randje van wat maximaal kan, waardoor er minder marge is.

[Reactie gewijzigd door D-Three op 12 februari 2025 22:51]

AuteurAverageNL Nieuwsredacteur @Neonit12 februari 2025 20:43
Klopt! Iets soortgelijks speelde ook al met de vorige 12Vhpwr-aansluiting. Ik zal het onderstaande linkje met wat meer context toevoegen aan het artikel :)

review: 12Vhpwr: gaat de gpu-connector van de toekomst in rook op?
Tja, hoe meer stroom je door zo'n kabel gaat jagen, hoe beter die moet zijn. Wat misschien dus nog goed genoeg is voor 500-550 watt, kan best zijn dat het nuet goed genoeg is voor 600-700 watt. Sommige fabrikanten besparen nogal eens, of hebben een maandag ochtend batch, waardoor die kabels/connectors niet overweg kunnen met die maximum.
"We raden alle gebruikers aan om te upgraden naar de nieuwe 12V-2X6-kabels om optimaal te profiteren van de verbeterde veiligheids- en prestatiekenmerken die deze nieuwe standaard biedt"
Dat is een verontrustende verklaring. Ze raden aan je bestaande kabel te vervangen omdat de nieuwe veiliger is en betere prestaties levert.

Maar de specificaties van die oude kabel zijn precies dezelfde als van die nieuwe, namelijk:
- veiligheid: niet smelten, in brand vliegen of elektrische problemen veroorzaken.
- prestatie: er kan 600 Watt doorheen, en je videokaart werkt dan nog steeds naar behoren.

Dit klinkt alsof ze zeggen "we vertrouwen onze oude kabels niet als je ze tegen hun maximale capaciteit gebruikt, koop maar een nieuwe". Dat betekent dat die oude kabel een ondeugdelijk product is. Dan is een advies een nieuwe te kopen niet voldoende, dan is het tijd voor een terugroepactie.
bijde specificaties laten 684 watt door btw,

Vraag die ik blijf hebben over de 22A claims is zijn dat spikes of sustained, want spikes mag binnen de specs , sustained niet, maar dan is er echt wel iets mis want de max spec is 9.5 A een paar A meer dan de kaart mag trekken binnen de 570 watt.
Dat zijn geen pieken, is gewoon met een current clamp gedaan, je ziet de kabel ook warm worden.
Hahaha en ze laten mensen betalen voor een nieuwe. :+
Toch was ik in de veronderstelling dat de algemene consensus was dat je je eigen voedingskabels gebruikt en niet die van een derde partij.
Moddiy, een fabrikant van thirdpartykabels voor voedingen, raadt RTX 50-gebruikers aan om een nieuwe 12V-2x6-kabel te kopen.
Te kopen? Is het geen tijd voor een terugroepactie?
waarom het is oude spec vs newe generatie met nieuwe spec,

men raad alleen af om de oude spec kabel met nieuwe kaart te gebruiken omdat de powerdraw nog dichter bij de max zit. blijkbaar hebben hun nieuwe spec kabels een hogere veiligheids marge.
Volgens mij gaan hier een aantal dingen mis (er is bijna altijd een combinatie van factoren nodig om iets fataal te laten aflopen)
  • Kabels met fouten waardoor de weerstand er voor zorgt dat alles over de remaining pins gaat.
  • Minder failsafe design van nvidia waardoor vanaf de 4X series de PSU de connector in principe als 1 pin ziet.
  • Connector pins die allemaal parallel geschakeld zijn over alle pins ipv over pairs of 2. waardoor als er iets mis is uiteindelijk alle stroom over 1 pin kan gaan (theoretisch).
Zelfde gebeurt ook als je em er verkeerd in stopt (dus geen brakke kabel maar gewoon user error). Maar er zou gewoon een failsafe moeten zijn waardoor dit niet kan gebeuren en de kaart niet opstart. Je kan gewoon brand veroorzaken zo. Dan heb je wel wat meer schade als die 3000 euro voor je grafische kaart.
Heel de 12Vhpwr is toch wel de meest brakke standaard waarvan ik in tientallen jaren al heb gehoord en nu blijkt dat de verbeteringen amper voor meer veiligheid zorgen moet er toch ergens bij een of andere keuringsinstantie een belletje afgaan :?
Als er daadwerkelijk 22 ampère door één enkele stekker loopt, vormt dat een serieus veiligheidsrisico—zeker nu we al gesmolten connectoren zien. Bij zulke hoge stromen ontstaat extreme hitte, wat niet alleen de connector kan laten smelten, maar in het ergste geval zelfs brand kan veroorzaken.

De vraag is: is dit simpelweg een ontwerpfout van Nvidia? Of hebben ze te veel vermogen door een te kleine aansluiting willen duwen zonder voldoende veiligheidsmarge? Hoe dan ook, dit lijkt op een herhaling van eerdere problemen met de 12VHPWR-connector, en dat is zorgwekkend.
Ja of gebruikt men kabels van derde, die daar helemaal niet voor bedoeld en of gemaakt zijn.

Ik ken moddiy niet en heb nog nooit anders dan mijn eigen voedingkabels gebruikt. Ik ben ook enig sinds verbaasd dat men dit doet.
Het is een design fout,, of beter gezegd besparing van Nvidia. Alles gaat nu naar 1 ic op de pcb, waar dat bij de oude nog over drie ic's ging. Hoeveel ampere er over elk draadje gaat is dan beter te sturen. Nu niet meer.
Er zit simpelweg een grove designfout in de huidige 12V power supply van de 4000 en 5000 series van Nvidia.

De load balancing zoals die bij de 8-pin aansluitingen nog aanwezig is, werd bij de introductie van de 40X0 en 50X0 kaarten geschrapt. Het lijkt compleet tegenstrijdig aangezien deze Nvidia kaarten in het hoogste segment vallen waar de winsten op dit moment voor dit bedrijf voor het oprapen liggen.

Hoe hoger het opgenomen vermogen van de GPU kaart, des te eerder zul je tegen de problemen aanlopen indien er onvoldoende marge voor fouten in het systeem is aangebracht. Of veiligheden zoals het niet willen opstarten van een kaart indien de load niet via meerder paden gedetecteerd en verdeeld kan worden.

Het wordt heel goed uitgelegd in deze video:
https://youtu.be/kb5YzMoVQyw?feature=shared
Wat dacht je van een nieuwe 48V standaard zodat je geen 50+ Ampere over die achterlijke 12Vhpwr aansluiting moet trekken. Of misschien toch maar gewoon terug kaarten uitbrengen die max 300W vragen.
Idd eigenlijk te slecht voor woorden als je bedenkt dat het design van je powersupply er eignlijk voor gemaakt is. Al die uitgangen van +12 -12 +5 - 5V, DC zitten allemaal bijeen gesoldeerdt op een vertind eiland
Dus aan een zijde zit dat al bij elkaar.! Als de kaart bouwert nu ineens besluit om dat vanwege wat design issues aan te passen dan weet je op voorhand dat je problemen gaat krijgen.

Probleem is ook niet zoveer de kabel. maar de connector pen(en) zelf!
Vroeger werden die dingen nog al eens verguld. En tegenwoordig zijn ze van goeikope chinese makelij.
Weliswaar vertint, maar als daar corrosie op onstaat heb je lokaal een erg hoge overgangs weerstand.
let wel dit is DC ! Geen AC. Dus van root mean square is geen sprake. Je voeding blijft op aanvraag
( steeds hogere belasting) door hoger worden weerstand gewoon stroom leveren want deze wilt die spanning in stand houden!, gevolg lokale warmte ontwikkeling. tot de stroom begrenzing wordt aangesproken. en dan is het vaak te laat.
Wees blij dat die gebruikte power supply is beveiligd, anders zou menigeen pc wel eens in de hens kunnen gaan

Anders was de draad wel ergens aangetast. en dit fenomeen is voor zover ik weet al eens eerder opgedoken op bepaalde series moederboarden

Op dit item kan niet meer gereageerd worden.