'Gesmolten connectors op RTX 5090 FE komt door ongelijke verdeling stroom'

Der8auer heeft een mogelijke verklaring voor de hitteproblemen met de stroomconnectors op Nvidia's RTX 50-videokaarten. Volgens de youtuber wordt de stroomtoevoer, die kan oplopen tot 575W bij de RTX 5090, niet evenredig verdeeld over de stroomkabel.

Gesmolten RTX 5090-connector via Reddit
Beschadigde RTX 5090-connector.
Bron: ivan6953, via Reddit

Bekende overklokker en youtuber der8auer heeft contact opgenomen met de eigenaar van een kapotte RTX 5090 FE-videokaart, waarvan de 12V-2x6-connector deels was gesmolten. De youtuber heeft de beschadigde kaart, kabel en voeding van de gebruiker in kwestie geleend.

De eigenaar van de videokaart maakte onlangs een Reddit-post waarin hij foto's van de beschadigde kaart had geplaatst. Hij gebruikte een twee jaar oude 12Vhpwr-kabel die hij ook had gebruikt met zijn vorige RTX 4090-videokaart. Tijdens het draaien van Battlefield 5 ging het echter mis. Hij rook een brandlucht en zette de pc uit, waarna bleek dat de stroomconnector op de videokaart was gesmolten. De schade was beperkt tot één enkele pin op de aansluiting en kabel.

De reageerders onder de Reddit-post wijten de schade aan het gebruik van een thirdpartykabel of gebrekkige aansluiting, maar volgens der8auer hoeft dit niet per se het geval te zijn. De youtuber zegt dat hij regelmatig thirdpartykabels van het merk in kwestie gebruikt en dat deze van goede kwaliteit zijn. De Reddit-gebruiker zelf claimt daarnaast dat de kabel goed was aangesloten op zijn videokaart.

Tests tonen ongelijkmatige stroomtoevoer op de RTX 5090

Der8auer voert in zijn video zelf een test uit met zijn eigen RTX 5090 FE-kaart, een Corsair AX1600i-voeding en een nieuwe 12Vhpwr-kabel van Corsair. Daarbij moet wel vermeld worden dat er geen enkel verschil is tussen de oude 12Vhpwr-kabels van de RTX 40-serie en de nieuwere 12V-2x6-kabels die gebruikt worden op de RTX 50-videokaarten. De ontwerpwijzigingen zitten enkel in de aansluiting op de videokaart zelf.

De youtuber draaide Furmark op het testsysteem, waarmee het stroomgebruik van de videokaart werd vastgezet op een constante 575W. Vervolgens gebruikte hij een hittecamera om de temperatuur van de stroomkabel en de 12V-2x6-aansluiting in de gaten te houden. Bij de connectors van de gpu steeg de temperatuur naar meer dan 120 graden Celsius. De rest van de kabels lieten geen temperatuurstijging zien. Na vier minuten zag de youtuber zelfs een temperatuur van 150 graden Celsius.

Der8auer concludeert onder andere dat de stroomvoorziening niet evenredig over de kabel wordt verdeeld. De 12Vhpwr-kabels beschikt over twaalf pinnen, die normaal gesproken ieder 5 tot 6 ampère moeten vervoeren. Volgens der8auer leverde zeker één van deze pinnen ruim 22A, terwijl sommige andere pinnen slechts 2A droegen. Dat zou de gesmolten aansluiting kunnen verklaren, zegt hij.

Problemen met 12Vhpwr en de nieuwe 12V-2x6-standaard

De mogelijke problemen met de RTX 50-serie volgen op eerdere, soortgelijke problemen bij de RTX 40-serie. Die videokaarten gebruikten voor het eerst een 12Vhpwr-aansluiting, die maximaal 600W per kabel kan leveren. Deze connectors konden in bepaalde gevallen smelten en daarmee de videokaart beschadigen, voornamelijk wanneer gebruikers de kabels niet goed hadden ingeplugd.

Hierom werd het ontwerp van de 12Vhpwr-aansluiting aangepast naar de huidige 12V-2x6-connectors. Deze beschikt over andere pinnen, die de problemen moeten oplossen. Nu melden gebruikers dus dat de 12V-2x6-connectors nog steeds voor problemen kunnen zorgen. Nvidia heeft hierop nog niet gereageerd. Wel zegt de fabrikant onderzoek te doen naar andere gemelde problemen met de RTX 50-kaarten. Zo claimen enkele gebruikers dat ze een zwart scherm te zien krijgen onder verschillende omstandigheden.

Door Loïs Franx

Redacteur

11-02-2025 • 15:58

286

Submitter: Megasyb

Reacties (286)

286
284
111
6
0
147

Sorteer op:

Weergave:

De reageerders onder de Reddit-post wijten de schade aan het gebruik van een thirdpartykabel of gebrekkige aansluiting, maar volgens der8auer hoeft dit niet per se het geval te zijn. De youtuber zegt dat hij regelmatig thirdpartykabels van het merk in kwestie gebruikt en dat deze van goede kwaliteit zijn. De Reddit-gebruiker zelf claimt daarnaast dat de kabel goed was aangesloten op zijn videokaart.
Dit is gewoon typisch reddit gedrag. Er is één keer een defecte 3rd party kabel geweest van cablemod. Nu krijg je tot het einde der tijden onder elke gesmolten 16 pin post de opmerking dat je geen 3rd party cables mag gebruiken, want waar haal je het gore lef vandaan om je garantie te riskeren om een korter kabeltje te gebruiken.
Totaal geen fact checking. Niet kijken wat voor kabel het is en of er bekende problemen met die kabel zijn. Gewoon lekker azijnzeiken zonder verder nadenken. "Kijk mij eens slim zijn, mij zou dit nooit overkomen"
Deels is dat zeker 'des reddits' maar volgens mij zijn er naast die van Cablemod wel degelijk andere voorbeelden genoemd met 3rd party cables (dus niet geleverd door Nvidia of de PSU betreffende PSU fabrikant). Wat niet betekend dat het aan de kabel hoefde te liggen in die gevallen (zie hieronder).

Maar kon voor zover ik weet o.a. Der8auer (van dit filmpje), maar ook Gamers Nexus het probleem destijds met de 4090 ook niet reproduceren zonder 'user error' te simuleren met zowel originele als 3rd party cables behalve dan het teruggeroepen model van Cablemod. Maar bleek wel dat de marges klein waren en een foutje natuurlijk in een kleine hoek zit.

Maar ik snap op zich wel dat men wat huiverig / waarschuwend is tegenover 3rd party kabels, immers zijn dat tot nu toe voor zover mij bekend in ieder geval, de enige kabels waarbij dit issue met de 4090 is waargenomen zonder user error. Ik zou zelf denk ik ook niet snel een kaart van 2300+ euro 'riskeren' door geen gebruik te maken van de bijgeleverde kabel (als je een oudere PSU hebt) of de kabel geleverd door de PSU fabrikant (als je een nieuwe ATX 3.x PSU hebt). Immers zal je bij schade met een 3rd party kabel een nog lastiger verhaal hebben als consument dan wanneer je de bijgeleverde kabels gebruikt, ook al kan het daar mogelijk ook mee gebeuren als je deze nieuwe informatie ziet.

[Reactie gewijzigd door Dennism op 11 februari 2025 16:44]

Als je ziet dat de kabels / connector echt super heet worden in het filmpje van Der8auer, en als je ziet dat er 20(!!!)A door een enkel kabeltje gaat dan lijkt er wel meer fout te gaan dan alleen de 3rd party kabel. De weerstand is gigantisch in dat kabeltje wat zorgt voor die hitte. Als je dan temps van 150+c ziet op de connector van de PSU en 80+c op de connector van de FE kaart is mijn conclusie dat daar iets goed mis gaat.
Weerstand gigantisch? Een koper kabel heeft nauwelijks weerstand, maar je hebt wel een bepaalde dikte nodig om grotere vermogens te transporteren. En met een heel grote stroom en toch nog een lage weerstand ontstaat warmte. Dat is natuurkunde.

En ieder elektrisch apparaat heeft verliezen en ontwikkelt daarmee warmte. En in een beperkte fysieke ruimte kun je niet eindeloos meer vermogen stoppen, zonder tegen problemen aan te lopen. Dat deze kaarten er zijn heeft ook te maken dat er kopers voor zijn. Misschien zouden de eisen een tandje minder mogen (voor een spelletje)?
Hoe warmer de draad, hoe hoger de weerstand en dat bouwt op. Zeker als er geen balancing gedaan wordt over de 6x12V draden.

Ze hebben de balancing weg gehaald sinds de 40x0 series waardoor een groot gedeelte niet verdeelt wordt en dus over één draad gaat zoals we zien. Dus ik zou eerder zeggen dat het probleem in bezuinigingen zit op de verkeerde punten.
Dat is nog steeds niet gigantisch. Om precies te zijn: 0,393% per graad Celsius (C). Met een soortelijke weerstand van 0,0175 Ω·m·10−6 bij ~20 °C en een kabel van zeg 0,3m (30cm), ga je bij 20A daar wel iets van merken, maar is zeker niet de kern van het probleem. Met 100 graden heb je weliswaar 39.3% extra weerstand, maar dat is op 0,3m * 0.0000000175 * 100 * 0,393% slechts een toename van de weerstand met 0.00000000206325 ohm. In vermogen is dat P = I^2 * R (zeg 20A) = 0.0000008253W. Die toename in weerstand kan volgens mij onmogelijk een verklaring zijn dat de temperatuur over de 100 graden gaat.

Jammer dat ik gemind wordt, maar kennelijk is er onkunde genoeg hier _/-\o_ . Het hoofdprobleem is dat de kabel overbelast wordt. Niet de toename in weerstand.

PS. het is verdeeld als voltooid deelwoord.

[Reactie gewijzigd door kdekker op 12 februari 2025 10:18]

Jammer van je laatste zin, laat gelijk zien wat voor iemand je bent.

Maar wat is het probleem dan wel? De andere kabels (van de 6 die 12V vervoeren) worden bij lange na niet zo warm en zitten op 2-10A ipv 22+A zoals de probleem kabel? Dat lijkt me toch wel aardig het probleem van de hoge temperatuur. Als Nvidia gewoon nog balancing toe zou passen zoals ze deden in vorige gens was er geen probleem geweest.

Zeker ook de PSU connector die 150+c werd en de GPU connector die 80+c werd (binnen 10 minuten) en de kabel daarbij 50+c werd terwijl de andere kabels koel bleven ben ik wel benieuwd wat volgens jou dan het probleem is.
Dat is wel erg op de man spelen en zo was het niet bedoeld. Ik kan niet zien wie me gemind heeft, maar als jij het gedaan hebt, dan gebruik je het systeem op de verkeerde manier. Ik onderbouw mijn reactie. Kennelijk vind je een correctie voor een taalfout al zo vervelend, dat je op deze manier reageert. Jammer.

En wat het probleem dan wel is, zeg ik ook: nl. de kabels zijn niet toegerust om zulke grote stromen. Er is bepaalde diameter nodig om een bepaald vermogen doorheen te jassen. Lage spanning is hoge stroom en vermogen is kwadratisch met de stroom (daarom hebben we bijv. hoogspanningsmasten; de kabels zouden anders te dik worden, wat andere problemen met zich meebrengt, o.a. het gewicht).

Als je met een fietslamp draaide (1 adertje uit de flexibele gevlochten draad) een accu kortsluit (geen goed idee, want explosiegevaar) dan gaat de draaid ook gloeien. Hoe de relaties is met diameter (of oppervlakte) van een koperdraad en de maximale stroomsterkte, dat is prima te vinden op internet.

[Reactie gewijzigd door kdekker op 12 februari 2025 10:05]

Om die reden kan ik reacties op mijn reactie niet minnen, it wasn't me :)

Maar dan klopt mijn conclusie toch ook. Ze moeten de stromen gewoon weer balancen zodat er max 100W / 12V / 8-9A door de kabel gaat, verdeelD over de kabels. Niet dat één kabel 250+W en ruim 20A door de kabel jast.

Dit is verder niet mijn expertise, maar iig bedankt voor je eerdere uitgebreide toelichting.
Klopt, maar 500W (of zelfs meer bij pieken) tegen 12V is toch 60A. Als je dat netjes verdeeld gaat dat beter, maar dan nog is het veel. Lijkt bijna op startkabels voor een auto :) (en ook die worden warm bij (te lang) gebruik, maar hopelijk geen 100+ graden, want dan smelten ook daar dingen).

Aanvullingen (net even na kunnen denken tijdens de lunch):
  • De connectoren zijn vaak niet van koper en zullen dus een hogere weerstand hebben. En als ze er niet perfect aangesloten zijn, dan is het contactoppervlak kleiner, c.q. weerstand nog hoger.
  • Als de temperatuur stijgt, stijgt ook de weerstand, maar omdat er vaak met spanningsbronnen (niet stroombronnen) gewerkt wordt, zal de stroom ook zakken. Kortom: het cirkeltje van heter-meer-weerstand-nog-heter bestaat waarschijnlijk niet in dit geval. Alleen als de bron een stroombron zou zijn, dan kan het wel (theoretisch)

[Reactie gewijzigd door kdekker op 12 februari 2025 14:27]

Hoogspanningsmasten is ook belangrijk dat verlies van vermogen door weerstand alleen op stroom effect heeft dus door zeer hoge spanning te gebruiken heeft de kabelweerstand minder invloed
Jammer van jouw eerste zin, dat laat gelijk zien dat je een persoon bent die precies geen terechte kritiek kan verdagen over iets zo triviaals als spelling! Het is een gemiste kans om het beter te doen en iets intelligenter over te komen, want het is echt wel triestig gesteld met de spelling en spraakkunst van de jongere generatie, zelfs met alle digitale hulp die ze ter beschikking hebben. Nu blijkt ook een beetje waarom... En mocht het nu nog ingewikkeld zijn maar er zijn ocharme 2 of 3 regeltjes.

Je kent genoeg andere regels die hier geen hol toe doen zoals het verhogen van de soortgelijke weerstand van een materiaal bij stijgen van de temperatuur, maar zoals @kdekker zei is dat op 30 cm verwaarloosbaar klein. Waarom je ze niet afkoelt tot tegen het absolute nulpunt weet ik ook niet, dan is de weerstand gewoon weg! 8-)
In het filmpje zie je dat de hitte vooral bij de connectoren zit. Met de draad zelf is niets mis, het is logisch dat deze wat opwarmt bij zulke extreme stromen.

Connectoren zijn dure producten om te produceren omdat ze goed contact moeten maken en toch meerdere malen losgehaald moeten kunnen worden. Daarom zijn toleranties heel belangrijk en hebben ze vaak plating van edelmetalen.
Als de connectoren niet netjes op elkaar aansluiten krijg je een overgangsweerstand en die zorgt voor de extreme temperaturen. Dat straalt uit naar de kabel.
Je ziet dat er 2 draden zijn die zeer warm worden. Over één draad wordt 20+A geduwd terwijl over de andere draden maar 2-10A gaat. Bij de 30x0 serie werkte Nvidia nog met een soort balancing om de amperages gelijk te verdelen over de 12V draden, vanaf de 40x0 series niet meer wat voor dit soort perikelen zorgt.
Op welk moment zie je dat? In het shot met alleen de kabel is de hoogste temperatuur (dus geel/rood afgebeeld) onder de 30 graden, de temperatuurschaal op de thermische camera wijzigt steeds.

Shots daarna zijn gemaakt in de buurt van de connector, en daar zie je de warmtegeleiding van de kabel vanaf die connector.

Dat een kabel meer stroom doet dan de ander ligt zeer waarschijnlijk aan de overgangsweerstanden van de connector, of aan design issues van de PCB van de videokaart. De kabels zijn gewoon stukken koper.
Vanaf 14:00 zie je dat de kabel 60c aantikt en niet alleen in de buurt van de connector.
Net even dat stukje gekeken en de hotspot is inderdaad 60 graden. Dat is, gezien de hoge stromen, ook niet echt onverwachts. De enige manier om dat omlaag te krijgen is om dikkere kabel te gebruiken (of om de omgevingstemperatuur te verlagen). Maar 60 graden is geen temperatuur waarop dingen smelten.
Dat klopt, maar zoals hij ook zegt in het filmpje is dat al na 10 minuten testen. Laat staan hoe ver de temp oploopt als je hem 1-2u of langer laat draaien. Zeker gezien de connectoren al 80/150c+ worden.
Zucht. Nee. De stroom zou gewoon verdeeld moeten zijn. Niet 20A door 1 en 2A door de ander
Wat betreft de conclusie 'user error': De analyse liet destijds een patroon van schade zien dat consistent was met een stekker die 1-2 mm uit de socket was getrokken (waarschijnlijk niet helemaal goed aangedrukt en vervolgens langzaam losgetrokken).

Het was dus een redelijke conclusie, hoewel er ook steeds bij gezegd werd dat de kabel geen duidelijke 'klik' geeft en in bepaalde modellen ook nogal onhandig diep ingeprikt moest worden (wat het moeilijker maakte om genoeg kracht te zetten).

Maar nu hebben we een kaart die 33% meer stroom vraagt en dus nog veel kleinere marges heeft. Zelfs bij een correct aangedrukte kabel lijkt het erop dat het verschil in weerstand tussen verschillende pinnetjes ervoor kan zorgen dat bijna alle stroom door slechts een paar van de draden gaat, waar ze niet op berekend zijn. De GPU balanceert de vraag verder niet - en kan dit ook niet, omdat alles gebundeld aankomt op de PCB.
Het enige wat ik me kan voorstellen is dat er pinnen zéér slecht contact maken.
Wat ik uit de schema's opmaak is dat de 12V pinnen en GND pinnen gewoon parallel geschakeld zijn.
Er is dan gewoon sprake van simpele natuurkunde. ALS de connectoren parallel geschakeld zijn en er minimale weerstand verschillen zijn zou de stroom netjes over alle kabels verdeeld worden. Dat load-balancing verhaal is daarbij eigenlijk onzin, want de natuur doet het zelf.
Pas als een pin slecht of niet verbonden is zal er een groot verschil optreden tussen de onderlinge kabels.

Het lijkt me een interessante situatie om de kabels in de midden door te knippen en via een losneembare verbinding weer aan elkaar te knopen en vervolgens 1 voor 1 de weerstand te meten tussen de voeding en de grafische kaart. Er zou dan op sommige aders een enorm weerstand verschil meetbaar moeten zijn waardoor het grootste deel van de stroom nu door slechts 2 van de 6 kabels stroomt. Als die connectoren gebouwd zijn voor 10A per pin, dan is het niet raar dat de boel smelt als er vervolgens 2x meer stroom door gaat.

Ik denk dat de makers van dit soort hardware beter de spanning naar 48V kunnen brengen en op de grafische adapter weer omzetten naar lagere voltages met hogere stromen. Stromen van 50A gaat eigenlijk nergens over. Gooi die spanning omhoog en het wordt 12,5Amp. Dat kun je netjes over 1 dikkere draad van 2,5mm2 voeren. Zijn gewoon goede connectoren voor beschikbaar.
Hier is een hele goede diepe uitleg over het probleem, en hoe stom Nvidia is geweest met de 12Vhpwr.
Actually Hardcore Overclocking: How Nvidia made the 12VHPWR connector even worse.

Er is gegarandeerd een eigenwijze over betaalde uper-manager geweest die heeft gezegd, al die ATX-8pin connectoren zijn een echte ''pain in the arse'', dus laten we het versimpelen. o_0

Waarom hebben ze niet naar server PSU's gekeken, die doen 2000W over een nog veel simpeler connector, dan hoeven ze zelfs geen connector op de printplaat te plaatsen.
Waarschijnlijk niet gedaan, omdat men vorm over functie wilde. >_<
Northridgefix heeft het probleem ook geanalyzeerd en het was bij de 4090 zeker een probleem met de connector op de kaart en niet de cablemods. Hij legt het nogmaals haarfijn uit hier: YouTube: Melting 4090 and CableMod. JayzTwoCents and Gamers Nexus Response. B...
Hij heeft vele 4090s met gesmolten connectors binnengekregen destijds en ik vertrouw op zijn expertise dat het dus een kaart issue is. Als dit bij de 5090 weer het geval is, zou dat een blamage zijn voor Nvidia.
Die ken ik ook, maar hij zegt eigenlijk niets anders dan de rest, namelijk dat het probleem opgetreden is met 3rd party kabels (o.a. cablemod) wanneer deze correct geplaatst waren, en dat bij Nvidia's eigen kabel of wanneer je de bijgeleverde kabels gebruikt van de voeding leveranciers ze het niet kunnen reproduceren zonder user error te simuleren.

Daarnaast slingert hij een andere discussie aan, is het bij zulke kleine toleranties wel een user error, ook als de gebruiker de fout maakt de kabel niet volledig in te prikken, of zoals we ook gezien hebben, dat het misgaat omdat er te weinig ruimte is in een behuizing, waardoor het zijpaneel druk zet op de kabel.

En daar is hij van mening dat het een Nvidia issue is, terwijl de rest het grotendeels labelt als user error, maar de tolerantie had beter gekund. Zijn mening is er daar een die je kan hebben, en delen, maar uiteindelijk blijft het een mening die niet heel breed gedeeld lijkt te worden in de industrie en waar je over kan discussiëren (ook als je bijvoorbeeld kijkt naar de afhandeling van garantie gevallen, de paar die ik gezien heb kregen allemaal nul op rekest, wat dan weer een reden is dat die kaarten bij hem komen. Zouden die zaken immers niet als user error gezien worden, zouden die kaarten wel onder garantie gerepareerd worden en zouden ze niet bij hem terecht komen).

[Reactie gewijzigd door Dennism op 12 februari 2025 14:25]

Ik meen een video tegen te zijn gekomen van iemand met hetzelfde probleem die echt de meegeleverde kabel heeft gebruikt.

Ik gebruik met mijn 4080 ook een kabel van Corsair omdat de meegeleverde kabel gewoon onhandig was. Geen 4090 of 50-series natuurlijk maar ook geen problemen mee gehad tot nu toe.
Je kunt dit probleem ook hebben met een perfecte kabel. Dat is het kloterige. Bij de metingen van der8auer wordt er 22A over 1 draadje gejaagd. Volgens de spec moet de een kabel minimaal 9.2A kunnen leveren per 12V draadje en moeten ze minimaal 16AWG koperdraad gebruiken, waarover je 18A kunt leveren bij minder dan 100 graden.
Tsja, dat is allebei minder dan 22A.

En het is toch ook bizar. Zo'n connector heeft 6 12V+ draden. Je hoeft dus maximaal 100 watt te leveren over één draad. En wat gebeurt er? 264W over 1 draad.

[Reactie gewijzigd door youridv1 op 11 februari 2025 16:24]

Waarom eigenlijk 6 12V draden?
Ik zou zeggen, dat je met 1 installatiedraad van 2.5 mm² een stuk veiliger zit. Die kan tot 3600W aan.
Zo simpel is het niet.

Videokaarten werken op 12V, installatiedraad op 230V. Die 3600W voor een stopcontact zijn zo'n 16A, terwijl diezelfde 3600W voor een videokaart een schrikbarende 300A(!) zou zijn. De verliezen (en dus de hitte) zijn afhankelijk van de stroomsterkte, en die gaat omlaag door voor dezelfde vermogen een hoger voltage te gebruiken. Dat is ook de reden dat hoogspanningskabels op honderdduizenden volts werken.

In theorie zijn meerdere draden beter. Het is een héél stuk makkelijker om te installeren omdat de kabel veel minder lomp is, en doordat er per doorsnede-oppervlakte een groter buitenkant-oppervlakte is kan de kabel ook veel makkelijker zijn warmte kwijt. De voorgestelde installatiedraad zou bij videokaarten waarschijnlijk alleen maar nóg warmer zijn.

Het nadeel is dat de verschillende parallelle draadverbindingen dan wel dezelfde weerstand moeten hebben, want de stroom zal zichzelf verdelen volgens de Wet van Ohm. Als er een draad tussen zit met een lagere weerstand, zal deze draad een hogere stroom moeten verduren, en dus warmer worden. Blijkbaar zijn de weerstandsverschillen in de praktijk groot genoeg dat de videokaart eigenlijk zelf actief de stroom zou moeten sturen.
Doordat er per doorsnede-oppervlakte een groter buitenkant-oppervlakte is kan de kabel ook veel makkelijker zijn warmte kwijt
Je hebt het over het skin effect. Dat geldt alleen voor wisselstroom en alleen voor solide kern geleiders - beide is niet van toepassing op videokaarten.
In theorie zijn meerdere draden beter. Het is een héél stuk makkelijker om te installeren omdat de kabel veel minder lomp is.
Daarom gebruik je dus stranded (losse draadjes) in je geleiders. Maar dat is niet wat het probleem is bij deze smeltproblemen. Het probleem is dat er meerdere plekken zijn waar elektrische verbindingen zijn.

De kabels smelten niet - de connectors smelten omdat je 12 plekken hebt waar het fout kan gaan. De kabels zijn ontworpen met de aanname dat de weerstand van alle plekken waar de pin in het gat komt gelijk zijn aan elkaar.
Je hebt het over het skin effect. Dat geldt alleen voor wisselstroom en alleen voor solide kern geleiders - beide is niet van toepassing op videokaarten.
Nee, ik heb het niet over het skin effect. Het is gewoon simpele wiskunde, namelijk het oppervlak en de omtrek van een cirkel. Een kabel met een oppervlak van 3mm2 heeft een omtrek van 6.14mm. Voor dezelfde hoeveelheid koper kan je ook twéé kabels met een oppervlak van 1.5mm2 (samen 3mm2) maken, en die hebben elk een omtrek van 4.34mm - samen dus 8.68mm.

Voor de koeling is van belang hoe veel contact er is tussen de kabel en de omringende lucht. Met één 3mm2 kabel van 50cm lang is het oppervlak van dit contact 6.14mm x 500mm = 3070mm2. Met twéé 1.5mm2 kabels van 50cm lang is het oppervlak van dit contact 2 x 4.34mm x 500mm = 4340mm2. Die twee individuele kabels kunnen dus véél makkelijker hun hitte kwijt - en dan negeren we ook nog eens dat het voor deze dunnere kabels makkelijker is voor de hitte om van de kern van de kabel naar de rand van de kabel te komen.
Daarom gebruik je dus stranded (losse draadjes) in je geleiders. Maar dat is niet wat het probleem is bij deze smeltproblemen. Het probleem is dat er meerdere plekken zijn waar elektrische verbindingen zijn.
Ja, dat is dus precies wat ik in de alinea daaropvolgend zeg.
De kabels smelten niet - de connectors smelten omdat je 12 plekken hebt waar het fout kan gaan.
De kabels smelten wél - zie de video in het artikel. De connectoren lijken als eerste kapot te gaan, maar óók de kabels worden absurd lang. Dat is waarom de meshing om die ene ader gesmolten is, en waarom in de thermobeelden van Der8auer's eigen kabel twee aders significant warmer zijn dan de rest.

Het probleem is de gehele parallelle constructie, niet alleen de connectoren.
Als er een draad tussen zit met een lagere weerstand, zal deze draad een hogere stroom moeten verduren, en dus warmer worden.
Het gaat nu juist niet zo, als de draad minder weerstand heeft zal de draad niet warmer worden, die heeft namelijk minder weerstand... wel wordt in dit voorbeeld de stroom hoger.
U = I x R
Uitgeschreven betekent dit spanning = stroom x weerstand, of volt = amp x ohm of V = A x Ω.
Dus weerstand lager = meer stroom, dus minder verlies en verlies is warmte.
Een dikkerekabel van de zelfde kwaliteit is minder weerstand. Kortgezegt minder weerstand is minder warm.

Behalve een zogenaande superconductor heeft elk metaal weerstand, de hoeveelheid daarvan hangt af van welk metaal of legering er gebuikt wordt. Koper heeft een lagere weerstand dan aluminium, dus koper is een betere stroom geleider. Goud zit er ergens tussen in, maar heeft minder weerstand in metaal tot metaal contact en wordt dus vaak als plating op contacten gebruikt.

[Reactie gewijzigd door hbvdh op 11 februari 2025 22:23]

Je verhaal is helaas onjuist.
Warmte in de kabel is het vermogen wat er over de weerstand van de kabel staat. Een dikkere draad heeft minder weerstand, er kan dus meer stroom door. P=I kwadraat x R
P vermogen in Watt
I stroom in ampere
R weerstand in ohm
Echter het vermogen is de stroom in het kwadraat x de weerstand. Kortom meer stroom in het kwadraat, dan neemt P het vermogen kwadratisch toe. Oftewel de warmte stijgt snel. De kabel wordt dan zeker niet koeler.
Als je een dunne en een dikke draad parallel aansluit en je deze op een stroom bron aansluit, dan zal de dikke draad als eerst doorbranden.
Hij is wel dik maar het vermogen neemt kwadratisch toe met de stroom. Een dunne draad heeft veel meer weerstand en daardoor gaat er minder stroom door.
Daardoor blijft hij langer heel als zijn dikkere broertje. 🤗

[Reactie gewijzigd door jumjum op 11 februari 2025 22:38]

Je formule klopt je beredenering van de warmte niet. In een device zoals een CPU is de watt die je er in stopt gelijk aan de warmte die er uit komt.

In een draad niet daar is de weerstand die zorgt voor het verlies, verlies is de warmte die er af komt, hoe lager de weerstand hoe minder verlies, door de stroom te verhogen loopt de weerstand weer op dus weer meer verlies is warmte. Het aantal watt heeft daar niets mee te maken, dat gaat naar de gebruiker aan de andere kan van de draad. wel is het zo dat her verlies ook een vermogen heeft P = U x I en U is weer I X R.

Vermogen is dus niet warmte in het geval van een draad, weerstand = warmte

[Reactie gewijzigd door hbvdh op 11 februari 2025 22:55]

In theorie wel als we de totale R constant mogen aannemen (en dus ook de connector, kaart PCB, voeding PCB/bedrading, enz). En daarin ligt de nuance in de verhoudingen hoor.

16AWG koper betekent 13.2 ohm weerstand per km. Als we het dus hebben over kabels van 150mm, dan hebben we het over een draadweerstand van 2milli-ohm. De contact weerstand van de 12VHPWR connector is max. 5 milli ohm, en dan is de fluctuatie van draad door zelfverhitting (zeg +/-50%) niet zo significant dat daardoor de stroomverdeling compleet zal verschuiven naar de andere draden.

Alleen deze twee zijn is dus totaal 7 milli ohm, +/- 1 milli ohm. Dan is een model van P=I^2 x R een goede eerste orde benadering. Vooral om ook aan te geven dat als de stroom van 3 aders concentreert naar 1 ader, dat de vermogensverliezen met een factor 9 toe kunnen nemen. Dan kan een veilige opwarming van 20C opeens een opwarming van 180C worden.
Je schrijft ”door de stroom te verhogen loopt de weerstand op”
Dit is niet correct, als koper draad warm wordt neemt de weerstand af immers de moleculen trillen sneller en laten daardoor meer stroom door, oftewel lagere weerstand.
Echter het grootste probleem is de stoom in het kwadraat. Als er theoretisch +/- 6A door loopt en Der8aur meet 22A dan is dat in het kwadraat 36 staat tot 484 dat is bijna een factor 14 op het vemogen. In het antwoord hieronder waar hans1990 over de weerstand praat, kan deze dus ietsjes veranderen maar niet noemenswaardig veel.. Het probleem ontstaat door de enorme stroom die zich moeilijk door de kabel kan persen en daardoor de draad zeer warm maakt waardoor de plastic mantel en connectors doet smelten. Met als gevolg kortsluiting met nog meer stroom en warmte tot de boel stuk gaat. .

Het vermogen wat de kaart in gaat komt als warmte tevoorschijn, dat klopt. De gpu kun je ook als een soort weerstand zien, netzoals de draad. Ook hier geld wat je erinstopt (erdoorheen loopt) moet er ook weer als warmte uit. Alleen de draad gedraagt zich ohms en de gpu wat complexer. Je kunt de draad en gpu als 2 eenheden in serie zien. De stroom is in beide hetzelfde, alleen het “verlies” is in beide verschillend afhankelijk van de weerstand van beide eenheden. De draad willen we zo laag mogelijk hebben zodat er zoveel mogelijk naar de gpu gaat. 😊
Als koper warmer wordt neemt de weerstand toe. Vandaar dat we met extreem koelen super conductors maken.
Oké weer wat geleerd🤗
Lang verhaal kort: zie deze simulatie. Als je met je muis over een weerstand gaat, zie je rechtsonderin hoeveel stroom er doorheen loopt en hoeveel warmte het afgeeft.

De ader van 20 milliOhm krijgt 10A te verduren, en geeft ~2W af. De ader van 5 milliOhm (wat minder is dan 20 milliOhm) krijgt 40A te verduren, en geeft ~7.75W af.

Jij gaat in jouw verhaal uit van een enkele weerstand in isolatie. Dan klopt jouw voorbeeld inderdaad. Maar dat is hier niet het geval. Het gaat om twee weerstanden in parallel, die samen in serie staan met een derde weerstand.
Dat klopt dat is de warmte in vermogen, het verlies wat door de weerstand gaat. In het geval van de video van Der Bauwer is het helemaal niet duidelijk dat de 6 draden verschillende stroom sterkte hebben door de draden zelf, zelfs met fabricage fouten kan het verschil in weerstand tussen de twee (of 6) draden niet zo hoog zijn dat er door de één 22A en de ander 2A gaat. Dat moet of in de voeding zitten of in de kaart.

In de voeding zitten alle 6 de draaden naar alle waarschijnlijkheid op één 12v rail, maar op de kaart kan dat compleet anders zijn en elke draad naar een bepaald component lopen. Dat laatste is in mij optiek waarschijnlijk aan de hand, heeft de kaart ook één 12 volt rail voordat het naar de compoonenten gaat dan zou er nooit een 10x verschil kunnen zitten tussen de stroom op één draad en de ander maar hooguit een procent, als één connector een slecht contact zou hebben zou daar nu juit dan veel minder stroom door gaan. Mijn geld zou ik zetten op een fout in de stroom afhandeling op de kaart, niet een fout in de connector / kabel.
Ben het eens met je relaas, maar wat ik wel vreemd vindt, als het door de kaart komt dan zouden alle zelfde kaarten hetzelfde probleem moeten hebben.Tot nu toe hoor je hier nog niet veel over, zou dat komen doordat er nog zo weinig beschikbaar/verkocht zijn.

Update:
Na bijna alles gelezen te hebben in dit stuk, bekruipt mij de gedachte dat het mogelijk in de connector ontstaat. In de voeding en op de gpu is alles gesoldeerd. Daar zijn weerstands verschillen echt klein. Maar aan de gpu kant en voedings kant stekker steekt een stift uit waar een huls die in de connector zit overheen schuift. Hoe weet je nu zeker dat al de 12 aan sluitingen in de connector dezelfde weerstand hebben. Als er wat uit de pas lopen (minimaal) dan gaan de connectors toch verschillende temperaturen krijgen en krijg je door een soort sneeuwbal effect van veranderende overgangs weerstanden, dat het van kwaad naar erger kan gaan.

[Reactie gewijzigd door jumjum op 12 februari 2025 12:00]

Vziw (afgaande op referentie schema van een RTX3080) kunnen deze VRMs wel stromen sturen tussen meerdere 6-pin PCIe power connectors. Die worden als afzonderlijke 12V rails gehanteerd en op verschillende powerstages aangesloten. In princiepe zou de VRM de ingaande spanningen moeten monitoren om de groepen powerstages individueel harder/zachter aan te sturen. Je kan al een onbalans hebben al zou iemand 1x 6-pin direct van PSU gebruiken en 1x 6-pin met een adapter. Het kan niet zo zijn dat door de extra contactweerstanden die adapter dan helemaal geen zin meer heeft.

Tot mijn enige verbazing sluiten ze wel alle aders van 1 connector direct op elkaar aan. De ohmige weerstand moet dan idd even hoog zijn voor elke ader wil dat werken. Als we het dan hebben over verschillen van 22A vs 2A, dan zou die verdeling dus bijvoorbeeld 1m vs 10m ohm moeten zijn. Dat zijn wel schokkende verschillen, en dan is mij nu nog niet helemaal duidelijk of dit aan de GPU, connector, kabel, of misschien zelfs voeding zou kunnen liggen. De kabel zou volgens Der8auer al nieuw zijn, voor mij een belangrijk detail want dit soort connectors kunnen wel hogere contactweerstand krijgen na een handjevol insertions.
Het gene waar ik tegen aanloop is het volgende, ik heb een voeding met een 12v rail, dit is één bus met daarop 6 12 volt aansluitingen -> connector -> draad -> connector -> kaart.
Als er in de kaart ook een 12v rail met de 6 12v connecties daarop, zou het in mijnziens zo slecht moeten zijn met de kabel en zijn connectie dat de weerstand op 4 drade zo hoog is dat er door 2 draaden de stroom gaat, waarvan er één 22A. Dat vindt ik vrij onwaarschijnlijk.

Waarschijnlijker in mijn ogen is dat de kaart geen geazmelijke 12v rail heeft maar indivuele verbindingen naar de 12 volt regulatoren en dat deze oneveredig aangestuurd worden, dan zou het kunnen dat de draaden ook on everedig belast worden. Dat zou een major design issue zijn.

Maar zou ook in extreem geval gewoon aan de kabel kunnen liggen.
Snap je verhaal is duidelijk. Maar zo’n connector met aan de gpu en de psu zijde een stift en bus verbinding heeft kan wel onderling verschillen.
Las dat ASUS nu shunts op alle 6 de draden heeft zitten bij hun Astral kaart. Als deze shunts groter zijn als de variatie van de connectors, en zo klein dat er niet teveel spanning over valt, dan is de stroom in de zes draden weer bijna gelijk.
Je zou de shunts ook in de kabel kunnen zetten als het niet in je gpu kaart zit.
2.5mm2 draad wat pakweg AWG13 is heeft een rating van ongeveer 35A DC voor <1M lengte (praktijk iets hoger maar zelfde ballpark). Daar haal je dus ~420W mee. Komt niet eens in de buurt.

Wil je veilig 60A+ door een kabel rammen wil je dikkere kabels met marge. En dan hebben we het nog niet over de connectoren gehad welke ook dikker moeten zijn.

Bonus is dat je met 6 kabel een marge hebt (mits correct geimplementeerd dus niet zoals nVidia met deze standaard) als iemand besluit aliexpress kabels die volgens de verkoper 10000A kunnen hebben er in stopt.

[Reactie gewijzigd door kaas-schaaf op 11 februari 2025 17:38]

Idd, ik had totaal geen rekening gehouden met DC. Dankje voor dat te benomen.
AC en DC maakt in jouw berekening helemaal geen zak uit, dat bepaalt alleen maar of het om wisselspanning of gelijkspanning gaat maar zegt niets over de hoogte van de spanning zelf. Het gaat om de spanning bij een bepaalde maximale stroom, die bepaalt hoeveel vermogen je door een bepaalde kabel mag jassen. Of anders gezegd, het opgestookte vermogen in een kabel hangt alleen maar af van de stroomsterkte2 en de weerstand. Door die 2.5mm2 installatiedraad kan je "prima" 100 kW sturen, zolang dat maar bij een lage stroomsterkte gebeurt, dus bij een hoge spanning, zeg 6 kV ofzo. Daarom gebruiken we hoogspanning in die masten buiten, en niet gewoon 230V.

Door zo'n installatiedraad mag dus ongeveer 3600W bij 230V. Als er 12V doorheen gaat mag er dus maar minder dan 200W doorheen als je dezelfde marges aan wilt houden. En als dat 12V AC is nog steeds.

[Reactie gewijzigd door DataGhost op 11 februari 2025 18:57]

Waarom eigenlijk 6 12V draden?
Ik zou zeggen, dat je met 1 installatiedraad van 2.5 mm² een stuk veiliger zit. Die kan tot 3600W aan.
Uuhm nee, buiten dat de draad te groot is voor de aansluiting omdat het niet past enzo... Laten we de 2,5mm² voor een installatie kabel als uitgangspunt nemen: je grafische kaart krijgt niet alleen niet direct 225V maar 12V aangelevert. Als je dan het vermogen bepaald bij dezelfde 16A kom je uit op:
16A *12V = 192W (in plaats van 3600W die je aangaf)

Der8auer had juist gemeten dat er 22A over één ader gaat... Dan zit je dus als je jou installatie-draad gebruikt nog steeds op 137,5% benutting van je kabel. Hij voldoet dus nog steeds niet! Zodoende komt hij tot het uitgangspunt dat de "standaard" voor de aansluiting van 12Vhpwr slecht/gebrek aan marge heeft/onveilig is.
Toch is het vreemd, want wanneer ik hier oudere rondslingerende videokaarten meet aan hun connector, zitten al die 12V pinnen gewoon parallel aan elkaar verbonden op de kaart. Kan me niet echt voorstellen dat dit bij de 5000 serie ineens niet meer het geval is.
Maar dat is wel anders sinds rtx 40x0, Buildzoid (Actually hardcore overclocking op YT) had hier een mooie followup video van. Vanaf 40x0 maakt Nvidia op de kaart zelf geen verschil meer tussen verschillende inputdraden, waardoor er geen current balancing meer wordt gedaan. Dat ligt niet per se aan de 12vhpwr standaard; bij de 3090ti deed nvidia nog wel aan load balancing. Daarom zijn er bij die kaart geen connectors gesmolten
Vermoedelijk ook omdat hier geen connectors voor bestaan die geschikt zijn of passen binnen de prijs marge.

Daarnaast zijn 6 dunne kabels flexibeler dan een dikke kabel waardoor het dus meer frictie op de kaart kan hebben van de kabel.
Vergeet niet dat 'installatiedraad' een vaste kern heeft.
Zodra je soepele kabel met meerdere koperdraadjes intern gebruikt heb je al snel een stuk meer nodig.
Daarnaast zit je nog met de overgang van de kabel naar de connector.
Die overgangsweerstand moet je niet onderschatten.
Je ziet ook dat er bij de connector de boel het snelst opwarmt.

2.5 mm^2 installatiedraad is bedoeld tot 16A.
Met 600 Watt op 12V zit je op zo'n 100 Watt, oftewel zo'n 8A per kabeltje

Dan is zo'n ongelijke verdeling waarbij 1 kabeltje 22A moet verwerken best wel een probleem. Zeker als je nagaat dat die kabel-diameter een stuk minder is dan de 2.5 mm^2 van installatiedraad en ook nog eens soepele kabel is.

Als je alles over een enkele 2.5 mm^2 kabel zou laten lopen, dan zit je naar een nog grotere lichtshow te kijken in je PC.
600 Watt bij 12V is zo'n 50A. Dat trekt ook een massief koperen kabel van 2.5mm^2 niet.
Een beetje gechargeerd, maar je kan met 2.5 mm² best tot 20A. Het heeft een weerstand van 8 mOhm per meter. Een meter van zulk kabel verbruikt dus P = I^2 * R = 3.2 W. Maar in de praktijk heb je natuurlijk te maken met isolatie, zit het in de muur, etc, dus wil je niet de marges opzoeken.

Installatiedraad is niet (alleen) berekend op 16A, het is berekend op honderden of zelfs 1000 ampère binnen de smelt/schakeltijd van een zekering. Ik had een tijdje terug een LED TL in verkeerd om in een slecht ontworpen armatuur gedaan. Er zat geen zekering in. De bedrading was ontploft voor de zekering in de meterkast afsloeg. Dat is een situatie die je wilt voorkomen, dus is installatiedraad extra dik.

Maar goed, ik zou zeggen dat het grote probleem de stekker is. Het is jammer dat die melder incompleet heeft gemeten. Je moet het ook spanningsval over elke pin meten in millivolt, van soldeerpunt op de print tot bovenkant krimpaansluiting als het kan. Als je dat combineert met de stroom per ader, dan weet je de weerstand van de aansluiting. En het kan best zijn dat andere pinnen slecht contact maken waardoor de best aangesloten pin meer stroom trekt, en over zijn maximale rating heen gaat.

Ik ken het ontwerp van 12Vhpwr trouwens niet, maar het is van belang of een videokaart meerdere 12V rails heeft (voor verschillende delen van de GPUs), of dat de aders gewoon 'parallel' staan. Dat laatste is bijzonder lastig te balanceren. In traditionele analoge vermogenselektronica zaten vaak vermogensweerstanden van heel lage waarde op alle transistoren om de effecten van kabelweerstand te minimaliseren en glad te trekken, zodat alle transistoren gelijk bijdragen. Maar, met de stromen waar we het hier over hebben wordt dat al moeilijk.

Als de videokaart wel losse 12V rails heeft, kan het ook een ontwerpfout zijn dat er teveel van één rail gevraagd wordt.
Een ander 'tegenvoorbeeld' wat ik ervaren heb.
Een paar jaar geleden hadden we hier in 't dorp de "Feest- en lichtweek" waarvoor bewoners de straten samen versieren.
Ik had iets gemaakt wat op mijn oprit stond en dit had stroom nodig. (rookmachine, LED-strips, etc.)
Dus er lag een stekkerdoos in hetgeen ik gemaakt had.
Daarop had een buur een verlengsnoer doorgestekkerd en daarop weer een ander iets anders doorgelust.
Die laatste had de eind-stekker met een kabelbinder aan een paal gemaakt, met het 'kommetje' omhoog.
En uiteraard ging het regenen.

De volgende ochtend was de aardlek eruit en met mijn slaapdronken kop druk ik de aardlek weer aan, poef de groep eruit.
Druk de groep weer aan, poef de aardlek eruit en nog steeds had ik niets door, dus druk ik de aardlek weer aan en de hoofdzekering ligt eruit.
Die (C-karakteristiek) klapt alleen maar meteen als de stroom meer dan 8x nominaal is. Dus 8x 25A = 200A.
Toen begon bij mij ook wat te dagen en dus de buiten-stekker eruit gehaald, alles weer aangezet en daarna de stevige stekkerdoos en verlengsnoer nagemeten.
Beiden waren bedoeld voor 16A (zware uitvoering dus) en de weerstand tussen stekker en contactdoos was al enkele Ohm geworden.
Kortom die kabels waren al ergens bijna doorgebrand na een paar seconden.

Tuurlijk moeten de kabels in je huis kortstondig een veelvoud van de max. nominale stroom kunnen verdragen. Zo kan bijvoorbeeld een zware electromotor van sommige apparaten (haakse slijper bijv.) makkelijk 50A of meer trekken bij het opstarten.
Maar het gaat hier om 'kortstondig'.
Als ze tijd krijgen om op te warmen zou hopelijk de zekering of schakelautomaat er al uit moeten klappen.


Ander probleem met dit soort stekkers is dat er verschillende materialen gebruikt worden, dus krijg je een thermocouple overgang bij elke overgang van het ene metaal naar het andere. (Seeback effect)
Dit levert een spanning op die afhankelijk is met het temperatuurverschil.
Afhankelijk van de combinatie van metalen kan dit zelfs ook de weerstand weer doen toenemen waardoor er nog meer energie in de connectoren verloren gaat en het opwarmen steeds sneller gaat.
"Je kunt dit probleem ook hebben met een perfecte kabel. Dat is het kloterige."
Precies! Daarom vraag ik mij af van welk materiaal de witmetalen pins daadwerkelijk gemaakt zijn in die connector op de GPU? Zou het kunnen dat het helemaal geen (vertind) koper is, maar een of andere goedkope legering? Als ik het volgende stuk van het artikel lees, dan krijg ik sterk de indruk dat er geen sprake is van een koperen geleider maar een halfgare isolator-legering die stroom dusdanig tegenhoudt, dat het als een letterlijke weerstandje opwarmt...
"Bij de connectors van de gpu steeg de temperatuur naar meer dan 120 graden Celsius. De rest van de kabels lieten geen temperatuurstijging zien. Na vier minuten zag de youtuber zelfs een temperatuur van 150 graden Celsius."
Het is juist de draad met de minste weerstand waar de meeste stroom door gaat en dus het heetst wordt.
Bijna goed. Bij een kabel met meer weerstand wordt de kabel zelf een vermogen trekker. Dus die word warmer. Kabel met weinig weerstand kan meer stroom voeren met minder opwarm effect
Nee, de stroom kiest de weg van de minste weerstand.
Zelfs zo dat PCI-E kabels van corsair anders zijn dan van Seasonic.

Stond er doodleuk op, ik dus een nieuwe build bouwen en hup kabeltjes aansluiten...nou ik heb het geweten:
rook en na 5 seconden de 1 TB HDD en MB connectors gesmolten.

Mobo, PSU en HDD weggedonderd.

[Reactie gewijzigd door freedzed6 op 11 februari 2025 18:00]

Je mag nooit kabels hergebruiken bij wisselen van voedingen. Ook niet bij voedingen van hetzelfde merk tenzij je expliciet weet dat ze dezelfde standaard gebruiken. Geldt voor alle kabels, niet alleen PCIe

de connector van de kabel die aan de kant van de voeding zit, is op geen enkele manier gestandaardiseerd tussen fabrikanten

[Reactie gewijzigd door youridv1 op 11 februari 2025 21:41]

Let alleen maar eens op de 6 of 8 pin pci-e connector of de 6 of 8 pin connectors op het mb voor cpu power. +12v en grounds zitten bij de ene boven en de ander onder
dat gedrag hebben we hier ook. Een geval van smelten en half tweaker land gilt over NVIDIA, dat ze niks leren, niks testen, er een puinhoop van maken, er niks om geven etc etc.
Tuurlijk, gillen is simpel. Maar van de andere kant weet NVidia sinds de 4k-serie dat die stroom-connectors een heel kritiek punt zijn, en toch... gebeurt er nu weer iets vreemds. Ja, iedereen is er alert op, en het haalt meteen de voorpaginas, maar het kost wel weer iemand z'n 2000-euro-kaart, met een risico op een huisbrandje erbij. Dat vind ik toch significant genoeg voor vermelding.
misschien blunderde de gebruiker, hij zegt zelf van niet. Misschien een maandag ochtend model, geen enkele produktie 100% foutloos, er is altijd wel een auto die kapot gaat. Misschien test NVIDIA hun kaarten en stekkers niet en hebben ze niks fatsoenlijks bedacht om 570W te kunnen leveren door een connector, zodat het toeval is dat het werkt. Wie weet...
nu vind ik het wel dapper dat ze een probleem geval met pieken van 700w+ opvolgen met een kaart die pieken van 900w+ voor elkaar krijgt dat vind ik toch wel apart.

en heel vervelend dat het voorgaande probleem weer verschijnt wat het vertrouwen in die kabel standaard zeker niet zal boosten.

[Reactie gewijzigd door anub1s17 op 11 februari 2025 18:00]

Dat de belasting niet verdeeld wordt over de kabels en 1 kabel zelfs meer als 20 ampere krijgt te verwerken heeft niks met de kabel te maken. Maar alles met het ontwerp van de stroomvoorziening voorbij de connector.
Het heeft óók met de kabel te maken. In zowel de videokaart als de voeding zullen de verschillende kabels gewoon parallel aangesloten zitten. Als alle kabels en aansluitingen dezelfde weerstand hebben, dan zal de stroom zich gewoon gelijk verdelen over de kabels.

Blijkbaar zijn de weerstandsverschillen hier groot genoeg dat de ongelijke verdeling voor problemen zorgt. Zou je normaal gesproken alleen verwachten met shady 3rd party kabels, maar als zelfs een expert als Der8auer er tegenaan loopt met een huis-tuin-en-keuken setup? Dat is gewoon een structureel probleem, niet iets waar je de schuld puur bij de kabel en/of connector kan leggen. Óf Nvidia had een kabel en connector moeten kiezen waar zulke weerstandsverschillen niet kunnen voorkomen of geen problemen opleveren, óf Nvidia had een GPU moeten maken die er zelf voor zorgt dat de stromen goed verdeeld blijven.
Ik dacht altijd dat bij meerdere stroomvoerende draden zij verschillende delen van de kaart voedden. Dan heb je er geen last van; wel als ze op de kaart doorverbonden zijn.
Dat heb je dan heel goed gedacht, want dat was precies wat Nvidia vroeger deed! Alles op één hoop gooien is een nieuw dingetje van de 4090 en 5090, Actually Hardcore Overclocking heeft daar een hele heldere video over gemaakt.
Nee, de kabel hierboven is feitenlijk 6 parallel geschakelde kabels. Als door de connector weerstand verschil wordt veroorzaakt omdat er mechanische verschillen zijn, dan wordt dit gewoon verdeeld over de kabels zoals je in de video ziet.
De kabels van cablemod waren wel goed, het ging om de Angled Adapters.
IDD, MSM gaat er ook nog eens mee aan de haal en geeft gelijk de redditor de schuld voor het gebruik van een 3rd party kabel.

En zelfs nadat Der8auer een video erover gemaakt heeft, zetten ze er geen correctie bij het originele artikel, maar weer een nieuw artikel die weer een ander punt hamert, over hoe zijn kabels heet worden, }

Met weinig tot geen verwijzing dat hij die gesmolten kabel/GPU in handen heeft om visueel te inspecteren.

De enigste die ik heb gezien die een correctie/update bij het originele artikel plaatste, is verrassend genoeg "The Verge"
Niet zo heel vreemd gezien veel van de problemen met 4090 veroorzaakt worden door 3rd party kabels, en user error. En andersom gebeurt het net zo hard. Andere mensen schreeuwen meteen over de stekker zelf, ook zonder zelf iets getest te hebben.

En wat verwacht je eigenlijk, iemand post iets op reddit om reacties te krijgen. Terwijl hij al weet dan bijna niemand een 5090FE heeft, dus zelfs al zouden ze willen niets kunnen testen. Als je die meningen niet wil horen, is het beter reddit te vermijden.
Er waren ook 4090 incidenten met de first party nvidia kabel.

Niemand heeft ooit hard kunnen maken dat een bepaalde kabel het probleem oploste of veroorzaakte tov andere kabels.

Er zijn later defecte aftermarket extensions en angle adapters geweest, maar dit waren ver van de enige kabels met problemen

[Reactie gewijzigd door youridv1 op 11 februari 2025 18:30]

Cablemod heeft bijna 100k kabels moeten heroepen omdat ze van zo'n slechte kwaliteit waren, kan gewoon een kabel zijn van deze batch zijn.
ModDIY kabels, zoals in de post hier, zijn made to order. Geen batches
Vind je dat? Dus welke kabel moet of mag je wel gebruiken? De persoon die het meldt is geen standaard keuken boer he! Hij weet heel goed wat je wel moet gebruiken en niet.
Dus jouw opmerking is ook azijn zeiken.

Dacht je nu echt dat hij bewust de boel saboteert?
En der8auer meldt expliciet dat het niet de kabel is. De eigenaar van de kapotte 5090 meldt ook dat het de kabel vermoedelijk niet is. Willekeurige mensen in de reddit comments claimen dat het aan de kabel ligt.

Wel goed lezen ;)
Ok mijn excuus dan haha.
Staaan die pinnen gewoon parallel? Of zit het iets slimmer in elkaar?
Typisch redditers gedrag?
Dit lijkt er op dat het een 0,01% issue is met veel te veel variabelen om zomaar een statement te maken. Testen in grote hoeveelheden is hier belangrijk. Zie hieronder een post van falcon northwest die een hele sloot 5090 test en dit issue niet ziet

https://x.com/FalconNW/status/1889428378769564121?s=19
Beetje een vreemde video. Probleem is duidelijk de waardeloze verdeling over de verschillende draaden. Maar de conclusie gaat voornamelijk over de connector specs. Als je de stroom zo slecht verdeelt kun je met alle connectors problemen krijgen.

Het lijkt mij veel interesanter om dit te vergelijken met een paar andere 5090 modellen. Gaat dat overal mis, of is dit specifiek een probleem met de FE. Hij heeft er vast wel een paar liggen.
Die connector is de oorzaak van de onbalans.

Er zijn 3rd party 4090's die op meerdere pinnen de stroom meten en deze onbalans kunnen detecteren.
Ik zie niet echt waarom de stekker inherent onbalans veroorzaakt. Of waarom het bestaan van detectie iets bewijst. Zover ik weet laat deze video van Derbauer het eerste duidelijke probleem zien met de verdeling over de verschillende pinnen/draden. En de informatie in de video is lang niet genoeg voor een goede conclusie.

/Edit
Buildzoid heeft een leuke followup video. Waarin hij speculeert hoe de versimpeling van de powerdelivery sinds de 4090 op de kaart zelf de oorzaak is. Dat heeft weining/niets te maken met de stekker. De 3090/3090ti had wel load balancing, en gebruikte dezelfde stekker.

Dat sluit ook aan bij de gevoeligheid voor exact goed aansluiten. Als de stekker net even niet goed zit, kan de weerstand iets anders zijn op verschillende pinnen. En als de kaart daar inherent niet voor kan compenseren, is het wachten op problemen.

[Reactie gewijzigd door cnieuweboer op 11 februari 2025 18:23]

Deze kaart kan inherent daar niet aan regelen omdat in dit geval dit 6 parallel aangesloten kabels zijn met weerstand van 0,5 tot 6 ohm.
Dit is waarschijnlijk inherent aan de gebruikte type aansluiting.
Conclusie is eigenlijk dat met dit soort aansluitingen in de pc en zo veel wattage (op 1 rail) dit een probleem blijft.

Als je nu verschillende rails hebt in plaats van 1 in de Ax1600i dan wordt dit probleem wel kleiner.
Ik snap je punt over paralelle kabels niet. Alle voeding kabels naar een videokaart zijn parallel. Dat zegt niets over hoe de videokaart daar zelf mee omgaat. Het schijnt dat 4000 en 5000 series alle kabels op de pcb met elkaar verbind. Zonder mogelijkheid om de stroom per kabel te regelen.

Volgens buildzoid was bij een 3090(ti) de powerdelivery op de videokaart opgedeeld in 3 stukken, die elk werden gevoed door 1 paar kabels. En dat was niet echt een andere stekker, alleen de sensepins zijn wat anders. Ik zou ook niet weten waarom dat plots onmogelijk is.

Dat kan een PSU niet oplossen, die weet niet hoeveel stroom er getrokken hoort te worden per pin. En blijkbaar kan de videokaart dat ook niet. Ben wel benieuw naar hoe dat werkt met de Aurus Master die door iemand van Hardware Lux getest is. Als ik Buildzoid goed begrijp is dit een probleem op alle 4000 en 5000 series. Maar de 5090 Auras Master had in die test vrijwel perfecte verdeling. Misschien gewoon geluk, of misschien doen sommige kaarten de powerdelivery toch anders.
Niet alles is parallel. Als ze aan een of beide kanten gescheiden zijn, zoals aparte voeding rails of aparte verbruiker zonder met elkaar verbonden te zijn, dan is dat elektrotechnisch gezien niet parallel.

Een psu kan dit effect verminderen, door de maximale stroom door bijvoorbeeld 3 rails aan te bieden. Een rail kun je eigenlijk zien als een losse voeding, Dus verdeel je de stroom beter.
Als het 3 losse rails zijn, die aan de kant van de verbruiker aan elkaar gekoppeld zijn, dan krijg je juist eerder problemen. Een klein verschil in spanningsniveau van de 3 rails zal dan al snel er voor zorgen dat 1 rail veel meer stroom zal gaan leveren dan de andere 2.

Ik vraag me dan ook af of het probleem in de video puur aan de videokaart ligt, of dat de voeding/kabels ook een rol spelen, dat is naar mijn mening met deze video niet bewezen.
Is er een test die dat aantoont? Dat je verschillende rails aan elkaar knoopt aan de kant van de videokaart, en vervolgens de weerstand per pin veranderd. Wat dat precies doet met de verdelding van de stroom over de kabels.

En als je parallel definieeert als direct verbonden aan beide kanten. Waarom zou dat inherent zijn aan de connector? Of in andere woorden. Buildzoid zegt dat dit in het verleden wel gedaan is. Waarom heeft hij ongelijk? En waarom is het inherent aan de connector, maar kan het aan PSU kant wel opgedeelt worden met verschillende rails?
De RTX 30-series gebruikte wel een iets andere connector, die had namelijk geen 4 sense-pinnen.
3090 Ti had load balancing, daar is NVIDIA sinds de 40-series vanaf gestapt.

De sens pins laten de PSU alleen maar weten hoeveel de kaart mag gebruiken in zijn geheel. Maar dat gaat ook nergens over want de TDP limiet staat vast in de VBIOS.
Bij de huidige GPUs verdeeld de stroom zichzelf. Het is dus best mogelijk dat de oorzaak van het probleem zit in een weerstandsverschil tussen de verschillende pinnetjes van de connector, en dat dit bij een andere connector niet optreed óf door grotere marges geen significant probleem is. Deze problemen werden niet gezien bij de oude connectoren, dus het is vrij waarschijnlijk dat de nieuwe connector een significante rol speelt.
Correlatie is geen causatie. En dat kun je testen door een paar andere kaarten te testen. En bij voorkeur op termijn alle kaarten. Nu zijn dat allemaal aannames.
'Gesmolten connectors op RTX 5090 FE komt door ongelijke verdeling stroom'
Kunnen de 12V pins niet direct met elkaar verbonden worden om dit te voorkomen?

Edit:
Volgens Buildzoid zijn de 12V pins aan de GPU (en PSU) zijde met elkaar verbonden en is dat de oorzaak van het probleem, er kan dan teveel stroom over één enkele pin als andere pinnen geen (goed) contact maken.
Dat zou betekenen dat de onbalans niet wordt veroorzaakt door de GPU maar door de connector of de kabel.

YouTube: How Nvidia made the 12VHPWR connector even worse.

[Reactie gewijzigd door Olaf van der Spek op 11 februari 2025 16:52]

Dat lost het probleem niet op. Het probleem zit hem op de pcb (printplaat).

Ik vraag me af waarom ze zo'n fout laten zitten. Zou het kunnen dat de componenten op de pcb een maximum specificatie hebben?
Als je kijkt naar de PCB van de 5090fe is er weinig ruimte ook. Nou zijn die componenten niet huge, maar iedere besparing is er een. Die shunt weerstanden zelf zijn ook niet heel duur en zeker op een kaart van 2000+ euro zou je toch verwachten dat die paar cent (als het al een cent is) voor een shunt extra uitgeven een kleine moeite is zodat je de belasting over de kabels kan verdelen maar nog belangrijker, kan detecteren.

Gelukkig hebben 3rd party leveranciers (iig asus) hier wél aan gedacht zoals in de video van hardcore oc te zien is.
das heel simpel, winstbelang

dus gewoon corners cutten en de consument in zn reet naaien. Zoek t maar uit met de RMAs basically. wij hebben de centen al binnen.
Normaal gesproken knoop je ze inderdaad aan elkaar aan de gpu zijde. Bij gelijke weerstand* wordt de stroom dan vanzelf gelijkmatig verdeeld.

*Daar kan die connector nog weleens het probleem zijn...

In dit geval zijn het volgens mij daadwerkelijk verschillende power-rails. Die zul je dan ook gescheiden willen houden, maar dan moet je er wel voor zorgen dat je ze zelf goed balanceert. Dwz per rail maximaal x Ampere laten trekken.

Ik kan me alleen niet voorstellen dat niemand dat getest heeft. Als je weet dat je bij de vorige generatie al zoveel gezeik hebt gehad doe je dat nu toch driedubbel testen?
Nee dat kan economisch gezien niet uit. Als je alles samenvoegt dan krijg je een single point welke bijvoorbeeld 100A kan voeren, dan moet je een flink stel beveiligingen/begrenzingen aanbrengen bij zowel aanvoer als afvoer dat er veilig met zulke stromen kan worden omgegaan. Ze behouden juist dit soort splitsingen omdat men wil voorkomen dat men punten krijgt met zulke hoge stromen.
Economisch kan het volgens de video van hardcore OC wel uit, de stroomlevering opsplitsen in 3 delen. De 3090Ti had dit wel en vele kaarten daarvoor ook. En die waren vele malen goedkoper dan de 5090FE. Die kon zelfs load balancing doen op de aanvoer.

De 5090FE heeft alles aan elkaar geknoopt en ziet de hele stekker als 1 geheel. Bij Asus hebben ze laten zien dat er detectie tegen overbelasting ingebouwd kan worden en is het uiteindelijke resultaat wel een geheel.
Je zegt het zelf al: de stroomlevering opsplitsen in 3 delen
Lees de 2e alinea. De 5090FE heeft alles aan elkaar geknoopt en géén beveiliging. De 5090 van asus heeft alles aan elkaar geknoopt en wél beveiliging. Het kan dus financieel prima uit. Zo duur zijn die paar componenten niet tegenover de totaalprijs van die kaart.

Overigens is de asuskaart alleen in staat om te detecteren, niet te corrigeren. Dat 2e vereist wel wat meer en duurdere componenten.
Dat zijn ze al. Aan zowel de PSU-kant als GPU-kant is de meest logische implementatie om de pinnetjes in de PCB direct met elkaar te verbinden - gewoon een dikke vette power plane.

Als de weerstand van PSU-PCB, door een connectorpin, door een kabel, door een tweede connectorpin, naar de GPU-PCB voor alle pins min of meer gelijk is, dan zal de stroom zich vanzelf gelijkmatig verdelen. Maar dan moet de weerstand wel precies gelijk zijn - ieder verschil zorgt automatisch voor een ongelijke verdeling.

In dit geval is de weerstand dusdanig ongelijk dat het voor problemen zorgt. De grote vraag is nu: waar zit dit verschil, en is het te voorkomen?
500w++ @ 12v is gewoon dom, onpraktisch en gevaarlijk met molex rommel te doen. Dat kunnen die pinnen niet aan.
Prima om extra pinnen als redundantie te gebruiken.
Maar vermogen verdelen over meerde pinnen?
DOM
Zou makkelijk moeten gaan. 6x15A 900W zou nog haalbaar moeten zijn op de 12pin connector. Makke is juist dat deze connector NIET door Molex is gemaakt. Zij hebben wel ervaring
Die rekensom klopt alleen als je spreekt over 6 individuele stromen. Wiskundig gezien heb je dan gewoon 6 stromen van 15A. En niet 1 van 60.
Dat verschil kan al komen doordat er ergens een plukje stof zit. Dat spul wat je gelukkig nooit aantreft in computers.
Dit probleem heeft CPU EPS, 24-Pin en 6/8-Pin ook.

Er zijn door de jaren heen genoeg 8-Pins gesmolten vanwege het missen van load balancing.

Ik denk dat het het beste is dat PSU makers dit gaan implenteren op elke connector. Dan gaat de prijs maar verder omhoog, maar veiligheid is belangrijker.
YouTube: How Nvidia made the 12VHPWR connector even worse.
Opvolger over deze saga van Buildzoid (actually hardcore overclocking)
Erg goede video. Hij legt perfect en begrijpbaar uit hoe deze connector werkt, hoe het in het verleden ging, en wat sommige AIB partners proberen om er 'omheen' te werken, maar feitelijk ook hoe kansloos de spec zelf is, en in combinatie met het verslag van Derbauer, hoe verschrikkelijk gevaarlijk dit soort vermogens in combinatie met 12V kan zijn. Hij had richting de 30A op een kabel aan de PSU-zijde, en had plastics die ontgassen/vervormen bij 105 graden celcius al richting de 150 graden celsius ZONDER user error. Puur omdat nVidia geen enkele controle uitvoert of alles uit één kabeltje komt, of uit een gezonde combo van alle zes. Nogmaals, elektra volgt de weg van de minste weerstand. Tenzij je met mosfets gaat controleren of een 6baans weg echt wel verdeeld is over zes banen, ga je risico's lopen dat iedereen tegelijk de binnenbocht neemt.
Tja het is vervelend dat iedereen weer een nieuwe voeding nodig zou hebben, maar wanneer ze bijvoorbeeld met 24V gevoed worden, scheelt het al de helft aan Amps.
Met 48V zou het helemaal peanuts zijn.
Laat ze de ATX voedingsstandaard maar aanpassen in plaats van zo klein mogelijke connectoren te bedenken voor een veels te hoge stroom.
Of k'weenie - dump al die nutteloze frame-gen en ray tracing troep en dwing uitgevers en ontwikkelaars om terug naar de tekentafel te gaan en de processing power die ze beschikbaar hebben efficient in te zetten, ipv alles te brute-forcen.
hoe verschrikkelijk gevaarlijk dit soort vermogens in combinatie met 12V kan zijn.
Voor consumentenspul zeker, (semi-) professioneel kan het prima maar je moet gewoon dikkere kabels en betere connectoren hebben. Ik zie de gemiddelde consument nog niet met 4mm2 kabel zijn pc mooi proberen te maken want dat spul buigt voor geen meter.
Kan je mooie bochtjes maken met je zeskwadraats kabel. Heb je aan 2 aders genoeg :)
Absoluut :Y) maar ik zie nu al de "makkelijk buigbare kabel handig voor gebruik minimaal 1000A" op aliexpress en amazon staan. Siliconen omhulsel met wat alluminium draadjes er in max 10A.

Ik heb enkele voor een UPS in gebruik en ik zou niet willen dat een PC-bouw-beginner er mee aan de haal gaat en de draad half afbreekt door er een 90 draden bocht in te buigen met een tang of ander onhandig apparaat. Veel wrikken maakt het makkelijker te buigen uiteraard 8)7

[Reactie gewijzigd door kaas-schaaf op 11 februari 2025 20:24]

25mm2 car audio kabel is verassend flexibel. 2 connectors op je gpu met een inbussleutel even vastzetten en klaar. Denk dat het mooier eruit ziet dan die bossen dunne draden
Niet helemaal eens dat de hele video goed is, waar hij praat over welke kabel je kan missen klopt niet.
De algehele boodschap klopt wel:
De 5090 heeft 1 fase en die zijn aan gpu en psu kant gelijk (ax1600i)

Enigste wat eigenlijk de reden kan zijn in verschil in belasting is weerstand van de aansluiting of kabel.
Elke aansluiting heeft een verschillende weerstand, hoe meer weerstand hoe minder stroom in de kabel met meer weerstand. Die weerstand kan vergroot worden door een slechte aansluiting, corrosie op de connector, temperatuur etc.

Als je een psu hebt met verschillende 12v rails, daar zal dit probleem niet zo snel voorkomen omdat daar de max wattage van rail het limiet is en daardoor 2e rail ook moet belasten. Kan nog steeds een verschil in weerstand voorkomen maar er kan bijvoorbeeld geen 22a door 1 kabel lopen als alle kabels redelijkerwijs goed zijn aangesloten zoals bij de video hierboven.

Als we ChatGPT laten rekenen met de waardes uit bovenstaande video komt er het erop neer dat maar minimale weerstand verschillen dit veroorzaakt. 23A kabel heeft 0,5Ohm en 2A kabel 6Ohm. Dit kan in principe komen door de variatie in kabel dikte, soldering, hoe goed de connector over de pin schuift en aansluit en meer.

[Reactie gewijzigd door thijsjek op 11 februari 2025 19:34]

Geen enkele connector in de PC heeft deze beveiliging, EPS niet, 24-pin niet, 8-Pin niet.

Het word tijd dat er wat gaat veranderen.
Deze video zou bovenaan moeten staan, of gementioned worden in het artikel. Het gaat er inderdaad dieper op in met simpele taal en illustraties en verduidelijkt het probleem.
Voor wie het argument "user error" wilt aandragen, laat ik je voor zijn: het feit dat dit kán gebeuren, user error of niet, is een serieus probleem ofwel in de specificatie van de 12VHPWR kabel, of in het ontwerp van de grafische kaart, of beiden. We hebben het hier over onderdelen voor de DIY markt en daar móet simpelweg genoeg veiligheidsmarges in zitten om eventuele user error te kunnen opvangen, zeker voor veelvoorkomende fouten als "hij zat niet helemaal goed ingeplugt" of "hij zit een beetje scheef". Daar is hier geen sprake van; Roman geeft ook aan dat er bijzonder weinig headroom is tussen hoeveel vermogen de kaart trekt vs. waar de kabel voor ontworpen is, dus dit is per definitie een ontwerpfout.
Eens, als het zo nauw komt met pinnetje hier, scheeft dit of dat, dan is de constructie niet goed.
Dan moeten ze er een schroefverbinding o.i.d. op zetten om te voorkomen dat een gebruiker hem niet goed plaatst. Als dit bij een elektrische auto zo ontworpen wordt, zullen er veel afbranden.
Dit is een van de redenen dat ik sinds het invoeren van die nieuwe connector niet voor een Nvidia kaart ben gegaan. Zelf met een minimale kennis van de wet van Ohm moet je toch even achter je oren krabben als je die 12VHPWR connector ziet met die kleine pinnetjes en het verwachte vermogen.
Bij het ontwerpen hebben ze totaal geen veiligheid marge meegenomen, dus alles moet PERFECT zijn.
Waarom niet een stekker met dezelfde pin grote als de 8-pins maar dan in een andere lay-out (meer pins). Nee het moet 'sleek' en 'minimalistisch' zijn!
Mogelijk omdat je in dezelfde ruimte met kleinere pinnen een lagere overgangsweerstand krijgt. Zelfs met minimale kennis van geometrie zou iemand dat moeten zien...

Sorry hoor, maar het aantal mensen die stellen dat ze het toch overduidelijk niet kan werken, geloof ik niet echt in. En natuurlijk, er zijn problemen mee geweest, en ik wil ook niet stellen dat het allemaal perfect ontworpen is/was. Maar ik geloof ook niet erin dat het allemaal zo overduidelijk is dat elke leek nog ziet dat het niet kan werken, en dat alle mensen die aan de standaard hebben gewerkt dat hebben gemist.
Mogelijk omdat je in dezelfde ruimte met kleinere pinnen een lagere overgangsweerstand krijgt. Zelfs met minimale kennis van geometrie zou iemand dat moeten zien...
U=I*R... Kleinere pinnen, minder materiaal = meer materiaal weerstand = lagere overgansweerstand???
Die moet je me echt even uitleggen.
Of komt deze opmerking omdat je het verschil niet weet tussen de twee verschillende connectoren?
Het idee van de HVPWR connector is goed, in plaats van 3x 12V connectoren naar 6x voor een meer gespecificeerde GPU connector. Maar er is duidelijk gepusht om er zoveel mogelijk vermogen door een zo klein mogelijke stekker.

Maar zelfs op de Wiki pagina staat er dat de veiligheidsfactor van HVPWR aanzienlijk lager is dan die van de oude 8-pin. En daar zien we nu de resultaten van.
Je kan in 1cm bij 1cm doorsneede één grote pin hebben van laten we zeggen 8mm zijdes. Die heeft dus totaal een contact oppervlakte van 4x8mm = 32mm (plus natuurlijk de lengte van de pin).

Je kan in diezelfde ruimte ook 4 kleine pinnen hebben van 3mm zijdes. Die hebben 4*4*3mm = 48mm totaal contact oppervlakte.

Als je een pin 2x zo dik maakt, heeft hij 4x zoveel ruimte nodig, met maar 2x zoveel contact oppervlakte. Dat is dus geen efficient gebruik van je ruimte.
Als je een pin 2x zo dik maakt, heeft hij 4x zoveel ruimte nodig, met maar 2x zoveel contact oppervlakte. Dat is dus geen efficient gebruik van je ruimte.
Op die fiets. Ja, klopt, MAAR....

Met elektriciteit moet je altijd in 3D denken en een stekker is altijd een zwakte punt van een stroomketen; vermogen heeft massa nodig om makkelijk te stromen.
Daarbij, het raak oppervlakte tussen pin en the klem is verre van perfect, De pin is meestal wel recht, maar de klem is naar genoeg nooit perfect vierkant.

De productie kwaliteit moet kennelijk nog verder omhoog voor de kabel producenten. Maar ze hebben echt wel het uiterste opgezocht met deze connector.
Huh? Het begin van je bericht slaat echt nergens op
De vraag is vooral waarom gaat het tot zover alleen bij die ene persoon/exemplaar mis? Wat jij zegt je denkt dan aan een ontwerpfout, maar dit is allemaal serieproductie spul, dus al die kaarten zouden dezelfde slechte stroomverdeling over de pinnen moeten hebben normaal gesproken binnen kleine tolerantieverschillen. Een kabel die 120 graden wordt, laat staan 150 graden, dat gaat natuurlijk problemen geven vroeger of later, met uiteindelijk thermal runaway en smelten tot gevolg.

Waarom hebben niet (veel) meer hier al last van, of zijn die kabels in al die systemen echt zo heet dat je direct brandwonden krijgt als je ze aanraakt, maar heeft niemand ooit zijn hand tegen zo een kabel aangehouden, of die kabel simpelweg vastgepakt, terwijl die pc bezig was? Relatief veel van dit soort heel dure kaarten zullen toch gaan naar Tweakers, casemodders, influencers en zo meer, dan heb je dat natuurlijk een stuk sneller ook nog eens. Nu ja, het zal snel genoeg duidelijk worden nu dit nieuws rondgaat.
Waarom niet vaker? Omdat er wereldwijd maar weinig 50-serie kaarten in omloop zijn en omdat dit soort kaarten niet gekocht worden door de gemiddelde gamer. We gaan zien hoe dit zich ontwikkeld zodra er ook werkelijk 5090's op grotere schaal verkocht worden.
Het lijkt erop dat iig asus dit gemerkt heeft en er een detectie voor heeft gemaakt.
Er zijn nog niet zoveel 5090s op de markt, dus er zijn ook niet superveel mensen die tegen het probleem aan kunnen hebben gelopen.

Daarnaast is het niet een probleem bij één persoon, de meting van Der8auer is al een tweede. Hij meet 150 graden met een benchtop setup, de gesmolten kabel van de Redditor was in een (per definitie hete) small form factor build.

Als de meeste reviewers en vroege gebruikers een goed gekoelde en ruime setup hebben, dan is het niet héél gek dat ze niet merken dat de kabels absurd warm worden. De temperatuur van je kabels meten is niet een normaal ding, en meestal ga je ook niet in je kast prutsen als de pc aan staat, laat staan als de GPU hard aan het werk is.
Is toch vrij gangbaar bij review werk. Kaart erin, hele suite benchmarks inclusief furmark draaien, volgende kaart erin voor dezelfde benchmarks. Als je dan die gpu power connector beetpakt is dat ding nog minutenlang heel heet toch. 120-150 graden in een plastic omhulsel is niet zomaar weg.
We gaan het meemaken, veel mensen zullen als niet voor dit nieuws, dan nu wel na dit nieuws, hierop gaan letten.
Zoveel graden is juist zo weer weg in zulke dunne separate aders. Weinig thermische massa
En die zouden wel eens nog wat dunner kunnen zijn geweest in dat gebruikte verloopkabeltje. Kennelijk is daar een verder onherkenbaar verschil in de 2023/2024 editie voor de 4080 en 4090 die nog niet geschikt was voor de 5080 en 5090... maar nu onder hetzelfde typenummer de 2025 editie wel geschikt is... dat verhaal stinkt de hemel in.
nieuws: Moddiy raadt gebruikers aan kabel te upgraden na gesmolten RTX 5090 F...
Niet iedereen zal meteen die kaart gaan testen tot het uiterste maar ik denk als alle gebruikers dat wel zouden doen dat er veel meer aan het licht kwam.
Maar dan zijn er toch ook serieuze problemen met andere kabels, zoals de standaard PCIe 8-pins connector? Daar kan je met wat Googlen ook genoeg gesmolten versies van vinden.

En dus helemaal los ervan of deze connector het wel of niet goed doet, als de stelling is dat wanneer het kan gebeuren, er een serieus probleem is, zou betekenen dat er ook een serieus probleem is met zo ongeveer elke andere voedingskabel in je PC.
Die kaarten hebben of ver genoeg onder de amperage nodig dat het niet echt uitmaakt als dit toch het geval zou zijn. Daarnaast is de loadbalancing van de 12v lijn anders sinds de 4000 en 5000 series.
Roman kan het probleem herhalen, terwijl hij heeft de installatie 100% goed gedaan heeft. Dat 2 kabels van de 6 over de 150C gaan is bizar.
Eens. Als dit een gekeurd product zou zijn zoals bijv. een CV ketel, zou deze resoluut van de consumentenmarkt geschopt worden.
De vraag is of dit op te lossen is met een firmware upgrade, want dit is gewoon een ernstige fout.
Als het een hardwarematige fout is zou ik een put optie op NVDA zetten.
het zwarte scherm misschien maar de smeltende connector niet. het probleem met 12vhp/12v2x6 is dat alle kabels paralel aan elkaar staan waardoor als een van de kabels hogere weerstand heeft dan de rest (door schade, fout in fabried, slechte aansluiting, ect.) bijna alle stroom van de 6 100w kabels door maar een kabel gaan. 8 pin had dit probleem niet omdat er max 150w over 2 kabels per connector konde gaan (dus als er een niet werk gaat er 150w ipv 600w door 1 kabel en als er 2 niet werken ziet de gpu dit als kable niet aangesloten). de 30xx gpu's hadden dit probleem niet omdat de 12vhp plug op die kaarten niet een "echte" 12vhp was maar in plaats daar van werd omgezet naar 2/3 8 pins.
Nee, als er eentje een hogere weerstand heeft dan gaat er meer door de rest en minder door de slechte. Maar als er eentje veel beter contact maakt dan de rest dan gaat daar een grote stroom lopen.

Dus ik vermoed dat er iets anders aan de hand is. Is er door de hitte iets uitgegast uit het kunststof en heeft dat bijvoorbeeld voor oxide op de meeste pinnen gezorgd? Of is het soldeer door de hitte onbetrouwbaar geworden?

EDIT: Ik weet niet hoe het zit, maar als alles gewoon parallel is op 12V op de kaart dan is het goed mogelijk dat de kaart bijvoorbeeld eens op de connectoren gevallen is, de soldeerverbindingen kunnen dan brak worden en als er dan nog maar 1 goed is aan plus en/of ground dan gaat daar alle stroom doorheen.

Maar parallel staat het hopelijk niet, dat is gewoon vragen om problemen.

[Reactie gewijzigd door Benadski op 11 februari 2025 16:45]

oeps foutje ja. de warm wordende kabels heb ik alleen nog op de 5090fe gezien maar het is te vroeg om te zeggen dat andere 5090's niet het zelfde probleem hebben. het kan zijn dat nvidia een foutje heeft gemaakt met het board design waardoor een van de pins minder weerstand heeft dan de rest. het is in ieder geval niet zoals bij de 4090 waar de kabel gewoon niet goed vast zat (dat ook gewoon een slecht ontwerp is btw ik geef de gebruikers niet de schuld).
als een van de kabels hogere weerstand heeft dan de rest (door schade, fout in fabried, slechte aansluiting, ect.) bijna alle stroom van de 6 100w kabels door maar een kabel gaan.
Dat klinkt als onzin. Hiervoor moet er een vrij groot relatief verschil zitten in de weerstand van de betrokken kabels en dat lijkt me vrijwel onmogelijk. Dan zouden dus 5 van de 6 kabels/pinnen magischerwijze allemaal tegelijk een veelvoud van weerstand moeten ontwikkelen. Daarnaast, die ene kabel werd enorm warm, waardoor zijn weerstand toeneemt. Dan zou je verwachten dat er vervolgens meer stroom door de andere kabels zou gaan lopen. Dat lijkt niet te gebeuren.

Er zal dus wel ergens een weerstand zitten, maar veel aannemelijker is dat het op de kaart of in de voeding zit en niet in de kabel of stekkers.
Video van derbauer gezien? Ik vermoed dat de punten met verlaagde weerstand juist in connectors zit omdat deze in en uit elkaar gehaald kunnen worden. De verbindingen op de pcb e.d. zijn allemaal met massieve materialen, geen stranded en daarbij ook nog eens gesoldeerd in plaats van met klemkracht aangebracht. De connectors zelf zijn doorgaans ook de plekken waar de meeste weerstand zit door een vorm van oxidatie, slijtage, niet 100% recht geplaatste stekker e.d.

En vergeet ook niet wat temperatuur doet met de weerstand. Het plastic wordt warm en kan vervormen, het is niet dat er een kabel 50 graden wordt en de ander 30, maar bij derbauer was het 130 graden. Ik verwacht dat er redelijk wat plastics zijn die die temperatuur niet eenvoudig doorstaan.
Jamaar hoezo verlaagde weerstand? Koper verandert niet zomaar van weerstand en een stekker kan er hoogstens wat aan toevoegen. Maar dat zou dan op meerdere kabels tegelijk een flinke hoeveelheid moeten stijgen.
Ah, tikfout. Had nog geen koffie op. Maar het gaat om de relatieve weerstand. Dat het op een pin meer is dan de ander kan komen door net niet 100 pct recht zitten, stof, verbogen pin, whatever.
Sure, maar het zou dan moeten zijn dat 5 van de 6 kabeltjes opeens een aanzienelijk hogere weerstand krijgen. Ik zou dat raar vinden.
Gaming is maar een klein deel van NVIDIA op dit moment, volgens mij maar zo'n 12%, dus pas op met je put voor een heel klein deel van de kaarten ;)
De enigste manier hoe je dit mischien kan oplossen is een FACTORY underclock die het stroomverbruik terugbrengt naar <450W, en dat geeft zelfs nog geen zekerheid dat het 100% weg is
Undervolt zul je bedoelen. Maar inderdaad, dit raad ik ook iedereen aan die een nieuwe kaart koopt. Kijk gelijk hoever je kunt gaan met een undervolt op dezelfde clockspeeds. Mijn 3080ti draait hier stabiel met bijna 20% minder volts op dezelfde clock.
Underclock of undervolt [beide worden gebruikt].

Ik heb mijn "Powercolor red devil RX7900XT" ook underclocked/undervolted. [via de adrenalin software]
[-10% power limit & -10% undervolt, meer kan niet omdat het dan niet stabiel draait, dit is de sweet spot]

AV passmark score at launch: 31000
mijn passmark score niet underclocked: 32500+
passmark score underclocked/undervolted 31500

De GPU's fans spinnen bijna niet tijdens normaal gebruik, dit is mede omdat de koeler groot genoeg is om de GPU te koelen zonder active cooling.

Totaal stroomverbruik van mijn PC onder FULL load is tevens met 150W+ omlaag geggaan [als gemeten in mijn P1 monitor]
[een verlies van 3-5% performance loss tov 150W minder totaal verbruik, is een winst in mijn ogen]

En Ja, ik heb een Silicone lottery GPU.
[Note: ik heb deze gewonnen met een contest van powercolor zelf]
Zeer netjes! Ik wou alleen even aangeven dat als je minder stroom en lagere temps wil, de clockspeed zelf niet zoveel uitmaakt :) Dat haal je alleen door je voltages naar beneden te halen. Maar je hebt gelijk dat ze vaak wel hand in hand gaan bij het finetunen.

[Reactie gewijzigd door JacOwns7 op 12 februari 2025 10:56]

IDD, klopt dat het hand-in-hand gaat, ik noem het gewoon underclocken, omdat dat de meest gebruikte naam is, waarbij ik dan ook zeg dat ik een undervolt heb gedaan.
-----
Volgens mij heb ik zelfs nog de BIOS switch op Silent staan. wat een nog lager verbruik geeft.
Moet nog alleen kijken hoe ik kan voorkomen dat de adrenalin suite de settings reset na elke restart.

[heb wel 2 DUMMY.EXE files gemaakt [lege Text bestanden die ik renamed tot dummy_XX%.EXE] [en alle permissions er af gesloopt, dat je alleen onder linux ,met commandline deze kan aanpassen]] deze ik dan gebruik voor de settings snel terug te zetten.
De vraag is of dit op te lossen is met een firmware upgrade
De gaande theorie is dat het probleem zit in de fluctuatie in weerstand tussen individuele pins in de 12-pin connector door verschil in onpuurheden van de individuele pins; doordat één pin net iets strakker klemt dan een andere; etc.

Bij de hoeveelheid spanning en stroom die Nvidia er doorheen wil persen kan een minimiem verschil hierin al dusdanige bias veroorzaken dat één pin bijna de hele lading neemt met 20A en dus de temperatuur door het dak gaat.

Dat zou enkel te fixen zijn als Nvidia actief de hoeveelheid stroom per pin zou gaan limiteren. En dat vereist hardware aanpassingen in de power delivery. Dat zou niet met firmware te fixen zijn.


E.e.a. wil ook zeggen dat, als dit moge kloppen, letterlijk elke 40 en 50 serie kaart op de markt een tikkende tijdbom is die op een slechte dag in een uitgebrand huis gaat eindigen.
Firmware kan helaas geen extra componenten solderen op de PCB.

De 5090 moet terug geroepen worden en de power delievery opnieuw ontworpen. Dat is de enige juiste oplossing.
Je zou mogen verwachten dat ze van de 40xx serie wel geleerd zouden hebben...
Precies wat ik dacht, maar Nvidia.. :z

Zoveel vermogen over een bewezen slechte constructie. Ze maken een paar kleine veranderingen maar doen doen precies hetzelfde weer, zonder uitvoerig genoeg te testen, want dit probleem is voldoende gekend en had absoluut voorkomen kunnen worden door een echt nieuw ontwerp te hanteren but nooo. Ik weet wel dat zulke kachels er bij mij niet in komen. Go team Red :P
Tsja, aangezien ze er maar een stuk of 100 van verkopen zullen ze er vast niet zo veel aandacht aan besteden /s
Ik ken mensen die al een 5090 hebben. En wereldwijd zijn er al duizenden verkocht. Maar dat is niet eens het echte probleem. Probleem is een ontwerpfout die nog steeds aanwezig is en enkel erger is gemaakt.

Niet alleen willen ze mensen beroven van veel geld voor een kaart die dat niet waard is, ook zien ze graag een hoop ervan kapot gaan zodat ze kunnen zeggen user error en koop maar weer een nieuwe.

Zeer kwalijk.
Ik dacht dat het /s(arcasme) er voldoende vanaf droop, kennelijk niet.
Jah, dit product moet een recall krijgen, zo ernstig is het probleem.

We gaan echt wel meer van deze gevallen zien de komende weken/maanden.
Probleem is alleen dat het ook echt asn andere factoren kan liggen, zoals toch dodgy kabels of een maandagmirgen model. Kan goed zijn dat bij de 5090 dus een goede kabel nog belangrijker is, waar bij diezelfde kabel bij een 4090 het nog net aan kon.
Probleem is geen load balancing op de GPU, wat de 3090 Ti nog wel had en daarom ook geen gesmolten connectoren had. Als 1 of meerdere connectoren slecht contact maken worden de andere zwaarder belast, en er is geen systeem in plaats om de load per kabel te limiteren. Dus als je bij de 4090 en 5080 5 van de 6 12 volt kabels doorknipt gaat alle 450/600 watt door 1 kabel wat neerkomt op zo'n 50/55 Ampere.

Kaarten moeten worden terug geroepen en aangepast worden, wat betekend een nieuwe PCB.

[Reactie gewijzigd door TheDeeGee op 12 februari 2025 00:03]

Het zwarte scherm is al bekend bij vele Youtubers. Dit issue zou komen doordat de kaart PCI 5.0 zou forceren, ook als je maar een PCI 4.0 riser kabel gebruikt. Je moet dan in je bios forceren dat hij op max PCI 4.0 loopt. Dit geeft een hele kleine performance loss (minder dan 1%) maar het werkt dan wel.
Dit issue zou komen doordat de kaart PCI 5.0 zou forceren, ook als je maar een PCI 4.0 riser kabel gebruikt.
Ligt dat dan niet gewoon aan de riser?
Je kan inderdaad ook een riser 5.0 ertussen zetten, maar dat is weer 50 tot 80 euro extra voor helemaal niks qua performance.
Pci-e 4 is nog lang niet max in gebruik. Een 5090 op gen 3 scheelt pas 7fps ofzo
Matig artikel/samenvatting van de video. Thermal imaging, en daarna wordt er direct naar stroomverbruik gestapt, maar de woorden 'stroom meten' en 'amperetang' komen in het artikel niet eens voor.

Wel een stimulans om de video helemaal te kijken, waar wel degelijk DC stroom gemeten wordt.

Of een kabel wel of niet geschikt is om een bepaalde stroom te voeren wordt bepaald door de diameter. Voor 23A zou dat al 4mm kwadraat moeten zijn, waar 2,5mm kwadraat waarschijnlijk ook nog wel werkt op deze korte afstanden. Maar dat heb ik nog nooit uit een computer PSU zien komen.
Geen idee waar jij die waardes van af haalt maar het mag gewoon 1,2 MM2 zijn.

Jij hebt het over 220V Die connector doet 12V

https://www.bbatechniek.n...er_bba/12v_kabeldikte.pdf
Ik snap niet hoe deze connector ooit goedgekeurd was voor de markt en waarom PCI-SIG niet ondertussen voor miljarden is aangeklaagd.
Toen NZXT de riser problemen had met de H1 grepen ze wel in en werd het van de markt gehaald, zelfde met de CableMod adapters, dus waarom is er geen wereldwijde recall van alle apparatuur die deze connector gebruikt?
Ook is het zo dat de "veranderingen" inclusief de andere naam die PCI-SIG aan deze aansluiting heeft gegeven niets oplost of daadwerkelijk veranderd, dus de "nieuwe" connector is gewoon de oude met exact dezelfde problemen en nog steeds belachelijk onveilig.
Ik vraag me dan ook af of hier hetzelfde gebeurd als met Boeing, waar authoriteiten de andere kant op kijken door een "vriendenovereenkomst" ofwel een zak geld in de handen van regulatoren.
Ze komen er alleen maar mee weg omdat het grote bedrijven zijn met veel geld.
Als een klein bedrijf zoals Thermal Grizzly hetzelfde zou doen, zou het resultaat heel anders zijn.
Toen NZXT de riser problemen had met de H1 grepen ze wel in en werd het van de markt gehaald,
met "ze" bedoel je gamersnexus? NZXT was hier zelf heel laks mee
Nee ik bedoel de authoriteiten met een wereldwijde recall.
NZXT deed er inderdaad niets mee tot GamersNexus hun videos aan de FTC / USCPA toonden en zij ingrepen.
Diezelfde overheidsinstellingen doen nu helemaal niets en het lijkt er sterk op dat ze dit doen omdat PCI-SIG en NVidia enorme bakken geld hebben en / of ze omgekocht hebben, net als Boeing deed met de FAA.
Diezelfde overheidsinstellingen doen nu helemaal niets en het lijkt er sterk op dat ze dit doen omdat PCI-SIG en NVidia enorme bakken geld hebben en / of ze omgekocht hebben, net als Boeing deed met de FAA.
Of misschien omdat hiervan het exacte probleem nog niet gevonden was, en dus geen zekerheid was waar de fout zat, tot dit bloot gelegd werd..?
Dus je geeft zelf aan dat dit ondertussen wel duidelijk is, PCI-SIG wist did, NVidia wist did, iedereen weet dit, maar er gebeurd nog steeds niets.
We zijn nu ruim 3 jaar verder en er zijn letterlijk duizenden onderzoeken gedaan, dus hoeveel meer bewijs wil je hebben dat dit niet veilig is?
Normaal gesproken duurt het hooguit een paar maanden voordat er een recall is wanneer er bewijs is geleverd dat er een brandgevaar is.
In het geval van NZXT met de H1 duurde het 5 weken.
Kom dus niet met dit soort onzin argumenten aan, dat slaat nergens op.
iedereen weet dit,
ehmm. waarom was dit dan niet vorige week in t nieuws, met beschrijving dat het exact hier door kwam? waarom de reddit comments over user error?
nee, echt niet iedereen wist dit, genoeg van die kaarten die nog wel leven.
Dat de situatie verdacht was, ja....
We zijn nu ruim 3 jaar verder en er zijn letterlijk duizenden onderzoeken gedaan, dus hoeveel meer bewijs wil je hebben dat dit niet veilig is?
voel je vrij ze alle duizend te linken, en maybe daar mee naar de rechter te stappen, als jij dat zo duidelijk aan kan tonen dat dit al ruim 2 jaar BRAND gevaarlijk is, en niet enkel je product dat weg smelt...
Buildzoid gaf toch duidelijk aan dat de 3000 series "veilig waren" (zou zn video kijken)... dus das geen 3, maar 2.5 jaar aan onderzoek..
In het geval van NZXT met de H1 duurde het 5 weken.
Mooi, kan ik dan dus verwachten dat jij met je getoonde onderzoeken binnen 5 weken t zelfde met Nvidia kan bereiken?
Maar is die connector dan de bron van het hier beschreven probleem?
Als de connector hetgene is dat iedere keer in de fik vliegt, wat denk jij dan dat het probleem is?
Het probleem kan in het board-design zitten en ook in de voeding.
De stekker is enkel de zwakste schakel dus die zal bij een verdeelprobleem gaan smelten.
Hoe dan ook zul je moeten verklaren waarom 5 van de 6 kabels/pinnen een aanzienelijk hogere weerstand vertonen waardoor dus vrijwel alle stroom door slechts 1 kabel gaat lopen.
Ik snap niet hoe deze connector ooit goedgekeurd was voor de markt en waarom PCI-SIG niet ondertussen voor miljarden is aangeklaagd.
De connector is niet het probleem.

Het probleem is dat Nvidia alle 6 aansluitingen (6x fase + 6x nul => 12) op één hoop gooit en er geen onderscheid gemaakt kan worden hoeveel load er door één draad loopt.

Bij de 3000 serie werd, waar er gebruik gemaakt werd van een 12VHPWR connector, de 6 aansluitingen onderverdeeld in 3 groepen van 2 - waar elke groep gelimiteerd en gereguleerd werd. Dat is bij de 40 serie en 50 serie niet langer het geval.

En dus als je een lichte onbalans hebt in de weerstand van één of twee v/d draden ...
is het tijd voor fikkie.

[Reactie gewijzigd door R4gnax op 11 februari 2025 21:27]

Dat is een probleem, maar niet het probleem.
Er is veel meer mis met deze standaard dan de manier waarop NVidia het heeft geimplementeerd.
De "veiligheidsclip" die niet veilig is omdat er nog steeds een enorme hoeveelheid speling op zit zelfs als de clip vast zit, het contact of gebrek er aan binnen de connector wat de weerstand verhoogd, een marge die veel te laag is en ga zo maar door.
Zelfs als elke draad een aparte groep is en je voor elke draad een aparte fase zou hebben dan is er nog steeds een enorme kans dat de connector smelt, tenzij je ook OPP / OCP / OVP toepast op elke draad en zelfs dan is het nog steeds een risico.
Dus ja, NVidia heeft een connector met een brandgevaar nog veel gevaarlijker gemaakt, maar het feit blijft dat deze connector NOOIT veilig is als je er 600 Watt doorheen trekt, zoals Roman ook al aan gaf in zijn eerdere video over deze connector.
"Het is niet mogelijk om met deze connector de veiligheid te waarborgen." - Roman, vertaald uit het Duits.
Op zich is de connecter zelf wel "okey" mits er systemen op de GPU/PSU aanwezig zijn die elke 12 volt connectie afzondelijk kan monitoren en limiteren mocht dat nodig zijn.

Wat wel zo is is dat de 5090 minimal 2 van deze connectors nodig heeft om ruim binnen de overspec te blijven.

Op dit item kan niet meer gereageerd worden.