Door Willem de Moor

Redacteur

12Vhpwr: gaat de gpu-connector van de toekomst in rook op?

07-11-2022 • 12:00

72

12Vhpwr-connector

Rook uit je computer, het is het angstbeeld van iedere beginnende pc-bouwer. In de afgelopen weken werd het een paar keer werkelijkheid bij gebruikers van de nieuwe 12Vhpwr-stekker, die Nvidia gebruikt om aan de hoge energie-eisen van zijn nieuwste generatie videokaarten te voldoen. Dat verloopt dus niet altijd zonder problemen.

De connector is een verdere ontwikkeling van de eerdere stekkers die gemaakt zijn om stroom te leveren aan videokaarten en eventuele andere insteekkaarten. De bekendste varianten daarvan zijn de 6- en 8-pins-PCIe Power Cable Connectors. Die zijn al sinds 2003 respectievelijk 2007 in gebruik. Vaak worden ze PEG-kabels genoemd, omdat videokaarten in de praktijk zo ongeveer de enige PCIe-kaarten zijn die ze gebruiken. PEG staat in dit geval voor PCI Express Graphics. De variant met zes pinnen kan 75W leveren en de versie met acht pinnen verdubbelt dat naar 150W.

Videokaarten hadden tot niet zo lang geleden in de regel echter maar twee van die 'PEG-connectors'. Een snelle rekensom leert dat ze dan via de kabels maximaal 300W aan vermogen konden krijgen, wat nog kon worden uitgebreid met 75W die via het PCIe-slot wordt geleverd. Dat betekent dat met deze 'ouderwetse' kabels en stekkers 'slechts' maximaal 375W aan een videokaart geleverd kon worden.

De laatste generaties videokaarten vragen echter meer dan die 375W aan vermogen. Zo heeft de RTX 3090 Ti van Nvidia uit maart 2022 een tdp van 450W. Overigens zit de tdp van de RTX 3080, de RTX 3080 Ti en de RTX 3090 op 350W, bijna het maximum van de mogelijkheden. Overgeklokte kaarten van derden overschrijden die tdp geregeld, waardoor ook kaarten met die gpu's van extra prik voorzien moesten worden. Nvidia rustte zijn Founders Edition-kaarten daarom uit met een enkele, nieuwe en krachtige voedingsstekker. Omdat voedingen die nieuwe connector nog niet hadden, leverde Nvidia voor zijn FE-kaarten een adapter mee. Dat wordt straks nog belangrijk.

Molex Micro-Fit 3.0 12pin-stekkerDie nieuwe connector werd bekend als 'de 12-pinsconnector' en bestaat uit een Molex Micro-Fit 3.0-stekkercombinatie. Afhankelijk van de daadwerkelijke connectors en kabeldikten die gebruikt worden, kan veel meer vermogen geleverd worden. Volgens geruchten levert de 12-pinsconnector maar liefst 9,5A per pin en volgens de specificaties van fabrikant Molex is dat maximaal 8,5A. Met zes 12V- en zes aardedraden levert dat dus maximaal 684 of 612W op. Let wel, dat is in een ideale situatie, zonder kabelverlies of contactweerstand.

Een interessant detail daarbij is overigens dat de stekkers zelf voor veel lagere vermogens bedoeld zijn. Met twaalf pinnen en wat dikkere draad van 18AWG zijn ze geschikt voor 5,5A per paar, dus pakweg 400W. Als een fabrikant dunne kabeltjes van 20AWG gebruikt, is dat zelfs iets lager: 5A per pin voor 360W totaal. Met de 75W van het slot erbij, en met wat 'wiggle room' was de 12-pinsconnector voldoende voor de 3000-serie. Bovendien omzeilden fabrikanten het hele 12-pinsverhaal grotendeels door gewoon een extra PEG-connector aan hun pcb toe te voegen. Zo maakte het weinig uit of je voeding wel of geen 12-pinsconnector heeft of hoe je je PEG-connectors aan een 12-pinsadapter knoopt. Met drie 8-pins-PEG-connectors plus het slot kan je kaart immers 525W opslokken, voldoende voor zelfs de hoogst overgeklokte 3000-serie RTX-kaarten. Daaraan kleven twee flinke nadelen. Het geeft een kabelwirwar in je behuizing, want drie 8-pinsconnectors vragen evenzoveel kabels met in totaal maar liefst 24 aders. Bovendien nemen die grote connectors veel ruimte op het pcb in beslag, waarvoor ook onderdelen als het koelblok, de ventilators en de shroud weer ruimte moeten maken.

Molex Micro-Fit stroomsterkte-tabel

Dat brengt ons naar 2022 en de introductie van de 4000-serie RTX-kaarten van Nvidia. Net als de Founders Edition-kaarten van de 3000-serie heeft Nvidia ook de 4000-kaarten, tot dusver alleen de RTX 4090 dus, voorzien van een nieuwe connector. Dat is ook voor deze generatie een 12-pinsconnector, maar die heeft dit keer iets extra's. In beginsel lijkt het dezelfde Micro-Fit 3.0-connector met 12 pinnen, maar dan met 4 extra, kleinere pinnen erboven. Deze zestienpinsstekker wordt niet door Molex, maar door fabrikant fabrikant Amphenol gemaakt en heeft dezeflde 3mm-pitch als de Micro-Fit van Molex. De connector is onderdeel van de ATX 3.0-specificatie met kabels en connectors voor PCIe Gen5-kaarten. De nieuwe connector heet de 12Vhpwr-connector, een afkorting voor 12V High Power.

De nieuwe 12Vhpwr-stekker voegt intelligentie toe aan de connector. De vier extra, kleine pinnetjes bovenop zijn namelijk 'sideband'-pinnen. Twee ervan worden gebruikt om vast te stellen hoeveel vermogen initieel naar de kaart moet en hoeveel er maximaal naartoe mag. Deze Sense1 en Sense0 laten de voeding maximaal 600W naar de kaart sturen. De optionele pinnen CARD_PWR_Stable en CARD_CBL_PRES# laten de voeding respectievelijk weten dat de kaart correct functioneert danwel dat de connector goed zit. Dat laatste is overigens verplicht voor Gen5-kaarten.

De vermogens van de 12VHPWR-connector gestuurd door Sense1 en Sense0
De vermogens van de 12Vhpwr-connector gestuurd door Sense1 en Sense0

De 12Vhpwr-stekker moet dus, volgens de ATX-specificatie, ten minste 600W kunnen leveren. Dat kon de vorige, nauwelijks gebruikte, 12-pinsconnector ook al, dus op het eerste gezicht levert dat geen probleem op. Met ongeveer 8,3A per pin moet dat lukken. Dat is binnen de specificaties van Amphenol: de 'pinnetjes' moeten 9,5A aankunnen volgens specificatie. Dat zou dus allemaal dik in orde moeten zijn, maar de praktijk wijst echter anders uit.

Render van een 12VHPWR-connector van fabrikant Sirlyr
Render van een 12Vhpwr-connector van fabrikant Sirlyr

Anders dan bij de 'vorige generatie' 12-pinsstekkers wringt de schoen bij de huidige 16-pinsstekkers om twee redenen. Ten eerste zijn de kaarten die de nieuwe connector gebruiken, niet langer beperkt tot de Founders Edition-kaarten van Nvidia zelf. Dat betekent dat alle kaarten van de 4000-serie de stekker gebruiken. In veel gevallen is dat een Nvidia-branded adapter, waar volgens meldingen problemen mee zijn. Ten tweede moeten vrijwel al die kaarten van een adapter gebruikmaken, aangezien er nauwelijks voedingen zijn die standaard met de 12Vhpwr-connector zijn uitgerust. En die adapters lijken de oorzaak van flinke problemen.

AMD en 12Vhpwr

AMD ontwijkt de hele kwestie van afwijkende, nieuwe connectors door gewoon, net als bij vorige generaties, bestaande connectors te gebruiken. Dat betekent dat high-end kaarten gewoon twee of drie 8-pinsstekkers blijven gebruiken om voldoende prik naar de kaart te krijgen. Met de 12Vhpwr-opschudding rond Nvidia's kaarten wilde AMD uiteraard even zijn mediamoment pakken. Het bedrijf bevestigde de 12Vhpwr-connector voor zijn nieuwe generatie kaarten niet te gebruiken. Dat is uiteraard niet iets dat als reactie op Nvidia-kaarten is verzonnen; die keus zal al eerder in de ontwikkelfase van de pcb's zijn gemaakt.

De adapters zijn niet allemaal hetzelfde, maar kunnen door fabrikanten aangepast worden. Ze worden aangesloten op de 8-pins-PEG-connectors van de voeding, maar het aantal connectors en de dikte van de draden kan variëren. Van de 28 kaarten uit de 4000-serie hebben we van 18 kaarten ten minste gedeeltelijk kunnen achterhalen wat voor adapter wordt meegeleverd. Precies de helft daarvan, 9 kaarten dus, wordt geleverd met een 12+4-pinsadapter die door drie 8-pinsstekkers wordt gevoed. De andere 9 adapters hebben vier 8-pinsstekkers om de kaart van prik te voorzien.

Het aantal 8-pinsconnectors is echter niet de enige variabele, ook de kabeldikte hoeft niet altijd hetzelfde te zijn. Dat geldt voor de kabels van de voeding, maar zeker voor de kabels van de adapter zelf, dus tussen de 8-pinsstekkers en de 12+4-pinsstekker. De ene fabrikant gebruikt 18AWG-kabels, ongeveer 0,8 vierkante millimeter in doorsnede, de andere gebruikt dikkere 16AWG-kabels van 1,3mm² doorsnede. Ten minste sommige adapters gebruiken heel dikke 14AWG-kabels, die nog stugger en dikker zijn dan de 18AWG- en 16AWG-kabels. Een dikkere kabel is beter geschikt voor hogere stromen, dus 16AWG-kabels bieden wat meer marge dan 18AWG-kabels en met 14AWG zit je helemaal goed, zou je denken. De stroom loopt echter niet alleen door de kabels, maar ook door de connectors.

Een 12VHPWR-adapter met drie en vier 8pin-aansluitingenEen 12VHPWR-adapter met drie en vier 8pin-aansluitingen

Daar komen we eindelijk bij het punt waar de problemen veroorzaakt worden. De kabeldikte en de positie van de stekker op de videokaart, in combinatie met de kwaliteit van de krimpconnectors en hun verbinding met de kabels, leveren in sommige gevallen oververhitting van de stekkercombinatie of zelfs gesmolten danwel verbrande connectors op. Er zijn inmiddels diverse meldingen van gebruikers van wie de adapter is gesmolten. Nvidia heeft de gevallen, en het fenomeen, in onderzoek.

Het lijkt erop dat dit voorkomt als alles precies goed misgaat. De kabel van de adapter moet flink gebogen zijn, zodat de buitenste pinnen van de connector minder goed of geen contact maken. De resterende pinnen moeten dan meer vermogen transporteren, waardoor ze buiten hun specificaties gaan. Dat kan extra warmte opleveren, waardoor de weerstand oploopt en nog meer warmte wordt geproduceerd. Dat is een van de scenario's die tot problemen kunnen leiden.

De adapter van Nvidia die bij de 4090 Founders Edition zat, hebben we in de afgelopen weken veelvuldig en zonder problemen gebruikt. Let wel, de kaart zat in onze testbench met een flauwe bocht in de kabels van de voeding en adapter. Daarnaast hebben we de adapter, in combinatie met de RTX 4090 FE, tijdens een stresstest gebruikt, waarbij we de temperatuur in de gaten hielden met een warmtecamera. Tijdens een uurtje 3DMark-benchmarken in een loop, waarbij het verbruik tussen ongeveer 420 en 450W schommelde, zagen we met de FLIR-camera geen dramatische temperaturen. De adapter bleef ongeveer 48 graden, de kabels iets koeler.

FLIR-opname temperaturen 12VHPWR-adapter
FLIR-opname temperaturen 12Vhpwr-adapter

Volgens Igors Lab zit het probleem in het solderen van hele dikke 14AWG-kabels aan de pinnen. Daar is helemaal niet genoeg ruimte voor. Eigenlijk zijn het immers krimpconnectors, waarbij een kabel die van de isolatie is gestript, een stukje ingestoken wordt en met een speciale tang wordt vastgeknepen. Fabrikanten zouden de dikke kabels vastgesoldeerd hebben aan de verbindingsstukjes tussen de pinnen. Die dunne metaalstrips zijn te slap om de krachten te kunnen weerstaan die bij het buigen van de kabel ontstaan. Het gevolg zou zijn dat de kabels inclusief de soldeerverbinding losscheuren. De kabels die nog wel vast blijven zitten, krijgen dan opnieuw te hoge stromen te verwerken en worden te heet. Ook zonder losscheuren zouden de connectors niet deugdelijk zijn. De dunne metaalstrips zijn immers niet bedoeld voor hoge stroomsterkten.

Hoe kun je je nu tegen dit risico wapenen? Aan een dooddoener als 'het zijn maar een handjevol gevallen' heb je niet zoveel. Je zult immers maar een van die gevallen zijn. Wat je wel kunt doen, is voorzichtig met je kabels omgaan. In veel behuizingen zul je een behoorlijk strakke bocht moeten maken met de adapterkabel, omdat de connector op je videokaart in het midden zit en naar de zijkant wijst. Als je je kaart dus gewoon in een slot in je moederbord prikt, zul je een flinke kast moeten hebben om voldoende ruimte te hebben om de bocht met je kabels makkelijk te maken. In de onderstaande tabel zie je hoe breed de kaarten uit de 4000-serie van Nvidia zijn en indien bekend, wat voor adapter is meegeleverd.

Twee effectievere oplossingen zijn het gebruik van een riser of een voeding met 'native' 12+4-pinsstekkers. In het eerste geval kun je zonder je kabels te forceren een flauwe bocht maken met je videokaartvoeding. En in het tweede geval ontloop je het gedoe met ondeugdelijke adapters, of de twijfel daarover, door een geschikte voeding te gebruiken. Enige nadeel aan dat laatste is dat er slechts een handjevol van dat soort voedingen verkrijgbaar is. Bovendien zijn die voedingen bepaald niet goedkoop. Inmiddels zijn echter ook de eerste meldingen gesignaleerd van ATX 3.0-voedingen, mét native 12Vhpwr-connector, die eveneens last van gesmolten stekkers hebben. Een lekker brede behuizing is dus het devies, al dan niet gecombineerd met een riser-adapter of een voeding met native 12+4-pinskabels. Een laatste optie zou een haakse adapter kunnen zijn. Webwinkel CableMod werkt aan dergelijke adapters die het buigen van kabels overbodig moeten maken.

Lees meer

Reacties (72)

72
71
30
5
0
35
Wijzig sortering
Amphenol geeft zelf 9A per pin aan in de echte 12VHPWR connector
https://www.amphenol-cs.c...nitek-pwr-cem-5-pcie.html
Grove fout in het artikel: de 12VHPWR is niet de Micro-fit van Molex. Het is deze, van Amphenol: https://www.amphenol-cs.c...itek-pwr-cem-5-pcie.html#

Het hele probleem is juist dat Amphenol (en Nvidia, en Intel) alle veiligheidsmarges die bij de PCIe (Molex Mini-fit) stekkers gehanteerd worden uit het raam hebben gegooid; en de marges die Molex hanteert ten opzichte van Amphenol zijn ook al vele malen lager. 12-pin Micro-fit is goed voor 5,5A per pin, niet 9,5A zoals dit onding. Zelfs voor de "grote" mini-fit hanteert Molex maximaal 9A; en dat is dan bij een 2- of 3-pins stekker, met AWG 16 of 18.

En waar de PCIe specs voor de 6- en 8-pins stekker zelfs in het ergste geval 60% van de Molex spec hanteren (8-pins is 150W max volgens PCIe spec; Molex spec zegt met 3 pinnen 252W), ligt de spec voor deze stekker op 88% van het maximum (600W tegenover 684W als max).
Op de meeste van die foto's lijkt het niet de connectie met de kabel te zijn die het issue is maar de punten die het warmst worden lijken de connectie zelf tussen pin en socket.

Mijn theorie:
Die 12 pin connector is gewoon niet geschikt voor high power. Die microfit pinnen zijn veel te fragiel, het moment dat er een beetje stress op de kabel komt zorgt dat die pinnen een beetje verbuigen in het socket. Gevolg is dat de contact oppervlakte gehalveerd word, de contact druk word ook minder en de weerstand van de connectie neemt toe. Hierdoor gaan die verbindingen warm worden en smelten de behuizingen.

Als nvidia een echte high power/current connector had gebruikt, dan had dit issue er niet geweest. Ik denk ook dat als die kaart 1600 euro kost(optimistisch geteld) dan mag er wel een degelijke, stevigere connector gebruikt worden.

De toekomst zit dus ook niet in deze connector. Misschien moeten ze voor deze vermogen klasse naar echte high power connectoren gaan kijken, zoveel groter of duurder zijn die ook niet. Kijk maar naar de ELCON MINI van TE. Ik heb de 3p versie gebruikt, 35A per pin. Veel groter contact oppervlak, meer contact druk. Als ze daar een custom versie van maken voor gpus dan zijn die brandende kabels verledentijd. 4 pinnen aan 35A (2pinnen gnd, 2 power) is 840W totaal. En dat is conservatief geschat want de limiet van die connector ligt op 40A/pin.

Tldr: dure kaart + cheap connector= firehazard. Een andere, beter geschikte connector had op zijn plaats geweest voor die prijs.
De connector is prima en het heeft niets met buigen te maken, de connector moet goed ingeplugged zijn. Het schijnt een hele strakke connector te zijn die je echt goed moet aanduwen.

https://youtu.be/hkN81jRaupA

Ik wed dat alle gevallen van smelten te maken hebben met niet volledig ingeplugde connectoren.
Wanneer er zoveel ruimte is voor user-error is het eigenlijk een design-error. Dit is brandgevaarlijk en zal mogelijk niet voldoen aan het CE keurmerk.

Maar IMHO de grootste designflauw van ATX3.0 is het gebruik van 12V voor de hpwr-connector.
Met een aparte rail van 24 of zelfs 48 volt is er veel minder dikke kabel nodig. Maar dan heb je per definitie een nieuwe voeding nodig en dat gaat je uiteindelijk weer klanten kosten.
Ze hebben meer vermogen nodig en het eerste wat ze doen is de connector kleiner maken, zeer slim :+
Ik snap niet zo goed waarom er zoveel kabeltjes nodig zijn voor een simpele +12V en ground.

6x 12V en 6x ground. Dat kan ook met 1x 12v 1x ground met barrel jack of bulletconnector en dan 14-12AWG oid.

Het zit eigenlijk altijd toch op dezelfde rail intern.
Het laten landen op het PCB is wel lastiger. Je hebt maar 1 plek waar elke pin van een connector op het bord aankomt. 35+ Ampere (450W @ 12v) door een trace laten lopen is al best wel lastig, maar om dat ook nog zo'n klein stukje bord aan te laten komen is niet praktisch.
Maar dat kan gedaan worden met meerdere traces die vanaf 1 grote pad afkomen.

Een andere oplossing is iets als 48v. Dan heb je een kwart aan stroomsterkte nodig, maar wel weer andere stepdown converters.
Maar dan zit je nog steeds met 50A door een enkele connector/pad, dat is pas vragen om problemen...

Zelfs met een banaan stekker gaat dat niet. Voor dat soort stromen moet je echt naar zware press-fit connectors, zoals deze voor een ring oog, waarbij er 12 punten die een PCB geperst worden.

48V naar 0.85V of waar de GPU ook op draait is een stuk minder efficiënt, dan zal je nog meer stroom aan de videokaart moeten leveren. Dan krijg je weer probleem met warmte...
NVidia kan wat posities voor elektrotechnisch ingenieur opengooien. Wat een prutserij.

Nog slimmer zou zijn eens na te denken over iets anders dan 12V. Dat is een enorm probleem als je honderden watts wil geleiden. Waarom geen 48V? 230V passthrough? Als je toch van stekker veranderd, had je het ook goed kunnen doen.
Nog slimmer zou zijn eens na te denken over iets anders dan 12V. ... 230V passthrough?
Eeh... Wil je dan een complete voeding op de videokaart monteren die die 250V wisselspanning terugbrengt naar 1V gelijkspanning of lager?
Lijkt me helemaal niet slim.
En 500W+ over een 12V kabel sturen wel?
En 500W+ over een 12V kabel sturen wel?
Dat is niet wat er gebeurt. Die 500W wordt over meerdere kabels verdeelt, zoals je in het artikel kon lezen.

Verder zie ik geen probleem. De voeding, kabel en stekker moeten gewoon goed ontworpen worden en niet buiten spec worden geimplementeerd.

En 240V wisselspanning naar de kaart sturen is totale onzin.
> Die 500W wordt over meerdere kabels verdeelt, zoals je in het artikel kon lezen.

Van wat ik begrijp zijn die in praktijk elektrisch verbonden... Juist.

> En 240V wisselspanning naar de kaart sturen is totale onzin.

Want? Wanneer een 'coprocessor' meer vermogen vraagt dan de rest van het systeem bij elkaar, is een eigen omvormer geen gek idee. Of in elk geval een betere herziening dan ever-more-12V kabels.
> Die 500W wordt over meerdere kabels verdeelt, zoals je in het artikel kon lezen.

Van wat ik begrijp zijn die in praktijk elektrisch verbonden... Juist.
Dus 500W over meerdere kabels, niet over "een" kabel.
(wat nog niet wil zeggen dat het een goed idee is)
Tenminste 1 geval, waarin de kabels elektrische verbonden waren,verdubbelde dus de stroom toen 1 van de kabels geen contact maakte. Of dit buiten spec is weet ik niet, maar in elk geval is kleine slechte prutscontactjes icm tientallen ampere's over een aantal identieke kabels vragen om zulke failure modes...
idd, het is vragen om problemen.
Van wat ik begrijp zijn die in praktijk elektrisch verbonden... Juist.
Dat maakt voor het transport van electriciteit van de voeding naar de kaart geen bal uit.
Want?
Want een omvormer met dat vermogen is best wel groot. Reken er maar op dat je kaart dan minstens dubbel zo dik wordt.
En sowiso wil je niet dat 240v ook maar in de buurt van je databussen zit etc. Een klein foutje in de kaart en je hele pc is doorgebrand.
Wanneer een 'coprocessor' meer vermogen vraagt dan de rest van het systeem bij elkaar, is een eigen omvormer geen gek idee.
Die zou ik dan zeker niet op de kaart zelf willen maar ergens anders in het systeem. En dan moet je toch weet met kabels naar de kaart toe.
Maar goed, de kabels zijn helemaal niet het probleem. Het probleem in dit artikel wordt veroorzaakt door slechte engineering en niet omdat de kabels nou zo'n slechte oplossing zijn.
Elektrisch verbonden kabels zijn per definitie een potentieel point of failure, want zonder stroombegrenzer kan, zoals in een van de gevallen gebeurde, de stroom over 1 kabel en contact komen te lopen. Dit is een uitstekende casus voor slechte engineering dus.

Een stoppenkastje op je kaart neemt ook ruimte in beslag :P
Het moederbord alleen 12V laten eten zodat de voeding simpeler kan lukt al niet (alleen in zakelijke omgevingen, niet voor consumenten), en dat is al een idee sinds 2011 (minstens). Eventjes overstappen naar een ander voltage gaat hem dan al helemaal niet worden. Zeker niet omdat, laten we wel wezen, het stroomverbruik van de huidige GPU's onredelijke vormen aan heeft genomen, en de oplossing dan niet zou moeten zijn om de hele PC dan maar te herontwerpen om dat te ondersteunen.
230V wisselspanning in de buurt van datalijnen met de doorvoersnelheden van een videokaart is vragen om storingen...
Dat komt natuurlijk dan ook helemaal niet in de buurt van elkaar, sterker nog, dat mag niet eens als je essentiële keurmerken op je product wil hebben. De gangbare oplossing is een apart, dubbel geïsoleerd HV bord.
Dat lost nog steeds de elektromagnetische interferentie van wisselspanning niet op. Tenzij je het heel goed afschermt en isoleert, met een metalen behuizing eromheen enzo... Maar dan ben je gewoon een full-blown voeding op een videokaart aan het bouwen. Dus dat lijkt mij een beetje een zinloze onderneming. ;)

Het verhogen van de spanning naar 24V zou nog een zinvolle stap kunnen zijn. Sterker nog: daarmee sluit de computermarkt aan op vrijwel de volledige industriële aansturingstechniek, want vrijwel alle regelkasten werken met 24VDC. 24V is ook de hoogst mogelijke spanning voordat je een flinke verandering moet ondergaan omdat alles boven 24V(DC) niet meer "ongevaarlijk" is (in de zin dat 48VDC door je lichaam heen echt al wel voelbaar en pijnlijk kan zijn).
> Maar dan ben je gewoon een full-blown voeding op een videokaart aan het bouwen. Dus dat lijkt mij een beetje een zinloze onderneming.

Mij juist niet. Dit soort GPU drinkt doorgaans minstens de helft van het vermogensbudget op. Dan moeten we echt nadenken over nog maar weer een paar 12V kabels op dezelfde rail aan te sluiten. 500W over 12V is pas echt superdom. Een ATX-like dedicated connector is een goed idee, als je geen eigen voeding wil hebben, maar met zulke vermogens moet je gewoon af van 12V. There's no two ways about it.

48V of 24V zijn ook goede ideeen. Het voordeel van een aparte voeding is dat we niet nog eens tegen dit soort problemen aan kunnen lopen, 230V transport kan prima afgeschermd zulke vermogens (en meer) leveren, en dan kan de kaartenbakker zelf uitzoeken hoe en naar wat ze omvormen.
> 500W over 12V is pas echt superdom.

Dat valt wel mee. 500W door deze kleine flutstekkertjes heen verplaatsen is echt superdom.

500W met 12V betekent dat er ongeveer 40A aan stroom door de kabel moet kunnen lopen. Dat is een grote stroom, maar niet ongekend. Een XT90-stekker, zoals die veel op LiPo-accupacks zit, is bijvoorbeeld geschikt voor 40A per contactpunt. Combineer dat met een 10mm² kabel en je hebt gewoon een prima geschikte manier om 500W op 12V met kabels en connectors naar je videokaart te loodsen. Dat zou trouwens nog goedkoper zijn ook, want één 10mm² kabelpaar van dezelfde lengte bevat evenveel koper als 16 1,3mm² (16AWG) kabels zoals die in twee 8-pins connectors worden gebruikt, maar je hebt wel een stekker en kabel waarmee 500W kan worden verplaatst i.p.v. de 300W die nu met een 8-pins stekker kan worden verplaatst.

Maak er voor de veiligheid twee kabelparen van met een dikte van 6mm² van met twee XT90 stekkers, zodat de stekkers een 100% veiligheidsmarge hebben en de kabels ruim binnen de marge vallen, et voila: ik kan op een woensdagochtend een betere standaard bedenken dan deze 12Vhpwr stekker.

> 48V of 24V zijn ook goede ideeen

48V is juist geen haalbaar idee, want dan kom je in een domein met een heel ander soort regels. 48V mag bijvoorbeeld niet aangeraakt kunnen worden. PoE gebruikt 48V, maar levert dat wel pas nadat de verbinding tussen twee apparaten is bevestigd. Je kunt dus niet je vinger in een RJ45-contact steken en 48V op je vinger krijgen. Dat maakt 48V al ongeschikt voor computers, omdat de gebruikte stekkers de contactpunten onvoldoende afschermen om aanraking te voorkomen. Je zou, om dat op te lossen, net als PoE eerst de voeding en videokaart met elkaar kunnen laten communiceren voordat er 48V op de lijn wordt gezet, maar dan ontstaat er een ander probleem, want met de 75W die een PCIe slot levert gaat een 4090 niet kunnen opstarten. Je hebt dan dus alsnog een hoeveelheid vermogen nodig die niet op 48V wordt geleverd, voordat je over kan schakelen op vol vermogen via 48V. Dan valt het voordeel weg.

230V passthrough is daarom al helemaal een gevaarlijk idee. Ik moet er niet aan denken dat er een geleider los in mijn kast hangt waar live 230V op staat. Want als je nou een voeding hebt met die passthrough, en je hebt een videokaart die de 230V passthrough niet nodig heeft, wat dan? Hoe voorkom je met zekerheid dat die 230V niet voor gevaarlijke situaties gaat zorgen? En de stekkers die voor 230V zijn goedgekeurd zijn enorm groot en lomp, niet iets waarvoor plek is in een beetje computerkast.

Een andere oplossing die niet mag zou zijn om een eigen videokaart te voorzien van een eigen C13 stekker, zo'n stekker die je gebruikt om de voeding aan de 230V te hangen. Maar met twee aparte stekkers kan je twee aparte stopcontacten gebruiken, en heb je dus het risico dat er twee aparte fases worden gebruikt. Dat is ook absoluut geen verstandig idee. En bovendien ben je dan weer dubbel werk aan het doen, want je krijgt dan weer twee losse voedingen, eentje voor de videokaart, en een voor de rest van het systeem. Tweemaal de componenten.

Oh en voedingen en videokaarten bouwen zijn geen vergelijkbare elektrotechnische taken. Videokaarten is signaaltechniek: vooral ervoor zorgen dat je gegevens precies op tijd ergens aankomen. Videokaartbouwers hebben zich nog nooit druk hoeven maken over gevaarlijke spanningen die fataal kunnen zijn voor de eindgebruiker. Ik denk niet dat we dit moeten willen, en ik denk al helemaal niet dat videokaartbouwers hierop zitten te wachten.

Als productontwikkelaar moet je er altijd vanuit gaan dat de eindgebruiker de meest idiote dingen gaat doen met je product. Dus ga er gerust vanuit dat de gebruiker de stekker in het stopcontact doet en vervolgens de voedingsstekkers van de videokaart in mijn mond doet. Als ontwikkelaar moet je ervoor zorgen dat dergelijke scenario's veilig zijn, of onmogelijk worden gemaakt. Dat kan door de contactpunten heel diep weg te stoppen dat ze niet aangeraakt kunnen worden, of ervoor te zorgen dat er geen gevaarlijke situaties ontstaan zolang er niet met zekerheid kan worden gezegd dat de situatie veilig is (zoals met PoE). Zelfs dan heb je nog geen zekerheid overigens: het standaard stopcontact is onvoldoende beschermd tegen het prikken in de gaten met geleidende voorwerpen. PoE kan nog steeds voor gevaarlijke situaties zorgen als er schade aan de isolatie van de kabel zit en de 48V bloot komt te liggen buiten de twee uitersten van de kabel.

[Reactie gewijzigd door naarden 4ever op 22 juli 2024 13:36]

> 500W met 12V betekent dat er ongeveer 40A aan stroom door de kabel moet kunnen lopen.

Daarmee treed je toch steeds verder (en wmb te ver) buiten de typische signaaltechniek die op borden nodig is. 40A is een enorm probleem, zeker als je ze over elektrisch verbonden kabels leidt (geen enkele connector stuurt the 40A over 1 kabel tenslotte). Als je bedenkt dat het niet de enige GPU hoeft te zijn, de CPU('s) er ook nog zijn, dat 500W misschien niet het eind is van de toename van vermogen, dan vind ik 100A+ uit 1 voeding trekken toch een dubieuze keuze, niet alleen met deze bizar slechte connectoren. XT90 is een goeie, waarom niet. Hoe dan ook, bij een rethink snap ik niet dat er zo vast aan die 12V wordt vastgehouden.

230V circuits zijn prima fysiek te isoleren, gewoon een apart doosje op de GPU. Ja, het is extra werk, maar wel oneindig flexibel. Als je een eigen netstekker niet wil, kun je denken aan een reguliere mickey mouse connectors, vind ik niet bizar groot (volgens mij kleiner dan de rits die er nu in mijn pre 12Vhpwr kaart steekt), gedaisy-chained op de reguliere voeding (die passthrough doet).
Inmiddels zijn echter ook de eerste meldingen gesignaleerd van ATX 3.0-voedingen, mét native 12Vhpwr-connector, die eveneens last van gesmolten stekkers hebben.
Ah, deze zag ik niet aankomen ! Van alle verhalen die ik tot nu toe over dit probleem gelezen had kreeg ik sterk de indruk dat dit opgelost zou worden door "gewoon" een ATX 3.0-voeding mét native 12Vhpwr-connector te gebruiken i.p.v. zo'n gammele adapter. Het probleem zit dus dieper dan het leek. Ik ben benieuwd hoe dit dan verder moet…
Versie 2 van de stekker met grotere pinnen
Pinnen zijn prima er zou eigenlijk een clip links en rechts van de connector moeten zitten i.p.v. eentje bovenop.

Video onder laat duidelijk zien dat niet volledig aansluiten het probleem is.

https://youtu.be/hkN81jRaupA
Het lijkt erop dat dit voorkomt als alles precies goed misgaat. De kabel van de adapter moet flink gebogen zijn, zodat de buitenste pinnen van de connector minder goed of geen contact maken. De resterende pinnen moeten dan meer vermogen transporteren, waardoor ze buiten hun specificaties gaan.
Dit klinkt ook alsof er niet lang en uitgebreid genoeg getest is. Als ze 20 mensen van een andere afdeling hadden gevraagd om in een aantal verschillende systemen zo lomp mogelijk deze kabel te installeren, en er vervolgens een stresstest op hadden gedraaid, waren ze er waarschijnlijk achter gekomen.

Het klinkt verder ook alsof de elektrische specificatie op orde is (wellicht met (te) kleine marges), maar dit een mechanisch / aansturingen probleem is. Ofwel de stekker moet herontworpen worden dat alle pinnen praktisch altijd contact maken (met veel kleinere toleranties dan nu), of er moet herkent kunnen worden dat een pin niet goed contact maakt waardoor automatisch het vermogen verlaagd wordt.
Nvidia heeft naar eigen zeggen 100000 RTX 4090s verkocht en er zijn er tientallen bekend met problemen. Dat klinkt als veel maar is vrijwel niks. Meerdere youtubers, reviewers, etc hebben de boel onderzocht. Men heeft kabels verkeerd erin gedaan, half los, expres kabels en connectors gesloopt, noem het maar op. Niemand heeft het na kunnen spelen tot nu toe.

Dat is dan ook niet iets dat je even met 10 man had kunnen testen en vinden.

Het blijft afwachten wat er nou echt mis gaat.
Wat er mis gaat is dat de stekker erg strak is en best wat kracht nodig heeft om er volledig in te steken.

Met de stekker is niets mis die kan wel 1500 watt hebben zoals te zien is in de video hier onder. Maar zodra hij niet volledig is aangesloten onstaat er een voltage drop en loopt de temperatuur rap op.

https://youtu.be/hkN81jRaupA
"slechte batch adapters en de 12VHPWR niet goed genoeg in de videokaart gestoken. "

Dit is ook mijn idee van wat het probleem op dit moment is.

Ik gebruik nu ook de meegeleverde nvidia adapter zonder problemen, geen teken van schade na urenlange game sessies op 100% power limit.

De heren van TecLab hebben 1400w door de adapter gejaagd, hebben de adapters wreed mishandelt maar met normaal gebruik was er geen probleem. Ook hun conclusie was precies hetzelfde:
"slechte batch adapters en de 12VHPWR niet goed genoeg in de videokaart gestoken. "

Totdat nvidia of pci-sig met een recall / ontwerpfout in de adapters komen, kunnen we niet meer stellen.
Videokaarten en voedingen blijven consumentenproducten en die moeten foolproof ontworpen worden. Terwijl het in gebruik nemen van alle andere consumenten elektronica steeds eenvoudiger is geworden zien we het tegenovergestelde bij computers.

Anno 2022 moet apparatuur die zichzelf opblaast als een stekker niet goed vast zit niet meer op de markt komen. En dat zeg ik als ervaren PC hobbyist die er zijn hand niet voor omdraait om een CPU te delidden.
Iets écht foolproof ontwerpen is echter verschrikkelijk moeilijk, want er zijn altijd fools te vinden die ondanks alle waarschuwingen / instructies het alsnog fout weten te doen. Ik kan een magnetron kopen en de stekker half in het stopcontact hangen bijvoorbeeld. Natuurlijk is een 12vhpwr stekker in een gpu iets anders dan een stekker in het stopcontact, maar van een DIY pc builder zou je meer mogen verwachten dan de gemiddelde magnetron gebruiker. Maar wat mag je dan precies verwachten? Wanneer is iemand een fool en wanneer is het product slecht ontworpen?

Jij delid CPUs dus jij zit ergens bovenin de boom. Ik bungel ergens halvewege, maar hoe staat het er dan voor met de mensen die nog met één been op de grond staan? Welke handelingen kunnen zij verkeerd uitvoeren en moet je daar nog rekening mee houden? Iets basics als een stekker niet goed in de connector steken zodat deze niet goed verzekerd is en er dus 0.1mm uit kan schuiven wat, vermoedelijk, tot smelterij leidt. Moeilijke kwestie of dat user error is of een ontwerpfout. Ik kan er geen antwoord op geven.

Dit filmpje van TEcLab laat trouwens goed zien wat een 'normale' adapter eigenlijk allemaal wel niet kan hebben en toch nog goed functioneren. Je zal alleen maar een 'slecht gebouwde' adapter hebben en dan moet je schadeloos gesteld worden.

[Reactie gewijzigd door Zuvio op 22 juli 2024 13:36]

"slechte batch adapters en de 12VHPWR niet goed genoeg in de videokaart gestoken. "

Dit is ook mijn idee van wat het probleem op dit moment is.
Meer fundamenteel is dat te veel draden worden gesoldeerd op een pin die is ontworpen voor hooguit twee dunnere draden. Dat is gewoon mechanisch en dus elektrisch niet veilig.

Alleen al het feit dat je de draden bij de connector niet te ver moet buigen - maar dat wel kan doen (en wat is precies "te ver"?) - is een rode vlag. Maak dan een connector waarbij de draden niet op zo'n korte afstand te ver kunnen buigen, maar dat zal in veel PC's niet passen... Maw: de bestaande standaard is te ver opgerekt in een poging te voldoen aan de vraag naar meer performance.
Het heeft i.d.d. te maken met niet goed aangesloten.

https://youtu.be/hkN81jRaupA

Zelfs bij voltage drop van 0.15v loopt de temperatuur al heel snel op.

[Reactie gewijzigd door TheDeeGee op 22 juli 2024 13:36]

Is vind het eigenlijk wel een aardig idee om een externe laptop-achtige voeding op een graka aan te sluiten. Een graka zou zonder externe voeding in een soort gelimiteerde modus kunnen draaien waardoor normaal desktop gebruik mogelijk is. Voor gebruik bij zware taken kan dan de powerbrick aangesloten worden. Je voorkomt de problemen die in het artikel genoemd worden en de al aanwezige psu in het systeem kan gewoon blijven zitten als die niet krachtig genoeg is voor een gpu.

[Reactie gewijzigd door oef! op 22 juli 2024 13:36]

Dat is een (lelijke) oplossing voor een probleem wat door de fabrikant is ontstaan.
Als ze de stekker wat robuster maken met een snufje foolproofness, zijn de meeste problemen wel opgelost.
Daarnaast is het ook absurd dat een GPU zoveel stroom nodig heeft. Wat mij betreft moet de volgende generatie qua prestaties min of meer gelijk zijn aan de 40xx, maar qua verbruik een stuk lager.
Ik ben het met je eens dat het stroomverbruik waanzin is. Maar als het verbruik van een graka dat van een complete pc overtreft dan wordt een tweede psu een optie. Qua lelijkheid maakt het me niet uit. De achterkant van mijn pc is toch al een kabeldrama, één extra kabel maakt me dan ook niet meer uit.
1 kabel extra? Die GPU draait niet op 220v.
Er moet dan een power brick komen, en als deze >600 watt moet leveren, is dat een behoorlijk blok.
Waarschijnlijk is een 1200 watt voeding goedkoper. (t.o.v. een 450 watt voeding pc + 750 watt voeding gpu)
Tja... maar zit het echte probleem niet ergens anders? Kaarten met 400W verbruik zouden eigenlijk verboden moeten zijn voor consumenten. Wedden dat dan Nvidia en AMD ons ook best gelukkig weten te maken met kaarten onder dat vermogen?

Puur technisch gezien zou ik dan b.v. voor een 48V kabel gaan. >500W bij 12 V kan wel @Zuvio , maar is eigenlijk vragen om problemen.
Wedden dat dan Nvidia en AMD ons ook best gelukkig weten te maken met kaarten onder dat vermogen?
LTT heeft al gedemonstreerd dat door de powerlimit te verlagen en een beetje undervolten een 4090 kan draaien op een 650W voeding, en daarbij minder dan 10% performance inlevert. https://www.youtube.com/watch?v=yU4CFhtS95Q
Dank je voor de link. Maar waarom zet nvidia dan niet standaard het vermogen lager? Ik denk dat Linus' laatste opmerking spot-on was: bij deze lukte het, maar het is bepaald geen gegeven dat elke videokaart dit soort dingen haalt....

Op dit item kan niet meer gereageerd worden.