AMD gebruikt geen omstreden 12Vhpwr-connector voor RDNA 3-gpu's

AMD is niet van plan om de omstreden 12Vhpwr-connector te gebruiken voor de stroomvoorziening van aankomende Radeon RX 6000- en daaropvolgende RDNA 3-gpu's. De PCIe 5.0-aansluiting wordt momenteel in de RTX 4090 gebruikt en zou in enkele gevallen smelten.

De betreffende aankomende videokaarten binnen de Radeon RX 6000- en de vermoedelijke Radeon RX 7000-serie krijgen een andere manier van stroomtoevoer, bevestigt Radeon-topman Scott Herkelman op Twitter. Hij reageert op de berichtgeving van voormalig HardOCP-eigenaar en Intel-medewerker Kyle Bennett, die deze informatie al eerder wist te melden op basis van anonieme bronnen.

RTX 4090
De GeForce RTX 4090 gebruikt een enkele 12Vhpwr-connector
voor zijn stroomtoevoer

Voor nieuwe premium videokaarten is in veel gevallen een aanzienlijk hoger vermogen nodig dan momenteel gebruikelijk is. De ATX 3.0-specificaties van Intel voldoen aan deze hogere eisen en de 12Vhpwr-connector is op die specs gebaseerd. De betreffende stroomtoevoer kan tot 600W via een enkele kabel leveren aan de gpu. AMD gebruikt een andere manier van stroomlevering, waarschijnlijk simpelweg de huidige standaard, namelijk meerdere 8-pin-aansluitingen met maximaal 150 watt per kabel. Dat heeft Herkelman overigens vooralsnog niet officieel bevestigd.

Zover bekend is de beslissing van AMD Radeon om geen nieuwe 12Vhpwr-aansluiting te gebruiken niet gebaseerd op recente berichten over het smelten van deze connector. Op het moment van schrijven zijn er slechts enkele gevallen bekend waarbij de meegeleverde 16-pin-adapter voor de RTX 4090 smolt, zo schreef Tom's Hardware. Het gaat om niet-geverifieerde incidenten; het is bijvoorbeeld niet duidelijk of de betrokkenen de kabels goed aangesloten hebben en of er ondersteunde hardware is gebruikt. Nvidia doet onderzoek naar de voorvallen.

Door Yannick Spinner

Redacteur

26-10-2022 • 10:19

133

Submitter: M_K_

Lees meer

Reacties (133)

Sorteer op:

Weergave:

Het gaat om niet geverifieerde incidenten; het is bijvoorbeeld niet duidelijk of de betrokkenen de kabels goed aangesloten hebben en of er ondersteunde hardware is gebruikt.
En daar zal het wel weer op neer worden gegooid. Als je deze iets langdradige video bekijkt over een incident, dan is dat IMO een redelijke gok waar de gesmolten stekkers/kabels vandaan komen. Het is blijkbaar strict noodzakelijk dat je de kabel recht uit de connector aansluiting laat lopen om de kans dat de crimpcontacten een slechte verbinding maken (met hogere contactweerstand en veel hitte), te minimaliseren.

Is dat user error? Technisch gezien wel als het staat beschreven in de handleiding. Aan de andere kant zou een fabrikant de stupiditeiten van gebruikers voor moeten zijn. Daarom zijn CPU 8-pin en GPU 8-pin power connectors anders gekey'ed, ondanks dat ze beide een paar 12V/GND aders bevatten voor hetzelfde doel. Waarschijnlijk met genoeg brute kracht kan je de connectors wel verwisselen en de boel opblazen, maar daar heb je dan meer bad-actor gedrag voor nodig dan een kabel-adapter die beetje 'hangt' in je kast.

De keuze om en meer power, en minder pinnen, en kleinere pin contacten te gebruiken voor een nieuwe connector draagt niet echt bij aan het vertrouwen van deze nieuwe standaard.

[Reactie gewijzigd door Hans1990 op 24 juli 2024 21:15]

Is dat user error? Technisch gezien wel als het staat beschreven in de handleiding. Aan de andere kant zou een fabrikant de stupiditeiten van gebruikers voor moeten zijn. Daarom zijn CPU 8-pin en GPU 8-pin power connectors anders gekey'ed, ondanks dat ze beide een paar 12V/GND aders bevatten voor hetzelfde doel. Waarschijnlijk met genoeg brute kracht kan je de connectors wel verwisselen en de boel opblazen, maar daar heb je dan meer bad-actor gedrag voor nodig dan een kabel-adapter die beetje 'hangt' in je kast.
Hier maak je een heel goed punt, waardoor ik ook zelf vind dat je niet mag spreken van user error, als er niet redelijkerwijs in het ontwerp moeite is gedaan om de fout te voorkomen. En in dit geval, zoals al aangegeven door andere reacties hier, is het praktisch onmogelijk voor een normale gebruiker met een standaard case+mobo om te voldoen aan de 35mm rechte kabel voor de bocht, omdat de 4090 zo lomp is dat daar geen ruimte voor is.

De veelgebruikte term hiervoor, geboren vanuit het Toyota Manufacturing System, is Wikipedia: Poka-yoke. Dat komt er simpel gezegd op neer dat je ontwerp, in dit geval van de connector, zodanig moet zijn dat het ontwerp je op gebruiksfouten wijst of ze voorkomt. Het verschil in de vorm van de CPU 8-pin en GPU 8-pin connector is een uitstekend voorbeeld van een control Poka-yoke.

In het geval van de 12VHPWR aansluiting op de 4090 is er geen enkel aspect van het ontwerp dat voorkomt of waarschuwt voor een te vroege buiging van de kabel. Sterker nog, zoals genoemd zullen de meeste gebruikers de kabel te vroeg moeten buigen om alles passend te krijgen in de kast, en dat zal iedereen dus ook doen.

[Reactie gewijzigd door Migrator op 24 juli 2024 21:15]

addendum met betrekking tot Poka-yoke:
Poka-yoke moet je zien als 'het redelijkerwijs voorkomen van fouten'.

Denk: slagbomen bij een spoorweg overgang.
De 'mindere' mate van bescherming zou zijn een stoplicht of waarschuwingsbord.. maar waar mensen dus nog wel degelijk midden op het spoor kunnen gaan staan als er een trein aankomt. :+
Vind dat zelf altijd wel een mooi voorbeeld voor het verschil. De slagbomen zijn écht Poka-yoke, de waarschuwingsborden niet.

In dit geval is dit dus een goed voorbeeld van iets wat NIET echt poka-yoke is. Men weet dondersgoed dat het eerste beste ding wat men doet wanneer ze de PCI-E stroomkabels in hun GPU pluggen is om deze zo strak mogelijk om te buigen t.b.v. netheid en kabelmanagement.

Poka-yoke gaat om het redelijkerwijs afvangen van fouten. De mate van bescherming moet evenredig zijn aan de impact. Een smeltende kabel is nogal een fors en gevaarlijk defect, dus mijns inziens is een statement ergens in een voorschrift dat ze 35mm recht uit moeten steken zeer zeker niet afdoende in de spirit van Poka-yoke.

[Reactie gewijzigd door Ayporos op 24 juli 2024 21:15]

Het is een kolossale blunder van ontwerpers die een niet-bestaand probleem dachten op te moeten lossen. Namelijk stroomvoorziening die prima met traditionele PCIe aux power zou kunnen.

Die 4 stekkers, waarvan er overigens maar 3 6+2-pins hoeven te zijn (de PCIe-slot levert al 75w dus een 6-pins als 4e connector is prima) leveren geen technische problemen op, zelfs in een redelijk krappe behuizing kun je 4 GPU-kabels aansluiten (het is me gelukt in een Cooler Master MB511 met een 2x 290X Crossfire setup waarbij ik 4 aparte, dus niet die aan het uiteinde gesplitte, PSU-kabels gebruikte) en het enige waar je dan tegenaan loopt is dat je een ruimere kast zoals een O11 Dynamic o.i.d. nodig hebt als je echt voor de optiek wil gaan en niet alleen de kabels gerouted moet krijgen maar ook extensions aanbrengen, en die buiten zicht aansluiten aan de PSU-kabels.

Wat is de prijs van een O11 Dynamic of andere wat meer high end mid tower kast nou vergeleken met een 4090? Traditionele PCIe aux connectors zijn oersterk en bovendien spotgoeiekoop. En een vierbaans rij extension cables zou ook vanuit optisch oogpunt vet zijn, mits goed gedaan, net zoals dat met 3 banen kabels bij bestaande high end GPU's het geval is.

[Reactie gewijzigd door Pianist1985 op 24 juli 2024 21:15]

Klinkt als design by management, een walgelijke ontwikkeling dat ik zelf steeds vaker tegenkom en mij betreft Agile manier van werken hier het debet aan heeft.
Het is blijkbaar strict noodzakelijk dat je de kabel recht uit de connector aansluiting laat lopen om de kans dat de crimpcontacten een slechte verbinding maken (met hogere contactweerstand en veel hitte), te minimaliseren.

Is dat user error? Technisch gezien wel als het staat beschreven in de handleiding. Aan de andere kant zou een fabrikant de stupiditeiten van gebruikers voor moeten zijn.
In principe is het natuurlijk ook bijna onmogelijk om de connector een paar mm uit te laten steken voordat je m buigt omdat je in de meeste gevallen tegen je side pannel zit. Had Nvidia nou de connector maar naar beneden laten kijken (of de cablemod right angle adapter meegeleverd) of aan de achterkant geplaatst.
is het ook. ik snap niet zo goed waarom ze dat op die manier hebben bedacht. Sowieso poweraansluiting aan de zichtkant en dan zo'n lelijk verloopje meeleveren? Als dat ding intern nou gewoon al met een 90 degree connector kwam scheelde het al een hoop.
De connector aan de achterkant vindt Nvidia niet leuk omdat de kaart dan beter in een serverbehuizing past, dan verkopen ze minder dure Tesla-kaarten.
Het hoeft ook niet per se aan de achterkant. de founders edition kaarten hebben daar namelijk ook helemaal geen PCB zitten dus dan moet je weer met interne verlengkabeltjes werken enzo. sschiet helemaal niet op.

nee het verloopje had gewoon met een 90 degree stekker moeten komen zodat je dan de kabel naar rechts kunt laten lopen zonder gedoe.
Dat hebben ze met opzet niet gedaan, want dan moeten ze de PCB langer maken. Dat zou hun huidige ontwerp om zeep helpen nu ze die fan hebben die niet door een PCB/backplate geblokkeerd wordt.
Oke. Ik heb het niet duidelijk verwoord. Ik doelde op de verloopkabel. Die kun je prima met 90 degree angle uitvoeren.

Dat je het bij de kaart niet heel veel anders kunt doen begrijp ik.
Een andere oplossing zou kunnen zijn om de ATX standaard te veranderen en een extra spanningslijn uit de voeding te laten komen van bijvoorbeeld 24 volt, specifiek voor videokaarten en eventueel de CPU. Natuurlijk wel met een nieuwe aansluiting. (geen standaard EPS en PEG gebruiken om "ongelukjes" te voorkomen icm oudere hardware die hier niet op berekend is)
Volt x Ampere = Watt - dus bijvoorbeeld 12 volt 10 ampere = 120 watt, maar 24 volt 5 ampere is ook 120 watt - lager ampere is dunnere kabels, of gewoon 2x zo veel vermogen door dezelfde dikte kabel heen kunnen sturen. Zeker met de huidige ontwikkelingen lijkt mij dit geen overbodige luxe om toekomstbestendig te zijn.
Op de hardware zelf zit altijd nog een VRM die het voltage omlaag schroeft naar een bruikbaar voltage voor de kleinere componenten, deze zou je met wat kleine veranderingen ook gewoon op 24 volt kunnen ontwerpen. Kijk naar industriële systemen en notebooks, die kunnen ook met een hogere spanning overweg.

[Reactie gewijzigd door PolarBytes op 24 juli 2024 21:15]

Dat zou prima een plan kunnen zijn gezien 24 volt ook al een beetje in gebruikt is in servers.

Maar we zijn juist met 5 volt gestopt omdat voedingen dan efficiënter kunnen worden en deze stap zou weer een periode vereisen van voedingen met 12 en 24 volt.
Dat is weliswaar makkelijker dan 5 en 12, want twee rails van 12volt kunnen samen 24volt leveren, maar één rail van 12 volt is gewoon het meest efficiënt.

Wellicht is het beter om te zeggen dat 600watt onderdelen in een PC overdreven zijn, dan hoeven we ook geen andere oplossing te verzinnen voor vier 8-pin aansluitingen.
Een zelfde ontwikkeling zien we ook in auto’s bijvoorbeeld. In veel nieuwe auto’s zie je een 48V netwerk liggen om de amperages niet te ver op te laten lopen en dikke kabels nodig te hebben daarvoor.

Los daarvan vind ik het best wel een faal als te vroeg buigen van een kabel dit soort problemen kan veroorzaken; voor dit soort vermogens zou ik wat meer robuustheid verwachten.
48V is handig voor hybride en elektrische auto's, ineens zijn er daar onderdelen die een relatief zware elektrische pomp of motor nodig hebben omdat het normaal aangesloten zat op een distributie riem.
Dus in auto's is het heel nuttig, maar voor computers is 48 volt teveel, de schakelsnelheid neemt af bij hogere voltages dus voor distributie is het leuk, maar daarna moet je het toch blijven omzetten, uiteindelijk met je CPU van 1,1volt er ook iets mee doen en hoe groter het verschil, hoe minder efficiënt het omzetten.

Ik denk niet dat we het in de zelfbouw wereld gaan zien, boven de 20 volt veranderen de veiligheid eisen, dus 24 volt is eigenlijk al te duur en op 20volt is de winst `maar` 66%, voor een 600watt GPU heb je dan nog steeds drie 8-pin aansluitingen nodig.

Maar er is een sprankje hoop, laptops zitten toch al rond de 20 volt en met 240watt USB-C gaan we 50 volt gebruiken. (Wat met spanningsval neerkomt op, jawel 48 volt!)
48V direct gaan gebruiken had ik ook niet in gedachten. Het ging me vooral om, inderdaad, de distributie van hogere vermogens en als ze het daarna transformeren naar beter bruikbare spanningen is dat helemaal prima.
De electronica in auto's draait ook niet op 48V en ook daar wordt het omlaag getransformeerd; eigenlijk net zoals ons stroomnet in Nederland. Pas waar het nodig is, omlaag transformeren en daarvoor lekker hoog laten die spanning. Dat is efficiënter voor het verbruik ook nog eens.
Niks zeggend. Dat er 5 Tesla’s betrokken zijn bij ongelukken wil niet zeggen dat alle Tesla’s problemen hebben. 5 op 10.000 is heel weinig.
Als koper van een 4090, moet je weten dat je Power Supply moet voldoen aan de extreme eisen van zo’n kaart. Zeker in combinatie met een cpu die in de buurt komt van een 13900k. En daar hoort goede bekabeling ook bij, die moet je niet kopen bij de Aldi.
Probleem wordt ook duidelijk gemaakt door JayzTwoCents: https://www.youtube.com/watch?v=HAZWwwHScaQ

De kabel MOET 35mm recht lopen vanaf de stekker, alvorens een bocht te mogen maken.
Voor ALLE kasten waarbij de kaart horizontaal geplaatst wordt (dat is de standaard), is GEEN ENKELE kast breed genoeg voor deze ruimte
Alleen verticaal geplaatste kaarten hebben deze 35mm ruimte.

Als je eerder een bocht maakt, komt er trekspanning op pinnen te staan en maken ze geen volledig contact meer. Hierdoor geven deze pinnen meer weerstand, dus warmen op en *tada* een probleem.
Ik moest ook meteen aan deze video denken (en voorgaanden over dit onderwerp).

Overigens heb ik me vanaf het begin verwonderd over deze ontwikkeling: GPU's die steeds krachtiger worden en meer stroom trekken, nu tot wel 600W, en tegelijkertijd de kabel&plug reduceren tot zoiets kleins en fragiel als de 12Vhpwr. Liever de oude en vertrouwde 8-pins stekkers, desnoods meerderen om tot het gevraagde vermogen te komen als de kabel of stekker maar niet kapot gaat; if it ain't broke don't fix it.

Gelukkig hoeven we ons van Brandon Bell (Nvidia) geen zorgen te maken: "There's nothing to worry or panic about, it all just works man ;) "
4 PCI-E 8 pin connectors nemen wel heel wat meer ruimte in op de PCB dan de nieuwe connector.

De nieuwe connector:
https://www.techpowerup.c...-edition/images/front.jpg
Of vier keer dit op een rijtje:
https://www.techpowerup.c...g-x-trio/images/front.jpg

Uiteraard maakt dat de keuze niet goed, maar dit zal een grote rol hebben gespeeld in de beslissing.
Mee eens maar het is vooral jammer dat dit nodig is. Slechte trend dat videokaarten straks 600 watt continu kunnen trekken met pieken van 1800 watt. Dit moet je eigenlijk niet willen gezien verduurzamen belangrijker blijft worden. Deze kaarten worden ook ver voorbij hun sweetspot gepushed. In dat opzicht zie ik liever dat we omlaag gaan naar 200-250 watt voor de topmodellen. Ik vond 300 watt al meer dan genoeg vooral ALLEEN de videokaart.
Zoals bij al het andere: de tech-sector zal niet inboeten totdat de wetgever met normen komt waar binnen gebleven moet worden.

Wordt weer hetzelfde lange gezanik als waar we nu uiteindelijk met de verplichte USB-C connector in uitgemond zijn: behefl ist befehl is de enige taal die het grootbedrijf spreekt.
Ja heel leuk dat het minder ruimte in neemt maar je zit nog steeds met een reusachtig koelblok dus die ruimte verlies je sowieso weer.

Het gaat ze gewoon weer om zoveel mogelijk centjes te besparen voor zichzelf met zoveel mogelijk winst. Dit is prima maar dan niet door veiligheid en duurzaamheid overboord te gooien.

Je kan zelf het verschil al zien met de foto's wat meer solide is en de betere keuze had geweest.

Je neemt voor elektra thuis ook niet een kabel die het wattage net aan kan.
De airflow van de FE koeler lust deze door, dus als daar PCB zou zitten, dan zou het huidige ontwerp in z'n volledigheid niet werken. Het is en blijft een designbeslissing.

https://www.techpowerup.c...n/images/disassembly9.jpg
Doelde meer op dat het niet gaat om de kaarten kleiner te maken. Je hebt er immers nog steeds iets zitten en de kaart is dus niet in zijn geheel korter door de pcb.
Voor ALLE kasten waarbij de kaart horizontaal geplaatst wordt (dat is de standaard), is GEEN ENKELE kast breed genoeg voor deze ruimte
Alleen verticaal geplaatste kaarten hebben deze 35mm ruimte
Nergens wordt geschreven dat je ze horizontaal moet mounten, met alle nieuwe eisen en mogelijkheden zou het zomaar kunnen dat ze het niet erg vinden dat enkel een vertical mount er aan voldoet. Dat 90% van de kasten die niet heeft is de user zijn probleem, net zoals 90% van de mensen ook geen 1000W (ATX3.0) voeding heeft. Cru gezegd: het is een niche-product en als je je deze kaart kan permitteren zal je ook wel een nieuwe case of voeding kunnen betalen.
Dus jij gaat een product verkopen, die 90% van de users, niet kan gebruiken? Of net zoals MS met nieuwe eisen voor W11, de user op extra onkosten jaagt en de Ewaste berg maar groter laat worden :F
Het probleem ligt gewoon bij de fabrikant en de ontwerper, die hebben of niet nagedacht hierover, of juist wel en het interesseert ze niet.
Les economie: Het maakt niet uit hoe weinig mensen je product kunnen kopen als je alles verkocht krijgt dat je produceert. Daarom noem ik het ook een niche-product en dat is per definitie niet voor het brede publiek.
Moest dat wel belangrijk zijn, dan zou er geen enkel luxeproduct bestaan.
Met je eens.
Dit product is door zijn prijsklasse al een niche.
Het gros van de markt zal straks kiezen voor een 4060 of 4070.
Een kleiner gedeelde de 4080, en een hele kleine groep de 4090.
Als je het geld hebt voor deze kaart en je bent serieus geïnteresseerd, dan investeer je wel in meer dan alleen de GPU.

Je hebt ten eerste al een nieuwe PSU nodig met de juiste aansluiting, en ik neem aan dat je dan direct ook andere high-end onderdelen voor je systeem wilt.

Al met al investeer je al zodanig veel in je nieuwe setup, dat een ander type kast er eigenlijk ook nog wel bij kan.
Het is echt pure onzin in die video.
In dat filmpje komt men met meerdere bronnen (en ook opinies), incluis gelekte documentatie van corsair (dacht ik, kan ook nvidia zijn) en andere berichten van een werknemer van corsair.

Random persoon op het internet zonder enige vorm van onderbouwing : pure onzin...
Naar 3 meldingen had het net zo goed om andere kabels of wat dan ook kunnen gaan. Ik weet bij mijn eigen videokaart dat er absoluut geen probleem is.
Met een haaks verloopstuk kun je alsnog verticaal monteren in een normale behuizing.

https://store.cablemod.co...hpwr-right-angle-adapter/
En daar hoort goede bekabeling ook bij, die moet je niet kopen bij de Aldi.
De problemen zijn met de kabels die bij de kaart komen.
Vermoedelijk. Dat wordt dus nog uitgezocht. Voor hetzelfde geld is het een user error.
Het is denk ik dan een combinatie van beide. Cablemod heeft hier ook onderzocht en ze concluderen dat je minimimaal een afstand van 35mm van de videokaart moet hebben voordat je de kabel mag buigen om overheat problemen te voorkomen (https://cablemod.com/12vhpwr/). Aangezien dat 4090 kaarten zo groot zijn, is het moeilijk om aan die voorwaarden te voldoen mits je een extra grote pc kast hebben.
Als het in de praktijk onmogelijk is om die kabel aan te sluiten zonder 'm te buigen dan kan je het naar mijn mening geen user error meer noemen.

(Maar dit maakt de situatie dan wel erg zorgelijk)

[Reactie gewijzigd door mjtdevries op 24 juli 2024 21:15]

Dan nog ligt het probleem bij de kabels.

Bij dit soort gevaarlijke situaties moet je kabel dusdanig ontworpen zijn dat user error geen optie meer is. We hebben het hier over brandgevaar, niet zomaar een stukje hardware wat kapot gaat.
Een slecht ontwerp werkt user error in de hand, mee eens. Maar niet élke user error is een fout ontwerp/product. Sommige gebruikers krijgen alles kapot :)

In dit geval denk ik ook aan ontwerpfout. Maar het onderzoek is nog niet afgerond, dus het blijft speculatie.
je ziet letterlijk het half gesmolten nvidia-logo op de kabelconnector staan
Dat betekent niet dat hij door Nvidia is gemaakt, alleen dat hij vóór Nvidia is gemaakt.
en dus door nvidia is geleverd bij de kaart en aan hun QC heeft voldaan. Iets anders zou gewoon ongefundeerde speculatie zijn.
Vermoedelijk. Dat wordt dus nog uitgezocht. Voor hetzelfde geld is het een user error.
Ferroli plofketels waren in principe ook user-error: daar kon volgens de fabrikant heeee---lemaal niets mee fout gaan; als je ze maar netjes elk jaar grondig uit elkaar liet halen en helemaal van top tot bodem professioneel liet reinigen, volgens voorschrift.

Toch vond men het niet zo acceptabel dat die zaak een grote vuurbal kon worden en je huis kon affikken als je die instructies niet helemaal 100% had gevolgd. Vreemd heh?

Overigens worden zulke instructies in de regel niet aan consumenten beschikbaar gesteld en moet je moet maar hopen dat de partij die jij voor ketelonderhoud contracteert ze wel correct voorgelegd krijgt en ook opvolgt. Wat vaak dus ook niet gebeurt, getuige dat steeksproefgewijs bewezen is dat ook grote professionele partijen als Feenstra instructies van de fabrikant niet op hadden gevogld om bepaalde onderdelen van deze ketels te vervangen door beter beveiligde.

Hierin kun je beginnen een parallel te trekken met OEMs die prefab PCs afleveren met kabelmateriaal en voedingen waar op beknibbeld is om de kosten laag te houden en de marges 'commercieel interessant.'
Het probleem is de kabel die je standaard bij de kaart krijgt. Dus de kabel van Nvidia of je OEM zelf. Het gaat hier niet om de power supply of de daarbij geleverde kabels.
De connector wordt al vele jaren gebruikt in de automotive,
En staat daar bekend om de slechte verbindingen en kwaliteit
Jammer dat ze die dan introduceren in computer hardware.
Stond ik destijds ook verbaasd om, er zijn betere alternatieven kwa stekkers
De enige juiste beslissing lijkt mij. Gebruikers moet je niet opzadelen met weinig doordachte producten. Het moet gewoon werken en veilig zijn; en AMD lijkt dat te snappen zoals het hoort.
En dat is exact de reden waarom Nvidia die nieuwe connector juist gebruikt...

Of daar problemen echt mee zijn, we zullen zien. Maar uiteraard ging Nvidia ervanuit dat het werkt en veilig is, want laten we wel wezen, op de oude situatie was ook wel wat af te dingen.
En dat is exact de reden waarom Nvidia die nieuwe connector juist gebruikt...
Er is nog geen enkele voeding op de markt die deze standaard gebruikt (want er zijn ook echt maar iets van 6 videokaarten met deze aansluiting dus voor PSU fabrikanten niet de moeite waard nog) EN Nvidia levert een verloop kabel mee die dusdanig kort is dat er helemaal geen goede mogelijkheden zijn om de connectors goed te verankeren. De verloopkabel is stug en kort terwijl de aansluiting op de kaart klein en relatief fragiel en daar moet dan ook nog een berg standaard PCIe kabels aan gehangen worden.

Vanaf dag 1 hadden veel mensen al kritiek op dat kabeltje. Simpelweg omdat het echt een kort stug kabeltje is.
voldoet deze ook niet aan de standaard dan?

uitvoering: Seasonic Prime TX-1600


als ik de pricewacht goed heb ingevuld zou deze moeten voldoen
Oke ja die voldoet. Heeft idd 2x 12VHPWR stekker, maar dat is nou niet echt een normale voeding.

Er zullen er vast nog wel wat meer zijn, maar €600 voor een voeding is gewoon echt heel erg veel geld. Zeker gezien 1600W ook nog eens kompleet overkill is voor zelfs high end gaming systems.
zeker ik ben het volkomen met je eens ging me meer om dat je zij dat er nog geen waren en ik dacht hmm even kijken of het wel klopt dat ik deze voeding heb geselecteerd
Mja volgens mij heeft MSI er ook eentje. Zullen er vast wel wat zijn, maar dat zijn dan ws high end voedingen die je niet zomaar ff in je gaming built zet.

Deze heeft ook iets van 8 normale PCIe aansluitingen. Das meer bedoelt voor mining rig oid.
zeker is complete overkill mee eens
Ze zijn alleen voor de verleiding gegaan om weer iets geheel nieuws te gaan ontwikkelen en bij iets dat nieuw is, bestaat altijd de kans dat je iets over het hoofd ziet en in dit soort massadefecten terecht komt, die op zichzelf duur zijn, maar ook nog eens voor massale reputatieschade zorgen.

Er bestaan gewoon compacte stekkers die enorme stroomsterktes kunnen overdragen: Bijvoorbeeld de EC3-stekker die 60A kan leveren en compacter is dan de 12VHPWR. De EC5 kan zelfs 120A leveren. Ze hadden zo'n bestaande stekker integraal kunnen overnemen of in ieder geval leentjebuur spelen bij het ontwerp.
De connector kan het prima doen onder laboratorische omstandigheden, misschien alleen berekeningen?,
alleen de vraag is of het in de echte wereld wel zo realistisch is.

Door dergelijke kabels zou theoretisch 50A doorheen kunnen worden gejaagd,

wil je het beetje veilig houden en geen grote voltage-drop dan zou je daar een kabeldikte van 4mm2 willen hebben en het moet allemaal strak aan elkaar zitten.

Met zulke connectoren geloof ik dat simpelweg niet. 4mm2 is echt dik en totaal niet flexibel.
4mm2 is gewoon soepel te krijgen hoor, wordt praktisch in iedere groepenkast gebruikt. Prima mee te werken. Vanaf 6mm2 wordt het wat lastiger en 10mm2 is vervelend.

Let op, soepele kabel, geen vaste koper kern.

De lengtes binnen een PC kast zijn allemaal zeer kort dus voltage drop lijkt me geen probleem.

[Reactie gewijzigd door Navi op 24 juli 2024 21:15]

Voltage drop is hoog genoeg om de boel te laten smelten
Ik dacht ook altijd dat de draad dikte belangrijk was hierin. Maar ik sprak een keer een psu ontwerper en die vertelde dat juist de connector het probleem was. Toen ging het om die 12 pin voor de 3000 serie en die zou veel beter zijn.

Ik heb er niet genoeg kennis van om daar iets van te vinden. Dan geloof ik zo'n ontwerpen meteen.

Veel mensen in dit thread hebben er blijkbaar wel verstand van.

Het enige dat ik met mijn gezond boeren verstand op kan maken is dat de huidige 4090 met adapter megagroot is en voor blijkbaar veel tot bijna alle kasten probleem geeft. En dat AMD dit niet gaat doen en je dus ook gewoon je huidige voeding kunt gebruiken. En dat laatste is denk ik voor diverse mensen wel prettig. Maar het zal vooral om mensen gaan die geen 4090 geld hebben, want als je 2500 euro voor een gpu uit geeft kan er ook wel nog een voeding van 250 bij.
De enige juiste beslissing lijkt mij.
De enige juiste beslissing is dat GPU fabrikanten zich eens realiseren dat de hele wereld schreeuwt om energie en dat het misschien veel beter zou zijn als ze zich eens gingen toeleggen op minder verbruik in plaats van meer.

Alles moet maar meer, meer, meer.
Wel knap dat ze dat zo hard verkloot hebben met het ontwerp van de 12Vhpwr connector...

Kijk bijvoorbeeld naar een XT60 connector, dat is verdorie een 2-pin connector en die kan met twee vingers in zijn neus 720W aan op 12v, zonder te smelten. En dat is zelfs als ie onder de modder zit en een paar keer op van 100m naar beneden is gekukeld, of in een hoekje is gepropt. Ook nog eens heel mooi weg te werken, maar ik snap dat er waarschijnlijk een voordeel is aan een meerpolige connector. Iets dat neerkomt op 3 XT30 connectors naast elkaar zou dan misschien een betere oplossing zijn.

Maar nee, het moet weer zo cheap-ass mogelijk, want je zou maar meer dan 10 cent moeten uitgeven als fabrikant voor een bijgeleverd adaptertje bij een GPU van 3k...
Het verschil zit hem in de krimp connector. Dat is veel goedkoper te doen in massa productie aangezien dat redelijk automatisch kan. Solderen blijft handwerk en handwerk kost geld.
Daarnaast is solderen niet vrij van gevaren.

Bij vaak bewegen kan een soldering breken. Bij een data signaal is dat van weinig risico behalve vreemd gedrag.

Bij power kan dat dat enorm veel hitte produceren (wat vervolgens mogelijk de soldering weer kan smelten maar dat ter zijde) en mogelijk brand. Krimp connectors zijn standaard omdat het een vrij fool-proof methode is van connecten.
Hahaha. Bewegen gebeurd juist in de modelbouw wereld en daar is het nooit een probleem. Voor een PC is dat absoluut geen beperking.

En die huidige krimp connectoren zijn juist een brandgevaar als ze mechanisch belast worden (wat goed de oorzaak kan zijn van het huidige probleem). Bullet connectoren hebben juist een enorm sterke mechanische verbinding.
In de automotive industrie zijn soldeerverbindingen dan weer minder gewenst. Het gaat niet zozeer om de bewegingen maar om de trillingen. (Motor, weg/hobbels enz). Krimpverbindingen mits goed aangelegd zijn hier schijnbaar beter tegen bestand.

In hoeverre de fans van de videokaarten ook deze trillingen veroorzaken heb ik mijn twijfels, ik denk dat beide opties prima zijn maar krimpverbindingen zijn in de molexconnectors standaard. Daarbij vermoed ik dat de pinnen in de stekker zelf het probleem zijn, niet de krimpverbinding tussen pin en kabel.

Bron: een e-monteur in de voertuigelektrotechniek.

[Reactie gewijzigd door Nox op 24 juli 2024 21:15]

Klopt, daarom vermoed ik dat er ook al dergelijke bullet connector met krimp bestaan. Wij gebruiken de soldeer connectoren omdat dat simpel betrouwbaar te gebruiken is zonder dikke tang en specifieke kabel diktes.
Tja, ik vind solderen dan weer lastig vanwege de noodzaak voor een bout, soldeer, schone verbindingen enz. dus waar het kan krimpverbindingen, anders solderen.
Solderen blijft handwerk en handwerk kost geld.
solderen kan ook gewoon met machines hoor. Zelfde voor laswerk. Heb je gewoon van die robots voor.

Kost alleen ook gewoon geld en middelen dus heel veel goedkoper zal het niet zijn.
Je kan solderen wat je wil maar dan heb je nog steeds een zeer klein contactoppervlak tussen de connector en de pins waar hij overheen schuift.
De genoemde XT60 connectoren zijn goedkoop en klein (en super goed) maar moeten gesoldeerd worden. Dat zal een reden zijn dat deze niet gebruikt worden. Er zijn vast vergelijkbare connectoren met een krimp verbinding maar ik reageerde op de genoemde XT connectoren (met een groot contact oppervlakte).
Ik denk dat een xt60 connector een stuk moeilijker te maken is dan normale pc power connectors.
Dat is namelijk gewoon een paar molex brand pins op een kabel krimpen en dan in de connector duwen.

Maar er is al een bestaand alternatief dat prima kan: twee EPS 12v / CPU power connectors. Die kunnen meer dan 300w per connector aan, dus met twee zou je meer power hebben dan de 12VHPWR.

[Reactie gewijzigd door B127 op 24 juli 2024 21:15]

Moeilijk te maken moet niet een excuus zijn om het slecht te doen. Kijk eens naar de rest van de componenten, dat heeft ook jaren geduurd om het zo te automatiseren. Er kan best een bullet connector met krimp ontworpen worden. Zal in de auto / vliegtuig industrie vast wel bestaan al. Ook een GPU voeding van 24V / 36V zou al heel veel schelen maar backwards compatibiliteit zal dan een keer gebroken worden. Dat is soms nodig voor vooruitgang. Als Nvidia een speciale voeding / connector zou vereisen zou dat niet zo'n grote beperking zijn. De rest zou volgen. Iemand moet de eerste zijn.
Erg blij mee. User error of niet, dit is een erg gevaarlijke situatie en ik hoop dat er snel een oplossing komt voor deze generatie Nvidia kaarten. Ben erg verbaasd dat dit zo is goedgekeurd.

En wat was er nou precies mis met de 6/8 pin connector? Werkte gewoon perfect voor generaties lang.

[Reactie gewijzigd door Xypod13 op 24 juli 2024 21:15]

Je hebt een heel array aan connectoren bij deze kaarten dan, die board space innemen, en waar zeker genoeg problemen mee zijn. Het hele gezeik wat vooral vorige generatie begon over op welke manier je de stekkertjes tussen voeding en GPU moet aansluiten gemist? Omdat PSU fabrikanten een kabel met twee stekkers eraan leveren, die vervolgens helemaal niet aan de specs voldoet.
Mensen moeten gewoon het label goed lezen op de kabel, dat is user error. Hier is de kabel gewoonweg niet goed gemaakt voor de situatie waar het in zit. Te korte pins, moet paar mm uitsteken, etc.
Die ruimte zou het probleem niet zijn. De koeling steekt aan alle kanten van het board uit.
12 volt, 500 wattt - da's 50 ampere. Daar heb je startkabels voor nodig.
Dat terzijde - een videokaart die 600 watt verstookt? Dat tikt lekker aan met de huidige stroomprijs. Volgens mij was de boodschap dat we een stuk minder energie moeten gebruiken?
500W op 12V? Dat doet de modelbouw (zoals al aangegeven) fluitend, met veel minder dan startkabels (waarbij de goede startkabels sowieso veel meer kunnen hebben dan de Lidl-aanbiedings-kabeltjes).

En ja, GPUs stoken steeds meer, en kosten steeds meer. Dat is omdat mensen het kopen, en niet omdat het zo goed is voor <doel>.
offtopic:
Die milieu-boodschap wordt verspreid door mensen in prive-vliegtuigen die ik niet serieus kan nemen. Dat het milieu eraan gaat: check. Dat de voorgestelde oplossing werkt: betwijfelbaar... Maar da's voer voor een heel forum. Wellicht moet de bezuiniging ergens vandaan komen waar er het meeste verbruikt wordt, en dat zijn niet de thuis-gamers.

[Reactie gewijzigd door FreezeXJ op 24 juli 2024 21:15]

Stel je niet zo aan. De 295X2 van AMD verbruikte ook ruim 500W op uitsluitend 2x PCI-E 8 Pins connectoren. Als je PSU gewoon van goede kwaliteit is, de kabels en connectoren ook "kan dat prima". Volgens mij kan je per geel draadje ruim 12A erdoorheen jagen (144W), voor een PCI-E 8 pins kabel is dat 36A (432W) en per 2 kabels ruim 72A (864W). Doe je dat x3 dan zit je op 108A (1296W).

Het is ver buiten PCI-E spec maar het kan wel. Het probleem is niet de kabels maar de connectoren. Die zijn de zwakste schakel, en staat zelfs in verschillende handleidingen dat die dingen maar een paar keer verwisseld mogen worden (tot op 10 ~ 20 x ofzo) alvorens je ze om moet gaan ruilen. De connectoren krijgen last van erosie waardoor het contact minder wordt en daar wel brandgevaarlijk wordt.

Je jaagt immers meer stroom door een stukje metaal heen wat de helft aan contactoppervlak door erosie verloren heeft. Ik heb ook een PCI-E 8 pins kabel hier. Als ik die aansluit is het GPU VRM input voltage ineens 11.5 met 11.2V op load. Sluit ik een ander kabeltje aan dan is dat 12V strak. Is gewoon erosie.
AMD komt er mooi weg mee dat Nvidia de positie van de aansluiting slecht heeft gekozen, de kaarten te groot heeft gemaakt en de wattages enorm heeft opgevoerd. Van wat ik ervan begrepen heb is de ATX 3.0-specificatie niet alleen een andere kabel maar ook een andere manier van de stroomtoevoer regelen. Het idee is volgens mij dat de GPU nu kan zien welk wattage beschikbaar is en daarop kan anticiperen. Hierdoor kan een GPU met een PSU met een te laag vermogen toch beeld geven in een lagere powerstate en is het mogelijk om bij spikes te voorkomen dat het hele systeem uitvalt.

Dit is wat ik ervan begrepen heb maar ben benieuwd naar aanvullingen of een betere uitleg.
Dat er "gecommuniceerd" kan worden tussen GPU en PSU doet er niet toe. Als de GPU en PSU alle connectoren zien en besluiten dat er 600 watt doorgevoerd kan worden heb je nog steeds dezelfde hitte productie door het slechte design. Het is niet zo dat er temp sensoren in de kabel zitten of iets in die trend. Het is niets anders als een check of er een 3de/4de kabel in zit waardoor je 300 > 450 > 600 watt krijgt. Iets waar de connector gewoon niet toe in staat is.

[Reactie gewijzigd door computerjunky op 24 juli 2024 21:15]

Nvidia doet onderzoek naar de voorvallen.
Dan zou ik liever hebben dat een andere partij dan Nvidia onderzoek doet. Nvidia kennende, gooien ze de schuld toch wel op de gebruikers.

[Reactie gewijzigd door SilentDecode op 24 juli 2024 21:15]

Nvidia heeft juist vooraf al aangegeven problemen te ondervinden met de nieuwe connectoren. Ik snap dan ook niet waarom ze er mee door gegaan zijn.

Verder is meer als 2x 8 pin totaal niet nodig.daar kan dezelfde 600 watt prima doorheen en meer. Pro LN2 overclockers heb ik al 900 watt uit 2x 8 pin zien trekken. Dat wil ik ze met deze nieuwe stekker nog wel zien doen. Logisch ook, de stekkers zijn groter het contact oppervlak is groter en dus kan er meer stroom doorheen.
8 pin is vgm maar 150w per stekker. dus met 2 kom je maar tot 300 watt.
Ja en nee, Ga je daisy chainen met die 2de stekker aan de kabel trek je dus gewoon 300 watt over die kabel. En gezien hij aan de PSU kant maar 1x 8 pin is betekend dat dat er in al die jaren geen problemen geweest zijn met 300 watt over een 8 pin stekker. Sterker nog er zijn overclockers geweest die over 2 van deze connectoren 900 watt getrokken hebben zonder problemen.

Der8auwer heeft zelfs eens een filmpje gemaakt waar hij kabeltjes van de 8 pin doorknipte tot 1 power kabel. Oftewel 1 = van de 3 bij een 300 watt power supply is zelfs mogelijk al liepen toen de temps wel op naar 95 graden.

De dragen pits puur kopen zijn geen enkle probleem het is puut dit type connector dat gewoon te weinig contact maakt met de pin op de GPU kant van de connectie waardoor alle stroom over een mini connectie moet en dat levert warmte op.
De meeste fatsoenlijke PSUs gebruiken dan ook wat dikkere kabels tussen de PSU en de eerste PCIe connector. Waardoor 300W tot en met de eerste connector veilig kan inderdaad.

Er zijn echter ook oudere voedingen waarbij dat niet zo is, of kabels met 1 PCIe connector eraan welke wat dunnere kabels heeft. En dat mag gewoon want de afspraak is simpelweg maximaal 150W per connector, waaraan elke Voedings en videokaartfabrikant moet voldoen.

Dit soort afspraken zijn er niet voor niks binnen de specificatie. Dat je er met de juist voeding en kabels flink overheen kunt betekend niet dat je daar als Nvidia vanuit kan gaan, dus die komt gewoon netjes met een 4xPCIe 150W adapter om binnen spec te blijven
Het probleem is echter niet de kabels maar de connectoren. Daar is het contact punt relatief klein in vergelijking met de dikte van de kabels Zeker in deze nieuwe stekker dus.

Qua kabels heb je voor 600 watt 2 kabels nodig terwijl je er met 2x 8 in totaal 6 heb. De grap is ook dat de PCB traces op de kaart zelf allemaal bij elkaar komen en de totale trace dikte nog niet een kwart van een enkele 8 pin kabel is.
Ja, het is wel vreemd, om het maar even zo te noemen.

Gezien elke voeding van de afgelopen 10 jaar zo'n beetje wel 8-pin PEG connectoren heeft, lijkt mij de overstap redelijk onhandig. Dat de GPU nu met de PSU kan praten, is wel een mooie uitvinding, maar dat kan ook natuurlijk gewoon zonder de hele PEG connectie aan te passen en een aparte kabel te trekken vanaf de GPU naar de PSU.
Waarom, Nvidia is juist een onafhankelijke partij. De standaard is niet van Nvidia (Intel/ATX), de connector ook niet (Molex of TE ofzo Amphenol).

[Reactie gewijzigd door Aardedraadje op 24 juli 2024 21:15]

Waarom, Nvidia is juist een onafhankelijke partij. De standaard is niet van Nvidia (Intel/ATX), de connector ook niet (Molex of TE ofzo Amphenol).
Geheel los van of er wel of geen problemen met de nieuwe 12vhpwr connector zijn.

Nvidia is erbij gebaat dat er geen problemen zijn met de standaard connector die ze op hun dure en energieverslindende vlaggeschip kaarten hebben geplaatst. Daarom is Nvidia dus absoluut geen onafhankelijke partij in deze situatie.

Het onderzoek van Nvidia is als een slager die zijn eigen vlees keurt. De spreekwoordelijke koeien komen dan misschien wel bij de boer vandaan, maar de slager wil het daarvan afgeleide product weer verder verkopen.
Klopt, maar ik vertrouw Nvidia voor geen meter en ik zou het liever vanaf een andere onafhankelijke partij laten doen. Nvidia gelooft natuurlijk hun eigen woorden meer dan die van de consument of wie dan ook.
Nvidia is een belanghebbende partij.
Als ze tot de conclusie komen dat de connector niet veilig is, en Nvidia kaarten hebben die connectoren wel en AMD niet, dan heb je daar een conflicterend belang. (of in ieder geval de suggestie dat er een conflicterend belang kan zijn)
Nvidia is echter wel de partij die dit ontwerp bij Amphenol aan heeft gevraagd en zij zijn ongetwijfeld de partij die er bij Intel voor gepusht heeft om dit er door te krijgen. En de enige partij die dit ding gebruikt.
Nvidia heeft er alle belangen bij om dit goed te onderzoeken; ze willen immers ook gewoon deugdelijke producten leveren.
Hmm Als Nvidia AMD onderzoekt gaan ze het niet snel op de gebruikers steken.
Te mooie kans om AMD af te breken.
Ik snap niet waarom ze nog steeds met die waardeloze krimp connectoren werken bij een dergelijk hoog vermogen. In de modelbouw wereld gebruiken we bullet connectoren waarbij 1 klein stekkertje lacht om 600W. Dat gaat prima met vermogens tot enkele kilowatts, dus ook future proof. Stekkers met 2 of 3 bullet connectoren en enkele kleinere voor communicatie (sensing) zijn ook in gebruik. De enige reden de ik kan bedenken is dat stekkers welke je moet solderen vele malen duurder zijn dan krimp stekkers. Dat moet geen excuus zijn als je videokaarten van 2000+ euro hebt. De kabels zitten nu bij de voedingen in en die zouden dan wellicht 5 euro duurder worden (vast minder met bulk prijzen). PC voeding wereld moet eens innoveren want qua connectoren is er de afgelopen 30 jaar weinig veranderd (op sata voeding stekkers na dan).
Dat gaat prima met vermogens tot enkele kilowatts, dus ook future proof.
Ik hoop echt dat je geen gelijk hebt... maar gezien de ontwikkelingen zo ver zou dat best wel eens kunnen kloppen.
Ik bedoel meer dat de connector niet het probleem is, niet dat ik verwacht dat videokaarten enkele kilowatts gaan nodig hebben. Ik gebruik connectoren die 120A bij 46V geen probleem vinden. 120A is dan wel piek, 90A continu is waarvoor ze gespecifieerd zijn. 90A bij 12V is nog steeds 1080W, en dat met 1 connector met 2 pennetjes :)

Op dit item kan niet meer gereageerd worden.