Igor's LAB: niet alle 4070-kaarten krijgen omstreden 12Vhpwr-stekker

De aankomende GeForce RTX 4070-kaart wordt niet altijd geleverd met de controversiële 12Vhpwr-connector. De minder krachtige modellen met een tdp van 200W krijgen een normale 8-pinsconnector, schrijft Igor's LAB.

Bronnen zeggen tegen Igor's LAB dat de aankomende GeForce RTX 4070-kaarten twee verschillende connectoren krijgt. Er komen twee versies van de kaart, afhankelijk van de thermaldesignpower- of tdp-output van de kaart. Vanuit de fabriek overgeklokte en daarmee vaak wat duurdere modellen krijgen een tdp van 225W, terwijl dat slechts 200W is voor de basismodellen die voor de adviesprijs te koop zullen zijn. De 225W-kaarten krijgen een 16-pins-12Vhpwr-stekker, maar de 200W-kaarten mogen van Nvidia ook met normale 8-pinsstekker worden uitgerust.

De 12Vhpwr-connector is omstreden. Die aansluiting is nodig op recente, krachtige videokaarten die een hoog stroomverbruik hebben, maar de connector is gevoelig voor hitteproblemen wanneer die slecht contact maakt, bijvoorbeeld bij een verkeerde aansluiting. Zo kwamen er verhalen naar buiten over gebruikers waarbij de stekkers smolten en schade aan videokaarten konden veroorzaken. Tweakers schreef vorig jaar een achtergrondartikel over de connector. De problemen ontstaan overigens niet bij alle aansluitingen; Igor's LAB ontdekte eerder dat Nvidia die connector door twee fabrikanten liet maken, maar slechts één daarvan veroorzaakte problemen. De 12Vhpwr-stekker is geschikt voor vermogens tot 350W per stekker, terwijl een 8-pinsstekker gespecificeerd is voor maximaal 150W.

De 12Vhpwr-stekker wordt gebruikt bij alle RTX 4000-kaarten die tot nu toe zijn uitgebracht, inclusief de RTX 4070 Ti. De verwachting was al dat minder krachtige kaarten het in de toekomst met een conventionele stekker van acht pinnen konden doen. Nvidia heeft de ontwikkeling nog niet bevestigd, maar Igor's LAB beroept zich op bronnen bij fabrikanten van kaarten.

Igors Lab 12Vhpwr

Door Tijs Hofmans

Nieuwscoördinator

21-03-2023 • 14:44

61

Reacties (61)

Sorteer op:

Weergave:

Wat fabrikanten als AMD en Nvidia zouden moeten doen is videokaarten nooit een hoger TDP van 200 watt geven. Dan was die stekker sowieso nooit nodig geweest.

Geldt ook voor CPU's. Bijvoorbeeld de Ryzen 7900 die 60% minder stroom verbruikt en slechts 6% minder presteert dan de Ryzen 7900X. Ondertussen zadelen de GPU- en CPU-makers gebruikers op met hoge energierekeningen, koelproblemen en hete hardware, belasten ze het milieu onnodig en dat alles voor een paar procent winst. Totaal belachelijk, tijd dat overheden hier met wetgeving over komen. Max. verbruik consumenten-GPU 200 watt en -CPU 100 watt zou een mooie eerste stap zijn.

[Reactie gewijzigd door Blaze85 op 23 juli 2024 10:18]

En dan zou de industrie weer gaan schreeuwen om SLI achtige oplossingen om zo'n performance limiet te omzeilen.

Ik ben tegen een performance cap. En de meeste oorspronkelijke tweakers hier ook, omdat overklokken in onze cultuur zit.

Je moet zelf mogen bepalen hoe hard je wilt gaan. Waar wel meer regulatie op mag komen is idle stroomverbruik, en efficiëntie. Wat je nu ziet is AMD, Intel en Nvidia hun silicon vanuit de fabriek overklokken om elkaar de loef af te steken. Downklok je de hardware, en je krijgt een enorme energiebesparing voor niet heel veel perf verlies.
Overal valt wat op te verzinnen, maar een energiecap zou ik niet erg vinden en het gros van de gebruikers binnen de marge houden. Waar stopt het anders? Nieuwe architect word steeds efficienter tot een bepaald punt, echter word de klok weer opgevoerd etc en ondanks die zuinigheid verstookt dat beestje weer meer. Wanneer is genoeg, genoeg? 2000watt, 4000watt? Let wel, je stroomgroep kan het straks ook niet meer aan. En goedkoop word het ook niet.
Heeft helaas te maken met marketing en het prestatiekroontje van team Rood/Groen/Blauw. En wij als consumenten hebben daar ook aandeel in omdat mensen het beste van het beste willen. En daardoor wordt er hardware ver voor bij efficiëntie punt gedrukt. En reviewers op Youtube of Tweakers bijvoorbeeld zetten dat vervolgens in de nieuwsberichten & kopteksten zoals: "Snelste CPU of Snelste van dit moment!!!"
Mjah, ik snap het wel. We willen geen betutteling, stel je voor dat je geen V12 meer mag aanschaffen. Het idee al. Tegelijkertijd willen we wel schoon drinkwater, mooi onderhouden wegennet, een tweede auto, een vakantiehuisje , 3x per jr vliegen. Mjah, dan kan een 1000watt slurpende videokaart er ook wel af. Gooien we toch een paar extra zonnepanelen op ons dak. Moeten die mijners wel harder graven, want ja, dat kost natuurlijk wel meer edelmetalen....
Kunnen we niet gewoon teruggaan naar dubbele 8-pins voor mid-range kaarten?
Why change a winning team?
Stilstand is achteruitgang. Als we nooit iets zouden veranderen zouden we nu nog de waardeloze 4-pin Molex connectors gebruiken.
Stilstand is achteruitgang.
Maar als iets niet stuk is, moet je het ook niet willen moderniseren om het moderniseren.
kaarten die afkunnen met een dubbele 8pin, moeten dat imho ook gewoon doen. Er zijn veel meer voedingen op de markt die dat native supporten.

Wat levert de nieuwe connector deze kaarten precies op?
Je kunt af met 1 connector in plaats van twee en dat is goedkoper en efficienter.

Als iets niet stuk is betekent niet dat het ideaal is. Het kan altijd beter.

De oude game connector voor controllers was ook niet stuk, toch ben ik blij dat we na verloop van tijd op USB zijn overgestapt. De oude LPT1 poort voor printers was ook niet stuk, USB is toch fijner.

Micro USB was ook niet stuk, toch is vrijwel iedereen blij met USB-C.

[Reactie gewijzigd door EnigmaNL op 23 juli 2024 10:18]

Je kunt af met 1 connector in plaats van twee en dat is goedkoper en efficienter.
Niet voor de gebruiker. Die moet een voeding aanschaffen met de nieuwe aansluiting, of die afschuwelijk lelijke nvidia splitter gebruiken. Zo heel veel van die voedingen zijn er nog niet en ze zijn niet bepaald competitief geprijsd. Vervolgens krijgt hij daar zeer weinig voor terug. Die 2 8-pins zitten standaard op iedere voeding die genoeg wattage heeft om een videokaart van dat kaliber aan te drijven.
De oude game connector voor controllers was ook niet stuk, toch ben ik blij dat we na verloop van tijd op USB zijn overgestapt. De oude LPT1 poort voor printers was ook niet stuk, USB is toch fijner.

Micro USB was ook niet stuk, toch is vrijwel iedereen blij met USB-C.
USB is dan ook universeel. Dat was het grote voordeel ten opzichte van use case specifieke connectoren.

USB-C is gewoon duurzamer dan micro-USB, heeft hogere doorvoersnelheden, wattages en kan meer protocollen aan.

Zo'n mooi voordeel kan ik niet noemen voor de nieuwe pcie connector in het geval van een midrange kaart.
USB connectoren gebruik je voor van alles en nogwat, dus het is prettig om zo uitgebreid mogelijke USB poorten op je device te hebben. PCIe kabels worden in de regel voor 1 ding gebruikt en dat is videokaarten aandrijven... En in dat opzicht biedt de 16pin geen meerwaarde voor 95% van de gebruikers en gaat dat op lange termijn ook niet echt doen. Tenminste, ik mag hopen dat het nog heel lang normaal blijft voor videokaarten met een normaal prijskaartje om niet meer dan 375 watt te trekken.

bovendien gaat het in de post om 200 watt modellen. Die kunnen met 1 8pin af. Dat is nog minder bedrading dan 1 16pin en dus nog goedkoper en nog efficienter

Het voelt voor mij een beetje als een nieuw huis tuin en keuken koffiezet apparaat met een krachstroom stekker eraan.
Je keuken heeft het niet (je voeding dus) en je hebt er precies geen profijt fan. Maar omdat horeca segment koffie automaten, die niemand thuis heeft, het wel vaak gebruiken, moet jouw normale koffie automaat die stekker gebruiken?

[Reactie gewijzigd door youridv1 op 23 juli 2024 10:18]

bovendien gaat het in de post om 200 watt modellen. Die kunnen met 1 8pin af. Dat is nog minder bedrading dan 1 16pin en dus nog goedkoper en nog efficienter
Die kaarten krijgen ook gewoon een 8 pin.
According to my information from manufacturers, there will be two TBP classes for the upcoming GeForce RTX 4070 (without Ti), which is supposed to be launched in April. The more expensive models or OC cards with a TBP of up to 225 watts should continue to use the familiar 12VHPWR connector (or alternatively up to 2x 8-pin), but the models with a TBP of 200 watts (so mainly the so-called MSRP cards) should be equipped with a conventional 8-pin connector.
De 225W modellen en hoger krijgen de 12VHPWR en de 200W of lager krijgen een 8 pin connector.

Ik benin ieder geval wel blij met de 12VHPWR stekker op mijn huidige videokaart, ziet er een stuk strakker en mooier uit dan de 3 8 pins op mijn oude kaart.
Het ziet er strakker uit omdat je een bijpassende voeding of kabel hebt gekocht.

Maar wil je bijbetalen voor je voeding om een midrange kaart aan te sturen? Ikke niet. Dan maar dubbele 8 pin of 8+6
Duurzaamheid = "Durability", en durability (zo ik toch lees op WIKIPEDIA) voor zowel microUSB als USB-C is per definitie gelijk & vooral gericht naar slijtvastheid/repeatability.
Link
Als er nood aan is dan ben ik voor een structurele oplossing te vinden, maar de huidige dual 8-pin PCIE oplossing kan in totaal voor maar liefst 375W zorgen: 75W uit het slot en 2x150W, daar zijn al jarenlang geen problemen mee en dat stroombudget is ruim voldoende voor dit soort kaarten zonder dat je extra dongles of een nieuwe voeding nodig hebt. Met een single 8-pin PCIE kan je nog 225W trekken, dus zelfs met ook maar 1 connector zit je dan nog technisch binnen de specs
Er is zeker nood aan. Ik ben van 3x 8pin naar 1x 12VHPWR gegaan. Ziet er een stuk mooier uit.
dan heb je geen kaart gehad die maar 200W vraagt of een die overdesigned is
Uiteraard. Voor kaarten die slechts 200W of minder nodig hebben zal de 12VHPWR connector sowieso niet gebruikt worden.
Als custom kabel maker moet ik zeggen dat de 12VHPWR echt verschrikkelijk moeilijk is om dat netjes te krijgen. de 12-pin van de vorige generatie was al verre van optimaal, maar nu met extra dikke draad in de kleine stekkerbehuizing en met de signaaldraden erbij is het al snel lelijk. Daar zijn een hoop speciale trucjes voor nodig.

Nee, doe mij maar een videokaart met 3 8-pin stekkers die je hetzelfde patroon kan geven als de moederbord 24-pin kabel.
PCIE kan 150W leveren. EPS kan, in dezelfde vormfactor, 288W leveren. Voor kaarten tot 250W hadden ze dus gewoon de PCIE door een EPS stekker kunnen vervangen. Die hebben voedingen toch al, er zijn steeds meer voedingen die er eentje extra hebben.

Als ze dan toch een nieuwe stekker hadden willen maken, hadden ze evengoed bijvoorbeeld een 5 pins brede stekker kunnen pakken en dan 16AWG (1,25mm^2) draad met HCS terminals standaard kunnen maken. Daar kan je dan ook 600W door een stekker trekken.
Je kunt af met 1 connector in plaats van twee en dat is goedkoper en efficienter.
Maar er moet ook een verloopje bij met 3 stekkers. Denk dat een 8 pin en eventueel een 6 pin ernaast goedkoper is.
Hangt van je voeding af. Ik heb geen verloopstekker nodig.
Maar velen wel, dus zit hij bij elke kaart.
Dat heb je nou eenmaal met een overgangsperiode. Vroeger hingen PC's ook vol met Molex naar SATA verloopstekkers totdat SATA voldoende was ingeburgerd.

Over een paar jaar is 12VHPWR de norm en weten we niet beter. Nog een paar jaar daarna en dan horen we hetzelfde gezeur van mensen die zeggen "waarom een nieuwe stekker? 12VHPWR werkt toch prima?"... En dat nog wel op Tweakers.net...
Weer een goede reden om te wachten op de 5x serie.
Je huis in brand lijkt me ook achteruitgang.
Dat was met de oude 4pin molexen dus ook het geval, die stonden er ook om bekend om in de fik te vliegen.

De 12Vhpwr is overigens een prima stekker als je hem goed gebruikt. Uit alle testen die ik gezien heb lag het probleem aan het feit dat mensen hem niet genoeg aandrukken waardoor het contact niet goed was. De ophef die ontstaan is was voornamelijk een storm in een glas water, zoals bijna alle ophef die je tegenwoordig online ziet.
En wanneer weet je dan of je hem goed genoeg hebt aangedrukt?

Wellicht was een ontwerp waarbij je het niet verkeerd kunt doen een beter idee geweest.
Tot je de klik hoort/voelt, net als bij de oude PCI-E kabels.
Dat is het probleem nu juist, die hoor/voel je dus bij sommige van die stekkers niet (goed). Als het zo zou zijn als je stelt, zou er inderdaad niet veel aan de hand zijn.
Of dat nu aan de standaard of fabrikanten ligt die de kantjes er vanaf lopen is een tweede, maar is beide even kwalijk omdat het vertrouwen in deze stekker nu extreem beschadigd is.
Ik heb inmiddels al flink wat 12vhpwr stekkers gebruikt en voel en hoor altijd de klik. Geen idee wat het probleem zou zijn.
Iemand waarvoor dit de eerste dure kaart is zal er niet heel veel kracht op durven zetten.
Ook is het niet of zeer slecht te zien of de stekker goed zit met dank aan de kunststof kap.
Had dat ding aan de achterkant gemaakt met vrij zicht en ruimte om je vingers rond de connector te zetten en het probleem van halve verbindingen was marginaal voor gekomen.
"And yes.... Micro-Fit+ is way, way, way, way easier to use than the 12VHPWR. I HATE that connector. LOL!" - Jon Gerow, in een gesprekje over de speciale stekkers die ze gebruiken bij hun nieuwe Corsair Shift voedingen. 12vhpwr is een micro-fit connector met wat sense-draadjes eraan. Microfit+ is een standaard met even grote stekkers, maar die minder kracht vergt om aan te sluiten en waarvan de latch veel steviger is.

Als het hoofd PSU engineering aangeeft de stekker te haten, dan is er waarschijnlijk wel iets mis mee...
In principe eens dat het een prima stekker is, als je hem goed gebruikt. Maar daar zit hem nou net ook precies het risico.
Als het vanuit energieverbruik van de kaart het niet écht nodig is, waarom dan een gebruikers risico introduceren? De 'huidige' GPU stekkers hebben in die zin een lager risico.
Hetzelfde risico is er met andere kabels ook, zelfs met gewone stekkers en stopcontacten. PCI-E kabels die niet goed aangedrukt worden kunnen ook gaan smelten. Het gedoe rondom deze stekker vind ik daarom ook nergens op slaan.
Eens dat het risico er op zich met andere kabels er ook wel is, maar de frequentie waarin het fout gaat lijkt minder, maar ook de marge in hoe snel/makkelijk het goed of fout gemonteerd zit is anders.

Dat de connector nu an sich wel goed is, wil niet zeggen dat er niks op aan te merken is. Als dat het geval was, was er ook geen heisa omheen ontstaan. Deze connector lijkt gewoon wat foutgevoeliger te zijn.

Het type/soort argument "moeten ze hem er maar gewoon goed indrukken" vind ik daarom -iets- te kort door de bocht.
De frequentie van problemen is bij 12vhpwr ook gewoon heel erg laag maar de hoeveelheid ophef is hoog omdat het een gewild NVIDIA product is.
10 molex connectors of zo op de kaart en dat werkt ook :D
Stuk of 5 is wel voldoende. Die "gare oude" molex connectors kunnen 11A aan.
Eens maar iedereen was blij met de sata connector omdat die extra waarde toe voegde. Namelijk makkelijk aan te sluiten en los te koppelen en de toevoeging van 3.3v

Bij de nieuwe 12Vhpwr connector mis ik welke waarde hij precies toevoegd. Er zit extra functionaliteit op namelijk communicatie tussen voeding en videokaart over dehoeveelheid er mogelijk verbruikt mag worden. Maar ik vraag mij af of die functionaliteit extra waarde toevoegd tov de oude pcie power connector daar werd dat namelijk op een analoge manier bepaald. Had je 2x 8 pin stekkers op je voeding kan je een gpu voeden die 2x 8pin stekkers nodig heeft. Tot zover kan ik het mij niet bedenken welk voordeel de 12vhpwr connector heeft.
In plaats van 3 of 4 connectors op je kaart, 1... ?
Als het niets toevoegt kunnen wij beter bij de oude standaard blijven, voor kaarten met hogere vermogen is dat een ander verhaal.
Maar het voegt dus wel iets toe. Voor kaarten met minder vermogen op dit moment niet maar uiteindelijk is het beter als alle kaarten 1 standaardstekker gebruiken.
En die standaard stekker was er dus al jaren waardoor het niets toevoegt om een andere connector te doen, mensen met bestaande voedingen worden opgezadelt met converterkabeltjes te kopen waar het niet veiliger van wordt.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 10:18]

De oude standaard is verouderd en voldoet niet meer aan de eisen moderne krachtige kaarten en moet dus worden vervangen. Een oude standaard voor de helft in stand houden (voor de kaarten die minder stroom nodig hebben) is onzinnig.
Het gaat hier om de gehele 47 serie die prima voldoet de eisen ofwel het is niet onzinnig.

Oude connector of niet maakt niet uit, in ict willen wij zoveel mogelijk standaarden aanhouden.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 10:18]

Of het voldoet of niet is een kwestie van mening. Als ik zou moeten kiezen tussen 2x 8pin of 1x 12VHPWR zou ik het laatste kiezen. 2x 8pin zou dan m.i. niet voldoen.
Ik begrijp ook niet helemaal waarom deze nieuwe stekkers nodig zijn voor kaarten met een tdp van minder dan 300 watt.
Ik denk dat ze die 12V stekker de nieuwe standaard willen maken? Gewoon op elke kaart zetten die meer nodig heeft dan de 75W die de PCIe slot kan leveren. Tuurlijk, overkill voor een 100-150W kaart, maar op dit moment moeten GPU en PSU fabrikanten rekening houden met 3 verschillende aansluitingen (6-pin, 8-pin, 16-pin) wat alleen maar zorgt voor redundante aansluitingen/kabels.

Zelf snap ik het hele doel van de 16-pin niet echt; je kunt net zo goed 3x 8-pin aansluitingen gebruiken aangezien de videokaarten al formaatje vliegdekship hebben. Bovendien gaat het met videokaarten al helemaal de verkeerde kant op qua verbruik, 3 jaar geleden hadden we een connector voor 600W voor gek verklaard.
Kunnen we niet gewoon de server standaard overnemen, daar gebruiken ze gewoon de 12V PEG connectoren, dat werkt al jaren en loopt ook een hoop vermogen over.
Mogelijk stroomlijnen van productie. Met een enkele connector is het makkelijker om ontwerpen/pcb's voor meerdere producten te gebruiken.
Ik denk dat het qua productiekosten niet veel uit zou maken.

En ik neem aan dat Nvidia en andere betrokken partijen de 12Vhpwr standaard uitvoerig getest hebben voor de introductie.
Het gaat zeker wel uitmaken qua kosten. Nu hebben ze 3 stapels met connectoren die ze nodig hebben, 6 pins voor de low-end modelletjes, 8 pins voor mid-range en die 16 pin voor high-end.

Als alles naar 16 pins gaat dan hoeven ze 2 minder componenten in te kopen, op te slaan, de pick and place machines hebben geen tooling meer nodig voor die 2 componenten.
En dan is er nog het feit dat je maar 1x16 nodig hebt in plaats van 8+6 of 2x8 of zelfs 3x8.

Dat het per kaart misschien om centen werk gaat, dat klopt. Maar als je miljoenen kaarten produceert dan zijn dat geen centen meer maar tonnen.
PCIE-stekkers koop ik in voor ongeveer 20-30 cent per stuk. Pinnetjes zijn een stuk of twee cent per stuk.
Voor 12VHPWR was ik bij MDPC-X €3,81 kwijt per stuk, inclusief terminals. En in mijn geval moet ik het tientje verzendkosten dan nog uitspreiden over een vrij klein aantal stekkers.

Die prijzen zullen in de loop der tijd heus wel dalen, maar ik werd er toch niet vrolijk van toen ik de eindsom van m'n bestelling zag.
Durven ze de prijzen niet meer te geven?
Hardwareunboxed heeft al dat het 750 usd gaat kosten.
Dus wat ik toen zei dat het 700-800 gaat kosten is helemaal correct.
Moorelowisdead heeft het ook al dat het 750 usd gaat kosten en waarschijnlijk doet het 10-15% under de 4070ti.
Ik zei toch dat het gewoon de prestaties van de 3080 heeft en ook de prijs. hahaha
Dus volgende 5060 word ook dat prijs, want die gaat dan prestaties van de 4070, 3080 hebben.
En dan kan 5070 lekker 1200 usd gaan kosten omdat die dan ge prestaties van de 4080 heeft.
GG Nvidia met je prijzen en GG Amd en Intel die Nvidia prijzen volgen.
Jullie gaan over een tijdje geen 1 gpu meer verkopen want iedereen is terug op console.
Is een aparte aansluiting op de voeding met enkel een gelijkrichter, en een zware buck converter op de kaart zelf eigenlijk geen beter idee? Zomaar even een gedachte...
Sorry wat schieten ze er precies mee op tov nu?
Potentieel veel veiliger. 600W bij 12V is 50A, 600W bij 230V is minder dan 2A. Een hogere spanning zorgt voor veel minder problemen en minder complexiteit. Een simpele 2p stekker als bijvoorbeeld een XT60 kan 30A bij 500V verwerken, da's 15 kilowatt.
Je hebt door de converter dan meer warmte-ontwikkeling op de kaart zelf, maar die heb je in de hand, en bestaat volledig uit onderdelen die bij normaal gebruik niet los kunnen raken, ook niet als er een inferieure bouwer aan het werk is geweest.

[Reactie gewijzigd door kakanox op 23 juli 2024 10:18]

Ze bedenken wel een volgende revisie maar dat heeft tijd nodig. Tot die er is werkt dit natuurlijk feilloos en zien ze geen problemen, wanneer die nieuwe rev er is zo snel mogelijk updaten gewenst :D
Ben ik de enige die hier een oplossing in ziet op termijn?
https://www.theverge.com/...-extended-power-range-epr

[Reactie gewijzigd door skullsplitter op 23 juli 2024 10:18]

Op dit item kan niet meer gereageerd worden.