MSI-voedingen schakelen pc uit om smelten van 12V-2x6-stekker te voorkomen

MSI demonstreert op de CES-beurs zijn nieuwe MPG AiTS-voedingen, die de belasting per aderpaar van de 12V-2x6-stekker monitoren en zichzelf kunnen uitschakelen als er gevaarlijke waarden worden gemeten.

Het idee van monitoring op draden van de kwetsbare 12V-2x6-connector is niet nieuw; ASUS doet dat bijvoorbeeld al op zijn ROG Astral-gpu's. Waar bestaande oplossingen hooguit waarschuwingen geven, kunnen de MSI-voedingen zichzelf ook echt uitschakelen om te voorkomen dat het misgaat. Doordat de monitoring aan de voedingzijde gebeurt, werkt de techniek met iedere videokaart die je erop aansluit.

MSI demonstreert de GPU Safeguard+-techniek op zijn CES-stand. De aangesloten videokaart wordt daarbij vol belast, terwijl de stroomdoorvoer in bepaalde draden van de 12V-2x6-connector bewust wordt geblokkeerd. De volledige stroomtoevoer wordt dan over minder draden verdeeld, die daardoor over hun limiet heen gaan. De MSI Center-software toont dan een pop-up en een luidsprekertje in de voeding zelf begint te piepen. Onderneemt de gebruiker geen actie, door bijvoorbeeld de belasting te stoppen en de connector te controleren, dan sluit de pc zichzelf na drie minuten af.

Naast de MPG Ai1300TS en Ai1600TS verschijnen er ook goedkopere voedingen, de A1000PLS en A1200PLS, die van een simpelere uitvoering van de techniek zijn voorzien. De hardwarematige piep en uitschakeling zijn bij 'GPU Safeguard', zonder plus, nog wel aanwezig, maar de mogelijkheid om via software de precieze belasting per draad uit te lezen ontbreekt bij deze modellen.

Het is nog niet bekend wanneer de nieuwe MSI-voedingen met GPU Safeguard en GPU Safeguard+ op de markt komen, of wat ze gaan kosten.

MSI GPU Safeguard
MSI GPU SafeguardMSI GPU Safeguard

Door Tomas Hochstenbach

Redacteur

08-01-2026 • 13:00

59

Submitter: Gody

Reacties (59)

Sorteer op:

Weergave:

Het hele PC ecosysteem heeft een overhaul nodig. De kaarten zijn veel groter en zwaarder dan ze ooit zijn geweest. En we gaan alleen nog maar zwaardere kaarten krijgen, want er komen meer transistoren, dus meer stroom en hitte en er is dus meer wattage en koeling nodig. Zonder steun breekt een 5090 een slot af als een twijgje met vervoer en er is constante druk op het slot en de bekabeling, die men heel graag heel mooi weggewerkt wil hebben. Ook zorgt de enorme wattage voor een grote fluctuatie van de temperatuur in de kast en rond de connectoren. Het gaat dus alleen maar erger worden als er geen goede oplossing komt.
Dat klopt zeker, die aansluiting is volgens mij al ruimschoots 20+ jaar oud...

Leuk dat je er 8K240FPS technisch doorheen kunt blazen, maar een EV snelladen doen we ook niet met een normaal stroomkabeltje...

Het zou mooi zijn als er inderdaad een 'nieuw soort PCIE slot' komt - los van de schuiving naar de cloud, waar ikzelf dan weer veel gebruik van maak puur omdat niet alles waar ik op game een GPU heeft die dat aankan. Side benefit is dat mijn stroomnota dat ook leuk vind (kan helaas geen zonnepanelen in het appartement kwijt - maargoed dat verhaal komt ooit ook ten einde)

Ik ben benieuwd.... al ga ik de fails op internet van gebroken/brandjes wel missen.
Het pc eco systeem moet zeker overhaalt worden maar niet waarom jij denkt dat het moet. Ja er zijn meer transistoren maar die worden elke generatie zuiniger. Het probleem is niet alleen beperkt tot videokaarten maar Het zelfde geldt trouwens ook voor cpus van vandaag. De clock snelheden zijn absurt hoog om die snelheden te halen wordt er absurt veel stroom gebruikt. Je kunt vaak met de helft van de energie. 80-90% van de performance halen. Je ziet het ook met CPUS top modellen van AMD en intel branden gewoon letterlijk op ! Met 200+ watts en veel te hoge voltages om een kleinbeetje extra winst van 1-5% te halen .niks dus leuk voor benchmark nummers naar in echte wereld merk je er weinig van.

Fabrikanten persen het maximale uit producten. De efficiency wordt de deur uit gedaan alles for more power! en ja all alles op maximale draait dan krijg je last van bij producten . hitte hoge temperatuur schommelingen en alle gevolgen vandien. Vroeger hadden we de zelfde problemen. Nvidia ferimi kaarten waar je een ei op kon bakken. Asus Mars kaarten met 2 gpu dies op 1 kaart . fabrikanten die het uiterste zochten.

Er moet gewoon weer gezond verstand gebruikt worden en die 12vHP connector moet gewoon dood verklaard worden en begraven. Het is een probleem geen oplossing!
Die ovrerhaul is al bezig - alles schuift op naar subscriptiemodel in de cloud en diensten die je op afstand vanaf je kleine PC of laptop (of misschien zelfs je smart TV) kan benaderen. De grote joekels van servers, videokaarten en dergelijke komen in datacenters te hangen.

[Reactie gewijzigd door RadYeon op 8 januari 2026 16:40]

Dat is natuurlijk niet de overhaul waar markoverklift op doelde. Het gaat juist om hardware-oplossingen waarbij het gehele moederbord-cpu-gpu-etc concept op de schop moet om een meer toekomstbestendig basismodel te krijgen.
Nou niet voor mij hoor. Cloud gaming gebruik ik heel af en toe op de vakantie maar verder blijft alles lokaal. AI ook zoveel mogelijk.
Er zijn wel twee redenen voor dat kaarten groter en zwaarder worden. De ene is dat er meer hitte is om af te voeren, de ander is alleen omdat we gewoon veel stillere kaarten willen hebben. En des te groter de koellichamen zijn, en des te groter ventilatoren zijn, des te stiller de koeling kan werken.
Zonder steun breekt een 5090 een slot af als een twijgje
Dat was meer de 4090. De 5090 is verbazend klein en licht vergeleken daarmee (zeker omdat er nog eens 50% extra vermogen doorheen gejast wordt!). Ik vind het wel indrukwekkend. Maar inderdaad er is geen standaard meer voor steun aan het uiteinde van de kaart. Vreemd genoeg, want in het PC/XT tijdperk bestond deze wel! Elke PC had sleuven aan de andere kant van de kast en hele lange kaarten pasten daar goed in, soms met een soort metalen bracket. Mijn eerste PC kast had die sleuven ook nog.

Nou moet ik zeggen dat de techniek die je noemt allang bestaat; Servers gebruiken al tijden dat soort zware componenten. Powerbussen, aansluitingen het bestaat allemaal. Het is prima op te lossen. Gaat alleen ten koste van de stilte maar bij servers wordt daar ook helemaal niets aan gedaan omdat die toch in een luid datacenter staan. Valt nog veel aan te optimaliseren.

Maar inderdaad wordt het wel tijd dat die techniek nu naar de PC komt.

[Reactie gewijzigd door Llopigat op 8 januari 2026 21:31]

is toch belachelijk dat je hiervoor logica in je psu moet bouwen.

is die stekker niet gewoon ruk ontworpen? waarom blijven ze die dan nog gebruiken. is volgens mij al een jaar zo niet langer dat je er allerlei verhalen over leest.
Eigenlijk is het zo gek helemaal niet.

In je meterkast bijv. zit een automaat die laten we zeggen bij 16A af slaat. Maar als er verderop een slechte verbinding zit, die warm word is er niks wat brand gaat voorkomen.

Bij EV laadstations wordt dit soort metingen ook gedaan. Daar gaat tenslotte tegenwoordig ook makkelijk 500A door een stekker heen die de gebruiker er zelf in doet. Daar kan gewoon wat mis mee zijn.
Eigenlijk is het zo gek helemaal niet.

In je meterkast bijv. zit een automaat die laten we zeggen bij 16A af slaat. Maar als er verderop een slechte verbinding zit, die warm word is er niks wat brand gaat voorkomen.
Een automaat slaat niet af bij een slechte verbinding (en dus warmte) maar bij een kortsluiting. (en/of overbelasting)

Een psu slaat al af bij een kortsluiting. (en/of overbelasting)

Wat ze nu doen is een temperatuursensor plaatsen bij elk stopcontact in je huis om de hoofdschakelaar te kunnen schakelen. (nu klinkt het wel raar om het bij jou vergelijking te blijven)

Zat nog bij de AsRock PSU bericht met mijn hoofd, die gebruiken een temperatuur sensor.

Dit is gewoon symptoom bestrijding van een slecht ontworpen stekker.

[Reactie gewijzigd door Hell-Slave op 8 januari 2026 13:58]

Dit is gewoon symptoom bestrijding van een slecht ontworpen stekker.
Niet alleen de stekker, maar ook om zoveel energie te gebruiken met 12V. Het wordt tijd voor een 24V rail of videokaarten moeten simpelweg minder gaan gebruiken.
Met de toekomst in gedachte beter om meteen naar 48V te gaan. ;)
Op zich ook goed, maar ik denk dat dat alleen maar gebruikt zal worden als excuses om GPU's nog meer energie te laten verbruiken. Ik zie Nvidia al de eerste +2000W GPU uitbrengen en de spelers die gek genoeg zijn om dat te kopen. :P
Tuurlijk maar dan moeten ze net als met de stofzuigers doen in de EU niet meer dan 900W. }>
Ik kan me nog herinneren dat we videokaarten ooit stofzuigers noemden, dat ging destijds vooral over de geluidsproductie.
Ik weet niet of het probleem daarmee beter wordt hoor.
Het gaat uiteindelijk om het vermogen en niet het amperage of voltage.
En als je een hoger voltage gebruikt dan moet je dat op de kaart gaan downsteppen want de IC's werken op 3.3V of minder. Dat betekent weer een zooi extra verlies en warmteopwekking.

Ik weet ook niet of er nog veel ruimte is om de chips zuiniger te maken. Linksom of rechtsom kost computatie gewoon vermogen. Wil je de huidige standaard van graphics kunnen doen dan moet je daar een zooi Watts tegenaan gooien. 'Simpelweg' minder gebruiken is dan niet meer zo simpel. :)
Ik ben het met je eens dat de stekker slecht ontworpen is, in mijn ogen hoort de stekker zodanig ontworpen te zijn dat iemand die de eerste keer een nieuwe videokaart plaatst deze fout niet kan maken.

Dat er een nieuwere standaard moest komen om te zorgen dat de de stroomvoorziening op videokaarten met minder kabels voor elkaar konden krijgen snap ik wel, maar dit had zoveel beter gekund.
Het eerste wat er bij mij op zou komen is doodleuk een klip aan 2 kanten die vast moet klikken voordat er überhaupt power gevraagd wordt.
Dan hadden ze ook een bestaande standaard kunnen kiezen ipv weer wat nieuws te bedenken. In de RC modelbouw heb je soms ook hele hoge vermogens door kabels lopen bij helicopters bijvoorbeeld, daar zitten dan gewoon stekkers aan die dat kunnen hebben en daar worden ook gewoon dikkere kabels gebruikt ipv meer dunnere en een soort nep loadbalancing te gebruiken.

Einde van de dag maakt het qua grondstoffen niets uit of je 2 dikkere kabels hebt of 8 dunnere, komt samen op hetzelfde neer, waarschijnlijk met 2 nog iets minder plastic nodig voor de mantel.
Ze meten met deze technologie toch gewoon stroom? Wat hier gebeurt is dat er te veel stroom over gaat. Volledig gelijkaardig aan een zekeringkast. Als je daar te veel stroom probeert te sturen gaat je zekering ook ingrijpen (het verschil is dat het daar zonder logica gebeurt ).
Klopt, my bad. (Zat nog bij de AsRock PSU bericht met mijn hoofd, die gebruiken een temperatuur sensor.)
Ik denk dat ze de spanning(sdaling) meten en de stroom. Wanneer de spanning teveel gedaald is in de kaart dan is de weerstand onderweg te groot en dus teveel warmteontwikkeling.
Dan zie jij wat anders op de foto's dan ik. Ik zie dat de monitoring netjes het amperage per draad ziet, en daarop reageert. Exact wat een automaat ook doet (zij het slimmer door digitaal te meten ipv te 'trippen'). Dat de 'hoofdzekering' uit gaat (dus de psu zelf), ipv alleen de gpu lijkt me logisch, als je de gpu ineens helemaal geen 12v meer geeft over die exta draden zal die het vermogen wellicht uit de pci-e bus willen trekken met alle gevolgen van dien.
Zat nog bij de AsRock PSU bericht met mijn hoofd, die gebruiken een temperatuur sensor.
Ik vind het niet zo vreemd dát dit gemeten wordt, maar wél wáár dit gebeurt. De connector is gekozen door de GPU-fabrikant, of eigenlijk al door de GPU-chipfabrikant en daar ligt dus ook de verantwoordelijkheid. Als je hier safeguards wilt inbouwen, dan horen die primair op de GPU zelf thuis.

Want waar ligt anders de verantwoordelijkheid als het meetcircuit in de voeding zélf de GPU beschadigt door een fout of afwijking? Dan creëer je een extra faalpad buiten de controle van de GPU-leverancier.

Tenzij dit als een gestandaardiseerde, door de industrie gedragen oplossing in de ATX-standaard wordt opgenomen én door GPU-fabrikanten expliciet wordt ondersteund. Pas dan hoort zo’n mechanisme in de voeding thuis.
Je laat je teveel leiden door emoties en te weinig door vaardigheden. Het uitschakelen van de PSU is correct gedrag, en kan alleen door de PSU gebeuren. De GPU heeft daar geen controle over.

De trigger mag dan fysiek dichter bij de GPU zitten, maar die kan de PSU niet uitzetten.
Ik denk dat je mijn “tenzij” overslaat. Ik zeg niet dat de PSU niet mag afschakelen tuurlijk mag dat. Mijn punt is dat het niet vendor-specifiek in de PSU hoort zonder standaardisatie en afstemming met de GPU-kant. Als dit industriebreed in ATX wordt vastgelegd en ondersteund wordt, is het prima dat het in de PSU zit.

Dat is geen fundamentele beperking maar een ontwerpkeuze. Met een CSA + logic kan de GPU prima zelf detecteren en ingrijpen (VRM uit, load switch open, of PSU via een fault-signaal laten afschakelen dat kan met sense pins S1-S4). Dat gebeurt nu niet, maar dat is geen natuurwet.

[Reactie gewijzigd door InsanelyHack op 8 januari 2026 15:28]

Ben ik niet je eens.

De PSU levert stroom. Als er over een draadje teveel spanning loopt waardoor het draadje kan smelten / in brand vliegen, dan hoort de PSU uit te schakelen. Eigenlijk is dat gek dat dat er nog niet standaard in zit. Hoewel een aantal PSU's wel beveiliging tegen overbelasting hebben, maar die triggert blijkbaar niet bij een fout aangesloten GPU-connector.

Maar of er aan die connecter nou een harde schijf, een GPU, een op hol geslagen CPU of dat je er een stofzuiger op aan probeert te sluiten: de PSU kan de stroom op alle draden monitoren en zichzelf uitschakelen bij overbelasting.
Volgens mij hebben we het over twee verschillende beschermlagen. Natuurlijk moet de PSU zichzelf en de bekabeling beschermen tegen overbelasting of kortsluiting daar ben ik het volledig mee eens.

Mijn punt gaat niet over óf de PSU mag uitschakelen, maar over waar GPU-specifieke detectie en logica thuishoren. Als de PSU GPU-connector-specifieke signalen (sense-pins, stroomverdeling over pennen, etc.) gaat interpreteren en daar gedrag aan koppelt, dan is dat geen generieke beveiliging meer maar onderdeel van het GPU/PCIe-ecosysteem. En dát hoort dan gestandaardiseerd en afgestemd te zijn tussen PSU- en GPU-kant.

Anders krijg je vendor-specifiek gedrag met verschoven verantwoordelijkheden en onverwachte faalpaden. Dat is mijn enige punt niet dat de PSU niet mag beschermen, maar dat GPU-specifieke bescherming zonder standaardisatie problematisch is.
Hmm, misschien begrijp ik het dan verkeerd of iets?

De nieuwe connector heeft meerdere draden waarover de spanning verdeeld kan worden. Als je de connector niet goed aansluit, dan gaat de stroom logischerwijs over het aantal draden wat wel correct aangesloten is / contact maakt.

Ouderwetse PSU en alle GPU's hebben een simpel 'kroonsteentje' waar alle losse draden aan die kant van weer op elkaar aangesloten worden. Dan kan je dus (bij wijze van spreken) 5 van de 6 draden doorknippen en gaat alle stroom door 1 draad, die dan in brand vliegt en zowel de PSU als de GPU kunnen dat nu niet weten, omdat geen van beide per draadje monitor welke stroomsterkte (in ampere) eroverheen gaat. Nu is deze PSU wat slimmer gemaakt en heeft hij alle 6 de draadjes los van elkaar op een 'dinges' aangesloten.

En die dinges monitor per draadje de stroomsterkte en weet dus direct als er over 1 draadje teveel stroom loopt en er dus iets niet goed gaat.

Of begrijp ik het verkeerd?
Het stomste is volgens mij vooral dat Nvidia in hun pcb ontwerp de verschillende voedingslijnen direct bij elkaar voegt zodat het niet meer mogelijk is om te controleren of een of meer van die lijnen geen of slecht contact maken en alle vermogen dus over de resterende lijnen loopt. Op zich is de connector zelf niet eens zo slecht meen ik.
Als dat inderdaad zo is, dan is er niets op tegen dat GPU-fabrikanten daarvan afstappen en de voedingslijnen gescheiden houden. Dan kun je per lijn meten of beveiligen, en voorkom je dat het volledige vermogen onbedoeld over één of enkele resterende lijnen gaat lopen.

Technisch, je kan eigenlijk heel eenvoudig een current sense amplifier (CSA) op die lijnen laten meten (b.v. een TI INA4180 - quad-channel CSA). Die CSA meet → de logica detecteert een fout → en schakelt vervolgens óf de hele VRM van de GPU uit (12 V → ~1,2 V), óf onderbreekt de 12 V met een MOSFET (eFuse / hot-swap / load switch). Alles bij elkaar een paar euro extra op een kaart van €1000+.

[Reactie gewijzigd door InsanelyHack op 8 januari 2026 15:10]

Als dat inderdaad zo is, dan is er niets op tegen dat GPU-fabrikanten daarvan afstappen en de voedingslijnen gescheiden houden. Dan kun je per lijn meten of beveiligen, en voorkom je dat het volledige vermogen onbedoeld over één of enkele resterende lijnen gaat lopen.
Maar dat is een dure kabel, en de consument wil daar niet voor betalen ("gebeurt toch niks").
En dan heb je nog ontelbare third party kabeltjesmakers die de wereld beloven voor een paar euro. "Die gaan toch geen rotzooi verkopen?"
Ik las dat anders. Er werd juist gezegd dat Nvidia op de GPU-PCB de verschillende voedingslijnen direct samenvoegt. Dus niet in de kabel, maar op de kaart zelf. Dat heeft niets met een duurdere kabel te maken, maar met de PCB-layout en ontwerpkeuze van de GPU.
Opzich is dit wel precies hoe het in je huis ook werkt, trek je over één groep meer dan de 16A waar de bekabeling en het schakelmateriaal doorgaans voor gespecificeerd is wordt de stroom uit geschakeld.

De meeste PC voedingen proberen rustig hun volledige vermogen over één ader te leveren met schade als gevolg als dat door de gebruiker (= hier videokaart) gevraagd wordt. Vroeger had je vaak nog Multirail voedingen welke bijvoorbeeld meerdere 20A circuits hadden met elk een individuele overcurrent-beveiliging, tegenwoordig is vrijwel alles één rail welke het volledige DC vermogen van de voeding kan leveren.

Doet er niks aan af dat de 12V-2x6 een gedrocht van een connector is, maar vindt het in de basis helemaal geen raar concept dat de voeding extra beveiligingen per circuits krijgt.

[Reactie gewijzigd door !mark op 8 januari 2026 13:10]

In Engeland beveiligen ze het juist andersom: daar zit de zekering in de stekker en niet centraal in de meterkast. Is dat beter of slechter? Niet per se - het is gewoon een andere systeemkeuze.

In Nederland is de beveiliging centraal geregeld, maar wél via een gestandaardiseerd en wettelijk vastgelegd kader (NEN1010). Fabrikanten ontwerpen hun apparatuur daar vervolgens op.

Dat is hier precies het verschil: dit is geen gestandaardiseerde ATX-oplossing, maar een vendor-specifiek bedenksel. Daarmee verschuif je bescherming, verantwoordelijkheid en faalgedrag zonder dat daar een industrienorm of interoperabiliteit achter zit.

Dat maakt het niet per definitie technisch fout, maar wel conceptueel zwakker denk ik: je introduceert een extra beschermlaag buiten de controle en validatie van de component die het risico veroorzaakt (de GPU), zonder dat daar een gemeenschappelijke standaard of afsprakenkader onder ligt.

Het is zeker innovatief maar hopelijk belandt het ook in een toekomstige ATX-standaard.

[Reactie gewijzigd door InsanelyHack op 8 januari 2026 14:46]

De stekker is ook ruk ontworpen, maar om de een of andere reden wel tot standaard gebombardeerd. Dan vind ik het op zich een goede stap om, als we dan toch met deze beperkingen moeten werken, wat veiligheden in te bouwen.

Het is eigenlijk van de zotte. Jarenlang hebben we gewoon steeds meer connectors gezien (3x 6 of zelfs 8 pin op de top), en dat werkte gewoon. Het zag er niet uit, maar het werkte wel. Dat nVidia esthetische redenen met 12Vhpwr boven daadwerkelijk functioneren heeft gezet is mijns inziens idioot.
De 30 serie had hier logica voor op het PCB zelf. Bij de volgende kaarten hebben ze dat weggelaten. Hier is een video waar ze het mooi uitleggen.

YouTube: How Nvidia made the 12VHPWR connector even worse.

En als mensen het blijven kopen, blijven zij het ook gewoon verkopen.
En als mensen het blijven kopen, blijven zij het ook gewoon verkopen.
Met de focus op AI levert Nvidia steeds meer aan datacenter- en AI-initiatieven. De consumenten-GPU-tak wordt daardoor steeds exclusiever en lijkt minder prioriteit te krijgen, waarschijnlijk ook als het gaat om het oplossen van dit connectorprobleem, omdat die problematiek in AI/datacenter-toepassingen mogelijk minder speelt.
is toch belachelijk dat je hiervoor logica in je psu moet bouwen.
De reden dat ze dit doen, is omdat er een markt voor is. Of het moet of niet staat daar eigenlijk grotendeels los van. En ja er is echt wel wat aan te merken op de connector. Maar het punt blijft dat MSI dit doet omdat ze denken dat het verkoopt, niet omdat het nodig is.

Vergelijk het met al het eten waar tegenwoordig extra proteine aan wordt toegevoegd. Is dat nodig? Voor de gemiddelde persoon niet iig. Waarom doen fabrikanten dat dan wel? Omdat het verkoopt!
Je kan vinden van de stekker wat je wil maar er kunnen meer zaken mis gaan bijv, als er kabelbreuk optreed (te strakke buiging of eens klem gezeten) of een gebruiker een plug slecht heeft aangesloten zijn ook zeker relevante scenario’s. Dit in de voeding inbouwen is natuurlijk ook niet gek, oudere video kaarten hebben dit niet en zo kan je dit ‘retrofitten’ in dergelijke situaties.
Kijk, dát vindt ik nog een nuttige toevoeging.

Zeker omdat het met elke voeding videokaart werkt
edit:
Voeding aangepast naar videokaart

[Reactie gewijzigd door metalmania_666 op 8 januari 2026 19:48]

Hett is naar mijn mening symptoom-bestrijding.

Ja, het werkt voor de huidige slecht ontworpen stekkers, maar het echte probleem moet aangepakt worden door betere/andere stekkers te ontwerpen die het gevraagde vermogen wel aan kunnen.
Eens, maar helaas wel noodzakelijk
Tuurlijk niet?

Er word een oplossing voor een probleem ontworpen, terwijl het probleem zelf moet worden opgelost.

Stoppen met die slappen/brakke stekkers, en maak een degelijk alternatief

Dit is gewoon pleisters plakken omdat ze het kunnen.
met elke videokaart, niet met elke voeding. want het is msi hun eigen dingetje.
Voutje bedankt :+ Tekst aangepast.

Hopelijk volgen andere fabrikanten ook, zodat het een standaard wordt.
Maakt het weer een stuk overzichtelijk en veiliger
Het is mij nog niet duidelijk wat dan de volgende stap is. Is zo'n overbelasting eenmalig, of is het iets structureels? Het is natuurlijk goed dat er geen schade optreed met deze oplossing, maar hoe kun je dan de oorzaak aanpakken mocht het een structureel probleem zijn? Andere kabels, of de GPU RMA?
DerBauer heeft een paar mooie videos gemaakt op YT over deze problematische connector.
Zoals bijvoorbeeld deze: YouTube: Monitoring GPU connectors before they melt – WireView Pro II

De maximale belasting is 9.5A per aderpaar continu.
Enige onbalans is niet zo erg.
Hij heeft tevens laten zien dat het aandrukken van de connector en het aandrukken van de individuele aders van de connector al een flinke verbetering in de balans over de connector kan geven.

Dus... als deze voeding tript, goed de connector en aders aandrukken.
Als 1 aderpaar structureel 0A voert, dan is de kabel gewoon stuk.
Een continue overbelasting van meer dan 9.5A kan resulteren in een smeltende connector en daarmee permanente schade.
"Autofabrikant implementeert schietstoel voor in brand vliegend accupakket".

Dit lijkt me niet hoe ontwikkeling hoort te gaan...
Voor als je niet direct je voeding wil vervangen: zag onlangs dit filmpje YouTube: 12VHPWR Cables Are Just Too Fragile – WireView Pro II Preview over de WireView Pro II (Is op moment van schrijven te pre-orderen)
Naast het meten van stromen per ader die naar je GPU gaat is er een optie om de power off knop te laten 'indrukken'.
Is het op dit punt niet een beter idee om gewoon een XT60/XT90 op videokaarten te boetseren? Twee dikke joekels van draden er in en hoppa
Sowieso. Maar dat is niet mooi want cable management is dan lastiger enz enz enz.
Dit geknoei is dus de reden dat ik voor destijds voor Astral 5090 (per pin monitoring) ben gegaan + een wireview pro 1 en Asrock voeding die dus uitgaat als de kabel te heet word. Dit moet toch genoeg extra beveiliging zijn zou je denken :)

Maar inderdaad iedere fabrikant doet zijn eigen ding op moment. In plaats dat er gewoon een betere standaard werd gemaakt met meer overhead/ of standaard beveiliging mogelijkheden. De 8pin had gewoon veel meer overhead waardoor het bijna niet voorkwam.

En alsnog brengt msi een kaart met 2 van die aansluitingen met een bios variant die tot 2500w kan gaan 8)7

[Reactie gewijzigd door William/Ax3 op 8 januari 2026 16:37]

het echte probleem is niet de kabel.. maar het slechte ontwerp van gpu's

-> de beste gpu's voor 15 jaar gebruikten 250w, (x80ti/titan)

met een x70 van dezelfde serie 180w, een x60 120w

-

en zonder dat voltage te verhogen kregen we elke generatie ongeveer 40% prestatieverbetering.

dlss/upskaling is niet alleen zinloze verbloeming van een slecht product,

die ai cores voegen ook 150w toe die niet uit te zetten is.

dat er gewoon afslopen, betekend dus al een forse energiebesparing.

vervolgens gpu's werden altijd met de nieuwste silica procede gemaakt.

de 5000 series ligt 3-4 generaties achter, dit is waarom het zoveel stroom kost,

en waarom de gain in performance per wat tussen 2000 en 5000 in native maar 10% is.

en dan krijgen we ook nog eens B-keuze in welke cut tegenwoordig,

de betere (en dus met lager stroom toch prestaties te geven chips) worden nu gebruikt voor bvb de quatro 6000

of voor ai chips

al dit is de echte reden waarom het stroomverbruik van gpu's zo omhoog geschoten is.

het HOEFT dus niet.

ipv de stekker te fixen.. is de echte oplossing gewoon zuinigere gpu's te maken.
We zouden deze voeding massaal moeten bannen, vanwege de 2 letters in de naam die de hele markt aan het verzieken zijn ;)

Om te kunnen reageren moet je ingelogd zijn