Corsair ThermalProtect-kabel schakelt gpu uit bij oververhitting 12V-2x6-stekker

Corsair komt met een nieuwe ThermalProtect-kabel. Deze 12V-2x6-kabel heeft beveiliging tegen oververhitting aan boord. Als de kabel te heet wordt en dreigt te smelten, schakelt hij automatisch de videokaart uit. De kabel is per direct beschikbaar voor 17,90 euro.

Corsair ThermalProtect-kabel
Bron: Corsair

De hittebescherming van de Corsair ThermalProtect-kabel zit verwerkt in een cablecomb, schrijft de fabrikant. Dat is een plastic opzetstukje dat de verschillende draadjes van de kabel netjes uit elkaar houdt. Corsair heeft daar temperatuursensoren in verwerkt, die in de gaten houden hoe warm de kabel wordt.

Als de sensoren 'extreme temperaturen' opmerken, dan gaat de ThermalProtect-functie aan, aldus de fabrikant. Dat zorgt ervoor dat de videokaart wordt uitgeschakeld, voordat de hitte schade kan aanrichten.

Werkt met iedere voeding

Volgens Corsair werkt de ThermalProtect-kabel met iedere voeding met een 12V-2x6-aansluiting, ongeacht het merk. Er is ook geen software nodig om de ThermalProtect-functie te gebruiken. Nadat hij is aangesloten, werkt hij volledig op zichzelf, zonder dat de gebruiker dingen moet instellen.

De kabel is 650mm lang en beschikbaar in het zwart en het wit. Volgens de fabrikant is de kabel daarmee lang genoeg voor gebruik in grote pc-cases. De kabel heeft twee jaar garantie en is leverbaar via de Corsair-website en andere webwinkels.

Problemen met 12V-2x6

De 12V-2x6-kabelstandaard wordt voornamelijk gebruikt in de nieuwste Nvidia-gpu's. Iedere kabel kan maximaal 600W aan vermogen leveren, waardoor zelfs de krachtigste videokaarten met één kabel voldoende stroom kunnen krijgen.

Ze brengen ook nadelen mee: het is namelijk bekend dat deze kabels in sommige gevallen extreem heet kunnen worden. In het ergste geval smelt de stekker, wat schade aan de videokaart kan veroorzaken. De ThermalProtect-kabels moeten dat dus voorkomen.

Corsair is niet het eerste bedrijf dat met een mogelijke oplossing komt. Bedrijven als ASUS, MSI en Thermal Grizzly brachten eerder al hun eigen kabels of voedingen om de hitteproblemen te verhelpen.

Corsair ThermalProtect-kabel
Bron: Corsair

Door Daan van Monsjou

Nieuwsredacteur

29-04-2026 • 15:49

37

Reacties (37)

Sorteer op:

Weergave:

Blijf het raar vinden dat Nvidia niet standaard met deze oplossing komt, is nu al established dat dit te vaak voorkomt met die 12v 2x6 stekkers dus waarom zou je niet een temp sensor in de kabel gooien om meteen van de slechte press af te zijn? Is die paar cent zo veel belangrijker omdat mensen toch wel een team green gpu kopen?
Dit is de oplossing ook niet.

Alle zes de 12V draaden moeten een aparte aansluiting hebbe op de videokaart, en deze moeten dan weer aangesloten worden op verschillende groepen. Bijvoorbeeld een 16 phase VRM opdelen in 4 waarbij elke draad 4 VRMs aanstuurd, dan 1 voor het geheugen en 1 voor de PCIE. Zo blijft elke draad binnen de 100W en kan er nooit oververhitting ontsaan.

Helaas schrijft NVIDIA de regels voor, en die hebben er voor gekozen om alle zes de draaden als 1 te zien. Dus als je er vijf doorknipt blijft de kaart gewoon werken, want die heeft geen idee hoeveel er aangesloten zijn.

Bij de 3090 deed NVIDIA dat in zekere zin nog wel door het op te delen in 3x2, maar sinde de 40-serie is het 6x1, en klanten mogen daar ook niets aan veranderen. Die mogen er zelfs niet voor kiezen op 6/8-Pin te gebruiken.

Zeer vervelend bedrijf dat NVIDIA.
Dat is veel te versimpelde voorstelling van de werkelijkheid die je zeker niet zomaar zo kan gebruiken!

Voor de 600W, minus wat via PCIe connector, gaat er ~8A per draad. Laten we stellen dat normaal gesproken de contact weerstand 0.01 Ohm is. Dan dissipeert elk contact in de connector 8^2 * 0.01 = 0.64W, voor een totaal van 3.8W.

Nu maakt er één geen lekker contact, en die heeft nu een contact weerstand van 0.1 Ohm. Het resultaat door hoe Nvidia het heeft gemaakt dat de stroom zich herverdeeld, en het slechte contact gaat nu 0.092W dissiperen, en de goede contacten 0.92W. Voor een totaal van 4.7W. Dus ja het is slechter geworden, maar nog best te overzien.

Laten we nu jouw idee toepassen. Elk draad gaat 8A doorheen getrokken worden: De goede contacten blijven dus 0.64W dissiperen. Het slechte contact gaat nu 6.4W dissiperen! Voor een totaal van 9.6W

Oftewel de totale connector gaat met jouw idee ~2x zoveel opwarmen, en per contact is de worst case opwarming zelfs 7x erger dan met Nvidias implementatie!

Er is dan ook een reden dat bijvoorbeeld een uitvoering: ASUS ROG Astral GeForce RTX 5090 32GB GDDR7 OC Edition wel monitoring heeft ingebouwd per pin, maar niet dezelfde stroom erdoorheen forceert. Ik heb nooit een betrouwbare bron gezien dat Nvidia dat zou verbieden, maar het is gewoon geen goed idee om te doen ook. Je hebt wel gelijk als er totaal geen contact gemaakt wordt, dat nu niet wordt opgemerkt (behalve dus bij een Astral kaart), en bij jouw idee de hele kaart niet zou werken en je dus veilig bent. Maar slechte contacten lijken mij waarschijnlijker dan uberhaupt geen enkel contact.

Overigens vind ik het verder jammer dat Nvidia niet een betere connector heeft gebracht. De 8 pins PCIe connector is imo ook een draak, dus itt vele hier vind ik niet dat we daarbij moeten blijven, maar Nvidia had gewoon betere marges moeten hebben op de connector.

Tegelijk kan je je ook afvragen of iets als deze Corsair kabel nou echt nodig is. Bedenk wel dat bedrijven niet dingen uitbrengen omdat ze nodig zijn, maar omdat ze geld opleveren. Als er terecht of onterecht genoeg mensen bang zijn voor de kabel, dan is het een verdien model voor bedrijven om 'oplossingen' op de markt te brengen.

En ik ga echt niet beweren dus dat het geen enkel probleem is, maar wel dat de kans dat hierdoor je kaart kapot gaat gewoon erg klein blijft, zie bijvoorbeeld: INNO3D in "[NVIDIA GeForce RTX 50XX] Ervaringen & Discussie"
Het is ook eigenlijk een vrij amateuristische fout om één fase over meerdere (potentieel ongeconroleerde qua aansluitkwaliteit) aders te verdelen, vanuit de industriele electrotechniek gezien zonder aanvullende fusing/smart-management.
Het probleem had al half niet zo'n vaart gelopen als ze delen van de connector z'n metaal dun genoeg hadden gelaten om als zekering te fungeren; m.i. beter een kapotte kabel dan een brandrisico!

En dat terwijl het gaat over steeds hogere vermogens; de hele reden dat de connector "nodig" was, is zodat je met één connector een groter vermogen kan verbinden dan PciE8p, daar waren de connectoren nog bewust overgedimensioneerd zodat overgangsverschillen binnen een betere marge vallen (met een groter totaaloppervlak, ligt daar je letterlijk grotere marge).

maar net-zogoed de reden dat 8p rated was tot 350w had te maken met de metaaloppervlakken, en vooral de (Terechte aanname) dat een connector-verbinding nimmer ideaal zal zijn.

Die connector was nog ontworpen door mensen die deze natuurwetten begrepen en respect voor hadden, maar de nieuwe designers, m.i. geenszins.

Liever een draak van een connector qua uiterlijk dan een draak van een vuurbal uit de pc :p zo super-onbelangrijk; net-als extension-cables, ben ik ook falikant tegen.
De 3090 is ook niet zonder problemen, ik heb meerdere voedingen/kabels moeten wisselen omdat de kaart soms te weinig stroom kreeg met de native 12 pin van de voeding, uiteindelijk toch maar weer de dubbele 8 pin>12 pin afgestoft toen ik er eindelijk achter was dat dit het probleem al die tijd is geweest :+ en dan was die van mij nog underclocked/balanced en een hele goede binning met 50 graden onder load.

Balans in stroomtoevoer is geen makkelijke opgave, fasen gescheiden houden ook niet, vanwege interferentie, ground loops en allerlei elektromagnetische ellende, dus ergens snap ik het wel. Het is gewoon de connector/standaard die verrot is, helemaal idioot dat de 8 pins connectoren al die tijd betrouwbaarder zijn geweest.
ze hadden eigenlijk het voorbeeld van ASUS moeten volgen en een soort BTF connector introduceren. Ik vind ASUS net zo'n kutbedrijf als Nvidia, maar BTF is geniaal.

[Reactie gewijzigd door StackMySwitchUp op 29 april 2026 16:16]

Nvidia geeft eigenlijk alleen maar om data centers, en specifiek AI data centers. Gamers zijn een leuke alternatieve inkomstenbron, maar is momenteel maar goed voor 10% van de omzet, en zo'n 5% van de winst. Ik kan mij dus goed voorstellen dat daar vrij weinig aandacht naar uitgaat.
Maar ook in datacenters wordt deze connector gebruikt. Als het echt zo dramatisch zou zijn dan neem ik aan dat er vanuit dat segment een zeer sterk signaal naar nvidia zou gaan.
Nee. Meeste serieuze DC kaarten komen in SXM:

Wikipedia: SXM (socket)

Zo af en toe zie je een 600W rtx A6000 Blackwell server editie met die connectors maar die kaart is passief gekoeld. Dat wil zeggen: enorme super blowiematerons in een windtunnel chassis wat kabels en bussen ook koelt, en in de praktijk zelfs meestal 300W maximaal. Plus, heel lullig, net wat meer kwaliteit dan gamer spullen
Of nog beter, een kabel die niet overhit ( of als je hem er een klein beetje scheef in hebt zitten, het gewoon niet doet, of beter vastklikt, en dus niet scheef kan, etc). Design van die connector is gewoon ruk
Of minstens, inachtnemende dat er geen actieve componenten zijn voor dergelijke bescherming; passieve componenten integreren om brandgevaarlijke situaties te vermijden, zoals paden/kabels met een dikte waar als een bepaalde stroom overschreden wordt, het als een zekering wegfikt, en niet de hele rest.

[Reactie gewijzigd door Annihlator op 29 april 2026 17:54]

Dat zorgt ervoor dat de videokaart wordt uitgeschakeld
Deze tekst zag ik ook in eerdere berichtgevingen voorbij komen, en dit stoort me toch degelijk.
Dus; videokaart op volle toeren, dus een stevig warme (hete) gpu...als ook hete stroomkabels....videokaart word uitgeschakeld en de fans die juist die hitte dient af te voeren raken hierbij ook uitgeschakeld? En de hitte niet meer in het juiste tempo afgevoerd kan worden en de gpu chip schade oploopt?

What de flip is dit voor een design??

Dit probleem is er al een hele tijd en totaal geen berichtgeving van nVidia dat ze dit probleem subiet gaan aanpakken!
Dat vind ik echt ronduit schandalig.
Zodra de voeding afschakelt is de maximale hitte op de chip al bereikt, daarna kan het alleen maar koeler worden.

En die hitte vloeit natuurlijk als een dolle het aluminum in. Dat de fans niet draaien maakt niet heel veel uit meer dan voor de temperatuur van de chip. Die daalt in seconden met tientallen graden.
Zodra de voeding afschakelt is de maximale hitte op de chip al bereikt, daarna kan het alleen maar koeler worden.

En die hitte vloeit natuurlijk als een dolle het aluminum in. Dat de fans niet draaien maakt niet heel veel uit meer dan voor de temperatuur van de chip. Die daalt in seconden met tientallen graden.
Helemaal duidelijk, en ik ben het er inmiddels ook mee eens gezien alleen de videokaart uitschakelt en de airflow van de pc case zijn werking blijft doen.
(deze gedachte schoot mij zojuist te binnen)
Maar als de power weg is dan wordt er dus ook geen warmte (energie) meer toegevoegd... Lijkt me dus sterk dat het een probleem is dat de fans dan stoppen.
Maar op het moment dat de videokaart wordt uitgeschakeld is de boel nog wel gloeiend heet.

Ikzelf heb in het verleden meegemaakt dat mijn pc crashte tijdens het gamen. als destijds nog niet echt een (zeer) ervaren pc gebruiker heb ik de pc maar even met rust gelaten. Na een minuut of 10 weer ingeschakeld met als resultaat dat de videokaart de vuilbak in kon want die was gestorven doordat de fans de hitte niet meer tijdig kon afvoeren. Zelfs na ongeveer 5 minuten was dat ding nog loeiheet. Dat was een dure les. PC heet, crash, direct weer aan en fans hun werk laten doen heb ik eruit geleerd.

Vanuit deze ervaring mijn voorgaande reactie.

[Reactie gewijzigd door WeirdScience op 29 april 2026 16:31]

Hoe lang is dat geleden? Klinkt eerlijk gezegd alsof de stroom niet echt er af was... Vroeger (decennia geleden) gebeurden dat soort rare dingen nog wel vaker, tegenwoordig is de beveiliging van al die componenten wel stukken beter.
Alle stroom was na de crash weg. De gehele pc deed niets meer, geen lampje ergens..niets.

Beveiliging: Waneer de stroom wordt ontnomen dan ben je ook elke vorm van beveiliging kwijt.

Wederom; voor mij gaat het er nog steeds om dat de te lang aanhoudende hitte (door uitschakeling) schade aan de GPU kan veroorzaken.
Dus zowel het ontwerp van de 12V-2x6-stekker als de ThermalProtect-kabel vind ik schrijnend en ik van mening blijf dat nVidia hier allang had moeten ingrijpen.
Maar die aanhoudende hitte kan niet hoger zijn dan hoe heet de gpu was op het moment dat de boel er uit klapte. Entropie zorgt er vervolgens voor dat het warmste punt alleen maar af kan koelen als er geen bron van warmte meer is. De warmte verspreid zich namelijk over de chip zelf en het koelblok. Als die hitte genoeg is om de gpu om zeep te helpen dan was het ding dus om te beginnen al veel te heet en heeft de thermische bescherming gefaald. Wederom iets wat decennia geleden meer gebeurde (of eigenlijk meer, die bestond toen nog niet), tegenwoordig klokken chips zichzelf al terug lang voor je op dat punt komt.

[Reactie gewijzigd door Finraziel op 29 april 2026 17:23]

Gezien dat het koelblok na een aantal minuten nog loeiheet was, lijkt ook mij te vertellen dat de kaart veeeeel te heet is geworden. (een spel met veel vuur en onploffingen)
Dus stierf de kaart tijdens of even na de crash...hier heb ik simpelweg niet het antwoord op.
tegenwoordig klokken chips zichzelf al terug lang voor je op dat punt komt.
Het is lang geleden dat dit op mijn netvlies is gekomen mbt videokaarten en is hiermee een prettige refresher. Cheers.

[Reactie gewijzigd door WeirdScience op 29 april 2026 17:32]

Beveiliging: Waneer de stroom wordt ontnomen dan ben je ook elke vorm van beveiliging kwijt.
En vanaf dat moment gaat de temperatuur omlaag. De draden (onthou, daar hebben we het over) zijn dan al beschadigd. Jij hebt het over chips, wij (en het artikel) hebben het over de aansluiting.
Het is toch van de pot gerukt dat er dit soort oplossingen moeten komen voor een standaard aansluiting die blijkbaar semi-spontaan doodleuk in de fik vliegt.

Waarom is deze aansluiting uberhaupt zo in de specs terecht gekomen.
Dat begrijp ik ook niet. En waarom moet het ook met één kabel aan te sluiten zijn.
Ik heb het nooit een probleem gevonden meerdere kabeltjes in mijn gpu te steken :)
Mijn 7800 XT heeft nog mooi 2x8 ipv een 12. Achteraf wel blij mee en het maakt als gebruiker echt niets uit. Doe er een cable sleeve omheen en tada, 1 kabel mocht je een glazen wand hebben.
Belachelijk dat dit nodig is, of ze gaan terug naar de tekentafel en maken die kabel zoals het hoort, of ga gewoon terug naar de oude 6+2 pin kabels die prima werken, en ook nog minder gezeik hebben met hoe ver je ze kunt buigen.
En dit alles was nergens voor nodig geweest als dit stuk verdriet van connector het daglicht niet had gezien. 3x8Pin hadden samen op hun sloffen een 5090 aangekund (8Pin PEG kan veel meer hebben in praktijk), maar nee, kostte te veel aan materiaal en productie dus laten we een brandgevaarlijke connector uitbrengen, de consument kan ons toch niks.
Al hadden ze er 2x 12VHPWR op gezet, niks aan het handje.

[Reactie gewijzigd door RadYeon op 29 april 2026 16:23]

Het zal aan mij liggen, maar dit is het zoveelste pleistertje op een connector die gewoon imho een dead on arrival connector is. Ik denk dat nVidia er beter aan doet om terug naar de tekentafel kan gaan, want het zal niet veel beter gaan worden ben ik bang.

EDIT: zie dat ik niet de enige ben met deze mening in deze thread.

[Reactie gewijzigd door valhalla77 op 29 april 2026 16:40]

Eigenlijk te gek dat dit als normaal wordt gezien: videokaarten van duizenden euro's waarbij je aftermarket apparatuur nodig hebt om smeltende connectors te voorkomen. Hoe zijn we hier beland?
Hoe zijn we hier beland?
Well, nVidia took us for a ride and was wasted or had a very retarded day.

Next time i'll drive.
Ik heb een beter idee; re-design de connector gewoon, afschrijven deze brakke 2x6 en back to the drawing board.

Het is zo simpel dat ik corsair graag afbrand op een halfbakken oplossing; het wordt tijd dat fabrikanten, en wel gister al, deze hele connector de rug keren.
gewoon goed inpluggen ook geen probleem.... Zelf een 5090 op volle kracht laten blazen ,de kamer werd heet. Die kabel niet ;)
Als alles goed zou gaan dan zouden er nooit ongelukken gebeuren op de aarde. Als een fabrikant zich geroepen voelt om een extra censor in te moeten bouwen, is er iets mis met de standaard, niet met de gebruiker.
N=1. Bij jou ging het goed, maar het gebeurt veels te vaak om het compleet aan onkunde van de gebruiker te wijten.

Om te kunnen reageren moet je ingelogd zijn