Nvidia lijkt GeForce RTX 4090 FE te leveren met verbeterde 12Vhpwr-aansluiting

Nvidia lijkt zijn GeForce RTX 4090 Founders Edition nu te leveren met een verbeterde 12Vhpwr-aansluiting voor de stroomvoorziening. Deze heeft kortere sensepinnen, wat de kans moet verminderen dat een kabel niet volledig wordt aangesloten.

Een Nvidia GeForce RTX 4090 Founders Edition met de vernieuwde stroomaansluiting is opgemerkt op Reddit, schrijft ook TechPowerUp. Een gebruiker plaatste foto's van zijn nieuwe videokaart, waar de aangepaste connector op is te zien. Betrouwbare bron Igor's Lab meldde eerder al dat Nvidia een dergelijke wijziging heeft doorgevoerd in zijn GeForce RTX 4070 Founders Edition en zijn gpu's die daarna uitkwamen. Het bedrijf lijkt dit nu dus ook door te voeren in zijn RTX 4090, die eerder uitkwam.

Het betreft een relatief kleine aanpassing, waarbij de vier kleine sensepinnen van de 12Vhpwr-aansluiting zijn verkort. Via deze sensepinnen kan een videokaart communiceren met de voeding en om hogere vermogens vragen. Als deze pinnen niet goed zijn aangesloten, kan de videokaart niet volledig functioneren. Door deze pinnen te verkorten, moet dus voorkomen worden dat er hoge vermogens door een kabel gaan wanneer deze niet volledig is aangesloten. Op deze manier worden problemen met smeltende kabels tegengegaan.

Vergelijking connector RTX 4070 en RTX 4080 FE
Een eerder getoonde vergelijking van een RTX 4070 FE met vernieuwde 12Vhpwr-aansluiting naast de 12Vhpwr van de RTX 4080 FE.
Bron: Igor's Lab

Door Daan van Monsjou

Nieuwsredacteur

12-07-2023 • 13:22

71

Lees meer

Reacties (71)

Sorteer op:

Weergave:

Ik volg toevallig "12v cable meltdown" al tijdje puur uit nieuwsgierigheid. NorthridgeFix heeft meerdere van soort gelijke situaties in verleden gerepareerd: https://www.youtube.com/watch?v=O9uHI0EAK8s
Grappig dat in het begin een "fabrikant" alles op alles zette om de schuld van de meltdown bij zijn klanten neer te zetten onder het mom "je hebt de kabel niet goed genoeg vast gezet".
Apparte manier om daar naar te kijken.

Nvidia heeft eerst uitgebreid onderzoek gedaan, en is daarna tot de conclusie gekomen dat de gesmolten connectors niet volledig ingeplugd waren.Gamers Nexus kwam tot de zelfde conclusie. En bij het overgrote deel van de foto's van gesmolten connectors is overduidelijk dat de connector inderdaad niet volledig was ingeplugd.

Daarna heeft Nvidia een statement gegeven dat alle kaarten met gesmolten connectors toch gewoon onder garantie vervangen worden. Hoe is dat "alles op alles zetten om de klanten de schuld te geven"? #ophef

En NorthridgeFix is wel grappig. Eerst maakt hij een hele heisa omdat hij meerdere gesmolten connectors binnen krijgt. Dat blijkt vervolgens een lading kaarten die door cablemod in maanden is opgespaard. Maar natuurlijk geen rectificatie.
Apparte manier om daar naar te kijken.

Nvidia heeft eerst uitgebreid onderzoek gedaan, en is daarna tot de conclusie gekomen dat de gesmolten connectors niet volledig ingeplugd waren.Gamers Nexus kwam tot de zelfde conclusie. En bij het overgrote deel van de foto's van gesmolten connectors is overduidelijk dat de connector inderdaad niet volledig was ingeplugd.
Kunnen we nou eindelijk eens ophouden met gebruikers de schuld geven dat een kabel van een high-tech product 600W kan leveren terwijl deze niet volledig is ingeplugd?

Het is overduidelijk een ontwerpfout geweest. Anders zou er niet zo snel al een "verbeterde" versie van de 12Vhpwr stekker zijn gekomen.

*edit*
Het enige acceptabele resultaat van een stekker die niet volledig ergens is ingeplugt, is dat er niets gebeurd. That's it. Als er iets anders dan dat gebeurd dan is het een ontwerpfout.

Bedenk zelf maar eens alle stekkers in je leven die je ergens inplugt. USB in je telefoon, een frituurpan, een adapter in een nachtlampje, een SATA-power kabel in een HDD, etc. Als de stekker er niet 100% inzit, dan mag er niets gebeuren wat onveilig is. Dat is een stukje productveiligheid die we in Nederland van consumentenproducten mogen verwachten. Zie bijvoorbeeld:
https://www.rvo.nl/onderw...cteisen#productveiligheid

[Reactie gewijzigd door Blorgg op 22 juli 2024 21:40]

De reden waarom stekkers smelten is ondertussen volledig duidelijk. Daar zit geen inherent oordeel aan vast over wie schuldig is. Zolang er geen mensen gewond zijn geraakt, en defecten netjes worden afgehandeld, ben ik zelf niet echt geintereseerd in een schuld vraag.

Je stelling over eisen aan stekkers is wel interresant, en leid naar een wellicht een onbedoelde conclusie. Andere stekkers zoals 8pin kunnen ook smelten. Zie https://www.google.com/search?q=8pin+melted Dat gebeurd wellicht minder vaak, maar het gebeurd wel degelijk. Deze nieuwe variant van de 12pin stekker is de eerste videokaart stroom stekker waar gecontroleerd wordt of de stekker helemaal goed is aangedrukt, precies wat je graag wil. Dus conclusie: geen videokaarten meer kopen met een 6, 8 of oude 12 pin. Blijft over een RTX4070FE en een RTX4090FE, of een paar lower power kaarten die met de 75w van het PCIe slot toe kunnen. Zit je nog wel met de 24 moederbord pin, en de 8 en 4 pin stekkers voor de CPU.
Je stelling over eisen aan stekkers is wel interresant, en leid naar een wellicht een onbedoelde conclusie. Andere stekkers zoals 8pin kunnen ook smelten. Zie https://www.google.com/search?q=8pin+melted Dat gebeurd wellicht minder vaak, maar het gebeurd wel degelijk. Deze nieuwe variant van de 12pin stekker is de eerste videokaart stroom stekker waar gecontroleerd wordt of de stekker helemaal goed is aangedrukt, precies wat je graag wil. Dus conclusie: geen videokaarten meer kopen met een 6, 8 of oude 12 pin. Blijft over een RTX4070FE en een RTX4090FE, of een paar lower power kaarten die met de 75w van het PCIe slot toe kunnen. Zit je nog wel met de 24 moederbord pin, en de 8 en 4 pin stekkers voor de CPU.
Hoezo is dat een onbedoelde conclusie? Waarom denken mensen toch omdat je kritiek hebt op 1 slechte stekker dat je dan automatisch een andere stekker helemaal top vind?

Een stekker zou geen onveilig gedrag moeten vertonen als deze niet volledig aangesloten is. Lijkt me vrij simpel als ik dat zeg. Dat betekend dus: geen enkele stekker. Niet 1. Dat is dus geen onbedoelde conclusie.

Maar zoals je terecht opmerkt zijn er dus vele stekkers die wel onveilig gedrag kunnen vertonen als ze niet volledig aangesloten zijn. En dat is iets wat eenvoudig op te lossen valt met beter ontwerp. Die ATX stekkers bijvoorbeeld zijn ontworpen in een tijd dat asbest nog maar net was verboden. Maar toch gebruiken we die stekkers vandaag de dag nog steeds.

Een stekker die binair werkt in de zin van: hij doet het wel of hij doet het helemaal niet, is niet moeilijk om te maken. Het kost een paar cent extra.
Heb wel eens een kapot mobo gehad, omdat een ISP me een USB modem gaf dat meer stroom trok dan het aankon. Er kan altijd wel wat gebeuren.

Daarnaast is het typisch weer zo'n probleem van 0,03% van de kopers van een duur product heeft pech en dus doet iedereen alsof de wereld in brand staat.
Bedenk zelf maar eens alle stekkers in je leven die je ergens inplugt. USB in je telefoon, een frituurpan, een adapter in een nachtlampje, een SATA-power kabel in een HDD, etc. Als de stekker er niet 100% inzit, dan mag er niets gebeuren wat onveilig is.
Als ik een frituurpan half inplug gaat hij gewoon aan en smelt hij vervolgens het stopcontact. In welke wereld leef jij waar er dan "niets" gebeurt?

Een half ingeplugde USB-stekker in de telefoon weet ik niet maar ook dat zou mis kunnen gaan.

Leuk dat jij vindt dat je alles fout mag doen en er dan anderen verantwoordelijk zijn dat het goed gaat, maar zo werkt het niet. Zeker als je je eigen PC wilt bouwen verwacht ik dat het je lukt een stekker fatsoenlijk in te steken.
Als ik een frituurpan half inplug gaat hij gewoon aan en smelt hij vervolgens het stopcontact. In welke wereld leef jij waar er dan "niets" gebeurt?
In welke wereld leef jij dat jij dit acceptabel vind? Dat is namelijk waar ik het over had. Het enige acceptabele resultaat is dat er niets onveiligs gebeurd. Dat jouw stopcontact smelt als je een stekker niet helemaal aandrukt is overduidelijk niet acceptabel.

Tuurlijk moet je stekkers correct inpluggen. Maar als dat nou eens een keertje niet gebeurd moet je apparaat, of erger nog, je huis dan maar afbranden? Zo van: eigen schuld dikke buld, had je de stekker er maar goed in moeten doen?

In wat voor wereld leef jij dat jij dat acceptabel vind. Kom op zeg. Waarom jij hier zo hard tegenin gaat ontgaat mij volledig. Beetje gebrek aan empathie voor je medemens of zo?
Als ik mijn frituurpan niet goed insteek smelt het stopcontact, dat is een feit en bij alle stopcontacten ter wereld het geval. Dat is mijn definitie van "normaal"; het gebeurt. Schijnbaar accepteert men dat want het wordt niet veranderd. Dus dat wat de hele wereld acceptabel vindt, vind ik ook acceptabel.

Hetzelfde was met de oude 4 en 8 pin connectors. Slecht ingestoken ben je de pineut. Ook daar vond iedereen dat gewoon.

En een beetje verantwoordelijk vind ik niet fout. Als ik met een hamer op mijn vingers sla doet dat pijn, als ik met een mes niet oppas snij ik ook mijn vingers eraf. Waarom is dat dan wel acceptabel?

Een beter stekker die domme fouten verhindert vind ik wel goed. Maar de four zat voor mij duidelijk bij de mensen die menen een eigen PC te moeten bouwen, maar niet eens de stekker goed in konden steken.

[Reactie gewijzigd door _Pussycat_ op 22 juli 2024 21:40]

Wat ik bij de smeltende connectors ook afvraag is of het doorzakken van een kaart e.v.t ook een reden kan zijn dat de connectie van de kabel losraakt, zeker als de kabel vervolgens tegen het glas geduwd wordt en trillingen bij gebruik. Tot dusver heb ik bij geen van de kaarten waarbij de connectors is gesmolten een anti-doorzakbeugel of staafje gezien in de foto's, dat is uiteraard niet gezegd hebbende dat ze deze niet simpelweg voor de foto hebben weggehaald of dat doorzakken inderdaad een oorzaak is.

Tot dusver heb ik mijn 4090 met een anti-doorzak staafje die is meegeleverd bij de ASUS ROG Strix-variant een foto gemaakt van de aansluiting toen deze net was aangesloten en enkele maanden later en deze is tot dusver 0,0 verschoven.

Ook kijk ik periodiek naar de voltages en deze blijft keurig rond de 12 volt hangen en lijkt ook niet ver af te wijken van die waardes, maar goed als het wel gebeurt kan het ook zo gelijk gedaan zijn natuurlijk.
Geen idee hoe veel een doorzakbeugel uitmaakt. Een krappe bocht in de kabel maakt zeker wel uit.

[Reactie gewijzigd door cnieuweboer op 22 juli 2024 21:40]

Als de kaart in een krappe kast zit waarbij de kabel al tegen de zijkant is aangedrukt of bijna, kan i.c.m. doorzakken er wellicht voor zorgen dat de connectie losraakt, maar goed dat is enkel iets wat ik mij zo inbeeld dat kan gebeuren.

Heb verder geen berichten gezien waarbij men dit als mogelijk gevaar belicht of één van de oorzaken van, ben hier daarom ook best benieuwd naar want vaak gebeurt dit smelten bij mensen die al maanden hiervan gebruik hebben gemaakt.
Maar waarom hebben we dit nooit meegemaakt bij de eerdere modellen? wat zegt dat over Nvidia tenslotte?
Wat bedoel je precies met "dit" en "dat".
Steyn_E begreep hem.

Waarom het toen destijds met de oude pins het geen issues gaf en bij deze nieuwere modellen wel. Wat ik dus ook een beetje dacht, dat dit gewoon minder robuuster is gebouwd in verhouding met aantal jaren terug.


Overigens zie ik dit in meerdere producten los van Nvidia. Ik krijg de laatste maanden heel veel slechte batches van laptops binnen waardoor er plotseling veel meer hardware matige issues voorbij komen.

Dat zijn mijn dit en datjes.
Omdat de oude 6 en 8 pin connectors blijkbaar robuuster gebouwd zijn (immers zal de user-error rate daar niet significant anders van zijn).
User-error rate zal hetzelfde blijven aan de user side maar de error bij hardware side zal wel toenemen door minder robuuster gebouwde pins, wat praktijk dus heeft aangetoond.


Dank voor je reactie.
Grappig dat in het begin een "fabrikant" alles op alles zette om de schuld van de meltdown bij zijn klanten neer te zetten onder het mom "je hebt de kabel niet goed genoeg vast gezet".
Dat was ook geval, want na de media aandacht is het probleem gestopt.

Alleen CableMod heeft hier nog last van omdat ze waarschijnlijk een slechte kwaliteit connector gebruiken met veel te veel speling.

[Reactie gewijzigd door TheDeeGee op 22 juli 2024 21:40]

Kunnen ze niet gewoon naar een hogere spanning overstappen en dat dan converteren in de gpu?
Niet helemaal...

Wanneer je de spanning verhoogt, gaat inderdaad de stroom omlaag maar...

Je moet dan de ATX standaard aanpassen wat niet zo eenvoudig is volgens mij..
Daarnaast moet je ook goed nakijken voor of de spanning niet over slaat tussen de pinnen...

Ik denk dat het probleem vooral zit in het aanpassen van de voeding...hier zou je dan een extra rail, bijv 24volt aan toe moeten voegen wat het ontwerp van de voeding complexer maakt.

Je kan ook de 12volt rail ophogen naar 24volt maar dan moeten alle componenten vervangen worden en moeten alle fabrikanten dat ondersteunen...
Of naar 380vac
Bij 48v blijft alle wetgeving het zelfde. Gewoon veilige gelijk stroom.
Molex rommel zal volstaan. En die mini pinnen zijn dan totaal onnodig.
De atx standaard mag sowieso op de schop. Wat gebruikt er in godsnaam nog 12v. Een ventilator. Water pompje?
De grootverbruikers zitten onder de 2v. En als je 600watt will verplaatsen doe je dat bijvoorkeur op een zo hoog mogelijke spanning.
Net onder de 50v dus ivm met wetgevingen
Spanning verhogen is niet zo eenvoudig als je doet voorkomen. Het hele pcb-ontwerp moet dan worden gewijzigd omdat de banen een grotere onderlinge afstand moeten hebben bijvoorbeeld.
Das nog geen 30minuten werk.
De afstand moet minimaal 0.1mm zijn bij 50 volt.
Bij 15volt 0.05mm

Het meeste werk gaat zitten in een nieuwe voorraad elko's aanleggen en die een plek geven op de print. Verder moeten alle spoelen opnieuw berekend worden.
Aangezien nvidea meestal toch wel een referentie design aanlevert hoeft de rest weer ouderwets weinig te doen
het word al geconverteerd in de gpu met een configuratie die lijkt op een switching power supply naar ongeveer 1,8v voor de gpu core. Beginnen met een hogere spanning betekend ook hogere frequenties en meer verbruik, maar ik ben geen expert hierin.

een hogere spanning betekend dat er nieuwe voedingen nodig zijn, en nog steeds kabels die dan wat minder stroom moeten verplaatsen
Of gewoon een aparte adapter voor je videokaart O-)
Dat kun je gewoon modden, als je heel erg handig bent met electronica.
Voor de rest van ons, gewoon goed inpluggen en geen gebruik maken van de bijgelverde adapter.
Corsair heeft hier hele mooie kabels voor.
PCI-express opnieuw ontwerpen zodat er geen extra voeding meer nodig is, is de enige logische oplossing.
Succes met het plaatsen van al die extra dikke koperbanen op een mITX plankje.
Zorgen dat GPUs minder stroom trekken is een andere logische oplossing...
Hoezo (alleen/specifiek) mITX? Zijn dikkere koper banen niet op ieder mobo hetzelfde probleem?

Maar vooral, wie combineert er een mITX moederbord met een 4090? Een behuizing waar een 4090 en een 800+ W PSU in passen, zet je toch gewoon een ATX formaat bord in?
Klopt, alleen op kleinere moederborden is het sneller een probleem. Denk dat je onderschat wat voor extreme plakken koper er nodig zijn om GPU vermogen te leveren.
Daarnaast zijn er zat mensen die kleine builds met high-performance hardware combineren. En als je in deze gevallen toch een extra voedingslijn nodig hebt, waarom dan in andere gevallen via het moederbord?
Die plakken koper bevatten minder koper dan de kabels die ze vervangen? De afstand in het moederbord is altijd korter dan de kablen van de PSU naar de videokaart. Bovendien leiden dikkere kabel niet in eerste instantie tot meer... dikte? ;) Als het hele bord opnieuw ontworpen moet worden, dan kunnen ze volgens mij gewoon de mITX afmetingen blijven hanteren.

Maargoed, het is sowieso geen oplossing, want het is letterlijk het verplaatsen van het probleem. Ipv direct naar je videokaart, moet al dat vermogen nu naar en via je mobo, dus komt daar een extra poort op.

GPU's minder stroom laten trekken gaat niet gebeuren, dan heb je ook evenredig minder prestaties. Ik bedoel, efficiëntie is leuk, maar hoeveel mensen ken jij die daar überhaupt naar kijken? En laten we niet vergeten dat het artikel over de 4090 gaat, daar geldt alleen de prestaties.

Maar stel de volgende generatie is 2x zo efficiënt, denk je niet dat ze dan gewoon de prestaties verdubbelen en het verbruik hetzelfde houden? Zeker nu mensen bekend/gewend zijn met/aan CPU's en GPU's die honderden Watts verstoken.
Als het hele bord opnieuw ontworpen moet worden, dan kunnen ze volgens mij gewoon de mITX afmetingen blijven hanteren.
Mijn punt was dat er - zeker op kleinere mobos - helemaal geen ruimte is voor een stroomdoorvoer van honderden watts.
GPU's minder stroom laten trekken gaat niet gebeuren, dan heb je ook evenredig minder prestaties.
Dat is maar ten dele waar: je betaalt relatief veel meer energie om 'de snelste' te kunnen zijn.
Ik vraag me serieus af waar het ophoudt, er worden gelukkig niet zoveel 'top end' GPU's verkocht, maar als de trend doorzet en ook de midrange/betaalbare categorie dit soort wattages gaat trekken vraag ik me wel serieus af of je dat kan volhouden in een tijd waarin van alle apparaten maximale energiebesparing wordt vereist.
Zeker nu mensen bekend/gewend zijn met/aan CPU's en GPU's die honderden Watts verstoken.
Raak je gewend aan honderden euro's extra aan stroom af te moeten tikken? Ik denk dat veel mensen juist een stapje terug gaat zetten.
Maar stel de volgende generatie is 2x zo efficiënt, denk je niet dat ze dan gewoon de prestaties verdubbelen en het verbruik hetzelfde houden? Zeker nu mensen bekend/gewend zijn met/aan CPU's en GPU's die honderden Watts verstoken.
Dit is praktisch wel wat er nu aan de gang is met de RTX4000 serie. Een 4070 en een 3080 hebben pakweg dezelfde performance, maar een 4070 doet dat met 200W waar een 3080 320W wil hebben. Afhankelijk van welke kant je dat op bekijkt verbruikt de 4070 een derde minder of de 3080 de helft meer.
Zou een hypothetische 5060 voor diezelfde performance een zelfde mate van efficientieverbetering laten zien dan kom je al heel dichtbij de 75W die je uit een PCIe slot kan halen, zonder extra kabels.

Voor mij was dat zeker een overweging toen ik de 4070 kocht. 100W minder verbruik voor dezelfde performance als een 3080 die amper 100 euro goedkoper was. Met mijn gebruik en redelijk ongeacht de stroomprijs haal ik dat verschil er op de gebruiksduur van de kaart er makkelijk uit.
Succes met het plaatsen van al die extra dikke koperbanen op een mITX plankje.
In het herontwerp kan je ook beslissen om niet meer te voeden vanaf het moederbord. Dat past ook in het plaatje dat @xajac voorstelt, als in dat geen extra voeding meer nodig is. :+

[Reactie gewijzigd door The Zep Man op 22 juli 2024 21:40]

En ook dat wil je weer niet, want er zijn zat kleine kaartjes die maar een paar Watt nodig hebben. Als je daarvoor weer kabels moet aansluiten is dat veel meer gedoe.
Wat versta jij onder opnieuw onderwerpen? PCI-express "opnieuw" ontwikkelen kost kapitalen, en daarbij huidige standaard is goede oplossing, universeel en werkt perfect. Er is niks mis met de PCI-express, denk daarbij moederbord fabrikanten hebben licenties / afspraken.

Het enige is dat er nog geen echt alternatief / concurrent is... ;) .
Een PCI-express slot kan niet voldoende stroom leveren dat is er mis mee.
Moederborden zijn NOOIT met intentie gebouwd om zware belasting over te brengen naar componenten... Dus hoezo is het opeens niet voldoende stroom leveren, of wou je soms 500watt over de PCB fietsen?? 8)7
Ik zou een (Intel) CPU toch wel een zware belasting noemen. Die zijn weliswaar (nog) geen 500W, maar dus om toch ;)

Maargoed, het zou letterlijk het verplaatsen van het probleem zijn, want die extra 500W heeft toch echt wel een aparte aansluiting nodig.
Ik zou een (Intel) CPU toch wel een zware belasting noemen. Die zijn weliswaar (nog) geen 500W, maar dus om toch ;)
En die hebben ook een aparte aansluiting.
Een aparte aansluiting.... op het moederbord.
Nee, dat is het probleem verplaatsen. Dan moet simpelweg de connector vanuit de voeding op het moederbord komen ipv op de GPU.

Nog los van alle andere nadelen.
Hoezo is dat de enige oplossing? Als je al dat vermogen via het moederbord gaat doen heb je enorme tracés nodig. Dan wordt elk moederbord stukken duurder. Ook de kans op interferentie door de hoge stroom neemt aanzienlijk toe.

Qua dat is een ‘simpel’ kabeltje verreweg makkelijker en goedkoper.

Heb jij nog argumenten waarom jou oplossing de enige logische zou zijn? En eventueel enige kennis over elektra?
Ja jaag jij maar +30A door een hele dunne trace }>

Gaat niet werken he
Waarom niet gewoon zoals AMD 2x8 pins aansluitingen blijven gebruiken? dat werkte prima, en heeft altijd prima gewerkt. Ik snap niet waarom Nvidia zo nodig met een eigen standaard moet komen die ook nog eens de nodige problemen met zich mee brengt. slecht idee, slecht getest en slecht geimplementeerd.
Intel heeft 12VHPWR ontworpen.

NVIDIA heeft de sense chip en de sense pins toegevoegd, en die hebben niets met het probleem te maken.
omdat je met 3x8 , in principe limited zou zijn tot 525w. (3x 150+75) ipv 675 (600+75) .
En voor t oog, net als dat overal rgb in moet, oogt dit net iets strakker.
En t neemt minder ruimte in op t pcb.
4x 8-Pin zou ook weer zorgen voor meer stress op het PCI-E Slot, 4 kabels die aan de PCB trekken.
Omdat Nvidia voor hun high-end kaarten persé meer stroom wil kunnen verbruiken dan de 2x8 pins toestaat. Niet dat verder ook maar iemand denkt dat dat een goed idee is, maar het is wel de reden voor de nieuwe connector.
Met de 12HPWR is niks mis.
Alleen voor de 4090 is ie misschien te krap.
Daar voor hadden ze gewoon 2 moeten gebruiken.
Verkeerde zuinigheid dus.
Mooi ,dan zullen ze de verloopjes in de doos moeten doen , eerdat de fabrikanten naar atx 3.1 switchen en de producties klaar zijn ben je zo 8 maanden verder , ik gok dat er nog +/- een jaar voorraad aan atx 3.0 gaat zijn.
Er zijn geen verloopjes. De pinnetjes zitten wat dieper waardoor je de stekker er beter in moet drukken. Doe je dat niet, dan werkt je kaart niet. Het probleem was dat de stekker er niet altijd goed inging, wat leidde tot smeltende contacten e.d.
Oude kabel past er gewoon in.
- deleted

[Reactie gewijzigd door Tom970G1 op 22 juli 2024 21:40]

Wat ik in d jaren heb geleerd is om nooit meer een FE versie te kopen tot nu toe alleen maar problemen mee gehad.
Ben ik de enige die een discrepantie ziet tussen de kaart in de titel van het bericht en de foto's? Titel zegt 4090FE, foto's zeggen 4080FE...
Het gaat ook om de connector zelf, niet het model van de kaart.
Hmm niet echt een fijne oplossing. Geef liever gewoon een haakse adapter erbij. Want die adapter die ook nog eens uitsteekt op een kaart die al extreem hoog is, is gewoon idioot bedacht. In 95% van de gevallen komt die gewoon tegen de zijkant van je kast aan en wordt dan scheefgedrukt.

Het is fijn dat die sense pinnen worden aangepast maar die waren het probleem sowieso al niet. Voor zover ik weet worden die niet eens gebruikt als je een adapter aansluit (of er moet iets in de adapter zitten dat iets doet over die sense pinnen).

Ik heb zelf ook een 4090FE en ik was verbaasd hoe idioot die adapter is gemaakt en hoe weinig zorg daar aan is besteed vergeleken met de rest van de kaart.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 21:40]

De sense pinnen werken in elke kabel, als ze geen of slecht contact maken gaat of je PC niet aan of je krijgt last van zwarte schermen.
Die adapter kun je beter vergeten en zowieso niet gebruiken.
Koop een kabel die rechtstreeks de kaart en de voeding in gaan.
Dan ben je van het probleem af. Corsair heeft daar een hele mooie voor.
Hmm ik heb die voor mijn seasonic nog niet gevonden helaas :'( wel gezocht toen ik de kaart net binnen had.
Seasonic moet toch ook wel wat hebben.
Ik kan me niet voorstellen dat zo`n groot merk niets heeft.
Dus bij deze: uitvoering: Seasonic 12VHPWR Cable Wit
Bedankt, ga ik proberen. Want die adapter ben ik inderdaad geen fan van. Alleen al die connectoren voor inputs al, nemen zoveel ruimte in beslag dat het echt de airflow hindert.
Precies en als je enige waarde hecht aan de looks van je build begin je er al helemaal niet aan.
Het ziet er niet uit.
Ik vind de nieuwe 12VHPWR 2x6 standaard in principe best handig bedacht, maar dit is wel het dummyproofen van een al prima werkende connector. Ik heb zelf tientallen computers gebouwd en nooit nergens problemen ervaren met de hwpr aansluiting.

Stop hem er helemaal in. En dubbelcheck de connector bij het sluiten van de kast. ;)
Zo werkt dat. Maar helaas alleen met een dedicated kabel. Dat verloop ding is gewoon te stug en zit te dicht bij de zijkant van je kast waardoor hij een te scherpe bocht maken moet.
Dat geeft stress en daar kan ie van los raken. Tenmiste dat is hoe ik het zie.

Op dit item kan niet meer gereageerd worden.