Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Seasonic toont 12-pinsvoedingskabel voor Nvidia-videokaarten

Voedingsfabrikant Seasonic heeft een foto gedeeld van een 12-pinsvoedingskabel. Deze kabel zou mogelijk bedoeld zijn voor de 'Nvidia GeForce RTX 30-serie'. Het bedrijf gebruikt deze kabel naar eigen zeggen momenteel 'alleen om te testen'.

De foto werd door het officiële Seasonic-account gepubliceerd op het Chinese sociale netwerk Bilibili, zo merkte Twitter-gebruiker HXL op. Het zou gaan om de mogelijke 'grafische interface voor de Nvidia GeForce RTX 30-serie', zo schrijft het bedrijf. De kabel heeft een enkele 12-pinsaansluiting voor de videokaart en wordt via twee standaard 8-pinsconnectors aangesloten op een voeding. Dergelijke 8-pinsaansluitingen kunnen ieder maximaal 150W aan stroom leveren, waarmee de 12-pinsconnector vermoedelijk tot 300W aan stroom kan leveren. De kabel heeft volgens de verpakking een lengte van 75cm.

Er gaan sinds juli al geruchten rond over een mogelijke 12-pinsconnector voor Nvidia's komende GeForce-videokaarten, die gebaseerd zullen zijn op de Ampère-architectuur. Het is echter niet bekend of deze aansluiting wordt gebruikt voor alle komende Ampère-videokaarten. Volgens recente geruchten is deze stroomaansluiting mogelijk alleen bedoeld voor Nvidia's eigen Founder's Edition-videokaarten, zo schrijft Hardware.info. Seasonic meldt zelf dat het de kabel momenteel alleen gebruikt 'om te testen'. De fabrikant meldt dan ook geen eventuele adviesprijs. Het bedrijf stelt daarnaast dat het de afbeelding heeft geplaatst omdat er geen geheimhoudingsverklaring is voor de 12-pinsconnector.

Nvidia houdt op dinsdag 1 september een GeForce-livestream. Naar verwachting kondigt de gpu-fabrikant op die datum zijn komende RTX 30-videokaarten aan. Op zaterdag verschenen enkele foto's van een vermeende RTX 3090 Founder's Edition op Twitter, maar daarop zijn geen stroomconnectors zichtbaar.

Door Daan van Monsjou

Nieuwsposter

23-08-2020 • 14:57

117 Linkedin

Submitter: IM_YOUR_MAMA

Reacties (117)

Wijzig sortering
https://www.tweaktown.com...ce-rtx-30-series_full.jpg

Een vergelijking van hoe de 12 pin eruit ziet ipv de 8 pin, had niet verwacht dat die zo klein was eigenlijk.
Ik denk persoonlijk aangezien de geruchten spreken van dat alleen de founders edition deze aansluiting gaat gebruiken dat het meer future proofing is, dus niet dat ze gegerandeerd meer stroom verbruiken dan met 2 of 3 8 pin mogelijk is. Dit is meer om de designs te vereenvoudigen en een beter ontworpen power kabel te gebruiken. Niet ongebruikelijk om nieuwe kabels/connectoren tot een standard te maken die in de toekomst meer headroom hebben net zoals bv. een nieuwe HDMI/Displaypoort versie. Tevens zoals in de door jouw gelinkte afbeelding te zien is dat het formaat ongeveer gelijk is met een huidige 8 pin, dit kan dus ook voor de consument in voordeel weken met maar 1 kabel aan te hoeven sluiten en makkelijker kabel management.
maar hoe zit dat dan ? ik heb een nieuwe 850w voeding liggen voor de aankomende 4950x en 3000 serie nvidia en begrijp ik het nu goed dat die kaart een andere aansluiting heeft ? hoe zit dat dan met je voeding en die nieuwe kabel ? is het gewoon kabel vervangen of moet je nu een hele nieuwe voeding hebben ? ik ben een pc gebruiker niet een bouwer.
Hangt van je voeding af, heb je een modulaire voeding, dan gebruik je deze kabel die je rechtstreeks in 2 8p slots steekt, de andere kant met 12p steek je dan in je nieuwe videokaart.

Modulair:
https://www.corsair.com/m...5-NA-Gallery-RM750-01.png

Niet modulair:
https://lh5.googleusercon...SyxQtACHJCY69-Z6JpSKIKnjo

Heb je geen modulaire voeding (kans is iets minder denk ik, 850W is al wat aan de hogere kant en duurder segment), dan kan je met deze kabel niets doen. Dit betekent evenwel niet dat je de nieuwste kaarten niet gaat kunnen gebruiken. Er zullen vast wel kabels komen die 2x 8p naar 12p converteren, maar die 2x 8p zal dan een vrouwelijke aansluiting moeten hebben. Voor een modulaire voeding gebruik je enkel kabels met mannelijke aansluitingen aan beide kanten.
dank voor je antwoord. ik heb een RM850x die is modulair. ik kan me niet voorstellen dat ze niet met een oplossing komen. zeker met hoger segment voeding die duidelijk bedoelt is voor zwaardere systemen waar je wellicht mag verwachten dat daar recente grafische kaarten in worden gebruikt. maar ik denk dat ik eerst even afwacht wat nvidia nu daadwerkelijk gaat uitbrengen. ik hoor 3080 en 3090 en meest enorme geheugen opties en van 2 tot 3 slots. ik wil een 3080 als vervanger van mijn 1080. uiteindelijk is het voor mij een werkstation, gereedschap dus.

anyway, dank voor je verhelderende antwoord.
Dat soort converters waren al jaar en dag standaard toen de ATX standaard in het verleden werd uitgebreik met SATA, 6-pin en 8-pin PCIe connectoren. Als NV daadwerkelijk een nieuwe connector invoert, zullen binnen de kortste keren de nodige adapters voor een paar euro op eBay ed te vinden zijn.
De echte kwestie is of een 850W PSU genoeg is. Met een 2080Ti zit je toch al aardig aan de grens van 850W als je daarnaar een 10, 12 of 16 core CPU gebruikt. En hoewel de 4950X misschien iets zuiniger is dan de 3950X, heb ik het vermoeden dat de RTX 3090 of 3080Ti (of wat ze het ook gaan noemen) eerder weer meer stroom verbruikt dan de 2080Ti.
Wtf hoezo zit je met 850 aan de grens van een 3900/2080i ?

een 2080TI gebruikt +- 275W een amd 3900 250W. Waar wil je die andere 325 wat aan opmakenm ?
als ik bij partpicker kijk zie ik met 1 gpu ook niet vaak veel hoger dan 850w, ik zag er zelfs een met 600 watt
link

volgens mij moet ik met 1 gpu, en een paar disken toch wel uitkomen.
vraag me af of je nog naar 1x 1080 en 1x 3080, beide non TI, parallel dus niet in sli zou kunnen
Dat is een stevig undervolted 3950X en 2080 Ti. Bovendien nauwelijks verder componenten erin en een ITX board. Dan is 600W geen probleem. Maar met beetje OC, wat meer SSDs en/of HDDs en meer dan een handje vol fans ziet het er toch al heel anders uit. Alleen even GPU+CPU stock values optellen is gewoon erg kortzichtig (krijg wel +2 hier, dus het niveau daalt ook elk jaar weer verder). Bovendien wil je je PSU zo bemeten hebben dat ie onder full load rond de 80% belasting zit omdat dat de efficiency sweetspot is en constant in de buurt van 100% load op je PSU ook gewoon niet goed is voor de levensduur van de componenten.

Ik zit met mijn 3900X, 2080Ti, 10 fans, 2 pompen, 6 SSDs en 2 HDDs toch aardig richting de 800W. Met een OC op alleen de GPU (wel een stevige).

[Reactie gewijzigd door Darkstriker op 23 augustus 2020 20:47]

Een geschakelde PC voeding, vanaf 80+ Bronze, is het meest efficient bij 50% belasting, dit in tegenstelling tot b.v. een LED driver, welke het meest efficient is bij volle belasting.


https://en.wikipedia.org/wiki/80_Plus

[Reactie gewijzigd door toeschouwer op 24 augustus 2020 13:36]

2 pompen ? mijn config is stock 4950, 3080, 64/128gb, corsair 150 pro, 2x nvme, 2x ssd en wellicht nog 3 fans. maar dat is het dan wel, overclocken begin ik niet aan. overigens vond ik 600watt ook wel bizar weinig. weet niet wat je met +2 bedoelt.
2 pompen ?
Verlaagt de kans op een catastrophic failure omdat je pomp geen single point of failure is. Niet strikt noodzakelijk, maar groeide uit de organische uitbreiding van mijn loop en is wel mooi meegenomen . Ze kunnen daardoor ook allebij op zeer lage rpms draaien.

En wat OC betreft, doe ik daar zelf ook niet meer zoveel aan maar dankzij PBO is OC bij Ryzens een kwestie van een paar click in de bios, zonder met voltages ed te hoeven klooien en mijn 2080Ti heb ik samen met het (full cover) waterblok van een modder overgenomen die er een modded bios op had dat goed werkt.
ik begrijp het. ik heb nog even gezocht naar een vergelijkbare buidl als die ik voor ogen heb met rbg.
deze gebruikt zelfs de zelfde 850w voeding. ik denk dat het wel los zal lopen. mocht dit niet zo zijn weet ik dat het de voeding is.

link

en nog vergelijkbare 850w

link2

en een gamer nexus, ik weet niet of die bekent is. wel professionele videos ook 850w

link3

[Reactie gewijzigd door tja op 24 augustus 2020 00:09]

ooit wel eens 100w led in mijn gezicht gehad toen ik niet oplette, ik wil niet weten wat 325w aan led in een PC kast doet, dan stijgt ie op van de fotonen die weg geschoten worden volgens mij :+
En dan heb je die Ryzen nog flink overklokt ook, stock zou die niet verder moeten komen dan de 150 ongeveer.

Ik snap die achterlijke voedingen ook niet, ik heb 450w in mijn gamesysteem (3600 icm een rx5700 en no problemo).
Ik heb een Ryzen 1800X max overclocked en een 2070S ook. 4 SSD's erin met 4x RAM sticks en ook een 450W voeding. Draait prima zonder enige instabiliteit. De videokaart geeft aan als de spanning niet stabiel genoeg is en die heeft nog nooit gezeurd.
16%? Dat is wel heel bizar. Mijn vorige PC's deelden dezelfde voeding. Een corsair 550 watt, ding had ik aangeschaft in 2008 of 2007, deze heeft het 2 PC's overleefd waarvan de laatste een AMD Bulldozer was, 125W TDP en had een HD7900 als videokaart. Die PC was erg stabiel, ik denk niet dat ik je post over 2 jaar nog eens opzoek. Als ik echt zoveel zou verliezen (volgens jouw schatting dus minimaal 2 procent per jaar) zou ik nog maar 440 watt over hebben in het beste geval en slechts 300 watt bij 5% verlies.

Ik heb de voeding nu een jaartje in gebruik en recentelijk heb ik eens wat stof weg gehaald. Bij de voeding hoefde dat niet, ergo, die fan slaat zelden aan dus belasting van het ding is nihil.

En dan heb ik nog niet eens gekeken naar de netwerkapparatuur welke ik zakelijk in gebruik heb, die voedingen gaan ook vrijwel allemaal 10-15 jaar mee. En die 85% zoek ik niet eens op, sterker nog, in de reviews zijn de efficiency- en ripple-tests erg goed en wijken amper af zelfs op 400W terwijl hij dan al voorbij de 85% zit. Misschien is je bron verouderd of gaat uit van crap voedingen. Ik probeerde echt een voeding te kiezen die ook vooral op lage belasting efficient was (deze is >90% vanaf 22,5 watt tot 400 watt) want daar draaien de meeste voedingen ook op tenzij je echt een gamebak hebt. Dat mijn vorige dik 10 jaar mee ging was ook teken dat een paar tientjes extra investeren in een goede voeding echt kan lonen. En het is niet veel, 3 tientjes meer dan your average 500 watt voeding ofzo.
Prima toch, dan heb je het goed genoeg uitgekiend en een goede voeding uitgekozen. Maar dat is niet een reden om te zeggen dat je xx watt nodig hebt in alle scenario's. En om dat van de daken te schreeuwen tegen iedereen.
Onzin. R5 3600 (80W) + RX5700XT (240W) + rest (<60W) < 380W < 85% van 450W.
Bovendien is een high end 450W voeding (@Nox heeft een be quiet! Straight Power 11 450W) nog altijd efficienter dan een 650W voeding van MS-Tech en soortgelijke troep.
Een 3900x vebruikt in Cinebench load test 144W en een systeem load van 204W. Zie reviews: Ryzen 3900X en 3700X - AMD stoot Intel van de troon
In principe zou een 550W voldoende moeten zijn, maar met headroom wil je minimaal 650W.
Je rekent verkeerd, omdat je waarschijnlijk niet goed hebt gelezen.
De kabel waar Seasonic nu mee zit te testen heeft aan de voeding kant 2x 8 polige stekkers, dus max 300 Watt, dat betekend dat elke voeding die in staat is om 2x 8 polige stekkers aan een video kaart te leveren in staat is om een RTX 30xx te voeden.

Dat de kabel aan de videokaart kant een 12 polige stekker heeft doet niet ter zake.
Het gaat voor de voeding om de stekkers aan de voeding kant.

Daarbij, het plaatje nog eens goed bekijkend, aan de voeding kant worden er per stekker 6 draden gebruikt (2x6=12). feitelijk gaat het dus om het voeden van een video kaart met 2x 6 polige voedings aansluitingen.
Nu zijn 6 polig stekkers niet erg gangbaar meer, net als dat kabels met 8 polige stekkers vaak met 6 draden bedraad worden.

[Reactie gewijzigd door cHoc op 23 augustus 2020 18:57]

Mijn SF voeding van 650W heeft geen enkel probleem met een overclockte 2080TI en een 9700k op 5.2ghz. Ik heb nog wel wat overhead ook nog..
Hebben veel voedingen dan geen 6+6 of 6(2)+6(2) aansluiting?

Het wordt natuurlijk erg duur als je naast een nieuwe GPU ook een nieuwe PSU nodig hebt. Sowieso lijkt me dat mogelijk omdat de kaarten meer verbruiken dan de voorgaande serie?
Een 12pin is leuk maar mijn RX5700 heeft al 2 x 8 pins nodig dus heb je er ook nog weinig aan, waarbij ik ook nog eens 2 losse kabels moest gebruiken volgens seagate omdat je ze niet vanaf 1 aansluiting op de psu mocht voeden.
Je vind een nieuwe voeding van 70-100 er boven erg duur worden . Maar hangt er wel een GPU van 1400 euro aan?. Lijkt mij niet geheel in verband

[Reactie gewijzigd door loki504 op 23 augustus 2020 17:30]

valt wel mee. je kan hem prima verkopen. ik denk dat die Chinese plof voedingen slechter voor het milieu zijn.
Klopt wat je schrijft ik denk tevens ook dat een modulaire voeding wel in aanmerking komt met het nieuwere kabel management van de nieuwe nvidia 3000 series videokaarten.Als je al een niet modulaire hebt liggen ben je zwaar de klos want dan kloppen de aansluitingen niet.

ik heb zelf nu ook een nieuw systeem en ik heb niet voor modulair gekozen maar ik ben tevens ook niet van plan om de 3000 serie van nvidia te kopen.Ik denk dat het een 1080 er word met of zonder ti misschien wel een gtx.ik heb een voeding van 650 watt van seasonic.Maar als die wel modulair voeding hebt en geen 12 pins aansluiting ben je ook de klos of je moet de stekkers in elkaar moeten kunnen schuiven dan zou het wel kunnen.Een verloop stekker zou idd ook een oplossing kunnen zijn @ hieronder

[Reactie gewijzigd door rjmno1 op 24 augustus 2020 07:45]

Je bent niet zwaar de klos want een verloopstekkertje (adapter voor 2x8-pin naar 1x12-pin) zal gewoon bij elke videokaart die een 12-pin vereist meegeleverd worden.. Dit is niks nieuws in PC hardwareland, is in het verleden al diverse keren gebeurd als er een nieuwe aansluiting kwam..
Wordt gewoon een verloopje, andere voeding is niet nodig.
dank je wel voor je antwoord
juist klip en klaar :-)
Artikel niet gelezen? Je antwoord, ook als niet bouwer, staat er gewoon tussen.

Dit is een verloop van standaard kabels naar deze mogelijk nieuwe standaard, want er bestaan nog geen voedingen met deze aansluitingen.
Vanaf je nieuwe/huidige 850w voeding moet je de standaard 2x8pins stekkers in de hier afgebeelde adapter steken, waarvan ik verwacht dat die bij een 3090 gewoon bijgeleverd word, dergelijke adapters, ook al had je ze niet zitten al bijna 10 jaar bij retail videokaarten voor mensen die niet de juiste aansluitingen op hun voedingen hadden.
net als vroeger dus. okay, dan las ik het artikel dus met een verkeerde gedachten. dank voor je antwoord.
Ampère ging “dubbel zo krachtig zijn aan de helft vh stroomverbruik”. Right. Triple slot voor de koeling en nog meer pins om de stroom te kunnen leveren. Ik hou m’n hart vast hoeveel stroom dit monster zal verstoken.
We weten natuurlijk niet of het dan 1x 12 pins wordt ipv de 8 + 8 + 6 van mijn 2080ti nu, wat dan wel een bijna 50% vermindering is.

Met hoeveel moeite ik nu heb moeten doen om 2x 8 + 8 + 6 mooi naar mijn gpu's te kunnen trekken zou dat zeker welkom zijn.

[Reactie gewijzigd door starfight op 23 augustus 2020 15:04]

Dat is geen standaard 2080ti. Mijne heeft gewoon 2x8.
Voor 300W heb je ook niet meer nodig.

[Reactie gewijzigd door Arjant2 op 23 augustus 2020 15:09]

Die 12 pins doet 300 Watt hier, want gevoed door 2x8 pins die standaard 150 watt aan kunnen.

Jouw 2080 Ti doet dus 375 (2x150 + 1x75) versus deze 300. Weinig 50% vermindering aan te vinden dus. Tenzij je op het aantal pinnen doelt :)

Ook bij 75 watt uit het PCI-E-slot kom je niet op 50% (450 vs 375).

Deze connector kan tot 648 watt aan, dat is 108 wat per stroom leverende pin, tegenover 50 watt per pin bij een 8 pins (3*12 volt pinnen) vs 37,5/25 watt per pin bij een 6 pins. (Bij 6 pins worden soms 2 en soms 3 pinnen op 12 volt gebruikt volgens Wiki: https://en.wikipedia.org/wiki/PCI_Express#Power)

Er zijn 2 mogelijke redenen voor deze connector:
1) Er komen versies die echt veel stroom gaan vreten
2) Nvidia wil het aantal connectors op een kaart verminderen (omdat wellicht gedacht worden dat bij veel connectors de kaart ook veel stroom vreet).

Jouw config is nu niet echt een vaak voorkomende (2x 2080Ti).
SLI is zo goed als dood, dus 2 kaarten zet vaak al geen zoden aan de dijk (behalve GPU-rendering, al gebruik je daar geen SLI), laat staan dat er veel mensen zijn die € 2.500 aan gpu's gaan uitgeven en het ook nog willen zien vanachter een raampje.
Het is niet omdat dit een andere connector is dat er meer verbruik is. Zoals in het artikel staat worden nu doorgaans 2x 8pin gebruikt voor 150W elk. De nieuwe connector voegt dit samen tot 1x 300W.

Ik durf wedden dat er sowieso een adaptertje in de doos zal zitten.
Maar wat is het voordeel van de nieuwe 1x12 connector ivm 2x8.
1 connector minder, minder ruimte nodig op de PCB, minder failure-points.
En makkelijker te cable managen als er eenmaal voedingen op de markt zijn met een 12pin kabel.
Is dat zo? Een dikke kabel is lastiger te managen dan twee keer een dunne lijkt me.
ipv 16 draden worden het er nog maar 12 ;) dus dat maakt het makkelijker, ook word het dan 1 bundeltje van 12 ipv 2 van 8 wat ik persoonlijk prettig zou vinden, ziet er gewoon strakker uit hoe je het wend of keert.
Meer failure points want het dient als omzet stukje.
Nee, want de kabel in het artikel vervangt twee 8-pins kabels van de voeding voor één 2x8-pins naar 12 pins kabel.
Ampère ging “dubbel zo krachtig zijn aan de helft vh stroomverbruik”.
Toevallig een bron daarvan? En dan bedoel ik niet van een willekeurig blogspam artikel.

Ik gok zomaar dat die claim niet van Nvidia af kwam. Vier keer de performance per watt binnen een generatie zou ongekend zijn. Nou ja, misschien toen we van CPU's met 2D kaarten naar 3D-accelerators overstapten.

[Reactie gewijzigd door SirNobax op 23 augustus 2020 15:51]

Ik heb zo'n vermoeden dat de generatienaam 'Ampere' een heel ironische bijklank zal krijgen.
Zoals je al aangeeft wijst het er echt op dat Nvidia overboord gaat met alles, ongetwijfeld ook met de €.

Als ik terugkijk op de aanschaf van een 1080TI voor €760 dan is het een gouden beslissing geweest.
Zelfs toen vond ik dat veel te veel geld en het verbruik van 280W al overboord gaan.
Wat het nog enigszins rechtvaardigde was de prestatiewinst van 20-30% extra fps ten opzichte van de gewone 1080.

Ik had hoop dat Nivdia zich weer ging focussen op performance/watt. Maar het lijkt erop dat ze alle zeilen bijzetten om AMD maar een beentje voor te kunnen zijn.
Gelukkig is er nog hoop dat het rode kamp wel zinnig gaat dimensioneren.
Ampère ging “dubbel zo krachtig zijn aan de helft vh stroomverbruik”. Right. Triple slot voor de koeling en nog meer pins om de stroom te kunnen leveren. Ik hou m’n hart vast hoeveel stroom dit monster zal verstoken.
Als je binnen die logica dat gerucht combineert met deze stekker dan zou dat deze kaart 8x zo krachtig maken (2x meer stroom op 4x de performance per watt) :+ .

Maar denk dat het logischer in elkaar zit. Vermoedelijk zal er een (kosten of performance) voordeel optreden door 1x 12 ipv 2x8 te gebruiken. Waarmee deze connector dus niet betekent dat de kaarten persé (veel) meer stroom gaan verbruiken.

Performance per watt verschil tussen een 1080 en een 980 zat tegen de 60% aan (100/63). Wat dat betreft hoeven we niet gek op te kijken als een dergelijke verbetering ook deze keer behaald zal worden. Ik zou niet rekenen op een verbetering van 400%. Een verdubbeling lijkt mij al heel wat.
Je weet toch wel dat de overige modellen later uit gaan komen: xx80, xx70, xx60, xx50.
De x70 was voor mij altijd de sweetspot geweest: goedkoper, 1 kabeltje, geen heethoofd met nog
goede performance.
Ik heb op meerdere plekken gelezen dat de kaart 350 watt gaat trekken, de rest haalt hij dus uit het PCIe slot? Zal krap bemeten zijn voor veel systemen. Aan de andere kant is het prijskaartje van 1400 dollar ook wel erg "passend" en denk niet dat de kaart op de mainstream markt gericht is, maar op de "omdat het kan" groep.
Een pcie slot kan 75 watt leveren. Dus 300+75 totaal in dit geval. Kan prima.
Wellicht kunnen ze starten om een GPU PSU uit te brengen :)
Dat patent van 3DFX hebben ze vast ook nog wel slingeren....

http://menversus.com/images/NJoIeOYYAZ3dfxv560009dz.jpg
Gamers die zo'n kaart kunnen betalen proppen ook een degelijke voeding in hun pc.
Kan iemand mij uitleggen waarom er zoveel pinnen nodig zijn?

Stel een kaart is 350W. Das best een aardig vermogen. Als ik mij niet vergis mag er vervolgens 75w via het PCIe slot geleverd worden, en blijft er de 275W over. Over de PCIe power stekker loopt alleen 12V, dus dat is dan een stroom van ca. 23A.

Volgens mij is de pitch van de connectoren 4.2mm. De meest populaire stekker in deze stijl is de Molex mini-fit jr. Als ik een een willekeurige datasheet kijk, mag deze 13A aan stroom trekken. Dan red je het makkelijk met 2x plus en 2x gnd, dus 4 pins. Wellicht wil je wat ruimer calculeren omdat de temperatuur aardig kan oplopen maar 6 of 8 pinnen moet dan toch echt wel de max zijn.

Ik weet niet wat de typische aderdoorsnede is voor voedingskabels in een PC, maar het zal vast iets tussen de 0,75mm2 (AWG18) en 1,5mm (AWG16) zijn. Dan heb je het over grofweg 9 tot 13A per geleider bij een temperatuur van rond de 50 graden. Met een dunne variant heb je dan 3 "+" geleiders nodig (6 pins) connector, en bij 1,5mm2 kom je ook prima met een 2 geleiders (4 pins weg). Dat kan het dus ook niet echt zijn.

Wanneer de stekker en het snoer geen beperkende factor zijn, waarom dan de waanzin van 2x6 pins, of zelfs 2x 2x8 pins?

Ik weet niet of verschillende 12V rails in een voeding niet aan elkaar gekoppeld zitten, maar dat zou dus eigenlijk ook niet hoeven uitmaken. Over een 4 pin stekker, kan je natuurlijk prima met 2 verschillende rails voeden dus dat kan geen argument zijn.

Dat deze nieuwe 12 pins connector een veel kleinere pitch lijkt te hebben vindt ik een goede ontwikkeling. Dit zal best zorgen voor een lagere toelaatbare stroom per pin, maar dan nog lijken 12 pins mij erg veel.
Ik ga er vanuit dat nvidia niet zomaar voor de lol kaarten met 2x 8 pins stekkers uitrust, en hun engineers zullen hun vak best verstaan.
Bij 8 pins GPU connectors zijn daarnaast twee aders bedoelt voor current-sense, en dragen dus geen vermogen, en bij een 6 pins connector is dat één ader.
Doe maar lekker 3x8, of 4x8 desnoods, whatever, gewoon lekker standaard spul gebruiken.
'Doe maar gewoon, dan doe je al gek genoeg'
12 pin molex is gewoon een standaard connector.
Inderdaad. Is gewoon te bestellen als losse connector: https://www.digikey.com/p...30251200/WM1788-ND/252501
Die connectoren nemen natuurlijk best aardig wat ruimte in op zo'n kaart, als toch alle kaarten 2 kabels (of zelfs 3) nodig hebben kan ik me voorstellen dat het wel is tijd zou kunnen zijn om een nieuwe connector standaard te beginnen..
gelukkig is intel net klaar met de nieuwe ATX standaard.

https://www.youtube.com/watch?v=heyGtgdfN7A
Ach ja, 6, 8 of 12 , tis een stekkertje met wat pinnetjes. Zal mij een worst wezen.

Heb liever dat ze helemaal overstappen naar een enkele mooie dikkere kabel of iets dergelijks, dan ziet het er wat mooier uit. Lekker soepel en een mooie connector eraan.

Dan is het tenminste nog iets van vooruitgang.

Eventueel met de connector aan de andere kant van de gpu zodat je vanuit achter je kast er direct in kunt zodat je vooraan de kabel helemaal niet ziet. Is vast wel iets voor te verzinnen.

[Reactie gewijzigd door Navi op 23 augustus 2020 15:12]

Heb liever dat ze helemaal overstappen naar een enkele mooie dikkere kabel of iets dergelijks, dan ziet het er wat mooier uit. Lekker soepel en een mooie connector eraan.
Dikker en soepeler gaat niet echt samen...
Dan is het tenminste nog iets van vooruitgang.
Dat is puur esthetisch, geen echte vooruitgang.
Dat kan echt wel, we praten hier niet over mega dikke kabels ondanks dat het 12V is. De afstand is ook kort.

Dus iets waar 300 watt doorheen kan op 12V en nog redelijk soepel is, is prima te doen.

En daarom staat er ‘iets van’ vooruitgang. Mooier en gemakkelijker is ook iets waard.

[Reactie gewijzigd door Navi op 23 augustus 2020 15:34]

300 watt op 12v is nog steeds 25 ampère. 300 watt op 220 is niet veel...
Zou het tijd zijn voor 36 volt aansluitingen (en dus ook dito voedingen)?
Uiteindelijk moet je ergens een downconversie doen naar een spanning die de ic's mee kunnen.
Kan me best voorstellen dat dit in een voeding beter opgeborgen is, dan op een PCB van de videokaart. Dan maar met een paar kabels meer door de kast.
je GPU, CPU, RAMM en noem maar op werkt op 1.1-1.5v ongeveer. Dus of de bron nu 12v of 36v is maakt dan niet veel uit.... die conversie stap maakt weinig verschil, er gaat op het laatste punt bij een GPU gewoon een slordige 300 ampere door die IC heen
eens met Navi, 25A door 12 4A aders sturen is natuurlijk redelijk onzinnig.
12,5A op 12V kan prima door een standaard ader van 2,5mm2 (max 70cm). Die aders zijn nog flexibel zat en dan zou je aan een 4pin connector voldoende hebben.
soepele kabel is duurder. dunnere en dus soeplere litzen en silliconen ipv goedkoop pvc krikken de prijs goed omhoog.

[Reactie gewijzigd door flippy op 23 augustus 2020 15:44]

Mwah, het zou enkel voor de GPU kabel zijn.
dat wil je niet als product maker.
Mwah of het kan een pluspunt zijn, mensen betalen nu ook grof geld voor een mooie sleeved kabelset. (Zie cablemod) Wat extra betalen voor een voeding waar ik de GPU wel netjes mee kan aansluiten zou ik zo doen.
verachillende kabels geeft alleen maar gezeik. daarom zijn ze ook inmiddels van de ketchup en mosterd afgestapt.
@Navi als je een beetje handig bent kan je natuurlijk prima zelf 2 8pins pcie kabels doorknippen en er een stuk 2 aderig 4mm2 tussen zetten }> en dat kan met een 12pin connector natuurlijk ook

[Reactie gewijzigd door Rrob op 23 augustus 2020 17:55]

Eventueel met de connector aan de andere kant van de gpu zodat je vanuit achter je kast er direct in kunt zodat je voorin de kabel helemaal niet ziet.
Dat idee heb ik ook al jaren. Vrijwel alle kabels zijn in een beetje behuizing prachtig weg te werken, maar dan toch die 2 dikke darmen naar de VGA. En met een 12-pin kabel is het helemaal een dikke boom, zelfs sleeved. :?
euhm, CPU is vaak ook 8 pins tegenwoordig, je moederbord ATX stekker van 24 stuks etc. (zou die graag aan achterkant van moederbord zien met een uitsparing in de kast bij een nieuwe ATX standaard!)
Die connector aan de andere was de PCI-Express die 75 Watt kan leveren... Helaas kan men daar nu niets meer mee.
Hoe meer ik er over lees hoe meer ik hoop dat de 3090 een dual gpu word en dat daardoor de power draw zo absurd is en dat de rest van de serie gewoon normalere power draw heeft.
Ik heb begrepen dat de powerdraw mede zo hoog is als hij is omdat NVIDIA de nieuwe lineup niet gaat maken op TSMC's 7nm prodece, maar alles op Samsung's 8nm prodece. Voorheen maakte NVIDIA geloof ik iniedergeval de high-end kaarten op 7nm. Hierdoor worden de kaarten naar waarschijnlijkheid minder efficient.

Het zal me niets verbazen als in 2021 een 7nm refresh komt, onder de "RTX 3000 Super" naam.
Voor zover ik weet heeft Nvidia nog geen enkele consumenten GPU gelanceerd op 7nm, de Turing modellen zijn bijv. allemaal op TSMC's 12nm proces gemaakt, Pascal op 16nm en Maxwell op 28nm.

Nu lijkt Samsungs 8nm proces geen top proces te zijn, maar dat zou toch minimaal gelijkwaardig en eigenlijk zelfs een stuk beter moeten zijn dan TSMC's 12nm, wat eigenlijk maar een kleine verbetering is van het voorlopende 16nm proces.

De enige GPU die Nvidia tot op heden op 7nm produceert is de GA100, een datacenter GPU.

[Reactie gewijzigd door Dennism op 23 augustus 2020 16:22]

nVidia heeft al lang en heel veel spijt dat het voor Samsung gekozen heeft. Dat is al meer dan duidelijk. Om verschillende redenen.

Samsung heeft helemaal geen track record wat betreft GPU's maken. Ervaring is weldegelijk nuttig.
Kleiner wil niet per definitie zeggen dat het gegarandeerd beter is dan het vorige. Intel 7/10nm?
Nvidia wilde meer marge op chips met het goedkopere Samsung. Waarom zou je anders weg gaan bij TSMC?

100% akkoord met Tristanoz. Ze gaan gewoon terug naar TSMC. 30x0 Super refresh zal waarschijnlijk de eerste zijn.
Dankje voor de aanvulling. Ik werkte ook met info die ergens in m'n achterhoofd zat. Is het dan niet zo dat nvidia voor Turing met 7nm van tsmc had willen werken, in plaats van alles op samsungs node?
Turing was altijd een TSMC 12nm product, volgens mij wordt geen enkele Turing variant bij Samsung gefabbed.
Oh stom, ik bedoel eigenlijk ampere. Dus, alles van Ampere wordt gemaakt bij samsung ipv tsmc.
Dat is niet zo, de enige Ampere gebaseerde chip die al uit is wordt bijvoorbeeld bij TSMC gemaakt ( https://www.techpowerup.com/gpu-specs/nvidia-ga100.g931 ), daarnaast heeft Nvidia voor zover ik weet al aangegeven dat er meer 7nm producten bij TSMC vandaan gaan komen, ik snap dus eigenlijk niet direct waar dat gerucht vandaan komt dat Nvidia "alles" bij Samsung zou laten fabben, terwijl het er juist op lijkt dat TSMC bij zowel TSMC als Samsung aan het shoppen is.
Ah, wat ik zeg baseer ik op deze video:
https://www.youtube.com/watch?v=AjRog2bc3Bw

Hij laat door de video enkele email conversaties zien, van wie hij claimt dat het betrouwbare bronnen zijn. Nu ben ik niet zo thuis in dit soort stof hoor, dus ik zou zelf niet echt de betrouwbaarheid van deze geruchten kunnen verifieren. Maar, de video claimt iniedergeval dat de gaming cards enkel door samsung gemaakt zullen worden.
Alle, of veel, gaming kaarten zou inderdaad best kunnen, het is geen geheim dat Nvidia niet alleen van TSMC afhankelijk wil zijn.
dus Ampere gaat zijn naam waarmaken...
Goeike, nu nog 2 zonnepanelen in een handige gamebundel 😂

Op dit item kan niet meer gereageerd worden.


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True