PCIe 5.0-connector voor videokaarten krijgt opties voor 150W tot 600W vermogen

De specificaties van de ATX 3.0-standaard zijn uitgelekt en bevatten onder andere details over de komende PCIe 5.0-voedingsaansluiting voor videokaarten. Deze connector zou verschillende vermogensopties krijgen, van 150W tot 600W.

De PCIe 5.0-connector, officieel 12Vhpwr genaamd, krijgt 16 pinnen. Daarvan zijn er twaalf daadwerkelijk bedoeld voor stroomvoorziening. De overige vier zijn gereserveerd voor sidebandsignalen. Dat blijkt uit informatie van een ATX 3.0-ontwerpgids van Intel, die is gepubliceerd door Twitter-gebruiker momomo_us.

Op de foto's zijn vier verschillende kabels met de PCIe 5.0-aansluitingen te zien. Die kabels zijn gelabeld met vermogens van 150W, 300W, 450W en 600W. Er verschenen eerder al voedingen met de PCIe 5.0-connector, onder meer van ASUS, Cooler Master, Gigabyte en MSI. Die fabrikanten adverteerden al met vermogens tot 600W, schrijft ook Wccftech. Dat maximale vermogen lijkt nu dus bevestigd.

De twaalf pinnen, die zijn bedoeld voor stroomvoorziening, kunnen volgens de documenten ieder 9,2A leveren bij een spanning van 12V. Daarbij wordt wel een temperatuurlimiet van 30ºC boven de omgevingstemperatuur aangehouden. Het lijkt er dus op dat het maximale vermogen van de connector wordt beperkt tot 600W, vanwege de hitte die wordt geproduceerd door stroomdoorvoer.

De ontwerpgids vermeldt verder dat de PCIe 5.0-connector niet compatibel is met eerdere PCIe-aansluitingen met zes of acht pinnen, omdat de pinnen een andere onderlinge afstand hebben. Dat werd eerder al gemeld door Igor's Lab. De gebruikers die een videokaart met PCIe 5.0-connector en een oudere voeding hebben, zouden wel adapters kunnen inzetten, zoals ook het geval is met de 12-pinsaansluiting die Nvidia gebruikt voor enkele GeForce RTX 30-referentiekaarten.

De nieuwe PCIe 5.0-aansluiting moet gebruikt worden in next-gen videokaarten. Volgens VideoCardz zou bijvoorbeeld de komende Nvidia GeForce RTX 3090 Ti gebruikmaken van de nieuwe connector. Die videokaart werd in januari aangekondigd, maar sindsdien heeft Nvidia niets meer gemeld over de kaart. Volgens geruchten heeft dat te maken met bios- en hardwareproblemen. Ook de aanstaande Ada Lovelace-videokaarten van Nvidia zouden de aansluiting gebruiken, schrijft VideoCardz.

Afbeeldingen via Twitter-gebruiker momomo_us en Wccftech

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Daan van Monsjou

Redacteur

03-03-2022 • 12:14

117 Linkedin

Reacties (117)

Wijzig sortering
Dit klinkt alsof het de boel alleen maar ingewikkelder gaat maken; vier verschillende aansluitingen, die er hetzelfde uit zien maar wel een ander vermogen kunnen leveren. Dat moet je er als consument dus maar vanuit gaan dat het allemaal klopt vanuit de PSU leverancier.
Het vermogen van 450 of 600W moet je daarnaast zoiezo niet willen. Wat is er mis met de 300W die een dikke kaart tegenwoordig pakt? Waarom willen we naar meer verbruikende kaarten? Dat lijkt me gewoon een zwaktebod namelijk.
Het gaat nog erger worden als Gamers-Nexus en LTT er bovenop springen, en "Per ongeluk" een 150W kabel in een 600W videokaart stoppen. om te laten zien dat dit niet IDIOT proof is, en een extreem brandgevaar kan zijn.

Gewoon 1 kabel met dikke draden die zowel 150W als 600W stroom aankunnen
Gewoon 1 kabel met dikke draden die zowel 150W als 600W stroom aankunnen
Afaik is dat ook wat er gaat gebeuren, het verschil zit niet in de connector of bekabeling, maar in het vermogen dat de voeding kan leveren. Als de voeding goed gezekerd is tegen overbelasting is er geen risico op brandgevaar.
Waarom geen risico op brandgevaar? Als je 600W door een connector duwt dat maar geschikt is voor 150W, kan de connector wel degelijk oververhitten en/of in brand vliegen. Zonder dat de voeding zelf boven de 600W komt. Ik heb moederbord voedingsconnectors volledig verkoolt gezien omdat deze kennelijk de stroom niet aan konden. En als fabrikanten kunnen besparen op bekabeling (als er bijvoorbeeld maar 150W nodig is ipv 600W) dan gaat dat zeker gebeuren. Je moet nu al opletten dat je geen Chinese "nep" kabels koopt waar ze verkoperde aluminium draden gebruiken ipv echt koper.
Als je 600W door een connector duwt dat maar geschikt is voor 150W, kan de connector wel degelijk oververhitten en/of in brand vliegen.
En waar uit de specificaties haal je vandaan dat er verschillende connectoren gebruikt worden?
Heb je het plaatje gezien? Het staat groot op de connector. En het gaat niet alleen om de connector, maar ook om de bekabeling. Als fabrikanten iets certificeren voor 150W, en je gaat er 4 keer zoveel doorheen sturen, dan loop je het risico dat de connector of de isolatie om de bekabeling gaat verkolen.
Heb je de specificatie gelezen? Er wordt maar één connector gespecificeerd, die maar één draaddoorsnede ondersteunt.
Specifiek, deze connector: https://www.amphenol-icc....nitek-pwr-cem-5-pcie.html

Nogmaals, het label op de kabel geeft hoogst waarschijnlijk aan wat de voeding op die rail kan leveren, niet wat de kabel aan kan.
Nogal een rare redenering om het zo te implementeren. Hoe gemakkelijk is het niet om een verkeerd kabeltje in te pluggen. Het is toch veel gemakkelijker om naar het label op de voeding te kijken dan? Het label op de kabel werkt dan zeer verwarrend. Of anders heeft het toch iets met de kabel zelf te maken?
Dat vermoed ik ook. Veel reacties gaan over de kabels. Ik vermoed dat de aanduiding niet over de kabels gaat, maar over het vermogen dat de voeding kan leveren. Als vanaf nu iedere voeding een 600 watt GPU connector zou moeten bevatten zal dat iets doen met de prijs van instap voedingen.
Veel voedingen zijn modulair. Wat houd je tegen om de kabels uit te wisselen of zelfs de verkeerde kabel in de verkeerde poort te doen mocht de voeding een 150W poort hebben en een 600W poort
Dan zitten de meeste mensen wel goed.
Alleen mensen met een Gigabyte voeding.... https://www.youtube.com/watch?v=aACtT_rzToI
}>
Wat dacht je dat “ De overige vier zijn gereserveerd voor sidebandsignalen.” betekent?

Waarschijnlijk zit er iets van een handshake in om te voorkomen dat er te veel vermogen over te dunne kabels getrokken gaat worden.
Ziet er niet naar uit, als je naar de afbeeldingen kijkt staan daar de naam van de vier extra pinnen.

De SENS0 en SENS1 aansluitingen zijn zodat de voeding de spanningsverlies die optreden in de aansluiting kan compenseren.

De andere twee (CARD_PWR_STABLE, CARD_CBL_PRES) zijn zo te zien signalen om de status van de videokaart terug te melden naar de voeding.
Spanningsverlies treedt ook meer op bij dunnere kabels dan bij dikkere kabels; de weerstand is immers hoger.
te dunne draden kan niet. immers zijn die gemaakt volgens de spec.
600 watt aansluiting op de psu, 300 watt kabels, 600 watt aansluiting op de gpu.

Dan is het aantal kabels te weinig om die 600 watt door te geven en zal het systeem dus niet werken of maar 300 watt geven.
300w kabel past niet op een 600w connector.
Zonder enig bewijs is dat ook maar een dikke-duim-uitspraak.

Waar blijkt dat uit?
Ik weet niet waar in de speculaties dan, maar in de tekst hierboven wordt op geen enkele wijze een verschil in stekkers aangegeven.

Er is ook werkelijk geen enkele site die dat beschrijft.

https://www.igorslab.de/e...ated-to-the-new-standard/
Dan moet je ook kijken naar de standaard kijken die de keying van de stekkers bepaald. Dat zie je ook met de 4 en 8 polige cpu stekker. Dit zijn al bestaande regels, geen nieuwe.
De connector (12VHPWR) heeft gewoon is maximaal belastbaar met 600watt. De connector is universeel, ook voor lagere wattages, voor zover bekend in ieder geval. Dus dat er verschil zou zijn tussen de connector wil ik heel graag een bron voor zien. Ik kan het niet vinden, en zoals met vele dingen lijkt me dit een gevaarlijk dingetje, want de goedkoopste fabrikant vind dat de spec wel erg overdreven is en levert gewoon een 300w kabel alsof hij 600w aan kan. Wachten tot de eerste ongelukken dus.

Vergelijking met 4 en 8 pins gaan dus niet op, die hebben totaal verschillende specificaties. De bron die hier gemeld staat wccftech staat het namelijk ook letterlijk zo in:
"First, the pictures show the various labeling for varying power levels for the PCIe 12VHPWR Auxiliary Power Connector Pin Assignment (also known as PCIe 5.0). The top photo shows four identical cables, except for the labeling, which ranges between 150W, 300W, 450W, and 600W."
Dit is dus echt niet waar.

Nergens wordt ook maar iets over de keying gesproken.
Alle kabels zijn volstrekt gelijk, dat is al op meerder sites aangegeven.

https://nl.hardware.info/...ogen-van-150-tot-600-watt

Daar blijkt gewoon uit dat er met de sense-pinnen wordt gekeken hoeveel stroom de videokaart wil hebben,
Ze kunnen het fysiek aan, betekend niet dat het gebruikt moet worden. Betekend alleen dat er gewoon meer ruimte is in zijn algemeenheid wat via die connector geleverd kan worden, ipv gezeik met meerdere connectoren. Het lijkt mij redelijk simpel hiermee: Als er 300W op je connector staat, kan hij 300W leveren, en niet zoals nu dat het een 150W connector is, maar eigenlijk kan hij alleen 150W leveren als zijn broertje niet gebruikt wordt en moet je dus een andere kabel erbij pakken voor de andere 150W.
Maar zelfs dan komt dit systeem niet fool proof over, en dan zwijg ik over bedrijven die de specs verkeerd vermelden of er "net aan" voldoen.

Ik ben niet tegen deze connector hoor, maar maak ze maar allemaal 600 watt dan, en als het minder is gebruik dan ook een andere connector, scheelt onnodig gedoe.

Dan hoef je niet te gaan googlen naar reviews die je vertellen of het allemaal wel klopt, zoals bij een kennis van mij die issue had met zijn GPU vanwege de verbuik die deze had, en de voeding daar niet op gerekend was.

want hij kreeg online het advies dat 600 watt wel toekomst proof was met zijn vorig build die toen een 1060 had, dan stopt hij een 3080 recent in en toen ging het mis, en dat is als je gebrek aan kennis hebt een extra groot probleem

Nou ga ik er vanuit dat als je een goed merk koopt dit geen probleem is, maar dit komt erg "USB 3.0 met zijn miljoen varianten met hetzelfde naam" en "HDMI 2.1 met verschillende snelheden die allemaal hetzelfde naam dragen".
en dat is als je gebrek aan kennis hebt een extra groot probleem[/sub]
Tja, als iedereen dingen gaat waarvan hij/zij niet voldoende kennis heeft gaat het meestal mis. Daarom installeer ik mijn eigen CV ketel niet om maar even iets te noemen.
Ook denk ik dat hij vrij weinig geen moeite heeft gedaan om even te checken of die combinatie wel juist is. https://www.coolblue.nl/p...080-suprim-x-10g-lhr.html Zelfs bij Coolblue zetten ze erbij dat minimaal 750W nodig is.

En 600W toekomstbestendig wil niet zeggen dat je er maar in kunt zetten wat je wil (zou mooi zijn). Dat betekend dat je wel vooruit kunt met een GPU van dezelfde soort of misschien 1 stap hoger, maar dat ligt dus aan het verbruik. Soms gaat een nieuwe serie minder verbruiken maar soms ook meer omdat er meer aan toegevoegd wordt zoals raytracing cores.

edit
M.a.w. hij had zich opnieuw moeten laten informeren of langs een PC winkel moeten gaan en het laten doen.

[Reactie gewijzigd door Dunky555 op 3 maart 2022 14:42]

Je ziet mij ook geen CV ketel installeren.

Maar daar zullen de meeste ook over zeggen dat je een professional voor inschakelt, terwijl met zelf je PC bouwen het Internet en Youtube vol staan hoe "makkelijk" het wel niet is.

Probleem is dat uit eigen ervaring dat dus niet zo makkelijk is, als je weet wat je doet dan ja maar ik zie genoeg mensen die denken met zo'n tutorial een PC te bouwen en vervolgens verschillende blunders maken, van de simpele dingen zoals DDR3 RAM kopen voor een PC in plaats van DDR4 tot je videokaart niet aan je voeding aansluiten.

Maar ook dingen zoals BIOS die niet geüpdatet is voor hun Ryzen 5000 CPU, en dan snappen ze het niet omdat niemand er vanuit ging dat ze zo'n probleem tegenkomen.

Dan helpen dit soort dingen niet, echter zelfs voor iemand die wel verstand heeft zorgt dit in sommige gevallen voor onnodige koppijn, ik had met mijn huidige build eerst enorm veel problemen omdat deze de toen door mij gekozen RAM niet lustte, kwam ik na 2 dagen achter wat het probleem was (het waren specifieke issues) maar zelfs dan, je hebt er verstand van en krijgt zo iets voor je neus.

Ik zie het ook voor mij dat deze connectors straks ook voor onnodige bende zorgen, voor mensen met verstand misschien minder snel, voor mensen die op het internet hebben gelezen "hoe makkelijk" je zelf een PC in elkaar kan zetten zonder kennis, die zullen sneller last van krijgen.
Maakt niet uit welk voorbeeld je noemt, het gaat om het principe. Sommige kunnen zelfs niet eens een schilderij ophangen.
Vele mensen gaan geen PC in elkaar zetten of een andere GPU er in zetten en laten dit ook aan een professioneel iemand over omdat ze er niets of niet voldoende van af weten en geen risico willen lopen. Overal waar iemand geen of onvoldoende verstand van heeft gaat vaak fout en meestal door verkeerde aannamen.

De reden dat men het zelf wel even denkt te doen is omdat ze het lang geleden eens gedaan hebben en denken dat doe ik wel even. Aangezien het een 1060 is zal ik zeggen 5 jaar geleden. In 5 jaar kan er wel het één en ander veranderd zijn natuurlijk. Vermogens die GPU's nodig hebben bijvoorbeeld of nu voedingen met een nieuwe standaard.

Dat het met sommige veranderingen het er niet makkelijker van gaat worden kan dan ook gebeuren. Al is dit echt peanuts. Ja voor een leek (iemand die iets niet vaak doet) is het lastig, maar dat is met alles zoals ik duidelijk probeer te maken.
Vele mensen gaan geen PC in elkaar zetten of een andere GPU er in zetten en laten dit ook aan een professioneel iemand over omdat ze er niets of niet voldoende van af weten en geen risico willen lopen.
Dat valt tegenwoordig best wel tegen, 10 jaar en langer geleden zag ik meer mensen die het over lieten aan iemand met verstand.

Ik leg de schuld bij het internet neer, mijn voorbeeld maakt dus wel uit aangezien juist doordat zoveel mensen online roepen hoe makkelijk het wel niet is, en daardoor steeds meer mensen het zelf willen doen.

Daar zit de fout in, als straks hele internet roept hoe makkelijk het wel niet is om zelf een CV te installeren, zie je ook op ten duur meer mensen die zelf de gok wagen (wat mij totaal niet de bedoeling lijkt)

En hoewel ik zelf vind dat je het beter aan een professional moet laten (CV ketel maar ook PC), of minimaal aan iemand die er echt verstand van heeft, het is zo en niet anders en mensen blijven hun eigen ding doen.

Ik heb daar geen last van (qua PCs, niet CV ketels), echter om toch terug on topic te gaan verstand of niet die verschillen in wattage icm met zelfde connector gebruiken lijken mij een bak ellende, maak gewoon een aparte connector als er minder/meer stroom erdoorheen kan.
Dat valt tegenwoordig best wel tegen, 10 jaar en langer geleden zag ik meer mensen die het over lieten aan iemand met verstand.
Tuurlijk en dat is logisch, maar het overgrote deel van alle ouderen in mijn omgeving (4 redelijk grote families) en ook nog steeds een heel aantal van diversen leeftijd weten er niets van en gaan dus naar iemand die het wel weet. Of dit nu een kennis is (meestal) of een bedrijf.
Ik leg de schuld bij het internet neer, mijn voorbeeld maakt dus wel uit aangezien juist doordat zoveel mensen online roepen hoe makkelijk het wel niet is, en daardoor steeds meer mensen het zelf willen doen.
Haha kom op zeg, dat is lekker makkelijk en hoe kun je in godshemelsnaam de schuld bij het internet leggen...?! Je bent 100% |ZELF verantwoordelijk als je ZELF je eigen gaat informeren en ZELF je eigen PC in elkaar zet. Je gaat zelf op het internet naar informatie zoeken en vragen. En buiten een aantal goede kanalen is het overgrote deel vaak rommel. De één zal even snel laten zien hoe je een GPU vervangt, de ander zegt ook wat er bij komt kijken en geeft een compleet plaatje en dan de rest die daar nog tussenin zit.

Daarnaast, zoals ik al zei, was in zijn geval een simpele zoekopdracht voldoende geweest en is hij gewoon nonchalant aan de gang gegaan. Net nog eens gekeken bij diversen webshops en bij alle drie zie ik gewoon dat er staat dat je minimaal 750W nodig hebt voor
Maar de aanname van "ik doe dat wel even" en de informatie van zeg 5 jaar geleden waren sterker. Dikke pech en al doende leert men. Meestal pas wanneer het fout gaat en geld kost, maar zo is het leven nu eenmaal.
Maar hoe los je dat probleem op met allemaal verschillende connectoren? Dan kan een fabrikant ook een 300W connector erop gooien terwijl ze maar 200W erover kunnen leveren. Zoals nu iets is wat ze regelmatig doen al. Of het nou een fysiek andere connector is, of een labeltje erop. Uiteindelijk moet je ervan uitgaan dat de fabrikant niet liegt (of reviews checken).
Dat moet je er als consument dus maar vanuit gaan dat het allemaal klopt vanuit de PSU leverancier.
Niet anders dan nu, nu vertrouw je er ook op dat er 12 volt op de 12 volt rail staat, en niet 220 volt.
Waarom willen we naar meer verbruikende kaarten?
Geen idee, maar dat is uiteindelijk een beslissing die je zelf neemt. Als je er een goede reden voor hebt, wat is dan het probleem?
Ah, dus wetenschappelijk onderzoek stoppen, want die GPU's die daar voor gebruikt worden produceren te veel CO2?
Niet langer dan een uurtje gamen, want anders produceer je teveel CO2?
Beetje overdreven reactie. Het is natuurlijk wel waar dat onze co2 afdruk omlaag moet. Dit soort ontwikkelingen helpt daar echt niet bij; integendeel!
Wellicht is die 600w GPU veel efficienter dan een 300w GPU, en kan 4 keer zoveel werk doen...
Kijk naar het verschil tussen een vrachtschip en een vrachtwagen, die eerste heeft veel meer vermogen, verbruikt ook veel meer brandstof, maar is toch veel efficienter als het gaat om het vervoer van vracht.
Alleen de meeste gamers gamen niet efficiënter met een snellere gpu: een uur gamen is nog steeds een uur gamen alleen het verbruik wordt hoger (en de games mooier).

Niet dat ik er tegen ben hoor. En als de gpus voor andere dingen dan gaming worden gebruikt gaat je stelling natuurlijk wel op.
En als de gpus voor andere dingen dan gaming worden gebruikt gaat je stelling natuurlijk wel op.
Helaas dringt het niet tot iedereen door dat pc's en gpu's ook voor andere zaken dan gaming gebruikt worden :)
[...]

Helaas dringt het niet tot iedereen door dat pc's en gpu's ook voor andere zaken dan gaming gebruikt worden :)
Dat klopt. Gaming is misschien wel het eerste dat de consument ziet, maar op de achtergrond gebeurt er erg veel met GPU's. Het begint bij CAD tekenen of video's renderen/foto editing. Dit wordt meestal niet 24/7 met de GPU's volledig op 100% utilisation gedaan.

Vervolgens wordt er al flink wat meer verbruikt in de professionele sector, wanneer je verder kijkt naar natuurkundige berekeningen (Scientific computing), AI (Machine Learning) en, last but not least, crypto mining. Die worden vaak 24/7 voor 100% utilised. Wat betreft performance per Watt is dat natuurlijk efficiënter, maar wat betreft de ecologische footprint is dat funest!

We zijn wat dat betreft erg verwend met gaming en crypto mining. Het feit dat (als voorbeeld) een game console zoals de Nintendo Switch, wat betreft gaming experience, al ruimschoots volstaat voor een groot deel van de mensheid, spreekt eigenlijk boekdelen over de noodzaak van een dikke krachtpatser van een GPU. Nou klinkt het wel erg sober wanneer ik zeg "Is het nou ècht nodig dat je die minuscule haartjes op een character in de game kan tellen?". Maar als je erover nadenkt, is het gewoon ècht een onnodige feature. Ja het is vet dat het kan, maar nee. Het is echt niet nodig.

Ik hoor mensen al praten "Blabla vooruitgang is nodig.. blabla" en "stilstaan is achteruit gaan.. blabla..". Maar de ecologische footprint die we achterlaten blijft (mede) daardoor wel steeds groter worden. Om nog maar niet te spreken over crypto mining farms... Wat daar gebeurt is gewoon dieptriest. Efficiëntie van een GPU heeft als enige bijwerking dat er meer crypto's ge-mined kunnen worden in een kortere tijd. Daardoor is een dergelijke GPU sneller terugverdiend en kunnen ze nòg meer GPU's aan hun farm toevoegen. Daar lost men een dergelijk probleem dus niet mee op, maar creëert men juist grotere problemen. En dat is natuurlijk puur eigenbelang. Met of zonder empathie voor "het grotere plaatje".

We compenseren ons een ongeluk met de zonnepanelen, windmolens en een hele bups aan andere manieren, maar vervolgens wordt het verbruik zo natuurlijk alleen maar hoger.

Ja, we kunnen absoluut dikkere videokaarten maken en blijven innoveren op grotendeels GPU kracht. Maar de ethische vraagstelling is eerder; Is dat nou wel zo verstandig?

Ik zou persoonlijk eerder naar een andere oplossing kijken als GPU-fabrikant en/of game studio. Hoe kunnen we de huidige performance minimaal behouden, terwijl het wel een stuk zuiniger wordt? Zo kan crypto mining niet zo simpel "méér grond krijgen" en zo kunnen de huidige games allemaal gewoon alsnog gespeeld worden. Efficiëntie van code zal daarbij natuurlijk ook steeds grotere rol gaan spelen. Daag de game studios uit om ècht àlles uit de hardware te halen wat erin zit. Driver optimalisaties voor specifieke handelingen en herzie desnoods de architectuur van zowel de codebase, als de GPU's. Ja, ik weet 't. Het is een grote (wellicht ietwat utopische) wijziging die doorgevoerd zou moeten worden. Maar als je iets goed wilt doen, moet er gewoon aan alle kanten ook alles goed gedaan worden.

DISCLAIMER: Natuurlijk kan men ervan vinden wat men wilt. Ik probeer hiermee niemand op de tenen te trappen of specifiek iets uit te lokken, buiten ecologische innovatie natuurlijk!

[Reactie gewijzigd door InjecTioN op 3 maart 2022 17:06]

Als je gpu 4 keer meer doet voor 2 keer het verbruik, als je dan je vsync op 60 laat staan en de graphics op hetzelfde niveau, ga je toch minder verbruiken.
Waarom denken zoveel mensen dat het verbruik van PC's nu ineens zoveel omhoog gaat? Er zijn al lang voedingen van 1600w en misschien wel meer. Mij lijkt het dat de voedingen anders in elkaar gezet worden en daardoor nieuwe specificaties gaan krijgen.
Een Nvidia xx50 serie zal altijd wel rond een bepaald verbruik blijven zitten en zo zal het met een xx90 serie ook wel zijn en alles daar tussenin.
Wil je niet dat je PC veel verbruikt moet je opletten wat je er in stopt en dan daar uiteindelijk je voeding op aanpassen. Net zoals dat altijd al geweest is en ook straks met deze nieuwe voedingen.
Lekker simpel geredeneerd.

Denk eens aan modulaire voedingen.

Nu is het al opletten dat ze dezelfde pin-layout hebben, dadelijk moet je naast de lay-out ook nog op de vermogens van de kabels gaan letten.
Lekker simpel geredeneerd.
Tja, zaken moeilijker maken dan ze zijn is niet echt mijn ding, ik kijk liever naar wat wel kan.
dadelijk moet je naast de lay-out ook nog op de vermogens gaan letten.
Ik vermoed dat straks de voedingen één of twee PCIe 5 connectoren hebben, met hetzelfde vermogen. Voedingen met meerdere verschillende vermogens aansluitingen zullen een zelfzaamheid zijn, een 150w aansluiting naast een 600w is vrij nutteloos, die 600w aansluiting kun je ook gebruiken voor een 150w device, er zit geen fysiek verschil in de connector.
Zoals ik al aangaf, maar nu met een voorbeeld:

Als je dus een modulaire voeding hebt met een 300 watt-connector en eentje met 600 watt, dan moet je wel de juiste kabel gebruiken.

Fout zal het niet gaan, gezien de sense/signal-pinnen, maar het is wel ingewikkelder dan nu.

Ik vind 600 watt in één connector zo veel, als je er een gpu wilt bijzetten, die een power connector nodig heeft, dan zijn ze in een normale voeding dus op. Tenzij je een voeding neemt met 2x 600watt connectors? Beetje overdreven.

Ik ben benieuwd hoe dit in de praktijk zal zijn, we zullen het zien.
Als je dus een modulaire voeding hebt met een 300 watt-connector en eentje met 600 watt,
En zoals ik al aangaf, die voedingen zullen een zeldzaamheid zijn. SItuaties waarin je een 300 en 600 wat device naast elkaar gaat gebruiken lijken me heel zeldzaam.
Lol, ik zie dat ik het nog steeds onduidelijk uitleg 8)7

Ik bedoel dat je 2 losse voedingen hebt, waarvan eentje met een 300 watt aansluiting en de andere voeding met een 600 watt aansluiting.

Als de lay-out verder hetzelfde is (en je dus de voeding niet eerst al sloopt :) ), dan heeft de 300 watt dus netjes 300 watt door over de 600 watt kabel, maar de 600 watt geeft waarschijnlijk 300 watt door over de 300 watt kabel (of het werkt gewoon helemaal niet).
, dan heeft de 300 watt dus netjes 300 watt door over de 600 watt kabel, maar de 600 watt geeft waarschijnlijk 300 watt door over de 300 watt kabel (of het werkt gewoon helemaal niet).
Aangezien de kabels voor zover ik kan opmaken uit de specs hetzelfde zijn is dat geen enkel probleem, alleen de tekst op de connector klopt dan niet meer.
Die tekst geeft niet aan wat de connector/kabel aan kan, maar wat de voeding kan leveren.

[Reactie gewijzigd door Zer0 op 3 maart 2022 14:39]

Tja, net zoals met heel veel dingen in de techniek in het algemeen moet je goed opletten wat je doet. En de techniek gaat voorruit en moeten vele zich blijven bijscholen. Dat is hier niet anders.

En als we er dan toch 2 verschillende PSU's bij pakken dan heb je daar altijd al rekening mee moeten houden. Ik heb zelf al gehad dat er bepaalde kabels (Corsair PSU) alleen voor die serie met die vermogens gebruikt mogen worden ivm verschillende PIN layout.
Het vermogen van 450 of 600W moet je daarnaast zoiezo niet willen. Wat is er mis met de 300W die een dikke kaart tegenwoordig pakt? Waarom willen we naar meer verbruikende kaarten? Dat lijkt me gewoon een zwaktebod namelijk.
Meer verbruik is natuurlijk niet een doel op zich, het is wel onvermijdelijk bij van generatie op generatie toenemende performance, zie de afgelopen 30 jaar bij zowel GPU's als CPU's.
Daarbij hebben we bovendien in toenemende mate te maken met 'deminishing return', dwz dat er relatief steeds meer vermogen nodig is voor een gegeven toename van performance, dat wordt de "power wall" genoemd.
Verder is het niet meer dan normaal dat zo'n nieuwe PCIe standaard een beetje future-proof is.
Het gegeven dat voedingen in het midden van het vermogen het meest efficiënt zijn, betekent dat je uitrekent hoeveel je computer trekt, en dat vermogen verdubbelt. Dan heb je ook gelijk de opstartpiek getackelt. 300W gemiddeld gebruik betekent dus 600W voeding.
Dat gaat een grote Ewaste berg worden met alle niet compatible voedingen voor die next gen grafische kaarten.
Verloopjes zijn leuk, maar als je geen dikke kluwen kabel in je pc wil.

edit; deel verwijderd, was verkeerde interpretatie.

[Reactie gewijzigd door Nympho op 3 maart 2022 13:09]

Enkel met USB C is een nieuwe groep connector voor USB apparaten. Het is onderdeel van een bredere standaard, die ook USB A en B connectors omvat, met daaronder full, Mini en micro varianten. Daarnaast heeft beschrijft de specificatie ook nog meerdere signalling speeds, zoals LS, FS, HS, SS, etc. Enkel voor snelheden boven USB2.0HS waren extra pinnen nodig zijn (USB3.0), maar is alles wel backwards compatible.

USB C bevat ook nog steeds de originele USB2.0 en USB3.0 pinning, maar heeft daar PD aan toegevoegd. Je hebt enkel een verloopje nodig.
Het enige wat mij betreft echt verwarrend aan USB C is, is al enigzins begonnen bij het USB OTG gebeuren waarbij een apparaat tussen host/device rollen kan wisselen (zo kan je een muis op je smartphone aansluiten als je scherm deels stuk is). Maar nu kan een apparaat ook energiebron of afnemer zijn.. wat zou er gebeuren als je 2 laptops met USB PD via USB C met elkaar aansluit? Gaat de 1 de ander opladen? :D

Wat mij betreft is USB nog niet eens zo erg. Display aansluitingen is waar het rommelig werd: je had DVI met analoog, digital en dual lane aansluitingen. Nu zijn DP en HDMI de 2 meest gebruikte standaarden, en veel videokaarten hebben de mogelijkheden de lanes voor beide protocollen in te zetten (met passieve adapters). Echter op enkele videokaarten was ook een actieve adapter nodig om extra monitor outputs te ondersteunen.
En nu is DP ook geintegreerd in Thunderbolt en getunneled in de USB4.0 specificatie.. om het nog even simpel te houden.

Dus.. een voedingskabeltje zie ik echt niet als einde van de wereld. Tenzij je om esthetische redenen een verloop kabel niet wilt zien in je kast. Maar sorry, dat klinkt beetje als autoliefhebber terrein die elk week zijn 15 jaar gepimpte Honda zelf wast, en bij het kleinste krasje meteen de polijstborstel uit de kast trekt. De auto rijdt ook prima zonder, maar je bent dan echt uit hobby het perfect proberen te krijgen (en houden). Economisch, in de zin van auto als gebruiksvoorwerp, is dat niet rendabel.

[Reactie gewijzigd door Hans1990 op 3 maart 2022 13:03]

Mee eens, ik zal dat stukje dan ook aanpassen, was eigenlijk te ver gezocht en kwam te snel uit de vingers ;)
Nou dan moet jij de keuze maken, of je e-waste beperken en niet nodeloos een nieuwe voeding kopen belangrijker vindt, of dat een verloopje echt een enorm probleem is.

Ik ga echt absoluut niet een nieuwe voeding kopen enkel om een verloopje te besparen. En hoe bedoel je dat elke USB standaard een nieuwe aansluiting heeft? Sinds USB-C hebben we niks nieuws qua aansluiting meer gehad. En ik zie USB-C wel als duidelijke stap voorwaarts, anders moeten we voor altijd bij micro-USB blijven?
Ik heb verschillende verloopjes liggen, maar die dingen zijn zo stijf als de .est.
Maar als ik nu een voeding heb staan met genoeg 6+2 aansluitingen, snap ik die nieuwe aansluitingen niet met de ruimtes er tussen.

edit; deel usb weg gehaald (verkeerde vergelijking).

[Reactie gewijzigd door Nympho op 3 maart 2022 13:09]

Ik heb op me werk een apparaat staan, welke deze kabels zo op maat uit poept,
Dus gebruik sindsdien alleen maar custom made power kabels in de pc/server.
ssttt me2 ;) Er is hier een goede kabel modder die mij een keer een set kado deed voor mijn goede doel project, vanaf die dag was ook ik verkocht _/-\o_

edit;typo

[Reactie gewijzigd door Nympho op 3 maart 2022 12:56]

Wat fijn zo’n modulaire voeding :)
Komen vast gewoon kabels voor uit, word het ipv kabel A kabel B inprikken. Wellicht met een beperking tot 300w maar dat is voor vee mensen genoeg :)
600 Watt max..
Leuke hobby, ben straks meer stroom kwijt dan gas.. 8)7
Had verwacht dat het vermogen naar beneden ging, veel efficiënter maar dat valt dus wel tegen :X
Leuke hobby, ben straks meer stroom kwijt dan gas.. 8)7
Beter helemaal geen gas meer ;)
600 Watt max. Leuke hobby, ben straks meer stroom kwijt dan gas.
Misschien moeilijk voor te stellen nu, maar elektriciteit wordt misschien ooit gratis. Of ten minste blijvend goed betaalbaar.

[Reactie gewijzigd door Harm_H op 3 maart 2022 12:57]

Hoe kom je op die stelling? Ik had de huidige verhogingen juist al lang geleden voorspeld vanwege missende inkomsten op fossiele brandstoffen.
Maar het is het nu steeds meer mogelijk en economisch gezien dus ook zinvol om weg te bewegen van de houdgreep van de energieleveranciers. Als gas steeds duurder wordt, elektriciteit via de de zonnepanelen (en noodzakelijke accu's) binnen komt.

Uiteindelijk is de mentaliteit van de meeste overheden wel 'apart' te noemen. Eerst vooral aandringen op besparen en dan de vaste lasten / belasting verhoging zodat het eigenlijk geen kostenbesparing meer betreft.
En als ze [de overheid/belastingen] dan in de gaten krijgen dat de burger minder dreigt op te brengen dan volgt: betalen voor lucht en dan verdeling per longinhoud om nog de illusie van 'gebruiker betaalt' hoog te houden. [maar dat is beetje doemdenken]
(en dat minder opbrengen is een gevolg van elektrische auto's, zonnepanelen, minder water gebruik door nieuwe wasmachines enz.)

Al die verbruiksprodukten (benzine, diesel, gas, water, elektriciteit) die we afnemen zijn eigenlijk niet zoveel duurder geworden - het zijn vooral de belastingen die voor de echte verhogingen zorgen.
Terwijl grootverbruikers daar nog steeds geen last van hebben (bedrijfsmatig is BTW geen issue) en kerosine is ook nog niet zo duur. Alles onder de noemer van het milieu - maar waarom dan toch die grootverbruikers buiten beschouwing laten...? 8)7
Dit zeiden ze over kernenergie. Dat was een tijd dat ze vaten met kernafval letterlijk de Noordzee in gooiden.
Stroom zal altijd geld kosten, infrastructuur moet gebouwd en onderhouden worden.
Geen probleem als we op tijd beginnen met het bouwen van kerncentrales. Alleen dan blijft stroom nog betaalbaar :'(
10 jaar geleden bedoel je? ;)
Haha, was het maar waar.

Ik bedoelde eigenlijk met oog op de prijs in de toekomst. Stroom gaat ontiegelijk duur worden de komende jaren, mede omdat de infrastructuur aangepakt moet worden en de uitfasering van alle vervuilende centrales. Wat ik dus wou zeggen is dat met kerncentrales (ook niet goedkoop), kunnen we wellicht voorkomen dat de prijs te veel stijgt.
Het klimaat gaat qua stroomgebruik nog niet op voor pc's
Het is wachten op de regelgeving zolang de markt zichzelf niet reguleert. Ik kan er niet op wachten.
Ach ja we moeten van het gas af dus nu is het een best goed idee, net een RTX3070 TI geïnstalleerd, en de temperatuur gaat aardig omhoog als ik ga gamen in de computer kamer
En waar komt die elektriciteit voor de 3070TI vandaan?
In mijn geval van zonnepanelen.
Niets is gratis. Er word energie gebruikt voor de produktie en transport van die zonnepanelen. En gronstoffen.
Lekker naar buiten!
jep, maar dan de kosten.
1m3 gas = 9,2-9,6kWh virtueel.
praktijk is je gas ketel niet perfect en doet daar maar 80-90% van omzetten in warmte.
kom je ongeveer uit in 1m3=8kWh.
en dan naar de kosten kijken, je kunt vaak maar 4kWh kopen voor 1m3 gas.
dus reken wel op 2x zo dure stook kosten. ;)
2x zoveel voor stoken, behalve dat je tegelijk ook nog iets nuttigs (werk) of een hobby uitvoert zonder meer te hoeven betalen. Dat andere is puur voor het warm maken van je huis, kan je ook prima een trui voor aan trekken.

[Reactie gewijzigd door Seditiar op 3 maart 2022 12:54]

Koude neus en vingers blijven onprettig. Om nou thuis ook nog eens handschoenen aan te trekken en daarmee proberen te typen gaat te ver..
Hah dat gaat wel wat ver ja, ik heb zelf geluk gehad met erg goede doorbloeding dus gelukkig geen last van. Maar je hebt gelijk. Overigens verwarmt mijn PC m'n kamer genoeg om zelfs tijdens de winter geen verwarming nodig te hebben, maar de rest van het huis is dan wel koud natuurlijk.
Ach, ik reis vrijwel nooit, heb geen auto en werk al jaren vanuit huis. Dat m'n GPU straks 600W gaat gebruiken boeit me echt niets.
Heeft toch niets te maken met het stroomverbruik van PC's? We hebben al enige tijd 1600W voedingen. Lijkt mij dat de voedingen alleen andere specificaties/indeling krijgen.
Ind te gek voor worden, bijna 1 kWh trekken om een game te spellen.

edit; downmodders stroomboeren of aandeelhouders?
Meeste zitten al met een dikke graka en een dikke voeding (650W/750W/850W).

[Reactie gewijzigd door Nympho op 4 maart 2022 09:20]

Mja het wordt echt teveel. Een beetje warmte is niet erg, maar nu ben je echt kamers aan het verwarmen en met name in de zomer is dat echt onwenselijk. Plus meer herrie en meer mensen die overschakelen op airco, wat het allemaal niet beter maakt. Er is echt actie nodig om meer performance uit minder energie te halen. De race met nanometers is fijn, maar volgens mij is men nu alles gewoon aan het overclocken om maar dezelfde performance te kunnen bieden.
bijna 1 kw/h trekken
Je bedoelt kW, met grote W, niet de kleine.

Bedoel je zonder de '/h' erbij want Watt is reeds Joule per seconde, om vermogen te beschrijven?

Of bedoel je kWh waarbij de h erbij vermenigvuldigd staat in plaats van gedeeld, om de totale hoeveelheid energie te beschrijven?

Geen idee, want je hebt niet de juiste eenheden gebruikt.
Je hebt gelijk, maar je snapt het niet?
Onzin Lol, mijn pc trekt al bijna 600W als ik game, dat is in 2 uur al 1,2 kW ;) en ik heb nog een oudere graka met 2x 8pin.
edit; En goed kijken waar mijn reactie op was ;) Milieu

[Reactie gewijzigd door Nympho op 4 maart 2022 09:18]

Het is onzin omdat jij de grens niet bepaald wat te gek is voor woorden ;)

Je kiest toch zelf je kaart, blijkbaar heb je er ook weinig moeite mee want je computer verbruik vrij veel tijdens het gamen (mijne ook hoor maar ik veroordeel andere niet op dat punt).
Dat is zo, mee eens ook, maar voor de meeste mensen is de stroom rekening aardig na een maand, zeker met kinderen die ook graag een game op de pc spelen.
Ik ben alleen maar met de wind mee gegaan omdat ik bepaalde games wilde spelen en mijn kaart (R9 Fury X) voldoet nog zeer goed. Maar gemiddeld trek ik toch 400W en meer als ik game uit mijn graka en reken dan maar uit wat het gamen je per jaar kost en dan kan je weer een keuze gaan maken naar een nieuwe graka en nieuwe voeding, maar kost je toch weer je portemonnee. Voor de een betaalbaar, voor de ander moeite.
Mee eens

Ik draait hier een RTX 2070 Super, een prima kaart maar stel dat ik zou upgraden naar een nieuwe (doe ik niet, deze voldoet gewoon) dan zou ik alles vanaf 300 watt overslaan.

Als iemand bewust een dikke i9 pakt en die overclocked (of alle limieten uitschakelt) en dat met een RTX 3080 Ti of 3090 combineert, dan ga ik er ook vanuit dat zo iemand weet wat het verbruikt ervan is.
Ik snap de negatieve comments niet goed. Dit is juist super duidelijk...
1 connector waarop staat wat het Max is. Nu heb je vaak connectors waar er gedaisychained wordt etc, en je maar moet weten dat je best 2 afzonderlijk PEG kabel neemt.. Een heel gedoe, ook om het netjes weg te werken. Hiermee zal dit niet meer het geval zijn.
Het probleem is, is dat dit niet IDIOT proof is.

om dezelfde reden waarom je geen CHEAP "unbranded" kabels van "aliexpress" moet kopen
https://www.youtube.com/watch?v=z83hvvjTTC8
Tja… dat argument kan je voor zo veel zaken gebruiken. In een standaard EU stopcontact kan je ook een schroevendraaier steken als volwassene (als je echt het IQ van een mier hebt).
Nu vraag ik me wel af wat er met de oude PCI-E gaat gebeuren. Want nu komen we in de situatie terecht dat we zowel PCI-E als deze nieuwe standaard krijgen. PCI-E word nu juist gebruikt als extra auxiliary power voor b.v fastcharging en geluidskaarten. Als videokaarten dadelijk alleen maar die nieuwe standaard gebruiken zal PCI-E ook niet meer intressant zijn om in een voeding te maken en zal dat verdwijnen. Gaan we weer terug naar molex (wat ik niet heel erg vind, molex is alleen vervelend op goedkope adapters) gezien Sata veel te weinig stroom kan leveren?
Met dit soort wattages zou je toch bijna weer een externe PSU gaan gebruiken.
Dan gaan we weer terug naar de 3dfx Voodoo kaarten :+
Met dit soort wattages zou je toch bijna weer een externe PSU gaan gebruiken.
Leg dan ook uit waarom dan dan zo zou zijn?
Behalve SLI gebruikt Nvidia dus nog meer technieken van 3dfx :+
Triest, alsmaar meer en meer verbruik i.p.v dat de weg richting minder verbruik gevolgd wordt (b.v telefoons kunnen aardig meekomen kwa graphics maar gebruiken slechts een fractie aan stroom). Weer een duidelijk voorbeeld dat ongeremde technische 'vooruitgang' niet altijd beter is. Voortuigang tussen haakjes omdat dit geen vooruitgang is, maar slechts een makkelijk manier om meer fps te toveren middels meer energie beschikbaarheid. Oh boy.
ik zie geen verschil op de foto van de connectors behalve de tekst op de labels

[Reactie gewijzigd door OxWax op 3 maart 2022 12:33]

Sommige van die pinnetjes hebben waarschijnlijk afgeknotte hoekjes, zoals nu ook al het geval is.
Klinkt aannemelijk. Je kunt veilig 300W door een 600W kabel sturen, maar niet andersom.

Wat alleen vreemd is, is dat ze 4 varianten lijken te hebben met stappen van 150W, terwijl het fysiek 6 aders van 100W elk zijn. Dat wil zeggen dat ze voor de 150 en 450W kabels respectievelijk 2 en 5 aders moeten gebruiken. Hardwarematig zou je 100, 200, 400 en 500W kabels verwachten ipv 150 en 450.
Wat alleen vreemd is, is dat ze 4 varianten lijken te hebben met stappen van 150W, terwijl het fysiek 6 aders van 100W elk zijn.
Je lijkt aan te nemen dat de kabels voor lagere (nou ja, minder hoge... 600W, wtf!?) vermogens simpelweg minder aders aansluiten. Het lijkt mij logischer dat ze wel alle aders gebruiken, maar daarvoor goedkopere aders gebruiken (hogere AWG-waarde of lagere kwaliteit materiaal).
150w : 2 draden.
300w : 3 draden.
450w : 5 draden.
600w : 6 draden.

Niet optimaal maarja wat verwacht je van dit soort instanties. Usb, display Port, HDMI en M.2 is net zo'n clusterfuck. Ziet er van buiten hetzelfde uit maar niets is compatibel.
en dat is dus het verschil. net als die nieuwe Displayport kabels met labeltje, krijg je hier dezelfde kabel met een ander labeltje.
Lijkt me vrij nutteloos. één kabel/adapter t/m 600w, kun je ook gebruiken voor een GPU die minder verbruikt.
Afaik zijn de kabels/connectoren ook gewoon identiek, en gaat het om het vermogen dat de voeding kan leveren.
Afaik zijn de kabels/connectoren ook gewoon identiek, en gaat het om het vermogen dat de voeding kan leveren.
Je voeding moet sowieso geschikt zijn. de nieuwe voedingen zijn ook al + 1000W met PCIe 5.0 12vhpwr connector. GIGABYTE Launches UD1000GM PCIE 5.0 Power Supply CoolerMaster V1100 SFX-L Platinum V1300 SFX- L Platinum
oa Nvidia RTX3090Ti komt mogelijk al met deze aansluiting.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee