MSI introduceert voedingen 'voor nieuwste generatie Nvidia-kaarten'

MSI heeft zijn eerste voedingen aangekondigd. Het gaat om drie modellen in de nieuwe MPG GF-serie, die volgens het bedrijf de nieuwste generatie Nvidia-kaarten ondersteunen. De voedingen hebben geen 12-pinsaansluiting maar mogelijk levert MSI een adapter mee.

De drie voedingen zijn van het atx-formaat en dragen de namen MPG A650GF, MPG A750GF en MPG A850GF voor respectievelijk de 650W-, 750W- en 850W-versies. MSI geeft als voorbeelden van configuraties de inzet van drie 8-pinsaansluitingen voor graphics en twee voor cpu of het gebruik van vier keer 8-pins voor de graphics en een voor de cpu. Daarnaast hebben ze vier 6-pinsaanslutitingen voor sata-hardwarecomponenten.

MSI MPG-GF

Hoewel MSI de ondersteuning voor de laatste generatie Nvidia-kaarten benadrukt, missen de voedingen dus een 12-pinsaansluiting. Nvidia bevestigde woensdag dat die aansluiting er komt, vermoedelijk voor een nieuwe generatie RTX-kaarten die het dinsdag aan gaat kondigen. Bij die bevestiging maakte Nvidia al duidelijk dat de 12-pinsconnector door middel van een adapter compatibel is met pci-e-kabels met acht pinnen. Hoewel MSI daar niets over meldt, zou het bedrijf zo'n adapter of aparte kabel mee kunnen leveren met zijn voedingen. Foto's van een Twitter-gebruiker wijzen daar wel op.

De MPG GF-voedingen dragen een 80 Plus Gold-label als aanduiding voor hun efficiëntie en bevatten Japanse condensators, die als kwalitatief hoogstaand bekend staan. Over de prijzen en beschikbaarheid is vooralsnog niets bekend.

MSI MPG-GF

Door Olaf van Miltenburg

Nieuwscoördinator

27-08-2020 • 17:19

107

Reacties (107)

107
104
46
5
0
37
Wijzig sortering
Dus een verloopje van 8 naar 12 pins gaat ook werken.... Waarom dan überhaupt 12-pins aansluitingen op de videokaart? Oh wacht... Gratis reclame!
De 12 pin functioneert als een 2x8pin. (Verloop kabel is ook van 2x8 -> 1x12)
Maar de 12 pin is net zo groot als één 8 pin aansluiting, dus qua ruimte op de pcb win je al wat en je hebt minder kabel in het zicht als je een glazen zijpaneel hebt.
Ook kan de 12 pin een nog hoger wattage aan dan wat de 2x8 zouden kunnen.
(Verloop kabel is ook van 2x8 -> 1x12)
Dat is onwaarschijnlijk, want dat zou problematisch zijn. Veel mensen gaan dan een kabel gebruiken met twee connectors waar maar drie 12V draden in zitten. Dan kom je uit op iets van 9 tot 10 ampère per draad bij een RTX 3090 zonder overklokken. Dat gaat heel veel instabiliteit en gesmolten connectors opleveren. Een verloopje van drie of vier 8 pins PEG connectors naar 12 pins Micro-FIT is daarom veel logischer en noodzakelijk voor mensen die niet gaan nadenken (en dat zal ongetwijfeld meer dan 90% gaan zijn).
Je moet wel 2 losse 8 pin kabels gebruiken, maar dat staat er volgens mij ook bij vermeld.

Edit;
Kijk anders zelf maar.
https://nl.hardware.info/...-voor-nvidia-videokaarten

[Reactie gewijzigd door R-utger op 24 juli 2024 13:26]

Ga er maar vanuit dat 9 op de 10 mensen dat niet gaat lezen. Dus dat zou niet echt helpen.
Kijk anders zelf maar.
Dat is geen verloopje maar een modulaire kabel. Zijn immers drie male connectors, anders waren het twee female en één male connector.

[Reactie gewijzigd door -The_Mask- op 24 juli 2024 13:26]

Maar wat houdt ze dan tegen om datzelfde met 1 van de huidige kaarten te doen? 1 streng met 2x8pin connectoren aan de GPU drukken?
Niks, maar de RTX 3090 gaat flink meer verbruiken. Maar alles vanaf 300W geld het in principe sowieso voor.
Hoeveel gaat hij dan gebruiken? Meer dan de 300+ pci-e slot power?
Hoeveel precies zien we binnenkort, maar er zijn genoeg hints die wijzen naar een verbruik van meer dan 300W.
Maar hij kan theoretisch 375W trekken zonder de kabel spec te overtreden.
Ga er maar van uit dat de meeste mensen gewoon de bijgeleverde kabels gaat gebruiken, dus dan heb je dat hele probleem niet. OF men bestelt gewoon de benodigde kabels.. Denk niet dat mensen zelf gaan zitten prutsen om kabels samen te stellen.. Sowieso die ene 12-pins bijna net zo groot al 1 8-pins connector.
.oisyn Moderator Devschuur® @-The_Mask-28 augustus 2020 00:41
.edit: nvm, ik snap nu wat je bedoelt :)

[Reactie gewijzigd door .oisyn op 24 juli 2024 13:26]

De 12 pin functioneert als een 2x8pin. (Verloop kabel is ook van 2x8 -> 1x12)
Nou die van seasonic functioneer zo. Maar dat kan omdat ze vinden dat hun 8 pin plugen veel meer aan kunnen als de verplichte 150 watt.

De max van de 12 pin kan als nog beduidend hoger liggen als 2x150 watt dus.
Waar is aangegeven dat een 1x12 meer vermogen aan kan dan 2x8? Link?

Wat de foto's van Seasonic laten zien dat het eigenlijk een 2x6 (met connectoren van 2x8) is naar 1x12.
2x8 geeft totaal 300Watt (2x150Watt) aan vermogen, en de poorten op de voeding zullen dat ook kunnen leveren.
Dit verloop is er lijkt mij ook voor gemaakt om met elke voeding te kunnen gebruiken die 2x8 aansluitingen heeft voor de video kaart, en dat er geen speciale sterkere videokaart nodig is, dan lijkt mij dat meer vermogen niet een vereiste is voor een 1x12 stekker/aansluiting.
Noob hier, maar zijn het niet 2x 8 naar 12?
Dat zou zomaar kunnen ja, en het verhaal ook logisch maken.

Wel bizar, het aldoor maar stijgende verbruik van grafische kaarten.
Slurpen zoveel wattage op die nieuwe videokaarten zodat ze een nieuwe voeding moeten maken voor de aansluitingen van de videokaart.De 3000 serie van nvidia ben gespant wat dan sneller weer is tegenover de 1080 er en de 2080 van nvidia.ti of gtx.
Slurpen zoveel wattage op die nieuwe videokaarten zodat ze een nieuwe voeding moeten maken voor de aansluitingen van de videokaart.De 3000 serie van nvidia ben gespant wat dan sneller weer is tegenover de 1080 er en de 2080 van nvidia.ti of gtx.
Ja dat zag ik ook met de Geforce RTX 2080, de Geforce GTX 980 gebruikt standaard +/- 175w, en de Geforce GTX 1080 gebruikt standaard +/- 184w, wat maar 9w meer was, de Geforce RTX 2080 gebruikt standaard +/- 230w, wat al weer 50w meer is, en de Geforce RTX 2080 Super gebruikt standaard +/- 254w, dus ben heel benieuwd hoe veel de Geforce RTX 3080 gaat gebruiken.

https://www.guru3d.com/ar..._2080_super_review,5.html

[Reactie gewijzigd door AmigaWolf op 24 juli 2024 13:26]

Guru3D meet niet het stroomverbruik van de videokaart, maar gokt het verbruik van de videokaart op basis van een AC verbruik. Maar dit werkt niet goed en geeft een nogal grote afwijking. Als je het verbruik van de videokaart wil weten kun je beter TechPowerUp gebruiken, zij hebben wel de apparatuur om het verbruik van de videokaart te meten.
We have a device constantly monitoring the power draw from the PC. We stress the GPU to the max, and the processor as little as possible. The before and after wattage will tell us roughly how much power a graphics card is consuming under load.

We have energy saving functions disabled for this motherboard and processor (to ensure consistent benchmark results). We'll be calculating the GPU power consumption here, not the total PC power consumption. The system wattage is measured at the wall socket side and there are other variables like PSU power efficiency. So this is an estimated value, albeit a very good one.
Met andere woorden is het een aardig goede gemiddelde gemeten test wat ze doen, dus ja je kan uit gaan van de wattage die de Grafische kaarten gebruiken.

En als ik kijk naar de NVIDIA GeForce RTX 2080 Super Founders Edition op TechPowerup gebruikt de NVIDIA GeForce RTX 2080 Super Founders Edition op standaard 250w, en dan kijk naar die van Guru3D en daar is de NVIDIA GeForce RTX 2080 Super Founders Edition op standaard 254w, wat MAAR 4 watt meer is, en sorry dat zijn zulke kleine verschillen dat ik die van Guru3D goed genoeg vind.

[Reactie gewijzigd door AmigaWolf op 24 juli 2024 13:26]

En als ik kijk naar de NVIDIA GeForce RTX 2080 Super Founders Edition op TechPowerup gebruikt de NVIDIA GeForce RTX 2080 Super Founders Edition op standaard 250w, en dan kijk naar die van Guru3D en daar is de NVIDIA GeForce RTX 2080 Super Founders Edition op standaard 254w, wat MAAR 4 watt meer is, en sorry dat zijn zulke kleine verschillen dat ik die van Guru3D goed genoeg vind.
Heel leuk dat je één vind waar het verschil klein is. Maar over de jaren heen zijn er heel veel geweest met flinke afwijkingen. Ze doen deze testmethode misschien al iets van 10 jaar gok ik zo.

[Reactie gewijzigd door -The_Mask- op 24 juli 2024 13:26]

Tja, je hebt dan naast de GPU, ook nog Tensor cores en RT cores zitten en die gebruiken ook stroom.
Oude kaarten waren niet per sé beter. Zo had ik ooit de 290X ~350W.
Overgeklokt model onder Furmark? Want standaard model onder gaming deed ~260W average.
https://tpucdn.com/review.../images/power_average.gif
Denk gezien de leeftijd dat ik toen de heaven benchmark gebruikte. Kaart was een model van Sapphire, dus OV tov stock.
3 monitor setup.
Verbruik van de videokaart of van de hele PC? Want zelf meten van de videokaart vereist specialistische apparatuur en een soldeerbout. ;) 350W tijdens heaven klinkt namelijk meer als het verbruik van een PC inclusief verlies voeding en gemeten met een AC meter.
Ik dacht videokaart, en softwarematig gemeten met GPU-Z voor verbruik (perc. t.o.v. TDP).
Specialistische apparatuur valt ook nog wel mee, zeker toen we nog niet zoveel draden naar de GPU moesten trekken ;)

Nog even nagezocht het was de Sapphire Trix oc. Schijnbaar aardige slurper. In jouw bron (techpowerup) zie ik hem terug met 315W, de hogere metingen uit andere bronnen (400+) lijken inderdaad total system draw te zijn.
bedankt voor de link amigawolf.Hoeveel ze gebruiken is natuurlijk verschillend als ze onder stress staan een spel spelen dan zullen ze wel meer gebruiken dan in ruststand idle op de desktop natuurlijk.

[Reactie gewijzigd door rjmno1 op 24 juli 2024 13:26]

bedankt voor de link amigawolf.Hoeveel ze gebruiken is natuurlijk verschillend als ze onder stress staan een spel spelen dan zullen ze wel meer gebruiken dan in ruststand idle op de desktop natuurlijk.
Graag gedaan, en ja ze stress testen de GPU op zijn max.
Power Consumption

Let's have a look at how much power draw we measure with this graphics card installed. The methodology: We have a device constantly monitoring the power draw from the PC. We stress the GPU to the max, and the processor as little as possible. The before and after wattage will tell us roughly how much power a graphics card is consuming under load. Our test system is based on an eight-core Intel setup. This setup is overclocked to an all-core 4.20 GHz. Next, to that, we have energy saving functions disabled for this motherboard and processor (to ensure consistent benchmark results). We'll be calculating the GPU power consumption here, not the total PC power consumption. The system wattage is measured at the wall socket side and there are other variables like PSU power efficiency. So this is an estimated value, albeit a very good one. Below, a chart of relative power consumption. Again, the Wattage shown is the card with the GPU(s) stressed 100%, showing the peak GPU power draw, not the power consumption of the entire PC and not the average gaming power consumption.
Ja als je niet een spel speel gebruikt je Grafische kaart een STUK minder stroom, dan klockt alles terug.

[Reactie gewijzigd door AmigaWolf op 24 juli 2024 13:26]

Slurpen zoveel wattage op die nieuwe videokaarten zodat ze een nieuwe voeding moeten maken voor de aansluitingen van de videokaart
De nieuwe aansluiting levert helemaal niet meer stroom, maar is gelijk aan 2 8-pins connectoren kunnen leveren.
2 tot 3? Dan kom je niet boven de 60W uit hoor. Een 8 pins connector heeft in principe 3 actives, 3 grounds en 2 sensor pins. Daarmee mag je 150W trekken. 150W/3 = 50W dat gedeeld door 12V is 4,2A. Ga er maar vanuit dat de boel minstens voor 6A of hoger gebouwd is.
Ik vermoed dat het eerder te maken heeft met de concurrentie van AMD.
Ze willen per se de snelste blijven, maar de architectuur zal het waarschijnlijk niet toelaten om een groot percentage voor te blijven.
Dat denk ik niet, als AMD een erg snelle kaart zou hebben hadden we nu wel meer geweten maar ze laten niets los.
Fabrikanten laten vaak dingen los als het een goed en of snel product betreft, dit om een soort “hype” te creëren.
AMD heeft al jaren niet meer de snelste kaart, AMD zou om de snelste te zijn een kaart moeten hebben die bijna 100% sneller is dan de RX 5700XT, het dubbele dus. Dat zie ik niet gebeuren met dezelfde architectuur op dezelfde node (TSMC 7nm) als de RX 5700XT en dan ook nog eens met ongeveer hetzelfde verbruik.

Overigens is er niets bekent over het verbruik van de 3000 serie van Nvidia.

[Reactie gewijzigd door Enchantress op 24 juli 2024 13:26]

AMD brengt dit jaar kaarten gebaseerd op Navi 2 uit, de RX 5700 XT is Navi 1. Dat is een nieuwere architectuur, de XBox en PS5 chips zijn al sneller dan een RX 5700 XT beiden met andere configuraties; de een meer CU's de ander een clocksnelheid van 2.2+ GHz. De node die AMD gaat gebruiken is hoogstwaarschijnlijk TSMC 7nm maar dan een nieuwere variant N7P of N7+.
Met dus de hogere clocksnelheden die mogelijk zijn en de nieuwe architectuur en het feit dat de 5700 XT kaart een kleine die heeft met iets van 251mm² denk dat ik AMD prima in staat is om een kaart te maken die sneller is dan de 2080Ti en waarschijnlijk ook de 3080. De 3090 zal waarschijnlijk sneller zijn.
Wat ik al in het Nvidia topic plaatste is dat ik verbaast was over de performance/watt van de 5600XT en 5700 (non XT), die zitten gewoon op het niveau van Nvidia.

Voor context, de 2080 heeft een die size van 545 mm² en de 2080 Ti een van 754 mm². De geruchten zijn dat Nvidia voor Samsung 8nm is gegaan wat niet zo efficient is waardoor het gebruik hoger ligt dan gehoopt.

Ik denk dat de reden dat je nog niks van AMD hoort is dat AMD altijd erg goed is in het geheim houden van bepaalde dingen (lees het artikel over Sunspot op Anandtech maar eens) en dat AMD nog niet zover is en hun kaart waarschijnlijk pas 1-2 maanden na Nvidia uit gaat brengen des te minder info Nvidia heeft des te beter voor AMD. Nvidia is net zoals AMD prima in staat de clocksnelheden van hun product op het laatste moment te wijzigen.

Wil overigens niet zeggen dat ik denk dat AMD ineens Nvidia voorbij gaat blazen maar ik verwacht wel weer competitie.

[Reactie gewijzigd door Sp3ci3s8472 op 24 juli 2024 13:26]

Ik denk dat het juist een slimme zet is van AMD om niets los te laten.
Nvidia heeft op dit moment een flinke hype, als ze niet dezelfde performance zouden evenaren als een 3090 denk ik dat ze al snel veel hype verliezen.

AMD heeft inderdaad al jaren niet meer de snelste kaart, maar dat is ook precies wat ze hebben gezegd dat ze NIET gingen doen met RDNA1. Ik denk ook zeker niet dat AMD nu gaat voor de snelste kaart, maar eerder voor beste prestaties per euro/en watt.

Daarbij als we AMD mogen geloven zal RDNA2 een flinke performance boost hebben tegenover RDNA1. Daar komt nog eens bovenop dat we mogelijk 80 cu's gaan zien. Ik verwacht grote dingen, maar we gaan het meemaken.

Het verschil tussen GCN en RDNA1 is enorm, waarom zouden ze niet nog zo'n jump kunnen maken? Het is ook gebeurd bij Ryzen.
De laatste jaren worden GPU's als maar belangrijker bij supercomputers.
De consumenten GPU's, zoals de RTX 2080, hebben dezelfde architectuur/chip als de Tesla T4, Quadro RTX of Titan RTX.
Misschien is de nieuwe chip ontworpen om de concurrentie aan te gaan met de intel Xe?
nVidia zal wel meer weten dan wij.
Dat kun je niet van een connector afleiden, huidige series heeft 6 + 8 pin connectors nodig.
De fysieke ruimte die dat inneemt is groter dan de 12 pin waar ze nu mee komen, die ook nog eens verticaal staat i.p.v. op de PCB ligt.
Nouja, het stijgende gebruik is helemaal niet zo verbazend, men wil meer snelheid en dat kan op dit moment, met de huidige technologie die er is, blijkbaar dus alleen door er meer energie in te stoppen. Blijkbaar is de technologie nog niet zo ver dat het aanzienlijk sneller kan met dezelfde hoeveelheid energie.
Denk dat het anders maar een beetje sneller zou zijn, vergelijkbaar met de gewone RTX20x0 lijn naar de super variant.. Daar zitten mensen nu niet echt op te wachten, mensen willen een veel grotere vooruitgang.
Ja, mijn x jaar oude voeding is ook compatibel!
9/10 zit verloopje gewoon bij de grafische kaart zoals 2x(?) molex naar 6/8pin PCI-E in de oude tijd
Ik vermoed dat het voor deze serie kaart wat betreft stroomvraag voldoende is om 8 pins te gebruiken voor 12 pins connectoren. Wat Nvidia waarschijnlijk wilt bereiken is dat de markt zich nu al gaat voorbereiden over toekomstige producten die wel daadwerkelijk 12 pins nodig hebben. Adoptie kun je altijd beter voor zijn. Als de komende serie al direct alleen volwaardig 12 pins aansluitingen behoeft, dan moeten klanten ook direct om naar een nieuwe voeding. Dan kunnen ze het beter een generatie voor zijn.
Het idee van Nvidia is om aan te geven wat mogelijk is met een nieuwe compacte aansluiting... En eentje die ook niet altijd op de zelfde oude plek moet zitten.
Ik snap dan echt niet waarom ze niet met 12 pins komen...
Hopelijk (normaal gesproken?) leveren alle fabrikanten de verloopjes mee met de videokaarten.

[Reactie gewijzigd door HugoBoss1985 op 24 juli 2024 13:26]

De 12-pin aansluiting is even groot als 1 8-pin aansluiting, een van de redenen kan dus al zijn om meer of evenveel stroom te kunnen leveren op een kleiner oppervlak... Al zie ik hier niet direct een voordeel...

Ook werd er in de video van NVIDIA vermeld dat een kabel/verloop meegeleverd wordt met de GPU. Ik betwijfel het dat dit ook niet het geval zal zijn voor derde partijen.
Mmm daar heb ik dan hetzelfde gevoel bij als een soort splitter kabel van 8 draadjes naar 2x een 8 pins connector...
... ipv gewoon 2x 8 draadjes (oftewel 2 aparte kabels) met elk een stekker.

[Reactie gewijzigd door HugoBoss1985 op 24 juli 2024 13:26]

Denk omdat de 12 pins volgensmij nu alleen nog voor de 3090 is, en die markt nu nog te klein is.
heb het wel heb net 2 maanden gelden een nieuw blok in gehangen dus omdie nu weer te vervangen :-( maar ze zullen wel een verloopje gaan doen
Kijk wel uit naar de rtx3070 heb nu de rtx2070 dus ik hoop dat hij wel een heel stuk sneller is ...
Want die rtx2070 word geroasterd door microsoft flightsim :(
Zijn voedingen van dergelijke merken nou een beetje kwaliteit, of rebranded kwaliteitmerk?

Krijg bij voedingen van MSI, Gigabyte, etc. Altijd een "schoenmaker blijf bij je leest" gevoel.
Tegenwoordig heb je voor redelijke bedragen ook Seasonic, Corsair, etc. als merk.

[Reactie gewijzigd door Source90 op 24 juli 2024 13:26]

90% van die dingen is inderdaad rebranded OEM spul. ASUS ROG is Seasonic, Gigabyte Aorus is MEIC wat prima spul is, Corsair maakt zelf ook geen voedingen, dat is bijna allemaal CWT of Great Wall, en dat is best een mixed bag soms.
MSI? Wacht maar gewoon op de voedingen van Seasonic.
MSI maakt, zoals veel andere merken, niet zelf voedingen maar stelt een voeding samen bij een OEM zoals FSP, Great Wall,... Die hebben een heleboel verschillende ontwerpen die eventueel aangepast kunnen worden aan de klant. Er gaat dan branding van het merk over en voilà. De kwaliteit kan wisselen van matig tot zeer goed. Sommige merken bieden vooral goede voedingen aan terwijl andere wat minder betrouwbaar zijn.

Sommige merken zoals Be Quiet ontwikkelen nog wel zelf een voeding maar besteden de productie uit.

Seasonic maakt inderdaad haar voedingen zelf en is over het algemeen een betrouwbaar merk hoewel er toch ook een aantal mindere series geweest zijn.

[Reactie gewijzigd door Admiral Freebee op 24 juli 2024 13:26]

Waarom dan? Seasonic heeft sinds de Haswell generatie al geen fatsoenlijke voeding meer gehad in het budget segment. Toen werden de S12II Bronze en M12II Bronze series van 620W en 520W verouderd door het missen van ondersteuning van de toen nieuwe power states van de CPU. Er kwam nog wel een M12II Bronze EVO, maar dat was gewoon een volledig modulaire M12II Bronze voeding, dus ook niet interessant.

Nu hebben we de S12III serie, maar deze is ook zeer oninteressant. Veel te lage kwaliteit en prestaties in vergelijking met de concurrentie.

De Focus serie was een problematische launch in 2017, door meerdere problemen. Compatibiliteitsproblemen met de GTX 970 Strix waardoor de videokaart extreme ripple te verduren kreeg, die zorgde voor vastlopers. Ook waren er problemen met de afstelling van de OCP waardoor heel veel mensen shutdowns kregen met high-end voedingen. En daarnaast waren er ook fan problemen. Ondertussen zouden de meeste problemen opgelost moeten zijn, maar goed is dit natuurlijk niet.

Dan blijft er alleen nog de Prime serie over. Maar deze is eigenlijk helemaal niet bijzonder en vooral erg duur. Maar heeft bijvoorbeeld niet de kwaliteit of functies wat je in veel andere concurrerende voedingen wel ziet in dit prijssegment.

De betere tijden van Seasonic liggen echt ondertussen een aantal jaren achter ons met de G-series, S12G series, X-series, M12D series, enzovoort. Zou te maken kunnen hebben dat een paar jaar geleden een aantal goede mensen zijn vertrokken en Mistel hebben opgericht.

Er zijn zoveel betere PSU fabrikanten, denk aan meer dan tien, dus wachten op Seasonic heeft weinig nut.

@Admiral Freebee
Sommige merken zoals Be Quiet ontwikkelen nog wel zelf een voeding maar besteden de productie uit.
be quiet! ontwikkelt geen voedingen. Ze laten wel enkele aanpassingen doen aan huidige designs van voornamelijk FSP. Maar de ontwikkeling en productie wordt gewoon gedaan door een OEM. In het geval van be quiet! is dat dus bijna altijd FSP.

Zelf ontwikkelen en laten produceren zonder dat jezelf fabrieken hebt zie je heel weinig. Cooler Master heeft de eerste in ontwikkeling, maar die is al flink vertraagd. https://landing.coolermaster.com/pages/tep/ Mistel heeft het ook gedaan: http://www.jonnyguru.com/...anless-650w-power-supply/

Zelf ontwikkelen en productie uitbesteden, terwijl je wel zelf kan produceren zie je wel heel veel. Vrij populair bij kleinere fabrikanten zoals Seasonic en Super Flower bijvoorbeeld, omdat ze zelf de capaciteit niet hebben voor meerdere productielijnen.

[Reactie gewijzigd door -The_Mask- op 24 juli 2024 13:26]

Whoa zo technisch hoeven we niet te gaan praten. Ik heb veel vrienden & kennissen die PSU's van Be Quiet, Corsair en andere merken hebben gehad. Velen kapot gegaan of waren problematisch. Heb zelf een 3e PC build met een Seasonic evenals vrienden (S, Focus, Prime), geen enkel probleem. Ik praat dus puur uit ervaring. Dat je daar een iets hogere prijs voor betaald tsja, het is slechts het belangrijkste onderdeel van een PC.
Whoa zo technisch hoeven we niet te gaan praten.
Waarom niet? :p
Heb zelf een 3e PC build met een Seasonic evenals vrienden (S, Focus, Prime), geen enkel probleem.
Maar dan heb je het over een handjevol, daar kun je onmogelijk een conclusie aan binden.
Ik heb veel vrienden & kennissen die PSU's van Be Quiet, Corsair en andere merken hebben gehad
Net zoals je hier onmogelijk een conclusie aan kunt binden.

Dan moet je juist technisch gaan praten, anders ga je nogal verkeerde conclusies trekken.
Dat je daar een iets hogere prijs voor betaald tsja, het is slechts het belangrijkste onderdeel van een PC.
Eens en daarom is het ook belangrijk goede informatie erover op te zoeken. Want er is extreem veel onzin over voedingen te vinden.
Ik heb niet heel veel versrand van PSU's en gebruik ook al tijden Seasonic. Wat zijn op dit moment de beste merken dan? Ik ben oprecht geïnteresseerd :-)
Sinds jaar en dag horen AcBel, Besteq, Chicony, Delta, Etasis, FSP, Flextronics, GreatWall, Huntkey, Lite-on en Zippy wel tot de top van de voedingsfabrikanten. Maar het is veel interessanter om naar het product te kijken. Immers een low-end voeding van een high-end fabrikant is nog steeds een low-end voeding en een mainstream voeding van een high-end fabrikant voor een high-end prijs is ook niet bepaald interessant.
Dank je, ik ga mezelf hier meer in verdiepen!
Dus eigenlijk introduceren helemaal geen voedingen voor de nieuwste videokaarten. Dus een verloopstekker aanschaffen is voldoende
Gewoon de meegeleverde verloopstekker gebruiken.
Zie https://youtu.be/ZEzI02SKALY?t=378 "using an included adapter".
Meegeleverd bij de videokaart neem ik aan.
De voedingen hebben geen 12-pinsaansluiting maar mogelijk levert MSI een adapter mee.
@Olaf Dat lijkt mij zeer sterk, de adapter/verloopje zal komen met de videokaart. Het heeft geen voordeel dat ook MSI een zelfde adapter/verloopje er bij zou doen.

Wat wel een optie is dat ze een modulaire kabel mee leveren welke aan de voedingszijde twee 8 pins modulaire connectors heeft voor in de VGA sockets en aan de andere kant van de kabel een 12 pins Micro-FIT connector hebben voor de nieuwe videokaart.

Overigens vanaf de buitenkant lijken dit trouwens CWT GPU voedingen, zoals ook de Bitfenix Whisper serie. Schroefjes van de behuizing zitten op dezelfde plek, zelfde modulaire aansluitingen en ook een zelfde verdeling van de 12V rails.

Zie bijv. productreview: BitFenix Whisper BWG450M review door -The_Mask-
Ik zie persoonlijk meer heil in een extension cable van CableMod, want uiteindelijk willen veel mensen die zo'n tank van een GPU aanschaffen natuurlijk ook een PC die er tiptop uit ziet. Sterker nog, ik heb 'maar' een 5700 XT en heb al voor 40 euro aan cable extensions erin zitten omdat ik zelfs die volledig zwarte kabels van m'n PSU echt niet vet vind uitzien. Dat inpluggen in de standaard 2x 6+2 pins kan het beste achter de moederbord tray of onder de PSU shroud gebeuren.

[Reactie gewijzigd door Pianist1985 op 24 juli 2024 13:26]

Ik denk dat het veel mensen ook niks kan schelen en dat ze gewoon het meegeleverde verloopje gaan gebruiken.

Ik wil zelf wel altijd snelle hardware maar die gaat in een kast zonder raampjes dus ik geef er niet zo om. Zo zullen vast meer mensen denken.
De meeste zullen bedrijven zijn. En die zullen het worst wezen hoe het eruit ziet. Zolang het werkt niets aan veranderen.
Bedrijven die een RTX 3090 aanschaffen? Zullen zat eenmanszaken zijn waar iemand met z'n game PC ook meteen z'n brood verdient, en die zullen net zo vaak voor een optisch mooie computer willen gaan als andere enthousiasts, maar het gros van de bedrijfsmatige klanten gaat voor Quadro of Tesla. Tesla-kaarten op basis van Ampère zijn al uit en hebben deze connector niet.
Dus ze maken een voeding speciaal voor de nieuwe kaarten, en dan blijkt dat ze die 12-pin oplossen door een verloopje. Dan is toch eender welke moderne voeding net zo geschikt? Zolang je maar dat verloopje hebt.

Vroeger zaten er 2x 4-pin molex naar pci 6-pin adapters bij veel videokaarten, mag hopen dat ze dat nu ook gaan doen.

Klinkt nogal marketingpraat dus.
Leuk iig dat MSI voedingen gaat verkopen, ben benieuwd naar de reviews met het oog op geluidsproductie.
Ik lach me altijd de flarden ...etc. Als je een Asus Rog 2080 ti koopt van 1200 euro (als dat nog kan tegenwoordig, geloof dat ze zo bijzonder zijn dat ze wel 1500 mogen kosten ofzo) dan krijg je zo'n gruwelijk lelijke zwart rood gele verloop erbij :P Hopelijk dat ze bij deze series (als het van toepassing is, verwacht dat de vendors gewoon de 2/3 x 8 erop plakken) eens mooie gesleevde kabeltjes erbij doen, of toch op zijn minst zwarte.
ik denk dat vendors massaal overstappen. dit is nou vooruitgang in de industrie. netzoals dat intel aan het werk is met een 12v only psu samen met psu fabrikanten. die 12pin connector heeft gewoon veel voordelen tegenover het oude systeem. netzoals dat we van molex zijn afgestapt omdat die niet handig zijn.
Ik verwacht niet dat ze massaal over gaan op de nieuwe Nvidia 12 pin connector. Misschien in de toekomst maar voor nu voelt het allemaal wat gehaast. Boardpartners zullen er vast al een tijd terug over gehoord hebben, maar er zijn nog geen voedingen of kabels voor beschikbaar. Die kabels en voedingen zullen vast komen maar ik weet niet of mensen voor nu niet liever de huidige kabels gebruiken dan een verloopstukje.

Verder lijkt de 12pin mij vooral interessant voor de 3090 omdat ze anders 3x8 pins moeten gebruiken wat fysiek best wat ruimte in beslag neemt qua kabels en PCB ruimte. (als de 400watt geruchten kloppen). Maar voor de kaarten daar onder zou een 2x8 pin waarschijnlijk meer dan genoeg zijn en dat komt al een stuk minder bulky over.
Veel voordelen? Noem ze eens? Kleiner/meer vermogen met 1 stekker, meer kan ik niet bedenken.
1 minder pcb ruimte. 2 1 stekker ipv 2 en dus minder mechanische stress op de pcb. 3 minder user error. 4 lagere assemblagekosten (want maar 1 connector ipv 2)
Daar heb ik niets tegenin te brengen verder uiteraard :) heb er verder geen mening over of het beter of slechter is, heb een keer een youtubeje gezien waarin ze met twee losse kabels vanuit de voeding getest hebben en dat bleek weinig anders dan de splitter te gebruiken. En de echte topkaarten hebben 3x8 ff zo uit mijn hoofd, dat wordt dan weer een heel ander puzzel. 2 x 12 pins dan maar :P

Meen dat het debauer was die maar voedingskabeltjes bleef doorknippen totdat de kaart echt meer pins nodig had om te blijven werken. Performance drop was niet echt te zien in die situatie (of minimaal in ieder geval). Zelf niet de luxe om dat soort zaken te testen dus "het staat op het internet dus zal wel kloppen".

<edit>https://www.youtube.com/watch?v=fRVSGFjKf4E

[Reactie gewijzigd door joszman_tweak op 24 juli 2024 13:26]

technisch gezien kan zn kabel meer amperage leveren volgens mij, zitten allemaal op dezelfde 12v rail. dat betekend alleen niet dat je dat amperage door die kabel wilt pompen, das niet echt brandveilig. geen idee of dat in deze situatie het geval is, maar ik denk niet dat daarop getest is.
technisch gezien werken =/= veilig product
Wat is er niet handig aan molex? Oké, ze klikken stroef in elkaar maar verkeerd aansluiten gaat niet, en ze zijn qua formaat prima handelbaar en zelfs voor de leek is een kabel makkelijk te verlengen, zelfs zonder soldeerbout.Strippen, draadjes vastbinden, shrink wrap eromheen en klaar. Echt bij lange na niet zo rot als 4-pin RGB headers of die extreem stugge USB 3 kabels.
molex is brandgevaarlijk, ze zijn niet sterk en de pins zitten niet goed vast, die zijn kort te sluiten.. usb 3, 4pin rgb headers gaat nouwelijks vermogen over. molex wel.

[Reactie gewijzigd door t link op 24 juli 2024 13:26]

Je zal die adapters ook vast wel los kunnen kopen straks in allerlei vormen en kleuren etc vermoed ik.. Dat er mooie luxe meegeleverd worden bij de videokaarten zou ik niet op vertrouwen, dat zullen inderdaad wel bijna altijd van die standaard adapters zijn zoals vroeger ook het geval was.. Mij boeit het sowieso niet, want ik gebruik toch een dichte kast, dus uiterlijk is totaal niet belangrijk voor mij, als het maar werkt en stil is..

Op dit item kan niet meer gereageerd worden.