ASRock introduceert psu’s met ondersteuning voor ATX 3.1 en PCIe 5.1

Hardwarefabrikant ASRock gaat voor het eerst voedingen voor pc’s aanbieden. De psu’s worden toegevoegd aan de Taichi-, Phantom Gaming-, Steel Legend- en Challenger-productlijnen. Alle modellen bieden ondersteuning voor de ATX 3.1- en PCIe 5.1-standaarden en een 5V-boostmodus.

Uit het persbericht van ASRock blijkt dat de Taichi-voedingen in een 1650W- en 1300W-variant zullen uitkomen. De modellen zijn uitgerust met een zogenaamde ntc-sensor: een thermistor in de voedingskabels voor de videokaart, die de temperatuur in real time kan meten en een beveiligingsmodus kan activeren als er sprake is van oververhitting. De Taichi-psu’s beschikken over een 135mm-’striped axial’-ventilator. De behuizing meet 180x150x86mm. ASRock heeft een optionele 5V-boostmodus ingebouwd, waardoor de psu’s 5,2V in plaats van 5V uitsturen om voltage drop verderop in het systeem op te vangen. De psu’s worden met modulaire kabels geleverd, inclusief twee PCIe 12V-2x6-kabels. Deze producten hebben Titanium-certificeringen van zowel 80Plus als Cybenetics voor de efficiëntie en ook een Cybenetics Lambda A+ Ultra Quiet-certificaat. Ze krijgen een garantie van tien jaar. ASRock vermeldt geen prijzen.

ASRock Taichi-voedingen. Bron: ASRock
ASRock Taichi-voedingen. Bron: ASRock

De voedingen uit de Phantom Gaming-productlijn komen uit in een 750W-, 850W-, 1000W-, 1300W- en 1600W-variant. De behuizing meet 180x150x86mm. Deze psu’s beschikken over een optionele 5V-boostmodus en een ntc-sensor. Ze hebben een 80 Plus Gold-certificering en een Cybenetics Platinum- of Gold-certificaat gekregen, afhankelijk van het model. De modulaire psu’s zijn ook van een Cybenetics Lambda A-label voorzien. De Phantom Gaming-voedingen beschikken over een 135mm-’striped axial’-ventilator. ASRock biedt tien jaar garantie op deze producten. De fabrikant deelt geen prijzen.

ASRock Phantom Gaming-psu's. Bron: ASRock
ASRock Phantom Gaming-psu's. Bron: ASRock

De psu’s uit de Steel Legend-reeks komen in een 650W-, 750W-, 850W- en een 1000W-variant. Deze voedingen hebben, net als de overige modellen, een 80 Plus Gold-certificering meegekregen en ook een Cybenetics Platinum- of Gold-certificaat, afhankelijk van het model. Deze psu’s zijn ook van een Cybenetics Lambda A-label voorzien. ASRock benadrukt de compacte behuizing, die 150x150x86mm meet. De voedingen uit deze reeks worden met een 135mm-’striped axial’-fan geleverd en hebben een ingebouwde 5V-boostmodus. De fabrikant biedt tien jaar garantie op deze voedingen. ASRock vermeldt geen prijzen.

Steel Legend-voedingen van ASRock. Bron: ASRock
Steel Legend-voedingen van ASRock. Bron: ASRock

De Challenger-productlijn bestaat uit vier varianten met een 80 Plus Gold-certificering en vier varianten met een 80 Plus Bronze-certificering. Het maximale vermogen in deze productlijn is 850W, terwijl de minimale wattage 550W bedraagt. De voedingen zijn uitgerust met een 120mm-'Golf Blade'-ventilator en de behuizing meet 140x150x86mm. Deze psu’s hebben een ingebouwde 5V-boostmodus die niet uit te schakelen is. ASRock biedt vijf jaar garantie op deze modellen. Het is niet duidelijk hoeveel de voedingen zullen kosten.

ASRock Challenger-voeding. Bron: ASRock
ASRock Challenger-voeding. Bron: ASRock

Door Jay Stout

Redacteur

18-11-2024 • 14:59

48

Lees meer

Reacties (48)

Sorteer op:

Weergave:

Die "5V Boost modus" is een alarmerende feature, zeker wetende dat deze niet af te zetten is op de goedkope modellen. Een moederbordmaker verwacht bepaalde voltages, en kan zelf voltages verhogen indien gewenst. Dit is vastgelegd in de specificatie. Als er ineens een ander voltage geleverd wordt, dan kan dat allerlei problemen veroorzaken.

Voor ATX mag dat over het algemeen +/- 5% zijn, dus is 5.2 nog net in spec, maar echt op het randje (5.25 is max). Als er dan iets mis is aan de toleranties aan de kant van asrock, ben je effectief je moederbord aan het overvolten. En Asrock gaat echt niet kunnen testen met elk mogelijk moederbord dat dit geen problemen oplevert.

Ook kan ik me best voorstellen dat er apparatuur is die er vanuit gaat dat ze niet constant gevoed worden door een voeding die hoog op het randje van de spec zit.

Specs zijn er om nageleefd te worden, zodat alles betrouwbaar werkt. Als 5.20V beter was omdat verliezen in de kabel nog gecompenseerd moesten worden, zou dat de spec zijn.
Idd, wat zou überhaupt het voordeel zijn van 5.2v ipv 5?
Waarom de 5V boosten? Ik zou het werkelijk niet weten. Welke verbruikers hangen überhaupt nog zwaar aan 5V?

Alles wat ietwat vermogen nodig heeft trekt het uit de 12V rail(s).

En wanneer heb je voor de laatste keer last gehad van een (te) lage 5V? Dit ruikt als marketing fluff.
Enige wat ik zou kunnen bedenken zijn ARGB accessoires, die trekken immers allemaal 5V. Zeker in systemen vol met verlichte fans en strips zou het wellicht helpen?

Al denk ik inderdaad dat dit gewoon onlogische marketing is om een hele nieuwe lijn beter te verkopen. We zullen zien wat Cybernetics er van maakt.
Ik zie toch dat sommige dingen 5.2 volt trekken uit usb i.p.v. 5 volt, dus wel zinvol.
Er is niks wat een bepaald voltage uit een ander apparaat kan "trekken". Het apparaat wat het spanningsverschil genereerd bied een bepaald voltage aan met een bepaald vermogen. Een apparaat die daaraan gekoppeld is kan dat vermogen van 0 tot max opnemen. Let wel, max=oneindig, maar de levensduur van componenten gaan (ik denk exponentieel) achteruit hoe meer vermogen je opneemt boven de specificatie.
Als je teveel stroom vraagt en dat kan niet geleverd worden, zakt je spanning wel in. Maar als je op dat punt bent gekomen mag je je wel afvragen wat je aan het doen bent.
Dan is de voeding die je USB-poort voedt net zo brak als deze voedingen, niet die dingen die 5,2 Volt "trekken". Het voltage wordt niet bepaald door het apparaat dat eraan hangt, maar door de voeding / spanningsregelaar.

Het apparaat kan wel meer stroom / vermogen vragen. Dat zou de spanning niet (significant) moeten veranderen, zolang je niet over het maximumvermogen van de stroomtoevoer heengaat.

Als een apparaat harder wil werken vraagt 'ie gewoon meer stroom. Daar heb je geen "voltage boost modus" voor nodig.

[Reactie gewijzigd door bwerg op 18 november 2024 20:26]

Weet je zeker dat je PSU niet kapot is of waarmee je meet niet gewoon 5 % afwijkt?
Dat staat in het artikel.
Het is binnen spec…
De 5% is natuurlijk een marge om te zorgen dat variaties en kleine afwijkingen altijd meegenomen worden.
Als een voeding bewust naar 5.2 volt gaat, zou er nog steeds sprake kunnen zijn van 5% afwijking.

Persoonlijk zie ik dan net als jij liever dat PSU makers zich gewoon aan de standaard houden, en dat de makers van de hardware erachter maar wat meer moeite moeten doen om hun hardware zo te maken dat er geen pieken nodig zijn.
IMHO een gevalletje #JustStupidAsRockMarketingStuffZ voor de zoveelste keer... :F

Moeten ze echt een keer mee kappen net als ASUS trouwens |:(
Kan best kloppen, ik zie de "hybride mode" voor de PSU fan ook op de website van ASRock. Alleen noemen zij het "iCool on/off".
Er zijn wel meer fabrikanten die dat hebben, dus dat hoeft niet perse de feature zijn die het weg geeft.
Dan zit het met de kwaliteit wel goed :Y) Dat zie je dan ook wel terug in de garantie van 10 jaar die Asrock durft te geven.
Niet elke SeaSonic voeding is geweldig te noemen als je forumtopic: Voeding advies en informatie topic - Deel 34 wat vaker leest !! ;)
Ehhh, de grafische kaart heeft toch zelf al beveiliging tegen oververhitten?!

Dat kun je met software ook aansturen.

[Reactie gewijzigd door Tourmaline op 18 november 2024 15:03]

Er staat "in de voedingskabels voor de videokaart" , ik gok dat dus wanneer de kabel/connector overhit dat dan de voeding uit gaat. Zodat er geen brand ontstaat zoals bij die Nvidia kaarten toen der tijd?
Dank voor de info. Ik heb geen kaart die zoveel trekt dat ie oververhit raakt.
Maar een connector die niet goed op de GPU zit (of beschadigd is), kan wel erg warm worden, dus alsnog kan het relevant zijn.
Een jaar geleden begonnen de nieuwe connectoren voor videokaarten massaal te smelten, misschien proberen ze dat op deze manier te voorkomen? Het probleem was destijds volgens mij dat niet alle kabels daadwerkelijk aangesloten waren, waardoor hetzelfde vermogen door minder kabels moest. Die kabels werden daardoor te warm, wat resulteerde in het smelten van het zwakste punt: de connector.
Ik zie inderdaad dat de allernieuwste ruim boven de 300 watt max zitten. 2 x 8 pins kan 2 x 150 watt leveren.

ligt dus eigenlijk aan de grafische kaarten dat ze teveel stroom op de lijn trekken.
Ze trekken in principe niet teveel, maar als de connector er niet lekker in zit trekt de videokaart hetzelfde vermogen over minder kabels. Eigenlijk zou dat niet mogelijk moeten zijn, maar dat bleek helaas niet het geval. De nieuwe stekkers zijn vrij ongelukkig ontworpen (of geproduceerd, het is net hoe je er naar kijkt), met de oude stekkers kon dit eigenlijk niet optreden. Zover ik weet zijn de nieuwe stekkers inmiddels ook aangepast.
De stekkers waren (weinig volt, heel veel ampere, gekke stekker die er niet noodzakelijk eenvoudig recht inging, klein contactoppervlakte met weerstand) nogal onbetrouwbaar waardoor ze vrij heet werden. Door een thermistor toe te voegen aan de plug kun je, afgaande van het 12+4 principe van de plug, vrij eenvoudig de kaart dus vertellen dat hij vanwege spanningvraag warm wordt en dus minder prik krijgt. En dat is fijn, zeker als software en hardware nu zelfs op kabel/plug niveau kunnen samenwerken.

Het grappige is dat de problemen gedeeltelijk komen door 12V. Wist je dat USB-C voor 240W al naar 48V gaat? Het is zo jammer dat we in desktop PC land nog steeds op 12V vastzitten, als DC-DC electronika om er de 0,6-1,1V van te maken voor 12V niet complexer is dan voor 24 of zelfs 48V.
Die standaard komt er wel aan ja, 240 watt opladen e.d.

Lees toch dat de meeste nieuwe grafische kaarten ruim over die 300 watt zitten, 350 tot 380 watt. Dat is wel wat meer dan officieel getrokken mag worden en zullen dus ook wat extra warm worden.
240W is een laptop spec, laptop GPU's draaien altijd een stuk trager, en zijn mede daardoor enorm lastig aan te schaffen, een mobiele RTX4080 kun je tussen de 50 en de 110W kopen, terwijl een mobiele 4070 ook in die range zit. Je kunt dus een situatie hebben dat een 4070 (of zelfs 4060) laptop sneller is dan een 4090 laptop zelfs.

Op een desktop platform zijn de ranges een stuk minder groot, tenzij je naar de OEM-wereld gaat, en een desktop PC hangt doorgaans ook niet aan een USB-C plug. Qua kern-electronica komen PC's en laptops wel overeen, ze hebben allen DC-DC electronica, zoals VRM's, en andere veelal mosfet-gebaseerde regulatoren.

Een desktop PC heeft gelukkig doorgaans een opening waar een standaard IEC C-13 plug in gaat, en vanaf daar is het een "interne" aangelegenheid die niet echt moeite hoeft te doen om 'mobiel' te zijn. Omdat niet veel dingen compact hoeven te zijn, is het meeste gewoon nog een MOLEX familie plug. Prima, maar de combo dikke, stugge kabels + kleine plug maakt het gewoon een lastig volledig in te prikken geheel.

Helaas, misschien uit compatibiliteitswens, misschien uit zuinigheid, is het onderliggende verhaal nog steeds 12V, 5V, -5V, en 3.3V. Waarbij een 'stand-by' 5V er ook bij is gekomen, en de 3.3V eigenlijk minder dominant is geworden, maar 12V des te meer (waardoor we ineens ook EPS plugs op onze moederborden kregen).

Zouden PC's naar 24 of zelfs 48V gaan, dan zal het een stuk eenvoudiger worden om met een kleinere, flexibele plug (hoeft geen USB-C te zijn, maar iets ter grotte van PCI-E 6-pin of 8-pin is al geweldig) toch die 600W te voldoen, immers, je hoeft maar 12,5A te voldoen op 48V om aan 600W te komen.

Kunnen we gelijk die 24-pins ATX plug en de soms wel twee EPS plugs door één uniforme plug vervangen. Misschien on-board 12V/5V/3.3V dingen totdat we ook een nieuwe S-ATA standaard hebben bedacht (gaan moederborden in transitietijd wel wat duurder door worden), voor een NVME drive is het veel eenvoudiger want die lift toch al mee op een VRM die vanwege gemak tóch al met 12V gevoed werd.
Mooi zo, extra concurrentie.

Ik wens Corsair veel succes met het feit dat ze zich nu ook op deze markt begeven,
maar ga hun PSU's van de eerste generatie toch aan mij laten voorbijgaan.

Wel kijk ik uit naar de reviews van diegenen die ze wel hebben aangekocht .. :)


.
Taichi-voedingen in een 1650W- en 1300W-variant
De RTX5090 gaat 600W verbruiken, een 1650W PSU voor als je twee stuks in SLI wilt plaatsen .. 8)7
De psu’s worden met modulaire kabels geleverd, inclusief twee PCIe 12V-2x6-kabels
.

[Reactie gewijzigd door MPIU8686 op 18 november 2024 15:37]

Moet niet gekker worden, grafische kaarten die 600 watt trekken. Meteen mooi kacheltje erbij.
https://www.techpowerup.c...-4090-450w-vs-600w/3.html

Dat doet Nvidia gewoon!

Gelukkig doet mijn 7900XT met minder dan de helft.
Stock is 450 max en in de meeste games lager. Die van jou zal ook wel wat meer trekken als je de power slider helemaal naar rechts sleept.
En in SLI 1200W .. dat is bijna even krachtig als mijn badkamervuurtje .. :D
Ik vond mijn PC Sauna wel lachen destijds :
- 3 x 24 inch Monitor
- 1250 Watt voeding
- 4 x HD5870 in CrossFireX en EyeFinity Enabled

B-)

Wat werd het koeler en stiller opeens toen ik over ging naar :
- 2 x R9 290X
En later naar :
- 1 x GTX 1080

:+
Heb in 2018 nog een build gebouwd gehad met 3 GPU's : AMD – Sapphire Radeon NITRO+ RX VEGA64 8GB in CrossFire. Gezien het hoge verbruik toen werd daar al snel eentje van ontmanteld, die heb ik dan nog doorverkocht voor het dubbel van de prijs.

Hoe dit zo was gekomen, was eigenlijk per ongeluk. De gangbare verkoopprijs toen was €580 en opeens stonden deze op amazon voor €240 te koop. Nog geen 12uur later na mijn aankoop stond de verkoopprijs opeens op €550 en zakte de komende dagen dan weer geleidelijk naar €520. Dat weet ik nog goed. Ik had dus gewoon zonder nadenken 3 stuks besteld gehad en daarna zat ik met stress, van dit had ik beter niet gedaan, straks komt er niks toe of helemaal iets anders .. |:( .. Maar enkele dagen later kwamen die alle 3 gewoon toe, allemaal nieuw en perfect werkend.

Die build gebruik ik momenteel nog (of beter gezegd, heb deze terug in gebruik genomen .. :D

Ik had later een betere build gebouwd gehad met een MSI GeForce RTX 2080 Ti Ventus 11GB OC in, maar mijn dochter had die telkens even nodig voor school (CAD). Dus is die uiteindelijk op haar kamer beland en daar nooit meer weggegaan .. dus ben ik teruggegaan naar mijn vorige build .. die natuurlijk nog steeds een topper was met z'n 2 GPU's : Sapphire Radeon NITRO+ RX VEGA64 in CrossFire
Alleen jammer dat AMD sinds 2016/2017 steeds meer Crossfire en helaas ook Eyefinity begon te slopen dus ik weet niet hoe effectief je die twee nog steeds kan gebruiken vandaag de dag :?

Toen verdween ook CCC voor die hedendaagse ramp van ze met die rare GUI waar alle opties achter andere opties verborgen zitten... echt VERSCHRIKKELIJK gewoon... :F

Voor mij de reden geweest om ze als merk helemaal te dumpen en in Juni 2017 een mooie aanbieding voor de MSI GTX 1080 Gaming X mee te pakken en over te stappen op Nvidia Surround Gaming :)
De laatste jaren (dus in 2018 zelf) werkte dit al lang niet meer zoals het hoorde voor het toen overgrote gedeelte van de meest recente games, maar inderdaad voor games die voordien al op de markt waren en wel degelijk CrossFire ondersteunden kon je hiermee wel het maximum uithalen en nog steeds.

Topgames zoals : Splinter Cell // Crysis // Half-Life 2 // Fallout 3 // Bioshock // Mass Effect

Verder :
Grand Theft Auto IV
The Elder Scrolls IV: Oblivion
Far Cry 2 & 5
F.E.A.R series
S.T.A.L.K.E.R. series
Assassin's Creed: Unity
En tal van Call of Duty's ondersteunen allemaal CrossFire, ik bedoel, dit zijn heel wat games !!

En als toen redelijk recente game Assassin's Creed: Odyssey
werkte perfect met AMD's CrossFire.
Vooral AC: Odessey is hier sinds het is uitgekomen al veel gespeeld geweest .. :)

Maar dus door die beperkte ondersteuning in tal van recente games en een aantal andere factoren heb ik er voor gekozen nog geen jaar later een nieuwe build te bouwen ..
Vandaar dus mijn Nvidia RTX 2080 Ti Ventus 11GB OC build nog geen jaar later .. 8)7 die werkte veel beter voor de meer recente games, had ook een energiezuiniger stroomverbruik en ondersteunde raytracing.

Veel recente games heb ik trouwens ook gewoon op de PS4Pro gespeeld,
die kocht ik voor een prijsje tweedehands op disc.
OK, maar het probleem is dat er op een gegeven moment steeds meer Crossfire Profiles begonnen te verdwijnen en door enkele algemene/globale instellingen waren vervangen en dat was gewoon echt niet tof te noemen :/

Apart trouwens dat je GTA IV noemt gezien die game allerlei performance issues had destijds :o
Werkt het echt zo goed ?!
Bij het uitkomen in 2008 van Grand Theft Auto IV
heb ik deze enkel gespeeld op de PS3 en met die console waren toen geen problemen mee.

Op datzelfde moment in 2008 had ik een verouderde GamePC,
dus kocht ik ook helemaal geen games voor Windows.

Pas veel later in 2020 heb ik Grand Theft Auto IV - The Complete Edition voor Windows aangekocht.
En toen waren er al lang geen problemen meer qua performance of om deze in CrossFire te starten.

Pracht van een game en natuurlijk nostalgie voor mij omdat het zich in Liberty City afspeeld . aangezien mijn eerste GTA game die ik ooit heb gespeeld Grand Theft Auto III was dat zich daar toen ook afspeelde.
Hmm... OK... Misschien eens voor de grap activeren op de Rockstar Games Social Club Launcher dan en eens kijken wat ze ervan hebben gebakken, want destijds viel het zelfs ondanks mijn über systeem flink tegen :D

Thnx! d:)b
Wat is het volgende vernieuwend ontwerp, een halo sprinkler systeem om verbrande connectors te voorkomen?
Misschien wel handig voor de aankomende RTX5090, die schijnt nog meer stroom nodig te hebben, misschien wel twee 12VHPWR connectors.
Officieel heten deze pluggen/kabels nu 12V-2×6 connector, de naam 12VHPWR is vervangen door 12v-2x6.
Whatever ze nu ook heten mogen 12V-2x6 Gen 1,3-99.6 Rev 23, ik noem ze onbetrouwbaar AF kabels. ;) :+
Wow 1600watt voeding voor een pc...
Hmm kan interessante optie zijn voor de 5xxx serie. Echter wat ik dan niet snap is dat ook hier weer rechte 12V-2x6 kabels bij lijken te zitten in plaats van ook kabels versie met een 90graden hoek dat past veel makkelijker...
Dit is gewoon 4x hetzelfde artikel achter elkaar geplakt met hier en daar een wijziging, terwijl het een simpele tabel had kunnen zijn waardoor lezers tenminste direct een overzicht hadden van alle features.

Op dit item kan niet meer gereageerd worden.