ASRock brengt PCIe 5.0-uitbreidingskaart met vier M.2-slots uit

ASRock heeft een uitbreidingskaart uitgebracht waarmee gebruikers vier PCIe 5.0 M.2-ssd's kunnen aansluiten op een enkel PCIe-slot. Het is de eerste add-inkaart van ASRock die de PCIe 5.0-standaard ondersteunt.

ASRock noemt het apparaat de Blazing Quad M.2. Het bedrijf biedt al meerdere van dat soort uitbreidingskaarten waar meerdere ssd's in passen. Eerdere modellen van het bedrijf ondersteunden echter alleen PCIe 3.0- of 4.0-ssd's. De Blazing Quad is het eerste model dat werkt met PCIe 5.0.

De Blazing Quad kan in een enkel PCIe 5.0 x16-slot van een moederbord worden gestoken. De behuizing bevat van binnen vier M.2-slots met ieder een PCIe 5.0 x4-interface. Hiermee ondersteunt ieder slot ssd's met doorvoersnelheden van maximaal 16GB/s. Er passen ssd's van maximaal 110mm in het apparaat.

De ssd's zijn in een hoek van 45 graden gepositioneerd. De behuizing heeft daarnaast twee ventilators die los van elkaar kunnen draaien. De kaart wordt zelf van stroom voorzien via een aparte 12V-aansluiting, omdat er niet genoeg vermogen uit de PCIe-aansluiting kan worden getrokken. Er zitten vier ledlampjes aan de buitenkant van de behuizing waarmee gebruikers de read- en writestatus van de ssd's kunnen zien.

De kaart heeft afmetingen van 24,4x12,6cm en een singleslotontwerp. Het is nog niet bekend wat de kaart gaat kosten en of die in Nederland verkocht zal worden.

Asrock Blazing Quad Asrock Blazing Quad Asrock Blazing Quad

Door Tijs Hofmans

Nieuwscoördinator

21-02-2023 • 14:13

51

Reacties (51)

51
51
18
5
0
28
Wijzig sortering
Let wel, deze insteekkaart (en zijn voorgaande broertjes) vereisen 4x4x4x4 bifurcation op het PCI-express slot. Er zit geen bridgechip of PCI-E multiplier / switch op, het PCI-E x16 slot wordt in 4-en geknipt en per x4 doorgegeven aan het M.2 slot op de kaart.

Nagenoeg alle consumentenborden ondersteunen dit niet. Threadripper meestal wel, het nieuwe Intel workstation platform waarschijnlijk ook.
Het is niet waar dat nagenoeg alle consumentenborden dit soort kaartjes met 4x M.2 niet ondersteunen. Er zijn juist redelijk veel consumentenborden waarop het prima werkt.

Voorbeeldje:
uitvoering: ASUS TUF Gaming B550M-PLUS
uitvoering: AMD Ryzen 5 5600 Boxed
uitvoering: ASUS HYPER M.2 X16 GEN 4 CARD
Gaat gewoon werken met 4x M.2 op de kaart.

Asus heeft hiervoor een mooie compatibiliteit lijst gemaakt.

Edit:
En in de manual van ASRock’s Blazing Quad M.2 staat dat het prima op de meeste ASRock consumentenborden kan draaien die PCIe 5.0 aan kunnen. Waaronder de vrij goedkope uitvoering: ASRock B650E PG Riptide WiFi

[Reactie gewijzigd door Djarune op 23 juli 2024 14:05]

En dat kan ook gelijk verklaren waarom er een extra power connector nodig is. Een x4 kaart mag namelijk maximaal 25W uit het slot trekken maar aangezien een x16 kaart maximaal 75W uit het slot kan halen denk ik niet dat het zo simpel is als 4x 25W voor deze kaart. Er zullen ergens wel stroombeperkingen zijn.
Gen5 M.2 wordt heet, dus de kans dat ze tegen de 25W aan pieken is redelijk groot, maar dat kan ook opgelost worden met een aantal flike condensatoren.

En een extra stroom stekker kost letterlijk een paar cent, en verbeterd beduidend de kwaliteit van je stroom op het kaartje, zelfs als het niet echt nodig is, is het slim om te plaatsen om vage klachten en RMA's te voorkomen.
Sommige recente consumer moederborden ondersteunen het wel, maar het is vrij random of de functie aan staat. Mijn x570 moederbord heeft bifurcation, sommige andere x570 en B550 bordjes ook, maar met een 400 series chipset is het dan weer heel zeldzaam.
Met x670 zou ik verwachten dat de meeste mobos het zouden ondersteunen, maar het is vaak moeilijk te vinden in de specs.
bifurication is al enige tijd een standaard functionaliteit bij AMD. Ook op consumentenbordjes
uiteraard mits je geen entry chipsets zo als de A320 gebruikt

De B550 chipset voor AM4 en opvolger ervan de B650 voor AM5 hebben dit gewoon. de hogere modellen uiteraard ook.

Bij Intel is dat echt niet anders.

[Reactie gewijzigd door fvdberg op 23 juli 2024 14:05]

Heb 3 mobo's in gebruik hier, en alle drie ondersteunen ze bifurcation, dus weet niet waar je je informatie vandaan haalt.
Gigabyte 570 Master, Gigabyte 570 i Pro Wifi,
Denk meer dat het tegenwoordig een "Intel" ding is.
LGA 1700 alleen 8x8 en LGA 1200 alleen x8/x8 or x8/x4/x4
AM5 ondersteund gewoon 4x4x4x4
Dat is niet helemaal waar, heb zelf ook zo een een kaart maar dan met 2x M.2 in R0, en offerde graag +/- 2% prestatie op van mijn videokaart voor veel snellere opslag.

Bv mijn Gigabyte X570 AORUS PRO, heeft het ook bifurcation, en in mijn zoektocht naar een geschikte mobo, kwam ik het tegen bij meerdere desktop mobo's tegen, maar je moet er wel veel handleidingen voor door zoeken, want het staat (meestal) niet in de spec lijst.
Compatibilteits overzicht (= geteste moederborden) van de fabrikant is niet betrouwbaar ofzo ???
Je lijkt het wiel te willen uitvinden ...

Compatibliteits lijst

[Reactie gewijzigd door TheToolGuy op 23 juli 2024 14:05]

Dat is een ASUS lijst, niet de lijst waar ook andere fabrikanten op staan, de 2x kaart waar ik mijn twee M.2 SSDs op kon plaatsen.

Ik had geen behoefte aan een TR of HEDT mobo, ik wilde gewoon een snelle 4TB opslag schijf, en dat prima betaalbaar kaartje was prima voor mijn 2x SN850X.

Bij AM5 zijn er trouwens zover ik kan zien, geen borden met PCIe5 x16 die je kan splitsen in x8/x8.
Ik gebruik uitvoering: ASUS HYPER M.2 X16 GEN 4 CARD op een x570 en dit werkt. Je moet het in je BIOS aanzetten. Overigens werkt x8 x2 voor mij ook.
Oh bedoel je nu dat nagenoeg alle oude zooi mogelijk niet werkt?
Bedankt voor de waarschuwing!
Hoe weet je dat er geen chip onder de fans zit? Misschien er is toch een.
Voor zover de specs op de site van Asrock zelf gebruikt de kaart een PCI-E v.5.0 x 16 slot wat ook inhoud dat de kaart alleen optimaal werkt met een recent chipset. Waarbij ook nog een punt is dat vele consumenten moederboarden vaak het 2de PCI-E x16 slot een x8 slot is. Misschien dat wel dan de luxere en dus dure consumenten moederboarden 2 x 16 PCI-E slots hebben.

Zoals je terecht schrijft zitten er wat haken en ogen aan vast vooral als je dan alles uit de ssd's wilt kunnen halen.
Ook belangrijk: het is niet altijd mogelijk om van deze drives op te starten. Ze kopen voor een M.2 ssd upgrade voor je OS moet je dus best even eerst opzoeken.
Ik snap niet helemaal waarom er een losstaande 12V-connector nodig is. Een moederbord kan 75 watt leveren. Plak er 4 SSD's à 15 watt bij (vrij conservatief nog), kom je uit op 60 watt. Nog 15 over voor eventuele fans. Of mis ik hier iets?
Ik zou me kunnen voorstellen dat het makkelijker en goedkoper is voor ASRock om gewoon 'run of the mill' fans op de kaart te plaatsen in plaats van het doorlussen van de 12v lijn van de PCIE. Ook zou je als je nog een beetje regeling wil de nodige extra IC's moeten plaatsen om de fans te regelen terwijl het moederbord dit al heeft.
Al met al denk ik dat het louter om kostenbesparing gaat.
De fans zouden individueel aan te sturen zijn, ik meen me te herinneren dat dat met 'run of the mill' niet echt een optie is?
Misschien dat PCIe 5.0 SSDs op volle snelheid wel meer verbruiken?
Even een willekeurige 5.0 SSD opgezocht, voor de Gigabyte AORUS Gen5 10000 geeft Gigabyte als verbruik:
Power Consumption (Active)
Read: <10W ; Write: <10W
Maar het lijkt mij dus niet onmogelijk dat dit bij sommige modellen >15W zal zijn...
Ziet elk PCIe 5 slot ook 4 m.2 drives of moet dit specifiek worden ondersteund (4x bifurcation)?

Om mijn eigen vraag te beantwoorden: Ja het moederbord moet dit ondersteunen. Volgens de handleiding vooralsnog enkel deze:

Intel W790 W790 WS
PCIE1 V V V V
PCIE2 V V
AMD WRX80*
WRX80 Creator /
WRX80 Creator R2.0
PCIE1/PCIE2/
PCIE3/PCIE5/PCIE7
V V V V
PCIE4/PCIE6 V V
AMD X670
X670E Taichi Carrara PCIE1 V V V V
X670E Taichi PCIE1 V V V V
X670E Steel Legend PCIE1 V V V V
X670E Pro RS PCIE1 V V V V
X670E PG Lightning PCIE1 V V V V
AMD B650
B650E Taichi PCIE1 V V V V
B650E Steel Legend WiFi PCIE1 V V V V
B650E PG Riptide WiFi PCIE1 V V V V
B650E PG-ITX WiFi PCIE1 V V V V

4x V betekent dat alle vier de slots worden ondersteund. Zo zou je met het B650E ITX bord een leuke NAS kunnen bouwen met in totaal 6 M.2 slots.

[Reactie gewijzigd door MornixRS op 23 juli 2024 14:05]

Ik volg niet helemaal waarom er een extra stroomstekker aanwezig is gezien zelfs 4 ouderwetse consumentenschijfjes nauwelijks aan de 15W/stuk komen onder load, laat staan SSD's.

Aan de andere kant bied dit wel weer de mogelijkheid om er iets anders op te plakken wat aan PCI-E doet op een M.2 slot.

Overigens wel tof, de meeste expansion cards waar je 4 SSD's op kan plakken gaan maar tot 80mm, hier kan viermaal de volle 110mm op. :)

[Reactie gewijzigd door D4NG3R op 23 juli 2024 14:05]

Er is geen restrictie op wat zo’n M2 stick mag verbruiken toch? Lijkt mij wellicht deels future proof. Stel ze maken nieuwe varianten die twee keer zo snel zijn en pieken op 20 watt per stuk dan kom je al tekort.
Hardware, zeker consumenten hardware, wordt doorgaans niet gebouwd op 'wat als' maar op 'hoe kunnen we het zo goedkoop mogelijk maken en zo duur mogelijk verkopen'.

De kans is dan ook groter dat dit vanuit kostenoverweging gedaan is. Dat neemt overigens niet weg dat het daardoor toevallig ook (meer) toekomstbestendig is geworden, maar het blijft met het hier en nu met als doel het aandrijven van 4 SSD's vanuit een technisch oogpunt een rare keuze. ;)
zeker consumenten hardware
Het is ook geen consumenten hardware, want het is niet bruikbaar in moederborden zonder 4x bifurcation. Dus dan vallen bijna alle consumenten moederborden af.

Ben het verder wel met je comment eens, met als kleine aanpassing dat het een klein gedeelte "wat als" zou kunnen zijn. Misschien is het bijvoorbeeld omdat tijdens het stresstesten bleek dat een piekbelasting van alle 4 de schijven nog wel eens voor instabiliteit zorgde op sommige moederborden omdat de pcie slot niet op tijd op de load reageerde.

[Reactie gewijzigd door youridv1 op 23 juli 2024 14:05]

Het is ook geen consumenten hardware, want het is niet bruikbaar in moederborden zonder 4x bifurcation. Dus dan vallen bijna alle consumenten moederborden af.
Het gaat hier wel degelijk om consumer-grade hardware, het feit dat er maar een paar dozijn moderne moederborden (met grote afhankelijkheid van de gebruikte CPU en overige hardware) zijn welke er ondersteuning voor bieden doet daar geen afbraak aan. ;)

Dat dit geen product is voor de gemiddelde huis-tuin-en-keuken PC ben ik wel met je eens, maar opties zijn er in principe voldoende, voorbeeldje van Asus.
Dit is op de meeste moederborden toch enkel nuttig als je geen discrete videokaart hebt want anders is het slot met de meeste pci-lange al bezet?
Dit is op de meeste moederborden nieteens bruikbaar. Lees https://tweakers.net/nieu...ction=18486168#r_18486168 deze reactie van @M2M maar

Ondanks dat dit product natuurlijk sowieso ontzettend niche is, vind ik dat toch een vreemde limitatie. Los van dat je een use case hebt voor 4xpcie5.0 m.2 moet je dus ook nog een workstation moederbord gebruiken. Ik vind dat een beetje maf, gezien tegenwoordig de flagship consumentenchips van AMD en Intel prima te gebruiken zijn voor professionele workloads zoals content creation. De R9 7950X en i9 13900K doel ik dan specifiek op.

Ik kan me best voorstellen dat een aanzienlijk deel van de potentiële klanten een consumer grade i9 of r9 heeft

[Reactie gewijzigd door youridv1 op 23 juli 2024 14:05]

Ik denk dat de industrie bang is voor parallel omdat dat dat de positie van nieuwe SSD's met "per unit" prestaties verzwakt. PCIe 16x transfer-snelheid naar een enkel volume is te gek. Als 4 M.2 kaartjes van 2 jaar oud in een PCIe-kaart het samen even goed doen als de nieuwste enkele kaart betekent dat een probleem voor de industrie. Daar zit niemand op te wachten. Bij USB zit er (waarschijnlijk om dezelfde reden) een centrale controller achter alle apparatuur waar alles door moet. Een "USB-raid" werkt niet want dan moet alles tegelijk over de root-hub.
Daarvoor moet je dan wel raid0 gebruiken wat wel als kanttekening heeft dat je je kans op falen verdubbelt tov een enkele schijf. Daarentegen gaat het bij dit soort cases veelal niet om storage maar mee om cache en scratch disks, dus je zou wel eens gelijk kunnen hebben
In de ideale situatie hang je een aantal M.2 SSD-s aan de PCI-bus die vervolgens samen de bandbreedte van de bus minus traffic control data zouden moeten halen. Met hoeveel PCI-kaarten dat gebeurt zou er niet toe moeten doen.
Dat is bij mijn weten totaal niet hoe de PCIe-bus werkt, maar het is al een hele lange tijd geleden dat ik mij daarin verdiept heb.

Volgensmij heb je daar ten alle tijden een soort tussen controllertje voor nodig en kun je niet "zomaar" zonder extra hardware een slot van 16 lanes splitsen naar 4x4 en al helemaal niet dynamisch, wat jij voorstelt.

[Reactie gewijzigd door youridv1 op 23 juli 2024 14:05]

Ik heb nu 2SSD's op het bord zitten en een single M2 PCI-kaart. Als ik er nog 1 bij steek stopt mijn videokaart op hardware-niveau. Google wijst op een PCI-lane conflict maar ik snap eigenlijk niet wat het probleem is. Hebben we nou die bandbreefte die de specs van het bord vertellen of zijn daar dan weer uitzonderingen op?
lijkt me een aparte situatie. in principe zit het bovenste slot waar de gpu in hoort op aparte pcie lanes die direct naar de cpu gaan ipv via de chipset. Gebruik je dat slot voor je gpu?
Ik heb nog een volledig PCI-e slot en een korte over.
De videokaart geeft geen beeld meer als ik een 2e PCIe M.2 kaart er bij doe. Ik zou zeggen IDE-kabel verkeerd om, maar dat was 30 jaar geleden. :+

edit: misschien moet ik gewoon een andere M.2 kaart proberen. Dit is een goedkoop ding. Geen idee of die betrouwbaar is. Het 2e slot gaat verdacht moeilijk, lijkt een b-produkt.

[Reactie gewijzigd door blorf op 23 juli 2024 14:05]

b-producten is met PCIe sowieso riskant. Kan zijn dat die SSD hetzelfde ID gebruikt als de GPU. Officieel moet je nieuwe ID's registreren bij PCI-sig tenzij je de PCI kaart alleen voor interrne doeleinden gebruikt, zoals een specifieke stuurkaart voor elektromotoren op een embedded computer. Dat is nogal duur. Bij conflicterende ID's kunnen dit soort dingen optreden of bluescreens en dat soort zaken

[Reactie gewijzigd door youridv1 op 23 juli 2024 14:05]

Het is iets nog voor het opstarten van de software. Meteen met aanzetten geen beeld. Ik zal nog eens in de bios kijken of het misschien met een setting te maken heeft. Om Win11 werkend te krijgen moest ik eea aan zetten, maar ik draai altijd FreeBSD dus niet echt nodig.
Dat is op enorm veel moederborden prima bruikbaar, consumentenborden ook. Mijn Gigabyte X570 Aorus Master uit 2019 had het al, gewoon een consumentenbord. Als je eventjes zoekt welke borden/chipsets dit ondersteunen vind je echt een enorme stapel non-workstationborden die dit kunnen. In het reeds aan jou gelinkte document van Asus zie je bijvoorbeeld al een aantal B550 en B650 (budget) borden genoemd staan met ondersteuning.
Kwestie van prioriteiten. Er zijn immers nog moederborden met een tweede x16 PCIe3 slot, die je voor een GPU zou kunnen gebruiken.

En als je echt dit nodig hebt naast dat het een über gaming PC moet zijn, dan zijn er moederborden met twee PCIe5 16x slots, zoals hun eigen X670e Taichi.
Kan je er ook RAID configuraties mee draaien?
Software RAID denk ik sowieso, maar hardware denk ik niet. Ik zie iig geen chips op de kaart zitten waarvan ik denk dat die dat aankunnen. Het kan zijn dat ze onder de M.2 slots gesoldeerd zitten, maar ik zie ook geen soldeerpunten aan de kant van de kaart die we kunnen zien.
Ja, dat kan inderdaad, maar je moet wel een enorm rappe CPU hebben om 4 PCI-e 5.0 SSD's op volle snelheid te kunnen aansturen in software RAID.
Of gewoon wat meer geheugen en een CoW filesystem als ZFS :), maar dat werkt natuurlijk niet voor windows.

[Reactie gewijzigd door geeMc op 23 juli 2024 14:05]

Op zich werkt dat wel in Proxmox, en dan Windows in VM. Dan heb je wel de voordelen van ZFS. Dit deed ik voorheen overigens, met GPU passthrough naar Windows. Op zich werkt dat ook nog maar met PCI bifurcation zat ik toch met een relatief lage frame rate, en voor mij een onacceptabele latency. Daarnaast lever je in op suspend, en dat is met de huidige stroomprijzen een beetje zonde.

Wat je ook kunt doen is OpenZFS voor Windows port overwegen https://github.com/openzfsonwindows/openzfs
Dan heb je het waarschijnlijk over raid5? Voor raid 0 of 1 kan ik mij niet inbeelden dat er veel processing nodig is?
Ik heb het dan voornamelijk over iops. Software RAID0 onder windows ging al op zijn gat qua iops met 2x 970Evo plus op een 1900X. Ik had 100% CPU load op een enkele core bij het inladen van spellen, waarbij de load 1:1 overeen kwam met de SSD activiteit. Duidelijk de CPU die de bottleneck was.

[Reactie gewijzigd door ocf81 op 23 juli 2024 14:05]

De sequentiele snelheid verbeterd meestal wel bij RAID met SSD 'schijven' maar de IOs/sec schalen vaak niet mee, sterker nog deze is van een SSD RAID-0 set vaak veel lager dan die van een individuele schijf.

Jammer dat daar geen oplossing voor is, d.m.v. een goede onboard chip en firmware die het aantal IOs/sec optimaliseert van meerdere SSD's parallel geplaatst.
Ligt eraan hoe je OS ze detecteert denk ik. Als je OS ze zien als 4 losse disks zie ik niet waarom je er geen (soft) RAID mee kan draaien.

Of je dat ook wil / moet willen is een 2e.
Zou wondermooi zijn om op 8 van die M.2 SSDs een ZFS array te draaien. Enorm snelle access/rebuild tijden en hypermodern. Nadeel is wel dat ze veel onvoorspelbaarder dan HDDs zijn als ze ermee ophouden, maar met raidz2 of raidz3 zou je dat wel goed op moeten kunnen vangen.
En het nadeel is de prijs ook nogal tov. hdd.
4 m2 slots. Wat zou je daar in willen steken?

Als het 4 opslag-blokjes zijn zoals ssd's of zo, dan zou ik daar ook een chip bij willen hebben die van die 4 blokjes dan 1 logische kan maken zoals bijvoorbeeld met een (hardware!) raid.
De ventilator houder is het duurste onder van de hele pcb.

Op dit item kan niet meer gereageerd worden.