Gigabyte introduceert PCIe 5.0-insteekkaart voor vier M.2-ssd's

Gigabyte introduceert een Aorus Gen 5 AIC-insteekkaart voor ssd's. Deze kaart biedt ruimte voor vier PCIe 5.0-M.2-ssd's in een RAID-array en kan in een PCIe 5.0 x16-slot op het moederbord geplaatst worden. Het bedrijf deelt geen adviesprijs of releasedatum.

De Aorus Gen5 AIC ondersteunt vier ssd's voor een maximale totaalcapaciteit van 16TB, schrijft Gigabyte. De kaart haalt daarbij theoretische bandbreedtes van maximaal 60GB/s bij gebruik van een RAID 0-configuratie. Gebruikers kunnen vier verschillende PCIe 5.0-ssd's combineren op de insteekkaart. De Aorus Gen 5 AIC is ook backwards compatible met PCIe 4.0 en PCIe 3.0, maar levert daarmee uiteraard wel lagere snelheden. Bij de vorige Aorus Gen4 AIC introduceerde Gigabyte ook varianten met voorgeïnstalleerde ssd's, maar daarover rept de fabrikant bij het Gen5-model nog niet.

De kaart beschikt verder over een actieve koeler met een enkele fan. Gigabyte voorziet de kaart naar eigen zeggen van acht geïntegreerde temperatuursensoren die gebruikt kunnen worden om de snelheid van die fan aan te sturen. De Aorus Gen5 AIC kan gebruikt worden op platforms met PCIe 5.0. Intel biedt die PCIe-versie met zijn huidige Alder Lake-processors en de Z690-chipset. AMD kondigt volgende week zijn Ryzen 7000-cpu's aan, die ook PCIe 5.0-ondersteuning krijgen.

In de praktijk zijn er nog geen M.2-ssd's met PCIe 5.0-interface beschikbaar voor consumenten, maar daar lijkt binnenkort verandering in te komen. Gigabyte plaatste eerder al een teaser voor een Aorus Gen 5 10000-ssd, die volgens het bedrijf maximale sequentiële leessnelheden van ruim 12GB/s haalt. Ook Corsair hintte eerder naar de komst van een MP700-ssd met PCIe 5.0-interface en leessnelheden tot 10GB/s. Een Samsung 990 Pro verscheen eerder al bij PCI-SIG, de organisatie die de PCIe-standaard overziet. Ook andere fabrikanten, zoals Adata, Apacer en Team Group, toonden al PCIe 5.0-ssd's. Van al deze ssd's zijn echter nog geen concrete releasedata bekend.

Gigabyte Aorus Gen5 AIC

Door Daan van Monsjou

Nieuwsredacteur

23-08-2022 • 12:44

76

Lees meer

Reacties (76)

Sorteer op:

Weergave:

10 tot 12 GB/s per kaart, gooi er 4 in RAID0 en je hebt makkelijk 35 tot 40 GB/s,ligt aan welk OS je draait en hoe goed het file manager en file system de data aan kan.

dat word leuk voor AI en big data die werken met datasets van 100'en GB.

hel maak er een raid 10 van en je hebt alsnog 20 GB/s
Software? Vergeet ook de andere hardware van je systeem niet :-)

PCI-e 5.0 is vergeleken met v3.0 een factor 4 sneller geworden, terwijl RAM maar een factor 2 heeft gezet sinds DDR4-3200 naar DDR5-6400. Een dual-channel DDR5-6400 systeem heeft een bandbreedte van zo'n 90GB/s. Al zou je een array van 4x10=40GB/s kunnen aanmaken, dan is enkel het opslaan en ophalen al een workload van 2x40=80GB/s van/naar het werkgeheugen. Dat betekent dat de geheugenbus al bijna gesatureerd is. De CPU zou dan zowat die data 'on the fly' moeten verwerken, wat een pittige opgave is (40GB/s over 16 cores = 2.5GB/s per core)

Het zou erg tof zijn als je de data direct naar GPUs kan doorzetten, echter op de consumentenborden betekent dat ook dat je de 16x lanes moet opsplitsen naar 2x 8x lanes voor SSDs en GPU. Mocht de chipset en CPU SSD slot al PCI-e 5.0 zijn, dan had je daar ook evenveel bandbreedte mee behaald (hoewel je dan wel mogelijk andere I/O beetje uitknijpt).

Helaas lopen HEDT platforms (of: AMD) nog wat achter op PIC-e 5.0 gebied, maar dan zou je het geneuzel met lanes verdelen niet hebben. En heb je waarschijnlijk ook 4, 6 of 8 kanaals geheugen tot je beschikking, waardoor je het werkgeheugen niet satureert met een paar SSDs.

Ofwel erg toffe hardware, maar of je dit in een consumentenbord moet steken weet ik niet. Hoewel, de mogelijkheid bestaat altijd, en zelfs met een x8 verbinding naar de CPU zal elke SSD opzichzelf nog redelijk vlot (7.5GB/s max?) aangesproken kunnen worden.
De meeste videokaarten lijken niet beperkt door PCIe 3.0 x16, dus dan hebben ze ook genoeg aan PCIe 4.0 x8 en zeker aan PCIe 5.0 x8. Dus wat dat betreft zou het theoretisch zeker mogelijk moeten zijn om data direct van de SSD naar de GPU te sturen.

Al is het de vraag om dit überhaupt nodig is. Het eerste NVME slot gaat al naar de CPU en de CPU gaat ook direct naar de GPU, dus kan er in de huidige opzet al data heel snel doorgezet worden van de NVME naar de GPU, waarbij de data de IO-controller op de CPU niet hoeft te verlaten. Dus geen round-trip naar het geheugen en wanneer er geen CPU-decompressie nodig is, zelfs geen tripje naar de compute chiplet van de CPU.

Sterker nog, dit is waar de industrie nu al mee bezig is.
De meeste videokaarten lijken niet beperkt door PCIe 3.0 x16, dus dan hebben ze ook genoeg aan PCIe 4.0 x8 en zeker aan PCIe 5.0 x8. Dus wat dat betreft zou het theoretisch zeker mogelijk moeten zijn om data direct van de SSD naar de GPU te sturen.

Al is het de vraag om dit überhaupt nodig is. Het eerste NVME slot gaat al naar de CPU en de CPU gaat ook direct naar de GPU, dus kan er in de huidige opzet al data heel snel doorgezet worden van de NVME naar de GPU, waarbij de data de IO-controller op de CPU niet hoeft te verlaten. Dus geen round-trip naar het geheugen en wanneer er geen CPU-decompressie nodig is, zelfs geen tripje naar de compute chiplet van de CPU.

Sterker nog, dit is waar de industrie nu al mee bezig is.
De meeste videokaarten lijken niet beperkt door PCIe 3.0 x16, dus dan hebben ze ook genoeg aan PCIe 4.0 x8 en zeker aan PCIe 5.0 x8. Dus wat dat betreft zou het theoretisch zeker mogelijk moeten zijn om data direct van de SSD naar de GPU te sturen.

Al is het de vraag om dit überhaupt nodig is. Het eerste NVME slot gaat al naar de CPU en de CPU gaat ook direct naar de GPU, dus kan er in de huidige opzet al data heel snel doorgezet worden van de NVME naar de GPU, waarbij de data de IO-controller op de CPU niet hoeft te verlaten. Dus geen round-trip naar het geheugen en wanneer er geen CPU-decompressie nodig is, zelfs geen tripje naar de compute chiplet van de CPU.

Sterker nog, dit is waar de industrie nu al mee bezig is.
De wederopstanding van AMD bestuderen helpt ook. Maar je moet ook bekent zijn met Directx9c.
Deze kaart gebruikt waarschijnlijk PCIe Bifurcation dus als je het x16 slot verlaagd naar een x8 slot werken 2 van de SSD's al niet meer.
Dit is dus een kaart waar alleen mensen met een HEDT platform wat aan hebben wat Intel en AMD aan het afbouwen lijken :(
Ofwel erg toffe hardware, maar of je dit in een consumentenbord moet steken weet ik niet. Hoewel, de mogelijkheid bestaat altijd, en zelfs met een x8 verbinding naar de CPU zal elke SSD opzichzelf nog redelijk vlot (7.5GB/s max?) aangesproken kunnen worden.
Zal nog wel ff duren voordat PCI-5 een double-digit marktaandeel heeft in consumenten-electronica. Hetzelfde geldt overigens voor PCI-4.

Het zijn vooral 2 opeenvolgingen van verdubbeling van bandbreedte vanaf PCI-3.
Met de node verkleiningen in productie, snap ik dat we in een technology hausse zitten, en dat terwijl de wet van Moore nu echt dood is.

Misschien is 8 of 16 schijven parallel nog wel een leuke optie voor de consument. En die performance gains (7.5GB/s max?) sijpelen vanzelf naar de meer competitive segmenten van de markten.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 23:11]

Software? Vergeet ook de andere hardware van je systeem niet :-)

PCI-e 5.0 is vergeleken met v3.0 een factor 4 sneller geworden, terwijl RAM maar een factor 2 heeft gezet sinds DDR4-3200 naar DDR5-6400. Een dual-channel DDR5-6400 systeem heeft een bandbreedte van zo'n 90GB/s. Al zou je een array van 4x10=40GB/s kunnen aanmaken, dan is enkel het opslaan en ophalen al een workload van 2x40=80GB/s van/naar het werkgeheugen. Dat betekent dat de geheugenbus al bijna gesatureerd is.

Het zou erg tof zijn als je de data direct naar GPUs kan doorzetten, echter op de consumentenborden betekent dat ook dat je de 16x lanes moet opsplitsen naar 2x 8x lanes voor SSDs en GPU. Mocht de chipset en CPU SSD slot al PCI-e 5.0 zijn, dan had je daar ook evenveel bandbreedte mee behaald (hoewel je dan wel mogelijk andere I/O beetje uitknijpt).
Juist daarom is software zo belangrijk; zodat je de pakketjes in je workstation kan aligning.

In dit optimalisatie scenario vallen de meeste gains te halen.

Ik moet weer eens een vergelijkend warenonderzoek doen, tussen softraid en freenas en zo. Nog tips?

Uitgangspunt van mijn volgende investering is een 4-bay (of 8) NAS met PCI4.0 met dual-channel DDR4-3200 (en een snelle muis).

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 23:11]

Is RAID voor prestatiewinst nog een ding in het SSD-tijdperk? Mooi, die hoge theoretische bandbreedte, maar in de praktijk ligt de bottleneck vaak bij random I/O en latency, en daarin worden de prestaties met RAID juist slechter.
Er zijn verschillende levels van RAID.

Als je het hebt over latency dan zijn RAID0, RAID1 en RAID10 niet echt slechter dan een single-drive. Random I/O hangt er vanaf waar je op doelt (lezen, schrijven, grootte, queue-depth) maar er zijn legio situaties denkbaar dat de genoemde RAID-levels daar beter presteren dan een single-drive.

Ofwel: Zoals een heleboel is er niet zondermeer te stellen of het nuttig is of niet. Er zijn talloze niche-situaties denkbaar waar zoiets gunstig is. En er zijn vast ook wel situaties denkbaar waar het volstrekt zinloos is. Maar je zondermeer afvrage dat "prestatiewinst nog wel een ding is in het SSD-tijdperk" suggereert ook meteen dat snellere SSD's zinloos zijn. Dat lijkt me nogal onzinnig om te stellen op een medium als Tweakers.
Uit ervaring met de huidige snelste drives zoals de DC P5800X, het draait nog om 1 ding en dat is latency, latency en latency.

Raid 0/1 voegt een berg latency toe waarbij de performance door 2 gaat. Ja de bandbreedte zal wel min of meer blijven staan maar de latency verdubbeld en dus kan je op een QD 1 de snelheid delen door 2.

Het is zelfs zo erg aan het worden dat de kloksnelheden van de CPU bepalen hoe snel de drive is. Onlangs nog een systeem afgesteld met dynamische kloksnelheid uit alsook boost clocks uit zodat de CPU continu op dezelfde kloksnelheid loopt. Het weghalen van die jitter gaf een boost aan de storage. Heeft te maken met drive 1 is zit op CPU 8 en drive 2 zit op CPU 12.

Bij consumenten heb je nu Direct-Storage maar het is helemaal niet iets nieuw. De virtuele storage controllers van Hyper-V zijn een ramp als het op latency komt, VmWare heeft er reeds aparte virtuele controllers voor. Netwerken hebben sowieso veel te veel latency dus daar krijg je technieken als RoCe & RDMA. Als protocol om over netwerk storage aan te spreken heb je dan weer NVMe-oF.

Allemaal verschillende technieken en protocollen maar allen hebben ze 1 rode draad, latency omlaag halen. Het probleem is dat we gewoon waren dat storage traag was dus veel impact had iets als een raid controller niet, nu zitten we reeds met storage in enterprise waar die bottleneck niet langer bij storage ligt maar zelfs bij de CPU zonder enige vorm van raid of virtualisatie. Voor consumenten is direct storage niet de oplossing, het is een eerste stap in een langer verhaal waarbij we totaal anders storage moeten gaan aanspreken als we die (toekomstige) performance ook daadwerkelijk bruikbaar willen maken.
Het ligt ook geheel aan de controller en gebruikte technieken. Toevallig heeft LTT laatst Anthony op pad gestuurd naar een bedrijf wat supergoeikope NAND gebruikt met een eigen controller en daar kneiterdikke prestaties uit trekt door de NAND chips in raid direct beschikbaar te stellen zonder controller. Daarmee kunnen ze in software de controller maken en zo bepaalde acties anders laten lopen.

Als NAND beschreven wordt, kun je er niet tegelijkertijd van lezen. Door Parity data te gebruiken van de andere chips kunnen ze echter wel lezen van de andere chips waardoor juist random IO ineens ontiegelijk veel beter presteert. Ook het feit dat ze zich niet voordoen als storage device (en je dus niet per 4K blocks hoeft te schrijven) helpt daar ontzettend in mee.

Onder water hangen die machines met 2-4x 100gbit/s aan elkaar geknoopt en kunnen ze daardoor een gigantische datastroom leveren die qua bandbreedte en latency heel erg in de buurt komt van RAM.

Nu is RAID an sich best wel dom doordat de controller niet transparant is voor de software stack. Als we daar wat aan zouden kunnen doen dan voorzie ik dergelijke ontwikkelingen ook verschijnen in consumenten SSD’s die dus vanuit parity de gevraagde data kunnen leveren terwijl de andere chip beschreven wordt. Zeker voor kleine stukjes data zoals OS spul levert dat ws wel veel snelheidswinst op.

[Reactie gewijzigd door supersnathan94 op 22 juli 2024 23:11]

Ah thanks, ik wist dat het zoiets voor de hand liggends was, had al gezocht op ltt anthony flash maar dat leverde niks op.
Je geeft niet een geheel correcte weergave van de technologische mogelijkheden.

Uit mijn hoofd: random read en contigiuous 4k block write zijn de belangrijkste metrics om het e.e.. te bepalen. Maar het ligt er aan..
@Database freak

2x verdubbeling van bandbreedte sinds PCI-3 geeft voldoende mogelijkheden, waarbij de workstation als laatste aan de beurt is.

In dat kader is het jammer dat AMD gestopt is met Threadripper's. Maar ja, dan weet de simpele consument in ieder geval waarom hij een machine met een i9 chip koopt.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 23:11]

Is RAID voor prestatiewinst nog een ding in het SSD-tijdperk? Mooi, die hoge theoretische bandbreedte, maar in de praktijk ligt de bottleneck vaak bij random I/O en latency.
random I/O, iops en latency zijn slecht geprofiled 8-)

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 23:11]

hoeveel mensen werken met AI en big data ... dat is zelfs een fractie van de pc gebruikers. Vroeger was een raid controller een must om wat stockage te hebben. Dit is gewoon voor mij: kijk wat we kunnen. Ik zou van zoiets wel eens graag de verkoopscijfers zien na een jaar. Maar denk niet dat we de 50.000 units verkocht gaan halen
Leuk dat nu je SSD's je pcie bus dicht trekken en je RTX 4080 straks niet meer tot zn recht komt :)
Dit soort kaarten zijn leuk als je veel video editing doet of andere high iops / write intensive zaken maar verder... #Overkill in deze tijd nog.

[Reactie gewijzigd door Qualixo op 22 juli 2024 23:11]

De "bus dichttrekken"? Dat zou kunnen, als PCI-e een bus was geweest. Dat is het dus niet. PCI-e heeft point-to-point lanes, die niet gedeeld zijn. Een bus is gedeelde bandbreedte.

Je RTX4090 deelt dus geen lanes met je SSD. Als je SSD z'n lanes dicht trekt, dan heeft dat geen invloed op de lanes naar de GPU.
Enkel PCI-E x16 voor videokaart en een PCI-E x4 voor M.2 slot ter hoogte videokaart gaan rechtstreeks naar de CPU.
De rest gaat naar de PCH (oude southbridge) en daar zit de bottleneck omdat de verbinding PCH naar CPU redelijk gelimiteerd is, dacht PCI-E 4.0 x8.
Op PCH zitten ook de rest van je hardware zoals SATA, USB, rest van M.2 slots, netwerk, audio...
Een PCH is inderdaad een potentiële oorzaak van congestie. Dat is dus alleen voor data-verkeer door die PCH heen. Zoals je al zegt, de GPU is niet aangesloten op de PCH en heeft dus sowieso de volledige bandbreedte van zijn eigen lanes. Of de SSD's nu direct aan de CPU hangen, of aan de PCH, in geen van beide gevallen heeft dat een impact op de GPU lanes.

De verbinding naar de PCH is DMI 4.0 x8, tenminste op de Z690, maar dat is qua bandbreedte vergelijkbaar. met PCIe 4.0. Het is wat efficienter omdat het een kortere afstand is.
Enkel PCI-E x16 voor videokaart en een PCI-E x4 voor M.2 slot ter hoogte videokaart gaan rechtstreeks naar de CPU.
De rest gaat naar de PCH (oude southbridge) en daar zit de bottleneck omdat de verbinding PCH naar CPU redelijk gelimiteerd is, dacht PCI-E 4.0 x8.
Op PCH zitten ook de rest van je hardware zoals SATA, USB, rest van M.2 slots, netwerk, audio...
Ja, maar de gehele compute history is zo'n beetjje op PCI 3.0. De bottleneck wordt verdeeld over ACPI space. AMD was altijd vrij karig met lanes en de APU's werden lang gebottlenecked door een PCI-3.0 gebaseerde interposer, omdat AMD zelf die plane ook ontwikkelde met hun IF, wat in 3 smaken komt.

AM5 socket (met DDR5) en enkele incarnaties verder zit ook AMD nu op PCI 5.0, waarbij ze chiplet packages met cpu, gpu en geheugen kunnen mix & matchen en toegang hebben tot state-of-the-art TSMC fab-tech.

AMD gaat lekker sinds Zen, en de oude ATI-overname visie begint eindelijk steeds beter vorm te krijgen. Na de vele herstructureringen om te overleven, gloort er eindelijk ROI.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 23:11]

Tegelijk zou 60GB/s wel de bandbreedte naar je werkgeheugen flink dichttrekken natuurlijk, niet hetzelfde als 'de bus dicht trekken' inderdaad maar zoveel data geeft zowel de CPU als het werkgeheugen een flinke taak dat allemaal te verwerken terwijl ook nog bijv. die RTX4090 voorzien moet worden.
Leuk dat nu je SSD's je pcie bus dicht trekken en je RTX 4080 straks niet meer tot zn recht komt :)
Dit soort kaarten zijn leuk als je veel video editing doet of andere high iops / write intensive zaken maar verder... #Overkill in deze tijd nog.
Dat zijn die Load balancing profiles van je Aero interface, of de energy profiles of zo. Maar wil je dan een Ddos kunnen uitvoeren terwijl je aan een 8K VR headset op hebt? Anders heb je echt geen GPU nodig voor overkill.
De "bus dichttrekken"? Dat zou kunnen, als PCI-e een bus was geweest. Dat is het dus niet. PCI-e heeft point-to-point lanes, die niet gedeeld zijn. Een bus is gedeelde bandbreedte.

Je RTX4090 deelt dus geen lanes met je SSD. Als je SSD z'n lanes dicht trekt, dan heeft dat geen invloed op de lanes naar de GPU.
Let op!
PCI is geen PCI-e.
#SlangWarrior #JargonBuster #ANSIfax

RTX 4080 met tbp van 340W en 23Gbit/s

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 23:11]

Voor video editing is dit ook kompleet overkill.

Zelfs 4K draait nog prima op mechanische storage. Daar heb je geen 60GB/s voor nodig.
Zijn er überhaupt actieve componenten nodig om 16 pcie lanes te splitsen naar 4 m2 connectoren?
Als het moederbord pcie bifurcation ondersteund niet. Anders moet er een dure (paar honderd) pcie switch op de kaart.

Er zitten wel wat onderdelen op voor de voeding van 4 m.2 sloten.
Hoe kom je erachter of je bord dit ondersteund? Ben dit nergens tegen gekomen toen ik diep in de specsheets high end x570 en z690 zocht.
Je kunt in de BIOS kijken want daar moet je het aanzetten.
Hoe kom je erachter of je bord dit ondersteund? Ben dit nergens tegen gekomen toen ik diep in de specsheets high end x570 en z690 zocht.
Intel® Z690 (LGA 1700 socket) with PCIe® 5.0, DDR5 & four M.2 slots.

AMD heeft 2 product-lijnen op de AM4 socket met PCIe® 4.0 (threadripper daargelaten), en da's naast de duurdere/"luxere' x570 & de more basic B550 Chipset. (daarnaast heb je nog wat embedded chipsets, de R-series).

Maar je hebt de AMD RAID Driver (SATA, NVMe RAID) nodig, en dan de kleine versie. Dan kan je lekker native data schrijven naar liefst vijf(!) M.2 modules. Da's 25% extra t.o.v. Intel!
https://www.amd.com/en/support/chipsets/amd-socket-am4/x570

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 23:11]

De gen4 adapter is iig inderdaad een 'domme' adapter:

https://www.gigabyte.com/nl/SSD/AORUS-Gen4-AIC-Adaptor
https://www.storagereview...s-gen4-aic-adaptor-review
Though it isn’t compatible with the Intel Z390/Z370 (as the chipset is limited to detecting a maximum of three M.2 SSDs), it is fully supported by Intel X299, AMD X570, and AMD TRX40. In addition, though the adaptor does support PCIe Gen3 SSDs, performance will certainly be less than that of a Gen4 drive and will vary depending on the brand of SSD. It’s also worth mentioning that it requires a complete PCIe x16 or x8 bandwidth slot to work. So, if you’re a gamer or professional that uses a high-end AMD or NVIDIA graphics card and no slots remain, you might need to look elsewhere. IT also requires your motherboard to support PCIe port bifurcation to split the one port into four in the BIOS.
Bij iig mijn eigen moederbord kan ik niks over bifurcation in de spec vinden. Lijkt een gevalletje als het er niet staat heb je het niet, en consumentenchipsets hebben het eigenlijk niet?
Ik heb een Gigabyte X570 UD rev. 1.1 en daar wordt het in de specs ook niet genoemd maar de optie zit wel in de BIOS. De BIOS bepaald uiteindelijk wat er wel en niet kan.

Edit:
Het staat wel in de handleiding.

[Reactie gewijzigd door homernt op 22 juli 2024 23:11]

De gen4 adapter is iig inderdaad een 'domme' adapter, met voornamelijk voeding van tot 4 m.2 sloten

https://www.gigabyte.com/nl/SSD/AORUS-Gen4-AIC-Adaptor
https://www.storagereview...s-gen4-aic-adaptor-review
[...]
Iets over bifurcation
AMD heeft IF gebruikt om te schalen naar de Cloud, en de chipsets waren één van de laatste IP-blocks die ze gingen verkopen danwel uitbesteden voordat Zen een succes werd. Net na het Fusion platform denk ik, toen ook HSA Foundation nog effe mislukte alsmede ook hun K7(??) project, waarbij ze x86 & ARM chips op één SoC wilden.

Mobile chipsets gingen ook big.Little, en daar is Qualcomm de duidelijke winnaar, waarbij ook Broadcom (in de raspberry) niet vergeten mag worden. Da's toch een mailpaal in de geschiedenis. En Apple ofc. Misschien wel de meeste autonome conglomoraat van de gehele Amerikaanse bigtech.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 23:11]

Vergeet de controller voor de RGB niet :)
Via een PLX chip op de kaart zelf of via PCIe bifurcation op het moederbord.
Je bedoeld een PCIe Switch. PLX is tegenwoordig overigens Broadcom.
Zijn er überhaupt actieve componenten nodig om 16 pcie lanes te splitsen naar 4 m2 connectoren?
Nee, die kunnen zowel gesplitst aankomen in het OS als vertrekken vanuit het OS.
Top! leuk om een RAID3/5 configuratie op basis van M.2 SSD's mee te maken. Super snel en fault tollerant.

Ik speel al een tijdje met de gedachte om dat in mijn pc te stoppen. Misschien dat ik dat toch gewoon eens doe, puur omdat het kan :)

[Reactie gewijzigd door HerrPino op 22 juli 2024 23:11]

Let er dan wel op dat je verschillende SSD's neemt (andere productie batch van alle onderdelen).
SSD's uit eenzelfde batch gaan nl. bijna altijd tegelijk kapot (bij een zelfde hoeveelheid belasting) waardoor je nog niets aan de fault tollerance hebt.
Ik kan geen details vinden over de raidcontroller danwel de raidlevels die ondersteund zouden worden, ook lijkt er geen BBC/BBU aanwezig (battery-backup)

Verwacht er dan alsjeblieft niet meer van als andere mediacontrollers met een JBOD-configuratie; alle reliability zal vanuit software moeten komen.
Ik vind de eerste (vet gedrukte) paragraaf best verwarrend; deze wekt de suggestie dat het een RAID controller betreft, maar dat is niet het geval.
Of als het apparaat er een zou bevatten wordt dat niet voldoende benoemd.

Het enige wat genoemd wordt is het kúnnen toepassen van RAID, maar dat kan elke controller die schijven als JBOD aanbiedt dus ook middels software-raid.

Totdat de betreffende raidcontroller (met bijbehorende specificaties zoals wélke raidlevels/configuraties) door Gigabyte wordt benoemd zou ik het fijn vinden als op een site als Tweakers geen onnodige verwarring wordt gezaait door ongefundeerde implicaties blind over te nemen; de meeste tweakers zullen of zich allang van het bestaan van software-raid bewust zijn of zoniet hebben ze er verdomd veel belang bij om niet de indruk te krijgen dat het product bedoeld zou kunnen zijn voor RAID-arrays; dat is wel zeer glad ijs o.a. zonder BBC's
Is het niet interresanter om het te splitsen naar PCIe 3.0x64 en er dan 16 Kingston KC3000 SSDs in stoppen?
16 SSD's is wat onhandig. Dan heb je dus 16 aansluitingen nodig. Dat is lastig passend te maken op een normaal formaat insteekkaart. En als je 4 kaarten van x4 doet kun je dus precies (in raid 0) de x16 vol benutten.
16 SSD's is wat onhandig. Dan heb je dus 16 aansluitingen nodig. Dat is lastig passend te maken op een normaal formaat insteekkaart. En als je 4 kaarten van x4 doet kun je dus precies (in raid 0) de x16 vol benutten.
Zijn beide leuke use-cases en ook zijn er al 4x4 oplossingen gemaakt voor PCI-3 (zowel op het moederbord als via een pci-slot). En ik kan er nog meer bedenken. De stekkers kunnen bv. ook kleiner gemaakt worden, of daisy-chaining toevoegen.

Maar 3nm fab tech & 3d packaging & stacking bieden ook enorme verkleining en efficiëntie aan dus ik zou fysiek niet zo snel limieten bedenken; da's meer iets voor Design. Moore's Law is dead, and broken; just like James Brown. Voor engineers valt zelfs organische opslag niet uit te sluiten.

Bovendien, met een goede PCI 4.0 controller kan je de data bijvoorbeeld ook door 8 aansluitingen laten lopen waarbij elke aansluiting automatisch gebackupped wordt zonder performance verlies. Dus het backup scenario van PCI3.0, bijvoorbeeld enkel om logging aan te zetten.

In de era van good-enough compute rulen software optimizations... Zowel op CPU, als GPU alsmede op het gebied van RAM.

Ik bedoel, een 32TB archiverings-systeem, met 16x 2TB 2,5" of 8x 4TB in een 1,8" (evt. met dubbele chiplets naar 8 TB) form factor is lang niet ondenkbaar. Moet zelfs wel in mini-itx passen, met multi-media features en (externe) sfx voeding. (ik ga eens een mock-up maken met de AMD R-Series)

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 23:11]

Is het niet interresanter om het te splitsen naar PCIe 3.0x64 en er dan 16 Kingston KC3000 SSDs in stoppen?
Zeker interessant, maar dan moet je wel een goede controller hebben, die voormalige bios features combineerd met raid-drivers om het e.e.a. goed te configureren. De industry zit in de pci standaard dus de markt volgt die.
"De kaart haalt daarbij theoretische bandbreedtes van maximaal 60GB/s bij gebruik van een RAID 0-configuratie"

Random IO is tegenwoordig belangrijker met sequentie snelheden van 7gb/sec~12gb/sec per SSD. Over de random IO van deze Gigabyte raid kaart wordt niets vermeld. De vorige generatie Gigabyte SSD raid kaart verlaagde juist de random IO snelheid van meerdere SSD kaartjes tot (ver) onder die van een enkele SSD kaart.
Vreemd dat er weer een kunstmatige grootte limiet van 16GB lijkt ingebouwd. Waarom niet meteen SSD's van 8, 16, 32,... GB toestaan? Of valt dit onder de zo beruchte planned obsolescence?
Leuk hoor, maar moet wel je processor zoveel lanes ondersteunen.
Slijten de ssd's niet veel sneller in een RAID configuratie?
Het grote nadeel is dat je alle data kwijt bent als 1 SSD kapot is, slijtage zou hetzelfde moeten zijn.
Als je 4 SSD's in RAID0 zet dan wordt de data over deze 4 SSD's verdeeld en heb je dus minder schrijfactie's per SSD en in theorie minder slijtage dan wanneer je een enkele SSD gebruikt.
en in theorie minder slijtage
In de praktijk ook ;)
Levensduur is dan ook het aantal herschrijfacties.
Dat is nogal kort door de bocht, dat zou betekenen dat een SSD waar nooit iets op geschreven wordt eeuwig blijft werken.
Ja, klopt. Ik beschrijf schrijf-slijtage bij normaal gebruik dus. Je hebt vast nog wel meer certificeringen, zoals spatdicht en zo.

De vuurvastheid en magneet bestendigheid moet ook expliciet uitgesloten worden, anders worden ze aangeklaagd.

Maar jij draait 4 schijven parallel dan?

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 23:11]

Hangt eigenlijk ook ervanaf met wat voor blocksizes de schijven en het bestandssysteem werken, als je het bestandssysteem zou indelen op 512b of 1024b zou je bij het aanpassen van een serie blokken mogelijk meermaals de (veelal) 4096b fysieke blokken moeten herschrijven.
In zo'n situatie zou het aantal maal dat je de volledige partitie kan (her-)schrijven behoorlijk hard onderuit kunnen gaan.
Nee, zo werkt Flash NAND niet. De fysieke blokken van flash zijn vele malen groter, die kunnen meer dan een Megabyte zijn. Daarom heb je altijd een flash controller nodig op een SSD, die de fysieke blokken vertaalt naar logische disk-blokken. Die controller zou ook best 512B kunnen doen.

Alleen: wat is de winst? Je hebt 3 bits meer nodig voor je blocknummers, je filesystem wil waarschijnlijk toch al 4K blokken hebben (zoniet groter), je OS en CPu willen waarschijnlijk ook 4K blokken c.q. pages gebruiken. En dat alles zodat je een paar bytes bespaart bij kleine files?
Het was dan ook meer een voorbeeld dat ik was tegengekomen met SATA-ssd's die ik had gebruikt samen met een oude hp-server.
Achteraf waren de ssd's veel sneller "op" dan oorspronkelijk verwacht en naar wat ik begreep kon het best te maken hebben met dat die controller relatief kleine stripesizes/blocksizes gebruikte én geeb TRIM ondersteunde.
Zo uit mn hoofd kwam het er op neer dat in een worst-case scenario een cel mogelijk meermaals overschreven kon moeten worden om de cel voor de volledige fysieke blokgrootte te overschrijven, tenzij ik dat toch verkeerd begrepen heb.
De ssd's destijds waren of 840 pro's of 850 pro's, maar welke raidcontroller het was durf ik niet uit mn hoofd te zeggen (nu niet thuis).
Het grote nadeel is dat de insteekkaart the single point of failure is. Hoe bestendig de raid is, hangt af van het level. (RAID0 / RAID1 / RAID5 / RAID6) -hoewel raid 6 nogal gek zou zijn hier natuurlijk-
Raid 6 op 4 disks is nog altijd veiliger (pas als 3 disks falen verlies je data) dan raid 10 op 4 disks (als 2 gemirrorde disks falen verlies je data). Nadeel van Raid 6 is dat het langzamer is.
En aardig meer overhead vraagt.
Ik kan tot zover geen data vinden over een eventuele RAID-controller specificeert, dus ik zou aannemen dat de CPU (en RAM) die taak op zich zou moeten nemen
Met RAID6 op 4 disks ben je toch echt je data kwijt wanneer de derde disk faalt ;)
De eerste twee beschermt RAID6 je wel nog.
Als je naar 6 disks gaat wordt het verschil tussen RAID6 en RAID10 interessanter, waar RAID6 nog steeds tegen 2 disk failures beschermt kan je bij de RAID10 op 6 disks bij de 2de disk failure data verlies hebben maar kan het ook pas bij de 4de disk failure einde verhaal zijn, hangt er vanaf welke disks in het array kapot gaan.
Dat ligt maar net aan de config. Met RAID kun je juist je systeem redundant, sneller of beide maken.
Je moet alleen erg uitkijken met Raid5 en SSD’s 8)7
Veel moderne SSD's zijn niet veel sneller kapot dan gewone HDD's. Het idee dat SSD's sneller kapot gaan komt nog uit de tijd dat Windows defragmentatie uitvoerde op SSD's. Iets wat bij een SSD schadelijk is en mogelijk zelfs het langzamer maakt. Omdat je data niet meer verspreid staat over verschillende chips. Daarnaast hebben de SSD makers in de wereld echt wel hun best gedaan om te zorgen de SSD's minder snel kapot gaan.

Waardoor je voor huis tuin en keuken gebruik ook in RAID verwaarloosbaar verschil zult merken.

Op enterprise praat je over heel andere koek. Dan kijk je eerder naar TB per euro, bij mass storage dan is HDD vaak beter. Wil je een RAID server die een soort van cache is? Dan zou ik gaan voor SSD.
Je kan SSD's niet over een kam scheren. Het type geheugen dat wordt gebruikt is alles bepalend. Het meest moderne NAND (qlc) slijt hartstikke snel en is soms langzamer dan traditionele Hdd's. MLC en TLC geheugen daarintegen kan hartstikke lang mee. Om te zeggen dat alle SSD's langer mee gaan en beter zijn dan hdd's is dus iets te simpel gezegd. Dat de meeste fatsoenlijke SSD's een stuk beter presteren dan hdd's durf ik wel te stellen.

[Reactie gewijzigd door stijnos1991 op 22 juli 2024 23:11]

Niet geheel waar; ouderwetse raidconfiguraties/controllers zouden de blokgrootte op een nadelige manier kunnen beperken, of bijvoorbeeld TRIM geheel niet ondersteunen (op de harde manier mogen leren bij een oude HP server met sata2-backplane), 4 (ik geloof) samsung 850 pro's (sata) van 256gb in raid 1+0 waren wel heel veel rapper "op" dan ik oorspronkelijk had verwacht, wat te wijten lijkt te zijn aan mijn eigen gebrek van kennis/inzicht destijds.

De array was destijds ook vooral bedoeld voor het serveren van VM-VHD's voor mn servers die middels PXE bootten, vandaar dat mij 1+0 een vrij gulden midden weg leek voor zowel performance als reliability.

[Reactie gewijzigd door Annihlator op 22 juli 2024 23:11]

Bor Coördinator Frontpage Admins / FP Powermod @jordynegen1123 augustus 2022 13:31
Want? Waarom zou je geen raid-5 set met SSD's kunnen maken?

Eerst hit op google:
There has been a lot of discussion back in 2016 about RAID 5 array on SSD. Overall conclusion was that it's totally fine to run RAID 5 on SSD

[Reactie gewijzigd door Bor op 22 juli 2024 23:11]

Want? Waarom zou je geen raid-5 set met SSD's kunnen maken?

Eerst hit op google:
[...]
Ik zou Google nou niet echt een betrouwbare of objectieve bron noemen, zeker niet qua RAID.
Dat is natuurlijk afhankelijk van de RAID levels die de kaart bied, als dat enkel RAID 0 is heb je gelijk, andere RAID levels (1,0+1 of 5) bieden redundancy, en dan ben je dus niet al je data kwijt.
Heb toevallig afgelopen week m'n eerste SSD gehad die versleten was, een 512GB Samsung 970 EVO.
Wellicht interessant om te weten: de schijf heeft zelf de slijtage vastgesteld, en de schijf op read-only gezet om verdere schade te voorkomen. Ik heb alles van de harddisk kunnen kopieren (op de 60 sectoren na die geschreven werden op het moment dat de harddisk dit detecteerde).

Op dit item kan niet meer gereageerd worden.