Door Femme Taken

Architect

Windows software RAID opnieuw bekeken

Conclusie

De tests op de voorgaande pagina's konden helaas niet voldoen aan onze hoge maatstaven ten aanzien van storage benchmarking. Toch geven de resultaten een goede indruk van de prestatieverhoudingen tussen de software RAID-oplossing van Windows XP, de hostbased RAID-implementatie van nVidia en de intelligente RAID-adapters van Areca. Windows software RAID is een goedkope methode om de redundante gegevensopslag te creeëren. Je moet dan echter wel genoegen nemen met beperkte mogelijkheden en een matige performance. De software implementatie in Windows heeft geen geavanceerde monitoringtools en moet het stellen zonder ondersteuning voor hotspares, online RAID level migration en online capacity expansion. Met uitzondering van de STR-benchmarks presteert software RAID 5 in alle tests slechter dan een enkele drive. Zelfs de traagste SATA RAID-adapters halen met vier schijven in RAID 5 in ieder geval nog het prestatieniveau van een enkele drive. Vanuit het oogpunt van performance heeft software RAID 5 voor regulier desktopgebruik dus geen enkel nut.

Iwill DK8ES SATA II- en ATA/133-aansluitingen

Een heel ander verhaal is van toepassing op de prestaties van software RAID 0. Weliswaar blijven de prestaties achter op die van de high-end Areca ARC-1120, maar dat is niet verbazingwekkend gezien de behoorlijke winst die deze adapter uit zijn cache kan halen. De prestaties van software RAID 0 doen niet onder voor die van nVidia's NVRAID. De RAID-functionaliteit van nVidia heeft als belangrijk voordeel dat het bootable is, maar software RAID 0 stelt daar als unieke eigenschap tegenover dat RAID-arrays moeiteloos overgezet kunnen worden naar disk controllers van een ander type of ander fabrikaat. Een RAID-array van een nVidia- of Areca-controller kan alleen verhuisd worden naar systemen met een vergelijkbare controller.

De Areca ARC-1160 heeft een featureset die door geen enkele budget RAID-oplossing geëvenaard kan worden. Intelligente RAID-adapters zoals de Areca ARC-1160 hebben alles wat Windows software RAID 5 niet heeft - monitoringtools, ondersteuning voor hotspares, online capacity expansion en online RAID level migration - en zijn daardoor de aangewezen keuze voor veeleisende toepassingen in workstations en servers. In dit artikel lag de focus echter voornamelijk op prestaties. Ook op dat gebied bewijst de Areca ARC-1160 zijn meerwaarde. Zowel in RAID 0 als RAID 5 is de ARC-1160 in het merendeel van de tests ruimschoots sneller dan de budgetvriendelijke alternatieven van Microsoft en nVidia.

Reacties (52)

Wijzig sortering
Waarom is de Areca met 1GB cache eigenlijk enkel gestest met een RAID5 configuratie? In sommige benches komt deze boven de Areca met 128KB cache en RAID0 uit, wat een vertekend beeld kan geven voor de leek. Het zou mooier zijn geweest als de Areca met 1GB óók met een RAID0 configuratie is getest :)
De reden is helaas een gebrek aan tijd omdat ik die vier Raptors niet zo lang kon gebruiken en ook omdat er niet erg veel users zullen zijn die 1GB cache op een RAID-adapter van 1000 euro zullen zetten 'm vervolgens alleen in RAID 0 te gebruiken. Ik was wel benieuwd naar de praktijkverschillen (vooral in de filecopytests) tussen 128MB en 1GB cache. In de [url=reviews/536]vergelijking[/url] van SATA RAID-adapters staan uitgebreide grafieken van de prestaties met 128MB, 512MB en 1GB cache in diverse RAID-levels.
Ik heb persoonlijk de ervaring dat de Areca ARC-1160 met 1GB cache in RAID-0 een behoorlijke vertraging geeft als de cache vol is en weggeschreven moet worden. Zelfs dan is de processor belasting laag (miniem), maar het de hele systeem responds ligt plat voor een korte tijd. Het is mij nog niet duidelijk hoe dit komt.
Dat is ook mijn ervaring. Het probleem lijkt te zijn dat de controller tijdens het wegschrijven van data uit de cache alle I/O laat wachten totdat hij klaar is met het legen van de cache. Er zou een maximum gesteld moeten worden aan de wachttijd. Het verschijnsel doet zich ook voor met de standaard cache van 128MB alleen merk je het dan nauwelijks omdat het legen van de cache minder lang duurt.

De Areca-kaarten werken dus nog niet vlekkeloos. Op een MegaRAID SCSI 320-2X met 512MB cache heb ik nooit dit soort problemen gehad, die bleef altijd snel reageren. Ik ga zsm contact opnemen met Areca over dit probleem.
Ik snap het nut van deze hele test niet zo. Idee achter software RAID , is dat je voor weinig RAID functionaliteit ter beschikking hebt. Dan vind ik een test met 4 schijven en een vergelijking met dure RAID adapters niet zo heel erg functioneel.

Vergelijkingen met twee schijven en goedkopere/ onboard RAID adapters zeggen mij dan meer. Deze zinsnede voegt imo ook niet echt wat toe: "De Areca ARC-1160 heeft een featureset die door geen enkele budget RAID-oplossing geëvenaard kan worden."

Gelukkig maar, het apparaat kost 1000+ euro's. Iemand die de aanschaf daarvan overweegt, zal niet serieus naar software RAID kijken als alternatief.
Met 2 schijven kun je geen Raid5 array maken, je moet dan minstens 3 schijven nemen.

4 schijven is dan redelijk standaard bij tests omdat de meeste goedkope controllers maximaal 4 schijven ondersteunen. (En als je dan toch Raid5 gaat doen, dan is kies je al snel voor 4 ipv 3 schijven).

De keus voor de hardware raid controller is inderdaad twijfelachtig. Je zou dan eerder een vergelijking met een budget raid controller verwachten. (en evt die Areca als bonus er bij) waar is bv de vergelijking met een hardware assisted raid5 controller? en de goedkoopste intelligente hardware raid5 controller?
Ik kan me voorstellen dat er mensen zijn die graag willen weten hoe de prestaties van software RAID zich verhouden tot de snelste hardware RAID-oplossingen, zodat dit hen kan helpen bij het vinden van een antwoord op de vraag of het zin heeft om geld te stoppen in een dure RAID-adapter. In deze tests blijkt dat software RAID 5 slechts op ongeveer 2/3 van het niveau van een enkele drive presteert.

Er is bewust gekozen voor de Areca ARC-1160 omdat dit de snelste SATA RAID-adapter van dit moment is en omdat deze adapter al uitgebreid is getest in een eerdere review, waarin ook veel andere hostbased, hardware assisted en intelligente RAID-adapters zijn getest. De ARC-1160 biedt dus samen met de prestaties van een enkele drive een erg goed referentiepunt. Die kaarten van Areca zijn er overigens ook in goedkopere varianten met 12, 8 en 4 poorten die beginnen bij een prijs van 450 euro.

Als je de testresulaten van de [url="reviews/536"]SATA RAID-vergelijking[/url] combineert met de resultaten in dit artikel kun je zelf wel inschatten hoe software RAID presteert in vergelijking met bijvoorbeeld een HighPoint RocketRAID 1820A. Om een handje te helpen: de RocketRAID 1820A is met vier schijven ongeveer 40 procent sneller dan een enkele drive. Software RAID 5 is ongeveer 35 procent trager, dus de RocketRAID 1820A is ruim twee keer zo snel als software RAID 5.
Ik heb software mirroring met Windows 2003 op een PIII getest en professioneel in gebruikgenomen als development server. Reden: continuiteit, je bent zo een dag kwijt als een disk crashed. De hele schijf, inc OS was gemirrored

Ik heb getest:
* mirror aanmaken
* primaire schijf verwijderd
* machine booten vanaf secondaire schijf
* primaire schijf weer toevoegen (windows start dan automatisch op van meest up-to-date schijf)
* mirror aanzetten

Dit verliep vlekkeloos!
Wat opviel is dan windows 2003 bijzonder snel boot met mirroring aan. Een aanrader dus.
0Anoniem: 61096
@TinusH77725 mei 2005 17:21
Wat opviel is dan windows 2003 bijzonder snel boot met mirroring aan. Een aanrader dus.
En waarom niet. Mirroring is alleen traag bij het schrijven naar disk.
Mirroring is alleen traag bij het schrijven naar disk.
Het is helemaal niet traag, het is even snel als een enkele schijf.
heel recentelijk is een test zoals deze ook voor Linux gedaan door een groepje Noren. Die test is niet helemaal vergelijkbaar, zie http://www.hwb.no/artikkel/15307

Interessant is toch wel dat ze veel grotere verschillen vonden tussen verschillende kaarten, en ook dat de verschillen tussen software raid en hardware raid heel wat kleiner zijn onder Linux (buiten dat de cpu load van SW raid natuurlijk veel hoger ligt).
Helemaal niet vergelijkbaar bedoel je. Dat is in het Noors!
Tss, beetje talenwonder zuigt het noors zo uit zn duim :+
Spijtig dat hier ook niet linux gebaseerde software raid is opgenomen. Deze ondersteund heel wat van de meer uitgebreidde features die gezegd werden te ontbreken op windows. Maar hoe deze presteert tov van hardware en windows software weet ik niet. Het zou fijn zijn als de test hiermee zouden kunnen worden uitgebreidt.
Een vergelijking in Linux is iets wat we misschien later een keer kunnen doen. De benchmarks in dit artikel draaien niet onder Linux dus dat maakt het sowieso al onmogelijk om een directe vergelijking tussen Windows en Linux software RAID te doen.

Verder denk ik dat desktop performance voor Linux software RAID-systemen minder interessant. Je moet dan meer gaan kijken naar serverprestaties. Goede serversimulaties opzetten is niet eenvoudig.
Ander probleem is in server situaties dat eigenlijk maar 1 van de kaarten serieus in aanmerking komt voor voor echte productie systemen. Een servertest op basis van de zojuist besproken kaarten zou letterlijk je tijd weggooien zijn.

Software raid is gewoon bijzonder onverstandig en bewerkelijk in serveromgevingen. Zelfs nog los van de enorme nadelen m.b.t. hogere cpu load van softwareraid. Bij alle servers groter dan de instapmodellen heerst nog steeds uitsluitend hardwareraid op basis van scsi disken. Als het echt snel moet gaan meestal array' s van 10k rpm of meer 15k disken in raid 5 of raid 0+1 als het echt snel moet gaan. De controllers zelf zijn niet eens zo duur meer. In orde van enkele duizenden euro's.
ide/sata disken zie je bij grotere dataopslagsystemen ook nog steeds niet veel, vaak wordt er per rack van 10 tot 12 scsi disken aangesloten via glas.

Samengevat: echte serverstorage testen zou ik graag zien, maar is niet bepaald voor de doelgroep van de thuis-tweaker :)
True, maar tegenwoordig zijn het niet alleen bedrijven met een omzet van meerdere miljoenen/miljarden die servers in datacenters hebben hangen.

Niet iedereen heeft zo een paar duizend euro liggen om even een server in elkaar te draaien met een stuk of wat SCSI disks en een SCSI controller van honderden euro's. Ik ben op het moment bezig met het bouwen van een database server met 2x300GB in RAID1 en 4x74GB in RAID1+0, allemaal software RAID. Die paar procent performance verbetering die een RAID controller van 1000 euro oplevert geef ik graag op voor een paar maanden huur :)

Voor RAID 5 is Software RAID niet echt interessant, zeker niet onder windows. Met RAID 1+0 wordt het IMO een heel ander verhaal. RAID 1+0 stelt voor je RAID controller (of voor je CPU) weinig voor en geeft wel de gewenste performance boost (iig met lezen) en daarnaast de extra veiligheid en dat alles voor de kosten van 1 disk.

Ik ben dus een van de mensen die wel blij wordt van een review van Linux software RAID vs RAID controllers :)
Performance winst met een echte raid controller in database omgevingen is veel meer dan een paar procent. Met software raid zul je nooit write-chache hebben tenzij je data je niet lief is. Met name die write cache zorgt voor performance winst, als je database wat weg schrijft naar disk is het meteen weg. Bij software moet altijd gewacht worden dat eindelijk de disken is een keertje klaar zijn.

Kleine bedrijven zullen nog wel is software raid gebruiken om 1000 euro uit te sparen, maar wat men vergeet is het gemak wat je hebt van een echte hardware raid controller.
Op lange termijn is software raid simpelweg stervens duur.
Serieuze raid controlers is dus niet alleen voor datacenters, ook eenvoudiger, fileservers, mail servers hebben ook al baat bij een echte raid controller. Je hebt dan vaak te maken met 3 tot 10 disken. raid-Controller erin simpele config draaien -> booten en gaan met die banaan :) . Met software raid gaat dat niet, het is vaak al een karwei om een os daarvan te laten booten. Daarnaast als er een disk stuk gaat heb je vaak grote ellende nog los van vaak onverwachtse problemen en veel hogere kennis die nodig is om een software raid te bedienen en aan de praat te houden.
Natuurlijk niet. Het is een verkapte advertentie voor Areca. Als ze linux erbij pakken lijkt het verschil minder groot, en is het effect minder.
Heb al eens eerder de vraag gesteld van het cache grote effect op de performance. Toen was 128mb nog veel en twijfelde iedereen aan het nut van 256mb en groter.

Als een ding hieruit duidelijk is geworden dan is het wel dat cache geheugen enorme prestatiewinsten voor pc/workstation performance betekennen. Veel cache en RAID-5 is (veel) sneller dan het snellere RAID-0 en weinig cache.
Ik denk dat met het goedkoper worden van ram geheugen en flash geheugen (dat je snel kan maken door het parallel, RAID, te schakkelen) 2GB en wellicht 4GB en 8GB cache mogelijk wordt. Veel gebruikte schijf delen komen dan helemaal niet meer in of uit de harde schijf maar staan in het cache ram of flash geheugen waar ze zonder enige noemenswaardige seek time uit gehaald worden. De controller bepaald welke 'hot-spots' van de hardeschijf in cache blijven en welke weinig gebruikte files nog op de fysieke schijven blijft staan.
De highend EMS storage systemen werken al jaren zo, maar nu wordt deze hybride storage ook toegankelijk voor de workstation en de veeleisende thuisgebruiker markt.
Een groot voordeel van software raid is dat het op partitie niveau is ingedeeld. Een voorbeeld met 4 schijven:
- je OS partitie op een RAID1;
- je swap file en werk partitie op RAID0;
- je storage partitie op RAID5.

Dit geeft in de meeste gevallen een beter algemene performance dan 1 RAID0 partitie over 2 schijven en 1 RAID1 partitie over een schijf.
fout!
swap file moet je niet mirroren.
SWAP = 50% lezen, 50% schrijven. Schrijven wordt minder efficient dan zonder mirror.
Met 4 schijven moet je je swap file verdelen over 4 partities (1 per schijf).
Windows balanceert dan zelf de load over de schijfen, waardoor page-out en page-in 4* zo snel wordt vergeleken met 1 schijf
Dit werkt al heel goed sinds NT4 (Getest met NT4, 48mb geheugen, dan merk je het echt het verschil!)

Weet trouwens iemand wat er met deze XP tweak gebeurt als je een servicepack hebt geinstalleerd (eerst tweak, dan servicepack). Werkt de boel dan nog wel?
Hij zegt dan ook "- je swap file en werk partitie op RAID0;"
een stripe dus, en geen mirror.

Het doet er overigens niet toe, Door bij 4 disks de volgende situatie te hebben:

A + B mirror voor elk 18 GB, C+D strike voor elk 18 GB
A+B+C+D de resterende ruimte voor elke schijf verliest zwaar performance op de RAID 5 bij serieus gebruik. Raid5 performed het beste wanneer elke schijf synchroon loopt. door op andere partities van dezelfde fysieke disks iets anders te doen sloop je die performance.

SWAP kan voor performance het beste op een stripe, da's waar, maar ik heb toch liever op een Mirror, aangezien ik bij een Dooie schijf door wil draaien, en niet moet zien hoe mijn machine doodvalt doordat de swap files er uit klappen. Puur kunnen doordraaien bij dooie schijven is voor mij veel essentieler dan de extra snelheid.
Puur kunnen doordraaien bij dooie schijven is voor mij veel essentieler dan de extra snelheid.

Dan moet ik je denk ik teleurstellen, want ik heb (w2k) systemen met een software RAID1 (2 schijven, 2 mirrored partitions) onderuit zien gaan omdat de mirrordisk stierf. Machine klapte met een BSOD en kwam vervolgens op met een broken redundancy waarschuwing.
Softwaremirroring is ook niet hotswappable bedoeld.
Je kon dus wel die mirrordisk verwijderen en de server weerk opstarten.

Ik vind het goed dat de server er mee kapt als de mirror disk niet meer werkt: dan MOET je wel actie ondernemen!

Hoevaak komt het niet voor dat 1 van de RAID schijven kapot is->niemand merkt het->schijf 2 kapt na een maand ook->bye bye server
Hoevaak komt het niet voor dat 1 van de RAID schijven kapot is->niemand merkt het->schijf 2 kapt na een maand ook->bye bye server
Als niemand iets merkt als een schijf eruit klapt, moet je het ding zo instellen dat wel iemand (de admin dus) het merkt. Maar als deze de bak met een 'install and forget' attitude heeft neergezet, werkt dat nog niet natuurlijk :P

Ik gebruik op dit moment geom_mirror welke sinds versie 5.3 in FreeBSD aanwezig is, hiermee kan je heel gemakkelijk en snel complete schijven mirroren. Wanneer een schijf eruit klapt of om een andere reden niet meer verder kan werken, krijg ik een kernel message dat 1 van de providers (zoals leden van een array daar heten) uitgeschakeld is door een fout. De melding van die fout staat ongetwijfeld vlak daarvoor in de log.

Dus gewoon je logs in de gaten houden.
Crashen bij diskuitval heb ik laatst nog meegemaakt op een Dell server met Win2K3 en een PERC-U320 controller (een of ander 128MB adaptec RAID adaptertje), waarbij 2x73GB in RAID-1 was gedaan.
Stuk alarm uit serverhok, server zo sloom als ik weet niet wat en na kwartier wachten na aanklikken van Raid Storage Manager prog kreeg die bak een BSOD en een reboot. Fijn (NOT). Overigens klaagde BIOS na reboot dat er een disk miste en was die disk er "ineens" weer toen ie windows inkwam en ging ie vrolijk rebuilden :X

Met software RAID-1 heb ik tot nu toe nog geen disk uitval meegemaakt, echter wel controlleruitval: door een gebarsten elco vlakbij de southbridge was mn 2e SATA kanaal nogal eens wat corrupte data aan het lezen en wegschrijven, wat ervoor zorgde dat de kernel niet meer wist welke disk nou de juiste gegevens had.
OS en alle programma's op RAID-0
swap op 2 losse partities met interleaving
storage op RAID-1

zo heb ik het hier ingericht met linux op een tweetal 120GB SATA disks. Werkt supersnel. Alleen mijn data vind ik belangrijk, het OS kan me niet zoveel schelen, dat kan ik in een kwartier scripted installeren.
+1Anoniem: 105850
25 mei 2005 06:52
Software raid onder XP is bagger die heb ik al een jaar geleden obsolete verklaard. Ben nu bezig met server 2003 sp1 en daar is blijkbaar e.e.a. veranderd mbt software raid. Schijven zijn veel stiller en sneller waar een XP raid 0 effectief 0,5 maal de snelheid van een enkele schijf haalde met dvd iso copy's doet server 2003 het stukken sneller. Jammer dat dat niet getest is (nog) ;-)
Software Raid5 is bagger, maar deze test (en ook de vorige) tonen aan dat software Raid0 zeker niet bagger is.

Wat dat betreft zijn jouw resultaten dus op zijn minst opmerkelijk. Weet je zeker dat er geen andere factoren in het spel waren die die lage winst veroorzaakten?
Software Raid5 is bagger
Nee, Windows XP software RAID 5 is bagger. Niet generaliseren he. :)
Als Windows XP geen write combining kan doen, is RAID 5 natuurlijk per definitie bagger.
0Anoniem: 36490
@mjtdevries25 mei 2005 13:54
Software RAID-5 is perfect. Licht eraan wat je wilt. Ik heb al mijn films op een software RAID-5 staan (10x200Gb) en ik haal 20MB/s write, dit is meer dan voldoende voor een enkele RIP.
besef je wel wat je hier zegt.

perfect en 20MB/sec..

10 schijven elk zo'n 40MB/sec theoretische datasnelheid. (geen idee, maar al was het maar 10Mb/sec...)
In een Raid5 (n-1) is 9 schijven snelheid optimaal :9*40Mb/sec = 320Mb/sec (ik weet het dit haal je in theorie niet..) dit is toch wat meer dan 20MB/sec.

en ja het is genoeg ben ik het mee eens, maar om nouw te zeggen dat het ideaal is :)
Ik snap 1 ding niet echt van deze test. Aan de ene kant straalt het goedkope ervanaf als je kijkt naar de gewenste toepassing (fileserver, highperformance desktop, betrouwbaarheid) doordat je software raid wilt gebruiken onder een niet-server OS (winXP). en aan de andere kant wordt gebruik gemaakt van een mainboard waar de I/O nooit de bottle-neck zal zijn.
IMHO niet echt een reallife situatie. Het grote verschil tussen software- en hardwareraid is bij bijvoorbeeld software-raid1 dat je 2x zoveel data over de PCI-bus krijgt en bij raid5 met 4 schijven 33% meer dan bij een hardware raid controller. Daar zit IMHO het grote verschil tussen software- en hardware-raid in de praktijk.

Tuurlijk is het interesant om te kijken waar nu echt de bottle-necks zitten, in de windows-implementatie van de sw-raid of de hoeveelheid cache op de controller, maar ik kan het praktische effect nog niet echt voor me zien.
Alle nieuwe chipsets zijn voorzien van SATA-controllers die de PCI-bus omzeilen en over praktisch onbeperkte bandbreedte beschikken. De transfer rates van 270MB/s die de Raptors in RAID 0 op de Iwill DK8ES halen is dus ook mogelijk met een goedkoop desktopplankje van 100 euro.

Bij losse RAID-adapters is dat een ander verhaal omdat alleen PCI-X en PCIe voldoende bandbreedte zullen leveren. Betaalbare PCI-X-adapters zijn er wel maar voor de mobo's ben je aangewezen op duurdere moederborden in combinatie met duurdere Opteron- of Xeon-processors. PCIe is een goedkoper alternatief wat betreft de moederborden echter is de keuze van PCIe RAID-adapters op dit moment beperkt tot de Areca ARC-12xx-serie en de LSI MegaRAID SCSI 320-2E.

In de nabije toekomst zullen er betaalbare PCIe RAID-adapters op de markt komen en dan lost het probleem zich vanzelf op. Dit artikel maakt alvast duidelijk dat het zin kan hebben om te investeren in een losse RAID-adapter als je RAID 5 wilt gaan gebruiken.
Helaas zijn de PCIe uitbreidingssloten op een goedkoop moederbord beperkd tot PCIe 1x, de PCIe 16x sloten accepteren meestal alleen videokaarten (dit geldt bijna altijd ook voor SLI moederborden).
De compatibliteit met andere PCIe-apparaten dan videokaarten is bij veel desktopmoederborden inderdaad nog een probleem, maar er begint verbetering in te komen. Er zijn al diverse mobo's met PCIe x16-slots die geschikt zijn voor PCIe x8 RAID-adapters zoals de Areca ARC-12xx-serie. Op dit moment is het erg belangrijk om je vooraf goed te informeren over de compatibiliteit van het mobo.
Wie heeft er eigenlijk een Areca met een PCIe slot in gebruik? Een opteron moederbord is voor mij geen optie. Dat geld steek ik liever in de controller en harddisks.
De 'bottleneck' is: NTFS is een transactioneel systeem.
Windows heeft met softraid pas iets opgeslagen als het op alle schijfen ook gedaan is.

Met 'hard'raid is dit anders: Windows denkt dat de transactie geslaagd is als de schijfactie in de cache van de RAID adapter zit.

Dit verschil heeft impact op concurrency en performance.
+1Anoniem: 142094
@TinusH77727 mei 2005 00:43
Da's niet helemaal waar, en vaak instelbaar per controller.
Neem je een lsilogic megaraid product (of een intel, da's hagenoeg hetzelfde), dan kun je instellen wanneer het schrijven compleet is: Als het in de cache staat (WriteBack) of als het op de schijf staat (Write Thru). Write-Back wordt alleen aanbevolen als je een battery Backup unit hebt, omdat fatale inconsistencies kunnen ontstaan bij spanningsuitval.

Mocht je dan ook nog de schrijf-cache van de harde schijven zelf willen gebruiken, dan is daar een speciale utility voor, maar voor produktieservers zou ik dat niet aanbevelen.
Mis ik dus juist weer de Nforce RAID 5 in dit overzicht. Ontgaat me even waarom deze niet is getest. Lijkt me niet dat mensen een Raid 0 met 4 schijven gaan draaien in zo'n geval.
ik heb in het weekeind de sil 1334 die in de dfi nf4 sli-dr zit op raid 0 gezet puur omdat het verschil te groot was in vergelijking met raid 5, namelijk 25mb/s in raid 5 terwijl de raid 0 makkelijk 150 haalt. Ik hou alleen de management tool contiu in de tray om de smart in de gaten te houden.
Duh, RAID5 bied redundante gegevens opslag (pariteit moet berekent worden) en met RAID0 ben je je gegevens twee keer zo snel kwijt :)
4x zo snel in de tests hierboven :)
4x zo snel in de tests hierboven
Zo werkt kansberekening niet hoor. :)

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee