Serial ATA RAID 6-controllers getest

Bij Tom’s Hardware is een vergelijking verschenen tussen drie Serial ATA RAID-controllers die overweg kunnen met RAID-level 6. RAID 6 gaat een stapje verder dan RAID 5 qua betrouwbaarheid. Wanneer bij een RAID 5-array een schijf de geest geeft is het array kwetsbaar voor gegevensverlies zolang het array niet gerepareerd is, een kans die lineair toeneemt met het aantal schijven in het array. RAID 6 verbetert de betrouwbaarheid door alle pariteitsdata redundant op te slaan waardoor twee schijven de geest kunnen geven voordat het array in gevaar komt. Logischerwijs moet voor deze extra veiligheid wel één schijf aan capaciteit opgeofferd worden.

Tom’s Hardware vergelijkt de Adaptec 2820SA, de Areca ARC-1220 en de Promise SuperTrak EX8350, allen Serial ATA RAID-controllers met acht aansluitingen. Het blijkt dat alle drie een goede featureset weten te combineren met prima prestaties. Desondanks kan er maar één de winnaar zijn, en dat is de Areca ARC-1220. Deze controller weet in bijna alle benchmarks de beste prestaties neer te zetten, in standaard omstandigheden en wanneer één of twee schijven ontbraken uit het array. Dit wordt verder gecombineerd met een goede prijs, maar de goedkoopste oplossing is de Areca ARC-1220 echter niet.

Areca ARC-1220

Door Hielko van der Hoorn

02-01-2006 • 16:38

98

Bron: Tom's Hardware

Reacties (98)

98
98
40
16
2
43
Wijzig sortering
Anoniem: 7492 2 januari 2006 17:05
Grootste voordeel van RAID-6 is de betrouwbaarheid, in de meeste oplossing het het meest redundant wat je kunt krijgen,beter nog dan 1+0 of 0+1. Het nadeel is performance, aangezien je 6 accesses moet doen voor 1 write..
Watte.

Nee, Raid 6 betekend niet zes accesses per write.
Raid 5 houd in dat je data over (minimaal) drie schijven verdeeld wordt. De helft van de data op schijf 1, de andere helft op schijf 2 en parity op schijf 3. (drie schijfacties) Als je dan een blok wilt lezen wordt de data van schijven 1 en 2 weer gecombineerd. Dit zijn 2 leesacties. Raid 6 voegt hier een tweede parityschijf aan toe. Een schijfactie wordt dan dus 4 accesses en lezen blijft 2. Nu kun je een Raid 6 (en 5) volume wat effectiever maken door de data van één blok over meer dan 3 schijven te verdelen zodat de paritygegevens in procenten minder capaciteit in beslag nemen. (En je dus minder schijfruimte "verspilt") Hierdoor zal het aantal diskaccesses natuurlijk toenemen. Dit allemaal even afgezien van caches en optimalisaties in de controller.

1+0 en 0+1 (ofwel een mirror van een stripeset of een stripeset van gemirrorde schijven) heeft weinig voordelen boven Raid 5/6 Je hebt meer schijven nodig om dezelfde netto capaciteit te halen (minimaal 4 tegen 3 bij raid 5 ) en ook minimaal 4 writeaccesesses. Raid 6 heeft ook minimaal 4 schijven nodig maar met 5 schijven in een array is ook Raid 6 effectiever én het is dankzij de dubbele parity gegevens betrouwbaarder
Wel kan een raid 0+1 configuratie bij lezen sneller zijn dan een raid 5/6 systeem dankzij het feit dat alle data 2 keer beschikbaar is.
De write performance van RAID 0+1 of 1+0 is superieur ten opzichte van een parity array. Voornamelijk in random access.Dit door de vele accesses naar disk in parity arrays. Alleen het distribueeren van parity (RAID 5 en 6, niet RAID 4) lost daar iets van op
Inderdaad gaat het schrijven van (met name) random data bij een raid met pariteit trager dan zonder. De vertraging is echter wel sterk afhankelijk van het aantal schijven in de stripeset. Met 3 schijven praat je over 1 extra read ten opzichte van een raid 0+1 systeem met dezelfde capaciteit. Met 10 schijven in de set praat je echter over 2 writes en 8 reads bij raid 5 vs slechts 2 writes bij raid 0+1.

Gelukkig bestaat er dus ook iets als een write back cache wat de impact van dit probleem sterk kan reduceren. Qua pure performance zal een raid 0+1 array met een bepaalde netto capaciteit het echter altijd winnen van een Raid 5/6 array met dezelfde capaciteit. Maar daar betaal je ook flink voor in extra schijven.
6 Accesses voor 1 write? Voor RAID 5 en RAID 6 moet je iedere schijf in het array benaderen; dus: heb je een array van 8 schijven, en je wilt 1 blok (strip-size) aan data schrijven, dan moet je 1 blok (de data) schrijven, 6 blokken (andere stipes) lezen van de andere schijven; parity opnieuw uitrekenen, en 1 parity blok schrijven; ergo: 2 schrijfacties, en 6 leesacties. Bij RAID 6 heb je 2 parities, dus dan moet je geen 6 maar 5 blokken lezen, maar de parity blokken moet je allebei schrijven (ik geloof zelfs dat de tweede parity over de eerste set+parity gaat, dus dit zou je weer als een raid 5 achtige operatie kunnen beschouwen).
Je krijgt al snel het idee dat een cache ontzettend gewenst is, en battery backup protectie van de cache ook.
Er wordt ge X-ored....

Dus parity is altijd odd..

disk 1 = 0
disk 2 = 1
disk 3 = 0
disk 4 = 1

optelsom = 2, parity moet odd zijn, dus parity =1

als je disk 1 wijzigd, dan lees je disk 1, je leest parity, en je herberekend aan de hand van de nieuwe data de parity, daarna schijf je disk 1, en de nieuwe parity. Bij RAID-6 heb je een tweede parity disk, dus moet je 3x lezen en 3x schrijven.
Kleine correctie: RAID 5 is even parity. In het voorbeeld (0101) is de parity dus 0. (0 xor 1 xor 0 xor 1 = 0).

- edit -
@Roland: Even of odd parity, dat maakt voor de detectie niet uit. Ook bij allemaal nullen kun je in beide gevallen detecteren of een verloren bit een 0 of een 1 was. In het geval van XOR is er sprake van even parity, andere systemen gebruiken odd parity.

Voorbeeldje even parity:
0?00 met parity 0 -> Ontbrekende bit moet 0 zijn.
0?00 met parity 1 -> Ontbrekende bit moet 1 zijn.

en

0100 met parity 0 -> ongeldig
0000 met parity 1 -> ongeldig
Dat is vreemd.. dat zou betekenen dat als je alleen maar nullen leest, je geldige data zou concluderen? Dat zou een gemiste kans zijn!
6 accesses?
Ik zou gokken drie voor ieder blok, omdat je kan bedenken/berekenen waar je block zou zijn geschreven of wilt schrijven en dat je daarnaast 2x een parity schrijft... of ben ik gewoon een blonde-simpele-tweaker :+
Lezen block + 2x parity,XOR, schrijven nieuw block + 2x parity
Anoniem: 31786 2 januari 2006 17:05
Het grote verschil tussen RAID5 + hotspare en RAID6 is dat zolang je je RAID array niet opnieuw hebt opgebouwd je kwetsbaar blijft. Bij RAID6 is dat niet zo. Bovendien moet je voor zover ik weet bij de meeste controllers je RAID array offline halen bij een rebuild van een RAID5 array en dat kan niet op elk gewenst ogenblik in een professionele omgeving.
good point!
Ik zou trouwens wel eens willen weten welke controllers nu online kunnen rebuilden en de parity->data conversie live tegelijkertijd kunnen blijven doen om niets te merken van een gebroken array (behalve dan de sysadmin die naar een nieuwe disk moet grijpen).
Want ik ken alleen maar repair@offline controllers ...
De meeste SCSI RAID5 controllers die ik gezien heb kunnen online rebuilden zonder dat je er (veel) van merkt.

Ik had vroeger gehoord dat RAID6 gepatenteerd/licenseerd is door een bep. bedrijf en dat het enorm duur was?
RAID-6 heet ook wel Advanced Data Guarding, en is volgens mij een Compaq/HP development.
Inderdaad van HP/Compaq:

Advanced Data Guarding: Two sets of parity data distributed across all drives. Protects against the failure of any two drives in an array. Provides high fault tolerance at a minimum implementation cost.
De site van Balusc vertelt mij dat dat RAID 7 was, gepatenteerd door StorageComputer.
Die StorageComputer dozen waren echt top.
Per disk die in dit systeem ging was er een eigen SCSI controller beschikbaar. En iedere host had ook zijn eigen SCSI controller.
Maar wat echt cool was, dat waren de chaching technieken. Deze zijn door een aantal partijen gecopieërd(onder andere EMC)

Oké,
post op een fout nivo,
was bedoeld als reactie op marcieking
Alle geavanceerde RAID-controllers ondersteunen online rebuilding. Een controller die dit niet doet is per definitie waardeloos voor zakelijk gebruik in servers en workstations, en dat is juist waar deze controllers voor bedoeld zijn. Wellicht is het anders gesteld met low-budget hostbased RAID-oplossingen zoals de geintegreerde SATA-controllers in chipses die tegenwoordig ook RAID 5 ondersteunen, maar dergelijke oplossingen zijn louter gericht op de thuisgebruiker.
Ik ken geen SATA controllers die dit doen. Wel weet ik (uit ervaring) dat de Linux software implementatie dit goed doet.
Ik ken geen SATA controller die dit niet doen.

Je zal overigens wel altijd wat merken van een gebroken array. Namelijk dat de performance een stuk lager is.
En dat is in zakelijk gebruik best wel iets waar je rekening mee moet houden.
Leuk dat je server nog steeds in de lucht is. Maar als ie zodanig traag is geworden dat je gebruikers niet meer kunnen werken, dan heb je er ook niets aan.
Het prestatieverlies bij een degraded array verschilt per controller en schommelt tussen 0 en 25 procent (zie deze testresultaten). De prestatieafname is nooit zo groot dat een array totaal onbruikbaar wordt.
Leuk die testresultaten, maar ik heb er ervaring mee in de praktijk. Dat telt bij mij toch wat harder...
(was overigens geen SATA controller, maar een SCSI. Compaq Smart Array 5300)
????

Een RAID Controller die offline moet voor een rebuild...dat is nieuw voor mij, of het moet een goedkoop cq onboard controllertje zijn.

In ieder geval de wat geavanceerdere RAID Controllers kunnen dat "on the fly" en door de rebuild priority in te stellen kan dat zonder of weinig performance verlies.
Op mijn werk hebben we een hele zooi verschillende Dell machines met RAID 5, en die kunnen allemaal netjes hun RAID 5 array online rebuilden hoor, zelfs de wat oudere machines (2450 of 2550 bijvoorbeeld).
Kul, althans voor normale professionele RAID controllers; schijf stuk? Trek hem eruit, nieuwe erin, rebuild begint automatisch (kwestie van minuten op medium priority).
En geen enkele noodzaak iets "offline" te halen, data blijft (nauwelijks vertraagd) beschikbaar.
Zelfs mijn oude, low-budget (voor zover raid 5 low budget kan zijn) rebuildt zondere enige downtime.
En waar is die HotSpare dan voor?

Volgens mij komt die pas in actie zodra een van de RAID5 schijven uitvalt en begint dan automatisch aan een rebuild.

Wat mij betreft is er qua veiligheid geen verschil tussen RAID 5 met HotSpare en RAID 6.
Begrijp ik dan goed dat er totaal 2 schijven moeten worden opgeofferd of blijft dit nou op 1? Wordt me niet compleet duidelijk uit het stukje.
Wanneer het bij 1 schijf blijft is dit natuurlijk een zeer goede verbetering en wordt het zo langzaamaan tijd om het te gaan gebruiken. Met de steeds groter wordende hard schijven wordt het gebruik van RAID zoiezo steeds interessanter en noodzakelijker.
er moeten dan 2 schijven worden opgeofferd, dus het is niet echt ideaal voor de huis-tuin-en-keuken oplossingen vanwege de extra kosten.
Nee, dat zullen er 2 zijn.
De ruimte die je uberhaupt al mist bij RAID5, plus de ruimte die je mist om de pariteitsbitjes redundant op te slaan.
Anoniem: 3089 2 januari 2006 18:08
Zo'n aktieve koeling is hopeloos op zo'n kaartje, want meestal zijn die dingen net zo brak als op de gemiddelde videokaarten .. wie wil er nou downtime op z'n server als die koeler weer eens vervangen moet worden omdattie herrie maakt, of vastgelopen is ..
bij een server geeft niemand er iets om of die dingen wat extra herrie maken. Die dingen zelf maken al een klote herrie en gecombineerd met switches, UPS's en die luidruchtige koeling redenen genoeg om er een apart hokje voor te maken
Maar in dit geval betekend herrie, dat de koeler bijna kapot is.
Trouwens je hoort het verschil in herrie wel tussen een kapotte koeler, of een koeler die normaal al vrij veel herrie maakt.
't Is maar een klein dingetje (40mm, schat ik zo), dat bij de Areca-controllers net 1800rpm (op de 12- en 16ports) of 3000 rpm (24ports) draait.
Dat hoor je in een normale PC al nauwelijks, laat staan in een serverruimte waar meerdere rackmount-bakken staan te loeien. Zelfs buiten de serverruimte was 'ie niet te horen, de CPU- en casefans overstemden 'm ruimschoots.

En als 'ie kapot gaat, so what? - ik denk dat de airflow in de meeste servers dusdanig in orde is dat de koeling ook zonder fan ruim voldoende zal zijn.
RAID6 zal wel de toekomst hebben want schijven worden steeds goedkoper, ook is de write performance van RAID5 niet super.

"het array" staat een beetje raar trouwens ik dacht altijd dat het "de array" was maar het klopt zo
Uit de FAQ:

Level 6 - Block-level striping met verspreide dubbele pariteit
Je kunt RAID 6 ook 'RAID 5 met een extra pariteit' noemen. Verder zijn er geen noemenswaardige verschillen, zij het dan dat de lees- en schrijfsnelheid iets minder is dan bij RAID 5.
Er zijn verschillende "smaken" van RAID 6 in de markt en dat werkt verwarrend.

De "simpele" smaak is om de parity te verdubbelen. Dit beschermt de array tijdens de rebuild, maar biedt geen extra redundancy. Als twee disks uitvallen, ben je de data gewoon kwijt.

De echte RAID6 maakt gebruik van reed-solomon codes. Van elke 6 disken mogen volstrekt willekeurig twee uitvallen, zonder data kwijt te raken. Reed-solomon code beschouwt de data als een setje vergelijkingingen met n onbekenden (a + bx +cx^2 + ...). Met n vergelijkingen kun je deze oplossen, als je meer dan n vergelijkingen hebt, dan heb je teveel informatie. Als je de coefficienten goed kiest, kun je dus willekeurige sets "kwijt" raken en toch alle data herstellen.
De eerste 5 zijn makkelijk: voor data d0..d3 neem je d0, d1, d2 d3 en (d0+d1+d2+d3) (de + is hier een XOR actie). Dan heb je RAID 5. Een zesde vergelijking toevoegen is lastiger...

Het berekenen van de 6e pariteit is al 'duurder' dan de XOR van RAID5, en het restoren als je twee disken kwijt bent is nog vele malen complexer.

RAID6 biedt dan ook absoluut geen goede throughput, maar wel snelle read access en veel hogere betrouwbaarheid. Het rendement is ook beter: Een RAID 6 is betrouwbaarder dan een RAID 10 met 6 disken, en biedt toch 33% meer opslag.
Anoniem: 164787 @cdwave3 januari 2006 17:16
Waarom is Raid 6 betrouwbaarder dan Raid 10? Met een Raid 10 array van 6 disken kunnen er of 2 disken van dezelfde mirror uitvallen of 3 van delfde stripe uitvallen. Met een Raid 6 array kunnen er max 2 disken uitvallen.
Anoniem: 7492 @cdwave3 januari 2006 17:58
Omdat bij RAID-6 2 willekeurige disken kapot kunnen, en bij RAID 1+0 of 0+1 niet.
Waarom is er eigenlijk RAID6:
Met de steeds grotere schijven die er komen kost het steeds meer tijd om bij een defect een rebuild te doen naar een hot-spare.
Met de 500GB SATA disken is een grote RAID5 set kan een rebuild wel tot 24 uur duren. Dit is dus 24 uur kans op dataverlies als er nog een disk defect raakt.
wil je je data echt veilig hebben, dan kies je ook niet voor een raid5 of raid6 oplossing, maar voor een mirrorred raid opstelling (al dan niet van een striped raid). Als het op data-veiligheid aankomt, dan wordt er meestal niet direct naar de portemonnee gekeken en wil je als bedrijf gewoon het beste met de laagste kans op data-verlies
Anoniem: 50681 @dasiro3 januari 2006 09:19
nee dus.
bij raid6 mogen er twee WILLEKEURIGE schijven uitvallen, als je mirrored raid doet, is het mogelijk dat net die twee schijven uitvallen die elkaars mirror zijn. bye bye data!

Als je 'het' echt veilig wilt doen, dan maak je dus een mirror van een raid6 array.
Als je je data veilig wil hebben, dan maak je twee kopieen op TAPE en die stop in twee loodsen die minstens een kilometer uit elkaar liggen.

(TAPE heeft een 1000x kleinere kans op dataverlies dan een high-end harddisk).

Veiligheid en snelle toegang sluiten elkaar gewoon uit.
dus een raid 61 :P

Ja veiligheid is vaak belangrijk, maar op een gegeven moment kost die paar tienden van procenten zoveel dat de kosten de baten niet meer in verhouding staan.

De kans dat er 2 schijven tegelijk klappen is bijzonder klein. Dus voor de meeste bedrijven is raid 5 voldoende, heb je grote servers (met veel schijven) dan is raid 6 prettig, maar misschien kan je dan beter 2x een raid 5 erin gooien. Een normaal bedrijf heeft echt geen honderden (lees enkele TB) nodig als 1 partitie en dus betrekkelijk weinig nut om dan ook zoveel schijven bij elkaar te zetten.

Daarnaast als je veilig wilt zijn kan je beter je data mirroren op een andere server, want als je server uitfikt, kan je nog zoveel schijven hebben, maar tegen een klein brandje helpt veel schijven echt niet.

Raid 6 is denk ik toch de meest betrouwbare en enigsinds betaalbare manier om redelijk veilig te zijn, maar voor veel bedrijven is raid 5 afdoende.

Veel belangrijker is je backup en na het backuppen het offshoren van je tape. Iets wat vaak wordt vergeten maar zeer belangrijk is. Fikt je pand uit ben je niet je (dagelijkse) backup kwijt. De kans die volgens mij reëeler is dan 2 tegelijk crashende schijven. (of 3 in geval van raid 6).
Het lijkt me sterk dat binnen 24 uur twee schijven uitvallen, tenzij je echt heel veel schijven hebt.
Die schijven komen er allemaal tegelijk in, zelfde leeftijd, zelfde aantal draai uur...

een rebuild is heel schijf intensief, helemaal omdat het systeem over het algemeen gewoon doordraait in productie. Juist op dat soort high-util momenten zie ik een 2e schijf klappen...

(het is trouwens geen uitzondering dat dit gebeurt hoor... komt nog best veel voor.)
Bedrijven laten de betrouwbaarheid van hun opslagsystemen liever niet aan toeval over. Aan "lijkt me sterk" heb je niet zoveel. RAID 6 is vooral nuttig voor arrays die gebruikmaken van grote SATA-harde schijven. Het mechaniek van deze schijven is doorgaans veel lichter dan van een enterprise SCSI-schijf. De kans op falen is bij zwaar gebruik daardoor ook groter. Tegelijkertijd is de prijs van een grote SATA-schijf erg laag. Geen enkel bedrijf die grote hoeveelheden data op een veilige manier wil opslaan ligt wakker van een investering van 200 euro voor een 400GB harde schijf en 80 euro voor een extra SATA-poort. De kosten staan in geen verhouding tot de ellende die ontstaat als een array stuk is en een halve dag offline is omdat er backups teruggezet en spare parts aangerukt moeten worden.
@jimbolino

Daar heb je helemaal gelijk in.

Als je namelijk zuiver kansberekening gaat doen dat 2 schijven kapot binnen 24 uur, dan kom je op een kans die veel kleiner is dan dat een vliegtuig op een rekencentrum valt.
En toch gebeurd het veel vaker dan dat.

2 schijven gaan eigenlijk alleen tegelijkertijd kapot als een externe factor dat veroorzaakt. En dat is dan niet als ze tegelijkertijd gekocht en geplaatst zijn. (dat is namelijk bij de kans bij de bovenstaande kansberekening) maar doordat bv de koeling in het rekencentrum uitvalt, of doordat er iets mis is met de spanning.
En met zo'n externe factor kunnen er dan ook bijna net zo makkelijk 3 schijven kapot gaan.
@Femme

Het doet er wel degelijk toe of die schijven door te hoge temperaturen of iets dergelijks kapot gaan.
Zoals ik hierboven al beargumenteer betekent dat namelijk dat die Raid6 ook maar zeer geringe bescherming geeft in zo'n geval aangezien na de tweede schijf, de derde ook al snel het loodje zal leggen.

Raid6 biedt je daarom maar zeer beperkte extra bescherming, want in die situaties waarin Raid5 niet meer redelijkerwijze voldoende is, is Raid6 het dus ook niet.

Ga je zuiver naar willekeurige (normale) uitval van zowel SATA als SCSI schijven kijken, dan is bij beide de kans gewoon daadwerkelijk kleiner dan dat vliegtuig.
Dat bij de ene het dan de helft is van de kans van dat vliegtuig en de ander een kwart, is dan verder niet zo boeiend voor deze discussie.

Een menselijke fout is ook absoluut denkbaar. Maar het soort menselijke fouten dat een Raid5 array verziekt, verziekt net zo hard die Raid6 array.

Een degraded Raid5 array voor een paar uur is inderdaad een risico. Maar een jaar lang een Raid6 array in een rekencentrum waar elk moment een vliegtuig op kan vallen levert ook een risico op.

Uiteindelijk gaat het er om hoe groot je risico nog mag zijn en hoeveel geld dat nog extra mag kosten.
Als je serieus naar het rest-risico van Raid5 kijkt dan is Raid6 daarvoor niet de oplossing.

Echter is Raid6 gewoon hardstikke goedkoop. Een goede Raid5 controller heeft tegenwoordig ook standaard Raid6 aan boord. En voor een bedrijf zijn de kosten van die extra schijf peanuts. (vooral als de persoon die beslist ze toch niet uit eigen zak hoeft te betalen) En DAAROM zie je Raid6 toch vrij veel gebruikt worden. (Heb het zelf ook in m'n exchange servers gehad) Maar niet omdat het nou zo'n geweldige oplossing is die zoveel beter is dan Raid5.
dan is de kans bijna net zo groot dat er 3 schijven tegelijk kapot gaan ipv 2...
door een probleem met de voeding kunnen zeker wel twee schijven tegelijk kapot gaan... al is raid 6 dan ook niet dé oplossing
Ik heb ook de Areca 1220 in mijn pc zitten, samen met 8 x 200 Gb Maxtor DiamondMax 10. Ook ik heb RAID 6 oplossing gekozen, omdat ik als consument eerst een HD ter RMA aan moet bieden (wat op dit moment het geval is, 8 schijven heeft nou eenmaal een grotere kans op 1 uitval) en ik gewoon door wil kunnen gamen/werken. RMA duurt in dit geval al zo'n 6 weken, en je houdt de kans dat er nog 1 uitvalt. Ik heb een tijd een RAID 5 gedraaid in een Highpoint, maar het grote nadeel blijft dan dat als je RAID broken is, je dus eerst een HD terug moet krijgen om het er verder mee te werken. Prestaties van de Areca zijn gewoon geweldig, en ook op mijn Asus nforce4 draait hij prima in de 2e PCI-e 16x slot, naast een GF 7800 GTX..
Ik zag trouwens in de test dat ze nog benchmarks deden met 2 schijven "gecrashed". Ik heb zelf de situatie met de Areca 1220 met RAID 5 ooit eens getest, ik trok 1 kabel eruit (terwijl de pc draaide), en had dus een broken array. Ik kon de gegevens nog steeds benaderen ECHTER alleen de top laag. Dus na de eerste directory gaf hij een error. Heeft dit te maken of de parity schijf crasht of 1 van de andere (in dit geval) 4?
RAID 5 heeft geen parity en data schijven, de parity wordt verdeeld over alle schijven, net zoals de data.
Waar het wel aan ligt zou ik ook niet kunnen zeggen.
Die vergelijking met neerstortende vliegtuigen is ook onzinnig. Er gaan heel wat meer harde schijven stuk dan dat er vliegtuigen neerstorten. Je leest regelmatig verhalen van mensen die in korte tijd meerdere schijven in een systeem hebben zien sterven. Of dat komt door te hoge temperaturen, een combinatie met een hoge belasting of omdat de harde schijven uit een slechte batch afkomstig waren doet er niet zoveel toe. Het gebeurt blijkbaar.

Je kunt ervan uitgaan dat de kwaliteitscontrole bij de SATA-harde schijven nog altijd minder is dan bij enterprise SCSI-harde schijven. Vandaar ook de lagere prijs. De kans op uitval is daardoor ook groter. Vooral schijven uit een slechte batch zijn gevaarlijk, die zouden nog wel eens vlak na elkaar de geest kunnen geven. Het risico is het grootst in grote arrays en dat is ook waar RAID 6 het meest gebruikt zal worden. Ook moet je niet vergeten dan er meer oorzaken kunnen zijn voor een degraded array dan alleen een fysiek defecte schijf. Het wil wel eens gebeuren dat een controller een schijf om onduidelijke reden "dropt", terwijl die schijf na een restart weer vrolijk meedoet. Menselijke fouten zijn ook denkbaar.

Een degraded RAID 5 array dat urenlang onbeschermd is levert dat een risico op. Dit risico kan op goedkope wijze aanzienlijk beperkt worden door RAID 6 te gebruiken. Dit alleen al is voldoende reden om RAID 6 te gebruiken in bepaalde situaties.
laat er nou net zoiets bestaan als redundante voedingen
wat steeds meer standaard wordt...
als de ene voeding voltageschommelingen geeft neemt de ander het over.
dus over of onderspanningen zul je *bijna* niet krijgen...
maar het opbouwen van een nieuwe schijf kan natuurlijk ook sneller gaan als er op 2 schijven parity blokken staan.
hij kan dan 2 blokken inlezen berekenen en dan wegschrijven
aangezien het berkenen veel meer tijd kost dan het wegschrijven... en al helemaal als je 320 gb wd raptor 10k schijven hebt.
Anoniem: 164787 @Ruuddie3 januari 2006 17:27
Vind je het niet waanzinnig zonde van je diskperformance???? Om met de config van jou op raid 6 te draaien? Als ik jou was zou ik direct een array op raid 0+1(R10) aanmaken. Dan maar minder schijfruimte(800GB) maar wel een snelle diskperformance en een (nog)hogere betrouwbaarheid.
@Dennis.DutchD

Wellicht heeft ie die diskperformance niet nodig?
En dan is het dus ook niet zonde dat je die performance niet hebt.
geen goede reden, schijven blijven groter worden, maar de snelheid van de schijven neemt ook toe, had iemand 10 jaar geleden gevraagd hoe lang het duurde om een GB te schrijven en hij had gezegd een dag, tegenwoordig draaien schijven hun schrijfkoppen daar niet meer voor om. ;)
geen goede reden, schijven blijven groter worden, maar de snelheid van de schijven neemt ook toe,
Maar de capaciteit neemt veel sneller toe dan de performance, dus het is zeker wel een goede reden.
Ik denk dat dat wel mee zal vallen, vooral voor kleinere servers is het nog altijd interessant om RAID5 te nemen, vooral in combinatie met SCSI schijven welke toch altijd nog wel betrouwbaarder en sneller zijn dan sata schijven. Je moet dus 1 harddisk meer kopen en vaak ook een geavenceerdere controller. Imo wordt RAID 6 pas interessant als je pakweg meer dan 5 HD's in je server hebt hangen omdat de kans dan veel groter wordt dat er 2 HD's vlak achter elkaar uitvallen en dus RAID 5 niet meer voldoende is. Ook dan wordt de schrijfsnelheid een bottleneck voor je RAID configuratie.
RAID6 zal wel de toekomst hebben want schijven worden steeds goedkoper, ook is de write performance van RAID5 niet super.
RAID 6 is nog langzamer dan RAID 5. Als je echt performance wil neem je gewoon RAID 1.
RAID1 is mirroring. Snelheid behaal je met RAID0
RAID1 is mirroring. Snelheid behaal je met RAID0
Ik bedoel performance ten opzichte van RAID 5. RAID 0 is natuurlijk geen optie aangezien redundantie vereist is als je voor iets als RAID 5 kiest.
Leessnelheid van RAID1 is hoger dan van RAID0, en dat is voor sommige toepassingen wel interessant!
Theoretisch is de schrijfsnelheid van RAID1 iets lager, maar ik kan dat op veel controllers niet echt reproduceren....
of met Raid 5+0, als je toch geld te veel hebt :P

dan heb je en snelheid, en redundantie!
Raid 5+0 = dubbel risico!
5+1 zou dan zinniger zijn, als we toch raar aan het praten zijn...
RAID1 is idd mirroring, dwz 2 of meer schijven zijn identiek,
klapt er 1 uit, dan heb je alle data nog op de andere schijf/
schijven staan. Het rebuilden is gewoon weer een exacte
kopie maken van de overlevende schijf.
RAID0 is striping, dwz alle data wordt verdeeld over meerdere
schijven. Je leest en schrijft dus van meerdere schijven
tegelijk en haalt dus hogere snelheden. Downside is wel dat
als er 1 schijf uitklapt, je alle data op de hele array kwijt bent

Leuk is dat je RAID0 en RAID1 kunt combineren, dan heet
dan RAID10. Je bundeld een aantal schijven tot RAID0
en doet datzelfde met een aantal andere schijven nog een
keer. Vervolgens zet je die 2 RAID0 arrays in een RAID1
array. Zo heb je dus performance EN betrouwbaarheid.

Toegegeven, het heeft een heel hoog "zomaar wat willen
gehalte" maar het is wel leuk :Y)

Ik gebruik zelf de software RAID oplossing van de Linux kernel.
En tot nog toe werkt dat heel goed :)
Raid 0+1 is in jouw geval wellicht een "zomaar wat willen" gehalte, maar voor high performance database oplossingen is 0+1 zo ongeveer standaard.

Precies voor de redenen die je al noemde.
Grappenmaker :+ Ik denk dat je met RAID 0 bijv met (de niet echt relevante test) ATTO zo'n 120 mb/sec haalt. Ter vergelijking een RAID 5 : http://tweakers.net/benchdb/testcombo/786
Voor de rest staat er reviews: Mega roundup van Serial ATA RAID 5-adapters nog wel wat leuke benchmarks, waar RAID 0/1/5/10 met elkaar vergeleken zijn.
In het goedkope segment kun je beter helemaal geen raid-kaartjes kopen, maar het gewoon in software laten door door de Linux kernel.
Kwa snelheid en betrouwbaarheid doet Linux het net zo goed, zo niet beter als die goedkope raid-kaartjes, en het kan alles wat die kaartjes kunnen. Inclusief RAID-6 en je array on-the-fly herstellen.

Een groot voordeel van de Linux oplossing is compatibiliteit. Al die raid-kaartjes gebruiken namelijk een eigen manier om de data op te slaan. Als nu de raid-kaart stuk gaat (niet zo heel waarschijnlijk, maar zeker niet onmogelijk) kun je niet meer bij je data, tenzij je precies zo'n zelfde kaartje kunt kopen.
Bij hardware van een paar jaar oud kan dat nog heel problematisch zijn.

Als je het in software doet kun je de schijven in iedere Linux-machine hangen, en dan werkt het.
Onzin aangezien array's altijd voorwaards compatibel zijn. Ofwel een controller nieuwe van hetzelfde merk kan het oude array inlezen.
Jammer dat er een actieve koeler opzit die stuk kan gaan, zo te zien is dit ook PCI express die kaart kan dus niet in elk moederbord
Jammer dat er een actieve koeler opzit die stuk kan gaan, zo te zien is dit ook PCI express die kaart kan dus niet in elk moederbord
Reken maar dat die koeler nodig is.

De ongeveer gelijkwaardige LSI MegaRAID 300-8X (zelfde chip, zelfde kloksnelheid) heeft een passief blokje, en dat wordt flink warm.

De fan zelf draait maar op 1800 toeren, dus horen doe je hem niet. Tevens ondersteunt de kaart SNMP dus kun je traps zetten als de fanspeed te laag is. Op de 12p en hoger via een heuse ethernet-poort, op de 8 en lager moet je de proxy-software draaien.

PCI-e is niet zo'n ramp, de Areca's zijn er ook in PCI-X :) Daarnaast zie ik mensen ook niet zomaar een 600 euro kostende raidcontroller in "elk moederbord" stoppen (maar het past meestal wel, al dan niet ipv de videokaart).
Mijn schoonvader heeft recentelijk een thuisserver met een Areca ARC-1220 in elkaar geschroefd. Bij de controller werd een losse passieve heatsink geleverd die als vervanging voor de standaard heatsink/fan op de I/O processor kunt plaatsen. Deze losse heatsink werd niet geleverd bij de ARC-1120 en ARC-1160 samples die ik vorig jaar van Areca kreeg. Blijkbaar heeft men als reacties op vragen van gebruikers een passieve heatsink als optie toegevoegd.

Ik gebruik overigens al een tijdje Zalman northbridge koelers op mijn Areca's en dat werkt perfect. Deze koelers bieden een grotere koeloppervlakte dan het passieve heatsinkje van Areca, maar zijn ook een stuk hoger wat lastig kan zijn bij het inbouwen.
Areca levert tegenwoordig een heatsink mee waarmee de fan kan worden vervangen indien er een goede airflow is in de kast.

Oeps...Femme was me voor
Krijg je bij de 1210 ook een passief blokje O+
Maar zit de thuisgebruiker hier echt op te wachten? Een RAID-5 config met flinke schijven kost al een flinke duit, laat staat RAID-6 met nog een schijfje er bij. De meeste gebruikers hebben nog niet eens RAID en zijn gewoon het zakkie als er een schijf sneuvelt.

Ik weet niet hoe dit in het bedrijfsleven werkt, maar wordt daar veelal niet gewoon alles 1-op-1 gebackupped?

Wel een mooi systeem hoor, betrouwbaarheid roeleert, maar ik zie het mezelf niet aanschaffen :)
Ik weet niet hoe dit in het bedrijfsleven werkt, maar wordt daar veelal niet gewoon alles 1-op-1 gebackupped?

Jawel, maar 1 systeem is maar tot een bepaalde hoogte betrouwbaar. Dus ga je meer zekerheden inbouwen, zoals backups (dagelijks, volledig) en RAID-5. Nu is daar dus RAID-6 bijgekomen als optie.

Vooral voor systemen die niet of niet lang plat mogen gaan is dit natuurlijk ideaal, bijvoorbeeld in ziekenhuizen e.d...
in ziekenhuizen zie ik ze niet snel op de 'goedkopere' SATA schijven werken, daar zullen ze eerder op betrouwbaardere SCSI schijven werken!
Vandaar dat je ook RAID6 SCSI adapters hebt.
Dit is ook nooit bedoeld voor de thuisgebruiker.

Dit is voor servers met veel harde schijven die continu werken (lezen en schrijven).

In het bedrijfsleven wordt er idd een 1 op 1 back-up gemaakt van alle data.
vaak is het iedere avond een incredimentele back-up en in het weekend een volledige back-up.

Dit systeem is bedoeld dat als er één schijf uitvalt er nog altijd kan worden voortgewerkt met een buffer.
In RAID-5 is het zo dat als er een schijf wegvalt dat je al je data nog kan terughalen maar dat er dan niets meer mag misgaan.
Voor de snelheid hoef je het niet te doen, die valt wat tegen in vergelijking met RAID 5.
Ik zie niet in waarom je geen RAID 5 + hot spare zou nemen als je controller toch 4 aansluitingen heeft, "het risico" van 2 defecten tegelijk is dan zo klein met een hot spare dat de performance volgens mij de doorslag wel geeft voor de meeste mensen welke veel te veel geld hebben om dit te kopen :P
De MTB is voor de disken gelijk, dus de kans dat er 1 kapot gaat geeft aan dat de kans op meer defecte harddisken zullen volgen (tenzij die ene disk buitensporing vroeg de geest geeft).
Maar ja ... daar zou je de hotspare dan voor hebben. Nu kan je ook in een opstelling die hotspares niet ondersteunt toch nog je extra line of defence creeren :)
Nee, dat is niet waar.
De MTBF waarde mag wel gelijk zijn, maar de MTBF geeft geen enkele indicatie over WANNEER een schijf kapot gaat.

Dat kan na 1 jaar zijn, maar de kans dat ie na 2 jaar kapot gaat is precies even groot. MTBF geeft daar absoluut geen enkele indicatie over.
Anoniem: 145898 2 januari 2006 19:33
. RAID 6 verbetert de betrouwbaarheid door alle pariteitsdata redundant op te slaan waardoor twee schijven de geest kunnen geven voordat het array in gevaar komt.

Was volgens mij gewoon Raid 50 dat al veel gebruikt wordt :?
RAID 50 is striping over 2 RAID-5 sets. RAID-6 is een set met 2 Parity. Dubbele bescherming van je data.

Op dit item kan niet meer gereageerd worden.