Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 51 reacties
Bron: Toms Hardware

De reviewers van Tom's Hardware hebben eens goed gekeken naar de mogelijkheden van diverse RAID 5-configuraties. Dit is naast een backup een goede optie voor het beschermen van de data en het garanderen van de beschikbaarheid. Een RAID 5 bestaat uit tenminste drie harddisks, maar kan naar believen uitgebreid worden. De vraag die de schrijvers zich nu stellen: wat is de ideale hoeveelheid schijven voor een bepaald doel? Er is gebruik gemaakt van een testsysteem met twee Pentium 4 Xeon-processors en 2x 512MB PC2100-geheugenmodules. De RAID-configuratie wordt verzorgd door een Raidcore RC4000 PCI-X-controller en een aantal Western Digital WD360 Raptor 10.000 toeren schijven.

De tests laten gemiddeld allemaal dezelfde lineare trend zien: hoe meer schijven, des te beter de resultaten. Dit is bij I/O performance zeker zo is de conclusie. Benchmarks op het gebied van database-, web- of fileserver laten ook zien dat het gebruik van meerdere schijven gelijk resultaat oplevert. Het is wel verstandig om bij deze toepassingen gebruik te maken van een extra reserveschijf die automatisch inzetbaar is als een van de andere schijven ermee stopt. Alleen bij snelle data transfers is het gebruik van minder schijven ook lonend. De snelheidswinst met acht disks is minder dan tien procent ten opzichte van een RAID-array van vijf schijven.

Raid 5 benchmark 'Data Transfer'
Moderatie-faq Wijzig weergave

Reacties (51)

het is alleen jammer dat die scsi-schijven tegenwoordig zo groot worden, 18GB kun je met mazzel nog krijgen, laat staan 9GB.., 36 of 72 GB is meer standaard, alleen krijg je dan een raid-config met een grootte die je meestal niet nodig hebt in een server.
Het mooiste zo dus veel kleine schijven zijn.
Jammer dat de schijven steeds groter worden? Dit is alleen zo als de prijzen met de grootte mee zouden stijgen en dat is gelukkig niet zo. Als je liever 9 of 18 GByte schijven zou hebben, probeer dan eens het volgende:

Neem grote snelle schijven, hoe groter hoe beter. CreŽer daarop 9 of 18Gbyte partities aan de buitenrand van de discs omdat je hier per omwenteling de meeste sectoren binnenhaalt/wegschrijft. De rest van de schijfruimte gebruik je niet of voor very-low-use data.

Op deze manier haal je met grote schijven een betere performance dan met ťchte 9/18 GByte schijven doordat je minder tracks nodig hebt voor je 9/18 GB. Het aantal sectoren per track is hoger (meer data per omwenteling) en de koppen hoeven zich maar over een klein gedeelte van de schijf te verplaatsen.

*edit* Conclusie wat duidelijker gemaakt
@DaRealRenzel:

Lekker subtiele manier van reageren hanteer jij. Ik vraag me wel af wie hier de nono is.

Als je regelmatig met high-speed disc-subsystems te maken hebt, dan zou je opmerkingen als "valt best mee" wel achterwege laten. Een groot nadeel van grote schijven met very-high-use data is dat de hoeveelheid IO's/data die je per arm of kop (hda) moet verstouwen (per tijdseenheid) erg groot wordt. Ik heb de rotation-speed en de kop-positioneringstijden niet een gelijke ontwikkeling door zien maken als de opslag-capaciteit. Reden te meer om slechts een gedeelte van je schijven te gebruiken.

Wat betreft je opmerkingen mbt het creŽeren van logical drives op een raid-5: Enerzijds heb je gelijk (partitieverhaal gaat niet op voor Raid-5 logische drives), anderzijds is het echt wel mogelijk om een logische drive zo over de discs te plaatsen dat op elke schijf de buitenrand gebruikt wordt. De voordelen, zoals ik die geschetst heb, blijven daarmee overeind.

*Edit*
Overigens:
Als je echt de maximale performance wil halen (en niet op het kostenplaatje hoeft te letten), zou je ook een analyse kunnen maken van de verhouding tussen read-IO's en write-IO's. In meer dan 90% van de gevallen overstijgen de reads de writes met een faktor 4 of meer. In die gevallen zou je ook aan mirroring (raid-1) kunnen denken in combinatie met een controller die begrijpt dat de data op alle mirrors gelijk is. De controller kan dan net zoveel read-IO's tegelijkertijd uitzetten als er schijven in je mirror zitten. Bij write-IO's gaat dit natuurlijk niet op.
In meer dan 90% van de gevallen overstijgen de reads de writes met een faktor 4 of meer. In die gevallen zou je ook aan mirroring (raid-1) kunnen denken in combinatie met een controller die begrijpt dat de data op alle mirrors gelijk is. De controller kan dan net zoveel read-IO's tegelijkertijd uitzetten als er schijven in je mirror zitten. Bij write-IO's gaat dit natuurlijk niet op.
Mijn ervaring is anders. Als je bijvoorbeeld kijkt naar de statistieken van de traces uit onze nieuwe storage benchmark suite dan zie je dat en read/write verhouding van 66/33 heel normaal is voor desktop workloads. Voor server workloads hangt het nogal af van de toepassing. De filesystem cache zorgt ervoor dat een deel van de read I/O nooit de schijven bereikt.
Ik ga inderdaad uit van een server met grote, zwaar belaste databases. Desktop IO-eigenschappen zijn een heel ander verhaal.
En daar zie je dan de echte nono een kreet blaten. Op een echte professionele RAID controller maak je eerst een Array in Raid-5 van een aantal disks. Daarna definieer je daarop weer je Logical Disks, die dan netjes door je controller op een sector boundary gezet worden (optimalizations) zodat de RAID performace het grootst is. Die Logical Disks worden dan door je OS gezien als onafhankelijke harddisks. Dus ook een Array met 6x 73GB (350GB effectief, dus valt best mee, beetje S-ATA disk is al groter) kun je dan 'logisch' indelen in een Boot Drive van 8 GB, een Data Disk van 300 en een Scratch Area van 40 (voorbeeldje).
Hm, ik zou toch liever niet een systeempartitie op een raid 5 maken.

Verder zou ik graag een vergelijking zien tussen een SATA Raid 5 en een vergelijkbare SCSI Raid 5. Misschien, ooit....

Tevens zie ik niet het voordeel om een scratch disk aan te maken op je Raid.

Naar mijn mening kan je beter een Mirror aanmaken van 2 schijven met daarop een systeem en een scratch partitie. Daarnaast een Raid 5 (of ADG :P ) voor de data.
In de BenchDB kun je resultaten vinden van de LSI MegaRAID SCSI 320-2X (de snelste SCSI RAID-adapter van dit moment) met de nieuwe benchmark suite. De RAIDCore BC4852, 3ware Escalade 9500S-8 en gedeeltelijke resultaten van de LSI MegaRAID SATA 150-4 en Promise FastTrak S150 SX4 staan al in de database. De MegaRAID SCSI 320-2X is getest met 18GB Atlas 15K schijven die als single drive trager zijn dan de Raptor WD740GD (waarmee de SATA RAID-adapters zijn getest) in de desktop- en workstationtests, en vrijwel net zo snel zal zijn in de servertests.

Ondanks het feit dat de MegaRAID SCSI 320-2X verplicht write-through cache gebruikt op de harde schijven (is veiliger) is hij toch sneller dan de SATA RAID-adapters. De RAID 5 scores met zes disks hadden beter gekund met een ander type harde schijven. Ik heb met Cheetah 15K.3's wel eens 375MB/s in RAID 5 gehaald, de Atlassen doen om een of andere reden slechts 265MB/s (terwijl vier Atlassen in RAID 5 al 240MB/s doen). Daardoor schalen de RAID 5 prestaties met 6 schijven wat minder goed dan je zou verwachten.
die dan netjes door je controller op een sector boundary gezet worden (optimalizations) zodat de RAID performace het grootst is.
Op wat voor boundary wou je het anders zetten?
Sectors zijn de kleinst mogelijke adresseerbare unit in HDDs.
Of bedoelde je op een stripe boundary?
in dat licht is dat logaritmische verloop wel weer zonde dus :)

maar hoeveel verschillen de productiekosten van een 9G of 72G scsi-disk dan...?
meer platters, meer lees- en schrijfkoppen, controller zal ook wel ingewikkelder zijn, ...

t'is niet zoals met cpu'tjes waar je een hele hoop van bakt en dan gaat selecteren van jij wordt een 3000+ en jij een 2800+
meer platters, meer lees- en schrijfkoppen, controller zal ook wel ingewikkelder zijn
over het algemeen zien ze er precies het zelfde uit van binnnen.
alleen de platter die gebruik word is anders, zoiets als het verschil tussen een cd en een DVD. zelfde fisicu ruimte meer digitale ruimte.

maar kijk eens naar het prijs verloop van HD's dan kan je zien dat de prijs niet echt meer na benedne gaat onder een betale de grote.
meer platters, meer lees- en schrijfkoppen, controller zal ook wel ingewikkelder zijn,
Volgens mij zijn single-platter versies van alle schijven nog gewoon te koop hoor.
Deze hebben twee koppen en een echt goedkoper versie kun je dus niet maken.
Wat dacht je van de kwaliteit van de platters. Dus de dichtheid ervan. En zeker de complexiteit van een u2w scsi schijf maakt hem duur.
waarom zou je het niet nodig hebben ?

en volgens mij zijn dit IDE disks ?
ja dus zie de summary
Costs are no doubt an important factor for SATA storage. We tested several configurations using up to eight drives from RAIDCore, Raptor and Western Digital to determine the best price/performance ratio.
dus ...
Raptor is niet scsi maar sata ;)

Nou, hoe veel ruimte op je server wilt hangt sterk af van wat soort server het is. Denk aan ftp server of een server met database. Maar voor thuis of een klein bedrijf heb je inderdaad niet veel nodig, maar dan hoef je ook niet raptor te gebruiken voor de snelheid, lijkt mij.
Ik had naast dit met de zelfde set ook wel een vergelijking met Raid-1-0 willen zien. (met hot spare ook erbij nastuurlijk), ik bedoel striped mirror sets.

En ook wat achtergrond over betrouwbaarheid, qua disk failures etc.
Tada:

<link rel='stylesheet' href='http://www.tweakers.net/x/benchdb.css' type='text/css'><div id='bdb_benchtable'><table cellspacing=0 style='width: 100%'><thead><tr><th class='head' colspan='4'>Tweakers.net BenchDB - Desktop StorageMark 2004 Index</th></tr><tr><th title="Aantal schijven">#</th><th title="RAID level">RAID</th><th title="I/O controller">Controller</th><th class='right' title="Prestatieindex in StorageMarks">Score (StorageMarks)</td></tr></thead><tbody><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="4 ">4 </td><td title="RAID 0 ">RAID 0 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='100,0%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_295'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='76%' height=14 vspace=1 align='absmiddle' id='bar2_295'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_295'> 279,7</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="8 ">8 </td><td title="RAID 5 ">RAID 5 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='83,8%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_313'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='63%' height=14 vspace=1 align='absmiddle' id='bar2_313'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_313'> 234,4</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="6 ">6 </td><td title="RAID 5 ">RAID 5 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='78,2%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_310'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='59%' height=14 vspace=1 align='absmiddle' id='bar2_310'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_310'> 218,7</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="6 ">6 </td><td title="RAID 50 ">RAID 50 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='72,8%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_311'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='54%' height=14 vspace=1 align='absmiddle' id='bar2_311'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_311'> 203,5</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="4 ">4 </td><td title="RAID 10 ">RAID 10 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='69,8%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_307'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='52%' height=14 vspace=1 align='absmiddle' id='bar2_307'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_307'> 195,1</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="4 ">4 </td><td title="RAID 5 ">RAID 5 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='58,7%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_297'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='43%' height=14 vspace=1 align='absmiddle' id='bar2_297'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_297'> 164,2</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="3 ">3 </td><td title="RAID 5 ">RAID 5 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='49,9%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_301'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='36%' height=14 vspace=1 align='absmiddle' id='bar2_301'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_301'> 139,7</td></tr></tbody></table></div>

<div id='bdb_benchtable'><table cellspacing=0 style='width: 100%'><thead><tr><th class='head' colspan='4'>Tweakers.net BenchDB - Gaming StorageMark 2004 Index</th></tr><tr><th title="Aantal schijven">#</th><th title="RAID level">RAID</th><th title="I/O controller">Controller</th><th class='right' title="Prestatieindex in StorageMarks">Score (StorageMarks)</td></tr></thead><tbody><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="4 ">4 </td><td title="RAID 0 ">RAID 0 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='100,0%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_295'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='76%' height=14 vspace=1 align='absmiddle' id='bar2_295'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_295'> 220,2</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="8 ">8 </td><td title="RAID 5 ">RAID 5 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='94,1%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_313'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='71%' height=14 vspace=1 align='absmiddle' id='bar2_313'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_313'> 207,3</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="6 ">6 </td><td title="RAID 5 ">RAID 5 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='89,5%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_310'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='68%' height=14 vspace=1 align='absmiddle' id='bar2_310'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_310'> 197,0</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="6 ">6 </td><td title="RAID 50 ">RAID 50 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='86,5%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_311'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='65%' height=14 vspace=1 align='absmiddle' id='bar2_311'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_311'> 190,5</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="4 ">4 </td><td title="RAID 10 ">RAID 10 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='80,3%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_307'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='60%' height=14 vspace=1 align='absmiddle' id='bar2_307'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_307'> 176,9</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="4 ">4 </td><td title="RAID 5 ">RAID 5 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='75,7%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_297'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='57%' height=14 vspace=1 align='absmiddle' id='bar2_297'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_297'> 166,6</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="3 ">3 </td><td title="RAID 5 ">RAID 5 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='69,1%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_301'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='51%' height=14 vspace=1 align='absmiddle' id='bar2_301'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_301'> 152,1</td></tr></tbody></table></div>

<div id='bdb_benchtable'><table cellspacing=0 style='width: 100%'><thead><tr><th class='head' colspan='4'>Tweakers.net BenchDB - Workstation StorageMark 2004 Index</th></tr><tr><th title="Aantal schijven">#</th><th title="RAID level">RAID</th><th title="I/O controller">Controller</th><th class='right' title="Prestatieindex in StorageMarks">Score (StorageMarks)</td></tr></thead><tbody><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="4 ">4 </td><td title="RAID 0 ">RAID 0 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='100,0%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_295'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='76%' height=14 vspace=1 align='absmiddle' id='bar2_295'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_295'> 339,6</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="8 ">8 </td><td title="RAID 5 ">RAID 5 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='82,1%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_313'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='62%' height=14 vspace=1 align='absmiddle' id='bar2_313'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_313'> 278,7</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="6 ">6 </td><td title="RAID 5 ">RAID 5 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='73,5%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_310'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='55%' height=14 vspace=1 align='absmiddle' id='bar2_310'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_310'> 249,7</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="4 ">4 </td><td title="RAID 10 ">RAID 10 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='68,0%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_307'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='50%' height=14 vspace=1 align='absmiddle' id='bar2_307'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_307'> 230,8</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="6 ">6 </td><td title="RAID 50 ">RAID 50 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='67,1%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_311'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='50%' height=14 vspace=1 align='absmiddle' id='bar2_311'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_311'> 228,0</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="4 ">4 </td><td title="RAID 5 ">RAID 5 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='53,1%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_297'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='38%' height=14 vspace=1 align='absmiddle' id='bar2_297'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_297'> 180,2</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="3 ">3 </td><td title="RAID 5 ">RAID 5 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='44,3%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_301'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='31%' height=14 vspace=1 align='absmiddle' id='bar2_301'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_301'> 150,5</td></tr></tbody></table></div>

<div id='bdb_benchtable'><table cellspacing=0 style='width: 100%'><thead><tr><th class='head' colspan='4'>Tweakers.net BenchDB - Server StorageMark 2004 Index</th></tr><tr><th title="Aantal schijven">#</th><th title="RAID level">RAID</th><th title="I/O controller">Controller</th><th class='right' title="Prestatieindex in StorageMarks">Score (StorageMarks)</td></tr></thead><tbody><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="8 ">8 </td><td title="RAID 5 ">RAID 5 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='100,0%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_313'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='76%' height=14 vspace=1 align='absmiddle' id='bar2_313'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_313'> 285,5</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="6 ">6 </td><td title="RAID 5 ">RAID 5 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='86,4%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_310'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='65%' height=14 vspace=1 align='absmiddle' id='bar2_310'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_310'> 246,7</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="6 ">6 </td><td title="RAID 50 ">RAID 50 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='83,4%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_311'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='63%' height=14 vspace=1 align='absmiddle' id='bar2_311'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_311'> 238,1</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="4 ">4 </td><td title="RAID 10 ">RAID 10 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='76,7%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_307'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='57%' height=14 vspace=1 align='absmiddle' id='bar2_307'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_307'> 219,1</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="4 ">4 </td><td title="RAID 5 ">RAID 5 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='68,7%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_297'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='51%' height=14 vspace=1 align='absmiddle' id='bar2_297'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_297'> 196,1</td></tr><tr onmouseover="this.className='selected';" onmouseout="this.className=''"><td title="3 ">3 </td><td title="RAID 5 ">RAID 5 </td><td title="RAIDCore BC4852 ">RAIDCore BC4852 </td><td title='57,1%' class='score_right'><img src='http://www.tweakers.net/g/table/graph/pg1.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar1_301'><img src='http://www.tweakers.net/g/table/graph/pg2.gif' width='42%' height=14 vspace=1 align='absmiddle' id='bar2_301'><img src='http://www.tweakers.net/g/table/graph/pg3.gif' width=2 height=14 vspace=1 align='absmiddle' id='bar3_301'> 163,0</td></tr></tbody></table></div>
Mooie vergelijkings set Femme.

Je kan alleen naar de 4 disk config kijken natuurlijk hier, want de 6 en 8 zijn niet op Raid 10 getest.
Dit vertekend het beeld een beetje.

Ik denk dat wij wel goed zitten met onze 8 disk 36gb Raid 10+1 s. (4 mirrors, gestriped) Bedankt. :7
Ik doe geen RAID 10 benchmarks met zes en acht schijven omdat in werkelijk niemand zulke configuraties zal gebruiken in verband met het grote verlies aan opslagcapaciteit. Het benchen kost nu al enorm veel tijd (zes dagen 20 uur per dag benchen om alle gewenste resultaten van een 8-poorts SATA RAID-adapter te krijgen).
oeps dan zijn wij dus onwerkelijk bezig :D

Onze isam Db 'poor' mans cluster DL380G3 proliant met Ext raid storage is dus wel een 8 disks raid 10, met 1hs. Die legacy db is ook machtig belangrijk en dataloss kans door disk failure moet zo laag mogelijk. Na een kleine studie qua risk management kwam raid 10 met de 8 disks eruit als laagste risico combinatie.
Toch bedankt.
RAID 1/RAID 1+0/ RAID 10 = 50%

RAID 5 MET 3 DISKS = 66%
RAID 5 MET 4 DISKS = 75%
RAID 5 MET 5 DISKS = 80%
RAID 5 MET 6 DISKS = 83%
RAID 5 MET 7 DISKS = 85%
RAID 5 MET 8 DISKS = 87%
RAID 5 MET 9 DISKS = 89%
RAID 5 MET 10 DISKS = 90%

Nooit iemand gewerkt met RAID 5+0 of RAID 50?

RAID 50 MET 3 DISKS = 33%
RAID 50 MET 4 DISKS = 37%
RAID 50 MET 5 DISKS = 40%
RAID 50 MET 6 DISKS = 41%
RAID 50 MET 7 DISKS = 42%
RAID 50 MET 8 DISKS = 43%
RAID 50 MET 9 DISKS = 44%
RAID 50 MET 10 DISKS = 45%

RAID 50 = 2 Raid 5 sets in een duplex omgeving.
Het grote nadeel hiervan is natuurlijk dat je veel meer schijven nodig hebt.

raid 1: 50% nuttige capaciteit
raid 5: 66% nuttige capaciteit
raid 1: 50% nuttige capaciteit
Bij twee schijven.
raid 5: 66% nuttige capaciteit
Bij drie schijven.

RAID 5 (en IMO ook 1) kun je ook met meer schijven doen.
Dit is precies wat ik me vorige week zat af te vragen! Maar gaat dit ook op voor Linux Software Raid?
Ik draai al een maandje 3x120gb ide schijven (WD1200PB) in linux software Raid 5. Omdat ik maar 2 IDE poorten op m'n mb heb zaten er 2 schijven op 1 kabel, dit zat me niet echt lekker en dus werd het tijd om een controllertje erbij te kopen.
Aangezien de PCI bus toch maar 133mb/s kan trekken heb ik een simpele 2 poorts IDE controller genomen (Promise Ultra133 TX2). Dat zou dan dus 4 IDE poorten in totaal opleveren en vroeg ik me af of het de moeite waard zou zijn om d'r gelijk een 4de schijf bij te kopen, of dat het van 3 naar 4 schijven alleen maar 2% ofzo sneller zou zijn.
Dit heb ik uiteindelijk wel gedaan..en zoals in deze review zou dat ook echt een verschil moeten opleveren maar dat was bij mij niet het geval :? (vergeleken bij 3 schijven op aparte kabels).
Heb nog wat zitten testen.. 2 schijven in RAID 0 op de Nforce2 IDE poorten halen iets van 92mb/s maar wanneer ik een raid 0 maak op de 2 TX2 IDE poorten haal ik maar iets van 75mb/s :(
Terwijl 1 schijf op welke poort dan ook wel gewoon rond de 52mb/s haalt. Zit ik hier al aan de limiet van de pci bus???
Het lijkt zelfs wel of 4 disken langzamer zijn omdat de schijven op de PCI controller de Nforce2 IDE schijven ophouden :?

Nu draai ik dus maar 3 schijven in RAID 0 en op de 4de wordt elke nacht een backup gemaakt. Toch sneller en veilig genoeg voor een workstation. :P

Raid 5 of 1 is denk't alleen maar leuk als je niet offline wilt gaan wanneer er een schijf kapot gaat (server) of dat je geen seconde aan werk moet kunnen verliezen.
Software raid 5 vanuit het OS is geen optie. Bied geen enkele veiligheid. Als je OS kapot gaat kan je blijven zitten met een stripe op 3 of 4 disks waar je niets mee kan. Als je software raid wilt gebruiken kan je het beste Raid 1 toepassen. Raid 10 (Raid 1+0) is ook al een gevaarlijk iets.

Daarnaast kost software raid 5 nog performance. De reden is als volgt:

Bij schrijven wordt een hoeveelheid data naar disks weg geschreven. Daarbij wordt dit per x bytes naar een disk geschreven. Deze x bytes zijn afhankelijk van de instellingen maar meestal is dit 16KB, 32KB, 64KB of 128KB. Op het moment dat dit naar disk 1 wordt geschreven (bepaald de software) leest het OS de zelfde hoeveelheid van disk 2. Op dat moment wordt de parity berekend van de te schrijven data naar disk 1 + gelezen data van disk 2. Deze parity wordt dan naar disk 3 geschreven. Bij drie disks ziet dit er als volgt uit:

DSK1 DSK2 DSK3
DATA DATA PARI
PARI DATA DATA
DATA PARI DATA
DATA DATA PARI
PARI DATA DATA
etc.

Bij lezen vanuit een disk is kost het je eveneens overhead. Je leest bijvoorbeeld 128MB vanaf je Raid. Je Stripsize is 64KB dat wil zeggen dat je systeem eerst 64 KB van disk 1 leest en dan van disk 2 en dan van disk 3. Het systeem berekend de parity over data van disk 1 en disk 2 en vergelijkt dit met disk 3. Heeft disk 1 een probleem (bad sector) dan wordt de data herberekend aan de hand van de data van disk 2 en disk 3.

Software raid 5 kost dus aan vrij veel performance. Stel je voor dat je 750 MB per seconde per disk aan data je machine in kan slepen vanaf 1 disk en schrijven is 500MB per seconde. (dit zijn voorbeeld waarden). Het berekenen van parity doet hij per 128KB (lekker grote stripeset) in 0,001 seconde. Dit is afhankelijk van je CPU.

We gaan nu een bestand van 750MB lezen. Het systeem leest 750MB van disk 1 en van disk 2 en van disk 3. Dit is totaal 3 seconde. Daarbij doet ie een berekening van de parity en vergelijkt hij deze data. Dit kost 750MB/128KB*0,001seconde = 6 seconden. Totaal is dit dus 9 seconden.

Bij schrijven gebeurd er iets anders. Je schrijft 750MB. Het systeem leest 750MB vanaf disk 1 t/m3 want de data wordt gestriped. Hierover wordt 1 seconde gedaan. Daarna wordt er weer een parity berekend en dit duurt 6 seconden. Daarna wordt er data geschreven. Dit duurt 1,5 seconden. Totaal 6+1+1,5 = 8,5 seconde.

Hierdoor is het schrijven op Raid 5 meestal sneller dan lezen.

Bij hardware raid wordt dit opgelost doordat de processing wordt gedaan op de controller. Hierdoor gaat alleen maar de data over je PCI bus en niet 3 x zoveel data.

Het mooiste is hardware raid met een dual scsi bus. Hierbij zitten op bus 1 bijvoorbeeld 3 disks en op bus 2 ook 3 disks. Hierdoor wordt de data theoretisch 2 x zo snel gelezen en geschreven.

WB
Ik ben het toch niet helemaal met je eens.

Ten eerste geloof ik nooit dat een OS ook bij leesacties continu die parities gaat berekenen, want da's nergens voor nodig. Een schijf mekkert echt wel als-ie een sector niet kan lezen (minstens een I/O error), en dan ben je nog ruim op tijd als je dan de parities uitleest en de data reconstrueert. Omdat die berekening niet continu gemaakt wordt zou je bij het lezen een performance verwachten van een RAID-0 met een schijfje minder. Dit wordt behoorlijk ondersteund door de game-benchmark van Femme hierboven (score 220,2 voor RAID-0 met 4 schijven, 166,6 voor RAID-5 met 4 schijven is ongeveer 3/4).

Ten tweede ben ik het niet eens met jouw bewering dat een OS minder veilig is als een kaartje. Hardware kan ook kapot, en over 5 jaar is het nog maar de vraag of je een kaartje kunt kopen dat de HW-RAID op dezelfde manier ondersteunt. Bij software is dat toch makkelijker. Daarnaast is mij ervaring dat je bij software veel meer controle hebt over de RAID-configuratie, maar dat kan ook liggen aan de RAID-kaartjes die ik ken. ;)

Verder denk ik dat je de kosten van XOR voor een processor overschat. Zolang de stripe-size in de cache van een processor past is de communicatie met het geheugen de bottleneck. De laatste keer dat ik keek lag die in de orde van GB's per seconde voor moderne systemen, en da's nog steeds een ordegrootte boven wat een PCI-bus ooit naar je geheugen kan schrijven...

Het belangrijkste argument is eigenlijk het schrijven van kleine stukjes, want dan belast een RAID-kaartje de PCI-bus veel minder. De parity-informatie hoeft er niet overheen. Maar dan nog kom ik niet aan de factor 3 die jij noemt...
En een software raid 5 over 4 schijven was volgens een test laatst (door femme of een ander crewlid uitgevoerd) sneller dan een hardware raid 5 set, daarboven nam hardware raid het over maar bleef software raid de prestaties aardig bijhouden.
Ten eerste geloof ik nooit dat een OS ook bij leesacties continu die parities gaat berekenen, want da's nergens voor nodig.
Een goede controller doet dit wel, bijvoorbeeld op een HP 9000, Compaq Proliant en vele andere waaronder SAN raid controllerd. De achterliggende gedachte is dat er altijd iets fout kan gaan, zoals een powerloss bij het schrijven van ťťn van de disks. Vele fabrikanten hebben dit opgelost door een battery backup op de cache te zetten waardoor een stripe als dirty wordt gezien bij het schrijven. Daarnaast wordt er altijd een vergelijk gedaan van de data. Wordt dit niet gedaan dan is er geen garantie dat de data goed is.
Ten tweede ben ik het niet eens met jouw bewering dat een OS minder veilig is als een kaartje. Hardware kan ook kapot, en over 5 jaar is het nog maar de vraag of je een kaartje kunt kopen dat de HW-RAID op dezelfde manier ondersteunt. Bij software is dat toch makkelijker. Daarnaast is mij ervaring dat je bij software veel meer controle hebt over de RAID-configuratie, maar dat kan ook liggen aan de RAID-kaartjes die ik ken.
Wat zou je dan willen configureren? De stipe size? Waar de data op de disk staat? Alles wat je moet kunnen configureren kan met een hardware raid. Ben wel benieuwd wat je niet kan configureren.

WB
Eventjes een kleine vraag voor Gogar maar misschien wel offtopic:

Welke Linux kernel gebruik je? Ik heb namelijk ook 2 Promise Ultra133 TX2 kaarten met op elk channel een primary master schijf staan, geconfigureerd als software raid 5 onder Slackware 10 (2.4.26).

De array draait aan een zeer acceptabele snelheid (vergeleken met Windows 2003 en FreeBSD) maar ik zit echter wel geplaagd met de alom bekende DMA timeout issues (most likely een bug in de Linux PDC20269 driver).

Deze morgen heb ik voorgehad dat mijn raid array faalde omwille van zogezegd 2 kapotte disks. 2 van de 4 wilt in principe zeggen dat de raid array volledig kapot is. Echter bleken de schijven wel nog perfect te werken en herkend te worden, maar waren de superblocks verschillend (de 2 schijven per controller hadden dezelfde superblock, maar ze waren anders in vergelijking met de schijven op de andere controller). Op het moment dat de DMA timeout voorkwam heeft md de 2 schijven (toevallig wel op dezelfde controller maar die heeft altijd perfect gewerkt onder Windows 2003) uit de raid array gesmeten en heeft ie de superblocks aangepast op de 2 correct werkende schijven. Een mdadm --assemble --force /dev/md0 gaf een segmentation fault dus de laatste optie was om de superblocks te rewriten. Dit heb ik dan ook gedaan en na 2 uur was de raid array weer gesynchroniseerd en werkte alles terug (wat nog steeds het geval is).

Op dit moment heb ik de raid array gestopt om verdere corruptie te verkomen op md level maar ik ben ten einde raad over mogelijke oplossingen. Volgens de LKML archives zouden zowel de 2.4.26 en 2.6.7 kernels hier nog steeds last van hebben (lees: er staat nergens een fix en af en toe komen de fouten nog steeds voor in de archieven).

Jij hier toevallig al last van gehad? Zo nee, kan je mij ietwat een beeld geven van je software configuratie? Het zou mij misschien wel echt kunnen helpen :)
Ik heb dit ook 1 keer gehad (met maar 1 schijf gelukkig)
Ik vermoed dat dit zou kunnen gebeuren wanneer een drive in de standby mode raakt (hdparm -y put IDE drive in standby mode) en dat het dan lijkt alsof de schijf niet reageert in de tijd dat de schijf weer aan het opstarten is.

ik draai 2.6.7-gentoo-r11, raidtools-1.00.3-r1, promise driver van de kernel
Bedankt voor de informatie.

Ik heb mn lilo.conf aangepast en append=noapic mee laten geven bij kernel boot. Ik heb gelezen dat dit ook IRQ en mogelijk DMA issues kan verhelpen met promise controllers maar er staat nergens vermeld of dit uberhaupt *de* workaround is voor dit probleem.

Vervolgens heb ik mijn fileserver laten rebooten zodat apic disabled werd en nu draait de raid array terug. Ik ga hem zo eventjes laten draaien en zien wat het geeft. Als ik nog steeds dezelfde problemen tegenkom (waarschijnlijk), dan zal ik eens een kijkje nemen naar jouw kernel en software configuratie :)
Gogar,

Lijkt me toch meer iets voor GoT
Het jammere is dat kleine schijven uit de handel worden genomen in plaats van dat ze goedkoper worden gemaakt.
Hoezo, de vraag daalt en die fabriek kan beter gebruikt worden om grotere HDs te maken. Het blijven produceren van kleine schijven verminderd de beschikbare productiecapaciteit voor grote schijven. Minder aanbod min of meer gelijke vraag=> hogere prijzen voor grote schijven. Je betaald meer voor minder. Niet echt handig dus
Het jammere is dat kleine schijven uit de handel worden genomen in plaats van dat ze goedkoper worden gemaakt.
Dat is niet jammer, dat is logisch.
Het kost gewoon een bepaalde hoeveelheid geld om een schijf te maken en het heeft geen zin 'te kleine' schijven te maken als je voor slechts een klein beetje meer geld grotere schijven kunt maken.
Dit is naast een backup
:(
Ze leren het ook nooit he! RAID is (nog steeds) geen backup.
Als je per ongeluk een bestand overschrijft, kun je een oude versie van backup terughalen. Met RAID lukt dit echter niet.

Edit:
Ah, naast als in "in combinatie met". Ik dacht naast als in "of of".
Er staat ook dat het naast een backup (dus als toevoeging op backups) een goede methode is om data te beschermen en de beschikbaarheid te verhogen. Dat is juist.
Je kan ook een klein beetje performance verlies op de koop toenemen en met online snapshots werken.

Wij werken bijvoorbeeld met een systeem waarin 6 * 134GB in RAID 5 zit + 1 hot spare. Netto is dit 670 GB. Met behulp van Virtual Replicator van HP maken we 2 snapshots, 1 om 11:00 en 1 om 14:00 uur. Gemiddelde size van de snapshot is ongeveer 15%.

Voordeel:
Bij probleem tussen backup en 11:00 's-morgens hebben we de mogelijkheid om data te recoveren van tape. Bij een probleem tussen 11:00 en 14:00 gewoon een kopie van 1 of meerdere bestanden terugzetten van de eerste snapshot, en bij een probleem tussen 14:00 en 20:00 (backup start) hebben we de snapshot van 14:00.

VR houd zorgt ervoor dat alleen gewijzigde clusters worden verplaatst naar het snapshot volume en kan een file reconstrueren aan de hand van originele filesystem en de verplaatste clusters. Nadeel is dat bij een totale crash recovery niet meer mogelijk is. Maar daarvoor blijft tape of RAID 50 onontbeerlijk.
Ik vind het een beetje curieus dat ze een RAID testen met SATA-schijven ipv SCSI.
Bij mijn weten is SATA nog steeds niet hot-swapable, hetgeen imho toch wel een vereiste is voor RAID.
Leg mij eens uit waarom hotswap een vereiste is voor RAID!? 9 van de 10 machines die ik heb met RAID arrays zijn niet hot-swappable, maar toch doen ze het prima hoor :D
SATA is gewoon hotswappable, daar is die nieuwe stroomconnector voor die achterop elke SATA-schijf is te vinden.
ik wil niet lullig doen, maar dat grafiekje ziet er vrij logaritmisch uit... dus eigenlijk valt het best tegen :?
Nee, het valt eigenlijk goed mee.
Want je krijgt meer schijfruimte aan meer snelheid voor dezelfde betrouwbaarheid.
niet echt hoor. Je moet kijken naar gelijkwaardige getallen. Zoals je zien heeft een config van 6 schijven bijna een verdubbling van de prestaties (in vgl met een drietal schijven).
En dat is echt wel goed.
Als je kijkt, zie je dat het minimum steeds dichter de max. komt. Met meer schijven trek je het gemiddelde dus omhoog. En dat vind ik belangrijker dan de piek snelheid.
Data toevoer op de chipset heeft ook zijn limitaties. Als je de kloksnelheid van je processor verdubbelt, zonder IETS anders aan je systeem te doen (snellere FSB, meer geheugen etc) gaat je presentaties ook niet gewoon verdubbelen.
If those performance values still aren't good enough for you, you might consider a configuration consisting of two PCI-X controllers. You can often tweak a clear performance increase out of them.
Hieruit blijkt dat ze zelf ook inzien dat op een gegeven ogenblik de harde schijven niet de bottleneck meer zijn.
De performance scaling van de RAIDCore RC/BC4000 is erg goed hoor. Naarmate het aantal schijven toeneemt wordt het moeilijker om prestatiewinst te boeken. Dat lukt alleen bij langdurige sequentiŽle bewerkingen of situaties waarin veel simultane I/O's worden uitgevoerd. Bovendien zijn de beperkte prestaties van de RAID-controller vaak een probleem. Bij controllers met een onboard I/O processor wordt de maximale transfer rate vaak bepaald door de snelheid van de processor. De RAIDCore BC4000 is een volledig software-gebaseerde oplossing met bovendien een 133MHz PCI-X bus. De schaling is daardoor erg goed hoewel dat ten koste gaat van de processorbelasting.
Dus volgens de reviewer is 6*74 GB beter dan 3*146 GB voor en file server, wat betrft I/O. Jammer, want ons nieuwe mkb server staan de laatste configuratie. Maar dit is ook gunstig als je maar 6 hot plug bay heb. Want bij 6*74 GB kan je niet meer upgraden.
Het is leuk dat THG de moeite heeft genomen om RAID scaling te testen. Het zegt echter niets over de prestaties van RAID 5 in het algemeen aangezien de schaling volledig afhankelijk is van de prestaties van de RAID-adapter. De RAIDCore-adapters doen het op dat gebied erg goed zoals ook te zien is in onze benchmarks in de BenchDB. Een 3ware Escalade 9500 schaalt daarentegen nauwelijks in RAID 5. Hetzelfde geldt voor RAID-adapters gebaseerd op de trage IOP303/302 I/O processor.
Jammer dat dit soort RAID zelden op gangbaarder chiptset geintergeert word....
Als een soort topmodel of zo ,,, mensen die (beter)meer willen dan de 3e rang raid 0/1 die nu vaak op zittten

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True