Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 79 reacties
Bron: Tech Report

Iedere zichzelf respecterende moederbordontwerper is tegenwoordig vaste klant van Highpoint of Promise, want RAID is één van de nieuwere dingen op de specsheet waarmee klanten kunnen worden getrokken. De beloftes van extra veiligheid en performance klinken dan ook erg mooi, maar wat betekent het nou allemaal in de praktijk? Dat legt Tech Report je haarfijn uit in dit artikel. Eerst vertelt men nog eens kort welke vormen van RAID belangrijk zijn voor de thuisgebruiker en daarna praat men over de risico's. Dan volgt een hele vrachtwagenlading benchmarks van ATA66 en ATA100 tegenover RAID0 en RAID1, met zowel FAT32 als NTFS. De gebruikte controller is de Highpoint HPT370 en als schijven zijn twee 20GB 7200rpm Maxtorren uit de kast getrokken. Uit de tests blijkt duidelijk dat twee gekoppelde schrijven het veel beter kunnen doen dan apart werkende, maar men moet ook concluderen dat daar in de praktijk meestal niet spectaculair veel van te merken is:

The synthetic results, coupled with great data from Iometer, show unequivocally that RAID 0 is the performance king. However, for all its theoretical and heavy load throughput, the real-world performance is underwhelming in most cases. Sure, there are some shining stars, especially when using NTFS, but I would like to see more of a performance boost to justify both the cost of an extra drive and the increased chance of data loss.

That said, RAID 0 is a pretty sweet performance option if speed is your primary concern. The addition of two more hard drives (to make a RAID 10 array) takes care of the redundancy problem quite nicely, and with drives being as cheap as they are, this is actually an option that's not that far out of reach.

IDE RAID in de praktijk

Thanks UNICRON.

Moderatie-faq Wijzig weergave

Reacties (79)

Vraagje over Raid dat ik nog steeds heb na wat opzoekwerk misschien lees ik er telkens over |:( Is het mogelijk om je raid connectoren als gewone ide connectoren te gebruiken? Zodat je dus opnieuwe 4X (2 per connector) ide apparaten kan gebruiken gaande van cdroms tot hd's (maar dan niet in raid natuurlijk).....
<quote>Is het mogelijk om je raid connectoren als gewone ide connectoren te gebruiken?</quote>

Op mijn EPOX 8KTA3+ moederbordje met Highpoint HPT370a IDE RAID controller kan ik gewoon alles aansluiten. Als je iets niet in RAID hebt geconfigureerd, dan ziet die HPT370 het als een gewone drive, en dus werken de poorten ook als gewone IDE poort.

Overigens dat RAID 0 gevaarlijk voor je data kan zijn ben ik ook al achter. Mijn Pa had twee 30Gb drives in RAID 0 hangen. Heeft een neef van mij één van die drives verplaatst naar een andere IDE poort. De HPT370 BIOS klaagde precies één keer dat hij een broken stripe had. Mijn Pa heeft toen op ESC gedrukt, en toen was de configuratie gewist => ALLE data weg. Bij Highpoint kunnen ze me blijkbaar ook niet meer helpen, maar ik moet zeggen dat ze goed reageren op support@highpoint.com.
Zou een losse IDEcontroller dan niet goedkoper zijn?

Ik heb overigens ergens een raidcontroller gezien (adaptec, promise of 3ware,iig een met raid5 ondersteuning) waar je ook cd-roms in raid opstelling kunt aansluiten. Natuurlijk wel leuk om zo 4 cd-rewriters aan te sluiten, maar het nut ontgaat me een beetje.
we hebben het hier over onboard ide raid ..
en als je daar geen gebruik van maakt, dan is het wel zo leuk dat je dat ding kunt gebruiken als 3e en 4e ide controller
Als het goed is wel. iig wel met hd's.. CDroms weet ik niet zeker.
wat bedoel je met als het 'goed' is ?
Dat heb ik hier werkend.
Eh de losse RAID controllers van Promise ondersteunen geen andere devices als HD's voor zover ik weet. Die op moederborden varieren nogal. de A7V133 heeft een "Lite" RAID controller die je met een jumper of in RAID0 mode kan zetten of gewoon in ULTRA100 mode, waarbij je er dus gewoon alle IDE/ATAPI device aan kunt hangen.
ik heb zelf een promisse fastrak 100 raid controller
maar daar kan niet me werken als er maar een Hdu is aan gesloten.(zie posting boven)
het kan aan mij liggen maar mijn nieuwe ide schijfje haalt in sisoft bijna een score van 36000 punten.... dus ik vind die raid config van hun wel een beetje traag
Erm, weetniet, het verschilt heel erg per schijf. SySoft is erg selectief, ook maakt je versie onwijs uit. Sommige versie schelen bij mijn Raid gewoon factor 1.5. Er staat ook duidelijk bij dat je onderlinge versies NOOIT met elkaar kan vergelijken. Maar als je dat met 1 schijf haalt, dan is dat wel erg snel. Ben der zelf al achter dat die score nix zegt over de performance in het echt, die kan namelijk veel hoger liggen als je testscore, maar ook veel lager.
Goh je moet ook niet van die score uitgaan maar de procenten hier. Als je 2 WD 1000BB erop gooit of 2 Maxtor 540DX schijven dan haal je iets van 70-80MB/sec

Gewoon omdat de dichtheid van die schijven veel hoger liggen dan bij de 20GB dingen. Het is niet moeilijk om te zien dat het hier om wat oudere schijven gaat en niet de nieuwste IDE schijven.
jammer dat ze niet hebben vergeleken met een scsi-contoller en meerdere tasks, dit zou de vergelijking IDE/SCSI raid veel duidelijker maken. verder ook jammer dat de blocksize er niet bij staat, die bepaalt grotendeels je transferspeed.
SCSI RAID zit in een totaal ander marktsegment, het is zo ontzettend duur dat het voor de consument, zelfs de wat meer tweakerige consument, gewoon niet haalbaar is. Je ziet ook nooit een review van Solid State, terwijl het extreem snel is en dus iets waar elke tweaker van kwijlt. Het is zo ontzettend duur dat er toch haast niemand gebruik van maakt.

IDE RAID daarentegen... de controller krijg je tegenwoordig gratis bij een pak Cornflakes...
Typisch, er worden loads aan programma's gebruikt voor te benchen, waaronder het alom geprezen IOmeter, en wat wordt er in de post geplaatst? de meest onbetrouwbare en minst zeggende bench van allemaal, SiSoft Sandra.

Ik adviseer om er toch nog ff een IOmeter tabelletje iod bij te zetten, want sandra is echt onbetrouwbaar voor HDbenches, evenals HDtach.

edit: typisch, een reactie zoals
Zo VET!! 38183MB/s!!!!
gaat naar +3 'Interessant' en opbouwend commentaar (al wel een beetje negatief gebracht, a la) gaat naar -1 'Troll'...
Krijg toch ook wat met dat mod systeem... terug naar dedicated mods!

OMG ik zie dat zelfs met Q3Arena getest hebben... die lui weten blijkbaar compleet niet wat ze doen, HDs zijn compleet irrelevant voor games. Alleen de laadtijd verandert eventueel.
De prestaties van de RAID controller zijn beter omdat deze niet (minder) de processor belast. Daarom is het verstandiger om als poweruser je hdd aan je RAID te hangen (ookal heb je maar 1 hdd) dan is het echt sneller.
Misschien ben ik scheel, maar:

http://www.tech-report.com/reviews/2001q2/rea lraid/w inb-cpu.gif

Keurig verslag van Tech Report, alleen jammer dat ze Raid 10 niet hebben gebenched!
Ik heb zelf met mijn Highpoint controller getest en het is echt minder.
Maare... Promise was altijd veel sneller dan Highpoint (die 366 was echt prut). Ik haal vergelijkbare resultaten met mijn Promise Fasttrak66 kaartje, dus ik denk dat dat wel recht is nu.

Om veel mensen een beetje voor te blijven; IDE Raid is nog steeds niet ideaal als server config, zoals anderen onder ons wellicht wel denken. De MTBF (Mean Time Before Failure) van een IDE schijf ligt bijv. al vele malen lager dan die van een SCSI disk. Ook zijn de mogelijkheden qua hotswappable heid van SCSI beter, en dus de betrouwbaarheid. En als het er op aan komt is een goede SCSI Raid config nog steeds stukken sneller dan IDE RAID. Daar betaal je dan wel voor hoor.

Dus voor thuis, voor workstations e.d. zou ik het zeker aanbevelen. Maar als je een server wil gaan bouwen zou ik dat zeker niet met IDE RAID doen. Tenzij de prijs wel veel uitmaakt, dan zou je Raid 0+1 maken met 4 schijven, heb je snelheid, veiligheid en redelijke betrouwbaarheid voor een knappe prijs.

De test is leuk, maar niet erg verbazingwekkend, of wel?
punt 1 MTBF = mean time between failure . zegt niks over een disk, maar over de gehele product range .

verder kan scsi idd veel sneller zijn, maar hoeft niet, als jij niet al te veel doet op je sys maakt het niet veel uit, ga je multitasken, dan maakt het extreem veel uit. verder heeft IDE raid geen cache, dat scheelt ook al enorm en is er toch een belasting van je cpu.


* 786562 scsi-freak
DOH kben het met je eens dat SCSI in multitask omgevingen beter is

maar een kleine wijziging:
IDE harddisks hebben -wel- cache.. het is wat kleiner bemeten over het algemeen maar ze hebben het :z
ter info :

een ide raidcontroller heeft _GEEN_ cache de disk wel.

een SCSI raidcontroller heeft wel cache, de disk ook
De goedkope niet nee.. maar o.a. Promise en Adaptec hebben wel degelijk zulke kaarten, die nog steeds een stuk goedkoper zijn als SCSI-RAID kaarten, ook hotswapable behoort tot de mogelijkheden met IDE..
jees wat is het laat :Z
kmot ff leren beter te lezen :)
Al eens geprobeerd 1 HDU op een ide raid te installeren???
Dat gaat dus niet
(alleen als je een defecte mirror raid hebt kun je met een schijf aan de raid controller werken.!!)
Ik heb een IBM 45GB al een half jaar alleen op mijn onboard Highpoint RAID controller hangen en dat werkt prima. De performance is beter als op ATA100 en Windows 2000 moeit zich niet met de UDMA/PIO modes.
Uhm... Ik testte een keer met mijn A7V133 bordje, maar het CPU gebruik van de promise chip was een pietsie HOGER dan van de interne 686B IDE in W2k.

Dus daar hangen de disks nog steeds aan.
de performance valt tegen, maar toch is 't interessant als geld niet zo boeit ? koop dan gewoon een 15000 rpm SCSI disk of zo...
Beter een 10000 rpm SCSI disk. De 15k is op dit moment nogal overpriced en heeft daarnaast een belangrijke zwakte die nogal veel over het hoofd wordt gezien: ontzettend hoge CPU belasting, zelfs in vergelijking met IDE.

Ik ben het overigens volkomen met de strekking van je opmerking eens. Voor mij is IDE RAID een optie die allerlei moederborden juist heel onaantrekkelijk maakt. Er zijn al best veel moederborden waar geen IDE-RAID-loze versie meer van is en de controller niet eens gedisabled kan worden, daar gaat weer een interrupt, zo het raam uit.

Een IDE RAID controller wordt je tegenwoordig op Microsoft achtige wijze door de strot gedrukt, maar hoeveel mensen gebruiken hem nou werkelijk? Ik vind het helemaaaal niet vanzelfsprekend om zo'n ding op een bordje te solderen.
De CPU praat niet met de harddisk, dat doet de RAID controller. Dus als er een te hoge CPU belasting is; ligt dat aan de commnunicatie met de controller dunk mij. Ik heb in ieder geval geen enkele CPU belasting gemerkt met onze Vortech RAID controller die 8 15K schijven aanstuurt....
Er is natuurlijk wel een verschil tussen raid controllers. Een aantal goed kopere raid-controller laten hun raid activiteiten oplossen door de cpu. Duurdere lossen het op, op de controller zelf. Deze berekent zelf alle benodigde zaken en dan scheelt het je best wel in cpu tijd.
Alsje inderdaad het geld uit wilt geven voor 15K schijven moet je ook niet bezuinigen op je RAID controller. Je moet wel een controller met >64MB cache hebben, anders wordt je proc idd de bottleneck voor je RAID performance...

(En het helpt ook om hem dan in 64Bits PCI66 uitvoering te hebben... Anders is je bussnelheid de bottleneck...)

* 786562 Kippenijzer
Zo zie je die duurdere zelfdenkende RAID controllers ook vaak met heatsinks, wat vaak duidt op een zelfdenkende controller. Die dingen van Promise en Highpoint zijn gewoon doorschuifchipjes. Het lijkt heel wat, maar de Soft-RAID implementatie van W2K en NT4 is evensnel. (ik praat nu niet over Linux omdat ik daar geen gegevens over in mijn hoofd heb, maar die kan zich ook meten met MS neem ik aan)
e hoeft je raid controller niet te gebruiken in raid. Hij kan ook prima dienst doen als 2 extra ide kanalen zodat okk al heb je maar 4 apparaten, deze wel allemaal een eigen ide poort/bus, werkt sneller dan 2 controllers.
Volgens mij is dat van die CPU belasting onzin. Het lijkt me dat ze relatief gezien niet meer CPU belasting hebben.
Zo VET!! 38183MB/s!!!! |:(
Het is natuurlijk logisch dat ze KB/sec bedoelen.
Deze extreme waardes zullen we pas halen als we een vorm van solidstate/geheugen gaan gebruiken als opslagmiddel :P
nope, want die zijn gelimiteerd aan de bus/interface :)


op dit moment geloof ik UW scsi 40mb/s


solidstate doe je voor accesstimes etc .

bij compaq iig
320 is er al en bij IDE is de max 100 Mb/s
volgens mij zijn we al bij de 160MB/s bus en hebben ze de snellere (320 of zo ) al ver in ontwikkeling
Of je moet natuurlijk de snelheid van de HD's bedoelen die is inderdaat rond de 40MB/s
over een jaartje of honderd mischien? ik heb zo mijn twijfels over hun testmethodieken :)
nou ja.. een jaar?

zal wel in megaBIT bedoeld worden

dus.. keer 8

:)

btw.. ik mis de asus a7v133 raid in het pricewatch lijstje
en ik mis de Abit SA6 RAID :)
Wat dacht je van kilobyte??
kilobyte afkorten met MB :? :? :?
Toch weer zonde dat ze voor een "nep"-raid controller als de highpoint370 zijn gegaan.

Deze is net als de promise fasttrack weinig meer dan een stel "dedicated" ide-poorten met een leuk bios dat samen met de software doet alsof het hardware raid is.
Alleen in DOS zijn deze kaarten echt hardware raid...

Daarnaast zijn dit soort kaarten vaak niet of nauwelijks sneller dan software raid.

Ik zou het veel interessanter gevonden hebben als ze zo'n test dan es met een 3ware controller hadden uitgevoerd.
Weliswaar duurder, maar naar verluid, ook veel beter.
Hmmmm... Ik ben zelf nog niet direct ervan overtuigd dat hardware RAID veel beter zal zijn dan software RAID. (Natuurlijk wel als je de CPU wil ontlasten) Datzelfde hebben we in het verleden ook gezien met IDE cache controllers, de softwarematige HD cache was sneller als de IDE cache, vandaag de dag al helemaal. Maar destijds ontliepen de twee elkaar niet zoveel. Nu wil de situatie nu met RAID controller op dezelfde lijn plaatsen als de cache controllers uit het verleden, maar het zet je wel te denken.

Het voordeel van de RAID controllers zoals vandaag de dag zoveel te vinden is is dat het veel gemakkelijker is een OS op de RAID set te krijgen dan met software RAID. Vrijwel geen enkele OS wil booten van een software RAID gebouwde systeem, terwijl met zo'n controller vrijwel geen enkele OS daar moeite mee heeft.
hmm, softraid = data over pci-bus, memory -cpu en terug, al helemaal met parity , dat haalt je systeem dus erg down .


en als je nt softraid bedoelt, zul je eerst nt moeten instaleren voordat je raid kan maken :)
Zit wat in... ik heb sinds kort me Raid0 set met me 2x 7200rpm IBM's verbroken op me KT7R en deze hdd's op me ATA66 geplakt, tis dat Sandra een flink aantal punten minder scoort nu, maar de performance irl is ongeveer hetzelfde, ik merk er dus niet veel van :)

Ook had ik regelmatig pieken met cpu belasting tot 80-90% in Raid0... sja dan onboad Raid ziet er allemaal heel spectaculair uit maar het valt allemaal wel mee.
Een vergelijking die ik nog steeds wil zien is die tussen een IDE-RAID opstelling en een single-disk SCSI systeem... Dat is al veel beter vergelijkbaar in prijs dan IDE-RAID vs. SCSI-RAID.

Ik weet dat SCSI schijven vaak een betere access-time hebben, en dat is wat vaak erg belangrijk is en is misschien ook wat IDE-RAID zo snel maakt...

(ikzelf zit nog met U-ATA33, dus kan ik geen van beiden testen, daarmee dat ik dat hier eens vraag)

Iemand daar al ervaring mee? Of commentaar?
Dat is ook veelal wat ik bedoel met het aanvoelen. Ik weet dat SCSI (zeker 10K rpm) een stuk sneller aanvoelt (start sneller, respons is beter etc.). Een aardiger test is meer zet een IDE RAID systeem naast een SCSI uitgeruste systeem. Je zult vrees ik versteld staan. Veel mensen kijken alleen naar de seq. transfer (die alleen echt interessant is voor mega files transacties) Maar het belang van access times zie je terug in het opstarten van het systeem, starten van applicaties, swappen etc. In mijn computer komt laatstgenoemde veel meer voor dan grote file transacties.

Hoeveel mensen zijn er niet geweest die dachten dat jouw computer veel sneller was dan de zijne omdat je een snellere videokaart had. Ik ben het zo vaak tegengekomen en kom het nog tegen omdat ik de onderdelen kennelijk beter optimaliseer als anderen, met als gevolg dat er mensen zijn die mijn 800 Mhz systeem sneller vinden (is tie ook op de CPU na dan he) dan hun eigen 1 Ghz systeem.

Op een RAID systeem versnellen de access times NIET !. Als je 2 dezelfde schijven hebt, zullen de avg. access times ongeveer gelijk blijven, heb je twee verschillende schijven met verschillende avg. access times, dan komen de avg. access times van de RAID set tussen die van de schijven onderling te liggen.

Avg. access times op SCSI is sowieso al iets beter dan IDE vanwege de slimmere electronica op SCSI. Een 7200 rpm IDE schijf zit nu ongeveer op 8.5-9.0 ms. een 7200 rpm SCSI schijf op 6.0-6.5 ms.

Nu heb ik de luxe 2 U2W SCSI schijven te hebben en heb ik een software RAID gebouwd. De access times blijven ongeveer gelijk omdat het dezelfde schijven zijn (avg. ca. 4.0-4.5 ms) maar de seq. transfer loopt onder Linux op tot 60-65 MB/s en onder W2K 70-75 MB/s. Ik ben de resterende 10 MB aan het opzoeken op Linux, dat ligt aan de instellingen van de SCSI controller onder NT en Linux (waarschijnlijk in de Command Tag Queueing Depth)
het is tagged command queing btw :)

je bottleneck is je blocksize bij scsi omdat de overhead evenveel is bij alle scsi-variaties [ behalve u320 ] je gaat dus meer overhead verplaatsen bij kleine blocks .

access tijden bij scsi zijn beter door tagged command queing die logischer de positioning van de head bepaalt
door tagged command queing die logischer de positioning van de head bepaalt
Klinkt als het 'elevator seeking' van Novell (van vroeger :D dat ik het ken). Dat zou betekenen dat een IDE bios dat toch ook zou kunnen opvangen.
Ik blijf toch bij SCSI maar voor het idee ;)
btw, bij http://www.mr-at.nl hebben ze nog van die ouwe DAC960's te koop. 20MB/s max maar je hebt wel hardware SCSI RAID.
Ik vind die cijfertjes ook een b-tje vreemd.
Het verschil tussen ATA-66 en ATA-100 is ruim 74pct, terwijl de ATA-66 interface doorgaans niet de bottleneck is :?
Dat vind ik ook iets heel raars aan deze serie benchmarks.

Op diverse plaatjes zie je dat de ATA66 resultaten afgeknepen zijn bij ongeveer 15 MB/sec, bijvoorbeeld heel typisch in deze benchmark.

Dat vind ik erg vreemd: resultaten als 15 MB/sec zijn namelijk ook makkelijk haalbaar met een Ultra-DMA/33 controller, en ook zowat met een traditionele PIO mode 4 of UDMA mode 1 controller (16.6 MB/sec, maar wel veel CPU utilization).

Ook raar is dat ze niet vermelden of ze de single drives aansluiten op de Highpoint controller of op de VIA IDE controller.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True