Door Jorgen Rosink

IDE-RAID en de ABIT HotRod 100 Pro

24-10-2000 • 02:10

58

Multipage-opmaak

Het kan me aan me RAID roesten...

IDE RAID / Abit HotRod Pro review aankondigingIn de tachtiger jaren lagen de prijzen van harde schijven behoorlijk hoger dan nu het geval is, zeker 'grote' harddisks ( dan praat ik over jongens van een fikse 20 MB ) waren relatief een stuk duurder dan hun kleine broertjes. Met de kosten van grote harde schijven in het achterhoofd zijn een aantal mensen aan de slag gegaan om een array te maken van meerdere kleine schijven teneinde 1 grote virtuele schijf over te houden. Op deze manier zou een 20 MB harde schijf samengesteld uit 4 schijven van 5 MB aanzienlijk goedkoper zijn dan 1 jongen van 20 MB.

In 1988 kwamen een aantal onderzoekers van de Berkely Universiteit uit Californië met een publicatie: 'A case for Redundant Arrays of Inexpensive Disks' waarin zij richtlijnen voor het bouwen van zulke arrays beschreven. In de loop der jaren zijn er RAID vormen bijgekomen en ook de betekenis van de I in RAID is gewijzigd, de prijs per MB van een hedendaagse harddisk is aanzienlijk gedaald en zo is de I omgedoopt tot Independent. Hiermee wordt uiteraard gedoeld op de redundantie in RAID door het gebruik van meerdere ( onafhankelijke ) harde schijven.

Lange tijd hebben alleen SCSI configuraties profijt mogen hebben van de RAID technologie. Nog niet zo heel lang geleden heeft Promise met zijn FastTrak kaartjes voor de echte bekendheid van IDE-RAID gezorgd. Inmiddels is IDE-RAID algemeen geaccepteerd en implementeren diverse fabrikanten deze controllers op het moederbord.

Allemaal leuk en aardig, maar hoe werkt dat Redundant Array of Independent Disks nou eigenlijk ?

Met deze techniek is het mogelijk om data weg te schrijven ( en ook te lezen uiteraard ) op verschillende plaatsen op meerdere harde schijven. Met het wegschrijven van je data op verschillende plaatsen creëer je allereerst een stukje veiligheid ( Redundant ) en het gebruik van meerdere schijven voor opslag zorgt voor een gebalanceerde load van alle I/O operaties. Voordat je RAID kunt gebruiken moet je eerst een zogenaamde array bouwen. Hierin bepaal je welke schijven onderdeel zijn van een mirror- of stripeset(s) en waar de eventuele parity moet komen te staan. De functie van deze drie onderdelen in een array wordt bij de beschrijving van de diverse RAID configuraties duidelijk.

RAID configs

Er zijn vele soorten implementaties van RAID, elk aangeduid met een nummer. De vier bekendste soorten zijn RAID 5, RAID1, RAID0+1 en RAID0 al valt deze laatste eigenlijk niet echt onder de noemer RAID, omdat elke vorm van redundantie ontbreekt. Hoewel er nog veel meer RAID configuraties bestaan, zal ik hieronder de vier meest gebruikte nader toelichten.

Ik gebruik voor de leesbaarheid blauw voor de originele data op zowel gestriped als enkelvoudige schijven. Rood is voor data dat gemirrored staat en groen tenslotte is voor plaatsen waar parity staat.

* RAID 0

RAID 0 maakt gebruik van een stripe-set die bestaat uit 2 of meerdere schijven. Wanneer je nu een bestand wegschrijft verdeelt je RAID controller dit bestand in een aantal blocks ( bepaalde RAID configuraties stripen op een Žper bitŽ basis ) verdeeld over de diverse schijven. Hoe meer schijven / kanalen ( of zelfs controllers ) je gaat gebruiken hoe groter je leessnelheid en hoe meer je de I/O load spreidt. Theoretisch is het mogelijk zo een performance boost van 100 % te genereren, dit en het volledige behoud van ingezette schijfruimte zijn de enige voordelen. Het grote nadeel van RAID 0 ligt, zoals al eerder vermeld, in het totaal ontbreken van redundantie. Wanneer er een schijf in je stripe-set faalt verlies je AL je data, de opgeslagen blocks op de falende schijf staan immers nergens anders.
Deze schematische weergave geeft aan hoe een bestand bij het opslaan wordt verdeeld over een stripeset van twee schijven.

Schema RAID 0

* RAID 1

In plaats van ieder bestand in blokken te hakken en die elk op een schijf wegschrijven zoals met RAID 0, gebruikt RAID 1 een schijf voor het originele bestand en een schijf voor het kopie van dat bestand. Het proces waarbij het origineel op de ene schijf geschreven wordt en automagisch een kopie op de ander noemen we mirroren. Wanneer er nu een schijf faalt bestaat er altijd een exacte kopie op een andere schijf. Het voordeel van deze configuratie is dat het restoren van data ( herstellen van verwijderde of beschadigde bestanden ) supersnel is omdat er een exacte kopie voor handen is. Er hoeft dus niets uitgerekend te worden zoals dat bijvoorbeeld bij restoren in een RAID 5 configuratie het geval is. Een groot nadeel is het hardeschijfvreetmonstertje wat bij deze configuratie tot leven komt, de tweede harddisk die je inzet bevat dezelfde data als de eerste, even snel uit het hoofd gerekend is dat 100 % verlies .

Nog maar eens een plaatje ter verduidelijking.

Schema RAID 1

* RAID 0+1

De intelligente tweaker begrijpt al wat er met deze configuratie aan de hand is, dit is een combinatie van de twee bovenstaande configuraties. Je gebruikt dus zowel een mirror als een stripeset. Je pakt met deze configuratie eigenlijk het beste van de twee, performance door te stripen en redundantie door te mirroren. Er blijft echter nog een nadeel over en dat is weer je verlies van 100% diskruimte.

Ook hier een plaatje om het geheel te visualiseren.

Schema RAID 0+1

* RAID 5

In servers waar beschikbaarheid van data van vitaal belang is vinden we in 99% van de gevallen een RAID 5 configuratie. RAID 5 combineert alle voordelen van de RAID technologie en reduceert de nadelen ( extra harddisk ruimte ) tot het laagst mogelijke niveau. In plaats van het opslaan van een kopie zoals we bij RAID 1 en RAID 0+1 zagen berekent een RAID 5 controller bij het wegschrijven van data een checksum welke hij kriskras over de beschikbare schijven verdeelt. Mocht er ooit data verloren gaan of beschadigd raken kan de controller met behulp van de eerder gemaakte checksum dit volledig terug berekenen en restoren. Dit rekenen kost processorkracht en gaat daarom niet zo snel als het restoren van data in een RAID 1 configuratie, waarbij de controller alleen data van de mirrordisk naar de originele disk moet schrijven. Mocht je ooit eens voor een grote array staan met een stuk of vijftig 10.000rpm schijven en je wilt dat restoren wel eens ŽzienŽ. Trek er dan eens een paar lukraak uit en stop er een schone voor in de plaats ( bij zulke arrays liggen er altijd een paar zogenoemde ŽHotSparesŽ klaar in geval van nood ) pak een stoel, dim het licht en geniet van dat heerlijke geratel

De voordelen van RAID 5 zijn uitstekende redundantie, hoge lees snelheid, gebalanceerde I/O's bij zowel lezen als schrijven en weinig verlies van bruikbare schijfruimte.
Als enig nadeel zou je de relatief trage schrijfsnelheid kunnen noemen wat veroorzaakt wordt door het berekenen van de parity, deze snelheid is uiteraard mede afhankelijk van de processor kracht op je controller.

Wederom is een grafische omlijsting op zijn plaats.

Schema RAID 5

ABIT HotRod 100 Pro

Van www.hard-ware.nl ( aka Bolder Hardware ) uit Vlaardingen kreeg ik een ABIT HotRod 100 Pro en een viertal ATA-100 hardeschijven. Twee daarvan zijn IBM DTLA-307015 15 gieg 7200 rpm schijfjes, de andere twee zijn uit de 52049H4 serie van Maxtor elk met een inhoud van 20 gieg en doen eveneens 7200 rotaties in een minuut.

ABIT HotRod Pro 100

Het HotRod 100 Pro kaartje gebruikt de HPT370 chip van HighPoint, diezelfde chip die ook op een KT7-RAID bordje zit gesoldeerd. Eerder gebruikte ABIT deze chip al op de KA7-100 bordjes, waarbij je echter alleen ATA-100 ondersteuning hebt en geen RAID net zoals de KT7-nonRAID.

HighPoint is zeker niet de enige producent van IDE-RAID controllers, Promise, AMI en Adaptec bijvoorbeeld zijn ook bekende namen die eigen controllers produceren. Veel mobofabrikanten hebben inmiddels minimaal een bordje in het assortiment met een onboard controller, ik noem ASUS, MSI, IWILL en GigaByte. Een goeie zaak dat op een relatief goedkope manier IDE-RAID langzamerhand tot standaard mobouitrusting wordt verheven. Deze controllers ondersteunen alleen RAID 0, 1 en 0+1RAID. RAID 5 is voor je workstation niet echt interessant, RAID 0 daar in tegen heeft op papier een behoorlijke performance verbetering in petto.

Schiet je er nou ook echt iets mee op ?!? Of is het weer een nieuwe hype ?!? Voordat we naar de diverse getalletjes en grafiekjes gaan kijken eerst nog een blik op de accessoires;

Buiten de kaart zelf bevat de doos een CD met drivers en een RAID utility van HighPoint waar je wat informatie over het in gebruik zijnde array kunt aflezen. Verder een aparte flop met Windows NT4 & 2000 drivers voor verse install, nette duidelijke handleiding en als klap op de vuurpijl 2 IDE kabels met 80 adertjes. Met een paar schijfjes erbij kun je gelijk aan de slag

HotRod 100 Pro doosinhoud

Voor de diverse tests gebruik ik een ABIT KT7 bordje ( die zonder onboard RAID dus ) met een AMD Tbird op 700 Mhz. Verder staat het testsysteem uit de volgende componenten :

Software :

  • Windows 2000 Pro
  • h2bench
  • IO Meter
  • Winbench 99
  • ViaTech 4in1 versie 4.24
  • HotRod driver 100622

Installatie en Raid Utility

Met het kaartje op de KT7 geprikt wordt het tijd om wat voltage door de controller te pompen. Na het laden van het moederbordbios springt het bios van de HotRod kaart op het scherm, ctrl+h geeft je toegang tot de diverse instellingen van de controller.
In het bios heb je een drietal mogelijkheden tot het bouwen van een RAID array, te weten RAID 0, RAID 1 en RAID 0+1. Zoals op de meeste IDE-RAID controllers wordt RAID 5 niet ondersteund, er was immers extra hardware nodig om de vereiste checksums uit te rekenen en dat kost poen. Met een prijs van 111 pietermannen kun je dit dan ook niet verwachten. Bij onder andere adaptec vind je wel IDE controllers die RAID 5 ondersteunen.
Omdat ik puur wil kijken naar de performance winst die je kunt behalen, kies ik alleen voor RAID 0. Het gebruik van schijven met verschillende omvang, zoals ik doe met twee 15 gieg IBMŽs en twee 20 gieg MaxtorŽs, is geen enkel probleem. Realiseer je echter wel dat bij het bouwen van een array de grootte van de kleinste schijf bepalend is voor de effectieve schijfruimte per hardeschijf. In mijn geval zijn de IBM schijven het kleinst, wat er voor zorgt dat mijn totale schijfruimte bij het gebruik van de vier schijven in RAID 0 60 GigaByte bedraagt ( 4 x 15 GB ). De 5 GB ruimte die ik nu op elk van de MaxtorŽs over heb is weg, raus, foetsie. Ook kun je in het BIOS kiezen om je schijven te spannen, zo maak je van een aantal schijven een groot virtueel volume zonder enig gestripe of gemirror. Tevens kun je de blocksize van je array in het BIOS instellen, voor deze test gebruikte ik blocks van 64k, dit gaf de beste prestaties. Mocht je met veel kleine bestanden werken dan kun je er eventueel voor kiezen de blokjes wat kleiner te maken, zo bespaar je ruimte en win je snelheid.

Het installeren van de kaart verliep vlekkeloos, bij de setup van Windows 2000 even op F6 drukken, driver laden van flop en draaien. Voor zowel IO meter als h2bench laat ik de schijven ongepartioneerd, alleen voor WinBench 99 wordt er een zo groot mogelijke partitie gemaakt afhankelijk van het aantal gebruikte schijven in de stripeset.

Op de meegeleverde CD staat een programma met de naam HPT RAID, een utility voor de HPT370 chip waar je niet echt schokkende informatie mee boven water haalt. Het hoofdscherm laat je je array zien met daarin aangegeven welke schijf welke taak heeft.

HPT RAID utlity

Het klikken op de schijven zelf levert je nog het desbetreffende type nummer op en de plaats aan de controller. Dit is helaas alles wat je met het proggie kunt doen, niet echt serieus te nemen dus...

HPT RAID IBMHPT RAID MAXTOR

H2BENCH

Voor de eerste test die ik draai gebruik ik h2bench, een proggie dat onder andere voor de schijvendans wordt gebruikt in het tijdschrift Computer Techniek. H2BENCH werkt onder DOS en tovert een aantal bruikbare getallen tevoorschijn.

Bij het bekijken van de rauwe data doorvoer zien we dat de IBM schijven oppermachtig zijn. Wanneer ik een stripeset van alle vier de schijven maak, beïnvloeden de Maxtor schijven het totaal behoorlijk. Het IBM duo voelt zich een stuk prettiger als er geen vreemden in de buurt zijn, je ziet duidelijk dat het combineren van verschillende schijfmerken en/of typen is af te raden, je beste schijf lijdt onder de prestaties van de "slechtste".

ABIT HotRod - h2bench continue transferrate

Een dikke 70 MB transferrate klinkt wel erg stoer, op een huis-tuin en keuken poeter zelden aan de orde. Mensen die aan beeldbewerking doen of sociale LAN-party bezoekers die met een Gigabit NIC zijn of haar mappen aan het overige volk beschikbaar stellen kunnen daar in tegen wel profijt hebben van zulke enorme prestaties.
Wat veel interessanter is voor je workstation performance is de toegangstijd, iets wat bij iedere benadering van je hardeschijf merkbaar is. Ga maar eens achter een oude 486 zitten met een schijfje van 540 MB, het bladeren door mappen en bestanden is een crime vergeleken met de snelheden van de huidige generatie harde schijven.

ABIT HotRod - h2bench toegangstijd lezen

Het verschil tussen een enkelvoudig Maxtor of IBM ten opzichte van twee Maxtor of IBM schijven is een dikke milliseconde. Je "voelt" dit ook bij het werken met de verschillende configuraties, al is gevoel natuurlijk erg subjectief.
Weer zie je een lichte stijging in de toegangstijd bij het gebruik van de stripeset met alle vier de schijven ten opzichte van alleen de twee IBM's, al is 0,1 ms niet wereldschokkend.

WinBench 99

  • Disk Inspection Test

    De Disk Inspection Test van Ziff Davis WinBench '99 bevestigt de voorgaande transferrate resultaten. Het IBM duo haalt een hogere transferrate dan wanneer ik er twee Maxtor's bij hang. Je ziet wel een minder sterke daling aan het einde van de array bij de stripe-set van vier schijven, die IBM schijven zitten hier dan al tegen het fysieke eind van de schijf (15 gieg) de Maxtor schijven hebben op dat punt nog vijf gieg te gaan. Omdat juist het einde van een schijf het slechts presteert halen de Maxtor's het totaal niet zo drastisch omlaag.

    ABIT HotRod 100 Pro - WinBench DiskInspectionTest

  • Disk WinMarks

    Buiten de Disk Inspection Test kent Winbench ook een reeks testen waar de prestaties bij het gebruik van een aantal bekende applicaties wordt gemeten. Hier wordt duidelijk waarom transferrates alleen niet bepalend zijn voor de algehele performance. De stripeset van vier schijven haalt, in tegenstelling tot voorgaande tests, een duidelijke hogere score dan de twee IBMetjes.

    ABIT HotRod Pro 100 - Disk WinMarks

    Aan de hand van deze resultaten poept Winbench een tweetal Disk WinMarks uit, high-end en business, waarvoor geldt : Hoe groter, hoe beter.

    ABIT HotRod Pro 100 - WinBench DiskWinMarks
  • IOmeter

    Eerder heb je al kunnen lezen dat RAID configuraties IO load kunnen spreiden, of dit ook tot gevolg heeft dat er meer IOs uitgevoerd kunnen worden kun je zien met IOmeter. Dit is een benchtooltje van Intel wat zowel schijf als netwerk kan benchen. Om een 'real-life' omgeving te simuleren van bijvoorbeeld een database- of webserver zijn er door StorageReview een aantal toegangspatronen gedefineerd, ik gebruik voor deze test de workstation settings.

    ABIT HotRod 100 Pro - I/Os per second

    Deze scores zijn, met de vorige twee tests in het achterhoofd, toch enigzinds verrassend te noemen. Een enkelvoudige IBM voert in de meeste gevallen het grootst aantal IO operaties per seconde uit. Zelfs twee van deze schijven, welke in de vorige tests bijna overal het snelste waren, kunnen geen betere resultaten neer zetten.
    Het enige voordeel wat we nu nog zouden kunnen zien bij de RAID configuraties is een lagere processor belasting bij een gelijk aantal IO operaties in vergelijking met de enkelvoudige IBM. Eerst nog even twee ander belangrijke resultaten.

    ABIT HotRod 100 Pro - I/O response time

    De toegangstijden zijn iets hoger als in de h2bench test, de onderlinge verhoudingen zijn echter zo goed als gelijk. Het forse verschil van meer dan 4 ms tussen de Maxtors en IBM's beinvloed het totaal van de RAID array met alle vier de schijven niet zo heel veel.

    Wat CPU load betreft doen de Maxtor's het wel uitstekend in RAID 0, al is dit wel relatief. In vergelijking met de andere configuraties heeft een enkelvoudige Maxtor in bijna alle tests 50% meer cpu kracht nodig, maar met twee schijven in RAID 0 kan dit weer recht gezet worden. De IBM's doen het tegenover gestelde, wanneer daar twee schijven van in RAID 0 staan stijgt de CPU load juist.

    ABIT HotRod 100 Pro - CPU load

    Nu kunnen we de CPU load delen door het aantal IOs per seconde om te kijken of de RAID configuraties hier enigzinds verlichting in kunnen brengen. De load is met een max van 3,56% voor de Maxtor over de hele linie goed te noemen. De enkelvoudige IBM weet van alle configuraties toch het meest efficient met een procentje CPU kracht om te springen.

    ABIT HotRod 100 Pro - I/Os per %CPU load

    Conclusie

    De grootste performance boost met twee of meer IDE schijfjes in RAID 0 ligt in de rauwe doorvoer van data. Of je hier in de dagelijkse praktijk ook echt iets van merkt hangt geheel af van de applicaties die je draait, zeker mensen die met videobeelden of grote (grafische) bestanden werken zullen hier echt iets van merken.

    Games gaan echt niet sneller met een RAID 0 config, hooguit wordt je laadtijd iets verkort. Mede door de snellere toegangstijd ( zoals de twee IBM's ) merk je ook in het dagelijks gebruik dat je iets snels onder de motorkap hebt zitten, het systeem voelt lekker soepel reagerend aan.

    Zoals je in de PriceWatch kunt zien is het verschil tussen een 'normale' KT7 en het KT7-RAID mobo van ABIT 57 pietermannen, mijn inziens het geld zeker waard voor de extra performance. Met een prijs van fl 111,- bij www.hard-ware.nl is de losse RAID controller van ABIT niet duur, de aanschaf van deze controller legt de echte die-hard tweaker dan ook zeker geen windeieren. Ik raad je wel aan goed te kijken welke schijven je gaat gebruiken voor je RAID array, in de tests komt duidelijk naar voren dat de performance ernstig geremd wordt door de traagste schijf ( in dit geval de Maxtor ).

    Wanneer je toe bent aan wat extra schijfruimte is het zaak je af te vragen wat je wilt. Voor puur wat opslag voor je mp3 en divx collecties is een 75 GB IBM ( IBM om de vergelijking makkelijk te maken ) schijf voor fl 1350,- piek een prima oplossing, ben je daar in tegen op zoek naar de ultieme performance dan kun je ook kiezen voor een viertal IBM schijven ( de 15 gieg exemplaren uit deze test bv ) in combinatie met de HotRod. Met deze laatste optie verlies je wel 15 GB en betaal je fl 45,- extra, je hebt dan wel één van de snelste IDE configuraties die op dit moment te verkrijgen is.

    Ik sluit af met een korte opsomming van zowel de positieve als de negatieve punten. Het eerste negatieve punt ligt niet zozeer aan de HotRod zelf, maar aan RAID 0 in het algemeen.

  • Positief

    + Goedkoop

    + Makkelijk te configureren

    + Pittige prestatiewinst

  • Negatief

    - Door ontbreken van redundantie niet geschikt voor opslag van belangrijke data

    - Bepaalde (combinaties van) soorten/merken schijven bevorderen de prestaties niet

    ABIT HotRod 100 Pro - tweakers.net award
  • Reacties (58)

    58
    57
    24
    2
    0
    24
    Wijzig sortering
    Verhaal van de Dikke Duim ? ;)

    Kijk eens naar de grafiek op pagina 5 van deze review.
    In de grafiek met "toegangstijd Lezen" zie ik het volgende
    1 x IBM 10,5 ms
    2 X IBM 9,3 ms
    1 x Maxtor 13,4 ms
    2 x Maxtor 12,2 ms

    Nou dus amenooitniet. De toegangstijd van een HD kun je nooit verbeteren door wat voor raid config dan ook. 2 schijven zouden in de meest ideale omstandigheden net zo'n snelle toegangstijd kunnen halen al 1 enkele HD.

    Kijk naar de spec's van een HD, hierin staat gewoon de toegangstijd vermeld. Of de gebruikte tests (proggies) zijn niet vaak/nauwkeurig genoeg uitgevoerd, of iemand heeft heel hard met een hamer op zijn duim geslagen en toen deze review geschreven....

    Heren moderators voordat u weer de troll's etc gaat uitdelen, kijk eerst even naar de grafiekjes ;).
    Kijk naar de spec's van een HD, hierin staat gewoon de toegangstijd vermeld.
    Als je het dan toch over die duim hebt, op www.storage.ibm.com/hardsoft/diskdrdl/desk/ds75gxp.htm#ProdSpecs geeft IBM zelf 8.5 ms aan. Dat is dus een van de redenen dat wij diverse benchmark proggie's gebruiken. Op het moment dat je aan onze test resultaten gaat twijfelen, tja..............
    Op het moment dat je aan onze test resultaten gaat twijfelen, tja....
    Ik probeer zoveel mogelijk objectief te kijken naar elke test die ik lees. Je zult toch met mij eens zijn dat door een raid systeem de toeganstijd NOOIT omlaag kan gaan. Het zal wel de ongelukkige samenloop van omstandigheden zijn waardoor de resultaten zo zijn uitgevallen, echter een ander zou wellicht de indruk kunnen krijgen dat je toegangstijden lager worden door het gebruik van een raid systeem.

    In een test van www.hardwareinfo.net (Promise Ultra 100 naar FastTrack 100 ombouw project) lees ik:
    Ook hier kunnen we concluderen dat de overgang van één naar twee harddisks vrij weinig snelheidswinst met zich meebrengt. Blijkbaar weegt de extra overhead van het Promise IDE RAID Striping systeem, er zit immers een extra vertaalslag in de datacommunicatie, niet op tegen de theoretisch verdubbelde snelheid. De overgang van twee naar vier harddisks in het RAID array zorgt wel voor een flinke performance-stijging.
    Dat is iets heel anders als jouw conclusie vind ik.
    Wie gelijk heeft laat ik in het midden. Wat ik overigens zelf graag zou willen zien is dat binnen een review andere reviews betreffende dezelfde test zouden worden beoordeeld op hun juistheid....

    Zonder twijfel is je artikel weer een opsteker voor tweakers.net en wat betreft "Verhaal van de Dikke Duim" vergeet de smily niet.
    Mad Max heeft gelijk: er wordt een gemiddelde toegangstijd gemeten, en die wordt wel degelijk beinvloed door RAID0. De minimale toegangstijd staat natuurlijk vast.

    Bedenk wel: dit zijn low-level testen. Bij 'gemiddelde werkstation'-achtige tests zal je maar weinig winst zien, de test van hardwareinfo spreekt die van Jorgen wat dat betreft niet tegen. Dat soort toepassingen zijn maar voor een klein deel van de schijf afhankelijk. (Uitzondering: te weining geheugen -> veel swap activiteit)

    RAID0/5 laat zijn performance verbetering pas zien als er grote hoeveelheden data rondgepompt moeten worden: vooral servers, dus. En dan moet je eerder aan database servers dan aan file- of webservers denken, die toch vooral veel kleine I/Ootjes plegen.

    Eigenlijk is voor PC toepassingen RAID1 nog het interessantste: want zeg noe eens eerlijk: hoe up-to-date zijn jouw backups :? ?
    Eindelijk iemand die het snapt :)
    Oh ja!!

    De opgegeven toegangstijden zijn "average" otfewel gemiddeld. Als je de pech hebt dat de kop een heel eind over de plaat moet racen, dan duurt het lang. Als de kop dicht bij is is de toegangstijd een stuk korter.

    Als je een striped Disk maakt wordt de gemiddelde toegangstijd wel degelijk korter. In de tijd dat Kop 1 van schijf 1 naar het datasegment van een file gaat kan kop 2 op schijf 2 alvast naar het volgende segment van de file op schijf 2 gaan. Door dit "parallel" verplaatsen van de koppen wordt de toegangstijd dus wel degelijk korter.
    Als je de pech hebt dat de kop een heel eind over de plaat moet racen, dan duurt het lang. Als de kop dicht bij is is de toegangstijd een stuk korter.
    Zo werkt dat als je van 10 omwentelingen de gemiddelde toegangstijd meet. I/O Meter is een test die 6x10 minuten duurt. Per seconde doet-ie 130 tot 150 I/O's. Je kunt rustig aannemen dat hier geen grote verschillen kunnen ontstaan.

    Bovendien: de resultaten van de H2Bench en I/O Meter test ondersteunen elkaar, hoewel het verschil bij de H2Bench test wat extremer is.
    idd ja.

    Maar hoeveel I/O's er ook worden gegenereerd.
    De door de benchmark software aangegeven toegangstijden blijven gemiddelde waardes.

    Wat ik dus ook probeer duidelijk te maken is dat doordat beide (in het geval van twee) schijven constant bezig zijn de toegangstijd wel korter kan worden.

    Doordat de data over twee schijven verdeelt staat kun je wanneer je schijf 1 een opdracht hebt gegeven schijf 2 direct daarna ook een opdracht geven. Het zijn twee fysiek andere schijven dus je kunt beide schijven "tegelijk" een commando geven. Wat ervoor zorgt dat het commando gegeven aan schijf 2 vrijwel direct na het het afronden van het commando gegeven aan schijf 1 ook klaar is. En als er nu veel commando's achter elkaar worden gegeven zal de gemiddelde toegangstijd wel degelijk minder worden.

    Dit zou mischien beter geillustreerd kunnen worden met een tekening. Maarjah die heb ik ff niet bij de hand.
    Nee hoor! hij bedoelt gewoon et volgende:

    de PC zegt "ik wil X en Y lezen"

    Hij zegt tegen de 1e schijf dat ie X wil en de 2e dat ie Y wil

    Op dat moment gaan ze bijden naar hun positie toe!
    De eerste schijf doet de volle aatnal ms aan toegangstijd! 15ms (bijvoorbeeld) om naar X te gaan. De 2e ook op dat moment dus diezelfde 15ms wordt ook gebruikt om ook naar Y te gaan, alleen is Y op dat moment nog niet nodig..

    Dan wordt X gebruikt, en wil ie Y hebben! omdat de 2e disc al bij Y is en deze wellich al heeft gelezen! is deze al meteen te gebruiken! en hoeft er dus niet opnieuw 15ms nodig te zijn om Y te vinden! Dit kan natuurlijk niet in 0ms omdat et er al is ! maar zal iets van 4ms zijn! Dus gemiddeld gezien heb je dan een toegangstijd (over X en Y samen) van 19/2= 9.5ms !

    Dit is dus een verbetering ten opzichte van 2x 14ms als de schijven niet in raid staan!

    DAT is wat ie bedoeld :)
    Goed, dus als je geen RAID hebt en maar 1 schijf, en je geeft die 2 keer vlak achter elkaar een commando, dan verkort dat de toegangstijd volgends jouw theorie dus ook. Dit heeft toch niks met RAID te maken?

    Ik denk dat de toegangssnelheden die fabrikanten opgeven het maximaal haalbare is en dus nooit sneller kunnen worden. Ook niet met een RAID. Nl: als je met 2 harde schijven na 10 commando`s vlak achter elkaar te hebben gegeven de toegangssnelheden BIJ ELKAAR optelt, dan kan de toegangssnelheid volgens mij nooit sneller zijn dan wanneer je hetzelfde doet bij 1 harde schijf zonder RAID. De TIJD waarin dit geschreven is, wordt natuurlijk WEL verkort. Dit is denk ik wat Treb bedoeld.

    Trouwens prima artikel! :)
    Nope, volgens jouw redenering zou je bij een striped setup van 100 disks een toegangstijd hebben die minder is dan b.v. 0,1 ms.
    Dat kan toch ook zo zijn. Elke disk leest dan maar van 1/100 van de cylinders, dus hij moet gemiddeld maar over 1/200 van de schijf zoeken.

    Maar dat is alleen handig voor kleine files.
    Jorgen, op het moment van schrijven ben je nog bezig met posten geloof ik want er staat nog niks op de frontpage. De 2e pagina is nog een beetje opgefucked qua lay-out.

    Goede review moet ik zeggen, heb er weer een hoop bijgeleerd qua RAID. Komt goed uit want ik wil binnenkort de Abit KT7-RAID kopen. Jammer dat deze niet word vergeleken met de Hotrod. Ondanks dezelfde chip en dezelfde fabrikant kan ik me voorstellen dat hier ook nog performanceverschil in zit.
    Lijkt me dat het verschil nihil is hoor, het geïntegreerde zegt weinig, het gaat net zo goed via de PCI bus.. Ik wil eigenlijk wel een vergelijking met die Adaptec IDE RAID kaart zien, die is echt professioneel (heeft ook RAID5 support) :P
    Hmmmz, tja, voor zover je als tweaker raid 5 wilt? Maar ik denk dat een raid kaartje via PCI wel voordelen heeft, op lange termijn heb je er in je volgende pc (misschien) ook wat aan. Maar aan de andere kant wordt het vast wel standaard op alle mobo's. De harddisk in huidige vorm lijkt een beetje aan zijn top te komen, het enige wat nog beter kan is het aantal MB's cache en het aantal rpm, hoewel dit laatste weer meer slijtage tot gevolg heeft.

    Ik denk dat er wel toekomst zit in raid, hoewel het op mijn BX133 nog niet echt perfect werkt... :(
    Ik denk dat juist het toerental wel zo'n beetje aan de top zit. Maar met de toenemende datadichtheid zullen steeds grotere schijven mogelijk worden. Hierdoor neemt de lees/schrijfsnelheid ook toe.
    En met een grotere datadichtheid kun je ook kleinere schijven maken, waardoor de seektime ook afneemt.
    En een vergelijking met de Promise FastTrak 100 zou tevens niet verkeerd zijn...
    Controller is bagger traag vergeleken met de (niet Raid) Promise ata 100 kaart
    Promise = 25mb/sec
    abit = 17mb/sec

    Nog niet traag naturlijk maar scheelt toch aardig wat tijd als ik data van de ene 60gig naar de andere verplaats
    Goed en vlot geschreven. Voor de minder geinformeerden onder ons een zeer verhelderend stuk tekst over RAID. Alleen het druipt gesponsorde ervan af. Probeer ook eens de promise te testen die weliswaar duurder is, maar ook sneller is. Hebben jullie dat ook meteen rechtgetrokken.
    Sjeez, ik lees net op www.acnc.com/raid.html dat er wel 53 verschillende soorten RAID zijn. En ik maar denken dat er maar 6 soorten waren (0, 1, 0+1, 3, 5 en 7).

    Reactie op de reactie hieronder: duidelijk verkeerd gelezen (ikke dus). Ik dacht dat ze met 10 en 53 ook nog raidsoorten bedoelden, maar het is een combi van 1+0 en 5+3. Oops :o
    Wees gerust er zijn er maar 10 :)
    0, 1, 2, 3, 4, 5, 6, 7, 0+1 en 5+3

    Verder is het natuurlijk weer een puik verhaal Jorgen, petje af!
    De mensen die al een asusa7v bordje hebben kunnen hem modificeren tot raid, ik weet niet meer welke controller eropzat, maar ik geloof van Promise. Maar iig heb je dan ook al raid op je bordje erbij :)
    Jorgen, op de 4e pagina staat een foutje, dat nogal misleidend werkt:
    Realiseer je echter wel dat bij het bouwen van een array de grote van de kleinste schijf bepalend is
    Dat zou grootte moeten zijn.

    ---edit---
    Je blijft lachen op Tweakers.net. Kijk dat deze reactie op 0 wordt gezet, nadat de fout verbeterd is, logisch natuurlijk. Maar Off-topic? Ik ga in op een review met een reactie die direct naar die review verwijst, how more on-topic can you get? :? Doe dan Overbodig!

    Nu staat er in in de review overigens groote, nog steeds een t te weinig ;) Dus echt overbodig is deze reactie (nog) niet.
    Leuke review, actueel onderwerp. Maar op pagina 6 valt mij iets raars op: Een enkele maxtor is op het eind van de disk iets sneller dan aan het begin. Is dit een onbetrouwbaar meetresultaat of zijn de resultaten per ongeluk door elkaar gehusseld? Als een Maxtor van buiten naar binnen zou schrijven (dat doet hij dus niet), zou dit kloppen, maar dan moet een Maxtor raid-0 ook sneller zijn op het eind en dat is dus weer niet zo.

    Bovendien vind ik het jammer dat er geen raid-1 getest is. Het genoemde voordeel daarvan is de redundancy, maar ik had begrepen dat bij het lezen ook 'dubbele' snelheid gehaald kan worden. Bij schrijven is een raid-1 half zo snel, maar bij lezen kunne twee schijven ingezet worden. Is dit ook zo?

    MetalStef
    Hm toch wel interresant dat RAID 0, ik wil binnenkort een abit kt7tje halen, misschien toc h maar de raid versie nemen :)
    Dat kan ik je zeker aanraden! Ik heb zelf ook de KT7-RAID en onder Sisoft Sandra werken mijn 2 13,5 Gieg IMB'etjes 2x zo snel met RAID 0 dan zonder RAID 0 :9 en dat voor 57 piek meer 8-)
    Een klein puntje: Bij RAID 1 en RAID 0+1 heb je echt geen 100% diskspace verlies hoor, 50% is genoeg :). Bovendien als je Win2k of WinNT4 gebruikt, zie ik het nut van zo'n setup niet in (niemand gaat RAID 1 gebruiken met zo'n kaartje). Ten eerste heb je een extra PCI slot in gebruik. Ten tweede verlies je diskspace bij ongelijk grote HDDs. Beide nadelen kun je omzeilen door de stripesets uit WinNT of Win2k te gebruiken. Misschien dat je wat minder CPU belasting hebt, dat zou dan weer een voordeel zijn.
    W2k en NT4 kun je niet op een raid installeren als je op deze manier softwarematige raid gebruikt: De raidsoftware kan niet gelezen worden voordat het OS in opgestart en je OS wil dan niet opstarten omdat de raid-software niet ingelezen is. Het OS zelf moet in dit geval dus op een niet-raid schijf staan, of (dat kan wel bij W2k) op een stuk overgebleven ruimte als je disks niet even groot zijn. Dus bij één 20GB Maxtor en een 15GB IBM kun je je OS installeren op de 5GB die je op de Maxtor overhoudt.

    Blijft natuurlijk het probleem dat een software-raid wel goed raad weet met je CPU. Dan is het systeem niet meer vooruit te schoppen.

    MetalStef
    Inderdaad, het OS moet op een non-RAID partitie staan (of een HDD die niet gestriped wordt). Maar in NT4 kun je ook kleinere partities dan de hele schijf stripen. Ik heb het zelf geprobeerd met 2 schijven. Ik weet alleen niet meer of ik nu op de 2de schijf ook een non-RAID partitie had (dus de gestripte partities evengroot). En qua CPU usage viel het allemaal reuze mee, ik merkte er in ieder geval niets van (P-II 333 MHz). Het was wel op een SCSI systeem, misschien hielp dat :)
    Oh!!!!! Mijn Win2K staat toch écht op een hardwarematige stripe en boot daar prima van af. Alleen ik moest het met een omweg installeren. Dus dat het OS op een non-RAID partitie moet staan is aperte nonsens.
    Wel goed lezen he? We hadden het over de software stripesets die WinNT en Win2k bieden, niet over een hardware stripeset (of RAID). Als het OS nog niet geladen is, hoe wil je dan vertellen (tegen DOS) welke partities bij elkaar horen? Kan (nog) niet.


    * 786562 zonoskar
    Sorry, soms lees ik ergens overheen.
    Oh en Jorgen, wat je eigenlijk nog wel als nadeel van deze HotRod (en ook andere IDE RAID kaartje) mag noemen: "Ze werken (nog) niet met Linux" :(
    Bij ABIT krijg je een Linux distro gratis die wel ermee kan werken
    En wat als je b.v. RedHat 7.0 wilt gaan installeren?

    Op dit item kan niet meer gereageerd worden.