Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties
Bron: StorageReview.com

JAMF wees ons op een interessante database die op het net te vinden is. StorageReview.com is namelijk begonnen met het verzamelen van de uitval gegevens van een groot aantal harddisks die sinds 1998 op de markt zijn gebracht. Om de database te bekijken, moet je je kostenloos registeren en je eigen harddisk(s) aan de database toevoegen om daarna door de hele database te kunnen browsen.

The Results are in!! 05 November 2001 You have reliability figures for hard drives… finally! We’ve completed work on our initial analysis engine, a program that takes all the results submitted by participants (approaching 6000 strong!), filters out questionable results, considers the drive’s age, failure rate, obsolescence rate, & a host of other factors, and delivers a composite reliability score on a 10-point scale. We couldn’t have made it this far without StorageReview.com’s own readers as well as knowledgeable readers directed to the survey from sites around the ‘net. Thank you all! That said, we hope 6000 results represent just the beginning. Imagine 50,000 results or more! Conclusions could then be drawn with more confidence on more models. Use the reliability database and encourage your friends and your favorite sites to participate in creating an ever more robust data set from which the engine can draw results. Speaking of the analysis engine, our work on it hasn’t ended yet… we’re already combing the process to find ways through which its accuracy and dependability may be increased to new levels. If you haven’t participated in the reliability database yet, do so by entering your experiences with all your drives! By participating, you’ll not only aid others in our extended hardware community, you’ll also gain access to these valuable results!

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (45)

Ik heb net geregd en het is niet meer en niet minder dan een database waar iedereen die geregistreerd heeft info over zijn of haar HD kan geven: Type, jaar en kwartaal van aankoop, en de kwaliteit. Het resultaat is een cijfer van 1 tot 10 voor ieder type HD van elke fabrikant.
Ik vraag me af hoe betrouwbaar dat is. Als iedereen eerlijk zijn bevindingen submit is er niks aan de hand, maar of iedereen dat ook doet?

Het zou mijns inziens beter zijn om via officiele kanalen dit soort onderzoek te doen, bijvoorbeeld door naar distributeurs te gaan.
Ik denk dat zoiets 'eerlijker' en betrouwbaardere cijfers opleverd dan onderzoek via een distibuteur, die willen natuurlijk toch dat hun schijven er beter uitkomen dan in de werkelijkheid en daar zal dan ook wel met gegevens gesjoemeld worden.
Het probleem bij dit soort onderzoeken is dat mensen eerder klagen dan juichen. Dus als je HD kapot is dan schrijf je dat er eerder in dan als hij het al jaren goed doet. Het aantal klachten zal dus onevenredig hoog zijn. En als merk B dan met een hoog aantal klachten naar voren komnt, dan weet je het nog niet zeker omdat je moet corrigeren voor het aantal werkelijk verkochte schijven. En dat haal je er dus niet uit.
Kijk voor de grap eens naar de waarderingen van de verschillende computerwinkels hier op tweakers: heel veel 10-en en 4-en. Lijkt me niet echt een verzameling van genuanceerde beoordelingen.
Ik denk dat de beoordelingen van de HD's op dezelfde manier gaat lopen, en dat levert IMHO dan niet echt nuttige beoordelingen op.
Als je hier op Tweakers.net veel trollen uitdeeld, die niet terecht zijn, kun je op een gegeven ogenblik geen trollen en flaimbates meer uitdelen. Bij StorageReview hebben ze iets soortsgelijk om te kijken of iemand niet alles staat af te kraken.
Leuk idee, maar wat heb je er in de praktijk aan?

Niets. Het is heel leuk om te weten welke schijven er in het verleden brak waren, maar de afgelopen jaren heeft dat bijzonder weinig zin gehad om je daarop te baseren. Als je vorig jaar gezien de uitstekende track record van IBM een 75GXP toevallig uit die ene brakke serie kocht (ipv een Maxtor waar toen nogal wat discussies over waren) had je pech. Kocht je geen Quantum drives vanwege die brakke serie Bigfoots liet je prima schijven liggen. Laat je nu gezien dat slippertje van IBM de huidige drives liggen heb je nog steeds geen garantie dat je *wel* een goede HD hebt.

"Resultaten uit het verleden bieden geen garantie voor de toekomst".
Je kan een schijf kopen die al wat langer in de handel is en goed scoort op betrouwbaarheid. Een algemeen beeld van een bepaalde fabrikant is niet te krijgen. Gelukkig staan er ook ervaringen in van nieuwe schijven (zoals de baracuda IV) en bovendien voor IBM een reden om zich serieus achter de oren te krabben.
Zelfs dat is geen garantie. Wederom dat 75GXP geval: op het moment dat men na een paar maanden door kreeg dat er een serie met een defecte temperatuursensor was geweest, had IBM het allang gefixt en waren die 75GXP's gewoon weer goed. Het enige wat die database voor zin heeft is voor de tweedehands markt: "koop geen 75GXP 30GB van bouwmaand XX tm XX".
Hm dit ziet eruit als iets moois waar je echt wat mee kan als je een nieuwe schijf wil halen. Hebben ze ook verschil ondergebracht in RAID en gewoon normale opstellingen? RAID heeft een hoger uitvalspercentage.
ps. kan het zelf niet zo snel controleren omdat ik me eerst zelf moet aanmelden :).
Waarom heeft raid in godsnaam een hoger uitvalpercentage ?
Het klinkt als een fabeltje.
RAID-0 heeft een 2x hoger uitvalspercentage in zijn geheel.. omdat de kans dat er een schijf uitvalt 2x hoger is.. raid-1 heeft juist een half uitvalspercentage, eigenlijk alle andere raid opstellingen hebben een lager uitvalspercentage, maar deze 2 zijn door goedkope ide-raid controllers wel belangrijkst.
Maar goed ik denk dat jij zijn opmerking opvatte als "een schijf in RAID valt sneller uit (dus 1 van de 2 schijven)" dat is volgens mij ook een fabeltje, ik heb er nog nooit van gehoord..
RAID-0 is het verdelen van data over de hd's, teneinde een hoge snelheid te behalen. Uitval van de ene hd betekent de onbruikbaarheid van de data op de andere hd. Dus de kans op uitval is wel degelijk maal 2.
omdat de kans dat er een schijf uitvalt 2x hoger is..

Hmm iets met klok en klepel ofzo?
Als je een x aantal schijven in je systeem hebt zitten dan maakt het geen bal uit of je raid of geen raid draait. De kans dat er een schijf defect raakt is na genoeg gelijk. De enige reden waarom je bij raid een iets hoger uitval percentage hebt is omdat bij schijfactiviteit alle schijven in de array bezig zijn! |:(
Of wil je 2 schijven met 1 schijf vergelijken?
Hmm iets met appels en peren ofzo?

Als we het hebben over de kans op data verlies dan wordt het natuurlijk een heel ander verhaal:

Bij een raid-0 array (maar aangezien je geen type raid aanduidt heb je het dus duidelijk over raid in het algemeen, of denk je dat raid altijd raid 0, striping is?)
t.o.v. 2 losse schijven heb je 50% meer dataverlies als er een schijf kapot gaat. De kans op het hebben van dataverlies is na genoeg gelijk

Bij een raid-1 array wordt de kans op dataverlies 2x zo klein, maar de opslagcapaciteit ook.

Bij raid 0+1 (a.k.a. Raid 10)wordt de kans op dataverlies 0,5x zo groot, maar je hebt wel extra schijven nodig

etc etc etc
[off topic]
Als je 50% kans hebt om te winnen en je doet 2 keer mee dan heb je nog geen 100% kans op winst. Je hebt de eerste keer 50% kans om te winnen dus 50% dat je nog niet gewonnnen hebt dus de 2e keer heb je 50% van 50% om te kunnen winnen. Dus 75% kans om te winnen.

Bij RAID 1 wordt het nog ingewikkelder omdat je hier ook nog een tijdsfactor hebt om 1 van de disks te verwisselen. Stel dat er een kans is van 1 op 1000 dat een disk kappot gaat binnen een tijdsbestek van 24 uur dan is de kans 999 op 1000 dat ie niet stuk gaat, de kans is dus 998, nogiets dat ze allebei niet stuk gaan (immers 0.999*0.999). De kans op een storing in 1 van beide is dus hoger dan bij een niet RAID config. De kans is ongeveer 2 op 1000 dat de eerste stuk gaat in 24 uur (dit is dus ook de risico factor van RAID 0 en is dus ongeveer 2 keer) daarna is de kans is 1 op 1000 dat de 2e ook stuk gaat binnen 24 uur dus de kans dat ze beide kappot gaan is dan 2 op de 1000000 en dan heb je dus dataverlies.

Nou is de kans dat ze beide gaan waarschijnlijk in de praktijk nog wat hoger, omdat datgene wat de eerste kappot maakt (een harde stoot, spannings piek etc.) ook het gene kan zijn wat de tweede kappot maakt.

Nog een leuke:
Bij een kans van 1 op de 1000 in 24 uur wordt het risico voor het hele jaar dus 0.999^365=0.694 is dus 206 op de 1000 en geen 365 op de 1000!
[/off topic]
De bedoeling van RAID is wel dat data veilig opgeslagen wordt. Al verhoog je de kans op uitval (2 is immers meer dan 1) zal de kans op verlies van data veel minder zijn.

Een overweging waar alleen een prijskaartje aan hangt.
Nou docent kun je maar beter niet worden. De kans dat ze beiden kapot gaan eraftrekken?? dus als ze beide tegelijk stuk gaan werkt het nog gewoon door :? erg logisch hoor
Bij raid 1 wordt de kans op dataverlies véél minder dan een factor 2. Beide schijven moeten tegelijk uitvallen om dataverlies te hebben. (Als je de defecte schijf onmiddelijk vervangt natuurlijk.)
Dus als de kans op dataverlies 1/100 is bij 1 schijf, wordt deze 1/10000 bij RAID 1!
lijkt me niet bij raid 1 dat de kans de helft is want de kans dat ze beide spontaan kapot gaan is heel klein (buiten omweer inslag etc om) want als er 1 kapot gaat vervang je die en ga je weer door dus raid1 is wel 5000 keer betrouwbaarder dan normaal 1 schijf.

Sorry, dubbel |:(
Ik zal het je nog sterker vertellen: ik bén al wiskunde docent :)
Als je de 2 afzondelijke kansen optelt, tel je het overlappende gedeelte (dus de kans op beide) 2×.
Dus moet je het er één keer aftrekken.
De kans op falen blijft in alle gevallen gelijk! Er wordt hier door een aantal mensen een grote vergissing gemaakt, men verwart kans met verwachtingswaarde. Stel dat de kans op falen 0,01 % is, dan is die kans voor iedere drive gelijk. Als je 100000 drives bekijkt kun je verwachten dat er 10 falen, maar omdat het om een kans gaat is het niet wetmatig zo dat er dan ook 10 falen, het kunnen er ook 6 zijn of 13. Als je nu van die 100000 drives er twee pakt zijn er verschillende mogelijkheden, er is er een kapot, kans is 2 * 0,01 % * 99,99 % = 0,019998 %, ze zijn beide kapot, 0,01 % * 0,01 % = 0,000001 % of er is er geen een kapot, kans is 99,99% * 99,99 % = 99,98 %

In werkelijkheid zullen de percentages dat een drive faalt veel lager zijn dan 0,01 % dus waar praten we nog over ?
duh :). dat is om dubbeltelling te voorkomen/eruit te halen
\[docent-mode]
Volgens mij is dit kansrekentechnisch niet geheel juist.
De kans dat een RAID-0 systeem uitvalt is:

de kans op uitval van schijf-1 plus
de kans op uitval van schijf-2 min
de kans dat ze beide uitvallen.

Dus niet helemaal gelijk aan 2×
\[/docent-mode]
waar het precies door komt weet ik ook niet. maar ik heb het wel is gelezen.
ik ga ff op zoek naar een linkje voor je....

Ik heb 1 dvd - 1 brander - 1 processor - 1 videokaart - 1 chipset op het moederbord - 6 harddisken in 1 systeem wat dus behoorlijk warm wordt en een normale koeler. de harddisken zitten boven elkaar en het systeem staat bijna dag en nacht aan. Geen uitval.

Kortom Hallo Meneer de uil......... FABELTJESKRANT
Dat de HDD's bij jou geen problemen geven geeft absoluut niet aan dat de warmte afgifte van HDD's een fabeltje zijn, een beetje minder mag dus ook wel.

Ik heb zelf 4 HDD's boven elkaar gestapeld en ook hier geen problemen, maar ik kan duidelijk voelen dat de HDD's warmer worden dan dat ze normaal worden als ze een normale tussenruimte hebben. Niets voor niets heeft IBM aangegeven dat ze aanraden om elke HDD actief te laten koelen, dat bevorderd de levensduur aanzienlijk.
Verder is het ook zo dat servers vaak RAID gebruiken. En aangezien servers dag en nacht aanstaan is er ook een groter uitvalspercentage....
Die servers gebruiken meestal SCSI en die zijn betrouwbaarder dan normale IDE HDD's en daarbij komt ook nog dat de RAID array's meestal goed gekoeld worden door meerdere fans, tenminste, dat is mijn ervaring.

Daardoor is het uitvalspercentage juist lager dan bij normale IDE HDD's, die zeker bij de "normale" consument meestal niet goed genoeg gekoeld worden.
Meer warmte is wel te voorkomen door de schijven genoeg uit elkaar te zetten, bovendien heb je precies dezelfde warmte als je twee losse schijven hebt.

Ik denk dat het eerder te herleiden is tot de toegangspatronen die gebruikt worden als RAID gebruikt wordt (altijd tegelijk van twee schijven tegelijk lezen/schrijven).
Verder is het ook zo dat servers vaak RAID gebruiken. En aangezien servers dag en nacht aanstaan is er ook een groter uitvalspercentage....
Mischien in vergelijking met een systeem wat 2x per jaar een dagje draait ofzow ..
Over het algemeen gaan schijven kapot bij het opstarten/rebooten van machines.
Oftwel de schokken die ze krijgen van ineens met een rotsnelheid gaan draaien vanuit stilstand, en stroom die ineens op de componenten komt te staan (de chips dus welteverstaan)

Overall gaan HD's in computers die 365 dagen in een jaar continue aanstaan toch langer mee dan HD's die 365x per jaar opgestart worden met een compu die elke dag aan en uit gaat.

Lariekoek dus als je zegt dat schijven in servers sneller kapot gaan. Dit zul je hoogstens enigszins redelijk kunnen maken als je vergelijkt dat er mischien iets meer slijtage op kan treden., maar dat slijtage verschil is echt nihil in vergelijking tot de schade die een HD krijgt als hij opstart.

Het is niet voor niets een feit dat systeembeheerders met Y2K banger waren voor uitval van de HD's door het uit & aan zetten, dan voor het feit dat de HD mischien door een rare kronkel niet uitzichzelf van 23:59/99 naar 0:00/00 zou gaan.
En hoe zit het dan met de tigduizend start-stop cycles die de fabrikant gerandeerd?

Ik heb 3 17 gig 5400 maxtrorschijven in raid staan en deze schijven hebben inmiddels 2788 start stop cycles gemaakt zonder kapot te gaan.

Mijn eigen 30gig en 20gig IBM schijven (7200 en 5400) hebben allebei al eens problemen gehad en dat was niet tijdens spinup maar tijdens draaien (bad sectors).

Ik weet nog niet zo net of dat stoppen en starten zo slecht is.
Lijkt mij dat dit is omdat je bij RAID 2 schijven in 1 systeem hebt, dus meer warmte, dus meer uitval.
Verder is het ook zo dat servers vaak RAID gebruiken. En aangezien servers dag en nacht aanstaan is er ook een groter uitvalspercentage....
Ik heb 1 dvd - 1 brander - 1 processor - 1 videokaart - 1 chipset op het moederbord - 6 harddisken in 1 systeem wat dus behoorlijk warm wordt en een normale koeler. de harddisken zitten boven elkaar en het systeem staat bijna dag en nacht aan. Geen uitval.

Kortom Hallo Meneer de uil......... FABELTJESKRANT
in principe is het onderscheid tussen single disk of een RAID setup niet van belang, je kunt de kans dat en disk in een RAID setup uitvalt relatief makkelijk berekenen uit het uitval % van 1 disk ...
Reactie op Dick Koornneef:

Dat het bij jou niet gebeurt, betekent niet dat het overal zo is :+

Misschien heb jij wel gewoon geluk 8-)

* 786562 CasaLasse
Dit zal heel veel mensen helpen hun keuze te maken bij aankoop.
Als fabrikanten dit ook gaan ondersteunen is het helmaal mooi
Als fabrikanten dit ook gaan ondersteunen is het helmaal mooi
wat bedoel je daar mee? dat fabrikanten iets met de gegevens gaan doen en gaan kijken hoe ze hun spullen nog betrouwbaarder kunnen maken ofzo (doen ze trouwens al lang hoor)
Als fabrikanten dit ook gaan ondersteunen is het helmaal mooi
Hoezo dit dan??
De fabrikant die dit zal ondersteunen is de fabrikant waar weinig tot geen schijven van kapot gaan, voor de rest is dat niet interessant, want dat is negatieve reclame.

of begrijp ik je dan verkeerd??
Even wat resultaten (uit de database) van schaal 1 (slechtst) to 10 (best)
IBM 75GXP 5!!!
IBM 60GXP 8
Seagate ATA III 6
Seagate ATA IV 10!!!
DiamondMax 40 8
DiamondMax 60 10!!!
DiamondMax 80 8
DiamondMax P 40 8
DiamondMax P 45 6!!!
DiamondMax P 60 7

Die 75 GXP zoog dus inderdaad :r :r :r Alsof we dat nog niet gemerkt hadden. :'(
Vergeet niet de Western Digital 400BB die ook erg reliable is!
RAID-0 is het verdelen van data over de hd's, teneinde een hoge snelheid te behalen. Uitval van de ene hd betekent de onbruikbaarheid van de data op de andere hd. Dus de kans op uitval is wel degelijk maal 2.
Als het om het verlies van data zou gaan zou je inderdaad gelijk hebben. Maar, het gaat hier om de fysieke uitval van de schijven, niet om het verlies van data. De kans is dus niet 2x zo groot.
Yupz , hier een ATA IV en niks problemen mee , 1X probs gehad met Maxtor maar een nieuwe en alles in orde daarmee .
Als het om het verlies van data zou gaan zou je inderdaad gelijk hebben. Maar, het gaat hier om de fysieke uitval van de schijven, niet om het verlies van data. De kans is dus niet 2x zo groot.
Ben je je data dan niet verloren bij een fysieke uitval? Ik heb het juist over de 'fysieke' uitval (bestaat er een andere soort uitval?) van een schijf. Ik zou de verlies van data eerder aan het prullenbak-gedrag van een gebruiker toeschrijven. Ik zie dan geen verband tussen het hebben van een RAID-0 configuratie en de onhandigheid van een gebruiker.
De tijd tot het 'fysiek' uitvallen van een schijf heet de MTBF (mean time between failures), waarbij de MTBF van het geheel te berekenen is met:

Geheel MTBF = Deel MTBF / N,

waar N het aantal delen in het geheel is. Wanneer je twee schijven met een MTBF van bijvoorbeeld 100.000 uur in een RAID-0 configuratie plaatst, dan wordt de MTBF van het geheel 50.000 uur. De kans op een uitval van twee (gelijke) harddisks in een RAID-0 configuratie wordt dus 2x zo groot.
Eigenlijk is die kans zelfs nog groter, aangezien de RAID-controller zelf uiteraard ook een MTBF waarde heeft.
De kans op een uitval van twee (gelijke) harddisks in een RAID-0 configuratie wordt dus 2x zo groot.
Nee dus...
De kans op uitval van TENMINSTE een harddisk is 2x zo groot...
De kans dat ze alle twee uitvallen is nl. veel kleiner dan de kans dat een enkele hd uitvalt!

Trouwens, MTBF wil zeggen dat alle HD's van dit type van deze fabrikant gemiddeld x uur meegaan, in de praktijk levert dit dan (waarschijnlijk) een normale verdeling op rond dit punt (dus evenveel harddisks gaan voor de MTBF kapot als erna, en hoe verder je van de MTBF afzit, hoe kleiner de kans is dat de harddisks na die periode kapot gaan)
Dat die RAID controllers zoals die van abit niet al te relaxed werken blijkt wel weer bij die van mijn pa.
Ik ben dus op die comp (is centrale huiscomp) wat aan het internetten, stalt het hele ding, ik reboot, windows screwed up. Wat blijkt later, raidtable is naar de klote (of hoe je het ook noemt heb er geen verstand van :)). Mijn pa beide hd's er los in (draaide op RAID 0) en 1 hd is 20 GB andere 40 GB (terwijl het 2 20 GB seagate hd's waren). Nou na veel scandisken en discdoctoren zijn er nog steeds een aantal babsectors op die hd die dus aangaf dat ie 40 GB was.

Ontopic:
Ga ik eens chekcen of mijn IBm HD veel uitval vertoond en of mijn toekomstige IBM hd veel uitval vertoont :)
Gepost door Ralph Smeets Woensdag 7 November 2001 - 21:32 - bron:

Geen bron? :7
Ai, dat doet pijn :)

* 786562 Ralph

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True