Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 184 reacties
Submitter: Romeo

Backblaze, een aanbieder van cloudopslag die statistieken verzamelt over de betrouwbaarheid van harde schijven, meldt dat opvallend veel 3TB-desktopschijven van Seagate en Western Digital uitvallen. Hitachi-schijven zouden veel minder vaak stoppen met functioneren.

Volgens cijfers van Backblaze heeft de 3TB-uitvoering van de Seagate Barracuda 7200.14, met typenummer ST3000DM001, een uitvalspercentage van 15,7 procent. Daarbij zijn 3846 schijven onderzocht. Opvallend is dat de 3TB Barracuda XT-schijven van Seagate met een uitval van 6,7 procent wel redelijk scoren. Dit patroon is volgens Backblaze ook te vinden bij de 1,5TB schijven van Seagate, waarbij de Barracuda 7200.11 een probleemkindje is maar de Barracuda LP wel goed scoort.

Ook de 3TB Western Digital Red met typenummer WDC WD30EFRX scoort met een uitvalpercentage van 8,8 procent ondermaats. Schijven van Hitachi tonen in de tabellen van de cloudopslagdienst gemiddeld de laagste uitvalcijfers, een statistiek die het bedrijf begin dit jaar ook publiceerde. Tevens doen 4TB-harddisks van Seagate en Hitachi het aanzienlijk beter dan de 3TB-uitvoeringen.

Een precieze reden waarom de 3TB-schijven van WD en Seagate relatief snel uitvallen, geeft Backblaze niet. Mogelijk zijn deze consumentenschijven niet goed bestand tegen plaatsing in een datacenter of het gaat fout bij het verwijderen van een schijf uit een externe usb-behuizing, zo speculeert het bedrijf.

Backblaze meldt verder dat de aankoop van duurdere enterprise-schijven geen soelaas biedt, omdat deze schijven te veel kosten. Ook zou het uitvalpercentage vergelijkbaar zijn met die van consumentenschijven.

Statistieken over betrouwbaarheid harde schijven

Moderatie-faq Wijzig weergave

Reacties (184)

1 2 3 ... 7
Vind ik niet vreemd, WD geeft zelf aan dat de WD30EFRX geschikt is voor gebruik in 1-5 bay NAS units. En dus niet in een multibay omgeving welke Backblaze gebruikt. Probleem is dat bij gebruik in 6+ bay units de drive te warm wordt, vibratie een issue gaat worden bij "spin-down, spin-up" en uiteindelijk de schijf degradeert.

Tevens is de WD Red serie een serie welke "slechts" 120TB workload op jaarbasis aan kan. Dit houdt in dat bij hoger lees/schrijf gebruik op jaar basis de schijf sneller defect raakt aangezien de platter en met name de head vd drive geen hogere belasting aan kan.

Seagate hun drive kent zelfs een lagere workload van slechts 80TB/year. Deze drive is ontworpen voor gebruik in desktop machines. De naam vd drive zegt het eigenlijk al :)

Wanneer je kijkt naar Enterprise drives (RE van WD, Constellation van Seagate, Ultrastar van HGST en Toshiba Enterprise HDD's) is de workload maar liefst 550TB/year bij SATA 6 Gb/s drives en bij SAS 6Gb/s/12Gb/s drives is ruim 880TB/year. Vreemd dat Backblaze aangeeft dat zelfs met deze EP drives een vergelijkbaar uitvalpercentage geldt. Deze cijfers zijn simpelweg incorrect daar de RMA cijfers van de eerder genoemde leveranciers vele malen lager liggen.

En ja, Backblaze gebruikt deze schijven gewoon verkeerd. Ze willen geen geld uitgeven aan duurdere EP drives terwijl deze zichzelf wel hebben bewezen en een hogere workload aan kunnen. En laat Backblaze nou net een hoge workload nodig hebben voor hun diensten?

Ik stop ook geen 2000kg in een personenauto zodat deze door z'n assen zakt terwijl een bedrijfswagen zich hier beter voor leent :+

Backblaze hun onderzoek is wel eens eerder al achterhaald. Dus ook dit onderzoek neem ik met een korrel zout!
http://www.theregister.co...valuate_disk_reliability/
Double the reliability is only worth 1/10th of 1 percent cost increase. I posted this in a different forum:

Replacing one drive takes about 15 minutes of work. If we have 30,000 drives and 2 percent fail, it takes 150 hours to replace those. In other words, one employee for one month of 8 hour days. Getting the failure rate down to 1 percent means you save 2 weeks of employee salary - maybe $5,000 total? The 30,000 drives costs you $4m.

The $5k/$4m means the Hitachis are worth 1/10th of 1 per cent higher cost to us. ACTUALLY we pay even more than that for them, but not more than a few dollars per drive (maybe 2 or 3 percent more).

Moral of the story: design for failure and buy the cheapest components you can. :-)

[Reactie gewijzigd door Ibidem op 24 september 2014 17:33]

Vind het inderdaad een beetje een vreemd onderzoek. Desktop schijven testen in een datacenter omgeving, dat is een beetje als een Opel Corsa testen op het vermogen om zeer zware aanhangers te testen. Het kan vast wel, maar ze zijn er niet helemaal voor bedoeld en de kans dat je de boel ermee kapot maakt is groter dan bij normaal gebruik.
Backblaze heeft met design by failure wel degelijk een punt alleen is dat punt in hun geval iets gunstigs. In hele grote dataopslag bedrijven wordt er wel degelijk zo gewerkt. Ik ken wel meer bedrijven die van enterprise spul naar consumenten schijven zijn gegaan omdat ze hun opslag methode zo veranderd hebben dat een HDD swap weinig problemen oplevert.
Punt is alleen dat bij veel andere plekken het niet zo werkt omdat ze bv met klasieke RAID werken waardoor je te maken krijgt met gigantische rebuild tijden. Je mag dan nog wel redundancy hebben, maar dan wil je nog zulke situaties vermijden.
Lekker kort door de bocht. Alsof alle myltibays hetzelfde zijn qua cooling e.d.

Heb hier een kast met 2 hotswap bays en als ik die gebruik en een badblocks test draai bijv. dan houd je de schijf daarna echt niet langer dan 5sec vast of je moet kicken op verbrande vingers.

Valt wel binnen de 5 bay spec... Ze komen een stuk koeler uit een 12 bay server op de zaak ook als die helemaal vol zit en alle schijven belast worden. Heeft aanzienlijk betere koeling.

Resonantie is ook niet overal hetzelfde. Het zijn meer richtlijnen.
De resultaten kan je echter wel extrapoleren naar consumentengebruik en zijn ook als vergelijkingsmiddel tussen diverse schijftypes gewoon valide. Je hebt als het ware 3 jaar slijtage in 0,5 jaar gebruik. Dit doen fabrikanten zelf ook om een idee te krijgen van de betrouwbaarheid van hun product en om een idee te krijgen of er een zwakke plek in een ontwerp zit die verholpen moet worden omdat hij voor voortijdige uitval kan zorgen.
Heb hier al ruim een jaar 2 WD30EFRX in mn Synology draaien (kantoor/dtp omgeving), maar geen van beide heeft nog een probleem gehad. Is het de moeite waard om contact op te nemen met WD over dit euvel gezien we wel echt afhankelijk zijn van de NAS voor de dagelijkse werkzaamheden?
Ik blijf toch redelijk sceptisch over dit soort onderzoeken. Het gevaar is namelijk dat consumenten zeggen: oh ik neem Hitachi want dat zijn de meest betrouwbare schijven. Terwijl een dergelijke uitspraak onwetenschappelijk is gezien de beperkte scope van het BackBlaze-onderzoek.

De grafiekjes zien er mooi uit. Maar je kunt ook zien dat er behoorlijk wat variatie zit tussen de vorige uitkomsten van begin dit jaar. Met name de 3TB schijven van Seagate en WD verschillen grofweg 50% met de vorige meting. Dat zijn wel heel drastische wijzigingen. Nu denk ik inderdaad wel dat de kwaliteit van de schijven die uit de fabriek rollen sterk kan verschillen gedurende de tijd, maar toch denk ik dat dit niet de enige verklaring is. Er zullen vast andere factoren zijn, zoals de beperkte en selectieve hoeveelheid samples die BackBlaze test. Als BackBlaze een batch schijven binnenkrijgt en die test, is dat meer een test van die betreffende batch, dan van de hele serie. Het beste zou natuurlijk zijn dat je schijven over de hele wereld willekeurig koopt en daar een groot onderzoek naar maakt.

Daarnaast is het zo dat deze schijven in een serveromgeving worden gebruikt en getest. Niet een consumentenomgeving waar de factoren heel anders liggen. Temperatuurvariatie, luchtvochtigheid, vibraties, duty cycle, fluctuaties van de genoemde factoren, you name it! In datacentra worden de schijven veelal 24/7 in een zeer stabiele omgeving gebruikt. Consumenten gebruiken hun hardeschijven op een totaal andere manier. Hierdoor zou het heel goed kunnen dat je ook heel andere resultaten krijgt als je een dergelijke test doet bij consumentengebruik versus gebruik van de schijven in datacentra.

Kortom, het is leuk om te zien, maar alleen op basis van dit, durf ik geen uitspraken te doen als 'Hitachi is het meest betrouwbaar' of 'WD is beter dan Seagate'. Contact opnemen met WD zal ook weinig uithalen.

Toevoeging: het BackBlaze-onderzoek kan wellicht wel worden gezien als afspiegeling van failure rates op de manier hoe BackBlaze de schijven gebruikt. Zo hoor ik ook dat BackBlaze de schijven in verticale positie gebruikt. Allemaal dit soort factoren kunnen sterk van invloed zijn op de uitvalpercentages. En consumentenschijven in een datacentrum gebruiken zal ook een heleboel factoren activeren waardoor je de uitkomsten van dit onderzoek niet zomaar 1:1 naar een consumentensituatie kunt vergelijken. Het wetenschappelijke principe van ceteris paribus is dat je dingen met elkaar vergelijkt waarbij er slechts één factor verschilt en alle andere factoren gelijk blijven. Pas dan kun je echt uitspraken doen. Kortom, dit onderzoek zegt vooral iets over hoe BackBlaze de schijven gebruikt, maar je kunt er weinig mee om te beoordelen welk merk of serie het in een consumentensituatie beter zal doen dan de ander.

[Reactie gewijzigd door CiPHER op 24 september 2014 20:50]

Hoezo beperkte scope? Met meer dan 30.000 disks die allemaal de hele dag exact dezelfde taak uitvoeren, lijkt me het onderzoekje toch uitermate representatief.

Het is in ieder geval eenduidiger dan 30.000 consumenten die allemaal 1 schijf thuis hebben in wisselende opstelling, temperatuur, I/O etc.
In mijn persoonlijk ervaring, zijn die cijfers vrij accuraat. Toch op gebied van Seagate hun prestaties.

Jaren met mix van schijven gewerkt ( en we spreken over sample basis van 10 a 15 schijven ) en als er iets opviel, was dat Seagate hun schijven vaker bad clusters vertoonde, dan mijn Hitachi schijven. Over de jaren spreken we over een sample basis van 30 schrijven ( ik cycli / upgrade regelmatig ), de goede worden verkocht, en de slechte worden gedumpt. En dat begon meer & meer op te vallen, dat Seagate het slecht deed, terwijl Hitachi hun schijven gewoon geen gebreken hadden.

Ik kan enkel uit de persoonlijk ervaring spreken, maar Seagate is een bagger merk op gebied van Harddisks.

Nu is wel het probleem dat Hitachi verkocht is aan Toshiba, en nu zoek ik persoonlijk specifiek op de exacte type code waaronder Hitachi werkte ( omdat deze dezelfde productie lijn is van de oude Hitachi schijven ). En om eerlijk te zijn, gewoon geen enkel probleem op te merken.

Je kan zeggen dat mijn sample basis klein is, maar dat is enkel de recente jaren. Als ik terugkijk op mijn volledige IT carrière ( wat een veel grotere sample basis is, omdat dit ook vanuit professioneel aspect veel meer sample omvat. Ik kan geen nummers geven, maar het zal gerust wel in de 1000+ lopen ), dan valt het op dat bepaalde merken, altijd terugkwamen als probleem merken.

Ergste vind ik persoonlijk als je bij Seagate hun schrijven terugstuurde onder garantie, en je kreeg zo een "refurbished" schijf terug. Vond ik maar troep, want je krijgt in praktijk een schrijf terug dat iemand anders al eens gedraaid heeft, en dat men gerepareerd heeft. Zou gij je data op zo een schrijf aanzien als veilig? Nee ... want in praktijk waren die "refurbished" schijven vaak de eerste dat vreemde kuren vertoonde ( of gewoon puur bad sectors kregen ). Als iets onder garantie is, verwacht je toch eigenlijk voor iets belangrijks als een harde schijf, dat je tenminste een nieuwe schijf krijgt nietwaar?

En dan is er gans die toestand, waarbij Seagate in de laatste jaren, meerdere malen hun garantie heeft teruggedrongen tot de puur wettelijke enkel garantie ( 7 naar 5 naar 3 naar 1 ). Dat zegt veel in mijn boekje. Ja, in Europa moeten ze 2 jaar respecteren, maar buiten Europa, pech ... 1 jaar garantie!! Nu ze zijn niet alleen ... Western Digital heeft ook dezelfde stoten uitgehaald, om hun meer dure "bedrijf" schijven te pushen, maar het is nog niet zo erg als bij Seagate. Noem deze verval van garantie, een gevolg van het feit dat er geen concurrentie meer is op de Harddisk markt.
Ook aardig om te vermelden is dat een waarschijnlijke reden waarom de Hitachi schijven het zo goed doen, is waarschijnlijk omdat die server schijven zijn, die verkochten worden aan consumenten.

Net zo iets als de i7 59x0x Haswell-E CPUs aan consumenten, maar dan een schijf met een SATA aansluiting ipv SAS.

En ben het met je eens, het betrekkelijk kleine Backblaze is niet echt een goede informatie bron, Google of andere grote jongens is veel interessanter, ook de RMA gegevens van Newegg bv zijn veel interessanter.
En ben het met je eens, het betrekkelijk kleine Backblaze is niet echt een goede informatie bron, Google of andere grote jongens is veel interessanter, ook de RMA gegevens van Newegg bv zijn veel interessanter.
Hmm ik weet niet:
Daarbij zijn 3846 34.881 schijven onderzocht.
Is toch geen klein aantal lijkt me. Zullen waarschijnlijk wel veel van één serie zijn, echter kun je hier wel een conclusie uit trekken! Het vorige onderzoek bestond uit ongeveer 30.000 schrijven. Welke ook concludeerde dat Hitachi betere schrijven maakte.
Natuurlijk moeten de percentages moeten met een korreltje zout worden genomen en de standaardafwijking is niet gegeven.

Wat me wel opvalt:
Een precieze reden waarom de 3TB-schijven van WD en Seagate relatief snel uitvallen, geeft Backblaze niet. Mogelijk zijn deze consumentenschijven niet goed bestand tegen plaatsing in een datacenter of het gaat fout bij het verwijderen van een schijf uit een externe usb-behuizing, zo speculeert het bedrijf
Dit vind ik raar :? . Koopt het bedrijf USB harde schijven in en zet deze in zijn eigen datacenter? Lijkt me toch een rare gang van zaken.
Edit Ok inderdaad vanuit kosten perspectief snap ik. Heb zelf ook ooit een USB harde schrijf gekocht, om vervolgens alleen de HDD te gebruiken. (was in januari 2012).

Trouwens doet dit ertoe?:
Ook aardig om te vermelden is dat een waarschijnlijke reden waarom de Hitachi schijven het zo goed doen, is waarschijnlijk omdat die server schijven zijn, die verkochten worden aan consumenten.
Zoals in de publicatie wordt aangegeven, zijn de kosten + garantie het belangrijkste. Blijkbaar kan Hitachi dure server schrijven aanbieden voor desktopprijzen.
Edit 2: typo's en verwijdering irrelevante zaken

[Reactie gewijzigd door Bliksem B op 24 september 2014 21:31]

Dit vind ik raar :? . Koopt het bedrijf USB harde schrijve in en zet deze in zijn eigen datacenter? Lijkt me toch een rare gang van zaken.
Vreemd inderdaad. Bij de meeste USB schijven kan dat trouwens niet eens meer, want de USB aansluiting zit tegenwoordig vaak gewoon op het moederboard van de schijf zelf (dus geen SATA schijf met losse SATA-USB bridge meer).

Een vriend van me heeft laatst nog flink op zijn neus gekeken toen hij dacht een goedkope 2TB hdd gevonden te hebben voor zijn laptop :+ Brak de behuizing open en.. shit! 8-)
Moest wel lachen toen een vriend en iemand anders dezelfde Freecom 320GB versies hadden, alleen bij 1 ging de printplaat stuk en de ander de schijf, hebben ze 1 werkende uit gemaakt en werkt volgens mij tot heden nog steeds :*)
Het is mogelijk om het printplaatje te vervangen door een printplaat van een andere drive, moet wel vergelijkbaar, maar nog liever hetzelfde, model zijn. Heb ik een keer gedaan toen de printplaat van mijn drive doorgebrand was :/ Wellicht is er een te vinden met SATA aansluiting.

Even bij de lokale computerzaak langswippen, vooral de wat kleinere zelfstandige bedrijven, hebben regelmatig schijven die blijven liggen, wie weet zit er een tussen.

Om het toch nog even ontopic te houden:
Zelf heb ik ook een Western Digital 3TB schijf, maar dan de Green edition (gaat de laptop iets langer mee :D). Heb hem al wel ruim 3 jaar (voor dat Thailand een wateroverschot had), en nergens last van gehad. Paar maanden later ook 2 WD Red editions in een NAS gezet, en ook nog nooit last mee gehad.
Ja ze kopen externe usb harde schijven met grote partijen in omdat dit het goedkoopste is. Vreemd is het niet, ze hebben gewoon enorm veel storage nodig en geen behoefte aan hoge performance of andere features die enterprise disken hebben.

Edit: ze plaatsen ze dan in deze behuizingen (link naar Backblaze blog)

Edit 2: link naar hun Secret Datacenter met 500 petabytes aan storage

[Reactie gewijzigd door andy88 op 24 september 2014 18:27]

Weet je nog? Overstromingen? Prijsstijgingen?
https://www.backblaze.com/blog/backblaze_drive_farming-2/

Daarnaast hebben ze 34.881 disks waarvan er dus 3846 Seagate Barracuda 7200.14
(ST3000DM001) zijn. Geeft even een ander beeld.
Van die 3846 is dus 15.7% uitgevallen en hebben deze disks een gemiddelde leeftijd van 1.9 jaar.
Van de Hitachi Deskstar 5K3000 (Hitachi HDS5C3030ALA630) (ook 3TB) hebben ze er 4593 en is 0.7% uitgevallen. De gemiddelde leeftijd is 2.1 jaar.
Het verschil i significant imho.
De reds zijn geen server schijven. Ze zijn met name bedoelt voor raid (nas) systemen vanwege de afhandeling van bad sectors onder andere. In raid systemen wil je dat de schijf direct rapporteert dat een sector rot is zodat het raid systeem hem kan herstellen.

Reguliere consumenten schijven blijven lange tijd proberen het probleem te corrigeren met als gevolg dat zo'n schijf vaak uit de raidset wordt gegooid en er hoge latencies ontstaan.
4000 schijven is niet echt bijzonder veel, als je na gaat dat het om:
  • Verschillende merken
  • Verschillende series
  • Verschillende versies van de zelfde schijf
  • Verschillende batches gaat.
Geluk speelt hier dus zeker geen ondergeschikte rol, daar in tegen reuzen als Google gebruiken veel meer HDDs, en bedrijven als Newegg leveren letterlijk alle type drives, inclusief verschillende versies en batches, in zeeeer grote aantallen.

En voor die 30.000 van de voorgaande survey geld het zelfde als wat in de financiële bijsluiter staat, "In het verleden behaalde resultaten zijn geen garantie voor de toekomst", de recenter de survey is des te relevanter het is voor je aankoopkeuze.
Koopt het bedrijf USB harde schrijve in en zet deze in zijn eigen datacenter? Lijkt me toch een rare gang van zaken.
Ja dat doen ze, heb ik zelf ook gedaan, maar uiteraard wel eerst de HDD uit de behuizing halen/slopen, en hem dan als een gewone interne HDD met SATA gebruiken.

[Reactie gewijzigd door player-x op 24 september 2014 18:26]

Ze proberen de goedkoopste schijven te kopen daarom kopen ze ook usb harddisks. Zie de blog. Maar daar staan ook foto's van ren achterbak van een auto vol met schrijven. Dus misschien is het daar fout gegaan..
Dit vind ik raar :? . Koopt het bedrijf USB harde schrijve in en zet deze in zijn eigen datacenter? Lijkt me toch een rare gang van zaken.
Dat had met Hardisk schaarste te maken toen met die overstroming https://www.backblaze.com/blog/backblaze_drive_farming-2/
Dit vind ik raar :? . Koopt het bedrijf USB harde schijven in en zet deze in zijn eigen datacenter? Lijkt me toch een rare gang van zaken.
Edit Ok inderdaad vanuit kosten perspectief snap ik. Heb zelf ook ooit een USB harde schrijf gekocht, om vervolgens alleen de HDD te gebruiken. (was in januari 2012).
Het gebruik van USB schijven hebben ze alleen gedaan na de overstromingen in ZO Azië. Toen gingen de prijzen bij webshops sneller omhoog dan in sommige winkels en hebben ze besloten winkels af te gaan on zogezegd te farmen. Nu kopen ze gewoon weer losse schijven omdat het teveel tijd kost om de USB behuizing te verwijderen.

Alle info daarover en het prijsverloop van schijven door de overstromingen destijds is ook allemaal op hun blog te vinden.

Het is knap hoe interessant ze hun blog kunnen maken met allerlei dit soort info. Je hebt als klant echt het idee dat ze hun best doen om voor jou de goedkoopste drives te scoren.
Met jouw eerste alinea ben ik het niet eens. De laatste 10 jaar heb ik honderden schijven verkocht waarvan een groot deel Hitachi consumentenschijven (Deskstar). Mijn ervaringen komen desondanks overeen met de hier bedoelde statistieken.
waarom sceptsich. Het zijn cijfers van een grote gebruiker die ze op internet zet.

Daarnaast als bijv seagate in een stabiele omgeving al slechter scoort zullen ze in een andere omgeving niet veel beter scoren.

Heb hier 2 seagate ST3000DM001 3gb schrijven heb draaien geen problemen mee gehad, geluk gehad misschien
3 WD1.5 tb schrijven waarvan 1 naar de klote.
Bij mij is het juist andersom, erg veel seagate schijven gehad die er mee kapte en nog geen enkele van wd. Al zal het vast wel zo zijn dat het niet echt te zeggen is welk merk nou echt beter is, komen ze (seagate) bij mij er niet meer in..
Mijn gevoel zegt dat de 3TB schijven die rond de overstroming van 2010 geproduceerd of verkocht werden echt wel bagger waren.
Ik heb mijn twee Seagates ST3000DM001 nog geen twee jaar geleden gekocht en ze zijn nog steeds bagger.
"Kortom, het is leuk om te zien, maar alleen op basis van dit, durf ik geen uitspraken te doen als 'Hitachi is het meest betrouwbaar' of 'WD is beter dan Seagate'. Contact opnemen met WD zal ook weinig uithalen."

Dit kan vrijwel als de waarheid gezien worden, een Hitachi schijf heeft in generaal een beter MBTF en meer garantie, dus kwalitatief zijn deze veel beter dan WD en Seagate. Garantie is ook een groot voordeel.

Uiteraard als je de cijfers bekijkt dat is gelijk ook weer een basis.
Klopt. De onfortuinlijke Seagate ST3000DM001 waarvan sprake heeft twee jaar garantie. De 4 TB versie van deze schijf heeft al 3 jaar garantie als ik mij niet vergis. Dit zegt ook al veel. De WD Greens hebben trouwens ook maar twee jaar garantie.
Deze week gaan twee ST3000DM001 van seagate schijven voor garantie. dat is dus nummer 3 en 4 die stuk gegaan zijn. Ik heb nu al mijn NAS schijven laten repareren. Ongeveer 75% failure rate de eerste schijf was een DOA dus dat is iets anders maar toch super slechte schijven ben nu overgestapt naar de NAS versie van de seagate omdat ik exact dezelfde maat nodig heb. Maar wat een bagger schijven.
Hier net voor de zomer alle oorspronkelijke 5 x 2TB Seagates (ST32000542AS) welke in de Synology DS1511+ zaten vervangen voor 2TB WD Reds. Opvallend na het verwisselen van disk 3, een schijf die eerder ter vervanging was gegeven bleek na het testen behoorlijke sector fouten te bevatten. Deze stamt uit 2012 (dus na de overstromingen).

Gelukkig geen dataverlies, RAID5, plus het feit dat ik een halfjaar eerder de uitbreidings unit DX513 eraan heb gekoppeld. Voor het één voor één vervangen van de disks, alle shares hier naar toe verplaatst van waarde. In de DX513 ook alleen maar (5) WD RED's van 2TB geplaatst.
Wetenschappelijk of niet, de uitkomsten komen "toevallig" precies overeen met de ervaring (met grotendeels consumentenschijven, ook die van Hitachi) die ik heb. Volgorde van uitval van goed naar slecht in mijn ervaring over honderden schijven gedurende 10 jaar is namelijk als volgt:

Hitachi

WD
Seagate
Samsung


Maxtor
Quantum
Dit onderzoek staaft anders wel heel goed de bevindingen met mijn Seagate ST3000DM001(jaja, ongelukkige eigenaar) en ik ben heel blij dat Backblaze deze informatie naar buiten brengt. En @ Player-X: Dit onderzoek bevestigt de gebruikerreviews op bijv. Newegg, Alternate(.be,. nl,. de) en Amazon. Daar kan je zien dat het uitvalspercentage van 3TB schijven veel groter is dan van 2 TB schijven.(de Seagate ST3000DM001, WD Green 3 TB, de WD Red 3 TB doet het trouwens goed, dus dit resultaat van Backblaze verbaast mij wel).

Nu besef ik heel goed dat de omstandigheden ie datacenter heel anders zijn dan thuis in je pc. De temperaturen zijn hoger en je hebt ook veel meer trillingen vd andere schijven. Maar in mn pc heb ik de Seagate schijf juist een bay boven mijn oudere WD Blue 640 GB hangen. De Seagate ondervindt dus ook vibraties vd WD en dat kan ook een nadelige invloed hebben, zij het in mindere mate dan ie datacenter.

Mijn eerste Seagate 3 TB heb ik moeten terugsturen met 3 end to end errors. Die errors treden altijd op als ik een groot bestand ah downloaden ben en tegelijk nog een spel ah spelen dat op de schijf geïnstalleerd is, kortom dus als de schijf veel data moet verwerken. De schijf wordt dan niet meer door Windows herkend en heropstarten lost dit probleem op. Mijn tweede Seagate 3 TB heeft juist hetzelfde probleem: ik heb ook weeral een end to end error(ook veel sata errors trouwens, maar HDTune markeert dit niet als ernstig probleem).

In ieder geval toont dit onderzoek aan dat de fabricatienormen van Seagate bij hun consumenten hdd's lager liggen dan van WD en Hitachi en daaruit kan je wel de conclusie trekken dat WD betrouwbaarder is dan Seagate en Hitachi de betrouwbaarste is(wat trouwens ook al uit een ander onderzoek naar boven gekomen is, ik weet niet meer juist hetwelke). En dat er iets inherent mis met de 3 TB schijven bij alle twee de fabrikanten(ih bijzonder de ST3000DM001). Als ik mijn tweede Seagate 3 TB schijf moet terugsturen(want dat zit eraan te komen) ga ik zeer zeker rekening houden met de informatie uit dit onderzoek en niet meer inruilen voor een 3 TB schijf maar voor een van 4 TB want de kans is anders groot dat ik weer een defecte 3 TB schijf ga krijgen. Je kan trouwens zien id gebruikersreviews dat de 4 TB Seagate desktop schijf veel minder uitval heeft. Dat die schijf slechts op 5900 tpm draait zal er ook wel mee te maken hebben.

En Cipher, jij vindt dit onderzoek niet relevant voor de thuisgebruiker, maar zeg dit eens aan alle consumenten die hun 3 TB schijf rma hebben moeten sturen en de problemen die je daarbij ondervindt. Die vinden dit onderzoek wel zeer zeker interessant

[Reactie gewijzigd door Fredi op 25 september 2014 05:13]

Daarbij zijn 3846 schijven onderzocht. Dat noem ik toch echt geen batch meer. Dat is een behoorlijke hoeveelheid.

Wat ik dan wel meer met je eens ben, is dat consumenten schijven inderdaad in hele andere omgevingen worden gebruikt. Misschien als je de harde schijven zou testen in die omgevingen, je misschien nog wel meer uitval zou hebben.

Ook je uitspraak dat mensen geneigd zijn over te stappen op Hitachi kan ik begrijpen. Dat was namelijk ook mijn eerste reactie. Ow, die werken beter… Prima, stap ik toch over op dat merk.
Is het de moeite waard om contact op te nemen met WD over dit euvel
Als je echt zo afhankelijk bent van je NAS dan heb je een fatsoenlijke RAID configuratie draaien met minimaal één hot spare en nog een of twee schijven op voorraad liggen in een kast. Daarbij / daarbovenop heb je natuurlijk nog gewoon een fatsoenlijke recente, en regelmatig terugkerende, geverifieerde backup.

Sure, je kunt WD bellen, maar omdat 't uitvalpercentage 'wat hoog' ligt wil niet meteen zeggen dat ze daarom maar zomaar alles gratis en voor nop gaan omruilen (of je moet al een SLA met ze hebben ofzo). Tenzij ze een terugroepactie gaan doen is 't dus gewoon afwachten. En vooral, maar dat is 't altijd, gewoon je/jullie eigen verantwoordelijkheid. Een schijf kan er altijd mee kappen, ongeacht 't uitvalpercentage over een hele serie.

@hieronder:
Of beter, externe en interne backups!
Ook wel "onsite" en "offsite" ;) Uiteraard, dat versta ik onder een fatsoenlijke backup.

[Reactie gewijzigd door RobIII op 24 september 2014 17:32]

Onder een fatsoenlijke RAID-configuratie valt ook het spreiden van risico's door meerdere merken en/of series schijven te gebruiken. Dat leer je wel nadat je een RAID met een stapeltje IBM Deathstars hebt zien stukgaan.
Hoe moet ik me dat voorstellen? Harde schijf 1 van WD en harde schijf 2 van Seagate ouzo?

Volgens de test presteren ze allebei ondermaats, en de een net iets meer dan de ander.

[Reactie gewijzigd door WhizzKid-Eddy op 25 september 2014 18:55]

Ja, bijvoorbeeld. Of als je ze om een of andere reden van hetzelfde merk en hetzelfde type neemt, zorg je dat er op zijn minst verschil in de productiedatum en het traject van fabriek naar jou toe zit.

Ondermaats of niet, wat je in een RAID wilt doen, is voorkomen dat de schijven tegelijk of binnen zeer korte tijd van elkaar falen. Er moet tijd zijn omhet defect te constateren, de schijf te vervangen en de array te rebuilden voordat de andere schijf of schijven stukgaan.
Of beter, externe en interne backups!
In een NAS staan ze in RAID (1), neem ik aan? Dan is uitval meestal geen probleem, gewoon bij uitval snel vervangen en data laten rebuilden. Als je geen RAID (of RAID-0) gebruikt voor critische applicaties ben je dom bezig.
Koop voor de zekerheid alvast een reserve, hoef je niet eens te wachten tot de winkel open is... De kapotte kun je dan eventueel garantie op claimen als hij niet te oud is en dan weer op de plank leggen als reserve. Heb er zelf trouwens ook redelijk wat (twee wat grotere Synology's vol), en tot nu toe geen problemen.
Heb je dan wel een Extended SMART test aangemaakt in the Storage manager die minstens 1x per maand alle disken checkt?

Deze optie stond hier default niet aan en toen ik dit aanzetten kwam ik erachter dat mijn 2x 2TB WD Greens daarna niet meer te vertrouwen waren, tig sector errors en de status was metten FAIL... tot dan was de status altijd GOED geweest...

Erg jammer dat ik er zo achter moest komen dat er standaard geen check was op alle sectors en dat de 2 disken net uit de 3 jaar garantie waren
Als je er echt afhankelijk van bent zul je waarschijnlijk ook wel een dagelijkse backup van de NAS hebben. En heb je een reserve schijf op de plank liggen zodat je snel verder kunt.

Dus is er geen echt probleem. Iedere schijf kan en gaat stuk, daar moet je gewoon rekening mee houden.
Daarom heb je toch backups? :)
Ik heb net een 2 jaar oude Seagate ST3000DM001 kapot in mijn Synology er zit er nog een in en die gaat er gauw uit. Dus onzin is t allemaal niet. Hij stopte ermee terwijl in Frankrijk was op vakantie en naar mijn muziek van de Syno via internet zat te luisteren.
Ikzelf heb ook een WD30EFRX, en nog nooit problemen gehad overigens. Nu valt het merendeel natuurlijk niet uit, maar toch maak ik me na dit bericht wel zorgen. Betreft dit uitval 'na verloop van tijd', of juist uitval van nieuwe schijven? of uitval bij bepaald gebruik? Is er behalve backuppen nog iets wat ik zelf kan doen om problemen te voorkomen? of is er een manier waarop ik kan testen en problemen 'vroegtijdig' kan herkennen?

Van Tweakers verwacht ik eigenlijk wel iets meer dan alleen een uitval statistiekje. Een klein stukje analyze en advies ontbreekt in dit artikel.
Backblaze heeft eerder dit jaar een veel uitgebreider document geschreven. Daarin beschrijven ze dat de meeste harddisks uitvallen kort na ingebruikname, of pas na 3 jaar draaien.
Linkje: https://www.backblaze.com/blog/how-long-do-disk-drives-last/
Gerelateerd artikel: https://www.backblaze.com/blog/what-hard-drive-should-i-buy/
Dit is ook geen review van Tweakers zelf, maar een nieuwsartikel over een onderzoek van derden.

Daarom vind ik het wel logisch dat ze het niet helemaal geanalyseerd hebben, ze hebben de bron data ook niet.
"Mogelijk zijn deze consumentenschijven niet goed bestand tegen plaatsing in een datacenter"

Er worden dus consumentenschijven getest onder datacenter omstandigheden. Lekker betrouwbare data heb je dan.

Overigens heb ik twee 2TB WD schijven een 4TB WD schijf en nog nooit problemen gehad.
Dan heb je zeker betrouwbare data, voor deze situatie. Tevens geven ze aan dat enterpise schijven geen hogere of lagere failrate hebben. Waarom zou je ze uberhaupt kopen dan?
Het is al weer 2 jaar geleden dus vergeef me dat ik een beetje te vaag blijf...:

Er zit bepaalde functionaliteit in de firmware die nodig is voor het draaien van schijven in raid arrays. Deze firmware functionaliteit is een aantal jaren geleden bij de meeste fabrikanten (lees Seagate en Western Digital) uit de firmware gesloopt. In de WD Red serie zit deze firmware dan weer wel.

Hierdoor kunnen de fabrikanten meer vragen voor een functionaliteit die vroeger bij elke schijf aanwezig was. Dit resulteerde dan ook in een kleine explosie van harde schijf defect problemen op tweakers (van tweakers die de consumenten schijven dus wel in raid gooien).

Er is vast een tweaker die hier meer verstand van heeft en de exacte benaming van dit probleem kan formuleren...

In ieder geval is het dan ook minder vreemd dat dit bedrijf bij hun cloud platform problemen gaat krijgen met hun schijven.

edit: Kleine update. De functionaliteit heet TLER: time limited error recovery. Die zit dus niet op een Western Digital Green, en wel op Red.

Van de wiki
In computing, error recovery control (ERC) (Western Digital: time-limited error recovery (TLER), Samsung/Hitachi: command completion time limit (CCTL)) is a feature of hard disks which allow a system administrator to configure the amount of time a drive's firmware is allowed to spend recovering from a read or write error. Limiting the recovery time allows for improved error handling in a hardware RAID environment. In some cases, there is a conflict as to whether error handling should be undertaken by the hard drive or by the hardware RAID controller, which leads to drives being marked as unusable and significant performance degradation, when this could otherwise have been avoided.
Het slopen van TLER begon in 2009: http://forums.hexus.net/t...ads-cant-enable-tler.html

[Reactie gewijzigd door sdk1985 op 24 september 2014 23:27]

Het gaat er om dat een schijf een lees- of schrijffout onmiddellijk rapporteert in plaats van herhaalde pogingen te doen, zodat het aan de raid is om te beslissen het opnieuw te proberen dan wel een andere oplossing te zoeken (de gegevens zijn immers redundant aanwezig). Herhaalt de schijf zijn pogingen te lang dan denkt de raid dat de schijf kapot is en rapporteert dat; dat willen we niet.
Er zou inderdaad geen reden zijn om enterprise boven consumer drives te verkiezen als ze daadwerkelijk een vergelijkbare failure rate hebben onder dezelfde omstandigheden. Als je in de bron even doorklikt kom je bij deze pagina waarop duidelijk te zien is dat de sample size van enterprise drives vele malen kleiner is dan consumer drives, en dat ze onder andere omstandigheden opereren. Ik quote:

"The enterprise drives are used heavily. The consumer drives are in continual use storing users’ updated files and they are up and running all the time, but the usage is lighter. On the other hand, the enterprise drives we have are coddled in well-ventilated low-vibration enclosures, while the consumer drives are in Backblaze Storage Pods, which do have a fair amount of vibration."

Naar mijn mening kun je dan al geen conclusies meer trekken maar Backblaze doet dat wel.

[Reactie gewijzigd door Xyrr op 24 september 2014 17:58]

Google had ooit een wereldberoemde paper die concludeerde dat MTBF cijfers van fabrikanten niet correct zijn en dat enterprise en desktop schijven een gelijkaardige failure rate hadden. Storagemojo heeft dit gemakkelijkshalve gecondenseerd voor de geinteresseerden met weinig tijd: http://storagemojo.com/20...now-about-disks-is-wrong/.
Consumentendrives hebben het ook in de praktijk zwaarder dan enterprise drives met hun omgeving:

Denk aan stof, schokken door het optillen van drives tijdens werking, tegen PC kast/tafel stoten, slecht geventileerde PC's/externe behuizingen. Vervoer, enz. Regelmatig spin-ups/downs (ook door de slaapstand die enterprise drives niet hebben). Aanraking zonder ESD protectie.

Enterprise drives zitten stevig vastgeschroefd in stevige server behuizingen met goed uitgedachte airflow, zitten achter de stofvrije aircon, worden zelden aangeraakt en dan alleen door professionals, en kunnen ongestoord hun werk doen. Wel hebben ze veel zwaarder werk te doen.

Dus eigenlijk dezelfde omstandigheden als bij Backblaze.

Overigens hebben ze bij ons in het DC ook consumenten drives voor de archief storage. Je ziet dat steeds vaker in plaats van taperobots. We hebben hier alleen nog tapes voor de backups (dus niet voor online archivering van oude files)

[Reactie gewijzigd door GekkePrutser op 24 september 2014 19:05]

Ik vraag me dan altijd af wat er mis is met het plaatsen van consumentenschijven in een server/datacenter? Een consumentenschijf moet het toch ook gewoon aankunnen om onder een bepaalde temperatuur en volledige belasting te blijven functioneren? Je kan een harde schijf moeilijk overbelasten naar mijn mening. Hij gaat tenslotte niet harder draaien bij hogere belasting of iets dergelijks.
Een hardeschijf overbelasten is inderdaad lastig, maar consumentenschijven zijn simpelweg niet gemaakt voor 24/7 gebruik. Desondanks vind ik het prima dat datacenters consumentenschijven gebruiken, en ik snap ook wel dat dat kosteneffectief is, maar ga dan niet dit soort cijfers publiceren. Als je in de bron kijkt zie je dat in geval van WD zowel Red als Green schijven zijn gebruikt, van verschillende capaciteiten. Hoewel ik van de andere merken de types niet weet zal het vast niet veel anders zijn. Je krijgt dan gewoon hele scheve statistieken, helemaal als je vervolgens de types doet verdwijnen en stelt dat 3TB's minder betrouwbaar zijn dan 1TB's terwijl er behalve de capaciteit nog andere verschillen zijn. Het is appels met peren vergelijken, en de conclusie in bananen trekken.
consumentenschijven zijn simpelweg niet gemaakt voor 24/7 gebruik.
Dit is weeral die typische fable dat men zit rond te vertellen. Kwa mechanische opbouw zijn die bedrijf schijven 100% identiek aan de consumenten schijven. Ze komen van identiek dezelfde productie band.

Het grote verschil is:

a) Ze draaien een andere firmware ( vaak met de Raid support dat ze tegenwoordig uit de consumenten schijven gesloopt hebben )
b) Ze worden langer getest dan de "consumenten" schijven
c) Ze krijgen een langere garantie

En daar stopt de verschillen en begint de beduidende hogere prijs. Ik zie soms de exact zelfde toestand bij bepaald consumenten producten zoals ijskasten enz, waar je goedkoop merk X hebt, en soms 5 meter verder, een identiek zelfde toestel van bekend merk Z ( natuurlijk 25% duurder ). En de enige verschillen zijn vaak merk, extra's ( zoals extra inlegger voor oven ), en soms de front. Maar de boel onder de kast, is gewoon hetzelfde product. Goedkoper om alles in één fabriek te draaien en ander merkt op te plakken met een andere front, dan 2 productie lijnen te hebben.

Harddisks is hetzelfde potje nat, met die consumenten en bedrijf schijven.
Het tricky gedeelte daarvan is dat jouw uitspraak soms waar is en soms niet, en dat je niet altijd makkelijk kunt zien wanneer hij wel of niet waar is.

Een uitgebreide teardown kan noodzakelijk zijn (denk aan de oliekanalen en zuigerbodems in een automotor die in meerdere vermogensversies te koop is en waar het oppervlakkige verschil ook alleen maar de firmware is), en soms zie je het alleen maar als je de fabrieksspecs van gebruikte onderdelen opzoekt. Bij een koelkast vaak nog te doen (maar dat ze roestgrage ijzeren pijpjes gebruikt hebben en vervolgens dik ingepurd, dat weet je pas als hij na 5 jaar opeens niet meer koelt), bij een harde schijf vaak niet.

Maar als de schijven precies hetzelfde geconstrueerd zijn, waarom dan puntje b) ze worden langer getest. Dat heeft dan toch geen enkele zin?

[Reactie gewijzigd door mae-t.net op 25 september 2014 00:59]

mae-t.net:

Puntje (b) van het langer testen, voor de bedrijf schijven is redelijk simpel. Voor een bedrijf schijf moeten ze een zeker betrouwbaarheid aantonen.

Als je een schijf draait, dat heb je 3 manieren dat ze sterft:

a) Ze komt kapot aan
b) Ze gaat kapot binnen de paar weken
c) Ze gaat pas kapot na 3 jaar+

Door een langere test procedure uit te voeren, doen ze wat we simpel kunnen noemen, een burn-in ... ze elimineren punt (b), en reduceren punt (a). Maar een langere test uit te voeren, kost tijd = hogere kost. En time is money, zo dus voor de consumenten schijven is die test simpeler / sneller.

-------------

Op gebied van teardown, heb je gelijk. Soms zijn er verschillen. Het probleem is zoals ik zei, dat die verschillen vaak minimaal zijn. Je moet natuurlijk een beetje gezond verstand gebruiken. Koop je iets waar men makkelijker spullen kan veranderen om het goedkoper te maken, dan is er idd een hogere risico. Je moet denken zoals een bedrijf:

Is de potentiële tijd / kost om de productie lijn af te splitsen het waard vs de winst dat je eruit haalt door goedkopere onderdelen te gebruiken. Vaak, en echt vaak, is het de moeite niet voor hun.

Tegenwoordig is alles zo op massa productie gebaseerd dat het de moeite niet waard is, om meerdere productie lijnen te hebben. Je zou verbaast zijn, hoeveel spullen eigenlijk nog gemaakt worden. Wat ik bedoel daarmee, je koopt een CDRom / writer / whatever .. dom voorbeeld.Je hebt een dozijn merken. Doe dat ding open, en vergelijk dat met een aantal andere merken, dan vind je vaak dezelfde onderdelen erin, tot vaak dat de boel erin identiek is ( soms door één fabriek gemaakt, en verkocht aan dozijn merken, ieder met hun eigen prijs natuurlijk. En enige echte verschil is vaak de firmware ).
Nou, je hebt wel meer dan een dozijn merken. Ik zou eerder zeggen een dozijn fabrikanten, die elk voor minstens een dozijn merken produceren. En daar loont het gezien de grote getallen per merk ook echt nog om behalve de firmware ook andere kleine verschillen aan te brengen al zullen de meeste merken een "off the shelf" model bestellen.

Ook op de monitormarkt die door slechts twee fabrikanten gedomineerd wordt, zijn nog wel meer dan 12 echte fabrikanten te vinden.

Wat de massaproductie betreft, als je met tegenwoordig de laatste 100 jaar bedoelt heb je zonder meer gelijk ;) OEM-productie is vooral de laatste 40 jaar sterk gegroeid maar kwam ook voor die tijd op zijn minst in de consumentenelectronica al voor.

Maar dat is verder allemaal haarkloverij op details. Wat jij beschrijft klopt grotendeels en zal hooguit in de nuances wat kort door de bocht zijn.
Het verschil zit hem in trillingen en temperaturen. Beide zijn enorm slecht voor een HDD. Als je er een paar in een computerkast hebt zitten, kan dat geen kwaad (zoveel warmte en trillingen produceert één HDD niet). Maar als je 100'en HDD's dicht op elkaar in één kast steekt, gaan de HDD's de hele kast doen trillen en opwarmen, wat natuurlijk de levensduur van die HDD's enorm verkleind.
Je kunt een harde schijf zeker wel overbelasten. Ga maar eens meerdere bestanden tegelijkertijd kopieëeren en ondertussen defragmenteren en utorrent met een zooi up/downloads draaien. Dat zorgt voor veel meer belasting op de koppen dan normaal.
Met dat verschil dat het hier vooral om de uitval van 3 TB schijven gaat. |:(
Ik was een paar weken geleden net in de markt voor wat nieuwe mechanische opslag en stuitte ook op de statistieken van Backblaze, daarom ben ik uiteindelijk ook voor een 2TB Hitachi drive gegaan.

Failure rates van 12% zijn in mijn ogen totaal niet acceptabel. Heeft iemand echter een idee hoe deze worden veroorzaakt? Ligt het aan het steeds hogere aantal platters dat in de drives wordt gebruikt of is dit ook deels te danken aan slecht geschreven firmware o.i.d.?
Zolang je garantie hebt is er niks aan de hand, dan is 12% echt niet veel.
In mijn ervaring gaat een schijf of ineens stuk (door slechte koeling) of vrij snel na de eerste performance problemen, zelfs als SMART nog goed is kan je al wel zien aan de reallocated sectors dat er iets niet goed gaat komen.

[Reactie gewijzigd door Soldaatje op 24 september 2014 18:47]

Garantie is waardeloos Soldaatje, want je krijgt vaak een refurbished schijf. M.a.w, je krijgt een schijf van iemand anders dat "kapot" was, dat ze snel getest / gerepareerd hebben, en god weet hoe lang die schijf gebruikt / misbruikt was. In mijn ervaring, gaan die garantie schijven vaak niet lang mee ( en wat ik lees van andere mensen hier bevestigd dit nogmaals ).

Tweede punt, 12% is extreem hoog... zou gij aanvaarden dat 12% van de tijd je auto uitvalt? Nee ... en we spreken over data hier! Vergeten een backup te maken, en je bent soms data kwijt dat je nooit meer kan terugzien. Je vakantie foto's kwijt dat je juist vorige week op de schijf gezet hebt. En je wekelijkse backup cronjob heeft nog niet gedraaid. Wat nu? Kwijt is kwijt...

De eerste stap voor goede data is niet backups hebben, maar betrouwbare schijven. Een backup moet zoals de naam het zegt, een backup voor nood. Niet iets dat je verwacht te gaan gebruiken ieder jaar.

En ja, slechte koeling heeft een klein effect, maar de echte boosdoener is wat ik vaak zag ( toch bij bad clusters ): Vibraties!! En schijven met slechte opbouw / slechte kwaliteit controle, zijn veel meer onderhevig daaraan.
Vibraties idd, ik treed je daar bij. Mijn Seagate ST3000DM001 trilt dat het een lieve lust is en laat mijn kast zelfs meeresoneren. Kan niet gezond zijn op de lange duur voor die schijf. Ik heb er zelfs twee kasten voor teruggestuurd(ik had juist een nieuwe kast gekocht en dacht dat het aan de slechte constructie vd kast lag), een FD R4 zelfs, zeer stevige kast. Blijkt dat het uiteindelijk toch ad schijf zelf ligt.
Je kan dat tril probleem beperken door:

a) met kasten te werken dat rubber gebruiken
b) als je meerder hd's hebt ( dan krijg je vaak resonantie trillingen ), is deze in slaapstand te zetten, en je data zodanig te verdelen dat je enkel één hd veel gebruikt.
c) hangt beetje samen met (b) je veel gebruikte data op een SSD steken, en je statisch data puur op HD's.

Zeker als je meerder schijven steken hebt, dan gaan die dingen tegen elkaar op resoneren. En ventilators helpen ook niet, zeker als ze snel zitten te draaien. Beste is je systeem te voorzien als een "energie" efficiënt setup, waarbij de warmte uitstoot beperkt word ( = traag draaiden ventilators ). Slim kopen, deftige configureren, enz ...

Heb een power systeem ( zware cpu, dual sli, enz enz ) maar je hoort in idle het bijna het niet draaien. Gevolg is ook = trillingen van ventilators is er ook bijna niet.
Ik heb 10 WD Reds 3TB van toen ze net uit kwamen. Na een jaar 1 stuk, dus dat is niet direct. De rest doen het nog prima 24x7.
Omruilen ging overigens probleemloos.
Voor alsnog lijk ik dan goed weg te komen. Heb nu 3x ST3000DM001 draaien in een 24/7 configuratie en nog geen enkel probleem gelukkig mogen ontdekken. En dat terwijl ik bij aanschaf nog twijfelde of ik niet de XT-disks moest nemen... |:(
Ik heb vijf van deze schijven gehad, waarvan er drie(!) zijn overleden. Zie ook mijn productreview op productreview: Seagate Desktop HDD, 3TB review door [ti] -- check even of je Chinese of Thaise versie van de disk hebt. De Chinese versie heeft (volgens verschillende fora, en ook mijn ervaring) een bijzonder hoog uitval percentage.
Ik moet ook zeggen dat er bij mij in de eerste twee maanden drie van dit type overleden zijn. Ze zijn onder garantie vervangen en draaien nu al bijna twee jaar probleemloos.
Dat had ik inderdaad voor aanschaf al nagekeken, en het is 3x Thai (anders had ik er ook niet voor gekozen; de verhalen erover gaan al een tijdje rond). Misschien binnenkort toch maar eens langzaam nieuwe disks erin gaan zetten. Ik loop inmiddels alweer tegen capaciteitsproblemen aan, dus misschien 1x6TB erbij +1x 3TB als stand-alone, en dan 2x 3TB in Raid 1. Zo heb ik dan alleen 1x 3TB die relatief onbetrouwbaar is, met een netto winst van 3TB
Hier zijn er binnen twee jaar 8 van de 6 defect geweest. 8 van de 6? Ja, eerst twee defecte schijven en na 1,5 jaar alle 6 (inclusief de twee certified repaired schijven) defect. Aangezien dit onacceptabel is heb ik deze ingeruild voor reds.

De WD's hebben het probleem dat ze de heads te snel parkeren, dit is met een dos utility uit te schakelen waardoor ze opeens veel langer meegaan. Kijk met SMART even naar de load cycles van je WD greens of reds en je zal zien dat die veel hoger liggen. Even zoeken naar de wdidle tool en je vind veel informatie.
Ik heb er een ST3000DM001 3TB die zonder problemen werkte, totdat ik besloot mijn Bitcoin QT full client erop te zetten, na één dag gelijk een probleem. Client weer op een andere schijf gezet en alles werkt weer goed.

Het lijkt erop dat de Seagates niet bestand zijn tegen veel schijf en leesacties, hoe klein die ook mogen zijn.
Juist kleine lees/schrijf bewerkingen zou ik eerder dan ook op SSD doen vanwege performance. Het is niet geweldig voor je SSD, maar het draait wel een paar jaar door; tegen de tijd dat er problemen komen is ie toch al wel afgeschreven.
Dat is zo, maar Bitcoin neemt nu meer dan 25Gb in beslag en dat hakt er dus aardig op in op een SSD.

Toch zou een HD dit soort regelmatige lees- en schijfacties zonder problemen moeten kunnen uitvoeren, er zit niet voor niks cache op.
Misschien een hybride disk een oplossing? Best of both worlds in dat opzicht
De oplossing was in dit geval een WD Green (nota bene) schijf gebruiken die dit probleem blijkbaar niet heeft.

De laatste schijf die ik had aangeschaft was inderdaad al een Hitachi, want dit bericht is bepaald geen nieuws maar een voortzetting van een trend.

Hitachi heeft echter als nadeel wel het hoger stroom verbruik en bijbehorende temperatuur, wellicht dat de problemen bij WD en Seagate ook iets met bepaalde powersaving functies te maken heeft.

[Reactie gewijzigd door fevenhuis op 25 september 2014 07:29]

Idd, heb zelfde ervaring met mijn Seagate ST3000DM001. Bij groot bestand downloaden + game spelen vanop schijf resulteert in end to end error.
Laat me je een goede tip geven, als je ene 24/7 configuratie draait, voor data schijven ... draai de schijven niet constant als ze niet gebruikt worden.

Ik ben nu al een paar jaar van dat idee afgestapt, en de beste manier om je schijven te sparen, is ze in slaap te laten gaan. Je moet je data zo indelen, dat je niet actieve data op "data schijven" staat, en dat je enkel je frequent aangepast data op andere schijven staat.

Gevolg is dat:

a) je spaart heel wat energie uit
b) je spaart de schijven uit, want ze slijten niet meer zo snel
c) minder warmte in je systeem ( beter voor al je componenten )

En als je Raid wilt draaien, raad ik aan weg te gaan van raid, en naar een systeem te gaan zoals uRaid, of andere partition based raid ( waar je wel je schrijven kan doen inslapen ), en je moet niet pvd alle schrijven moet opstarten / accessen in je raid, gewoon voor 1 dom bestand te kunnen aanpassen.

Noem het jaren van ervaring met het draaien van bepaalde "speciale" setup's *lol*
Daar gaan we te zijner tijd dan maar eens induiken om te zien wat het handigst is. Voorlopig heb ik het nog even druk met de DVB-C omgeving netjes te implementeren :)
Zo te zien wordt mijn volgende hdd van hitachi
Zo te zien wordt mijn volgende hdd van hitachi
Western Digital heeft de Hitachi 3.5 inch hdd fabriek aan Toshiba verkocht dus je moet nu Toshiba hebben :) want dat zijn hitachi schijven met Toshiba sticker :P
Zover dat ik weet is HGST (Hitachi) nu onderdeel van WD, als je op hun site kijkt staat er ook: A Western Digital company

Bron: http://www.hgst.com/
Bron 2: https://en.wikipedia.org/wiki/HGST_Deskstar
The Deskstar is the name of a product line of computer hard drives. It was originally announced by IBM in October 1994.[1] The line was continued by Hitachi when in 2003 it bought IBM's hard drive division and renamed it HGST (Hitachi Global Storage Technologies). In 2012 Hitachi sold the division to Western Digital who continued the brand and product line.

The unreliable Deskstar 75GXP product became notorious as the "Deathstar" (only one of at least twenty IBM products in the Deskstar family)

The last of the Deskstar products produced under the IBM name was the 180GXP; the first was the DALA-3540[1]

HGST continued the product line after the acquisition, selling the Deskstar 120GXP and Deskstar 180GXP under its brand for a short time and selling new models thereafter.
Toshiba heeft nu OCZ en Seagate heeft Maxtor & Samsung
They purchased Maxtor in 2006 and Samsung HDD business in 2011.
Bron: https://en.wikipedia.org/wiki/Seagate_Technology
In January 2014, Toshiba completed its acquisition of OCZ Storage Solutions.
Bron: https://en.wikipedia.org/wiki/Toshiba
die Samsung tak maakte voornamelijk schijven gebaseerd op Hitachi/IBM patenten, en toshiba heeft ook een platter fabriek over genomen in china/thailand.
Aha oké, dank voor de reactie en verduidelijking!

Verder is een failure rate boven de 10% gewoon absurd te noemen (of een rate die er dicht op zit), zulke zou ik gewoon niet aanschaffen.

Daarbij altijd handig eerst de HDD die je koopt te checken op sector errors en dat soort dingen alvorens hem te gebruiken, moet hij RMA dan staat waarschijnlijk je data erop en als je het niet kan wipen word je er niet blij van.

Verder gebruik ik hier zelf een 4TB 7K4000 Deskstar in gebruik, zalige schijf naar mijn mening tot dusver, geen problemen en loopt nu een maand of 10 met 338 inschakelingen & 3969 uren.

De HD103SJ van Samsung is ook een fijne schijf, sinds eind 2010 in gebruik, eerst als OS nu als game schijf, omdat er nu een SSD bij zit, dit was na aanleiding van dat de Samsung ineens een paar onstabiele sectoren had en soms het OS liet vastlopen.

Raar genoeg zijn die errors in de S.M.A.R.T weer verdwenen en loopt hij weer feilloos, al is er recentelijk de eerste Calibration Retry Count & Load/Unload retry count registreert, maar de schijf loopt nog gewoon met 4144 inschakelingen & 19634 uren.
Moet er wel bij zeggen dat deze specifieke schijf al veel mishandeld is met veel transport in de auto + problematische POST's op het oude P6X58D Premium moederbord, waardoor er wel duizenden resets van het systeem zijn geweest om hem geboot te krijgen, waar de HDD elke keer een opdonder van kreeg.

Heb hier overigens ook nog een WD 10EAVS 1TB externe schijf liggen, welke een Green is, maar die had al een onstabiele sector binnen de 100 inschakelingen en 2000~ uren, die is overigens ook weer weg, maar erg vertrouw ik die niet, ook een vriend, en een vriend van hem hadden precies dezelfde en zijn allebei dood.

Andere vriend met een WD Passport 500GB was ook binnen een half jaar kapot, terwijl ik zelf een Freecom 250GB gebruik met een Samsung schijfje sinds 2008.
Altijd dagelijks meegenomen naar overal toe en ook altijd aangesloten is, in een tas zonder bescherming, waar ook wel eens mee gesmeten werd, wel een aantal S.M.A.R.T errors heeft maar eigenlijk na al die jaren nog altijd feilloos zijn werk doet, met een extra 3rd party hoes die ook nog eens het luchtgat extra af dicht.

O ja, dit Freecom schijfje heeft nog wat aparts, volgens mij gebruikt hij ook agressieve energiebesparing, 4986 inschakelingen & 8044 uur, en bij de S.M.A.R.T staat een Load/Unload Cycle Count van 534.782! welke elke keer weer omhoog gaat als je de status updatet nadat hij een paar seconde stil ligt, en grappig genoeg maar G-Sense Error Rate van 5 tegenover de 11 op de HD103SJ.

Schijfje wordt ook met een langere USB kabel aangesloten, met het voorpaneel komt hij vaak stroom te kort om weer op te spinnen, vanwege dat de frontpanel zelf al lange kabels gebruikt naar het moederbord en er stroomverlies is, loopt soms het hele OS vast totdat hij losgekoppeld wordt.

Edit: de andere PC gebruikt nog oude Barracuda's uit het 2008 tijdperk, 320GB & 200GB, de 2e kwam overigens uit een andere PC van iemand anders.
Die draaien overigens ook nog altijd feilloos met meer dan 26000 en 20000? uren, waarvan de 320GB met minder dan 3000 inschakelingen en de 2e meer dan 10000.
Heb overigens nog een ongebruikte nieuwere 1TB van seagate liggen met sata-600 die binnenkort gebruikt gaat worden, ik hoop dat deze het een beetje gaat uithouden in een andere PC.

Maar het mag nu wel bekend zijn dat de nieuwere versies gewoon niet reliabel zijn, je hoort vaak zat dat mensen met Seagate problemen ervaren dezer dagen, vooral als er een China sticker op zit.

[Reactie gewijzigd door CriticalHit_NL op 24 september 2014 22:00]

en ik geloof dat Toshiba nog een lagere uitval had.
En toch heb ik mijn enige toshiba 3 TB schijf 3 weken geleden teruggestuurd na amper 1 jaar wegen Reallocated Sectors (SMART attribuut 5).
magneet in de buurt? of gewoon je HDD's heel dicht op elkaar gestapeld.
elk merk heeft uitval, maar niet zo erg als WD dus :Y)

[Reactie gewijzigd door stewie op 24 september 2014 18:56]

Yup. Zie hier bv. de info van mijn 2TB Toshiba HDD.
$ sudo hdparm -I /dev/sdd

/dev/sdd:

ATA device, with non-removable media
Model Number: Hitachi HDS5C3020BLE630
Serial Number: MCE7215P0MAZBW
Firmware Revision: MZ4OAAB0
Transport: Serial, ATA8-AST, SATA 1.0a, SATA II Extensions, SATA Rev 2.5, SATA Rev 2.6, SATA Rev 3.0; Revision: ATA8-AST T13 Project D1697 Revision 0b
[…]

[Reactie gewijzigd door Frenziefrenz op 24 september 2014 17:56]

Inderdaad die grafiek zegt meer dan genoeg!
Die grafiek zegt net helemaal niets voor gewone mensen. Het enige dat die grafiek zegt is dat als je van plan bent om een server te draaien met consumentenschijven, je beter Hitachi neemt.
Een hele tijd geleden gewerkt voor een computerbedrijfje, en daar zagen we toch ongeveer zoiets destijds. Seagate had veel problemen, Maxtor werd altijd Maxrot bij ons genoemd, we hadden een bak met daarin de dode hardeschijven, waar we niets meer mee konden. Er lagen in de grote bak 2 WD's :) De rest allemaal Maxrot en Seagate. Hitachi kan ik me niet eens herinneren, misschien zaten er zelfs geen van bij in de bak!
Das allemaal relatief hé, hoeveel maxtors en seagates werden er verkocht tov de WDs.

Bij een uitval van 10% denk ik niet dat die bedrijven nog zouden leveren. Er zou hier op tweakers dan ook een hoop topics zijn van kapotte schijven, die heb ik nog niet gezien.
Bestaan er geen websites waar je die statistiekjes kan volgen?
Ik kan je ervan verzekeren dat ik met Maximale torren dezelfde rotervaringen had. Was begin van deze eeuw mijn vaste merk, dus representatieve hoeveelheid. Tientallen procenten in de staart van - of kort buiten de garantie. enigszins verschillend per schijfserie, en laatst eentje buiten gebruik gesteld die na 9 jaar nog steeds prima werkte - de uitzondering die de regel bevestigt, het was letterlijk de enige verkochte uit die serie die de eerste 3 of 4 jaar overleefd had.

Daarna Hitachi als volumemerk, uitval hooguit enkele procenten ruim buiten garantie.

WD en Seagate als bijmerken, maar ongeacht de kleinere verkoophoeveelheid precies in de volgorde die je zou verwachten: WD slechter dan Hitachi en Seagate slechter dan WD.
Hitachi was nog niet zo lang op de markt bezig toen je nog Maxtor had.
Nou, dat lag wat ingewikkelder. Hitachi was geen speler van betekenis. IBM wel, en had toen opeens een tweetal series met extreme uitval. Dat foutje hebben ze ontdekt en gefixt, maar ze waren de hardeschijfbusiness tegen die tijd spuugzat. Zodoende hebben ze de tent aan Hitachi verkocht, die dus toen opeens over de expertise van tientallen jaren ontwikkeling kon beschikken en daarna erg goed heeft opgelet dat ze niet opnieuw stommiteiten uithaalden.

Als je IBM en Hitachi als één doorlopend merk telt, heb je een sterk bovengemiddeld betrouwbaar merk met ergens begin deze eeuw een dip van 95% uitval die het gemiddelde iets omlaaghaalt. Maxtor begon in de jaren '90 goed en liep langzamerhand terug (dieptepunt rond de overname van Quantum - causaal verband mij onbekend) krabbelde kwalitatief iets op maar dat hielp niet meer zodat ze door Seagate overgenomen werden. WD en Seagate lijken steeds ongeveer rond hun long-term gemiddelde te zwalken.

[Reactie gewijzigd door mae-t.net op 25 september 2014 01:16]

Heb hier zelfs nog een oude IDE Maxtor 80GB in de bak liggen, ding getest 100% groen op HD Tune... heb diverse Maxtors in het verleden gehad (vrijwel overwegend Maxtor, voordat dit Seagate werdt), vrijwel geen een is uitgevallen. Ja er zijn er ook uitgevallen, eerder door ouderdom dan door sector fouten, sporadisch een DOA maar dat is door garantie afhandeling verholpen...
Ik heb ook nog een Maxtor gehad, 13.6 GB denk ik. Ligt nog altijd op de plank. Wat maakte dat ding een kabaal zeg. Ratelen dat dat ding deed maar wel betrouwbaar.

[Reactie gewijzigd door Fredi op 25 september 2014 06:03]

Ik ben benieuwd of wd's intellipark iets met het hoge uitvalpercentage te maken heeft
De 3TB WD's met het hoge uitval percentage zijn juist Reds waar intellipark uit staat. De 1TB green schijven hebben wel intellipark aanstaan en zijn niet heel veel erger geworden qua uitval het afgelopen jaar.

Eigenlijk is dat wel opvallend, blijkbaar heeft dat in de omgeving van backblaze niet zo veel invloed. Misschien is de interval tussen data opvragen niet lang genoeg om intellipark wat te laten doen?

[Reactie gewijzigd door Sleepkever op 24 september 2014 18:28]

Opmerkelijk inderdaad, ik weet niet welk filesystem, type arrays er gebruikt worden en hoe deze van invloed zijn op intellipark.Misschien krijgt het eenvoudigweg de kans niet.
in het bezit geweest van 4 3TB schijven van Hitachi, 1 er van was binnen een maand al stuk, de 3 anderen vertoonden na circa 3 kwart jaar bad sectoren. Hebben 24/7 in een rackserver staan te draaien en is niets vreemds mee gebeurd. Via de plaats van aankoop gelukkig een credit kunnen regelen en 2TB WD schijfjes gekocht. Draaien nu ongeveer een jaar zonder problemen. Vind deze getallen dus maar vreemd.
Waarom vind je het vreemd? Er gaan volgens de grafiek nog steeds Hitachi-schijven voortijdig kaduuk, en het overgrote deel van de WD & Seagates draait jarenlang zonder problemen. Jouw situatie kan prima voorkomen.

Pas als je zegt: "Ik heb 4.000 Hitachi-schijven gehad waarvan er 1.000 meteen stuk gingen en 3.000 ging binnen een jaar bad sectors vertonen, toen 4.000 WD-schrijven gekocht en die draaien na 4 jaar allemaal nog", kijk dán kan je met recht zeggen dat het vreemd is. Die ene opa die al kettingrokende 100 werd is niet representatief voor alle rokers, om maar eens een analogie te gebruiken ;)
Klopt daar heb je een punt. Maar als ik kijk naar het uitvalpercentage bij mij op de zaak van verkochte harddrives, doet WD het het beste, Seagate heeft meer uitval, maar van Hitachi / Toshiba komt toch het meeste RMA... En zoals iemand hier boven al had uitgelegd, zijn de WD schijven (het type dat ze bij Blackblaze getest hadden) helemaal niet voor deze doeleinden bedoeld, wat natuurlijk om problemen vragen is. Ik zal in ieder geval nooit of te nimmer Hitachi schijven meer aanschaffen, in de tijd van de Deskstar drives (aka Deathstar) heb ik voldoende ellende gehad met deze krengen. Toch nog een kans gegeven met die 3TB schijfjes, omdat ze goedkoop en "betrouwbaar" waren.. Ieder zijn eigen ervaring natuurlijk :)

[Reactie gewijzigd door _-SaVaGe-_ op 24 september 2014 19:15]

1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True