Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 127 reacties
Submitter: player-x

Backblaze heeft een nieuw rapport over de betrouwbaarheid van hdd's in zijn datacenters gepubliceerd. De aanbieder van clouddiensten is grotendeels overgestapt op 4TB-hdd's van Seagate, die veel betrouwbaarder blijken dan de 3TB-varianten.

Seagate kwam de afgelopen jaren regelmatig negatief in het nieuws vanwege de hoge uitvalpercentages van hdd's met opslagcapaciteit van 1,5TB en 3TB. Backblaze gebruikte duizenden van dergelijke hdd's in zijn Storage Pods in datacenters. In de loop van 2015 heeft Backblaze deze hdd's uitgefaseerd en vervangen door andere hdd's. Uit het nieuwe betrouwbaarheidsrapport blijkt dat Seagate-hdd's met een capaciteit van 4TB veel minder problematisch zijn.

Eind 2015 had Backblaze ruim 29.000 Seagate ST4000DM000-hdd's in gebruik, met een gemiddelde leeftijd van 12,2 maanden. Het uitvalpercentage bedroeg 2,99 procent. De hdd's van HGST zijn nog altijd het meest betrouwbaar volgens de statistieken. Het bedrijf gebruikt drie verschillende varianten van 4TB-hdd's van dat merk, in totaal bijna 13.000 stuks. De gemiddelde uitval is minder dan 1 procent. De reden dat Backblaze koos voor 4TB-hdd's van Seagate in plaats van de nog betrouwbaardere HGST's, is dat de modellen die de cloudaanbieder gebruikt niet meer verkrijgbaar zijn en vervangen zijn voor duurdere varianten.

BackblazeBackblaze

Ook de ST6000DX000-hdd van Seagate met capaciteit van 6TB doet het relatief goed in de test. Van de 1882 exemplaren die Backblaze dit jaar in gebruik heeft genomen is 1,89 procent uitgevallen. Daarmee doen de schijven het beter dan de WD60EFRX-hdd's van 6TB, die een uitvalpercentage van 5,81 procent hebben. Ondanks dat de Seagate 6TB-hdd's betrouwbaarder zijn dan de 4TB-varianten, zijn ze voor Backblaze niet interessant om in te zetten op grote schaal. De prijs per gigabyte is hoger en ook verbruiken de grotere hdd's gemiddeld zestig procent meer energie.

De oudste hdd's die Backblaze nog in zijn datacenters heeft draaien zijn de 2TB-varianten van HGST. De 4489 hdd's hebben een gemiddelde leeftijd van bijna vijf jaar en een uitvalpercentage van 1,55 procent. Opvallend is dat de WD-hdd's over het algemeen slechter scoren dan die van HGST, terwijl WD het moederbedrijf is van laatstgenoemde.

Vorig jaar bleek uit het rapport betrouwbaarheidsonderzoek van Backblaze dat ruim vier op de tien 3TB-hdd's van Seagate de geest gaven. Ook de 1,5TB-varianten vertoonden opvallend veel gebreken, 23,5 procent van deze hdd's viel uit. Het rapport van de cloudaanbieder wordt door advocaten gebruikt in een class action-zaak die onlangs van start is gegaan tegen Seagate. Ook veel consumenten zouden last hebben gehad van problemen met de hdd's en door middel van de zaak willen ze hun geld terugkrijgen en bovendien eisen ze een schadevergoeding voor verloren data.

Net als veel andere cloudaanbieders gebruikt Backblaze reguliere hdd's in zijn datacenters. Hoewel deze schijven niet bedoeld zijn voor continu gebruik en daardoor eerder uit kunnen vallen, weegt dat in het geval van massaopslag op tegen de hogere kosten die speciale hdd's voor servers met zich meebrengen. Eind 2015 had Backblaze 56.224 hdd's in gebruik, begin dat jaar waren dat 39.690 schijven.

Moderatie-faq Wijzig weergave

Reacties (127)

Blackblaze wordt ondertussen een PR nachtmerrie voor Seagate. Zeker als bronnen als tweakers de berichtgeving min of meer klakkeloos overnemen zonder enige bedenking te noteren.

Ik heb bij het vorige Blackblaze bericht al een aantal redelijk lange posts geschreven, dus ik zal het proberen wat korter te houden deze keer: http://tweakers.net/reacties/bekijk/8174331/.

Het probleem van de Blackblaze cijfers is dat ze schijven gebruiken op een manier waarvoor ze nadrukkelijk niet bedoelt worden. Een harde schijf is een mechanisch ding dat onderhevig is aan slijtage. Per product groep wordt dan ook een ontwerp gemaakt met een aantal operatie uren in het achterhoofd. Voor desktop schijven is dat momenteel 8x5 gebruik (2400 uur per jaar) met een beperking van 50 TB per jaar. De duurdere NAS en Archive schijven hebben wel 24x7 (8760 uur per jaar) met 180 TB ondersteuning.

Als jij een user bent die je schijven normaal laat downspinnen (windows of hdparm) dan loop je per definitie niet tegen de problemen aan die Blackblaze ondervindt. Persoonlijk staan bij mij de meeste schijven 75% van het jaar uit. Als je een mechanisch apparaat dat bijvoorbeeld is ontworpen om 2 jaar te gebruiken dan zal je op basis van slijtage gemiddeld 8 jaar met dat product doen. Natuurlijk had men het product zo kunnen ontwerpen dat het 100 jaar mee gaat. Echter dat is voor niemand relevant.

Dat dit inderaad zo is blijkt ondertussen uit 3 verschillende bronnen. Op de eerste plaats hebben we de Franse Retail cijfers:
- Seagate 0,60% (contre 0,68%)
- HGST 0,81% (contre 1,16%)
- Western 0,90% (contre 1,09%)
- Toshiba 0,96% (contre 1,34%)

3 Tb :
- 4,90% Toshiba DT01ACA300
- 1,94% WD Se WD3000F9YZ
- 1,60% WD Green WD30EZRX
- 1,31% Seagate Barracuda 7200.14 ST3000DM001
- 1,25% Toshiba PA4293E-1HN0
- 1,23% WD Red WD30EFRX
- 1,23% Seagate NAS ST3000VN000
- 1,16% WD Red Pro WD3001FFSX
- 0,94% Seagate Surveillance ST3000VX000
- 0,71% WD Black WD3003FZEX
Daaruit blijkt dat er in de praktijk niets vreemds is met de "returns". Dat zijn overigens returns op basis van defecten in de eerste 6-12 maanden, dus niet het omruilen.

Daarnaast hebben we de cijfers die Seagate zelf publiceert. In Q4 2014 waren de returnns 1.2% van de sales. http://www.seagate.com/fi...r-behind-disk-storage.pdf

Tot slot heeft Seagete aangegeven dat ze inderdaad per design groep ontwerpen naar bepaalde doelstellingen. Als voorbeeld noemen ze dat een desktop schijf die gemiddeld 3 uur per dag aan staat niet dezelfde mbtf nodig heeft als een Enterprise schijf die 24/7 draait.
Two points should be made here. First, engineers could design a drive with much higher reliability. As one of them told us, it’s possible to design a drive that would run for 100 years—but no one would ever buy it. So when you see MTBF specs of 800,000 hours or 2 million hours, understand that those are reliability levels commonly expected by certain market segments. A home PC that might run for three hours per day over five years (about 5500 hours) has no need for a 2 million-hour MTBF drive and thus no need to add the expense of the more expensive parts and additional engineering necessary to meet that metric. A relatively low MTBF does not imply that a drive is inferior. It is merely price-performance optimized for a given market segment.
Dit alles bij geeft wat mij betreft aan dat er eigenlijk niets aan de hand is. Natuurlijk ga je veel users tegenkomen met een defecte schijf. Immers 1.2% van 212 miljoen harde schijven zijn nog altijd 2.544.000 defecte schijven! Blind staren op Blackblaze is, bij normaal gebruik, jezelf in de voet schieten omdat onder normale omstandigheden de verhouding heel anders blijken te liggen. Zie opnieuw de cijfers van hardware.fr.

Tot heden heb ik mij nog niet laten afschrikken en beschik ik over 3x de gevreesde ST3000DM001 (10900, 10400 en 8900 bedrijfsuren).

[Reactie gewijzigd door sdk1985 op 17 februari 2016 14:37]

Ik wens je veel succes (of is het sterkte). Ik had 8x ST3000DM001 in een rackmounted NAS in een lekker koele kelder (dus warmte was zeker geen issue). Deze schijven waren op 5 verschillende momenten bij 4 verschillende bronnen aangekocht over een tijdspanne van 1,5 jaar.

6 van de 8 hebben hun geest gegeven bij 18000 - 22000 bedrijfsuren, oftewel net buiten garantie bij 24/7 belasting. Ik vind de cijfers van BlackBlaze ZEER actueel voor mensen die ze in een NAS omgeving willen gebruiken.

Gezien mijn persoonlijke ervaring, nooit nog Seagate (en heb er tientallen gehad voordien). Heb er destijds 3 vervangen door equivalente 3TB WD Red, en draai nu inmiddels 5x 6TB WD Red.

Je hoeft je zeker en vast niet af te laten schrikken, maar gezien mijn persoonlijke ervaring zou ik toch een goeie backup overwegen als je schijven nog een paar duizend uurtjes extra gedraaid hebben.

Alsof het geluk ermee gemoeid is, ben ik ook de trotse ex-bezitter van 2x45GB Deathstars in striping :+
Ik wens je veel succes (of is het sterkte). Ik had 8x ST3000DM001 in een rackmounted NAS in een lekker koele kelder (dus warmte was zeker geen issue). Deze schijven waren op 5 verschillende momenten bij 4 verschillende bronnen aangekocht over een tijdspanne van 1,5 jaar.

6 van de 8 hebben hun geest gegeven bij 18000 - 22000 bedrijfsuren, oftewel net buiten garantie bij 24/7 belasting. Ik vind de cijfers van BlackBlaze ZEER actueel voor mensen die ze in een NAS omgeving willen gebruiken.

Gezien mijn persoonlijke ervaring, nooit nog Seagate (en heb er tientallen gehad voordien). Heb er destijds 3 vervangen door equivalente 3TB WD Red, en draai nu inmiddels 5x 6TB WD Red.

Je hoeft je zeker en vast niet af te laten schrikken, maar gezien mijn persoonlijke ervaring zou ik toch een goeie backup overwegen als je schijven nog een paar duizend uurtjes extra gedraaid hebben.

Alsof het geluk ermee gemoeid is, ben ik ook de trotse ex-bezitter van 2x45GB Deathstars in striping :+
Mooi verhaal, het bevestigt namelijk precies mijn verhaal. Je gebruikt een schijf gerate op 2400 uur met 18000 uur. Dat is gelijk aan 7,5 jaar voorgeschreven gebruik!

Vervolgens ga je ze vervangen voor een NAS serie met TLER (WD Red). Bij Seagate is dat gelijkwaardig aan de Seagate NAS HDD series. Die zijn wel gemaakt voor 24x7 en hebben het dubbele aantal load cycles. Iets met appels en peren ;)?

Overigens weet ik niet wat jij met je NAS doet maar ook Linux kan je de schijven prima uit laten gaan bij idle: http://info4admins.com/ti...disk-in-debian-or-ubuntu/

Doe je wel iets met je NAS dat 24/7 operaties vereist dan moet je een andere schijf gebruiken (zoals je nu al doet).

Los van dat alles: Let op dat juist de koele kelder een slecht idee is. Uit het onderzoek van Google bleek dat de schijven in de categorie 15-30 graden 3x vaker defect gingen dan in de warmere graden brackets na de eerste 3 maanden. Bovendien vielen ze ook veel vaker uit na 6 maanden, 1 jaar en 2 jaar. Op basis van dat onderzoek wil je eigenlijk tussen de 30 en 40 graden zitten. Ik zou ze lekker in de meterkast zetten bij 18-21 graden celcius :).

[Reactie gewijzigd door sdk1985 op 17 februari 2016 21:39]

Dat "onderzoek" van Google heeft een grote fout: Ze hebben verschillende modellen alleen op basis van temperatuur vergeleken. Als Google een betrouwbare schijf met iets hoger energiegebruik heeft en een onbetrouwbare met een lager energiegebruik, dan komt uit deze vergelijking dat "koel == slecht". Een vergelijking per model had wel iets te zeggen gehad, maar dat hadden ze niet gedaan.
Ik bevestig uiteraard jouw verhaal. Blackblaze is geen vergelijk met desktop gebruik, maar wel voor NAS gebruik. In mijn server die ik voor mijn NAS had, heb ik jaren Seagate (desktop) schijven gedraaid zonder enig probleem of ook maar een enkele kapotte disk. Ik heb zowel de 320GB als de 500GB modellen gehad (over 2 servers) in RAID-6 zonder enig probleem.

En plots met de 3TB modellen vielen ze uit als vliegen. Vandaar ik nu het risico niet meer neem, en dus inderdaad speciale schijven draai. Echter zijn er nog massa's mensen die desktop schijven in NAS omgevingen gebruiken, al zou ik het niet meer doen.

Destijds gebruikte ik ze ook voor mijn netwerk camera's (dus inderdaad 24/7 belasting). Nu draai ik daar een aparte NAS met Purple schijven voor.

Mijn NAS is van Synology (grote fan, en veel gemakkelijker in onderhoud dan mijn servers vroeger), maar het lukt me echt niet de schijven te laten idlen (het OS draait van een gemirrorde partitie over alle schijven, welke voortdurend benaderd wordt voor allerlei log bestanden).

Het onderzoek dat je citeert kende ik nog niet. "Gelukkig" draaien mijn schijven altijd rond de 30-32 graden. Ik vond dat behoorlijk koel, en kennelijk maar goed ook :+
Die Deathstars heb ik ook gehad, maar dan in 15GB-uitvoering in raid0 :D Toen ik ze kocht was die 75GXP (geloof ik?) serie net uit en was de betrouwbaarheid nog niet bekend. Ik mag mijn handjes dichtknijpen dat ze het al die jaren hebben volgehouden (6 jaar ofzo, daarna in onbruik geraakt), maar dat was geheel tegen de statistieken in.

Maar goed, de manier waarop hier getest wordt is misschien niet helemaal zoals de drives bedoeld zijn, maar als ik schijven voor mijn NAS zoek, is zo'n overzicht als dit wel precies wat ik nodig heb. En dan nog: schijven van andere fabrikanten kunnen er beduidend beter tegen, dus het kan wel degelijk beter dan hoe Seagate het doet.
Om even een vergelijking te geven;

Ik heb inmiddels al enige tijd 3 WD schijven de WD20EARX-00PASB0 dit is dus de WD Green.

Deze heeft op dit moment in me 24/7 synology nas al 30653 bedrijfsuren gemaakt waar deze totaal niet voor gemaakt is en ze doen het nog perfect!
De Green schijf in mijn desktop (WD10-EADS) zit inmiddels aan de 41K bedrijfsuren en 530.000 load cycles (ze zijn ontworpen voor 300.000 cycles)... Dat is nu meer een experiment geworden om te kijken hoe lang dat goed gaat, de data doet er niet meer toe.

In contrast: ik heb n van de vier 3TB WD-Reds in mijn NAS al na 12 maanden RMA moeten sturen. Dat was ook een schijf die uit een andere batch kwam (serienummer totaal anders vergeleken met de andere drie).
Erg netjes dat ze het nog doen! De load cycle van mij zit op 1333 wat natuurlijk schrikbarend lager is..
En geloof me... ik snap er niks van maar dat geeft de S.M.A.R.T. informatie toch echt aan.

[Reactie gewijzigd door Dennisb1 op 17 februari 2016 22:42]

BackBlaze heeft helemaal gelijk met hun punt, en jij stapt veel te makkelijk over een klein woordje heen : "gemiddeld". Oftewel de Mean in Mean Time Between Failure. Het verlies van een schijf na 1 jaar is goed mogelijk, ook al zou de gemiddelde levensduur op 5 jaar liggen. De gemiddelde consument draait z'n harddisks niet in RAID-1. Daarom is het niet van belang binnen welke periode 50% van de disks falen, maar wanneer 1% faalt - dan heb je als gemiddelde consument al een probleem.

Een tweede probleem is dat RAID-1 ook niet perfect is. Je tweede disk kan falen tijdens de array rebuild, en dat risico is bij Seagates k veel groter. Eigenlijk kun je met deze "consumenten" disks dus alleen RAID-6 arrays bouwen, en dat is nu net niet iets wat consumenten zullen doen (Backblaze waarschijnlijk wel, maar zelfs voor hun is die Seagate de moeite niet meer. Dat zegt veel).
RAID is maar 1 optie voor redunantie, RAID6 is relatief betrouwbaar maar heeft dankzij de parity berekeningen een behoorlijke write penalty qua performance. Wordt er niet een volledige stripe geschreven, wat vaak het geval is, dan dient de rest van de stripe eerst gelezen te worden voordat er parity berekend kan worden en de boel weggeschreven kan worden naar disk.

Wat tegenwoordig meer en meer voorkomt in grotere storage omgevingen zijn oplossingen als Ceph en Gluster, hier worden disks zonder raid aan toegevoegd en het systeem zorgt zelf voor redundancy 1:N. Vergroten is net zo makkelijk als bij RAID en levert meer capaciteit en performance op. Behalve block storage (disk devices of volumes) zijn er vaak ook mogelijkheden om het systeem als object storage of als filesysteem te exporteren. Niks voor de consument misschien, maar in datacenter omgevingen ideaal.

Langzaam maar zeker zien we ook hyper-converged virtualisatie oplossingen, daar levert een node die wordt toegevoegd aan een cluster zowel computing resources als storage resources. Alle storage van de nodes in het cluster worden als het ware een grote pool met storage.

Voor wat betreft de cijfers hier, ik ben inmiddels een paar jaar overgestapt op Hitachi disken en de uitval is minimaal. Voor die tijd gebruikten we WD wat langer geleden prima beviel maar op een gegeven moment niet meer, veel ritjes datacenter om disken te vervangen begonnen wekelijkse kost te worden.

[Reactie gewijzigd door mxcreep op 18 februari 2016 10:02]

Raid is zo 2008 ... Bij disken van 4TB en groter is raid eigenlijk achterhaald en moet je eigenlijk naar erasurecoding protectie.... ik geloof niet dat BackBlaze nog Raid gebruikt ... en anderdaad bevestigd ...
RAID is juist heel 2016. Er zijn heel veel varianten om je data te verdelen over je redundant array of independent disks. Erasurecoding is een RAID implementatie. Uit je link: "In Backblaze Vaults, we use 17+3 (17 data plus three parity)". Als RAID 5 single parity is en RAID 6 dual parity, dan doet BackBlaze aan een schema met triple parity. Niks nieuws.
Het is duidelijk niet hetzelfde. Erasure coding is synoniem bij software defined strorage en dus ook te gebruiken in scale-out storage. Ga jij maar eens on de fly disken aan je raidgroep toevoegen. In Enterprise omgevingen zijn replica's nodig om de storage te protecten en dan komt het voordeel van erasure coding pas echt tot zijn recht omdat meerdere copies van verschillende replicas ook worden ge-XOR-d.

[Reactie gewijzigd door toet-toet op 19 februari 2016 10:43]

Ik snap wat je bedoeld, maar vind nog steeds dat je de term "RAID" te strikt gebruikt vanuit een alle-hardware-in-1-kast-met-controller gedachte. Zo definieer jij dat (in die presentatie) maar dat hoeft helemaal niet. Je hebt talloze (software) RAID oplossingen, ook gedistribueerd en gevirtualiseerd. Zie b.v.. het lijstje hier: https://en.wikipedia.org/wiki/RAID#Software-based. RAID is juist erg gevolueerd. Ik noem dat nog steeds RAID - alle data staat redundant op een groot aantal harde schijven, al dan niet in een bepaalde node of locatie en mogelijk zelfs verspreid over de hele wereld.
Sure het heeft ook te maken met je use case. Block Storage is nog steeds bij uitstek het beste bij IO kritische toepassingen. De markt verschuift naar meer en meer commodity hardware waar scale-Up wordt vervangen door scale-out. Ik werk aan een project met EMC Elastic Cloud Storage waarbij de schaalbaarheid bijna eindeloos is. Je kan zelf wel de nadelen bedenken van een traditionele blockbased Storage array qua schaalbaarheid. Vandaar dat ik denk dat de markt naar deze "object" Storage aan het verplaatsen is.
Het maakt eigenlijk niet uit hoe backblaze de schijven gebruikt, want alle schijven die het gebruikt zijn er niet voor bedoeld om zo gebruikt te worden.

Dus relatief aan de andere schijven vallen bepaalde schijven vaak uit, dus de betrouwbaarheid is duidelijk minder dan de andere schijven.

Als je deze schijven gaat testen op de manier waarvoor ze bedoelt zijn, dan zal je zo weinig failures hebben dat het heel moeilijk is om daar iets nuttigs over te zeggen. Juist door te stresstesten weet je waar je aan toe bent.
Ik ben het met je eens dat het alleen gebruiken van Blackblaze als enige bron niet goed is. Zij hebben namelijk maar 1 type gebruik dat wordt getest en verder niks.
Verder ben ik het niet met je eens dat het perse een slechte manier van testen is. Als de MTBF 5 jaar (60 maanden) is bij normaal consumenten gebruik, dan maakt het nog steeds heel veel uit hoe de verdeling er uit ziet en die kan nog steeds heel vervelend zijn ook als je maar een lage return rate hebt bij 6-12 mnd.

Stel je produceert 1 product, maar wat betreft uitval heb je namelijk 2 populaties, namelijk 1 die gemiddeld 14 maanden mee gaat en 1 die gemiddeld 7 jaar (=84 maanden) en die liggen in verhouding 1 : 2 dan heb je 33% van de schijven die na 14 maanden uitvalt en 66% van de schijven die na 7 jaar uitvalt en is de consument nog steeds verdrietig en terecht.

Het zal natuurlijk nooit zo zwart-wit zijn, maar er zijn best voorbeelden waar productie zo'n soort probleem heeft.
Leuk verhaal over desktopschijven die 3 uur aanstaan, maar in de praktijk staan desktops vaak 12 tot 24 uur per dag aan. Wat je ook vergeet is dat load/unload cycli slijtage veroorzaken, en dat die blij licht gebruikte desktops juist weer vaker voorkomen. Gemiddeld zal het allemaal wel redelijk kloppen, waarbij uitschieters mogelijk door bezuinigingen / fouten in het ontwerp van de schijf veroorzaakt zouden kunnen worden.

Er zit in de series die er bij Blackblaze slecht uitkomen, dus mogelijk een ontwerpfout. Of die fout er bij desktopgebruik wat minder snel uitkomt, is eigenlijk niet zo relevant. Mensen doen tegenwoordig immers ook steeds langer met hun computer. Dus als de Seagate en de HGST na 5 jaar allebei nog werken maar de HGST als enige de 10 jaar haalt, is dat alsnog relevant.
Leuk verhaal over desktopschijven die 3 uur aanstaan, maar in de praktijk staan desktops vaak 12 tot 24 uur per dag aan. Wat je ook vergeet is dat load/unload cycli slijtage veroorzaken, en dat die blij licht gebruikte desktops juist weer vaker voorkomen. Gemiddeld zal het allemaal wel redelijk kloppen, waarbij uitschieters mogelijk door bezuinigingen / fouten in het ontwerp van de schijf veroorzaakt zouden kunnen worden.
Als je de boel een beetje normaal instelt dan gaat die schijf uit terwijl je pc aan staat (standaard na 20 minuten). Ik heb zelf schijven van 4 jaar oud die ongeveer 1 jaar aan power on hours hebben. Dat is bij mij "normaal" op een pool van +- 20 schijven verspreid over 4-5 computers.

Verder hoor je ook vaak dat de Enterprise schijven slechter tegen voor load/unload cycli kunnen dan de dekstop varianten. Echter uit de spec sheets staat wat je ervan kunt verwachten:
Desktop: 300,000
Archive: 300,000
NAS: 600,000

Ter indicatie: In mijn desktop zit nu een schijf van circa 3 jaar oud met 435 power on days en 2561 start/stop cycles en 948 on/off cycles. De computer zelf staat elke dag minstens 12 uur aan. Dat komt niet eens een beetje in de buurt van de design specificaties.

Ga je ze in een datacenter gebruiken dan gaat dat een stuk harder. Wat Blackblaze in een jaar doet haal jij waarschijnlijk in 10 jaar niet.
Er zit in de series die er bij Blackblaze slecht uitkomen, dus mogelijk een ontwerpfout. Of die fout er bij desktopgebruik wat minder snel uitkomt, is eigenlijk niet zo relevant. Mensen doen tegenwoordig immers ook steeds langer met hun computer. Dus als de Seagate en de HGST na 5 jaar allebei nog werken maar de HGST als enige de 10 jaar haalt, is dat alsnog relevant.
Dat is dus het punt, het is geen ontwerp fout maar eerder een ontworpen beperking. Zelfs na 10 jaar dekstop gebruik zal je niet tegen de 300.000 load cycles aanlopen...

Overigens vindt ik 10 jaar wel erg lang voor een harde schijf. De economische levensduur is meestal wat korter omdat na een dergelijke periode de capaciteit weinig meer voorstelt. Ik heb nog werkende 20GB, 40 GB en 160 GB schijven maar echt een toepassing heb ik daar niet voor anno 2016.

[Reactie gewijzigd door sdk1985 op 17 februari 2016 21:24]

Ik heb hier nog een 1TB WDGP schijf met 42K aan draaiuren, werkt zover ik kan zien zonder problemen (volgens crystaldiskinfo)
http://i67.tinypic.com/b3wrqd.png
Je kan in Windows in ieder geval in energiebeheer bij de geavanceerde energie-instellingen instellen dat bij "Harde schijf -> Harde schijf uitzetten na" op Nooit (0) zetten in plaats van dat deze zich weer uitschakelt standaard per 20 minuten.
Dank voor je uitgebreide toelichting. Ik heb alsnog wel het gevoel dat de fabrieksopgave niet altijd gehaald wordt zodat overdimensionering op alle punten geen kwaad kan, maar het maakt de cijfers en de afwegingen wel duidelijker.

10 jaar is voor de computer als geheel tegenwoordig redelijk haalbaar voor licht gebruik en opzich is 160GB als systeemschijf nog best bruikbaar. En ook een klein kansje dat een schijf de 5 jaar niet haalt is me al te groot. Trauma's overgehouden aan Maxtor, waarvan de specs op papier vast ook aardig waren maar wat naast Quantum waarschijnlijk het eerste merk was dat met die specs en ontwerpafwegingen als excuus de economische kantjes er af ging lopen.

[Reactie gewijzigd door mae-t.net op 18 februari 2016 04:20]

Klopt Maxtor had een aantal zeer problematische reeksen. Met Seagate ging het ook minder nadat ze de Maxtor fabriek hadden overgenomen.

Wat betreft die 160 GB OS drive; echt vrolijk wordt je daar niet van. In die tijd (7200.9) was de maximale leessnelheid 65 MB/s. Bij een filecopy zat je tussen de 20 en 50 MB/s. Een moderne schijf doet (sequentieel) ruim 220 MB/s en is dus meer dan drie keer sneller. Vergelijken met een instap SSD is helemaal bizar.

Verder wordt inderdaad niemand er beter van als ze (te veel) gaan besparen op de levensduur. Gelukkig is het nu wel een keuze's en heb je voor een paar tientjes extra schijven die significant langer zouden moeten mee gaan. Dat is wat mij betreft een groot verschil in de tijd van Maxtor toen het meer een loterij was dan dat je weet dat je rond de 18.000 uur moet gaan vervangen. berhaupt is de prijs per GB nog nooit zo laag geweest als nu. Wat dat betreft is het meer gierigheid dan noodzaak om voor de desktop serie te gaan.

[Reactie gewijzigd door sdk1985 op 18 februari 2016 13:55]

Voor desktop schijven is dat momenteel 8x5 gebruik (2400 uur per jaar) met een beperking van 50 TB per jaar.
Dit is dus waarom Seagate een slechte reputatie heeft gekregen, wij gebruiken onze desktops meer dan 40 uur per week. ;-)
Haha :P.

Het standaard energieschema van Windows zet je schijf na 20 minuten idle uit. Moet je natuurlijk wel een OS drive (SSD) hebben.
In onze sector heeft natuurlijk niemand meer een Seagate als OS schijf sinds WD met de eerste Raptors kwam, daarna natuurlijk allemaal SSDs... ;-)

Ik gebruik momenteel (naast SSD) zelf alleen nog maar HGST (NAS) schijven. Bij klanten zit ik nog wel opgescheept met Seagate in een aantal gevallen, maar ook die gaan uiteindelijk stuk... Als het echt moet in een NAS HGST of Hitachi NAS of Enterprise (server) schijven. In werkstations zetten we eigenlijk alleen nog maar SSDs...

Ik zwoor een aantal jaar geleden bij WD, nu ook niet meer, daarvoor IBM gehad, etc. Uiteindelijk zal HGST/Hitachi ook bagger worden als management er met de pet naar gooit en wie weet gaan we dan gezamenlijk weer naar Seagate...

Bij dit soort meuk zit je altijd met je ervaringen en je onderbuikgevoel, die minder dan 1% uitval kan rustig betekenen dat alle schijven die je van dat merk/type koopt defect kunnen gaan en legio anderen hebben er hele goede ervaringen mee. Bovenstaande cijfers geven geen goede indruk van Seagate, maar teveel van die nummertjes zijn te weinig schijven of te korte periode, en dan nog is het slechts een sampling (uit het verleden).
Bij de ST3000DM001 is het denk ik erg afhankelijk wanneer je ze aanschaft: Had twee ST3000DM001 aangeschaft voor mijn Synology NAS. De eerste begaf het na een jaar en is onder garantie vervangen. De tweede begaf het na na de twee jaar garantie, helaas. Het vervangende exemplaar voor de eerste heeft het inmiddels al ca 3 jaar uitgehouden. Toen ik destijds de problemen had waren er heel veel klachten op allerlei forums over die schijf. Het is dus echt niet alleen berichten op tweakers en nu dus van Blackblaze. Het kan wel zijn als je ze uit een andere productie serie of zelf productie locatie hebt ze gewoon lang meegaan.
Ik snap je punt maar ben het niet helemaal eens dat de wijze van testen niet klopt: alle schijven die ze hebben onderwerpen ze aan dezelfde "rot" condities en BackBlaze koopt in op prijs. M.a.w. alle fabrikanten hebben dezelfde omstandigheden. Het klopt dat je in de praktijk lagere uitvalpercentages zal hebben (want geen 24/7 etc.), maar als een seagate bij BackBlaze er na 1 jaar uitknalt en een HGST er na 3 jaar mee kapt, dan wil ik wel de HGST hebben voor thuis omdat, op basis van de statistieken en gebruik, die er na 9 jaar mee stopt bij mij (uitgaande van 8 uur per dag = 1/3 van de tijd). M.a.w. de backblaze statistieken zeggen wel degelijk wat vooral ook omdat HDDs onderling qua werking niet verschillen en je gewoon appels met appels aan het vergelijken bent.
De backblaze testen zijn te vergelijken met het versneld verouderen van producten door warmte/vochtigheid etc. te verhogen en dan de MTBF te bepalen. Doen fabrikanten zelf ook, dus ik snap de backblaze haat niet.
Naast de door anderen al genoemde goede punten: De harde schijf fabrikanten doen zeer geheimzinnig over hun failure rates. Mooie praatjes genoeg maar gedetailleerde cijfers publiceren doet er geen een.
Dan hebben ze het dus aan zichzelf te danken als we op zoek gaan naar andere bronnen.

Aangezien Blackblaze een online Backupdienst levert denk ik dat het met die belasting van de schijven daar nog wel meevalt, dus is het gebruik van desktop schijven geen gek idee en zijn die statistieken zeker zinnig.
Fabrikanten maakten tot voor kort ook geen onderscheid tussen desktop, NAS en archive schijven. Dat is allemaal nieuw. Net zoals dat er ineens "gebruiksuren per jaar" en "TB per jaar" in de specificaties staan.

Mogelijk is dat gebakken lucht, of ze denken echt zo nauwkeurig te kunnen produceren dat het mogelijk is op deze specificaties te diversificeren, en dat ook noch kostentechnisch verantwoord te doen. Ik ben benieuwt. Ik hoop dat Blackblaze deze schijven ook gaat testen, dan zullen we zien of Seagate de kwaliteit zo nauwkeurig kan voorspellen.
Er zijn wel wat cijfers te vinden (naast de bronnen die ik al noemde). Zie bijvoorbeeld:
Seagate saw its claims rate fall from 1.7% to 1.2%, while Diebold saw its claims rate fall from 4.7% to 3.6%. NetApp reduced its accrual rate from 1.5% to 0.9%, while EMC saw its accrual rate fall from 1.4% to 1.1%. These changes may not sound like much, but they were among the biggest changes seen across the top 100 warranty providers
Maar vrijwel elk bedrijf zwijgt er inderdaad over.

Een jaar of 10 geleden begonnen ze inderdaad met een kunstmatige scheiding door het weglaten van TLER. Als ik me niet vergis was Western Digital koploper daarin.

Echter als je nu naar een Seagate NAS HDD kijkt dan zou je denken die is identiek aan de dekstop hdd maar dan met TLER. Die vlieger gaat echter niet op. De NAS HDD gedraagt zich anders en is wat trager: http://techreport.com/rev...gate-nas-hdd-4tb-reviewed.

De archive HDD's zijn natuurlijk helemaal anders. Die gebruiken SMR om data "shingled" op te slaan en gebruiken grote write buffers om de snelheid op te krikken.
Mooie uitleg maar toch wel redelijk objectief bullshit te noemen. Die doelstellingen die je noemen zijn "uitvindingen" van een recente tijd om de marges op HDD's op norm te houden, ik kan me er niks technisch bij voorstellen daar tot amper 10 jaar geleden een harde schijf, een harde schijf was die je in ELK product kon stoppen. Toen is WD green begonnen maar nog geen rep over dat je speciale HDD's zou moeten hebben voor speciale doelstellingen.

[Reactie gewijzigd door jvdhoeve78 op 18 februari 2016 01:03]

Beste sdk1985 - je verhaal klopt, maar houdt denk ik te weinig rekening met de impact van een defecte schijf voor de gebruiker. Voor de grote groep gebruikers die hun foto- en videoverzameling op n schijf hebben (dom, maar veel voorkomend) is die impact onvergelijkbaar veel groter dan voor een cloudstorage waar het wisselen van defecte schijven dagelijkse praktijk is: waar de schijven per pallet worden ingekocht, de systemen er op zijn ingericht om geen data te verliezen, etc. Maar ook voor de particulier die alles netjes op twee plaatsten, bv. lokaal en in de cloud, heeft staan, is een defecte schijf lastig: diagnose, bestellen van een nieuwe schijf, installeren en vullen vanuit de cloud - zelfs een tweaker zit daar niet op te wachten. Als het de systeemschijf is, wordt het verhaal nog een stuk lastiger. Vaak betekent het: terug naar de winkel en laten repareren, rekening een stuk hoger dan de prijs van de schijf, plus een paar dagen offline. Als je dan leest dat fabrikant S zijn schijven optimaliseert zodat ze statistische gezien meestal hun garantietermijn halen, terwijl fabrikant H zijn schijven significant betrouwbaarder maakt, terwijl het prijsverschil relatief gering is, dan denk ik dat veel gebruikers terecht voor de extra betrouwbare variant kiezen. Computers moeten het gewoon doen.
Ik zou het ook met jou eens zijn mits het waar was dat de schijven inderdaad net buiten de garantie defect gaan (2 jaar). In de praktijk blijkt echter dat +- 20.000 uur voor de gevreesde Seagate Desktop HDD 3 TB (of eigenlijk 7200.14 serie) geen probleem is. Met 24/7 gebruik zit je daar na 2,5 jaar aan (NAS zonder standby). Echter bij normaal gebruik haal je dat echt niet binnen die termijn.

Mijn eigen 7200.14 3 TB zit na 3 jaar op 10485 uur en zal dus hoogst waarschijnlijk nog minstens 3 jaar mee gaan.
Dit is denk ik goed nieuws om te horen voor de consumenten. Er zijn mensen die beweren dat de informatie van Backblaze 'om redenen' niet relevant is voor consumenten, maar ik waag het sterk te betwijfelen.

Het enige nadeel van een datacenter is het risico op trillingen, maar gezien de - in absolute zin - lage uitvalpercentages is dat niet zo'n issue. Daar hebben de engineers wel rekening mee gehouden toen ze de pods van Backblaze ontwierpen.

Verder is een datacenter een paradijs voor harde schijven, nameklijk een constant klimaat, niet te vergelijken bij jou thuis (slechtere situatie). Een schijf die het bij backblaze goed doet kan het dus thuis minder goed doen, maar dat is nu even niet het punt.

Een datacenter is een mooie geconditioneerde ruimte zodat bij gelijke variabelen je mooi kunt zien hoe de schijven presteren. In hoeverre de verschillende pod-versies nog invloed kunnen hebben, moeilijk te zeggen, maar dan zouden de absolute getallen ook veel hoger zijn, vrees ik.

[Reactie gewijzigd door Q op 17 februari 2016 12:35]

In hoeverre de verschillende pod-versies nog invloed kunnen hebben, moeilijk te zeggen
De huidige storage pods, maken weer/nog steeds gebruik van de zelfde type PM printplaatjes met 5x SATA data/power connector er op, gemonteerd op rubberen voetjes.

Maar dit onderzoek toont weer eens aan, dat het gewoon stom/idioot is, om te zeggen, een X aantal Seagate schijven (of een ander product) zijn bij mij dood gegaan, voor mij "NOOIT MEER Seagate".

Jaren geleden waren IBM Deskstar's HDDs een van de betere series van HDDs, tot de Deskstar 75GXP series, aka Deathstars, van tijd tot tijd hebben gewoon alle producenten van hardware, een model/series, waar gewoon een serieuze engineering probleem in zit, uiteraard de bedrijven met een hogere R&D budget zullen er meestal minder hebben, maar een feit is, dat zelfs top bedrijven als bv Intel, Apple of Mercedes, soms een recall hebben van een product waar een engineering probleem/blunder in zit.
Opvallend is dat de WD-hdd's over het algemeen slechter scoren dan die van HGST, terwijl WD het moederbedrijf is van laatstgenoemde.
Wat is daar nou zo bijzonder aan?

Rolls-Royce auto's zijn ook betrouwbaarder dan gewone BMWs, en net als Rolls-Royce, zijn HGST schijven ook een betrouwbaarder en ook duurder product, dan als de producten van het moeder bedrijf.
In geval van HDDs kan een slechte reeks voldoende reden zijn om het merk niet meer te gebruiken. IBM is niet de enige die er aan ten onder is gegaan, ook Maxtor heeft zo een schandaal bijvoorbeeld niet overleefd.

En kan je het de consument kwalijk nemen? Je vertrouwd de producten van deze bedrijven heel veel data toe die vaak belangrijk is voor je. Als je dan op korte tijd meerdere schijven ziet defect gaan dan wil je liever geen schijven meer van die fabrikant.

Maxtor had, als ik me niet vergis, een uitvalpercentage van ver boven de 10% en dat was gewoon onaanvaardbaar. Zeker als je die problemen niet op korte tijd krijgt opgelost.
Er is wel een fors verschil tussen die fabrikanten. Bij IBM waren het precies 2 series die slecht waren en de nog net onder garantie geleverde vervangers bewezen dat ze hun problemen alweer heel snel op orde hadden, bij Maxtor was het jarenlang elke keer weer een loterij.

Op basis van 15 jarige ervaring met honderden schijven is mijn langetermijngemiddelde ongeveer (van goed naar slecht):

IBM / HGST
WD
Seagate
Samsung
Toshiba
Maxtor / Quantum

Na de fusies van de afgelopen jaren klopt dat natuurlijk niet meer helemaal, maar dit zijn de merken zoals die de afgelopen 15 jaar op de schijven stonden en waar ik de ervaringen mee heb. WD, Seagate, Samsung, Quantum en Toshiba zijn merken die ik zo nu en dan leverde of aantrof in computers van andere merken. Zelf voerde ik als hoofdmerken Maxtor en zo nu en dan IBM en ben na voortdurende en aanhoudende kwaliteitsproblemen bij Maxtor (bij slechte series vaak nog binnen de garantie, maar bij diezelfde slechte series eigenlijk altijd wel binnen een jaar of 5 stuk) teruggegaan naar uitsluitend HGST. Tegenwoordig ook wel weer WD of Seagate als dat qua prijs of leverbaarheid zo uitkomt.

[Reactie gewijzigd door mae-t.net op 17 februari 2016 17:08]

Opvallend is dat de WD-hdd's over het algemeen slechter scoren dan die van HGST, terwijl WD het moederbedrijf is van laatstgenoemde.
Eigenlijk is dit helemaal niet zo opvallend en het antwoord op deze vraagstelling wordt door de auteur van dit stuk zonder dat hij dit weet beantwoord.


Belangrijk gegeven is dat Hitachi GST in maart 2012 geacquireerd werd door Western Digital WD. Tot die tijd had Hitachi GST een eigen productlijn waar ze zowel Desktop (Deskstar) als Enterprise (Ultrastar) 2.5 en 3.5" HDD's produceerden. Hitachi GST ging vanaf dat moment door het leven als HGST.

Mei 2012 werd HGST gedwongen door de Mofcom (Chinese mededingingsautoriteit) hun productie lijn te verkopen aan concurrent Toshiba. Het front WD-HGST werd zonder dat te doen te machtig geacht vs Seagate-Samsung en het veel kleinere Toshiba (heb het hier alleen over Toshiba Storage). Vanaf dat moment gingen alle Hitachi GST Deskstar HDD's door het leven als Toshiba DT serie HDD's (bv. pricewatch: Toshiba DT01ACA300, 3TB). De productie van 2.5" HDD's werd vanaf dat moment gestopt aangezien WD succesvol was met hun 2.5" Blue, Green en Black mobile HDD's en HGST ging zich richten op de Enterprise markt met hun betrouwbare Ultrastar HDD's.

Afgelopen december werd bekend dat WD , HGST volledig mocht integreren en werken beide bedrijven toe naar bedrijfsvoering onder 1 naam en volledige integratie van alle bestaande productlijnen.
De reden dat Backblaze koos voor 4TB-hdd's van Seagate in plaats van de nog betrouwbaardere HGST's, is dat de modellen die de cloudaanbieder gebruikt niet meer verkrijgbaar zijn en vervangen zijn voor duurdere varianten.
Nu de voor geschiedenis verteld is en duidelijk is dat Hitachi GST hun Deskstar productie MOEST verkopen aan Toshiba Storage. Is ook duidelijk geworden dat dit de HDD's zijn welke volgens Backblaze niet meer verkrijgbaar zijn. Logisch dus.

Bovenstaande verklaart dus ook waarom het volgens de auteur "opvallend" is dat WD HDD's slechter scoren dan HGST HDD's. Simpelweg omdat de basis van de drive compleet verschillend is. Andere technieken, patenten en productie methodes dus.

De drives hebben niets met elkaar gemeen behalve dat ze door de jaren heen een andere eigenaar op papier hebben gekregen :+

[Reactie gewijzigd door Ibidem op 17 februari 2016 14:54]

Er zijn mensen die beweren dat de informatie van Backblaze 'om redenen' niet relevant is voor consumenten, maar ik waag het sterk te betwijfelen.
Totaal niet relevant is het zeker niet maar je moet het wel relatief nemen, Backblaze == uitsluitend kom je helaas ook te vaak tegen. Hun samplesize is vrij groot maar de diversiteit is er niet. Het is jammer dat dit zo ver mij bekend de enige partij die dit soort gegevens uitgeeft. Om deze reden neem ik de resultaten altijd met een klein korreltje zout. Helaas te weinig vergelijkingsmateriaal. Meer waarde dan een willekeurige gebruiker met ervaring met 3 disken van merk X maar zeker geen uitsluitende resultaten.

In vergelijking, het vraagstuk of men in Nederland gelukkig is, dit gaan ze navragen bij 500.000 mensen maar alleen in Amsterdam. Je samplesize is groot genoeg maar de diversiteit is hier ook niet aanwezig.

OT: Wel grappig om te zien dat het lijkt alsof 4TB en groter bij het overgrote deel van de geteste merken beter blijft draaien dan 3TB en lager.
De bevindingen gelden alleen voor deze specifieke modellen. Maar dat was ook nooit de discussie wat mij betreft.

Je kunt niet zeggen op bassis van deze informatie, merk x is kut of goed. Maar dat is ook helemaal niet wat je wilt. Je wilt van specifieke modellen weten wat de stats zijn.

Van een beperkte set disks weten we dat nu.
En de grap is dat in elk geval de cijfers van HGST wel aardig kloppen met mijn eigen ervaringen in een wat kleinere maar veel diversere sample.
Er zijn mensen die beweren dat de informatie van Backblaze 'om redenen' niet relevant is voor consumenten, maar ik waag het sterk te betwijfelen.
De informatie is zeker relevant, maar hoeft niet per se de echte verhoudingen weer te geven waar wij als consumenten mee te maken hebben. Je kunt inderdaad goed vergelijken hoe de schijven zich onderling verhouden, maar alleen onder gecontroleerde (datacenter) omstandigheden. Er zijn verschillende omgevingsfactoren te bedenken die de levensduur benvloeden maar die in die test niet worden meegenomen. Bijvoorbeeld aak starten/stoppen, wisselende temperatuur, wisselende vochtigheidsgraad. Als sommige schijven daarvoor gevoeliger zijn dan andere, kun je bij thuisgebruik toch andere statistieken verwachten dan bij datacenter gebruik.

Een verschil als 2% uitval of 20% zal daar echt niet door ontstaan, maar 1%, 2% of 3% misschien wel. Deze "test" is naar mijn idee heel nuttig maar zegt nog niet alles over de onderlinge verhoudingen bij thuisgebruik.
De HGST schijven zijn lawaaierig, in een datacenter of een NAS niet erg maar consumenten hebben dat liever niet in een pc die naast ze staat.

[Reactie gewijzigd door Kalief op 17 februari 2016 14:08]

Apart.. nooit gedacht..

Ervaringen van 'vroegah' waren altijd: WD zijn super, Seagates zijn r*k..
(Behoorlijk aantal Seagates gehad die crashten, en 0 WD's)

Heb t al lang niet meer bijgehouden, maar kennelijk is er een verschuiving ontstaan?
Ik geloof dat iedere HD fabrikant wel een periode / serie heeft gehad waar ze minder mee scoren. Deskstars zijn slecht geweest, WD Green waren slecht, toen weer Seagate, dus tja. En dan maken ze weer een serie die wel super is en dan gaat iedereen daar weer naartoe en dan...

Het probleem is, als je HD crashed om wat voor rede dan ook heb je daar niet veel aan. Als je pech hebt ben je gewoon je data kwijt en dan maakt het niet uit of het een WD, Seagate of wat dan ook is. Want zelfs met de beste HD kan het nog steeds voorkomen...
Geen backup is dan ook gewoon stom.
Je zal ze de kost geven die geen backup hebben, we hebben het over gewone consumenten hd's die dus ook nog steeds door gewone mensen worden gebruikt. DIk durf te wedden dat nog steeds 50% geen backup heft.
Stom, misschien maar je moet er toch vanuit kunnen gaan dat iets werkt voor +/- 3 jaar zonder kapot te gaan. Dat is in de regel toch wel haalbaar...
Inderdaad, en dat kan niet vaak genoeg gezegd worden, het heeft dan mi niets te maken met goede of slechte schijven, je data kwijt raken is je eigen schuld.
Hitachi GST heeft het altijd wel goed gedaan na het fiasco van de IBM DeathStar na de overname daarvan. WD mag dan wel eigenaar van HGST zijn, maar ze gaan nog steeds hun eigen gang zover ik weet.
Ze hebben al een paar jaar hun eigen productielijnen niet meer. En ze gaan nu toewerken naar een volledige integratie.
Heb in de periode van 800Mb drives wel meegemaakt dat WD heel slecht was. Toen zweerde ik bij Quantum. Tja, TOT dat de bigfoot uitkwam.
Heb een Big Foot gehad en een 13GXP die ik werkend heb weggelegd na jaren trouwe dienst als multibootdisk.
Dat is leuk voor je. Dat neemt niet weg dat de bigfoot gewoon een extreem slecht produkt was met enorm veel uitval. Vandaar ook de prijs. Alleen zo jammer dat je daarna al je data kwijt was.
Bij Quantum was in mijn ervaring net als bij Maxtor, de kwaliteit extreem wisselend. Series met bijna 100% uitval afgewisseld met series die het zeer lang en ondanks mishandeling maar blijven doen. Ik meen dat de ene bigfoot ook de andere niet was, maar feit is wel dat ook de latere "Quantor" of "Maxtum" single platter single head schijven relatief uitvalgevoelig waren.
Heeeeeel vroeger moest je juist een Seagate hebben, was de rest juist r*k.

Weet nog de tijd van de Quatum Bigfoot... Wat een hel disken. Gingen altijd kapot, maar ze zahen er wel indrukwekkend uit ;)
Individuele ervaringen zeggen helemaal niets, resultaten zoals van Backblaze zeggen wel wat, zelfde omstandigheden en gebruik enzo.

Ik heb hier een 25 jaar oude samsung 230mb die het nog steeds doet.
2 Quantum 5,25 inch Bigfoots doen het hier ook al 20 jaar feilloos.
Vroeger ( 2007 / 2011 ) was ik koerier en bracht ik wekelijks zoniet dagelijks dozen vol RMA producten ( harde schijven ) naar Seagate op Schiphol-Rijk helaas dus ik heb er niet zoveel vertrouwen in helaas..
Het is maar net welke ervaring je hebt. Ik heb "vroegah" 2 schijven van WD gehad die vroegtijdig overleden en (nog) nooit problemen gehad met Seagate. De bovengenoemde ST4000DM000 modellen draaien bij mij inmiddels ook al 2½ jaar trouw hun rondjes. Maar zo'n testje als hierboven geeft waarschijnlijk toch een iets betrouwbaarder beeld :P
De HGST's zijn naar mijn ervaring enorm betrouwbaar, maar ze zijn niet perfect. Zo zijn ze behoorlijk luid, relatief gezien iets onzuinig en klinken beangstigend wanneer de HDD parked. Gelukkig zitten ze (6TB Deskstar NAS v2) bij mij in een nieuwe NAS die 24/7 actief is, dus zo vaak gaan ze niet uit.
En vergeet niet dat ze relatief meer warmte proceduren.
Die van mij tonen een gemiddelde temperatuur van 40 graden - dit was ook iets wat in de Backblaze rapporten terug te vinden was.
Schijnt overigens geen probleem te zijn voor de levensduur.
Volgens Google is warmte geen issue: de relatie betrouwbaarheid/temperatuur is niet sterk, zo ontdekte Google 8 jaar terug al. Backblaze deed dezelfde conclusie.
Je misinterpreteert het onderzoek.
quote: 3.4
Overall our experiments can confirm previously reported temperature effects only for the high end of our temperature range and especially for older drives
Uit het onderzoek blijkt duidelijk dat voor de drie jaar oude schijven er een significant hogere uitval is. Er is dus wel degelijk een relatie tussen uitval en temperatuur zichtbaar. Ze hebben het alleen andersom verwoord.

Wat ze echt concluderen is het volgende:
We can conclude that at moderate temperature ranges it is likely that there are other effects which affect failure rates much more strongly than temperatures do.
Dat een schijf bij "normale" temperaturen uitval gaat vertonen op basis van andere factoren dan de temperatuur is natuurlijk een open deur intrappen.

Ze eindigen overigens met:
quote: conclusie
One of our key findings has been thelack of a consistent
pattern of higher failure rates for higher temperature
drivess or for those drives at higher utilization levels.
Such correlations have been repeatedly highlighted
by previous studies, but we are unable to confirm them
by observing our population. Although our data do not
allow us to conclude that there is no such correlation,
it provides strong evidence to suggest that other effects
may be more prominent in affecting disk drive reliability
in the context of a professionally managed data center
deployment.
TLDR: Onze belangrijkste vondst is dat we geen consistent patroon konden vinden in wat iedereen verwacht had mbt temperatuur en belasting. We hebben heel sterk het gevoel dat er iets anders speelt, maar wat er speelt weten we niet en we kunnen het ook niet hard maken.

Het onderzoek is een leuk initiatief maar eigenlijk heeft het een revisie nodig. Eigenlijk heeft Google niets echt aangetoond. Ze hebben het vaker over "could" (zou kunnen) en "suggests" (suggereert) dan dat er daadwerkelijk harde conclusies worden getrokken.

Ik de bovenstaande reactie dus niet in 2 zinnen als waarheid gaan beschrijven.

[Reactie gewijzigd door sdk1985 op 17 februari 2016 15:31]

Meer warmte produceren is wel een probleem voor koeling in datacentrums en de overige apparatuur in de ruimte.
Ik denk dat de stabiliteit in temperatuur belangrijker is voor de levensduur, en volgens mij gaf google ook aan dat schijven die 40-45C lopen langer meegaan dan schijven die 20-25C range zitten, en natuurlijk dat het continue laten draaien van de schijven beter is dan spinup/downs.
Bij mij draaien de twee interne 4TB HGST drives tussen de 32-36C (afhankelijk van load) achter een 200MM fan met een kamer temperatuur van 21-25C, de externe 4TB kan wel oplopen tot 40C, zit geen fan in, maar deze kan ik bovenop de PC kast leggen waar de 200MM fan hem wel stabiel rond die temperatuur houdt, is ook alleen voor back-ups.
Ze zijn ook iets luidruchtiger dan bijvoorbeeld de WD NAS schijven vanwege de 7200RPM, waar WD vooral 5900rpm en lager gebruikt, behalve de WD Red Pro geloof ik.
Het meeste merk je het pas wanneer ze meerdere dingen tegelijk moeten doen, maar anders valt het wel mee.
De externe 4TB hier maakt amper geluid onder het schrijven of lezen maar deze is ook amper gefragmenteerd en doet alleen 1 actie tegelijk zoals wegschrijven of lezen i.p.v dat programma's er ondertussen ook gebruik van maken.
Dus de conclusie is : bedrijf kiest voor seagate omdat HGST niet meer beschikbaar is. Ik had nog nooit van HGST gehoord om eerlijk te zijn, maar de volgende hardeschijf die ik koop is daar zeker een van, de betrouwbaarheid is niet te vergelijken met de andere merken!

[Reactie gewijzigd door SBTweaker op 17 februari 2016 13:06]

Western Digital heeft HGST (Hitachi Global Storage) gekocht, HGST had eerder IBM's HDD business overgenomen. WD en HGST blijven opereren als aparte brands met aparte producten waarbij ze elkaar dus ook beconcurreren.
Ik zal wel de statistische uitzondering zijn. Ik heb in de het afgelopen jaar al 3 Seagate 3TB schijven moeten begraven.

Allen minder dan 2 jaar oud. Ze werden niet intensief gebruikt. Als onderdeel van mijn backup store, kwam er meestal alleen dagelijks een diffsetje bij.

3 schijven van 8 die het het zo snel en plotseling begeven ... dat is bijna net zoveel uitval dan ik de afgelopen 10 jaar in totaal heb gehad. Bij de andere uitval kreeg ik meestal vooraf nog corruptie signalen. Deze waren van het een op het andere moment dood.

Seagate heeft het wel een beetje verbeurd bij mij.
De teneur van het artikel was toch juist dat de 4 en 6TB Seagate schijven veel minder slecht presteren dan hun 1,5 en 3TB schijven.
Daar sluiten jouw persoonlijke ervaringen juist goed bij aan.
Ik heb zo'n 3tb schijf (die uit het bericht van vorig jaar zo'n hoge uitval had) in mijn pc als data schijf. Als je dit allemaal leest krijg ik wel de kriebels om snel even een andere schijf te kopen voor backups :/
Interessante materie is dit altijd. Volgende keer blijkbaar toch bij HGST shoppen. Dit is natuurlijk wel een zeer klein deel van de totaal geproduceerde drives maar ik denk dat dit toch wel een reel beeld schetst qua betrouwbaarheid.
Het is toch altijd iets opvallends om tr lezen, ik heb schijven van tig jaar oud (uit de 486) uit computers geschroefd die het nog steeds doen en dan lees je over schijven die het nog geen 2 jaar uithouden
Wauw! De HGST "HDS5C3030ALA630" zijn gemiddeld bijna 2 jaar oud met een uitval van slechts 0,84%! Op basis van de tabel is dit de oudste schijf met hoogste betrouwbaarheid. Dat zou als consumentenversie deze moeten zijn:

Hitachi Deskstar 5K3000, 3TB

En die is inderdaad niet meer te koop (2011).

Ben wel benieuwd wat de betrouwbaarste 2.5" HDD is!

[Reactie gewijzigd door Jazco2nd op 17 februari 2016 13:38]

Laagste *on*betrouwbaarheid, btw.
Jaren geleden een set WD Green schijven gekocht en in mijn NAS gestopt. Dat zijn toevallig dezelfde schijven als Backblaze ook gebruikt heeft en die na zes of bijna zeven jaar vervangen worden. Niet omdat ze kapot zijn maar omdat het uit kan om ze te vervangen voor een hogere capaciteit. Het is eigenlijk toeval dat ik deze schijven ook heb maar ben blij dat ze nog steeds heel betrouwbaar zijn. Mijn schijven draaien ook nog steeds prima zonder SMART meldingen en ik hoop dat ze dat nog een poosje blijven doen. Eind dit jaar wil ik de capaciteit ook vergroten dus dan komt er wat anders in.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Microsoft Xbox One S FIFA 17 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True