Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 109 reacties
Submitter: player-x

De aanbieder van clouddiensten Backblaze is tevreden na de migratie van duizenden 2TB-hdd's van HGST en WDC voor een lager aantal 8TB-exemplaren van Seagate. Het geannualiseerde uitvalpercentage van de Seagate-drives komt overeen met de goed presterende HGST-schijven.

Afgelopen kwartaal schakelde Backblaze 3405 HGST-hdd's van 2TB en 138 WD-drives van 2TB uit en migreerde de data naar 2400 nieuwe 8TB-hdd's van Seagate. "We zijn meer dan 1100 harde schijven kwijtgeraakt maar hebben er 12 petabyte aan opslag bij", aldus het bedrijf. De overstap is onderdeel van een migratietraject dat een kwartaal eerder werd ingezet en waarbij 32 petabyte bijgeschreven kon worden door in totaal 5120 nieuwe 8TB-drives van Seagate in gebruik te nemen.

Rekening houdend met de kosten van de hdd's, die van de migratie, het verbruik en andere factoren is zo'n overstap al te rechtvaardigen, maar volgens het bedrijf was de uitval een onzekere factor, omdat de HGST-schijven het goed hadden gedaan. "Uitval kun je verwachten maar onze kosten gaan omhoog als de nieuwe drives twee tot drie keer zoveel uitvallen als de 2TB-varianten."

Dat bleek niet het geval. Het geannualiseerde uitvalpercentage komt uit op 1,60 procent, net als dat voor de HGST-hdd's. Aangezien de gemiddelde leeftijd van die schijven 66 maanden was, lag het in de verwachting dat de uitval zou gaan stijgen, aldus Backblaze.

Backblaze is bekend geworden met de publicatie van statistieken over de betrouwbaarheid van harde schijven. Daaruit kwam in het verleden onder andere naar voren dat bepaalde 3TB-schijven van Seagate vaak uitvielen. Bij de resultaten moet aangetekend worden dat het om reguliere hdd's gaat die zwaarder belast worden dan bij consumentengebruik. Voor dit soort werklasten hebben fabrikanten duurdere enterprisemodellen in hun assortiment, waar Backblaze geen gebruik van maakt. Ook moet bij de interpretatie van de lijst met uitvalpercentages rekening gehouden worden met lage samplerates bij sommige modellen.

Backblaze Q3 2016Backblaze Q3 2016Backblaze Q3 2016

Moderatie-faq Wijzig weergave

Reacties (109)

Wat is het voordeel van minder schijven? als er dan nu toch eentje stuk gaat is er meer data verloren dan eerst?
Statistisch gezien niet.

Of je nou 40 schijven hebt van 2 TB of 10 schijven van 8 TB, als 10% daarvan per jaar uitvalt komt dat nog neer op 8TB aan dataverlies, in beiden gevallen hetzelfde.
Wat wél een groot verschil maakt is dat 1x 8TB schijf 4x zo weinig ruimte in beslag neemt als 4x 2TB schijven (rackspace is duur en vergeet niet dat al die HDD's in een server gehuisvestigd moeten worden die ook geld kosten) en dat die ene 8TB schijf minder stroom vreet en warmte produceert dan 4 2TB schijven. Gezien de Seagate 8TB desktop HDD ~4x zo duur is als de Seagate 2TB desktop HDD is dat dus een zeer goede deal, de prijs/GB is nagenoeg gelijk.

[Reactie gewijzigd door Ayporos op 17 november 2016 22:05]

wat wel lastig is, is dat als een drive uitvalt de data van deze drive na uitwisselling teruggekopieerd moet worden, hetgeen langer duurt met een grotere disk.
gezien backblaze infrastructuur gegarandeerd werkt tot en met 3 simultane HDD failures is er dus meer risico met grote drives (duren lager voordat ze weer volledig gevuld zijn) dan met kleinere drives.

een argument kan gemaakt worden dat er minder schijven zijn en er dus ook minder kunnen falen, en er dus logischerwijs minder zullen falen in de zelfde tijdsspan, maar het blijft een kanttekening
Met dergelijke volumes, zoals Backblaze heeft, is Ceph een mooie oplossing (niet gezegd dat ze dat doen).
Dan stel je een erasure-code in, waarbij je per K stukken data M stukken data redundant hebt.
Een veel gebruikt level is bijvoorbeeld 18/5 (K + M = 18, M = 5) Per 18 units (disks, servers, racks) kun je er dan 5 verliezen.
Maar ik begrijp uit jouw post dat M hier 3 is.
Dan hangt het van de waarde van K af, hoeveel redundantie er is.
En met systemen als Ceph is het zo dat je niet een hele schijf kwijt raakt, maar alleen de blokken die je niet redundant hebt. De kans daarop is met Erasure-code erg klein, zeker als je de redundantie schaalt tot meerdere racks.
En zodra er een blok data minder dan de vereiste redundantie heeft, gaan andere schijven ervoor zorgen dat de redundantie op peil is.

Rebuilds gaan dan ook weer lekker rap, want alleen de nieuw te plaatsen schijf heeft het druk. de blokjes komen van vrijwel alle andere schijven in het cluster, dus zijn maar een fractie van de tijd aan het lezen en dus vrijwel geen merkbare performance-loss.
Als je per hdd ook nog een filesysteem gebruikt wat bitrot kan detecteren, zoals BTRFS, dan zit je helemaal goed. (dus als laag tussen hdd en Ceph)

Dit is niet uniek voor Ceph, maar is op meer systemen van toepasing die gebruik maken van Erasure-code.
Het is niet zo erg als vroeger, met RAID.
Wat je vergeet te zeggen is dat erasure code ervoor zorgt dat je een local parity hebt zoals bij traditioneel raid en een global parity. De extra parity bits geven het voordeel dat minder disken (IO) nodig is voor de rebuild van de missende en vernieuwde disken.
Blackblaze gebruikt een eigen software implementatie van redundancy, daarin staat de data drievoudig weggeschreven op hun systemen.. De disks zelf worden individueel aangesproken, en een soort van RAID wordt er niet gebruikt.

Als een schijf faalt, zal de data die op die schijf stond naar "ergens" in hun datacenter gerepliceerd worden, zodat er terug triple redundancy is.
Vermits er op dat moment nog minstens 2 bronnen zijn (waarschijnlijk meer, vermits de data niet noodzakelijk per schijf gebundeld is), en meer dan voldoende plaats om naartoe te schrijven is, zal dit meer dan vlot genoeg gaan.

*Toch voor zover ik heb gelezen over hun systemen.
Als ik het goed heb, gebruiken ze GlusterFS.
http://jread.us/2013/06/o...usterfs-project-overview/

Waarbij onder load een replica set weer in sync brengen ongeveer 2 dagen duurt van 3TB.
Wel een significante kanttekening overigens hoor!

Het klopt dat je met grotere drives langer met een rebuild bezig bent, wat gevaarlijk is want de kans is groter op een 2e of 3e drive die uitvalt bij een rebuild dan bij normale operatie (omdat ze normaal gesproken niet constant belast worden).

Daarom is het dan ook erg belangrijk om altijd periodieke drive health checks te doen, om te checken of de data op de schijf/schijven nog wel integer is. Er bij een rebuild achter komen dat een (of meer) van je andere drives slechte sectoren hebben is zeer onwenselijk. Dit soort dingen zou je anders nooit te weten komen in het geval dat die sectoren bestanden beslaan die je nooit uitleest...
Als je uitgaat van de kansberekening, dan valt het eigenlijk wel weer mee, aangezien er er in totaal minder fysieke harde schijven stuk gaan.

Hier een voorbeeldje :
Als ze eerst 400 harde schijven van 2TB in gebruik hadden voor de data, dan hebben ze nu maar 100 harde schijven nodig van 8TB. Bij bijvoorbeeld 10% uitval zouden ze eerst 40 harde schijven moeten vervangen en nu nog maar 10.

Dus per rebuild is er 4x meer risico in verband met de tijdsduur, maar je hebt 4x minder risico dat je een rebuild moet doen. Dus in mijn ogen blijft het risico redelijk gelijk.
Het blijft zelfs exact gelijk :)
Wel een significante kanttekening overigens hoor!

Het klopt dat je met grotere drives langer met een rebuild bezig bent, wat gevaarlijk is want de kans is groter op een 2e of 3e drive die uitvalt bij een rebuild dan bij normale operatie (omdat ze normaal gesproken niet constant belast worden).

Daarom is het dan ook erg belangrijk om altijd periodieke drive health checks te doen, om te checken of de data op de schijf/schijven nog wel integer is. Er bij een rebuild achter komen dat een (of meer) van je andere drives slechte sectoren hebben is zeer onwenselijk. Dit soort dingen zou je anders nooit te weten komen in het geval dat die sectoren bestanden beslaan die je nooit uitleest...
Technieken veranderen steeds. Ik heb recentelijk een snapraid met 8 TB parity in 7 uur opgebouwd. In dit geval praten we over 22 TB. Vroeger was je daar inderdaad letterlijk dagen mee bezig.

Een systeem waarbij je langer dan 24 uur aan het rebuilden bent kan ik niemand aanraden.

[Reactie gewijzigd door sdk1985 op 18 november 2016 16:50]

Zelf ben ik erg voorstander van RAID 1 over je RAID 1x,2x of 3x parity arrays te gooien (in het geval van essentiële data), zo kun je, zelfs wanneer een rebuild failt, gewoon de drives wipen, een nieuwe schone raid opbouwen vanaf het 2e paar in de RAID 1. RAID bovenop RAID heeft echter ook weer zo z'n nadelen maar je moet toch sowieso (als je écht serieus veilig wilt zijn) een complete off-site backup hebben dus die kun je ook prima als de 'raid 1' beschouwen.

Je kunt uiteraard ook alvorens de rebuild alle data eerst even kopiëren naar een 'TMP' array (van SSD's) zodat je in plaats van 1x een langzame operatie 2x een snelle operatie hebt.

[Reactie gewijzigd door Ayporos op 18 november 2016 23:38]

Ik doe nu met RAID6 over 6x4TB 24 uur over een rebuild. Met 8TB disks zal dat het dubbele zijn.

Verder weet ik niet wat voor setup ze daar draaien, maar een enorm voordeel van bijvoorbeeld ZFS tov hardware RAID is dat een paar bad sectors helemaal geen probleem zijn. Als je zo'n disk wilt vervangen draait ie gewoon mee totdat ie compleet vervangen is.
Dat werkt helaas niet zo. Het gaat om failures per schrijf en niet per GB.

Wat wel zo is, is dat ze per schrijf net zoveel backups zullen hebben dus dat daarmee de kans op dataverlies wel op hetzelfde niveau blijft.

[Reactie gewijzigd door mrdemc op 18 november 2016 08:10]

"Het geannualiseerde uitvalpercentage komt uit op 1,60 procent, net als dat voor de HGST-hdd's"

Het klopt dat dat in der daad per schijf is en niet per GB, maar dat betekent hetzelfde.

Op hoeveel manieren kan ik uitleggen dan 1,6% van je schijven verliezen hetzelfde is als 1,6% van je beschikbare GB's verliezen, ongeacht of je 8TB, 2TB of zelfs 100GB schijven gebruikt??? :O
Je hebt inderdaad gelijk, ik zat zelf scheef te rekenen geloof ik :x
Had er al een lange dag opzitten :P

[Reactie gewijzigd door mrdemc op 18 november 2016 08:39]

Geldt alleen ingeval het allemaal dezelfde schijven zijn.
stel 100 schijven 8TB en 100 schijven 2TB
1,6% van (800 + 200 TB) is 16 TB
dit kunnen nu 8schijven van 2TB of 2 schijven van 8TB zijn.
(of ergens tussenin)

Maakt dus duidelijk wel verschil ;)
Ja maar je verliest nog steeds hetzelfde PROCENT van je data, of je nou 1GB aan data of 1000TB aan data opslaat ;)

Dát is wat ik bedoel met procenten, ze geven een procentuele hoeveelheid aan ten opzichte van het geheel, ongeacht hoe groot dat geheel is.
Als die 8TB dezelfde jaarlijkse uitval in procenten heeft als een 2TB schijf dan zijn ze dus wel degelijk een betere keuze voor een bedrijf om haar data op op te slaan. Ze gaan niet ineens hun data verviervoudigen, de hoeveelheid data blijft hetzelfde na de migratie als voor de migratie (natuurlijke datagroei buiten beschouwing gelaten uiteraard)
Valt 10% van de "datahoudende materie" uit, of met andere woorden, 10% van het opslagvolume, dan heb je gelijk. Gaat het echter om 10% van de schijven, dan brengt een grotere schijf die kaduuk gaat natuurlijk veel meer dataverlies met zich mee, niet voor het totaal, maar wel per verloren gegane schijf.

aanvulling: niet voor het totaal, maar wel per verloren gegane schijf.

[Reactie gewijzigd door Jorgen op 18 november 2016 13:55]

Als jij 10 schijven hebt van 8TB, en 10% daarvan valt uit, hoeveel data ben je kwijt?
Als jij 40 schijven hebt van 2TB, en 10% daarvan valt uit, hoeveel data ben je kwijt?

De strekking dat je minder data kwijt bent wanneer je kleinere schijven gebruikt is volstrekte onzin, dat heeft enkel betrekking op de hoeveelheid schijven die je gebruikt... Als je een datacenter vol met schijven hebt staan is 10% verlies idd meer 'data' dan wanneer jou 4-bay NAS 10% van z'n schijven verlies (even ter vergelijking want natuurlijk kan je in een 4-bay nas niet 10% van je schijven verliezen.. enkel in incrementen van 25%).

Ik doe niet graag een persoonlijke aanval hoor, en vat het niet op als een flame ajb, maar wat snappen jullie niet aan wat een percentage inhoud???? Ik weet echt niet hoe ik het duidelijker moet uitleggen.. buiten jullie allemaal linkjes gaan lopen sturen naar Statistieken 101 en daar heb ik geen zin in.
Je negeert echter de factor tijd die ook nog relevant is en je aantallen zijn te klein om zinnig te zinnig.

Backblaze houdt maar 3 kopieen vast, oftewel als er binnen de tijd van restoren van 1 hdd er 2 andere stukgaan met dezelfde data dan heb je daadwerkelijk dataverlies.

En met 4x zo grote schijven zit je met een 4x zo grote restore tijd.
En met 4x zo weinig schijven zit je met x% hogere kans dat er daadwerkelijk alle 3 de kopieen op hetzelfde moment stukgaan.

Dat is allemaal niet relevant met 10 schijven en uitval van 10% want dat is maar 1 schijf... Echter met 1000 schijven of 4000 schijven gaan dat soort dingen opeens wel meetellen...
de kans dat je 3 kopien van de data kwijt raakt die op verschillende disks staan voordat je een van die disks opnieuw gedupliceerd hebt is
1.6%^3 x (dupliceertijd in jaar)^3
dupliceertijd[jr] = 3 uur(?) = 0.125/365
=> totale kans op dataverlies = 0.016^3 x 4.02e-11 = 1.65e-14 %
Dat gebeurt dus pas na the volgende paar extinction events.

Theoretisch!
In de praktijk heb ik wel eens 2 disks van een RAID 5 verloren binnen een half uur. Dan helpt het niet als je ieder uur checkt of the RAID nog goed is.. Gevalletje zelfde batch dus even snel kapot oid.
Tegenwoordig ZFS. Ben ik een stuk geruster op.
Dat klopt helemaal maar jij kijkt alleen naar het totale volume. Als een schijf uitvalt, ben je - met een beetje pech - de volledige inhoud van die schijf kwijt. Daar is RAID voor uitgevonden. Geen backup, maar wel risicospreiding.

Als 10% van je opslagcapaciteit uitvalt, ben je inderdaad met 10x8 en 40x2 evenveel data kwijt. Dat klopt. En neem je daar 10% van, dan heb je nog steeds hetzelfde dataverlies. Waar het mij omgaat, is dat je per verloren schijf meer dataverlies hebt. Dat heeft niks met statistiek en kansberekening te maken, maar is gewoon een feit. Aangezien je normaalgesproken niet die 10% in 1x verliest, maar er gewoon eens een schijf defect raakt, is het mogelijke dataverlies, per crash hoger bij grotere schijven, maar in zijn totaliteit genomen natuurlijk geheel gelijk.

En nee, ik vat het niet op als flame. Discussiëren mag altijd.
Ik snap je punt, gezien je minder RAID arrays hebt die per RAID een grotere hoeveelheid data serveren betekent dat dat je meer data verliest in het scenario dat een RAID array sterft. Dat is natuurlijk niet de uitgangspositie en met 3x parity erg onwaarschijnlijk maar daar heb je wel gelijk in ja.
Wat zou je denken van stroom verbruik en en kosten per SATA port, en de kans op data verlies bij BackBlaze is behoorlijk klein, daar verschillende vormen van data redundantie tegelijk gebruiken.

In de machine zelf wordt raid gebruikt, en daar naast worden er waarschijnlijk meerdere mirror's gebruikt, zo wel lokaal als waarschijnlijk offsite.

Zelf heb ik ook 8TB (10x) schijven in mijn server zitten, en de ¤/GB prijs is gigantisch naar beneden gegaan, en met BtrFS R6 redundantie (bijna vergelijkbaar met ZFS RaidZ2), een ZFS Z2 offline backup op mijn oude server met 24x 3TB, heb ik weinig angst voor data verlies.

Maar mijn gemiddelde energie verbruik ging wel naar beneden met +/-75% naar net ff 50W, dat scheelt me 150W = ¤300/j, en dan hebben we het alleen maar over stroom verbruik van mijn kleine servertje, bij BlackBlaze praat je over hele andere cijfers.

Daarnaast maakt het gebruik van minder servers, het beheer een stuk makkelijker, en daar door ook betrouwbaarder, daarnaast wordt er ook manuren bespaart aan onderhoud.
Oh ja dat was ik nog vergeten in mijn post!

Er moet natuurlijk in zo'n datacenter als dat van Backblaze iemand non-stop on-call zijn om dode schijven te vervangen... en je hebt uiteraard schijven in reserve nodig... Die 2 dingen terugbrengen spaart ook weer in de kosten natuurlijk. :)
Lijkt me dat ze wel een rack vol hot spares hebben?
Dan hoeft de diskswap bediende zich niet te haasten, en is het prima zolang ie gemiddeld elke week/maand evenveel schijven vervangt als stuk gaan.
Die hebben ze ook. En inderdaad ook hot spares.
En die man verwisselt eens in de zovel tijd de schijven en gaat dan weer aan de slag om de echte kapotte schijven van de herformateerbare te scheiden.

Maar met minder schijven heb je nog steeds zo'n mannetje nodig dus daar kan je niet op besparen.

[Reactie gewijzigd door Durandal op 18 november 2016 02:32]

Mag ik vragen welke merk 8TB drives je op dit moment gebruikt? Ik heb nu 6x3TB RAIDZ2 draaien en ben van plan wellicht een 2de server te gaan bouwen met 8TB drives omdat mijn huidige pool 85% vol zit.

Ik ga de boel dan splitsen en met znapzend belangrijke data syncen. Ik vroeg me af in hoeverre 8TB drives nadelig (qua resilvertijd) zijn als je moet resilveren bij ZFS/BtrFS. De schijf één voor één vervangen is natuurlijk ook een optie, maar dan ben ik denk ik weken bezig met resilveren.

Wellicht is deze Seagate drive wel een goede optie, zeker met zulke lage failure rates, wat ik toch wel bijzonder vind voor een desktop drive.

[Reactie gewijzigd door FREAKJAM op 18 november 2016 11:33]

Je kan de zelfde tijd ver wachten als voorheen, alleen x2.666 in tijd, daar de disk zoveel groter is, als je de disk weer helemaal vol hebt.

Mijne gebruikt BtrFS, en mijn netto array ruimte is ongeveer net zo groot als voor heen, en BtrFS ondersteund OCE, en dan kan je schijven toevoegen indien nodig, en heb mijn oude server als offline backup/mirror server.
Zelf heb ik ook 8TB (10x) schijven in mijn server zitten ... met BtrFS R6 redundantie
Ehm... Dat is best dapper ?
Btrfs raid56 is geen stable feature. Zie wiki van btrfs. Pas deze week zijn op de mailinglist patches verschenen die het probleem mogelijk verhelpen.
Heb een dagelijkse backup van mijn server op mijn offline backup server, en de echt belangrijke data wordt ge mirrored op een R1 van 4TB HGST's.

En heb een half jaar probleemloos intensief disk crashes ge-simuleert, voor die server life ging, en zo als ik zij ik heb nog steeds een volledige ZFS backup.
Stroom?? Om maar iets te noemen. Ruimte??
Niet alleen stroom, ruimte en servers, maar ook manuren per TB storage.
Ik raad aan om de blog van Backblaze eens door te lezen.
Ze hebben een zeer interessante manier van werken. De storage-pods (servers) die ze bouwen, zijn volledig open source, dus je kunt ze zelf nabouwen.
En ze hebben zo'n kwart ExaByte aan storage staan, dus hebben wel voordeel van schaalvergroting :)
Er zijn ook al 10 TB schijven, maar die zijn momenteel per TB nog wat prijzig.

Ik heb die blog redelijk uitgeplozen, mede omdat je daarmee een hele duidelijke ondergrens hebt van de prijs per GB voor mass-storage, zodat je commerciële partijen kunt vergelijken.
Minder satapoorten nodig in je racks ;)

Een server kost rap een paar duizend euro. Als je die vol met 8TB drives kan stoppen bespaar je snel veel geld. Ruimte in je rack kost ook geld, al snel een paar honderd euro in de maand. En een 8TB schijf is niet veel onzuiniger vermoed ik, energie kost ook geld.Na 5 jaar heeft zo'n schijf bij 5 watt al 50 euro aan energie gekost :)

En bovendien, je moet alle data 2 of 3 keer opslaan. Het is niet dat als je 2TB schijven hebt je opeens maar de helft hoeft op te slaan ofzo.
Vergeet vooral ook niet de koeling, als een schijf 5w verbruikt kun je er ongeveer vanuit gaan dat de koeling ditzelfde verbruikt.
Dat valt wel mee, in moderne datacenters is dat wel weer anders. Ik geloof dat je 20 tot 30 procent extra energie nodig hebt om de warmte af te voeren. Iemand die hier betere cijfers voor heeft, graag. O.a. Google gebruikt al geen airco's meer maar bijv. water. Facebook doet buitenlucht gebruiken volgens mij.
Zoals genoemd, stroom, ruimte.
Ook heb je minder servers nodig, omdat je met hetzelfde aantal harde schijven meer ruimte hebt.
Wat is het voordeel van minder schijven? als er dan nu toch eentje stuk gaat is er meer data verloren dan eerst?
Daar zat ik ook aan te denken. Maar bij een zelfde totale capaciteit en uitvalspercentage is de kans dat er een HDD kapot gaat, met 2TB HDD's 4x zo groot dan met 8TB HDD's omdat je nog maar 1/4 van het aantal nodig hebt.
Dat lijkt me niet echt ergens op slaan.. dat wordt gewoon gecompenseerd doordat er minder hdd's in gebruik zijn.
Wat is het voordeel van minder schijven? als er dan nu toch eentje stuk gaat is er meer data verloren dan eerst?
Elke schijf kost geld in de vorm van stroom en ruimte (rack, controllers, enz). Verder zijn de systemen zo ingericht dat het geen probleem moet zijn als er een paar stuk gaan.
Daarom heb je morror & raid.
Echter, de kans dat er 1 uitvalt op 40x2TB is 4x groter dan de kans dat er 1 uitvalt op 10x8TB. Dus de kans op falen blijft beperkter bij grotere schijven.
Met een grotere inhoud zijn er in totaal minder schijven nodig waardoor er minder energie verbruikt wordt, bovendien staan de schijven in een RAID opstelling waardoor de data bij een of meerdere defecte schijven terug gezet kan worden.
Hoogst waarschijnlijk is er helemaal geen data verloren. De disk zal onderdeel zijn van een array. Waar dan waarschijnlijk hot-spares in zitten en dan wordt de disk dus direct vervangen door het systeem. Minder schijven is minder kosten (energie / ruimte / array-systemen, etc. etc.)
Wat is het voordeel van minder schijven? als er dan nu toch eentje stuk gaat is er meer data verloren dan eerst?
Neemt minder ruimte in en verbruikt per saldo minder energie...
Dat kan dus op deze schaal flink wat voordeel opleveren.
Ik zou me eerder zorgen maken over het nadeel... plots heeft je storage systeem nog maar 25% IOPS over van je origineel systeem.
Verbruikt natuurlijk veel minder energie.
The Seagate 8 TB drives are doing very well. Their annualized failure rate compares favorably to the HGST 2 TB hard drives. With the average age of the HGST drives being 66 months, their failure rate was likely to rise, simply because of normal wear and tear. The average age of the Seagate 8 TB hard drives is just 3 months, but their 1.6% failure rate during the first few months bodes well for a continued low failure rate going forward.
Ik zie de cijfers over een jaar of twee nog wel een keer tegemoet, kan je weinig vanop uitgaan op dit moment.

En voor de mensen die denken dat deze publicaties onzin zijn en nutteloos vanwege de omstandigheden, dat zou naar mijn mening weinig uit moeten maken.

Je wilt immers dat je het product kan vertrouwen, en des te beter een product om kan gaan met ruwe omstandigheden, des te beter het te vertrouwen is in minder ruwe omstandigheden.
Incidenten daar gelaten, dat gebeurd altijd, dus back-ups back-ups back-ups...
Je moet er wel rekening mee houden dat backblaze consumentenschijven 24/7 laten draaien in een omgeving waar deze niet voor ontworpen zijn. Ik ben in een eerder artikel over backblaze ook al tegengekomen dat de schijven niet altijd in optimale condities zijn geïnstalleerd (weinig koeling, weinig trillingsdemping) maar dat artikel kan ik natuurlijk weer niet terugvinden. Punt is dat enterprise schijven anders ontworpen zijn en andere componenten gebruiken dan consumentenschijven en onderling vergelijken gaat vaak niet helemaal goed op. Dat is een beetje een VW Golf vergelijken met een Sherman tank op basis van prestaties in de woestijn.
Ik hoor dit argument vaker en zeker ook in verband met BackBlaze, maar ik heb nog nooit een echt goede bron gezien waaruit blijkt dat consumentenschijven en enterprise schijven zo verschillend ontworpen en gebouwd zijn. Ik heb in mijn leven al heel wat harddisks uit elkaar gehaald, ook op mijn werk, en zo op het oog zit er nauwelijks verschil tussen de schijven thuis en de "enterprise grade" schijven, dus ik ging er altijd maar vanuit dat het verschil zit in stresstests en dergelijke.
Ik verbaas mij ook altijd over die enterprise grade schijven. Als die zoveel anders zijn, waarom zijn ze dan niet schrikbarend veel duurder? Het lijkt me dat deze schijven minder verkocht worden, en daarmee dus duurder zouden moeten zijn. Zelfs al is het verschil een ander soort metaal wat minder gevoelig is voor termische verschillen of in ieder geval meer gelijk aan de andere componenen, dan zouden deze schijven echt veel duurder moeten zijn, maar dat valt dus wel mee.
bijna 3x zo duur voor een beetje enterprise schijf valt, voor een consument, niet mee
De schijven zijn al behoorlijk aan de prijs voor de meeste consumenten en een echte enterprise (niet instap enterprise) zijn ongeveer 3x zo duur
Heeft ook vooral te maken met de garantie. Ik heb er toch twee gekocht, en ik heb garantie tot 2019.
Maar als ze 3x zo duur zijn dan kun je dus 2x twee nieuwe kopen in die tijd en dan moeten ze nog buiten de garantie kapot gaan ook nog. Dan ga ik toch voor de consumenten versie.
Totdat er teveel tegelijkertijd kapot gaan en me je data niet meer kan overzetten
Tja, wikken en wegen. Hoe belangrijk is de data voor je en is een backup op maar twee schijven dan wel voldoende als het zo belangrijk is?
Ik hoor dit argument vaker en zeker ook in verband met BackBlaze, maar ik heb nog nooit een echt goede bron gezien waaruit blijkt dat consumentenschijven en enterprise schijven zo verschillend ontworpen en gebouwd zijn. Ik heb in mijn leven al heel wat harddisks uit elkaar gehaald, ook op mijn werk, en zo op het oog zit er nauwelijks verschil tussen de schijven thuis en de "enterprise grade" schijven, dus ik ging er altijd maar vanuit dat het verschil zit in stresstests en dergelijke.
Harde schijven zijn mechanische producten die onderhevig zijn aan slijtage. Seagate geeft de volgende specs op per schijf:

-aantal load cycli (300k voor desktop, 600k voor NAS)
-aantal TB schrijven per jaar (55 TB voor desktop schijven,180-300 voor NAS)
-uren ingeschakeld per jaar (2400 voor desktop schijven = 8x5, vs 8760 voor NAS/Archive/Enterpise = 24x7)

[Reactie gewijzigd door sdk1985 op 18 november 2016 16:39]

Ik ken de specs, maar daar ging het me nu juist precies niet om. Ik heb deze specs zich nog nooit zien vertalen in significante verschillen aan de binnenkant van de verschillende type schijven. @wizzard48 maakt nog wel een goed punt dat de lagers en armatuur van enterprise schijven waarschijnlijk iets beter zijn van kwaliteit en dat kan je met het blote oog natuurlijk moeilijk zien, maar verder is er weinig anders. En als de ervaring nou consistent beter zou zijn met hele dure schijven, maar dat is ook niet het geval. Je kunt enterprise schijven kopen die 3 keer zo duur zijn als bijvoorbeeld WD Reds, maar echt niet dat die zo heel veel langer mee gaan in mijn ervaring.
Dat er binnen het merk wel verschillen zijn blijkt nu net uit die data van Blackblaze. Daar vielen de desktop schijven namelijk "door de mand" bij de datacenter toepassingen. Dit in sterk contract met de consumer return rates die gewoon normaal waren.

WD red lijkt mij verder niet zo relevant in deze discussie, dat is een NAS serie (dus ontworpen voor 24x7) van een ander merk.
3 To :
•3,59% Toshiba DT01ACA300
•2,17% WD Black WD3003FZEX
•1,75% WD Red Pro
•1,55% Seagate NAS HDD ST3000VN000
•1,49% Seagate Barracuda 7200.14 ST3000DM001
•1,31% Western Red WD30EFRX
•0,99% Toshiba PA4293E-1HN0
•0,97% Seagate Surveillance HDD ST3000VX000
•0,93% WD Green WD30EZRX

4 To :
•4,32% WD Black WD4003FZEX
•1,91% Seagate Desktop HDD.15 ST4000DM000
•1,70% WD Green WD40EZRX
•1,66% WD Red WD40EFRX
•1,24% Toshiba PX3009E-1HP0
•1,22% Seagate Desktop SSHD ST4000DX001
•1,20% Seagate Constellation ES ST4000NM0033
•0,79% Seagate NAS HDD ST4000VN000
•0,60% WD Purple WD40PURX
•0,57% Hitachi Deskstar NAS
•0,34% Hitachi Deskstar 7K4000
Seagate doet het aan de consumenten kant momenteel iets beter dan WD
•HGST 0,60% (contre 0,81%)
•Seagate 0,69% (contre 0,60%)
•Western 1,00% (contre 0,90%)
•Toshiba 1,15% (contre 0,96%)
Schijven met de grootste uitval zijn momenteel de WesternDigital Black 4 TB en van Toshiba de DT01ACA300 + DT01ACA200 + PA4291E-1HJ0

Met andere woorden; je kunt niet blind varen op het merk.

[Reactie gewijzigd door sdk1985 op 18 november 2016 18:08]

Wat ik begrepen heb zit het meer in de lagering en de onderdelen van de arm
Maar de resultaten van backblaze zijn wel interessant voor consumenten die consumenten hdd's kopen. In de meeste gevallen draaien consumenten hdd's niet in optimale condities (vaak zelfs slecht te noemen).

Daarnaast zijn de enterprise schijven echt niet zoveel anders, op de moddelen waar helium ipv lucht in zit na dan. Het zit hem meestal voornamelijk in de garantie voorwaarden. Het komt zelfs voor de dat zelfde hdd zowel als consumenten als enterpise product verkocht, enige fysieke verschil is dan de sticker op de case.
Een consumenten HD heeft meestal een SATA aansluiting een enterprise disk gebruikt SAS. En niet enkel de interface is verschillend

http://www.intel.com/cont...s-and-kits/000005782.html
Maar de resultaten van backblaze zijn wel interessant voor consumenten die consumenten hdd's kopen. In de meeste gevallen draaien consumenten hdd's niet in optimale condities (vaak zelfs slecht te noemen).

Daarnaast zijn de enterprise schijven echt niet zoveel anders, op de moddelen waar helium ipv lucht in zit na dan. Het zit hem meestal voornamelijk in de garantie voorwaarden. Het komt zelfs voor de dat zelfde hdd zowel als consumenten als enterpise product verkocht, enige fysieke verschil is dan de sticker op de case.
Het grootste probleem zit hem in de draaitijden. De desktop serie gaat uit van een gebruik van 8 uur per dag, 5 dagen in de week voor de consumenten schijven.

De resultaten van Blackblaze worden pas interessant voor consumenten die dergelijke schijven in een NAS plaatsen die geen disk spindown ondersteund (wat je dus ook niet moet doen).

Tegelijkertijd bevestigen de cijfers van Blackblaze dat er wel degelijk kwalitatieve verschillen zijn. Echter voor de consument die de schijf inderdaad gebruikt zoals ontworpen zal er weinig aan de hand zijn. Grootste deel van de tijd staan die dingen uit.

[Reactie gewijzigd door sdk1985 op 18 november 2016 16:46]

Sinds wanneer maakt een uitvalspercentage voor de consument weinig uit? Ja de consument draait schijven niet 24x7 echter procentueel gezien maakt dit niets uit. De kans dat jou hdd uitvalt is net zo hoog als voor Backblaze echter zij zullen dit eerder lijflijk meemaken vanwege dat ze zoveel schijven hebben. De kans dat jou zoiets overkomt echter is net zo hoog sterker nog voor de consument waarschijnlijk zelfs hoger vanwege dat PC's thuis juist in minder goede omstandigheden functioneren.
Sinds wanneer maakt een uitvalspercentage voor de consument weinig uit? Ja de consument draait schijven niet 24x7 echter procentueel gezien maakt dit niets uit. De kans dat jou hdd uitvalt is net zo hoog als voor Backblaze echter zij zullen dit eerder lijflijk meemaken vanwege dat ze zoveel schijven hebben. De kans dat jou zoiets overkomt echter is net zo hoog sterker nog voor de consument waarschijnlijk zelfs hoger vanwege dat PC's thuis juist in minder goede omstandigheden functioneren.
De omstandigheden thuis zijn beter. De schijf draait minder vaak, minder lang, wordt minder belast, vibraties zijn lager en wordt vermoedelijk ook minder warm. Uit de cijfers blijkt dat dit procentueel dus wel een heel ander verhaal is:
•HGST 0,60% (contre 0,81%)
•Seagate 0,69% (contre 0,60%)
•Western 1,00% (contre 0,90%)
•Toshiba 1,15% (contre 0,96%)
De hoge uitval die blackblaze bij bepaalde modellen rapporteerde waren in de consumenten cijfers eigenlijk nooit te bevestigen. Hetgeen dus verklaard kan worden door het gebruik. Als ik kijk naar mijn eigen schijven dan kom ik er bijvoorbeeld met 593 days power on count tegen terwijl hij 5 jaar oud is. Met andere woorden: het ding staat 67% van de tijd uit. Daarmee zit ik overigens met 2805 uur per jaar al boven de beloofde 2400 uur / jaar. Een non-tweaker zal snel een stuk lager uitkomen.

[Reactie gewijzigd door sdk1985 op 19 november 2016 13:00]

Procentueel maakt het nog steeds uit. Of een hardeschijf 24 uur per dag draait of 2 uur, procentueel per uur draaiende is de percentage hetzelfde. Met andere woorden het maakt niets uit. Sterker nog hdd's functioneren in een server ruimte beter die goed gekoeld zijn en blijven draaien in tegenstelling in je woning met stof, koel, warm, aan/uit.
Daar klopt natuurlijk niets van. Er zijn twee populaties met elk eigen cijfers. Je hebt de populatie van schijven zoals blackblaze die gebruikt. Daarnaast heb je de populatie zoals deze verkocht is aan con(/pro)sumers (via retailer returns). Tussen de cijfers van die twee populaites zit een enorm verschil. Blij blackblaze waren de resultaten dramatisch slecht, bij de retailers was er letterlijk niets aan de hand. Met andere woorden; uit de cijfers bleek dat zolang jij die schijven niet gaat inzetten zoals blackblaze dat doet je nergens last van had.

Andere punt wordt wat dat betreft een beetje in herhaling vallen: het zijn mechanische producten onderhevig aan slijtage. Als jij hem 4x zo lang per dag laat draaien dan kun je er van uitgaan dat het product ook 4x sneller slijt. Om het positief te verwoorden; je kunt er langer mee doen als je het product weinig gebruikt. Dat merk je in de praktijk, zo heb ik nog o.a. een harde schijf van 100 MB die nog prima werkt. Natuurlijk zijn er ook schijven die je prima 5 jaar lang 24x7 kunt laten draaien. Echter die garantie krijg je nadrukkelijk niet bij de desktop modellen.

[Reactie gewijzigd door sdk1985 op 19 november 2016 20:05]

Je moet er wel rekening mee houden dat backblaze consumentenschijven 24/7 laten draaien in een omgeving waar deze niet voor ontworpen zijn.
...
Punt is dat enterprise schijven anders ontworpen zijn en andere componenten gebruiken dan consumentenschijven en onderling vergelijken gaat vaak niet helemaal goed op.
Punt is echter sowieso dat enterprise schijven ook niet ontworpen zijn voor de storage pods van backblaze.

Waardoor je zelfs kans hebt dat je enterprise schijven sneller stuk gaan dan je consumenten schijven. Aangezien enterprise schijven gericht kunnen zijn op specifieke cooling-flows etc die alleen in bepaalde servers zitten, terwijl consumenten hardware een beetje allround moet kunnen werken.
blackblaze blaast ook gewoon lucht langs hun schijven, ik zie het punt niet wat je wilt maken, hoe de flow is maakt weinig uit, als er maar genoeg langskomt om de schijf koel (~40 graden) te houden is het prima. Het enige wat ik me kan indenken is de eventuele trilling die (te) hoog is met 45 schijven. Maar ik zag al supermicro bakjes die daar nog een schepje bovenop doen met 90 3.5" schijven in een 4U bak....

[Reactie gewijzigd door aadje93 op 18 november 2016 11:20]

Voor mn eigen storage omgeving in het datacentrum koop ik alleen Enterprise schijven en ik ga je vertellen hoeveel ik er daar al stuk van heb.....ik krijg wel elke keer nieuwe van WD maar elke keer die procedure opstarten is best vermoeiend. (t houdt niet op met 10 disken de afgelopen 5 jr).

Dat Backblaze zoveel schuiven verbruikt en contstant live blijft zonder data verlies is wel knap. hoe groter de aantallen hoe sneller een failure.
Goed om te weten, ik bleef voorlopig weg van Seagate hard drives. Maar nu durf ik toch terug hun 8 TB modellen aan te schaffen.
Let wel op welke serie je koopt. Seagate heeft ook een Archive serie, die met SMR schrijft (sporen overlappen elkaar deels)
Dat zijn heel andere schijven dan deze.
Ideaal als je de schijf van voor naar achter vol schrijft en dan op de plank legt. Echter niet voor in een NAS oid. Een stuk aanpassen vergt namelijk inlezen van N tracks, in geheugen aanpassen en weer terugschrijven.
Om die nadelen een beetje tegen te gaan, worden eerst elke eerste tracks (van 3) vol geschreven, dan de 2e en dan de 3e. Dus schrijfsnelheid neemt flink af als de drives > 1/3e vol zijn.
Let wel op welke serie je koopt. Seagate heeft ook een Archive serie, die met SMR schrijft (sporen overlappen elkaar deels)
Dat zijn heel andere schijven dan deze.
Ideaal als je de schijf van voor naar achter vol schrijft en dan op de plank legt. Echter niet voor in een NAS oid. Een stuk aanpassen vergt namelijk inlezen van N tracks, in geheugen aanpassen en weer terugschrijven.
Om die nadelen een beetje tegen te gaan, worden eerst elke eerste tracks (van 3) vol geschreven, dan de 2e en dan de 3e. Dus schrijfsnelheid neemt flink af als de drives > 1/3e vol zijn.
Ik heb zelf twee van die schijven en dat blijkt toch niet het geval te zijn. Het is namelijk nog mogelijk om over de helft nog steeds een paar honderd GB met hoge snelheid over te zetten. Om precies te zijn heb ik er één met nog 2.25 TB vrij en daar haal ik op een 50 GB transfer gewoon 110 MB/s - 140 MB/s over de hele transfer. Je kunt de SMR schijven dus beter vergelijken met SSD's met een interne SLC cache (zoals de 850 Evo).

Die schijven zijn juist ideaal voor de meeste nas toepassingen omdat ze wel geschikt zijn voor 24x7x365 gebruikt, in tegenstelling tot de dekstop schijven.

Voor raid 5 zijn ze niet geschikt. Maar dat is anno 2016 ook niet echt een goede oplossing, tegenwoordig hebben we betere oplossingen zoals SHR (Synology) en snapraid.
Ideaal als je de schijf van voor naar achter vol schrijft en dan op de plank legt.
Juist het heel lang achter elkaar schrijven is waar deze schijven slecht voor zijn. Als je 3 TB data over gaat pompen dan gaat de eerste 300-500 GB alsof er niets aan de hand is. Daarna zitten de interne buffers vol en zullen je snelheden instorten.

Heb jij een NAS en zet je daar af en toe <100 GB op dan merk je niets van de nadelen van SMR. Wel kun je de voordelen merken. De random writes liggen dankzij de buffers namelijk 3x hoger dan die van een normale harde schijf (zoals de Seagate NAS hdd).

[Reactie gewijzigd door sdk1985 op 18 november 2016 13:14]

Juist het heel lang achter elkaar schrijven is waar deze schijven slecht voor zijn. Als je 3 TB data over gaat pompen dan gaat de eerste 300-500 GB alsof er niets aan de hand is. Daarna zitten de interne buffers vol en zullen je snelheden instorten.
Is dat bij een lege schijf, of een waar al data op staat?
En zou het zo kunnen zijn dat de firmware tijdens idle momenten de boel weg gaat schrijven naar de langzamere delen?

Jouw verhaal klinkt namelijk alsof er een deel van de schijf niet SMR zou zijn, om schrijfsnelheid te kunnen halen voor files die relatief vaak veranderen.
Dat zowel leeg als vol het geval. Ik ben 12 uur bezig geweest met de eerste 3 TB. Het is sneller de transfer af en toe even te pauzeren om te voorkomen dat na x 100 GB je een tijdje 5-10 MB/s ziet.

De schijf schijnt een interne buffer van 20 GB te hebben. Mijn theorie is dat zolang je de schijf genoeg lucht geeft om op de achtergrond dit snel genoeg weg te schrijven het goed gaat en dat het pas mis gaat op het moment dat die buffer vol zit. Aangezien een schijf geen twee dingen tegelijk kan verklaart dat de extreme performance dips naar 5 MB/s zoals je die ziet bij langdurige belasting en raid5 rebuilds.

Aan de leeskant merk je er overigens uberhaupt niets van. Ik kon mijn snapraid vanaf 4 schijven (2x SMR) met 728 MB/s opbouwen. Target disk is een Seagate 8 TB NAS hdd. De eerste parity sync duurde daarmee slechts 7 uur.

[Reactie gewijzigd door sdk1985 op 18 november 2016 16:20]

En jij maakt die conclusie gebaseerd op 3 maanden gebruik vd Seagate schijven. Laten we over twee jaar nog eens kijken zoals FP ook al aangaf.
Ik heb zelf problemen gehad met drie "bepaalde 3TB-schijven van Seagate " of te wel ST3000DM1. Had ik eerder van hun statistieken gehoord had ik ze nooit gekocht voor mijn NAS. Een van de drie zat trouwens anoniem verstopt in een Externe schijf van Samsung wat ik niet had verwacht. Ik heb het voorlopig wel even gehad met Seagate en kan wat met statistieken als een significant aantal meer dan een jaar heeft gedraaid.

Kijk voor de grap eens naar de reviews hoeveel mensen defecte schijven hebben gehad. Echt niet normaal.

[Reactie gewijzigd door Joep63 op 17 november 2016 22:00]

6x3TB van seagate in de NAS, binnen een half jaar allemaal dood. Nu over naar WD Red en uitval is 1/6 na twee jaar (binnen de garantie), een stuk beter dus.
Ik heb jaaaren geleden al besloten nooit meer Seagate te kopen, ik heb er over een tijd van een jaar of 15 een stuk of 4-5 gehad en die zijn allemaal kapot gegaan. Sindsdien alleen nog maar WD en geen problemen meer gehad. Ik zal dus echt nooit meer Seagate kopen al is de prijs van deze schijven erg aantrekkelijk tov de WD 8 TB's ik brand m'n vingers niet meer aan Seagate.
Een half jaar is wel heel erg snel en 6 stuks uitval is wel heel erg extreem. Normaal zou ik vragen of e de NAS zo ingesteld dat de schijven niet 24/7 bleven draaien. Maar zelfs al zou je dat doen dan zou het eerste jaar geen probleem moeten zijn.

[Reactie gewijzigd door sdk1985 op 18 november 2016 16:44]

Seagate heeft dan ook de HDD divisie van Samsung overgenomen in 2011, dus niet zo vreemd.
Ze hebben overigens ook Maxtor overgenomen in 2006.

Zover ik weet was Maxtor altijd al van twijfelachtige kwaliteit, Samsung was zeer snel als schijf maar misschien na verloop van tijd een beetje gevoelig voor problemen.
Had veel langer geleden ook 5 Samsung spinpoint in Raid configuratie in een server zitten en heb daar jaren plezier van gehad. Heb en had veel vertrouwen in de kwaliteit van Samsung maar dat kreeg dus een flinke deuk toen ze deze disk in hun externe HDD stopte.
Uit nieuwsgierigheid: weet je toevallig nog of het thaise of chinese ST3000DM1 HDD's waren?
De eerste weet ik niet meer. Die is nog net onder garantie terug gegaan. De andere was een chinees en een taiwanees. Ik denk daarom dat het eerder een design fout is dan een productie fout.
Idem hier: 3x st3000dm001 in rook opgegaan, en 1 x st4000dm000. Bijzonder vond ik dat ze tot het moment van overlijden nooit iets lieten zien in S.M.A.R.T.. Opeens gingen ze stuk voor stuk dood. Gebruikte ze in mijn NAS. Allemaal vervangen door WD red's, die al langer draaien dan de seagates ooit gedaan hebben. Nu heb ik geen enkele Seagate schijf meer, en er gaat er nooit meer eentje komen ook.
Vorig jaar, onder meer door de ervaringen van Backblaze, mijn 3TB Seagate (herriemaker) vervangen door een LBGT HGST 4TB.
Still going strong.
Zal gezien het snel groeiende aantal foto's de Pricewatch opstarten voor de 8TB Seagate modellen.

Beste Sint en zwarte Piet, gelieve PKHS dit jaar niet over te slaan!
Kado voorstel:
pricewatch: Seagate Desktop HDD, 8TB

[Reactie gewijzigd door PKHS op 17 november 2016 22:19]

N=1

Individuele anecdotes zeggen nagenoeg niets over de betrouwbaarheid.
Behalve dat er voor de ST3000DM1 wel heeeeeel veel individuele anecdotes zijn.
Er zijn er ook onwijs veel verkocht, Seagate levert miljoenen schijven per jaar. Uit de return rates (zowel gepubliceerd van Seagate als die van hardware.fr) blijkt dat het een storm in een glas water was.

Aan de cijfers van Blackblaze heb ik destijds al heel wat posts gewijd. TLDR: Blackblaze gebruikt desktop schijven die ervoor ontworpen zijn om 8x5x52 uur te gebruiken in een 24x7x52 omgeving. Aangezien het mechanische producten zijn is dat vragen om problemen. De schijf slijt dan namelijk 4x harder dan de bedoeling is.

Dezelfde fout maakten diverse tweakers overigens ook door ze in een NAS te plaatsen die de schijven niet downspinned maar 24/7 laat draaien (kan vaak wel).

De hier besproken Archive modellen zijn overigens, net als de NAS en Enterprise reeks, wel gespecced op 24x7x52

[Reactie gewijzigd door sdk1985 op 18 november 2016 16:32]

na amper een jaartje kan je gewoon niets anders verwachten dan dat je schijf het nog gewoon goed doet
Niet echt. Als er echt fouten in de constructie zitten van een HDD dan is de uitval binnen een jaar erg hoog.
Vind het maar raar, deze uitspraak is gebaseerd op een veel kortere tijd dan waar de andere drives mee deden. Dus het kan goed zijn dat na verloop van tijd de failurerate ineens gigantisch kan gaan stijgen..
Precies, het schijnt niemand behalve jou en mij op te vallen dat ze pas een kwartaal geleden gestart zijn met vervangen. Daar kan je dus nooit echte conclusies uit trekken. Tijdsperiode is veel te kort daarvoor.
Or you're just stating the obvious...
Mooizo.. mijn archiefje begint al richting de 3TB te gaan dus mooi dat er t.z.t. een goede upgrade is. Ik heb zelf nog nooit problemen gehad met hdd's, ookal draaien ze allemaal 24/7 in mijn pc. Ik denk dat 10% kapot is gegaan, maar dat zag ik ruim van tevoren aankomen door SMART errors en door een goede backup :+
Mooizo.. mijn archiefje begint al richting de 3TB te gaan dus mooi dat er t.z.t. een goede upgrade is. Ik heb zelf nog nooit problemen gehad met hdd's, ookal draaien ze allemaal 24/7 in mijn pc. Ik denk dat 10% kapot is gegaan, maar dat zag ik ruim van tevoren aankomen door SMART errors en door een goede backup :+
?! Door je backup zag je aankomen dat je disken kapot gingen? :+
Harde schijven, ik vind het maar enge dingen. "Langdurige" opslag is het niet en schijven kunnen er zonder smart-melding zomaar mee kappen. Backblaze doet het ergens wel goed maar als je als normale consument een schijf koopt dan blijft het een lot uit de loterij want je weet nooit wat er over 2 jaar met een schijf aan de hand is.

Pessimistisch ingesteld? Wellicht al heeft dat meer te maken met de hoeveelheid schijven die ik in de loop der jaren heb mogen afschrijven. De WD red in mijn nas op dit moment doet het al 3 jaar goed al kan dat zomaar veranderen. Gek genoeg werken de schijven in de nas altijd langer en beter dan in de PC (want, vaak aan en uit). Ik heb data tegenwoordig gemirrored over 3 schijven, dan maakt het tenminste niet uit of er eentje uitvalt.

4 jaar geleden heb ik de stelling aangenomen dat wanneer een schijf 4 jaar oud is dat ik deze dan vervang ongeacht de staat waarin deze verkeert en alleen maar om het gedoe van recovery etc niet meer mee te maken. En dan nog komt het weleens voor dat er een schijf de geest geeft en je alsnog kan prutsen met recovery (want gevoelsmatig is het altijd de schijf waar je nog niet die volledige backup van hebt gedraaid die de geest geeft). :+
Wel een beetje te negatief? Mijn 8 jaar oude harde schijf die dagelijks gebruikt wordt (1TB, WD) functioneert zoals dag 1. Mogelijk ietjes trager geworden. Om de 4 jaar een harde schijf vervangen zou zonde zijn en ook milieuonvriendelijk. Harde schijven kunnen echt wel meer hebben. Zolang je maar een back-up hebt van je belangrijke bestanden, zie ik absoluut geen reden of noodzaak om elke 4 jaar van harde schijf te wisselen. Ik ben het ook niet mee eens dat het een lot uit de loterij is. Elke component heeft een percentage van doa of vroegtijdig overlijden. Dat is een uitzondering dan de regel (0,1 tot 2% uitvalpercentage op uitzondering van Seagate met 13%).
Ik kan wel een eind meegaan met bazs2000 gedachten. Schijven kunnen vaak vrij snel stuk gaan, dan heb je nog garantie en krijg je een refurbished exemplaar. Na een paar jaar komt de volgende kritische grens. Maar ik heb ook stokoude schijven met tienduizenden uren die blijven gewoon lekker werken. Je weet het gewoon nooit.

Als dat recoveren zo'n drama is en je NAS voor jou belangrijke data bevat wil je op zeker gaan.
Dan is het een goed idee schijven preventief te vervangen. Maar die nieuwe schijven kunnen ook doa zijn.
Ik bewaar van mijn belangrijke data minstens drie verschillende kopieën op verschillende disks.
Harde schijven, ik vind het maar enge dingen. "Langdurige" opslag is het niet en schijven kunnen er zonder smart-melding zomaar mee kappen. Backblaze doet het ergens wel goed maar als je als normale consument een schijf koopt dan blijft het een lot uit de loterij want je weet nooit wat er over 2 jaar met een schijf aan de hand is.

Pessimistisch ingesteld? Wellicht al heeft dat meer te maken met de hoeveelheid schijven die ik in de loop der jaren heb mogen afschrijven. De WD red in mijn nas op dit moment doet het al 3 jaar goed al kan dat zomaar veranderen. Gek genoeg werken de schijven in de nas altijd langer en beter dan in de PC (want, vaak aan en uit). Ik heb data tegenwoordig gemirrored over 3 schijven, dan maakt het tenminste niet uit of er eentje uitvalt.

4 jaar geleden heb ik de stelling aangenomen dat wanneer een schijf 4 jaar oud is dat ik deze dan vervang ongeacht de staat waarin deze verkeert en alleen maar om het gedoe van recovery etc niet meer mee te maken. En dan nog komt het weleens voor dat er een schijf de geest geeft en je alsnog kan prutsen met recovery (want gevoelsmatig is het altijd de schijf waar je nog niet die volledige backup van hebt gedraaid die de geest geeft). :+
Dat is niet per definitie verstandig omdat juist in de eerste maanden de kans op uitval het hoogste is.

Kijk gewoon eens naar oplossingen als SHR, Snapraid, ZFS, Unraid, enz.
Jammer dat de WD Red WD80EFZX niet getest werd. Dit was de eerste helium-gevulde HDD voor consumenten, maar zou identiek zijn aan de HGST He8 behalve dat hij op 5400 ipv 7200rpm draait.
Heeft iemand een idee hoeveel prijsvoordeel Blackblaze haalt door zo groot disks in te kopen? Stel wij betalen 400 euro voor een 8TB disk (ik noem even een getal gewoon) - wat zou BB hier betalen?


Om te kunnen reageren moet je ingelogd zijn



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True