Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Backblaze: 8-terabyteschijven gaan minder vaak stuk

Door , 149 reacties, submitter: FREAKJAM

Onlineopslagdienst Backblaze heeft de uitvalcijfers van zijn harde schijven in 2016 gepubliceerd. De cijfers tonen aan dat de 8TB-modellen gemiddeld minder vaak uitvallen dan kleinere schijven. Het aantal defecte schijven over het algemeen is afgenomen ten opzichte van vorige jaren.

De dienst heeft zowel de cijfers van heel 2016 als de specifieke cijfers van het vierde kwartaal gedeeld. In dat kwartaal is 1,65 procent van de 8-terabyteschijven gesneuveld, tegenover het gemiddelde van 1,94 procent over alle schijven. Het overgrote deel van de 8-terabyteschijven die Backblaze gebruikt, zijn consumentenmodellen van Seagate, de ST8000DM002. De rest van de 8-terabytemodellen waren een model van HGST en een zakelijke schijf van Seagate. Deze twee modellen hebben in 2016 geen enkele uitvaller gehad.

Backblaze heeft in 2016 besloten om alle schijven die kleiner dan 3TB zijn uit te faseren. Hierdoor zijn er voor deze cijfers geen statistieken meer. Een schijf die opvallend vaak stukgegaan is, is de ST4000DX000, met 13,57 procent. Deze schijf is echter gemiddeld wel al ruim drie jaar oud. Daartegenover staan wel verschillende 3-terabytemodellen van HGST, die ondanks een hogere gemiddelde leeftijd minder vaak stukgegaan zijn. Het bedrijf had eerder een groot aantal 3-terabyteschijven van Seagate in gebruik, waarvan een zeer groot aantal stukging. Dit heeft tot een rechtszaak tegen Seagate geleid.

Ondanks dat Seagate door de uitvalpercentages flinke imagoschade heeft opgelopen, wordt de fabrikant dit jaar niet als het onbetrouwbaarst opgeschreven. Die kroon gaat naar Western Digital, van wie 3,88 procent van alle schijven stukging. HGST, die eigendom van WDC is, blijft de betrouwbaarste fabrikant, met een uitvalpercentage van 0,6 procent.

Over het algemeen lijken de harde schijven bij Backblaze minder vaak uit te vallen dan voorgaande jaren. Hoewel het lijkt alsof het uitvalpercentage van de 8-terabytemodellen sterk is afgenomen, geeft Backblaze aan dat er in 2015 slechts 45 schijven waren getest, waarvan er twee uitvielen. Backblaze geeft op 2 februari een online seminar waarin het dieper ingaat op de statistieken.

Reacties (149)

Wijzig sortering
WDx0EFRX zijn gewone RED disks dus niet heel verrassend dat deze vaker uitvallen, zelfs dan zijn het nog redelijk geaccepteerde percentage.

HGST's zijn vrijwel allemaal van hoge kwaliteit en heeft al jaren het laagste uitval percentage zo ver ik mij kan herinneren, wil juist weten hoe de RED Pro en RE presteren vs HGST's.
aanvullend op je post het volgende:
Red (Pro) HDD's zijn typische NAS HDD's met firmware geoptimaliseerd voor gebruik in een NAS. WD geeft aan dat een Red HDD geschikt is voor een NAS 1-8 bay waar een Red Pro het beste past in een 1-16 bay NAS. Hier wringt ook gelijk de spreekwoordelijke schoen wat dit Backblaze rapport betreft. Backblaze gebruikt deze Red HDD's in multi bay oplossingen welke ver buiten deze specificaties vallen. Hierdoor loopt de max. temperatuur ver op van wat WD de HDD als certificering mee geeft & de vibratie welke door zo'n multibay rack gaat sloopt zo'n Red HDD. Deze uitval percentages zijn hierdoor normaal te noemen en doet niets af aan de kwaliteit van een Red HDD in een NAS. Daar werkt de HDD meer dan uitstekend zolang je je maar aan de 1-8 bay en 1-16 bay spec houdt.

Zoals al vaker in mijn reacties op eerdere Backblaze rapporten op T.net te lezen valt zijn deze rapporten niets anders dan stemming makerij van Backblaze. De conclusies die ze trekken kloppen maar deels. Wanneer ze HDD's in gaan zetten voor het gebruik waarvoor ze bedoeld zijn (NAS HDD in een NAS, Desktop HDD in een Desktop en jawel.. een Enterprise HDD in een server omgeving welke een hogere workload dan 550TB/yr nodig heeft) is er niets aan de hand en komen deze zogenaamde betrouwbaarheid gegevens een stuk beter bij de waarheid.

nee, ik heb geen aandelen WDC of een ander belang bij deze post. Erger mij gewoon groen en geel bij dit soort onwaarheden aan de hand van de firma Backblaze

[Reactie gewijzigd door Ibidem op 1 februari 2017 09:45]

Harddisks gaan niet kapot van toevallig bij elkaar in de buurt zitten. De 1-8 bay en 1-16 bay šanbevelingen" zijn dus niet direct geloofwaardig.

Waarom komt WD dan met zo'n specificatie? Dat is marketing, geen techniek. De Red Pro modellen zijn simpelweg duurder.

Temperatuurslimieten en vibratie-limieten zouden reŽel kunnen zijn, maar beiden zijn maar heel indirect gekoppeld aan het aantal schijven. 16 schijven worden net zo warm als 8 schijven, zolang je de luchtstroomsnelheid maar constant houdt. Vibraties hangen zeer sterk af van de mechanische constructie, daar kun je niet zomaar volstaan met een suggestie als <8 bay NAS. Het is ook zeker niet zo dat de vibraties in een 16 bay NAS 2x zo groot zijn, zelfs met een identieke mechanische constructie. Misschien wel de belangrijkste oorzaak daarvoor is dat een 16 bay NAS fysiek veel groter is dan een 8 bay NAS; de vibratie-energie wordt dus over een veel groter volume verspreid.
Tuurlijk zit er een deel marketing in de aanbeveling van de Red (Pro) HDD's door WD echter zijn het wel degelijk hardware limitaties die hier een rol spelen. In de datasheet van de Red HDD is duidelijk te lezen dat dit product minder G krachten kan hebben dan een Gold HDD. Reden hiervoor is een stukje techniek wat WD Enhanced RAFF noemt. Zodoende dat een Red (Pro) HDD in een multi-bay rack niet geschikt is en het is dus niet alleen maar marketing.

Belangrijkste reden om voor een Gold HDD (of een willekeurige andere Enterprise HDD zoals een HGST Ultrastar, Toshiba MG series of een Seagate Enterprise HDD) te gaan in een datacenter omgeving is de workload (TB/yr). Waar een Red HDD zo'n 60TB/yr aan kan, doet een Red Pro zo'n 120TB/yr waar de Gold HDD 550TB/yr aan kan. Zit je boven deze specificaties qua datagebruik dan neemt de betrouwbaarheid met rasse schreden af. Dit zie je duidelijk terug in het Backblaze overzicht.
Bedankt voor de uitleg en de toelichting.
Maar externe schijven, laptop schijven en in zekere mate desktop schijven staan juist wel weer aan grotere G-krachten (A-krachten) bloot, dus lijkt me dan wel relevant omdat hun cijfers iets zeggen over hoe goed een standaard schijf tegen stootjes kan?

En zitten in grotere servers niet juist meer anti-tril rubbers of hangen schijven/rekken zelfs in losse banden?
Ik geloof dat je niet goed begrijpt wat backblaze doet.. Ondanks dat ze de schijven in een "server" gebruiken worden deze voornamelijk gebruikt voor backups. De schijven worden dus helemaal niet zo vaak beschreven als bijvoorbeeld disks waar VM s op staan.
Thx voor het "verrassend..uitvallen" te verduidelijken.

Het gaat inderdaad om onder deze omstandigheden.

De getrokken conclusie dat WDC nu dus van mindere kwaliteit is kan niet eens gemaakt worden doordat de rest alleen Entreprise & Desktop disks zijn.
Je wilt niet dat je RE uitvalt, maar daarin tegen hebben RE drives 5 jaar fabrieks garantie, RED PRO maar 3. Dat 5 jaar laat zien dat ze in het product vertrouwen hebben. Maar RE voor een thuis NAS, dat zal bij lange na niet zo intensief worden gebruikt als bij een server in een data center, wat voor de levensverwachting alleen maar positiever uitvalt.
Red Pro wordt neergezet als Pro NAS disk voor de High-end particulier & ZZP'er, MKB en zelfs de grotere bedrijven terwijl de RE tegenwoordig meer als Server/Data center disk wordt gepromote beide draaien ze op 7200RPM en hebben ze 5 Jaar garantie.

De RE is echter ook net iets anders gebouwd, en zou meer zekerheid moeten bieden.

zie de datasheets;
- WD RE
- WD RED PRO
Het is best verrassend dat specifieke NAS disk vaker uitvalt dan een niet NAS disk.
Hoe ik heb begrepen is dat op een RED pro en RE schijf andere software draait die eerder aangeeft het gaat niet zo lekker meer met me het is beter dat je me vervangt. t.o.v. een blue / green disk die ook al is hij mank nog steeds door probeert te draaien hierdoor zakt zijn prestaties helemaal in.

Van die RED schijven mag je verwachten dat de gebruiker na gedacht heeft als het stuk is heb ik een backup plan (RAID 1 oid)
Maakt het nog uit dat er voor dezelfde opslagcapaciteit er minder schijven nodig zijn, waardoor het afvalpercentage ander wordt of is hier in het onderzoek rekening mee gehouden?

[Reactie gewijzigd door NewGuest op 31 januari 2017 21:01]

Met minder schijven zou het uitval percentage voor schijven niet veranderen, wel het aantal incidenten per PB.

Niet vergeten dat Blackblaze wel een apart bedrijf is. Het is een storage provider, geen data center. En ze gebruiken consumenten drives in een enterprise-achtige toepassing.
Oorspronkelijk adverteerden ze vooral met massive backup capaciteit voor bijna niets. Dat suggereert een gebruiksprofiel van always-on, maar matige, over veel schijven verdeelde activiteit.

Niet te vergelijken met een datacenter waar ook veel data verwerkt wordt. Ook niet helemaal te vergelijken met thuis, waar je waarschijnlijk veel meer power- en sleep cycles doorgaat. Betere cijfers over betrouwbaarheid ga je niet snel vinden, maar onthoud wel dat dit geen pc-onder-bureau scenario's zijn. Your mileage may vary.
Nou, dat ben ik niet helemaal met je eens. Indien je 2x4TB schijven gebruikt ipv 1x8TB voor dezelfde data, dan zal die 8TB schijf gemiddeld 2x vaker worden aangesproken dan de 4TB schijven. Tevens schrijft in dit voorbeeld de 8TB 2x zoveel data weg als de 4TB modellen.

Dit zou suggereren dat kleinere schijven relatief minder vaak kapot zouden moeten gaan (bij gelijke kwaliteit). Maar de grote modellen zijn natuurlijk veel nieuwer en hebben waarschijnlijk een beter design dan de oudere modellen.

Daarnaast klopt het natuurlijk wel wat TheekAzzaBreek zegt, de schijven worden bij dit bedrijf waarschijnlijk niet intensief gebruikt maar dienen als soort long term storage.
Nu ga je er van uit dat schijven alleen stuk gaan als ze data schrijven/lezen. Dat is natuurlijk niet zo.
Klopt, ik heb hotspares zien falen met duizenden reallocated sectors terwijl er 0 I/O naar die dingen ging. Reden: er wordt met enige regelmaat een disk scan uitgevoerd via SMART.
Dat betwijfel ik eerlijk gezegd.

Vroeger klopte dat, toen een schijf vooral gebruikt werd om van op te starten, en ingebouwd was in een PC. Tegenwoordig zie ik - ook in mijn niet nerdy - kennissenkring steeds vaker een NAS in de meterkast. In de PC, als die er nog wel is, zit alleen nog maar een SSD. Dat geldt zeker voor die prachtige ultrabookjes die momenteel populair zijn, om over tablets nog maar niet te spreken.

Het gebruiksprofiel van zo'n NAS is sterk vergelijkbaar met dat van Backblaze: Weinig belasting, de meeste data wordt zelden aangesproken, always on.
Weinig belasting maar de schijven zijn wel constant aan het draaien lijkt me.
Bij normaal gebruik en de correcte instellingen gaat zo'n schijf in slaapstand, als er x uur geen info is opgevraagd.

Mijn server hier zet 5 van de 6 schijven in slaap, na 30 minuten.
Totdat er iemand iets wil hebben, dan gaan ze weer even aan.
In de meeste gevallen is het stil in dat kastje, alleen als er een download aanstaat, en de mediaspelers opstaan, draaien de meeste schijven.
De correcte instellingen? Of jouw voorkeur.

Ik krijg altijd de indruk dat een schijf langer mee gaat als hij gewoon blijft draaien. Mijn server is dus ook als zodanig ingericht. Minder stroomverbruik regel ik simpelweg door zo min mogelijk en zo zuinig mogelijke drives in te zetten.

Footprint in het milieu wordt dan iets groter enerzijds, maar anderzijds iets kleiner doordat er minder schijven geproduceerd hoeven te worden ;)

[Reactie gewijzigd door kakanox op 1 februari 2017 09:43]

Is een voorkeur dan geen correcte instelling ?

Hoe energiezuinig ook, een schijf die 24/24 beweegt verbruikt meer dan een schijf die in diepe slaap staat.
Mijn thuis-server is daardoor wel bereikbaar, al is het soms een paar seconden langer wachten.
Als ik er iedere 5 jaar 1 schijf extra door moet vervangen in mijn thuisopstelling ben ik duurder uit dan qua stroom.

En een voorkeur is inderdaad niet per definitie een correcte instelling.
Hoe energiezuinig ook, een schijf die 24/24 beweegt verbruikt meer dan een schijf die in diepe slaap staat.
Dat klopt, maar een schijf die 'telkens' moest stoppen en starten gebruikt op dat moment weer meer energie dan een schijf die gewoon actief blijft.

Ik heb eens een (weliswaar oud) artikel gelezen waarin gesteld werd dat schijven in slaap laten gaan en weer wakker maken eigenlijk helemaal niet zo goed is. Niet voor de levensduur van de schijf op zich (starten is best wel intensief) en eigenlijk ook niet echt voor het stroomverbruik (starten gebruikt het meeste energie). Er was een break-even punt waarbij start/stop kwa energieverbruik alleen al duurder werd dan de schijf gewoon laten draaien.

Ik denk in dit opzicht bv. aan een oude server die we bij mijn werkgever hadden en die vol zat met SCSI-disk. De RAID-controller was standaard zo ingesteld dat de schijven per 2 of per 4 opgespind werden, nooit met zijn alle tegelijk.

Net als kakanox laat ik mijn server 24/7 draaien en gaat er niks in slaap.
Beter voor de levensduurte van de disks, en als de disk langer heel blijven hoef ik mijn 'servertje' niet uit te zetten om een disk te vervangen, geen data te restoren, ...
Het uitvalpercentage wordt niet anders als je minder schijven gebruikt, slechts het aantal uitvallers. Procentueel gezien verandert er niks.

Wat wel een gevolg is van grotere schijven is dat deze meer data moeten wegschrijven. Dit betekent dat ze meer actief moeten zijn, waardoor kans op uitval door slijtage groter wordt.
Als je 2 schijven hebt en er valt er 1 uit heb 50% uitval.

Hebt je 4 schijven en er valt er 1 uit heb je 25%....enzo. Het maakt dus weldegelijk uit.

Aan vulling: ik weet persoonlijk ook niet wat beter is. Kwa betrouwbaarheid. Snelheid en totale opslag capaciteit even buiten beschouwing gelaten..

4 schijven bv van 4 tb of 8 schijven van 2 tb. Als er 1 schijf wegvalt bij je raid van 4x4 ben 25% kwijt. Bij 8x2 ben je 1 / 8 ste kwijt. De kans dat er een 2 tb schijf uit valt bij de 8x2 is groter dan bij de 4x4. En ja dat hangt van de raid config af maar ik ga nu even uit van raid 5. Dus 1 schijf mag uitvallen. Het gaat mij nu even om het theoretisch wat beter is om te doen. Veel kleine schijven waarbij de kans op uitval groter is omdat er meer van hebt. Of minder met een grotere cap daar door is de kans. Op uitval kleiner maar ben je meer cap kwijt mocht. Er 1 uitvallen.

[Reactie gewijzigd door 90732 op 1 februari 2017 08:04]

Je redenatie klopt niet. Je wilt aan de ene kant totale opslagcapaciteit buiten beschouwing laten, maar aan de andere kant heb je het over raid 5 en hoeveel capaciteit je kwijt zou raken als er een schijf uitvalt? Heel simpel: je raakt geen capaciteit kwijt als er een schijf uitvalt, dat is juist het doel van raid (raid 0 even buiten beschouwing gelaten). Het is juist de totale capaciteit die, ook wanneer alle schijven netjes functioneren, lager is, omdat die parity info natuurlijk ergens naartoe moet. In de 4x4 situatie heb je (met 1 parity disk) dus 12TB ter beschikking, in de andere 14.

Wat beter is hangt gewoon van je eigen situatie/wensen/eisen af. Met 8x2 heb je meer bruto capaciteit (bij 1 parity disk), of kun je kiezen voor 2 parity disken (m.a.w. er mogen 2 schijven defect raken zonder dat je dataverlies hebt) en alsnog evenveel capaciteit overhouden als in de 4x4 situatie (met 1 parity disk). En de kans dat er tegelijkertijd 3 disken uit 8 kapot gaan, is waarschijnlijk kleiner dan de kans dat er tegelijkertijd 2 uit 4 kapot gaan. Meer disken betekent in het algemeen ook een hogere maximum iops.
Aan de andere kant, 8 disken verbruiken meer energie, hebben fysiek meer ruimte nodig, je (consumenten)moederbord heeft waarschijnlijk niet genoeg sata poorten om die allemaal aan te sluiten waardoor je een extra sata controller nodig hebt, kortom, is zeer waarschijnlijk duurder.
Hoi Tympie.. je hebt gelijk over je opmerking mbt capaciteit. Wat ik eigenlijk bedoelde te zeggen en niet goed verwoorde is ;

" Hoe lang het duurt voor dat de komplete raid failed. ja je mag mag 1 schijf krijt raken. Maar hoelang duurt het voor dat de 2e gaat. Is die tijd langer of minder lang met 4x4 of 8x2. Ik probeer slecht een betrouwbaarheids senario te maken tussen de eerste uitval en de 2e"

Maar je hebt mijn vraag eigenlijk perfect beantwoord. dank
Onderzoek kijkt gewoon naar aantal hdd's, draaiuren en uitval percentage. Misschien dat het totaal aantal samples wat lager zou liggen door de grotere hdd's. Maar feitelijk maakt dit niet zoveel uit lijkt me.

Als je meer dan een ~500 hdd's in gebruik hebt zul je betere statestieken kunnen genereren dan iedere normale review uitgevoerd door een techsite of consument lijkt me.
Enige detail is dat je niet heel veel weet over het gebruik van de disks (power on time, hoeveelheid gelezen en geschreven data...).

Heb zelf gebaseerd op deze onderzoeken de laatste tijd vooral HGST's gekocht.
In wezen is dat niet relevant, want in principe blijft de opslagvraag ook steeds groeien. Oftewel waar men vroeger 300 MB opslag ruimte kreeg krijgt men nu 1GB standaard.
Maar waar men vroeger minder dichtheid van data had is deze wel meer geworden en dus deels ook de warmte, maar aan de andere kant zijn waarschijnlijk de backblazes ook wel eens aangepast naar betere koeling etc. etc.

Je kan er een heel boekwerk over schrijven qua mitsen en maren (en dat zal intern ook wel gebeuren vermoed is), alleen dat is concurrentie gevoelige info en voor de gemiddelde consument maakt het niet echt iets uit, daar zijn al die mitsen en maren toch weer anders.
Alleen de kracht van de grote getallen blijft staan en dat publiceren ze dan ook.
In dit geval zal het er vooral mee te maken dat de gemiddelde leeftijd (en dus draaiuren) van de 8tb schijven veel lager ligt dan die van de 4tb schijven.
Wat dat betreft is het eerder negatief dat er na 5 maanden al 1,63% van de 8tb schijven uitvalt, waar het bij de 4tb schijven 2,77% is na 21 maanden.
Zijn de 8 TB HDDs soms de Helium versie ?
Ja, ik denkt dat het komt door een hogere data dichtheid en geen blootstelling aan de normale atmosfeer (stof)
ik denk dat je er wel vanuit kan gaan dat normale HDD's die niet helium hebben, ook wel stofvrij zullen zijn van binnen hoor :)
Dat zou je denken, maar ik heb al ontelbare aantallen HDD's opengemaakt sinds 1994 om te weten dat het niet zo is.
serieus?? je zou denken dat ze met zulke dingen toch een soort van dustfree encasement zouden maken, zowieso om de leeskop niet vol met stof te laten komen .

maar blijkbaar dus een acceptable risico volgens producenten.....vraag je je toch af hoeveel beter de levensduur zou worden als ze net zo clean gemaakt zouden worden als de helium varianten.
Dust-free kan niet.

'Normale' schijven hebben een luchtgaatje met daarvoor (Om het maar simpel te zeggen) een stoffilter ervoor.

Dit gaatje is bedoelt om de druk in de schijf te regelen, want warmte zet uit, lucht density veranderd, en door dit gaatje blijft de druk gelijk.

Er zal in de loop der jaren uiteindelijk toch een stofje doorheen glippen? Of gewoon ultra fijnstof dat uiteindelijk genoeg ophoopt om bepaalde bitjes de das om te doen.

Maar om eerlijk te zijn gaan de meeste schijven gewoon dood dood, als alleen bitjes en sectors aangetast worden (bit-rot) is de data meestal nog wel op tijd te redden.
Waarom zou je daarvoor een open verbinding gebruiken? Om het drukverschil te compenseren is een membraan voldoende. Als de druk te hoog wordt, dan zet het membraan naar buiten uit; als de druk te laag wordt naar binnen.

Overigens kan zo'n membraan best achter een luchtgaatje verstopt zitten, om te voorkomen dat het membraan beschadigd wordt bij het monteren.
Ik ben eigenlijk een beetje huiverig over die helium schrijven. Misschien dat het in servers prima werkt maar voor lang termijn opslag durf ik het gewoon niet te gebruiken. De moleculen zijn zo klein, ben veel te bang dat het er uit "zweet". En dat na een 8 jaar de schijf ineens niet meer werkt.
Ik zie eerder een correlatie met merk dan naar grootte. Die HGST (zijn dat niet de oude IBM schijven, aan de benaming te zien?) zijn blijkbaar erg goed.

Zelf heb ik een voorkeur voor Samsung disks. Nog nooit ellende mee gehad. Koop ik een keer WDC, kan ik er 2 van de 4 meteen terugsturen... Zal wel toeval zijn. Samsung HD's koop ik al sinds ze HD's aanbieden. Ze begonnen meteen met iets van 7 jaar garantie oid, om naam te maken natuurlijk, maar ik vond het wel wat. Nooit spijt van gehad. En ik heb best wel wat disks 'versleten'.
Ben zelf lang fan geweest van Samsung, maar zodra die dingen bad sectors beginnen te ontwikkelen ben je de sjaak: waar Seagate en HGST disks sectoren gaan remappen als ze stuk gaan weigert een Samsung disk dit te doen. Resultaat is dat je een disk met een aantal slechte sectoren gewoon kunt weggooien omdat je die sectoren wel kunt schrijven, maar niet kunt lezen.

Verder maakt Samsung geen disks meer, ze zijn overgenomen door Seagate, die vervolgens afwisselend Seagate en Samsung disks verkoopt onder dezelfde modelnaam.

Overigens is mijn ervaring ook dat Hitachi/HGST disks het langste mee gaan. Ik heb lange tijd systemen beheerd met 1, 2, 3 en 4TB disks van Hitachi/HGST, uitvalpercentage van die dingen was een stuk lager dan de uitval bij Seagate en WD. De Seagate 7200.11 heeft me zelfs 3 server backplanes gekost door kortsluiting op een aantal exemplaren.

Maargoed, wat Backblaze en m'n voormalig werkgever doet is desktopschijven inzetten in servers. Die disks zijn daar niet voor bedoeld. Als het werkt is het mooi meegenomen, als het niet werkt moet je niet zeuren. Een harddisk die niet tegen trillingen in een server kan geeft uitval, terwijl diezelfde harddisk in een desktopsysteem gewoon heel betrouwbaar kan zijn.
Een harddisk die niet tegen trillingen in een server kan geeft uitval, terwijl diezelfde harddisk in een desktopsysteem gewoon heel betrouwbaar kan zijn.
Daar noem je mogelijk wel de reden waarom HGST-schijven juist onder deze condities verhoudingsgewijs beter presteren dan andere merken. HGST bouwt tegenwoordig in veel van hun schijven (of alle ? dat hou je van me te goed) het zogenaamde 'RVS' in, Rotational Vibration Safeguard. Wat het doet ? Nou, trillingen detecteren en daar proactief mee omgaan.

'Traditionele' disks stelden achteraf (op basis van informatie vanuit de leeskop) vast dat er problemen waren met lezen, als gevolg van trillingen. Maarja, dan was het leed al geschied. Het gevolg van externe trillingen is dan sowieso een verminderde performance maar ik kan me voorstellen dat het ook voor meer fysieke belasting binnen een schijf zorgt (dat kan ik niet zozeer onderbouwen met feiten overigens).

In de HGST-schijven zitten losse vibratiesensors en de meetwaarden daarvan worden gebruikt in de aansturing van de leeskoppen zodat die netjes in het spoor blijven. Je bent dan de leesfout vůůr, waardoor je performance op peil blijft.

Meer leesvoer hierover heeft HGST op hun site staan, bijvoorbeeld hier.
Die vibratiesensoren zitten alleen in de Deskstar NAS en Ultrastar drives. De gewone deskstar heeft niet zo'n sensor. Die sensoren zijn vanaf de 7K3000 eigenlijk een must als je honderden drives in een rack hangt, zag bij die disks ook veel meer uitval dan bij de 7K2000.
HGST staat voor Hitachi Global Storage Technologies. ;)
Ja HGST komt van IBM, opgekocht door Hitatch, opgekocht door Western Digital. Vroeger waren er deskstar modellen die heel vaak stuk gingen, maar daar merk je nu dus helemaal niks meer van.
Daar zit de ex-IBM schijven divisie inderdaad bij in.
HGST was Hitachi
Ik heb ook alleen maar goede ervaringen met Samsung schijven, maar Samsung heeft zijn HDD divisie in 2011 verkocht aan Seagate, waardoor Spinpoints een steeds mindere realistische optie worden.
HGST 'de oude IBM schijven' noemen is als denken dat ¶koda's nog steeds roestblikken uit Tsjecho-Slowakije zijn. Ja ze hebben jaren terug IBM's HDD merk overgenomen, nee het zijn niet nog steeds dezelde schijven.
Jajajaja...het zit 'm in de bewoordigen. Ik snap ook wel dat het inmiddels hele andere schijven zijn. Maar je snapte toch wel meteen waar ik het over had, of niet? Niet zo muggeziften aub...
Dit is trouwens het 8TB HGST model dat Blackblaze dus gebruikt.
En die zou ik dan weer nooit kopen, net als heliumballons. Ik zie Helium liever gebruikt worden daar waar het voorlopig nog wel nodig gaat blijven, in medische apparatuur. Voor zulke harde schijven zijn ook andere technieken beschikbaar.
https://www.wired.com/201...shortage-vastly-inflated/
Increased prices usually mean lower supply, but that’s not true for this gas. “There is actually so much helium that’s flooding the market that it’s not in short supply at all,” Burton says. And as for the future, “I’ve seen a lot of talk about this global shortage of helium—that’s actually not the case. In the United States, we’ve got at least 20 years of known supplies that are easily, readily available.” There’s far more worldwide—including now this new rich deposit found in Tanzania. In 2014, the US Department of Interior estimated that there are 1,169 billion cubic feet of helium reserves left on Earth. That’s enough for about 117 more years.

Helium isn’t infinite, of course, and it remains worth conserving. Many research labs, for instance, have developed ways of catching and recycling helium instead of letting it escape through cracks in (or just the outlet of) their experiments. But next time you see someone with helium balloons, don’t berate them. Enjoy the party instead.
Ben ik nou gestoord of is 117 jaar echt niets? Nee natuurlijk is het niet een direct gevaar, maar als gebruik van helium slechts een klein beetje onverwachts veel toeneemt is het ineens 80 jaar, of 50. En dan wat? Dan hebben we geen helium meer?

Is het mogelijk om helium te maken met eventuele chemische processen? Want als na 117 jaar helium op zou zijn, zou ik nogal gestoord vinden.
Je bent niet gestoord (denk ik), maar je denkt niet genoeg door. 117 jaren van onze huidige vooruitgang is een heel andere wereld, tegen die tijd mijnen we dit spul al tientallen jaren op de maan en van asteroÔden.
Dat zeiden ze ook in 1969. Toen dachten ze ook dat er een permanente maanbasis zou zijn in 10j tijd. En sindsdien is er na de laatste maanlanding >40 jaar geleden geen voet meer op die klomp gezet. Ze cirkelen nog steeds in capsules rond de aarde.
Raar dat mijn reactie zo negatief gezien wordt, ik zeg toch niks vreemds of gemeens ofzo.

Daar heb je gelijk in, maar de ruimterace is ondertussen wel weer in volle gang, onder andere omdat er geld te verdienen valt, zoals in een andere reactie gezegt, zelfs NASA is in de planfase voor ontginning.

Het komt er op neer dat als wij dat spul nodig hebben en het is te vinden, dan is er een markt voor en zullen er spelers zijn die de handel in stand zullen brengen en houden.
Er zitten wel vaker spoken, bots of 'speciale types' hier die enorme wolken van -1 mods uitdelen. Waarom weet ik niet maar je ziet bij de normaalste reacties soms -1 verschijnen.
Dat mensen zich zo druk kunnen maken om up-/downvotes.
Ik zal wel te oud zijn dat ik me echt niet druk kan maken om zoiets of om het uberhaupt te begrijpen. :)
Ik snap het wel, je doet je best om publiekelijk een 'goede' comment te schrijven, en een anoniem persoon keurt het af. Je kunt daar niet op reageren, want de persoon is anoniem.. dat is denk ik het pijnlijke :) Bovendien, je post krijgt een voor iedereen zichtbaar (negatief) label, dus je voelt je wellicht ook te kijk gezet.

Je hebt gelijk dat je je er niet druk om zou hoeven te maken. Alleen is dat gezien onze psychologie lastig voor de meeste mensen :)

Offtopic dus.. downvote gerust, modjes ;)
Ik snap het wel, je doet je best om publiekelijk een 'goede' comment te schrijven, en een anoniem persoon keurt het af. Je kunt daar niet op reageren, want de persoon is anoniem.. dat is denk ik het pijnlijke :) Bovendien, je post krijgt een voor iedereen zichtbaar (negatief) label, dus je voelt je wellicht ook te kijk gezet.

Je hebt gelijk dat je je er niet druk om zou hoeven te maken. Alleen is dat gezien onze psychologie lastig voor de meeste mensen :)

Offtopic dus.. downvote gerust, modjes ;)
Je geeft ze teveel 'eer'
De gebruikers die cijfertjes mogen uitdelen.
'modjes' zijn de mensen zoals Femme, Zeef, Arnoud en nog een aantal ( ook genoemd redactie )

De meeste cijferklikkertjes die de wijsheid denken te moeten beoordelen neem ik al lang niet meer serieus ( niet meer sinds de +1 grappig is verdwenen )
Absoluut! Maar ik doelde vooral op de emotionele kant van de ontvanger van de cijfertjes. Ongeacht hoe veel of weinig eer je ze (de 'user-mods') toedoet, het zal zo voelen voor veel mensen.

En idd erg erg jammer dat de +1 grappig weg is! Vroeger was er veel meer nuance mogelijk in het modden..

[Reactie gewijzigd door bazkie_botsauto op 1 februari 2017 09:39]

Als je alleen maar de acties van mensen in de ruimte kijkt dan ben je blind voor het werk dat door tientallen probes, rovers en andere robots is verricht in de afgelopen decennia. Men heeft n.b. stof van een asteroide terug naar aarde gebracht (zie de Hayabusa missies). Het zou juist vrij dom zijn om te concentreren op menselijke acties in de ruimte, gezien de ook wat dramatische kant als er iets misgaat. Terwijl een robot meer of minder hooguit wat geld en moeite heeft gekost.
Nee, ik zeg dat men vaak helemaal weg loopt van "over een paar jaar mijnen we asteroids" etc etc, terwijl dit nog vele jaren verwijderd is.

Ook in de jaren 60 bij de ruimtewedloop dacht men al in de jaren 70 een permanente maanbasis te hebben, voor 2000 permanent op Mars te zitten, en een Star Trek schip te hebben in 50 jaar.

Dat men wat stof van een planeet af haalt of dat men een complete mijnoperatie op een asteroid opstart is een groot verschil. Hoe groot die eerdere prestatie ook is.

[Reactie gewijzigd door Toka op 1 februari 2017 00:38]

Behalve dat de jaren 70 ideeen uit de mainstream media kwamen en de asteroide plannen uit de ruimtebedrijven. NASA heeft nooit beweerd dat men in de jaren 70 al een maanbasis zou hebben, dat zou elke wetenschapper in kunnen zien. Zulke zaken worden vaak te breed verteld als 'vroeger dacht men dat de aarde plat was' en 'vroeger dacht men dat we nooit zouden kunnen vliegen'. Tja dan snap je niet helemaal dat er mensen zijn die dat kunnen berekenen en uitdenken en dus ook kunnen inschatten wat wel en niet mogelijk is, tegenover de jan-met-de-pet die je het op straat vraagt en er zijn eigen beeld bij heeft.
Dan zijn we samen gestoord of het is niet gestoord. 117 jaar is mijn inziens ook behoorlijk weinig. Voor iemand die vandaag geboren wordt, waarschijnlijk binnen zijn/haar leven zelfs...
Chemisch is het niet te produceren, het wordt gemaakt in sterren. Dus mogelijk dat wanneer kernfusie daadwerkelijk als energiebron gebruikt gaat worden, dat het als bijproduct helium geeft, maar ik denk niet dat dit genoeg zal zijn.
Een andere mogelijkheid is het ophalen in de ruimte, dat zie ik wel gebeuren in die 117 jaar. Al wordt het ook gebruikt in de ruimtevaart, een eventueel tekort kan nogal ironisch worden.
Het wordt niet alleen gemaakt in sterren, de helium die bij ons uit de grond komt is afkomstig van radioactief verval, niet van toen ons zonnestelsel ontstond. Dat zou ook wat apart zijn gezien de samenstelling van de aarde.

[Reactie gewijzigd door Lekkere Kwal op 31 januari 2017 23:12]

Kernfusie, maar dat is voorlopig nog niet rendabel en ik weet totaal niet hoeveel helium daarbij vrijkomt. Maar het is in principe 'gratis' energie + 'gratis' helium.

En als ik me het goed herinner is Helium ťťn van de meest voorkomende elementen in het heelal. Dus zodra onze technologie ver genoeg staat kunnen we dat gewoon importeren.

Maar voorlopig zullen we met de huidige voorraad moeten toekomen.

[Reactie gewijzigd door GoldenBE op 31 januari 2017 22:03]

Kernfusie, maar dat is voorlopig nog niet rendabel en ik weet totaal niet hoeveel helium daarbij vrijkomt. Maar het is in principe 'gratis' energie + 'gratis' helium.
'gratis' inderdaad, alleen is de rest er omheen niet gratis.
In een kerncentrale werk je niet zomaar ( nee, the Simpsons is niet reŽel ) en jammer genoeg kan het (nog) niet in een kelderkastje onder het huis.

Gratis is zomaar relatief :)
Ik denk gezien het gebruik van fossiele brandstoffen in veel meer processen, dat die voorraad nogal wat belangrijker is dan helium. Ja we zitten dan met een probleem, maar zo kan je alles wel op de hoop 'problemen' gooien. Een beetje nuance is dan wel op z'n plaats, zeker als men nu betweterig helium HDD's (met slechts grammen(!) helium aan boord) gaat afkraken. Dat is net zoiets als thuis geen kaarsen aan steken om global warming te beperken.

Gezien de plannen van NASA om al binnen 5 jaar een asteroide naar de maan te verschepen om te gaan onderzoeken voor ontginning zie ik behoorlijk wat mogelijkheden in die richting. Helium is namelijk na waterstof het meest voorkomende element in het universum. Wij hebben er relatief weinig van omdat wij ons vrij beschikbaar helium aan de rand van de atmosfeer krjgen door de grote aanwezigheid van zwaardere atomen (zeg maar 'de aarde').

[Reactie gewijzigd door Lekkere Kwal op 31 januari 2017 22:17]

117 jaar is een periode waar helium volledig overbodig zou kunnen raken. Over 30 jaar hebben we wel iets van olie nodig, maar als de olievoorraden nog voor 80 jaar toerijkend zouden zijn zou niemand zich drukmaken. Het moet passen in een werkzaam mensenleven, anders is er geen urgentie (en misschien ook niet nodig)
ik zie het probleem niet. Als de helium op is, dan stoppen we toch wat anders in de balonnen?
117 jaar is best wel veel. Vergeet niet, dit gaat om bekende reserves, en welk bedrijf gaat nu al op zoek naar nieuwe bronnen als er zulke reserves zijn?

Helium is overigens niet te maken met chemische processen. Het is een element, en elementen zijn alleen te maken met nucleaire processen. Helium is zo ongeveer het meest makkelijke element om nucleair te maken; alfa-straling is Helium.
Of het nou bangmakerij is o.i.d. kunnen we nog wel zuinig omgaan met resources.

Helium ballonnen zijn echt bullshit, en nog eens slecht voor het milieu ook.

Verbieden die hap.
Of het nou bangmakerij is o.i.d. kunnen we nog wel zuinig omgaan met resources.

Helium ballonnen zijn echt bullshit, en nog eens slecht voor het milieu ook.

Verbieden die hap.
Verbieden zonder handhaving heeft geen zin.
handhaving kost geld, wie gaat dat betalen ?

Heerlijke maatschappij leven we, als het me niet zint, moet het maar verboden worden !
Met verbieden los je het probleem niet op. De echte onzuinigheid zit in de zware industrie, die zijn de grootste heliumverbuikers en -verspillers. Focussen op de balonnen die een orde van grootte kleiner effect hebben op het heliumverbruik is als het verbieden van kaarsen om global warming aan te pakken 8)7 . Richt je op de grote spelers als je het echt zo belangrijk vindt.
Wat is er mis met gebruik van helium?
Er is niets mis met het gebruik van helium, maar ik zie ook geen voordelen.
De wrijving is misschien minder dan met lucht, maar de warmte afvoer is ook minder.
Een beetje onderdruk met gewone lucht heeft hetzelfde effect.
Volgens mij valt dit in dezelfde categorie als de autobanden met stikstof vullen ipv gewoon lucht.
De autobandenvergelijking gaat niet helemaal op. Het nut daarbij valt namelijk vrij snel weg omdat de lucht sowieso voor 80% uit stikstof bestaat, en je dus simpelweg door steeds bij te vullen met normale lucht terwijl er meer zuurstof weglekt het percentage stikstof in je band verhoogt. Als je dan je winter- en zomerbanden op verschillende velgen hebt dan is de kans klein dat je verschil kan merken (als het uberhaupt te meten valt).

Maar wat betreft hdd's is er meer aan de hand: de normale buitenlucht heeft een dichtheid van ruwweg 1,225 kg/m3, helium slechts 0,164. Je hebt dus een onderdruk van circa 0,164 / 1,225 = 0,134 atmosfeer nodig om dezelfde lage dichtheid te maken. Vervolgens mag je dus je hdd design aanpassen om dezelfde stevigheid (bescherming tegen indeuken) te hebben, en je moet ook goed tijdens de assemblage zorgen dat de schijf met onderdruk overblijft (via een soort ventiel of zo). En wat als dat ventiel gaat lekken? Kortom allemaal extra kosten en moeite terwijl je er met helium op 1 atmosfeer ook bent... En het scheelt nog eens oxidatie als zou je dat met pure stikstof ook kunnen oplossen (met een groen dopje erop ;) ).

(edit: en dit mod men als 'ongewenst'? really? 8)7 )

[Reactie gewijzigd door Lekkere Kwal op 31 januari 2017 23:07]

De behuizing van de huidige schijven is al grotendeels voldoende voor een redelijke onderdruk. Die hoeft je niet via een kwetsbaar ventiel weg te zuigen. Gewoon in een lagedruk kamer dichtsealen gaat prima.
Helium wordt over het algemeen juist in overdruk toegepast omdat het altijd naar buiten gaat lekken. Met de assamblage zit je overigens met hetzelfde probleem. Hoe vervang je de lucht door helium? Het gemakkelijkst is assambleren in een kamer (van de machine) met een helium atmosfeer. Dat moet dan een overdruk zijn, anders komt er weer gewone lucht binnen.
Het verschil tussen een helium en een lucht atmosfeer is minder groot dan je voorrekent.
Tja dan wordt dit een welles/nietes discussie zonder bron noch sluitende argumenten. Misschien kan je het aan HGST en/of WD voorleggen? Misschien zitten ze ernaast met hun berekeningen en R&D afdeling ;)

[Reactie gewijzigd door Lekkere Kwal op 31 januari 2017 23:09]

Ik schreef oorspronkelijk dat ik de voordelen van helium niet zo zag, met onderdruk als alternatief.
Het is gewoon elementaire natuurkunde. Het gebruik van helium lijkt wel te werken. Misschien zijn er nog andere voordelen aan helium die ik niet zie.
Het is elk geval een mooi marketing statement, waarmee ze een verschil met de andere schijven maken. Dat de betrouwbaarheid ook nog eens toeneemt is helemaal mooi.
Omdat de wrijving lager is heb je direct al een reductie in energie = warmte.
Lees eens een artikel over deze generaties helium schijven, er zijn genoeg redenen waarom het zeer handig is bij meerdere platter schijven.
Als je er de ballen verstand van hebt zie je natuurlijk geen voordelen...

Helium is dunnen dan lucht, en dt zorgt dus voor minder weerstand. Ook kunnen de headers dichter op de platters zitten waardoor de datadichtheid hoger kan worden. Maw. je kunt geen 'normale' luchtgevulde hdd maken met deze capaciteit.
De onderlinge afstand van de platters is zo groot dat lucht of helium niet veel uitmaakt. Als de platters nu binnen een mm van elkaar zouden zitten heb je een punt.
Waar wel een effect kan zitten is inderdaad vooral bij de koppen en misschien speelt de drag die door de armen nog een rol. Zeker bij de kop is de ruimte zeer klein. Lucht zal iets meer vibraties veroorzaken dan helium. Door een beetje vacuŁm te creŽren berijk echter je hetzelfde effect. Een vacuŁm van 0,5 atm. is gemakkelijk te behouden.
Helium stelt hele hoge eisen aan de afdichting. Juist omdat helium atomen zo klein zijn! De standaard stalen behuizing van harde schijven gaat de helium op de lange duur niet tegenhouden. Het resultaat is uiteindelijk toch een onderdruk. Omdat lucht niet door staal kan is het een onderdruk met helium. Op den duur kan dat een probleem met de warmteafgifte geven en dat kan op een gegeven een massasterfte onder deze schijven geven.
Misschien moet je je toch maar eens inlezen voor je wat zegt. Hoe kom je erbij dat de standaard metalen behuizing gebruikt wordt om Helium tegen te houden? HGST gebruikt een speciale seal daarvoor.
De seal zit (zoals ik het lees) tussen verschillende de onderdelen.

Helium binnen houden is echt moeilijk. Het Helium molecuul is zo klein (na waterstof het kleinste molecuul) dat nagenoeg alle andere stoffen in meer of mindere mate helium doorlaten.
Ook de behuizing van de schijven zal Helium doorlaten. Het zal lang duren, maar ooit komt het punt dat dit een probleem op gaat leveren. Om het probleem wat uit te stellen zal men Helium onder overdruk in de schijfbehuizing hebben gebracht en de behuizing misschien wat versterkt hebben. Als men goed gerekend heeft ontstaan de problemen pas ruim na de economische gebruiksduur, Het zal de meeste mensen een worst zijn wat er met een schijf gebeurt als die allang is afgeschreven of wegens een ander deffect is vervangen.

Als je de proef op de som wilt nemen, koop dan een busje helium gas voor balonnen. Probeer daar na een jaar nog eens een ballon mee op te blazen. Als je dan nog de helft haalt van wat je met een verse bus zou doen mag je niet mopperen.
Internetbangmakerij dat het binnenkort op raakt en dat de medische wereld daardoor in de problemen komt. Waar het op neerkomt is dat het van praktisch gratis naar goedkoop gaat. De medische wereld heeft op dit moment veel meer problemen om radioactieve isotopen te vinden voor bestraling e.d., maar dat klinkt minder spannend en daar kan je ook niet 'bewust' over doen zoals nu met helium-hdd's en heliumbalonnen.
Correct me if I'm wrong, maar zijn radioactieve isotopen niet gewoon te maken in bijvoorbeeld een Putten en is Helium en bijproduct van de eindigende gaswinning?

Oftewel, een gecreŽerde schaarste versus en reŽle schaarste?

[Reactie gewijzigd door KrazyJay op 31 januari 2017 23:02]

Gewoon te maken? Dan heb je wat gemist denk ik.
FinanciŽle situatie bij NRG

Er zijn drie hoofdredenen waardoor het financieel slecht gaat bij NRG.

* De prijs van de medische isotopen zou kostendekkend en liefst winstgevend moeten zijn, maar is dat niet. Concurrerende reactoren in het buitenland krijgen allemaal staatssteun en daarom blijft de prijs te laag.

* De tweede reden is een lening van 82 miljoen euro die het bedrijf in de komende tien jaar moet terugbetalen. Omdat de verouderde reactor vaker dan verwacht moet worden stilgelegd, kan ook minder geld worden verdiend om de lening mee af te lossen.

* Daarnaast is er het afvoeren van oud nucleair afval. Sinds de ingebruikname van de reactor in 1961 is radioactief afval geproduceerd, dat aanvankelijk in Petten zelf werd opgeslagen met de bedoeling het daar 300 jaar te laten liggen. Maar in 1993 besloot de overheid dat al het radioactief afval in Nederland centraal moet worden opgeslagen bij de COVRA in Zeeland. Het afvoeren van de ongeveer 1600 vaten radioactief afval blijkt veel ingewikkelder en kostbaarder dan gedacht. Het is een wereldwijd unieke operatie, die NRG volgens de financiŽle jaarrekening ruim 100 miljoen euro kost.
Verder komt nog steeds een groot deel uit de oude kernvoorraden van de voormalige Sovjet-Unie, en die zijn allerminst ruim te noemen. Dit gaat in de nabije toekomst de prijzen voor isotopen verhogen, terwijl de vraag door de stijging van kankergevallen (mede door vergrijzing) en de betere bestralingsmethoden (waardoor die meer toegepast worden) alleen maar toeneemt. Nee laten we dan vooral geen heliumbalonnen meer oplaten, daar gaan we binnenkort de dupe van worden!

Edit: en wat betreft reŽle schaarste: het is juist reŽel wat we de komende 10 tot 20 jaar aan mogelijkheden tot onze beschikking hebben. Alles daar voorbij zijn berekeningen met modellen en simulaties. Als die modellen geen schaarste zien binnen 100 jaar dan leg je de focus simpelweg op een detail, terwijl er wel tig zaken op te noemen zijn die binnen 20 jaar al een probleem kunnen vormen (zie bijv rare earth metals). En dan ben je dus aan 't cherry picken terwijl je het grote plaatje vergeet.

[Reactie gewijzigd door Lekkere Kwal op 31 januari 2017 23:20]

Dus inderdaad gecreerde schaarste. Dus als het moet, kan de mens er wel wat aan doen.

Kennelijk is het opmaken van alle helium in een paar honderd jaar geen probleem voor je. Ik vermoed dat er men tegen die tijd anders over denkt wegens de unieke eigenschappen van die stof en het feit dat we het zelf niet kunnen maken.
Ik probeer al meerdere malen aan te geven dat elke 'probleem' een gradatie heeft. Ik zeg nergens dat het 'geen probleem' is, ik probeer duidelijk te maken dat er andere zaken een groter probleem zjn, en dat het focussen op helium niet realistisch is. Maak je dan hard voor de schaarste van rare earth metals e.d., stel je prioriteiten bij.

Daarnaast kunnen we het zelf maken dmv kernfusie, iets wat al geruime tijd onderzocht is en in de toekomst alleen maar meer. Om nog maar niet te spreken van de mogelijkheden van asteroide-ontginnning.

Kortom je hebt een vrij beperkt zich op de mogelijkheden en focust enkel op het idee in je hoofd dat helium binnenkort op is en niemand er wat aan doet...
Tja, ongeacht jou mening over helium (???) liegen de statistieken er niet om natuurlijk.

Prachtig bedrijf Backblaze, ik gebruik altijd hun HDD statistieken om te kijken wat betrouwbare schijven zijn zodat ik weet wat ik moet kopen.
Er wordt zeer weinig helium gebruikt in deze schijven:
One standard helium tank provides enough gas to fill nearly 10,000 HGST drives.
Bij Seagate is elke schijf ontworpen met een bepaald doel/slijtage. Deze kun je bij de spec sheets vinden. De eerdere tests van blackblaze gebruikten ze desktop schijven die volgens de specificaties geschikt zijn voor 8 x 5 gebruik (40 uur per week). Vervolgens gebruikt Blackblaze ze op 24/7 basis (168 uur), waarmee je dus factor 4.2 harder slijt. Daarnaast is er ook een beperking aan het aantal TB written.

De 8 TB schijven uit het artikel zijn dus uit de archief reeks (heb er zelf toevallig twee) en deze zijn wel gespecced op 24x7 gebruik. De NAS en Enterprise schijven zijn nog duurzamer en hebben meer load cycles en meer TB written. Dat laatste is natuurlijk niet vreemd voor een archief schijf.

Archive schijven zijn ST8000AS0002, excuses voor de verwarring!

[Reactie gewijzigd door sdk1985 op 31 januari 2017 23:14]

Bij Seagate is elke schijf ontworpen met een bepaald doel/slijtage. Deze kun je bij de spec sheets vinden.
Nu heb ik even de product manual van Seagate er op nageslagen en daar wordt niets gezegd in deze richting. Tenminste, niets over de bestemming als 'archiefschijf'. Er worden wel bepaalde gebruikspatronen benoemd ("The AFR specification for the product assumes the I/O workload does not exceed the average annualized workload rate limit of 55 TB/year. ") maar Seagate noemt de ST8000DM002 zelf een Desktop HDD (dat staat er ook overduidelijk op).

Ik ben heel benieuwd waarop je dan baseert dat dit een archiefschijf is ?

edit:

Zo te zien doel je op de ST8000AS0002, dat is wťl een archiefschijf maar die wordt dus niet door Backblaze gebruikt !

[Reactie gewijzigd door Carpento op 31 januari 2017 22:51]

Je hebt helemaal gelijk! Ik haalde twee type nummers door elkaar. Het model uit het artikel (ST8000DM002) heeft:
-2400 uren
-2 jaar garantie
-300.000 cycli
-55 TB/jaar

Het verhaal met de slijtage blijft wel van toepassing. Ik heb de post er op aangepast. Waarom deze "desktop" 8 TB het beter blijven doen blijft gissen. Wellicht zijn ze "over engineered" omdat het een nieuwe techniek betreft.

[Reactie gewijzigd door sdk1985 op 31 januari 2017 23:18]

Hier draait nog een WD10EVDS van een paar jaar oud, inmiddels 47444 uur op de teller en 6525 inschakelingen achter de rug. De 2e is een WD20iets, rond 20k uur. Beide HDD's 0.00 fouten.
Zou WD echt zo hard achteruit zijn gegaan? De enige schijven die hier voor problemen zorgden waren juist Seagates (320-500GB modellen) en Samsung.

[Reactie gewijzigd door Martin900 op 31 januari 2017 21:01]

Ik heb 3xWD green 1,5TB's gehad welke na ~3 jaar kapot waren. Allemaal net buiten de garantie.
Schijven draaide ~24/7 maar werden niet veel gebruikt (issue met SATA controller die ze niet wou downspinnen).

Recent een 3TB Seagate (desktop model) welke kapot is gegaan, deze stonden ook niet goed bekend. Allemaal draaiende in mijn DIY NAS met fatsoenlijke voeding en UPS ervoor.

Heb nog een oude WD Black draaien (sata 300) met 41.979 bedrijfsuren welke in mijn oude i7 920 de OS HDD is geweest.
Draai nu 2+ jaar WD Greens, 10 stuks in een seedbox, heel de dag actief, parren, unrarren, seeden etc. dus veel load. Tot nu toe ťťntje stuk gegaan.

Seagate had ik vroeger vaak thuis, altijd stukgegaan na een tijdje. Dat merk koop ik gewoon echt niet meer hoe goed de cijfers nu ook zijn.
Hier sinds 2012 WD Greens in een Synology NAS, gebruikt door het hele gezin. Tot hiertoe nul drive errors, hout vasthouden :)
Greens is zowat het ergste wat je erin kan stoppen.
Zoek maar eens op TLER.
Ik heb ze ook gehad in mijn 411j en die gingen om de haverklap stuk.
Wie zegt dat hij RAID gebruikt?
Ook met Jbod is dat niet verstandig
Het ergste wat je erin kan stoppen?? verklaar u nader?

Ben juist zeer tevreden met de greens.

Ik heb met w3idle van WD handmatig aangepast zodat deze zich hetzelfde gedraagt als een Red

Eigenlijk Green = Red maar de Green parkeert zichzelf na 8 seconden inactiviteit met als gevolg dat de leeskop veelvuldig misbruikt wordt. Dit kun je zelf aanpassen tot en met 5 minuten. (Red heeft standaard 5 mins)
hier zelfde ervaring met green schijven van WD maar dan in een zelfbouw nas4free in een windows server omgeving geknoopt :)
Het is erg lastig te stellen, dat zie je ook inde percentages die erg klein zijn. Ik heb recent mijn 286 bij mijn ouders aangeslingerd en dat ding deed het gewoon nog! Ook dat zegt niets over de schijf die er in zit helaas, behalve dat ze toen een stukje rumoeriger waren :)
Het hangt ook behoorlijk hoe ermee is omgegaan en jouw geluk factor :)
Ik had Thinkpad schijven met 1000 uur die al een aantal reallocated sectors hadden.
inderdaad,
Ooit had ik van die 'deathstar' hdd's
Nooit uitval gehad, die dingen hebben netjes een paar jaar gewerkt, tot ze vervangen werden door grotere schijven.
Ook de Quantum Bigfoot's die op veel plaatsen problemen gaven, werkten prima.

De enige hddfails die ik ooit had, was een WD green, van 1TB, die het al na een week of 3 begaf, en een Connor 340MB.
De rest is meestal al vervangen ivm ruimte tekorten
Je maakt een conclusie op basis van jouw eigen ervaringen met een sample size van 1 of 2? Dat zegt niet zoveel.
Oh er waren het veel meer stuk of 20-30 in totaal, niet alleen mijn eigen machines. In ieder geval zelden tot nooit een gefaalde WD gezien.
Nee, dat klopt.

Zelf heb ik veel problemen met allerlei WD Blue disks, maar dat lijkt ook toeval, want dat is helemaal geen algemen trend.
Nee, zijn RED's geen RE, RED Pro, AV etc.
Heb zelf nog 250/300GB Seagate schijven liggen (7+ jaar onderhand?) en hebben zo'n 25 tot 35K power on hours erop zitten.

Werken ook nog prima! Maar risico blijft er altijd, ze kunnen er zomaar ineens mee ophouden.
Goed om te zien! Ben vooral benieuwd hoe dit zich meet met gebruikers intensiteit. Hoeveel intenser worden deze schijven of juist niet (slimmere verdelingvan data/acties over meer dan 1 hdd)
Deze resultaten lijken me ietwat vertekend....

De twee typen 8TB harde schijven waarbij geen uitval is geconstateerd zijn tegelijk groepen met de minste draaiuren en een kleine samplesize, waardoor de mogelijke afwijking van de ware percentages groter kan zijn.
Als ze nu eens in plaats van 45/60 drives te gebruiken het tienvoudige hadden gepakt, was de samplesize groter geweest, en had het toeval wellicht een kleinere rol gespeeld, mocht dit aanwezig zijn :)
Ik snap niet hoe mensen dit als betrouwbare test kunnen zien, in de zin van: Ze geven de resultaten tegelijkertijd, terwijl sommige schijven nog nieteens 3 weken draaien. Natuurlijk is de faillure rate dan enorm laag bij die modellen. Beetje nutteloos om deze resultaten (nu al) mee te nemen het overzicht, IMO.

Ik snap ook niet waar ze die lage failure rates vandaan halen bij zowel de HGST als Toshiba schijven, van alle schijven die bij ons op het bedrijf verkocht of weggebouwd komen is zeker 40% van alle HGST en Toshiba schijven binnen een half jaar retour gekomen ramvol met bad sectors. Netjes omgeruild voor een WD exemplaar, nooit meer gezeik.

[Reactie gewijzigd door _-SaVaGe-_ op 31 januari 2017 22:01]

Misschien moet je ook maar eens wat statistieken posten want nu blijven het maar anecdota. Dan zijn de gegevens van BB toch wat betrouwbaarder.
Ik snap niet hoe mensen dit als betrouwbare test kunnen zien, in de zin van: Ze geven de resultaten tegelijkertijd, terwijl sommige schijven nog nieteens 3 weken draaien. Natuurlijk is de faillure rate dan enorm laag bij die modellen. Beetje nutteloos om deze resultaten (nu al) mee te nemen het overzicht, IMO.

Ik snap ook niet waar ze die lage failure rates vandaan halen bij zowel de HGST als Toshiba schijven, van alle schijven die bij ons op het bedrijf verkocht of weggebouwd komen is zeker 40% van alle HGST en Toshiba schijven binnen een half jaar retour gekomen ramvol met bad sectors. Netjes omgeruild voor een WD exemplaar, nooit meer gezeik.
Zo zie je maar hoe persoonlijk zo'n ervaring. Ik heb juist ervaring met sneuvelen van Seagate (consumenten modellen) als WD (Zelfs de RE2 GP varianten). Hitachi/HGST komen er sterk uit, maar ben het meest onder de indruk van de pre-overname Samsungs van 1 en 2TB. Die blijven superkoel uit zichzelf en blijven doordraaien... Gaat overigens ook om gebruik van 24/7 in deze.

Incidenteel is de WD Gold gewoon een kopie van de HGST He8 (which is a good thing :P)
Samsung schijven heb ik ook de beste ervaring mee, jammer dat ze over zijn gegaan in de seagate schijven.
Zelf zie ik seagate schijven ook wel regelmatig uitvallen maar nog altijd minder dan Hitachi of Toshiba schijven. De meeste van die schijven die ik terug heb gehad waren overigens vrijwel altijd de 500gb of 1tb exemplaren, bij seagate vooral de 2tb. Precieze cijfers heb ik niet, misschien wel eens leuk om bij te houden :)

In mijn 2 thuisservers zitten ook nog allemaal oude samsung en WD green schijven, draaien al zeker 4 jaar 24/7 zonder problemen. Heb er ook een paar 2TB schijven van HGST in gehad welke beiden binnen 1 maand kapot waren, stampvol met bad sectors.

Maar zo zie je inderdaad dat iedereen weer een andere ervaring heeft met alles :p

[Reactie gewijzigd door _-SaVaGe-_ op 1 februari 2017 15:04]

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*