Backblaze: faalpercentages hdd's en ssd's ontlopen elkaar niet veel

Uit een intern onderzoek van cloudbackupbedrijf Backblaze blijkt dat het faalpercentage van ssd’s tijdens de eerste veertien maanden niet erg ver onder dat van klassieke harde schijven ligt. Na die periode begaf 1,38 procent van de hdd’s het. Bij ssd’s was dat 1,05 procent.

Backblaze gebruikt sinds 2014 klassieke harde schijven in zijn serverparken en sinds medio 2018 solid state drives in nieuwe serverparken en bij defecten van de klassieke varianten. Backblaze spreekt van een defect zodra het opslagmedium niet meer functioneert of wanneer het aan de hand van de S.M.A.R.T.-status kan afleiden dat een defect naderend is. Het bedrijf monitort hiervoor de S.M.A.R.T.-statusrapporten van de schijven.

Vervolgens stelt Backblaze dat de vergelijking werd gedaan tussen boot drives die het bedrijf gebruikt in het eigen serverpark. Het bedrijf verduidelijkt wel dat deze schijven ook regelmatig read en write operations uitvoeren en logbestanden opslaan. "De term boot drive is in ons geval dus misplaatst", klinkt het.

Door de leeftijd van schijven was een een-op-eenvergelijking niet betrouwbaar te noemen. Het bedrijf keek vervolgens naar perioden in de levenscyclus van beide technologieën waarover het genoeg informatie had en vergeleek vervolgens het faalpercentage.

"Het valt op de beide opslagtechnologieën dezelfde patronen vertonen tijdens de eerste vier jaar van hun levensduur", stelt Andy Klein van Backblaze. "Vanaf het vijfde jaar begon het faalpercentage van de klassieke harde schijven toe te nemen. We vragen ons dan ook af of we hetzelfde patroon gaan zien bij de ssd’s."

Failrate ssd hdd

Door Jay Stout

Redacteur

04-10-2021 • 15:05

103 Linkedin

Submitter: Longbeard

Reacties (103)

Wijzig sortering
Interessant! Ik had altijd de gedachte dat SSD's een korter leven beschoren waren, omdat cellen het zouden begeven bij intensief gebruik. Is de kwaliteit dan zo toegenomen?
Backblaze heeft op de volgende pagina een kwartaalverslag staan van Q2 2021:
https://www.backblaze.com...-drive-stats-for-q2-2021/

Hierin zie je ook de merken en modellen die gebruikt zijn.
In het begin was dat een probleem, maar is al jaren niet meer zo. Als consument ga je nu over t algemeen, wellicht wat uitzonderingen daargelaten, qua levensduur het verschil niet meer merken en zelfs minder kans op gelazer met een SSD. Bij hoge R/W blijkbaar ook niet meer getuige deze data. Ze gaan wel verrot, maar de failrate blijkt alsnog minder hoog te zijn.

Uiteraard nooit op één schijf vertrouwen. Altijd backups maken en als tijd belangrijk voor je is: tenminste in RAID1 knikkeren voor redundantie.
Bij hoge R/W blijkbaar ook niet meer getuige deze data. Ze gaan wel verrot, maar de failrate blijkt alsnog minder hoog te zijn.
Backblaze maakt niet gebruik van QLC SSDs dus ben benieuwd hoe betrouwbaar die blijken straks.
Ik ben vooral geinteresseerd wat gebeurt bij evenveel SSD writes: geeft het beestje de geest bij een tel limiet of als de spare sectoren op zijn. Gaan die spare sectoren hand in hand per cluster ssd's, of zit daar nog een spreiding tussen zdd ze de kapotte disken kunnen vervangen.
Met QLC kan je bijna net zo goed reguliere TLC SSD pakken of zelfs een HDD IPV qlc SATA. Je gaat het merken bij elke bestands copy en is imo het geld niet waard.
Ze zijn stil en vibreren niet. Heb hier een 4 TB QLC via USB op m'n NAS zitten voor meuk. NAS zelf zit al vol met 2x2TB TLC voor de belangrijke zaken. Resultaat: stille, trillingsvrije NAS.
Zijn de trillingen dan hoorbaar? Heb nooit last gehad van de trillingen van een HDD, muv mijn huidige NZXT behuizing (heb sindsdien ook geen HDD meer in mijn game pc)
SSD voor de Nas is leuk maar nutteloos, tenzij je een Enterprise nas heb of diy ben je gelimiteerd aan je netwerk poort van 1Gbit.... (Zou es tijd worden voor 10gbit op consumenten nas van Synology).
Ben zelf niet overtuigd van SSD op dit moment tbv back-up, vind €700 voor 8Tb toch erg veel gezien ik voor €860 32 Tb nas schijven heb (2x Raid1 16 Tb)
Ja, zowel trillingen als het draaien. Ik heb nu een oud huis met veel hout en geen betonnen vloeren, dus elke plank resoneert vrolijk mee. Ook geen diepe ver weg gestopte kelder. Nu op dikke versterkingshoeken verankert aan de muur gezet, dat hielp aanzienlijk. Toch bleef het geluid irritant door de deur heen komen en aangrenzende ruimte heen komen. Met SSD's is het nu stil, hoort alleen de luchtverplaatsing van de ventilator nog als je de deur open doet (ook irritant, maar beperkt zich tenminste tot die ruimte).

En tsja: voor mij is 2 TB belangrijk + 4 TB meuk meer dan genoeg op 1 Gb/s. Dan is het qua kosten nog te overzien.
Intensief gebruik is relatief natuurlijk :) De meeste zakelijke SSD's worden verkocht met een bepaalde garantie, bijv. dat ze 5 jaar lang 3 DWPD (drive writes per day) aan kunnen. Als je erg veel data wegschrijft is het belangrijk daar je SSD op te selecteren.
Dat was bij de eerste SSD’s een probleem, maar tegenwoordig is de mean time between failures zo hoog dat de meeste mensen hier nooit aan gaan komen.
Er is een verschil tussen slijtage en falen.
Iedere SSD slijt bij schrijven, daar is de firmware dan ook op ingericht.
Falen betekent dat het hele ding het niet meer doet of dat het aantal defecte blokken een grens heeft bereikt.
Iedere SSD slijt bij schrijven, daar is de firmware dan ook op ingericht.
Zelfs bij lezen slijt NAND een beetje.
Backblaze gebruikt geen SSDs om data op te slaan, ze gebruiken het alleen als bootdrive als ik hun rapport goed lees. Gezien hun business model is het ook niet heel erg nuttig om SSD's voor dataopslag te gebruiken.

De boot-ssd's doen niet heel erg veel, met een paar logfiles lezen/schrijven/deleten per dag zul je waarschijnlijk bij lange na niet tegen de gespecificeerde 'drive writes per day' aanlopen.

Het verbaast mij eerder dat ze niet veel beter zijn dan disks die nonstop rondjes draaien.
Ik schrik er toch een beetje van. Ik heb SSD's juist gekocht om wat backups op te plaatsen van Foto en videobestanden. Ik vraag me af of dit ook opgaat voor HDD en SSD's die nauwelijks gebruikt worden, maar gewoon maar liggen te liggen (tot er weer eens wat opgeplaatst wordt).
Ik vraag me af of dit ook opgaat voor HDD en SSD's die nauwelijks gebruikt worden, maar gewoon maar liggen te liggen (tot er weer eens wat opgeplaatst wordt).
Onwaarschijnlijk. Aan een 'solid state' drive slijt niets als die uit staat. Een HDD heeft bewegende onderdelen die minder goed bewegen met ouderdom en stilstand.
Het bedrijf verduidelijkt wel dat deze schijven ook regelmatig read en write operations uitvoeren en logbestanden opslaan.
Constant schrijven naar SSD's is op lange termijn funest. Zelfs met trim slijten flash geheugenchips.

[Reactie gewijzigd door The Zep Man op 4 oktober 2021 15:14]

SSD's slaan data op in electronen in een memory-cell....die memory-cell kan redelijk lange-tijd die electronen vasthouden, maar verliest ze wel over tijd.
Als je SSD's jaren op de plank laat liggen loop je zeker risico op dataverlies, die data moet af en toe wel gerefreshed worden.

Als andere mogelijke 'slijt' oorzaak is het vaak overschrijven van de zelfde cellen.... SSD's hebben een bepaald aantal write-cycles (die je vaak in de smart-attributes kan vinden). Ik heb enkele SSD's uit servers die vele petabytes hebben geschreven, en daarna compleet onbruikbaar waren, in eerste instantie heel traag, en later gewoon onleesbaar/onscrhrijfbaar.

[Reactie gewijzigd door markjanssen op 4 oktober 2021 15:22]

Je zegt data refreshen: Is het dan genoeg om simpelweg de drive eens in te schakelen?
Ik vermoed van niet, ik denk dat je minstens alle data een keer moet uitlezen. Maar dat hoort ook, je moet immers je backup eens in de zoveel tijd checken of die data die is gebackupped nog wel leesbaar is. En 1 backup up is geen backup... ;-)
De SSD controller regelt het refreshen. Daar hoef je zelf niets voor te doen, behalve de SSD van stroom voorzien.
Tja.... zou toch gewoon alle data readen en checksummen
Of als 't encrypted data is... decrypten/readen... dan weet je ook meteen dat er geen corruptie is.

[Reactie gewijzigd door markjanssen op 4 oktober 2021 16:07]

Of als 't encrypted data is... decrypten/readen... dan weet je ook meteen dat er geen corruptie is.
Bij FDE (Full Disk Encryption) wordt meestal niet op integriteit gecheckt.

Dat is het geval als elke gehele sector, van bijvoorbeeld 512 byte, wordt versleuteld in evenveel bytes; er is dan simpelweg geen ruimte om checksums of hashes op te slaan (het is al een heel gedoe om een enigszins betrouwbare initialisatievector per blok te genereren, want ook daar is dan geen opslagruimte voor).

Overigens slaan HDD's en SSD's intern wel (meestal per sector) aanvullende error detection- en error correction codes op, en in elk geval de meeste HDD's doen herhaalde leespogingen als het niet lukt om een sector foutloos te lezen (wat ze vaak zeer traag maakt en tikkende geluiden kan geven).

Aan de andere kant biedt dat geen garantie dat bestanden intact blijven.

Overigens bestaan er tools die recovery data genereren waar bestanden, die later deels corrupt blijken, mee gerepareerd kunnen worden (mits er niet teveel corruptie is).

Zie bijv. MultiPar (github) en een variant van rsbep (ik heb geen ervaring met deze tools, use at your own risk).
Tja.... zou toch gewoon alle data readen en checksummen
Bij een SSD nergens voor nodig. Zelfs (micro-)SD's en USB sticks hebben tegenwoordig dynamic-refresh en near-miss ECC refresh vanwege de hoge dichtheid, wat ervoor zorgt dat voltage van cellen niet te ver afwijkt.
Dat klopt volgens mij niet. Dit type refresh gebeurt dit alleen als je de bestanden leest EN de controller merkt herstelbare fouten in de ECC code op.

Als je preventiever te werk wilt gaan zul je de bestanden moeten kopieren naar dezelfde of een andere disk. Dan zijn alle cellen (ook diegenen die nog geen herstelbare fouten in de ECC hebben) vers, met zo min mogelijk lekkage.
Hoe zit het met lezen? als ze kapot gaan van het aantal writes, kan je dan met read nog je data redden?
Een defecte memorycell kan je niet uitlezen. Als een ssd dan ook nog eens door zijn overprovisioning (reserve cells) heen is, kan je alleen nog terughalen wat nog op werkende memory-cells zit.
Verder schrijven is dan niet aan te raden.
Een SSD lekt lading als hij uitstaat, vooral bij hogere temperaturen. De opgegeven levensduren bij rust zijn nogal laag, maar ik weet niet hoe het er in de praktijk uitziet.
Aan een 'solid state' drive slijt niets als die uit staat. Een HDD heeft bewegende onderdelen die minder goed bewegen met ouderdom en stilstand.
Het voordeel is dat in geval van nood die bewegende onderdelen te vervangen zijn (platters verplaatsen naar een goed werkende HDD). Een SSD die defect is, is meestal ook goed defect en veel lastiger te repareren.
De vraag is of dit in server omgevingen is. dat lijkt wel. Voor thuisgebruik zullen de cycles veel lager liggen, waardoor deze cijfers volgens mij niet representatief zijn voor thuisgebruik.
Dit is inderdaad een serverboer, en de getallen zul je inderdaad niet één-op-één naar je thuisPC of NAS kunnen trekken. Maar het is wel een heel mooie vergelijking tussen verschillende merken harde schijven (ze publiceren deze data al jaren en dan kon je mooi verschillende merken vergelijken) en nu verschillende technieken.

Enige nadeel is natuurlijk wel dat waar zij een uitval van zoveel procent hebben, jij misschien wel een uitval van 100% hebt – als jij net die éne drive hebt die binnen een maand kapot gaat is dat voor jou 100% uitval, maar voor hun een fractie omdat ze nog heel veel meer schijven in gebruik hebben. Het geeft dus wel een waarde voor de betrouwbaarheid van een merk of een bepaald type drive, maar niet voor een individueel exemplaar.
Ik bedoelde vooral dat voor een SSD het aantal schrijf acties van meer invloed is dan het aantal lees acties.

Een mechansiche drive wordt wat dat betreft gelijk belast.

Je kan dus wel iets zeggen, maar de thuis situatie zal denk ik statischer zijn dan cloud opslag.
een back-up op een SSD of HDD maakt niet veel uit. Het is tenslotte een back-up dus je hebt er nog een origineel van. Of het liefst ook nog een 2e kopie. Het voordeel van de SSD vind ik dat als hij afgekoppeld is hij niet gevoelig is voor bewegingen.
Die backup neem je toch juist omdat data-opslag nou eenmaal defect gaat? ;)
Een verschil van 30% is toch nog best aanzienlijk of niet?
0,3% in het voordeel van SSDs.. ;)
0,3 procentpunt op de hele onderzoekspopulatie, maar het onderlinge verschil is 31,4%

Voor elke 1000 ssd's die stuk gaan, gaan er 1314 hdd's stuk.
Als je van ssd naar hdd over wilt stappen is het inderdaad 31% meer failures.
Het meer waarschijnlijke geval dat je hdd naar ssd gaat levert dit een reductie van 24% op. 🧐
Je was mij voor. Dit dus inderdaad.
Mijn eerste ssd uit 2013. Een Samsung van 256 gig draait nog steeds. Deze heeft tot mei 2020 mijn OS gedraaid en fungeert nu als disk waar ik een game partitie op heb staan.

Die dingen zouden na 3 jaar stuk gaan.. maar daar heb im tot op heden niet vast gemerkt.
Een data center gebruikt hun HDD's en SSD's intensiever en voor langere periodes dan een consumer PC/Laptop. Het gaat volgens mij om hoeveel er read/write gedaan is.

[Reactie gewijzigd door Joao op 4 oktober 2021 17:36]

Inderdaad, zover ik altijd heb begrepen gaan HDD's vooral kapot na een x periode power-on time en is het bij een SSD vooral de hoeveel TB's written. Correct me if I'm wrong.
Bij HDDs is het ook vooral het gebruik en minder dan bij SSDs maar het zijn vooral het aantal write acties. Niet de power on time.
Uit de krochten van mijn geheugen trek ik ook iets over dat HDD's slijten door opstarten en stoppen (spin up en spin down; aantal spin cycles). Daar hebben SSD's geen last van.
Speelt inderdaad ook mee. Alle bewegingen geven vooral slijtage bij HDDs.

Maar naar mijn n=1 ervaring zijn het vooral schrijfacties. Genoeg stervende HDDs gehad en gezien die crashen bij het wegschrijven van een bitje. Terwijl ze nog dagen, weken of maanden blijven werken als passieve read only opslag voordat ze definitief de geest geven.
Daarbij, na een x-aantal lees-acties zal de inhoud van de cell ook een refresh moeten hebben. En ze lopen ook van nature 'vanzelf' leeg volgens mij.
En dan gaat het met name om de writes die de uitval van een SSD kunnen veroorzaken.
ja en nee, in een datacenter heeft storage vaak een grotere uptime, maar wordt daarom niet intensiever gebruik. Mensen thuis booten hun storage devices vaker waardoor er meer wear op komt en tegelijk heeft backblaze veel meer "backup" data staan die amper of nooit gebruikt wordt (zeker als die incremental zouden zijn en er data deduplication wordt toegepast), waardoor de storage het nog minder te verduren krijgt. Reken daarbij nog eens dat datacenters environment-controlled zijn tov thuisomgevingen waar temperatuur, vochtigheid en stroomtoevoer amper of nooit gecontroleerd wordt, laat staan onder controle gehouden.
Dat is zo en daarom is het in tegenstelling tot HDDs denk ik minder zinvol om naar de SSD data van Backblaze te kijken voor je eigen SSDs.
Zie hier de kracht van anekdotes en statistiek. Backblaze rapporteert over ruim 1600/1200 SSD's wat een stuk betrouwbaarder is dan die enkele schijf van jou. Fijn dat jouw schijf nog werkt en hopelijk blijft ie dat nog lang doen.
Binnen mijn omgeving voornamelijk 840 en 850 EVO's aangeschaft ooit om HDD's te vervangen en nieuwe systemen bij voorkeur met Samsung SSD's (later ook 960, 970 EVO, 970 EVO plus) uit laten rusten.

Van de 109 schijven is er tot op de dag van vandaag geen enkele gesneuveld.
Zou je van die ruim 100 ssd-s ook eens naar de smart-info kunnen kijken en hoe ruim ze nog in de reserve-ruimte zitten? Het zou mij verwonderen als ze allemaal nog al hun reserver-ruimte beschikbaar hebben.

Misschien ook leuk om dat weer te geven naast de hoeveelheid gelezen en/of geschreven gegevens.
S.M.A.R.T. is niet erg betrouwbaar als het gaat om het weergeven van de staat van een hard disk.

Heb nu al bijna 10 jaar een 1 TByte hard disk op 26% health, een waarde die werd toegekend zo'n 3 maanden na aanschaf. Heb ondertussen meerdere drives in dit systeem erbij gezet en weer vervangen. Welke glashard faalden terwijl S.M.A.R.T. aangaf dat ze veel gezonder waren.

Als ik een machine vrij heb (en tijd eraan wil/kan spenderen), dan controleer ik HDD schijven met: MHDD
Deze geeft keihard aan welke sectoren kapot zijn, welke sectoren andere problemen hebben, welke sectoren langzaam zijn geworden, enz.

Zo'n test duurt wel even, ligt er aan hoe snel het systeem is waar de MHDD software op draait en hoe groot de opslag capaciteit is. MHDD gebruik ik alleen voor de controle-magelijkheden die het bezit. Er zitten echter ook een heleboel mogelijkheden in om aanpassingen op de schijf te maken. Maar dan moet je heel goed weten wat je aan het doen bent, want met 1 foutje kun je je hele schijf onrepareerbaar beschadigen.

Je dient een opstartbaar medium te hebben, waarop je MHDD plaatst en dan vanaf dat medium op te starten. Op die manier zit er geen enkel besturingssysteem in de weg.

Gebruik op Windows de HDSentinel software (wanneer deze weer eens gratis word weggegeven). Deze geeft de S.M.A.R.T. status van een drive grafisch weer. In mijn ervaring zijn de 3 TByte HDD's van Seagate bijzonder fragiel. Voor werk een aantal aangeschaft. Geen enkele heeft het 1 jaar uitgehouden. Voor persoonlijk gebruik 2 aangeschaft. Eentje gaf het al op na 4 maanden, de andere werkte iets langer dan een jaar. Beiden werden voornamelijk gebruikt om data op te slaan, niet als boot drive, niet als drive waar veel schrijfacties op plaats vonden, wel veel leesacties.

Ben echter zeer tevreden met de 1 TByte, 2 TByte en 4 TByte HDD modellen van Seagate, veel betrouwbaarder. Over de jaren zijn er zo'n 80 afgeschreven HDD's in mijn depot terecht gekomen (voor de magneten en motor). Iets (maar niet veel) beter dan anecdotaal bewijs, denk ik dan.
Die 3TB seagate HDD zijn inderdaad niet best. Toevallig ook hier de enige schijven die ooit stuk zijn gegaan. Meen me te herinneren dat Backblaze in een vorig rapport ook tot die conclusie kwam.
Als je naar de getallen van Backblaze kijkt (faalpercentage van 1,05) past dat nog altijd prima binnen de statistieken die hier gegeven worden.
Hier iets vergelijkbaar. Van de 70+ ssd die sinds 2015 pc’s hdd’s van pc’s vooraan in een klas vervangen, zijn hooguit 1 of 2 waarvan ik vermoed dat het de ssd is die de pc deed crashen.
(Sinds vorig jaar is er wel wat doorgeschoven qua pc’s)
Er is een groot verschil tussen de SSD die je in je computer gepropt hebt of een SSD dat in een cloudserver wordt geplugd.

Ten eerste al de reads/writes liggen hier al zeer sterk uit elkaar en staan in de server dan ook nog eens 24/24 'aan'.
Een Samsung van 256 gig draait nog steeds
Ik hoop het niet, dat is juist het hele idee van een solid state drive ;)
Als de SSD in een laptop zit, welke geketend is op het draaiende deel van een attractie (draaimolen, zweefmolen enz.), dan draait het ding nog altijd. :+
[/slappe zwets]
Ik heb aan een thuis servertje een hdd hangen die al 11 jaar er in zit.. die hele media server is al 11 jaar oud en draait 24/7 zelfs. En is opgebouwd toen met budget consumenten hardware zelfs.

Dus het kan inderdaad wel.
Dat is hetzelfde issue als bij het SSD voorbeeld, het daadwerkelijke gebruik is miniem voor een thuisgebruiker (+familie) en niet te vergelijken met server hardware en gebruik...
Hier gaan de schijven met lage gebruiksintensiviteit en lange tijden aanstaan na +/- 10 jaar stuk. In elk geval een tip dus om zsm een backup te maken. In het algemeen gezien wel fijn om te weten dat je zoveel jaren vooruit kan. (HDD in dit geval)
“Mijn eerste ssd uit 2013. Een Samsung van 256 gig draait nog steeds.”

Waarom laat je je SSD draaien? Casemod ofzo? Anders is er iets geks aan de hand. :Y)
Kan je in dat hoekje gele en rode kaarten uitdelen voor slechte grapjes ?
Alleen als je Jochem Meijer heet
Ik heb in een laptop hier nog een Intel X25-M 160GB uit 2009. SSD werkt nog perfect!
De slechtste SSD’s waren de OCZ Sandforce controlled SSD’s uit diezelfde periode

Zou leuk om te weten zijn wat de oorzaak is, of dit nu verlopen write endurance is of gewoon een PCB dat ermee stopt. Al is dat natuurlijk lastig om te zeggen.
Een steekproef met n = 1 zegt natuurlijk niets zinnigs. Je ziet in het overzichtje in het artikel dat de annual failure rate dermate laag is (namelijk ruim 1%), dat je honderden drives nodig hebt om überhaupt tot zinnige conclusies te komen. Zelfs met de omvang van het serverpark van Backblaze maken 2 extra uitgevallen HDD's of SDD's al een verschil van 0,1% in de statistieken. Als ze niet 1000+ HDD's en SDD's hadden gehad maar slechts 100+ exemplaren, was het niet eens mogelijk geweest om significante conclusies te trekken: twee defecte HDD's of SDD's meer hadden dan al de geconstateerde uitvalpercentages kunnen verdubbelen.
Ik vraag mij af of MLC SSDs langer mee kunnen, officiële endurance terzijde.

Mijn oude MLC uit 2013 doet het ook prima, mijn MX500 TLCs ook.

Maar ik heb wel al paar mensen gezien met een QLC die de geest gaf, ondanks dat de endurance volgens de specs hoger zou moeten zijn dan van mijn MLC uit 2013.

Ik mijd QLC overigens om andere redenen, de snelheden buiten de cache om zijn lager dan bij TLC, en daar wil ik met kleinere schijven weleens overheen gaan, met een 1tb of groter model denk ik dat dit minder een issue is.
Afgezien van een paar oude SSD's in EEE PC's vanaf 2007 is mijn oudste SSD een OCZ Vertex van 120GB uit 2010. Het ding werkt nog altijd in een Mac Mini die altijd aan staat ivm Time Machine service.
Er zijn nog teveel mensen die denken dat SSD's onfeilbaar zijn omdat er geen bewegende componenten in zitten. Goed dat er iemand wat aan die mythe doet.
Ze zijn zeker niet onfeilbaar, maar ik voel mij wel een heel stuk beter bij een SSD in een laptop dan met een HDD, juist vanwege die bewegende delen. Backblaze gebruikt hun HDD's voornamelijk in datacentra, dus die schijven zullen na installatie niet veel bewegen.
Nog belangrijker, geen bewegende onderdelen staat gelijk aan geen vibraties in de schijf == geen vibraties in het chassis (behalve de koeling). Vibraties blijken veel problematischer dan de meesten zich op het eerste gezicht voorstellen.
Die 'iemand' is wel een club die baat heeft bij falende harde schijven (of de angst daarvoor), want dan vluchten meer mensen naar Cloud Backup. Los daarvan, inderdaad goede zaak om te weten dat één backup onvoldoende backup is.
Het gemiddelde rack kent behoorlijk wat beweging alleen is het een ander soort beweging, ik weet niet of die perse positiever is voor de hardeschijf, voor een SSD maakt het niet zo gek veel uit.
Vraag mij af hoe de HDD's en SSD's van dezelfde fabrikant zijn. Mochten die SSD's ook beginnen te falen vanaf het 5e jaar en ook nog van dezelfde fabrikant dan denk ik meteen aan:
Planned Obsolescence: The Light Bulb Conspiracy

Hoeft niet eens van dezelfde fabrikant te zijn, bij The Light Bulb Conspiracy waren er afspraken gemaakt tussen verschillende fabrikanten :Y)

[Reactie gewijzigd door Joao op 4 oktober 2021 15:10]

Fijn dat Backblaze deze informatie uitbrengt. Ik gebruik ook regelmatig hun statistieken als ik een nieuw opslagmedium wil aanschaffen. Echter lijkt mij dit redelijk appels en peren vergelijken. Zoals hierboven in het artikel ook al staat: "De term boot drive is in ons geval dus misplaatst", dat lijkt mij zelfs zacht uitgedrukt.

In mijn NAS heb ik een Samsung 970 Evo zitten die fungeert als cache schijf. Deze NVMe disk zou volgens de SMART voorspelling zo'n 10 jaar mee gaan met mijn huidig verbruik. De Crucial P1 die ernaast zit en dienst doet als backup disk, zou echter 100 jaar mee moeten gaan. Immers gebeuren er op die disk veel minder grote lees- en schrijfoperaties.

Uiteindelijk slijten hard disks redelijk hetzelfde, echter door de bewegende onderdelen zou daar ouderdom meer een factor moeten spelen dan bij weinig gebruikte SSD's. En met hard disks is het soms ook niet te voorspellen. Zo heb ik disks na 3 jaar met pensioen moeten sturen, terwijl een andere disk na 6 jaar power on time nog vrolijk verder werkt, met vergelijkbare loads.

Ik ben benieuwd of Backblaze binnenkort met wat meer statistieken komt over hoe deze disks gebruikt zijn. Dat zou het een en ander al flink verduidelijken.
Juist het feit dat het geen pure boot-drives betreft maakt de vergelijking treffender.
Wat ook nog meespeelt is dat de totaal beschikbare schijfruimte is toegenomen - het is dan niet automatisch zo dat het gebruik van al die ruimte hetzelfde is. Bijv. 2 GB aan logbestanden op een schijf met slechts 20 GB aan ruimte is toch anders dan als die schijf 2 TB kan bevatten. En nu neemt activiteit wel toe met de jaren en dus vermoedelijk ook de grootte van de logbestanden. Maar vast geen gelijkblijvende factor als de hdd-size toename.

Bij SSD's hebben we natuurlijk ook gezien dat een overcapaciteit nodig is. Als dat procentueel gelijk is maar het schrijven naar HDD dus niet evenredig is toegenomen, gaan ze dus langer mee.
Niet veel? Procentueel gezien gaan er gaan 30% meer hdd's stuk dan ssd's.
1.05% vs 1.38%
Dat wel, maar als je 1000 schijven hebt gaan er dus 10 SSD's kapot en 14 HDD's
Dat is geen zal niet echt significant zijn
is 40% meer, lijkt mij veel... Qua concrete cijfers 'lijkt' het verschil klein, procentueel niet.
In praktijk heb ik vaker gebruikers met kapotte HDD,s dan SSD en dat komt omdat mensen met de laptop gaan wandelen terwijl die aan staat daar kunnen HDD,s slecht tegen.

Op dit item kan niet meer gereageerd worden.

Kies score Let op: Beoordeel reacties objectief. De kwaliteit van de argumentatie is leidend voor de beoordeling van een reactie, niet of een mening overeenkomt met die van jou.

Een uitgebreider overzicht van de werking van het moderatiesysteem vind je in de Moderatie FAQ

Rapporteer misbruik van moderaties in Frontpagemoderatie.




Google Pixel 7 Sony WH-1000XM5 Apple iPhone 14 Samsung Galaxy Watch5, 44mm Sonic Frontiers Samsung Galaxy Z Fold4 Insta360 X3 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee