Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 41 reacties

Geheugenfabrikant Sandisk zou aan een standaard werken om de levensduur van solid state disks te kwantificeren. De Jedec, een organisatie die standaarden vaststelt, zou met Sandisk en andere fabrikanten over ssd-standaarden overleggen.

Sandisk pssdVolgens Sandisk vult de nieuwe standaard, die ze Longterm Data Endurance (LDE) gedoopt hebben, een hiaat in de specificaties van solid state drives: namelijk een indicatie voor de verwachte levensduur van een ssd-drive. Fabrikanten weten weliswaar hoeveel lees- en schrijfcycli de individuele geheugenchips in een ssd aankunnen, maar de vertaling naar de complete solid state disk ontbreekt vooralsnog. LDE moet daar verandering in brengen.

De LDE-'standaard' is gebaseerd op het totaal aantal terabytes dat een ssd gedurende zijn levensduur kan wegschrijven. In samenwerking met testbedrijf Bapco concludeerde Sandisk dat een 'professionele pc-gebruiker' gemiddeld 87GB per week wegschrijft. Op basis van dat getal schat Sandisk, in combinatie met zijn LDE, de resterende levensduur van een ssd. Die schatting zou realtime op een virtuele meter weergegeven kunnen worden. Of de berekeningen ook gelden voor andere ssd's is niet duidelijk: de gebruikte geheugencontrollers, en daarmee de methodes voor foutcorrectie, zijn immers niet in elke ssd identiek.

ManometerDe Jedec, maakte ruim een week geleden bekend een onderzoekscommissie met de naam JC-64.8 te hebben ingesteld die standaarden voor solid state disks moet ontwikkelen. De Jedec, die standaarden voor de halfgeleiderindustrie vastlegt, is ook op de hoogte van de activiteiten van Sandisk. De onderzoekscommissie werkt echter ook nauw samen met Seagate en de JC-64.8 wordt mede voorgezeten door medewerkers van die fabrikant. Seagate hoopt zelf in 2009 met een lijn ssd's voor gebruik in servers te komen en via de Jedec standaarden voor het testen van prestaties en levensduur van data op ssd's te ontwikkelen.

Een geplande datum wanneer de Jedec-werkgroep zijn standaarden gereed hoopt te hebben, wordt niet genoemd. Het is evenmin bekend wanneer de LDE-meters, die het uiterlijk van een manometer zouden kunnen krijgen, officieel het levenslicht zullen zien. Het gebruik van een analoge drukmeter als indicatie voor de geschatte resterende levensduur van een ssd, sprak klanten aan, aldus Don Barnetson, verantwoordelijk voor ssd-marketing bij Sandisk.

Gerelateerde content

Alle gerelateerde content (23)
Moderatie-faq Wijzig weergave

Reacties (41)

Nou krijg ik toch het gevoel dat juist DIT het grootste struikelblok blijft voor acceptatie van de SSD als HDD-vervanger.

Kijk, de HDD is er al jaren,en daar staat geen meter bij die aangeeft wanneer ie over z'n houdbaarheidsdatum gaat.

Nu komt er iets nieuws, dat dus een einddatum heeft. Dat schrikt mensen af.

De gemiddelde PC-gebruiker ziet een HDD als "eeuwig" en dat een SSD een aftellend diagram toont dat aangeeft wanneer ie er de brui aan gaat geven... ik weet niet of dat zo slim is.

Ik bedoel dan voor de acceptatie door het algemeen publiek.
De non-it'ers in mijn omgeving gaan er van uit dat een harde schijf eeuwig mee gaat. Een ten minste houdbaar tot maakt het een stuk duidelijker.
Interessante ontwikkeling. Bij discussies over flashgeheugen komt dit punt telkens weer terug. Door het eindig aantal lees - schrijfbewerkingen is ook de levensduur van de complete SSD drive beperkt, zoals in het artikel aangegeven.
Alleen zie ik ook in de bron niets over de invloed van de hoeveelheid gevulde opslagruimte. In de controllerhardware zit tenslotte altijd een wear levelling algoritme ingebouwd, zodat opeenvolgende schrijfbewerkingen gelijkmatig over de fysiek beschikbare hardware worden verdeeld.
Als de schijf bijna vol is is er minder ruimte om af te wisselen.
Als de schijf bijna vol is is er minder ruimte om af te wisselen.
Als de controller echt slim is zou het dan statische blokken naar de vaker gebruike ruimte kunnen verplaatsen, om vervolgens die stukken te gebruiken die weinig zijn beschreven. Ik heb alleen geen idee of dit princiepe ook wordt toegepast.
voor desktops moet hij 3 jaar draaien, voor een server 5 jaar.
daarna gaan bij mij de schijven ongeacht de staat de container in.

5 jaar = 43.800 uur. meeste schijven draaien een mbtf van 1,5 miljoen dus who cares.

verder

IF het belangrijk
THEN redundant
MTBF is een statistisch getal wat je niet letterlijk voor 1 schijf kunt nemen. Als je dit wel doet zou er nooit een schijf kapot gaan.

Harddisks vallen veel vaker uit, in het eerste jaar is de kans al ongeveer 2%. Oudere schijven van 2 of 3 jaar hebben al een 8% a 9% kans om uit te vallen.1 Een op de twaalf schijven van twee jaar oud begeeft het dus!

Uiteraard moet je belangrijke data redundant opslaan. Voor thuisgebruikers is een een simpele RAID1 array al heel haalbaar, het kost je vaak 3 tientjes voor een iets beter moederbord en de prijs van een extra harddisk. Dan ben je erg veilig voor falende schijven. De kans dat allebei je schijven het tegelijk begeven is verwaarloosbaar.

1Bron: http://research.google.com/archive/disk_failures.pdf
Een iets beter moederbord? Tja bij pc-reuzen als Dell en HP heb je weinig te upgraden wat moederbord betreft, en ik vermoed dat consumenten meestal een pc van dat soort bedrijven kopen. Ik ben bang dat de gemiddelde consument niet echt open staat voor een raid-1 array, laat staan dat-ie het begrijpt!
Neemt niet weg dat zo'n raid-1 array een goede oplossing is :)
mwa, voor een raid1 werkt software raid al voldoende.
De standaard hiervoor zal vergelijkbaar zijn met die van hard disks. Meestal is dat een levensduur van zo'n 1,5 a 2 miljoen uur. Zo lang houd jou computer het gewoon niet vol. Er is dan wel een ander iets wat het begeeft, en consumenten kunnen dat ook wel zien.
En grote getalletjes staan altijd leuk op de doos ;)
Mooi initiatief, ik voorzie alleen één probleem: het gemiddelde van 87 GB data per week blijft natuurlijk niet constant met de jaren (en bovendien verschilt het per gebruiker, ik twijfel er sterk aan dat ik 87 GB per week haal).

Als er een techniek bij gebruikt wordt om te meten hoeveel gebruik er gemiddeld wordt gemaakt van een individuele harddisk, dan zou dit een stuk nauwkeuriger zijn.

Dat neemt natuurlijk niet weg dat het een handig hulpmiddel is om drives onderling te vergelijken, alleen de precieze levensduur lijkt me moeilijk te schatten.

[Reactie gewijzigd door Mattiwatti op 27 juli 2008 16:12]

mwa, is op zich niet zo gek, ik denk dat zij hier ook het OS hebben meegnomen.
En programma's schrijven(afaik) een bestand in zijn geheel weg, dus ook als je maar een klein deel wijzigt dan moet je nog het gehele bestand wegschrijven.
En vergeet de temp niet ;)
De levensduur lijkt me in dit geval ook wel gerelateerd aan hoe vol de schijf is.
Je hebt files die vrijwel nooit wijzigen (windows-installatie en je software), maar ook files die vaak wijzigen. Als je drive bijna vol staat, zit je qua wissen en opnieuw schrijven steeds dezelfde "sectoren" te beschrijven, terwijl bij een vrijwel lege schijf er keus zat is voor minder vaak beschreven sectoren.
Of de drives moeten actief ook niet vaak beschreven sectoren gaan omwisselen, oftewel data verplaatsen, maar dat lijkt me niet zo waarschijnlijk. Zeker niet in notebooks waar de accucapaciteit belangrijk is en waar ssd's momenteel het meest in trek lijken.
En programma's schrijven(afaik) een bestand in zijn geheel weg, dus ook als je maar een klein deel wijzigt dan moet je nog het gehele bestand wegschrijven.
Dat is natuurlijk te ondervangen (door de te schrijven data eerst per sector te vergelijken met de data die er stond, dat kan in de controller) en de meeste software schrijft gewoon in een temp-file steeds kleine stukjes.

[Reactie gewijzigd door TD-er op 27 juli 2008 16:53]

Documenten worden gewoon in hun geheel opgeslagen, dus het hele bestand wordt opnieuw weggeschreven. Configuratiefiles idem dito. Zelfs bij video-editing wordt het videobestand elke keer opnieuw gebouwd, zodra je em gaat opslaan*.

Het zijn eigenlijk voornamelijk databases** en pagefiles die in kleine stukjes beschreven worden.

* Daarmee bedoel ik de target files, maar de projectbestanden eigenlijk ook.
** Niet alleen die van SQL servers. Er s meer software die met databases werkt.
ik noem maar 1 file die veel data wegschrijft, de windows temp file, het is meer dan je denkt.
Of de drives moeten actief ook niet vaak beschreven sectoren gaan omwisselen, oftewel data verplaatsen, maar dat lijkt me niet zo waarschijnlijk.
Dat is nu precies wat er wel gebeurt, anders zou het verval van het overige geheugen veel sneller gaan. Dacht dat ik dat ergens gelezen had; of het gebeurt of men wil dat gaan doen. Lijkt me logisch, stel je een 20tal GB's die nooit gebruikt worden, aangezien daar data opstaat die je wil bewaren maar amper gebruikt. Die cellen zijn in optimale conditie maar je benut ze niet; dat is natuurlijk niet handig!
Aan de andere kant, het is een uiterst goede manier om ervoor te zorgen dat de data ook veilig opgeslagen blijft daar, de cellen blijven namelijk in optimale conditie.
vervolgens is de overige ruimte binnen notime brak , lijkt me niet echt wenselijk .
Weet je zeker dat men niet-actieve data gaat verplaatsen? Dat zou namelijk nogal bijzonder zijn... Zo eigenlijk ook nog op idle time moeten gebeuren, anders gaat dat zwaar ten koste van de prestaties...

Krijg je dus de situatie dat je i.p.v. een defrag en reshuffling van je data moet doen. Ik heb daar in ieder geval nog nooit van gehoord.
Wat dacht je van accesstimes die gewijzigd moeten worden?
Hoewel dat ook in bestandstabellenmeuk of hoe FS'en dat ook maar doen kan, moet dat ook gewijzigd worden als je OS (er is ook nog Linux, OS X, FreeBSD etc) bijv. die file gebruikt.
inderdaad 87gb per week zou wel steeds meer worden in de loop der jaren
ik zit nu rond de 300gb per week
maarjah camerabeelden opslaan vraagt wat
Er staat ook dat die 87 Gb is gebaseerd op een professionele pc-gebruiker. Ik denk hierbij aan bijvoorbeeld iemand die enorme bestanden in Photoshop laadt, videobewerking, rendering, enz. Zelfs iemand die veel spellen speelt op zijn pc, die zal aardig wat gb's wegschrijven aan swapfiles, installaties, vaak nieuwe videokaartdrivers. Een fotograaf zal ook met enige regelmaat sd-kaartjes met 4 Gb aan .raw-files wegschrijven naar zijn harde schijf. Ik denk dat er zo aardig wat mensen zijn die 87 Gb in de week wegschrijven/overschrijven. Dan laat ik de groep heavy downloaders nog even buiten beschouwing, die halen de 87 Gb met gemak.

Die analoge 'drukmeter' als indicatie is wel een heel goed initiatief. Een makkelijk af te lezen displaytje waar een metertje in het 'rood' staat is duidelijker dan iets van 1389412368904 seconds or 234834843 i/o actions remaining.
Fotografen spuwen er wel meer data uit denk ik. 87 GB is waarschijnlijk gewoon iemand die veel met office werkt enzo.

Die start 's ochtends z'n pc op, moet data (logs, ip's, settings, netwerk updates) weggeschreven worden. Meldt zich aan, profiel moet gecached worden. Start z'n apps op, moet data weggeschreven worden, begint te werken, documenten moeten van het netwerk tijdelijk opgeslagen worden, wijzigingen bijhouden, herstelinformatie voor als het programma crasht. Dan moet er aan het eind van de dag afgemeld en afgesloten worden, misschien komen er tussendoor nog dingetjes van systeembeheer bij, denk dat je dan van 5 dagen zomdaar op die 87 gig zit. En daarbij, gemiddeld, dat zullen dus fotografen zijn maar ook eenvoudige office users.
de temp file van je windows os schrijft veel, heel veel weg en 87 gb is dan niet onrealistisch.
Alleen als je veel te veel bezuinigt hebt op geheugen.

1GB is te wenig, 2 is het minimum.

ik heb zelf 6GB, en mijn pc swapt echt niet.
Als je je page file aan hebt staan swapt Windows nog steeds. Ik weet niet precies wat de logical daar achter is, maar feit is dat het wel gebeurd. Dus je pagefile uitschakelen is de enige manier waarop je niet swapt.
Ik heb 1GiB geheugen, en Fedora heeft nog nooit meer dan 256MiB gebruikt.
Waar je het vandaan haalt dat 1GiB te weinig is weet ik niet.
Prachtig, zo'n manometer. Hoop dat er af en toe wat stoom uit komt ook. Alleen waar zet je zo'n ding neer ? Zou het een USB aansluiting krijgen ? Of met accuurtjes, zodat je hem mee kan nemen naar een lanparty en 'm ergens in kan stoppen ? Vragen, vragen...
Dit is toch sarcasme hoop ik?

Mijns inziens is dit gewoon de skin dat het programma zal krijgen. Wie weet komen er wel verschillende andere skins voor mensen die zich daarmee wensen bezig te houden zoals de honderden skins voor de telemeter van telenet die je ook op je desktop kan zetten. Van weinig belang uiteraard aangezien enkel naar het cijfer gekeken zal worden.
Wie kijkt er bij het kopen van een harde schijf nou echt naar de te verwachten levensduur? Hooguit kijk ik naar het aantal ge-RMAde exemplaren, of negatieve publiciteit zoals met die beruchte serie schijven van IBM. Zelfs bij een zogenaamde betrouwbare harde schijf hou ik rekening met de kans dat ie al na de eerste dag kaduuk is.
Volledig mee eens!
Alsof je 10tallen jaren dezelfde hardware blijft gebruiken?
Ik ben erg benieuwd naar wat Seagate allemaal gaat doen. Zo'n bedrijf moet dit al jaren hebben zien aankomen en een bijpassende strategie hebben ontwikkeld. Serverschijven zijn de eerste die gaan sneuvelen door SSD's, dus ze moeten wel.

En wat mannetjes in het bestuur van een Jedec commissie is dan vast wel handig...
Lijkt me dat de ssd's zowieso veel betrouwbaarder zijn dan hdd's vanwege geen ronddraaiende onderdelen. In het eerste jaar dat ik mijn nieuwe desktop had is de harde schijf van een niet nader genoemd merk 2x stuk gegaan, een keer na 3 maanden en de volgende nog eens 3 maanden nadat deze erin zat. Tijdens mijn eindwerk crashte de derde dan ook nog een, gelukkig stond alles nog veilig op usb-stick, maar je zit dan nog wel met al die zever van je OS opnieuw installeren en et feit dat je je instellingen en favorieten en dergelijke kwijt bent (had die ook wel opgeslagen maar waren lang niet meer up-to-date). Mijn ssd's lijken altijd zoveel lawaai te maken, geratel en dergelijke...zelfs nu ik naar een ander merk ben overgestapt.

Bovendien hebben ssd's ook nog een oneindig snelheidsvoordeel, als mijn gedachtengang juist is. Als ze de capaciteit verdubbelen blijft de schijf toch nog even groot, dus dat betekend de halve grootte per opslag, kunnen ze dan niet binnen 1 apparaat 2 chips steken in een raid zodat deze automatisch een pak sneller werkt?

Het is gewoon kwestie van tijd dat men vertrouwen krijgt on de nieuwe techniek, maar dat is altijd het geval zeker?
Weet iemand hoe het zit met de levensduurs van de SSDs die Asus gebruikt in de EeePCs? En een normale SD kaart, hoe vaak kan je die eigenlijk overschrijven?
Ik vind zo een manometer heel mooi, maar houdbaarheid is een statistisch gegeven waar een manometer absoluut is. Wanneer de schijf het begeeft voor de manometer in het rood staat, heb je een behoorlijk slecht figuur geslagen als producent. De datum was tenslotte toch niet verstreken?

Mensen gaan het niet snappen, een betere indicator zou een km teller zijn; 50.000 of 150.000 op de teller is een verschil bij aankoop van een occasion, en geeft een redelijk beeld van hoeveel problemen er te verwachten zijn.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True