Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 152 reacties

De uitvalpercentages van solid state disks zijn momenteel nog moeilijk te bepalen. Een bijkomend probleem is dat ssd's vaker plotseling uitvallen dan traditionele harddisks. Dat blijkt uit een verkennend onderzoek van Tom's Hardware.

Omdat ssd's nog relatief kort op de markt zijn, ontbreken grootschalige onderzoeken zoals die wel naar de betrouwbaarheid van harde schijven zijn gedaan, zoals de in 2007 gepubliceerde bevindingen van Google. Daarom maakte Tom's Hardware een rondgang bij een aantal middelgrote tot grote datacenters die ssd's gebruiken, om te peilen hoe de betrouwbaarheid van solid state disks in de praktijk uitpakt.

Steadfast Networks, dat 150 ssd's in zijn serverpark heeft, claimt dat de uitval lager ligt dan bij harde schijven, maar zegt ook dat het bij uitgevallen ssd's lastiger is om de opgeslagen data nog veilig te stellen. Het bedrijf stelt echter dat ssd's, ondanks hun relatief hoge prijs per gigabyte, kostenbesparingen kunnen opleveren omdat ssd's door de zeer lage toegangstijden beter presteren dan bijvoorbeeld vier of meer 15.000rpm-harddisks in een raid-opstelling.

De firma Softlayer heeft ruim vijfduizend ssd's in bedrijf. Vrijwel alle ssd's zijn X25-E slc-ssd's van Intel, een fabrikant die ook bij kleinere datacenters populair is vanwege de vermeende betrouwbaarheid. Het gemiddelde uitvalspercentage over een periode van twee jaar zou volgens Softlayer tussen de 1,3 en 2,2 procent liggen, al zegt het bedrijf ook dat het onvoldoende gegevens heeft om harde conclusies te rechtvaardigen. Softlayer noemt echter een opvallend nadeel van ssd's: flashdrives vallen meestal plotseling uit, zonder dat het Smart-systeem in de schijven bijtijds alarm slaat. Bij harde schijven is uitval beter voorspelbaar, zegt dit bedrijf.

Toms Hardware concludeert dat claims over de betrouwbaarheid van ssds voorlopig maar met een korreltje zout moeten worden genomen, ook al omdat elke fabrikant er andere rekenmethodes op na houdt. Ook roept de site ssd-makers op om meer informatie openbaar te maken en zo meer inzicht te geven in de betrouwbaarheidscijfers.

Moderatie-faq Wijzig weergave

Reacties (152)

Zelf heb ik mijn SSD's weggedaan...

Het is wel allemaal mooi en wel op papier, maar de technologie erachter zie ik als beta. Bij de SSD's die nog betaalbaar zijn gebruikt men MLC nand, en dat vind ik persoonlijk van heel erg slechte kwaliteit. SSD's mogen met hun al beperkte opslagruimte niet (bijna) vol zitten, of anders presteren ze minder. Tevens vindt ik het raar dat zo een dure technologie toch niet zo lang meegaat, iedere keer je er data op beschrijft, gaat de levensduur verkorten. Bovendien halen ze de snelheid echt niet, en kun je voor de prijs van 1 GOEDE SSD ongeveer 4-6 schijven kopen van bv. Hitachi (117mb /s read en write), en kun je dezen in raid 10 zetten en ga je ongeveer dezelfde prestaties behalen bij de meeste applicaties (alledaagse, opstarttijd, reageertijd programma's, ...)
Het is wel allemaal mooi en wel op papier, maar de technologie erachter zie ik als beta.
Want? Met de technologie is niks mis het was 3 jaar geleden beta met de Jmicron 6xx controllers. Het gros van de techniek is hetzelfde als bij een HDD.
Bij de SSD's die nog betaalbaar zijn gebruikt men MLC nand, en dat vind ik persoonlijk van heel erg slechte kwaliteit.
Zoals ook hier er is niks mis met MLC geheugen ik weet niet wat jij van plan bent met een SSD danwel een HDD maar ik kan je nu al vertellen dat 99% van de T.net gebruikers niet eens de 5000 writes gaan halen van MLC geheugen. Nog niet eens in de buurt zelfs. Bij 64 GB SSD's praten we over 320TB aan data verplaatsing.
SSD's mogen met hun al beperkte opslagruimte niet (bijna) vol zitten, of anders presteren ze minder.
Bij HDD's is het zelfs nog erger. Tegen de tijd dat die dingen 50% vol zijn heb je fragmetatie waar je niet goed van wordt. Tegen de tijd dat je HDD 90% vol is kan je amper meer defraggen.
Tevens vindt ik het raar dat zo een dure technologie toch niet zo lang meegaat, iedere keer je er data op beschrijft, gaat de levensduur verkorten.
Hey iedere keer dat je een pc aanzet verkort je de levensduur van je HELE PC HDD's/SSD's, Processor, Mobo, geheugen alles. Daarnaast is dit zowieso een vreemd argument aangezien huidige PC's zelfs niet lang meegaan. Ik heb nog 2 8088's staan die het anno 2011 nog doen. Ik heb ondertussen wel een paar Pentiums en Athlons de prullenbak in gegooid alsmede een paar mobo's.
Bovendien halen ze de snelheid echt niet, en kun je voor de prijs van 1 GOEDE SSD ongeveer 4-6 schijven kopen van bv. Hitachi (117mb /s read en write), en kun je dezen in raid 10 zetten en ga je ongeveer dezelfde prestaties behalen bij de meeste applicaties (alledaagse, opstarttijd, reageertijd programma's, ...)
Ik haal met mijn 120/160 Postvilles anders hogere snelheden dan Intel aangaf Dat die Sandforce gevallen alleen benchen met supergoed comprimeerbare data om mee te testen is hun pakkie aan. Dat ze vervolgens de papier snelheden niet halen zegt niets over een SSD want zelfs die Vertex 2's van jouw blazen die 6 RAID10 Hitachi schijven weg in alledaagse situaties.

vervolgens ga je later nog eens appels met peren vergelijken om maar je gelijk proberen te halen door te zeggen van ja een dvd speler trekt ook 45 watt. Newsflash ik heb een externe en die gebruikt 2 usb poorten. Interne die harder kunnen draaien zullen niet boven de 10 watt komen.
Als laatste jij gaat met 6 schijven in Raid 10 zitten om SSD achtige snelheid te halen en ook net zo degelijke garantie dat ze niet uitvallen. Je heb volgens jou minimaal 3 schijven nodig om tenslotte in de buurt te komen van een SSD snelheid en je moet het mirroren om de uitval van 1 van de 3 schijven te kunnen opvangen.

Ik ga hier echt niet verkondigen dat SSDs te de oplossing is voor alle problemen want ja goeie controllers zijn er maar niet in brede schaal. Marvell en Intel tot nu toe als je voor betrouwbaarheid wilt gaan, maar Zo duister als alle tegenstanders erover praten is het het in de verste verte niet. Wat Darkstone trouwens al bewezen heeft met de beperkte info die hij kreeg, want bij onderzoeken zoals die van Darkstone krijg je altijd meer negatieve info dan positieve info.
Bij HDD's is het zelfs nog erger. Tegen de tijd dat die dingen 50% vol zijn heb je fragmetatie waar je niet goed van wordt. Tegen de tijd dat je HDD 90% vol is kan je amper meer defraggen.
Kleine opmerking: dit hangt erg af van het gebruikte filesystem. Zo hebben EXTx HDDs doorgaans veel minder last van fragmentatie en zijn deze schijven dus ook bij grote belasting nog steeds goed bruikbaar.
Ext2 bedoel je. Ext3 doet het niet zo goed. Een behoorlijk deel van de fragmentatie-winst komt doordat de Ext2 driverstack onder lInux een write ophoudt, zodat je niet begint met 4kB te schrijven om daarna te ontdekken dat de hele file stiekem 8 MB is. Als je kunt wachten tot de file close, dan weet je precies hoe groot de file is en waar die het beste past. Maar met Ext3 heb je journalling, en dan kun je niet zomaar writes uitstellen.

NTFS onder Windows heeft ook journalling, en dus vergelijkbare issues als Ext3.

Allemaal zijn ze overigens sucky voor SSD's. Die hele controller, en moeilijke commando's als TRIM zou je niet nodig hebben als je block mapping op OS nivo zou afhandelen.
Ik had het namelijk over MIJN persoonlijke situatie...

En dat van fragmentatie, dat is alleen in Windows, in Ubuntu heb je daar echt geen last van hoor. Draai eens de nieuwste Ubuntu op een raid 0 van 2 HDD's en dan op 2SDD's in Raid 0, de SSD's zullen wel sneller zijn natuurlijk, maar je kan niet zeggen dat de HDD's traag zijn, ook niet bij zware bewerkingen (die te maken hebben met veel data e.d.).
Om die reden zijn voor MIJ SSD's soms overbodig in sommige computer, wel kan het wonderen doen als je een goede SSD hebt van bv Intel of de Crucial M4, en deze in een lappie steekt.
Fragmentatie kom vooral dankzei het windows file and caching gebeuren. Ie cache, temp etc.etc. Daarom is het ook onverstandig om 1 grote partitie te hebben op je harddisk als daar ook je OS opstaat. Twee partities is dan om meerdere redenen sterk aanbevolen.
De OS Partitie van bijv 128GB en de rest voor je games en media files etc.
Die "media" partitie zal amper defragmenteren en je hoeft daar dan ook zelden een defrag op toe te passen. Zie ik ook aan 6-disk raid setup; Windows defrag roept al twee jaar; defragmenteren; niet nodig.
Jij bent werkelijk waar de allereerste persoon waarbij ik hoor dat hij zijn SSD's weg doet en dan ook nog eens zonder kloppende argumenten.
Misschien heb je SSD's uit de allereerste generatie gehad....de tekortkomingen die je opnoemt komen namelijk alleen overeen met dat soort oude SSD's.

Ik heb een setje Intel 510 SSD's in RAID0 en een enkele SSD van dit type is nog steeds sneller dan jouw 6 hitachi schijven in RAID10. Zelfs met 6 Hitachi's in RAID0 zou de gevoelsmatige snelheid van een enkele SSD nog niet eens worden benadert.
Enkel de sequentiele transfer rate zal van 4 of 6 reguliere HDD's in RAID0 hoger liggen, maar dat is juist een snelheid waar je als gebruiker het minste van merkt (grote files kopiëren doe je namelijk niet de gehele tijd dat je achter een PC zit te werken....).

Het grootste verschil zit hem in de kleine lees/schrijf handelingen waarbij een SSD een toegangstijd zal hebben van rond de 0,1 - 0,2 ms waar jouw traditionele HDD 7-9 ms zal doen over iedere handeling (en dan praat je eigenlijk al over een Raptor, niet over een doorsnee HDD).
Dit zie je dan ook terug in de 4K / 16K transfer snelheden welke bij een SSD wel een factor 200 hoger liggen. En dat zijn juist de snelheden die ervoor zorgen dat je OS en programma's snel starten en lekker responsief blijven.
Zelfs bij SSD's zonder overhead en Trim functie is na maximale degradatie de performance dik in orde en komt de gewone HDD RAID0 set niet eens in de buurt.

Zelfs met 6 traditionele HDD's in RAID0 zal je dat nooit bereiken. Daar komt dan nog bij dat je met 6 HDD's een bak herrie in je PC hebt hangen waar je bang van wordt, alsmede een verbuik van rond de 35-45 Watt tov van 2 Watt en 0db geluid van de SSD.

[Reactie gewijzigd door Da_maniaC op 19 september 2011 18:13]

Ten eerste, neen het waren SSD's uit de laatste batch van de Vertex 2, dan wel van 4 maanden geleden ofzo.

Ten 2de, als je goed kijkt, dan heb ik het over de real world prestaties. Ofwel heb je heel speciale ogen, maar ik merk bijna geen verschil met gewoon 2 van die 1Tb schijven in raid 0 vs 2 Vertex 2 SSD's in raid 0. Dan heb ik het over het opstarten van allledaagse applicaties, en niet over benchmarks e.d.

Puur theoretish en in de praktijk zijn SSD's nog altijd sneller, maar het omgekeerde heb ik ook niet gezegt. Ik werk dagdagelijks met Adobe Creative Suite CS5 voor schoolwerk, en ik merk echt heel erg weinig verschil met Windows 8 Preview... Het zou naar schatting misschien 2 seconden langer duren om een PSD bestand dat bestaat uit een aantal RAW formaat foto's op te slaan, en dat is nu eenmaal mijn punt. JA SSD's zijn sneller, maar zijn ze het geld waard als je geen montage doet voor je brood te verdienen ? Voor dezelde prijs heb ik dan veel meer opslag, maar echt veel meer en BIJNA dezelfde prestaties.

En ik heb het over mijn geval, ik ben een student van 17 en voor mij is het geldverspilling, gewoonweg omdat ik meer nood heb aan opslagruimte. Voor die 2 seconden sneller een afbeelding exporteren vindt ik het echt niet die 100¤ meer waard, dat kan ik dan steken in sneller ram e.d, wat voor InDesign en Photoshop veel belangrijker is.

En nog iets, zo een herrie maken ze niet hoor, alleen als ik heel heel intensief bezig ben, en met het geld dat je overhebt van een SSD, kun je zorgen voor isolatiesystemen of iets dergelijk. Trouwens in een moderne gamingcase heb je daar bijna geen last van. Over het stroomverbruik heb je wel gelijk, maar zoveel gaat dat toch niet schelen in ¤, want een DVD speler gebruikt al zoveel volgens mij.

[Reactie gewijzigd door Soulaiman op 19 september 2011 18:45]

Het is ook een EN-EN verhaal.

- SSD voor snelheid OS + veel gebruikte apps
- gewone hardeschijf voor opslag, grote bestanden

En dat het bij jou niet veel sneller is kan ook liggen aan je CPU, sommige apps leunen daar zwaar op, dan maakt een SSD inderdaad weinig uit.
Ik vermoed dat het eerder de brakke sandforce SSDs in raid op een marvell-raidcontroller is ;)
Ik heb een i7 960 die met hypertreathing draaide op 4GHZ in combinatie met Corsair Dominator GT's 1866mhz ram. Daar ligt het niet aan, of eerder lag...
Op mijn "simpele" E8400je was de overstap naar SSD (Vertex 2) anders enorm merkbaar t.o.v. de eerdere raid-0 setup, een Raptor 15k en daarna de SSD.

De opstarttijd van Windows, browser, nieuw browsertabje, al die stomme kleine dingetjes die eigenlijk niet echt boeiend zijn, maar je wel 'merkt' dat het met een SSD er staat wanneer je klikt, en ik met eerdere schijven toch altijd een zeer minimale vertraging had, hoe klein soms ook.

Maargoed nogal subjectieve materie ;)
Tom's Hardware heeft een rondgang gedaan bij bedrijven die ssd's gebruiken in datacenters. Dat is natuurlijk niet te vergelijken met het gebruik in pc's. Een server genereert waarschijnlijk veel meer schrijfacties dan een pc. Uitzondering zijn mensen die hun pc bijvoorbeeld veel gebruiken voor Photoshop en enorme hoeveelheden data naar de scratchfile schrijven (als je een beetje op dreef bent kunnen dat honderden gigabytes per dag zijn vanwege de ranzig inefficiëntie van Photoshop).

Een goede ssd heb je al voor minder dan 100 euro. De prestaties van een ssd zijn niet te evenaren met harde schijven tenzij het je te doen is om doorvoersnelheden. Een vergelijkbare hoeveelheid IOps kun je nog wel halen als je tientallen disks inzet, echter niet met de lage latencies van een ssd. Daarop wint een ssd altijd. Voor normaal desktopgebruik zijn de responstijden van een snelle ssd daardoor niet te evenaren door harde schijven in raid.
In het geval van de gemiddelde particulier: 4~6 HD's kost meer stroom, meer warmte in de kamer, meer herrie en zijn er wel genoeg sata aansluitingen op het moederbord?

(voor bedrijven allemaal wat minder interessant ongetwijfeld)
(voor bedrijven allemaal wat minder interessant ongetwijfeld)
Voor bedrijven is het minstens zo interessant als je het hebt over bijvoorbeeld het gebruik in een server. Als performance de beperkende factor is zijn solid state drives goedkoper dan harde schijven. Je hebt tientallen harde schijven nodig om de prestaties van een enkele snelle ssd te evenaren. Die harde schijven hebben extra of grotere behuizingen nodig, zwaardere voedingen, duurdere raidcontrollers, meer rackspace, meer koeling en ze verbruiken meer energie.
Wat voor een server is dat dan ? om 1TB opslag te hebben gaan de bedrijven dan ongeveer 1200¤ uitgeven voor een SSD met die capaciteit, dus je argument klopt niet helmaal he. Ik snap wel je punt, maar een serverbedrijf gaat volgens mij toch wel dienen als oplsagprovider of hostingbedrijf, dan zijn SSD met hun beperkte opslag per ¤ toch niet de oplossing. De besparingen die je dan doet gaan dan weer vele malen terug verloren door de hoge aankoopkosten, en daarbij blijven SSD's niet zo goed presteren na verloop van tijd. Trouwens, voor een SSD heb je ook 1 SATA voeding kabel nodig, en dat geld ook voor de traditionele HDD... Ik denk niet dat professionele hostingbedrijven gaan werken met een goedkope voeding van 300watt ofz...
Slashdotter gaf een voorbeeld waarin harde schijven in raid worden gebruikt om de prestaties van ssd's te evenaren. Als je het om prestaties te doen is, bijvoorbeeld voor een database-server, zijn ssd's simpelweg goedkoper dan harde schijven. Om een beetje redelijke prestaties te halen met harde schijven heb je zo 10 tot 16 disks met een toerental van 10.000 of 15.000 rpm. Vaak worden die ondergebracht in een externe behuizing die alleen al 1000 euro kost en 3U rackspace in beslag neemt naast de server die minimaal 1U gebruikt. Doe je het met ssd's dan kun je uit met alleen die 1U-behuizing.

Het verbruik van een 15.000 toeren schijf onder belasting is zo'n 18 watt, dat van een ssd hooguit 2 watt. Het meerverbruik verdubbelt zich als je de energieverbruik van traditionele airconditioning meetelt om het zaakje te koelen.

Om zestien harde schijven aan te sturen heb je een dure raidcontroller nodig of een externe behuizing met een sas expander. Ssd's kunnen op de onboard sas- of sata-controller omdat je minder poorten nodig hebt.
Je redenering klopt niet helemaal he, Ok ik ben het eens met je over zo een databaseserver voor de prestaties, maar SSD of niet als je nu laat ons zeggen ruw geschat een server nodig hebt met 8Tb aan ruimte, dan ben je toch zowiezo goedkoper uit door het plaatsen van heel veel HDD's in raid ?
Femme heeft het vermoedelijk over database servers, waar access time zeer belangrijk is en waar een SSD dus uitermate geschikt voor is
de meeste databases zijn zeker geen 8TB groot
daarnaast zijn 10000 of 15000 rpm schijven vaak een stuk kleiner qua capaciteit dan de gemiddelde consumentenschijven, dergelijke schijven kosten ook al een pak
een SSD is op zo'n moment een logische keuze

je kan dan altijd nog kiezen voor SLC schijven, een stuk duurder, maar ongeëvenaard
Het kernwoord is performance. HDDs kunnen gewoon niet de random access performance leveren van een SSD. Will je toch die performance halen met HDDs ben je gewoon vaak duurder uit.

Wil je veel opslag en is performance niet echt relevant is een HDD natuurlijk efficienter. Maar voor een 8TB server met de performance van SSD zul je SSDs moeten inzetten. Of erg duur spul van specialistische storage leveranciers.

Er is natuurlijk wel een punt waar je zoveel opslag nodig hebt dat je sowieso aan een flinke raid array moet om je capaciteit te halen en die array ook met HDDs snel genoeg is voor alle toepassingen. Echter dat punt ligt erg ver weg. In de meeste gevallen is het goedkoper om SSDs in de array op te nemen. Hetzij als enige medium, als cache of specifiek voor bepaalde toepassingen. En zoveel bedrijven zijn er ook weer niet met terrabytes aan data die echt snel beschikbaar moet zijn.
Herrie is inderdaad niet zo'n probleem, maar warmte en stroom zijn voor servers zeker van belang.
Ik weet niet wat voor een PC jij hebt, maar alle moederborden van tegenwoordig, die ATX zijn, welke socket dan ook en van boven de 65¤ hebben normaal gezien minstens 6 sata poorten en ondersteunen raid. En geluid, dat wordt meestal gecompenseert door de andere onderdelen van in je PC die luider zijn. Deze hardeschijven zijn niet storend, ik heb er een aantal van dezen...
Zelf heb ik mijn SSD's weggedaan...

Het is wel allemaal mooi en wel op papier, maar de technologie erachter zie ik als beta. Bij de SSD's die nog betaalbaar zijn gebruikt men MLC nand, en dat vind ik persoonlijk van heel erg slechte kwaliteit. SSD's mogen met hun al beperkte opslagruimte niet (bijna) vol zitten, of anders presteren ze minder. Tevens vindt ik het raar dat zo een dure technologie toch niet zo lang meegaat, iedere keer je er data op beschrijft, gaat de levensduur verkorten. Bovendien halen ze de snelheid echt niet, en kun je voor de prijs van 1 GOEDE SSD ongeveer 4-6 schijven kopen van bv. Hitachi (117mb /s read en write), en kun je dezen in raid 10 zetten en ga je ongeveer dezelfde prestaties behalen bij de meeste applicaties (alledaagse, opstarttijd, reageertijd programma's, ...)
Dat is vast wel sneller als je een heel groot file leest maar voor veel kleine files (zoals in je OS) zal de SSD toch altijd sneler zijn. Ik wil wedden dat je met een goedkoop SSD'je sneller boot dan met je ingewikkelde 6 drive systeem. Iets wat Steadfast Networks blijbaar ook al zag en zij gebruikte 15.000 rpm drives.

Er is overigens nergens gezegd dat 'niet zo lang' meegaat. En de levensduur van ELKE drive neemt af als je hem gebruikt, Tegenwoordig is dat geen issue meer bij SSD's. Die zijn betrouwbaarder dan gewone drives al weten we nog niet hoeveel en gaan eenj zeer redelijke tijd mee.

[Reactie gewijzigd door TheFalconer op 19 september 2011 18:21]

Opstarten is geen probleem, gewoon pc in slaapstand zetten he.

Maar ik heb het zelf meegemaakt met OCZ, en aangezien Corsair, Kingston (denk ik) en alle andere budgetmerken Sandforce controllers gebruiken, zijn deze type SSd's echt niet betrouwbaar.
Echt niet. SSD's zijn veel sneller dan gewone schijven, vooral sneller dan harde schijven in RAID.
Voordat al die zes schijven hun koppen geplaatst hebben is de SSD al klaar.

[Reactie gewijzigd door Soldaatje op 19 september 2011 18:08]

Bij sequentieele dataverkeer kan een snelle raid setup nog altijd beter presteren dan een SSD, zeker een SSD van de vorige generatie. Mijn 6-disk raid setup kopieert sneller dan mijn Postville van Intel.
Tsja de meeste kasten van consumenten daar gaan standard niet meer dan 2 tot 3 schijven in en ssds behalen ook juist de grootste winst op access times en kleine reads en writes niet sequentieel uitlezen van grote blokken data zoals je met raid ook makkelijk bereikt
@ Soulaman:

Dus alle reviews op tweakers en bekende hardware sites omtrent de snelheid van Solid State Drives zijn fabeltjes volgens jou?

Ik denk eerder dat je een defecte SSD hebt gebruikt of je partitie niet aligned hebt ingesteld en vergeten bent de SSD in AHCI mode te zetten.
Zelf dacht ik altijd dat SSDs minder kapot gaan omdat er geen draaiende onderdelen inzitten.
Ook hier op Tweakblogs heeft iemand al eens een onderzoek gedaan naar de betrouwbaarheid van SSD's

.: SSD betrouwbaarheidsonderzoek - De resultaten.
Afgaande op de bovenstaande resultaten kan ik wel hetvolgende adviseren: een SSD met een SF-1200 of SF-2200 controller kan je, vanuit betrouwbaarheidsoverwegingen beter niet nemen. De indilinx bareboot, voor zover deze antieke controller nog in de schappen ligt, is ook een duidelijke no-no.
De drives die je zonder nachtmerries kan kopen zijn diegenen met de intel en Marvel controller. Dit zijn de intel X25-m, intel 320, intel 510, Crucial C300, Crucial M4. Plus bepaalde drives waar in dit onderzoek niet voldoende data is verzameld, zoals de kingston V+100, en samsung 470. Ik raad echter wel aan de stand van zaken in het bovenstaande aanschafadviestopic te polsen alvorens tot aanschaf over te gaan. Deze blog is niet meer dan een beperkte momentopname.
En als je dan elders leest wordt er weer geadviseerd om vooral geen Intel 510, Crucial M4, etc. te nemen omdat deze uiterst onbetrouwbaar zijn. Die mensen raden dan juist weer zo'n Sandforce controller aan.

Pas wel op bij dit onderzoek. Dit is niet meer dan een enquête onder wat mensen geweest. Uit de resultaten zijn wat grafiekjes gemaakt. Het invullen van enquêtes valt en staat met de vraagstelling. Helaas wordt er geen link naar de eigenlijk enquête gegeven dus valt er door de lezer niet te bepalen of het hier een goede of slechte vraagstelling betreft. Vaak moet men een bepaald waardeoordeel geven aan een onderdeel. Enquêtes zijn dan ook nooit objectieve onderzoeken maar altijd subjectief. Iedereen heeft weer een ander waardeoordeel waardoor er dus verschillen in de antwoorden zijn. Bij een wetenschappelijk onderzoek probeer je juist alle factoren in de hand te houden en voor een gelijke test te zorgen. Bij een enquête is zoiets onmogelijk. Het enige wat de test laat zien is wat mensen vinden, niet wat daadwerkelijk zo is (het gaat om de ssd's in hun bezit en niet om het aantal verkochte ssd's door een fabrikant vs het aantal terecht teruggebrachte ssd's van deze fabrikant wegens defecten). De eerste grafiek die je ziet maakt dat al glashelder. We hebben het niet over 1 specifiek aantal GB's, we hebben het over een heel kleurenpalet aan GB's (het loopt van 8 t/m 300GB!). Frappant want de dingen die men in de conclusie noemt gaat over specifieke series. Er wordt hier dus geen rekening gehouden met een slecht model in een serie. Het uiterst slordige taalgebruik roept nou ook niet erg op tot veel vertrouwen.

Ter verduidelijking: men brengt bij deze enquête wel het OS in kaart maar doet daar verder niets mee. De verschillende operating systems gaan ook heel anders om met bestanden, hebben een ander filesystem, etc. Een heel belangrijk punt is bijv. de ondersteuning van TRIM. Windows 7 heeft dat maar niet bij alle storage drivers. OS X heeft alleen TRIM bij de Apple ssd's en naar verluidt ook de Sandforce ssd's. De meeste ssd's moeten in OS X gebruik maken van hun eigen garbage collection (GC). Technisch gezien zit er tussen TRIM en GC echt een wereld van verschil met name op gebied van de hoeveelheid writes die worden gedaan. Deze dingen hebben echter wel een zekere invloed op de levensduur van de geheugencellen en daarmee dus eigenlijk ook op de uitval van zo'n ssd. Het gebruik en toepassingsgebied van zo'n ssd bepaalt weer hoe vaak er van TRIM/GC gebruik gemaakt moet worden. Bij een enquête onder een breed publiek zoals hier het geval is wisselt het gebruik enorm.

Als ik dan 10 van die Indilinx Barefoot ssd's in heb gekocht en ze voor een database gebruik die nogal druk is dan vliegen de geheugencellen er doorheen. De kans op een defecte ssd is dan enorm. Dit is niet iets wat ongewoon is omdat men vaak dit soort mlc ssd's koopt vanwege de veel lagere aanschafprijs dan de slc ssd's zoals de Intel X25-E. Sommigen weten dit en houden daar rekening mee, die vervangen vroegtijdig de ssd's. Als je dan een enquête houdt endeze mensen vullen 'm heel eerlijk in dan kan het zijn dat er een vrij negatief beeld over die Indilinx schijven ontstaat terwijl er nergens bij staat dat de schijven willens en wetens voor de verkeerde toepassing worden gebruikt. Er is dus geen duiding hoe je de ingevulde enquête moet interpreteren waardoor je verkeerde conclusies kunt krijgen.

[Reactie gewijzigd door ppl op 20 september 2011 14:16]

Er staat nergens dat ze meer stuk gaan.
Het issue is vooral dat er relatief weinig gegevens zijn, omdat de SSD markt nog niet zo groot is als de HDD markt. Dus je hebt een relatief beperkte steekproef. 1 op 500 (ik noem maar wat) systemen heeft een SSD en SSD's zijn maar 2-3 jaar op de markt. Dat terwijl de traditionele draaiende schijf al tientallen jaren op de markt is. Daar zijn meer gegevens over bekend mbt uitval, knelpunten, temperatuurbestendigheid, levensduur enz.

"Beruchte" uitvallers bij de SSD's zijn o.a. de OCZ Vertex/Agility2 met de Sandforce controller (25-30%). Maar de generaties SSD's volgen elkaar ook snel op. Dus het is lastig te voorspellen, dat is de kern van het artikel.

Daarnaast heb je een "beperkte" levensduur van je geheugencellen (100K writes oid). Dat zou een punt van zorg zijn maar in de praktijk is dat nog steeds 10+ jaar.

[Reactie gewijzigd door iichel op 19 september 2011 17:53]

Ik heb een artikel gelezen van Tomshardware.com waarin men probeerde te ontdekken hoe betrouwbaar ssd's zijn. Het kwam er ongeveer op neer dat eigenlijk alleen de Intel ssd's relatief betrouwbaar waren en de andere niet echt.
Ik denk dat het grootste probleem de firmware is. Hoe vaak is er niet een nieuwsbericht dat weer vertelt over crashende ssd's na een firmware update.
Ja maar dat gaat dan over de betrouwbaarheid van de hardware.

Terwijl Intel tot nu toe met de firmware ook niet betrouwbaar is gebleken.

Het lijkt wel alsof Intel gratis credits krijgt voor betrouwbaarheid terwijl ze al een aantal firmware blunders hebben gehad.

En firmware kan alle SSD's treffen terwijl hardware maar bij een bepaalde percentage voorkomt dus firmware is eigenlijk belangrijker.
Inderdaad. Al bij verschillende fabrikanten werden firmware updates uitgebarcht om mogelijk gegevensverlises te voorkomen. Dat wil zoveel zeggen als: met de oude firmware loop je steeds kans dat je data verliest.
Overigens hoor ik hier steeds dat de uitval bij ssd's zo moeilijk te voorspellen is. Dat terrwijl een ssd _sowieso_ bijhoudt welke cellen hoe vaak beschreven zijn. Het is dus een eitje om de "versletenheidsgraad" van een ssd te zien. Die uit mijn laptop heeft bijv nog maar 60% levensduur. Hoe ik dat weet? gewoon met de OCZ Toolbox. En dààr gaat het imho mis: die ssd is prima betrouwbaar, maar het ontbreekt de gebruiker aan informatie en degeljke managementstools. Ik verwacht bijvoorbeeld dat ik dergelijke dingen ook in m'n monitoring systeem kwijt kan, al was het omdat een Windows event gelogd wordt oid...
Bovendien scheelt er ook soms wat aan de implementatie (dus kennis van degene die implemnteert). Prima geschikt voor databaseservers, toch? Dan zetten we een stuk of wat mlc ssd'tjes in voor die drukke transactieserver, waar nota bene elk uur (bijna) alles geflusht wordt en opnieuw begonnen (weggeschreven naar andere db)... write, write, write, write, write,write, read en dan klagen dat die disk als een razende stuk gaan én niet eens zoveel sneller zijn dan de vorige harddiskoplossing :p
SSD's zijn vooral erg goed voor OS bestanden en swapfiles door hun lage toegangstijd.

Voor data opslag zou ik alleen een enkele SSD kiezen vanwege extreme schokbestendigheid.

Verder kun je een SSD natuurlijk ook gewoon bijvoorbeeld in RAID mirror opstelling gebruiken, dan is je probleem ook opgelost en het is nog sneller ook.

Je moet altijd een backup van belangrijke data hebben, ook bij een SSD.

Ook ssd's kunnen kapot door ESD, oververhitting en een defecte voeding.

[Reactie gewijzigd door E_E_F op 20 september 2011 10:42]

Verder kun je een SSD natuurlijk ook gewoon bijvoorbeeld in RAID mirror opstelling gebruiken, dan is je probleem ook opgelost en het is nog sneller ook.
Dus de SSD met 600 Mbps breng je daardoor naar 300 Mbps (vanwege 50% verlies in de mirror RAID, 2:1)
En de SSD met 300 Mbps (= SATA-2) breng je dan naar 150 Mbps (= SATA-1)
Wat is dan het nut van snelheid verhoging?
SSD in RAID was lange tijd een probleem toch? Of is dat niet meer zo?
Dus bij 100% stopt ie gewoon?
Wie zegt dat hij dan gewoon door kan gaan?
Als je dat artikel en dit artikel goed leest dan is er 1 eindconclusie: er is te weinig aan gegevens om echt iets over betrouwbaarheid van ssd's te zeggen. Alles wat men nu roept is simpelweg giswerk, weliswaar goed onderbouwd giswerk maar desalniettemin nog altijd giswerk. Alles wat je over betrouwbaarheid van ssd's leest moet je dan ook met een korrel zout nemen, ook dit artikel en het vorige artikel van Tom's Hardware. Het is wel leuk nieuws om te zien hoe die inzichten in ssd's zoal lopen. Dat verandert voortdurend en je ziet ook heel erg dat iedereen zoekende is naar iets wat wel goede antwoorden oplevert. Bij Tweakers.net zie je dat ook als je de uitleg van de nieuwe benchmarking die ze gebruiken leest. Het is een interessante en ook noodzakelijke discussie. Als we die niet voeren, zullen we ook nooit erachter komen hoe het nou precies zit met die ssd's.

Om weer even terug te komen op die Intel dingen: als je leest wat voor blunders Intel heeft gemaakt en nog steeds maakt met firmware terwijl anderen dat niet doen en bijv. de Intel 510 serie niks dan problemen geeft in Macs terwijl de rest dat niet doet is de conclusie dat Intel de betrouwbaarste ssd's levert nou niet erg geloofwaardig. Gebruikerservaringen en nieuwsberichten lijken het tegenovergestelde te vertellen. Dat is ook best wel eenvoudig te verklaren: Tom's Hardware gaat uit van cijfers die ze van 1 bedrijf hebben gekregen die de dingen verkoopt. Er zit geen verklaring bij hoe men tot die cijfers is gekomen. Uiteindelijk zeggen die cijfers dus vrij weinig. Voor hetzelfde geldt zijn er 10 bedrijven die tegenovergestelde cijfers hebben. Cijfers lees je dan ook met een korrel zout omdat men met statistiek dingen dusdanig kan verdraaien dat het zegt wat zij willen en niet wat er werkelijk aan de hand is. Dus ook zonder verdenking van Intel-fanboyisme zijn er hele grote vraagtekens die je bij dat eerste artikel van ze moet zetten.
hou wel in het achterhoofd dat tomshardware er al geruime tijd van verdacht wordt Intel-producten rooskleuriger te benaderen dan andere producten
ze hebben wss een sponsor idd ;)
2 intel SSDs gehad, beide stuk binnen 2 maanden. Ik ga nu een ander merk proberen.
Mag ik zo direct zijn te vragen hoe je aan die 10 jaar komt? Misschien is het mijn beperkte kennis van de werking van zo'n HD maar als je hem echt aan het werk zet als bijv SQL database/transaction log schijf, waar het ding zich gezien snelheid erg goed voor moet lenen, gaat het volgens mij vrij hard met die dingen in een beetje omgeving als ze maar 100.000 writes kunnen hebben.
Dat komt omdat SSD's aan load-levelling doen. Er wordt dus gezorgd dat schrijfacties zoveel mogelijk worden verdeeld over de schijf, zodat niet één cel snel zijn maximum aantal schrijfacties zit.

Hoe goed dit werkt is natuurlijk ook afhankelijk van hoe vol de schijf zit. Hoe meer vrije ruimte er beschikbaar is, hoe makkelijker het is om load-levelling te doen.
Volgens mij doelt Alpha Bootis erop dat die 10 jaar gebaseerd is op een bepaalde hoeveelheid writes per dag, terwijl dat niet bij iedereen hetzelfde is.
Voor een transaction log kunnen extreem veel writes nodig zijn. Dan kan je load levellen wat je wilt maar hij zal echt een stuk korter mee gaan.
Voor de SSD's had je ADM modules, en feitelijk is het gewoon gebaseerd op NAND-flash, net zoals een USB stick, en die hebben ook niet het eeuwige leven.
Maak trouwens van die 100k maar 3 miljoen ondertussen(volgens de product manager van Apacer technology in 2007, de controller zou bij 75% alarm slaan, en ook zijn er nog "extra" cellen in de grid aanwezig om de levensduur te verlengen), en bij intensief gebruik in de praktijk is het met 3 tot 5 jaar bereikt met een fileserver of SQL server. Misschien kan je je nog herinneren dat SSD's en hybride drives massaal overleden omdat Vista standaard continu liep te defraggen en zo dus de writes opmaakten.
Daarnaast heb je een "beperkte" levensduur van je geheugencellen (100K writes oid). Dat zou een punt van zorg zijn maar in de praktijk is dat nog steeds 10+ jaar.
100K is voor SLC-geheugen. Voor MLC-geheugen (wat in consumenten-SSD's zit) was het een paar generaties terug nog 10K. Toen nog maar 5K en nu zelfs nog maar 3K. (nieuws: 'OCZ's Vertex 2-ssd's met 25nm-geheugen presteren slechter')

Netjes alignen, accesstimes uitzetten en geen swap op je SSD zetten is geen overbodige luxe. Sowieso is dat goed voor de performance.

[Reactie gewijzigd door W3ird_N3rd op 20 september 2011 17:54]

"Steadfast Networks, dat 150 ssd's in zijn serverpark heeft, claimt dat de uitval lager ligt dan bij harde schijven, maar zegt ook dat het bij uitgevallen ssd's lastiger is om de opgeslagen data nog veilig te stellen. Het bedrijf stelt echter dat ssd's, ondanks hun relatief hoge prijs per gigabyte, kostenbesparingen kunnen opleveren omdat ssd's door de zeer lage toegangstijden beter presteren dan bijvoorbeeld vier of meer 15.000rpm-harddisks in een raid-opstelling."

Als welke een type schijf dan ook is uitgevallen is het sowieso moeilijk om de data nog veilig te stellen.

Zaak is ten alle tijde een goede backup te hebben zodat in geval van een defect geraakte schijf de data veilig staat, zeker in geval als het een data center betreft

Ik begrijp dan dus ook de logica niet van een data center wat een dergelijke uitspraak maakt.
Bij draaiende schijven zijn bij ladingen dode sectors of een dode leeskop met diverse programma's nog verassend veel terug te halen.
Om mij heen heb ik diverse vertex schijven (3) zien sneuvelen ook heb ik mini-pci ssd's in twee dell mini9 netbookjes de geest zien geven. Bij deze schijven was allemaal niets meer terug te halen omdat de bios gewoon niets meer kon met de "schijven".

Ik kan me helemaal vinden in de conclusies van het artikel. ssd's gaan stuk maar harddisks ook bij bosjes. ik zou op geen van beiden een stempel betrouwbaarder willen zetten. Wel zou ik willen stellen dat data recovery het makkelijks gaat bij traditionele harddisks.

Verder ben ik heel erg tevreden met mijn ssd. Ik backup wel en wil voor geen goud terug naar een trage laptop harddisk.
Als de BIOS de schijf (HDD) niet meer ziet, dan heeft de controller meestal de geest gegeven. Dan zijn er 2 mogelijkheden om je data van de schijf af te halen...

1. (Easy way) Het printplaatje aan de onderkant demonteren (controller etc.) en uitwisselen met een werkend exemplaar van hetzelfde type schijf.

2. (Pro) Indien je bij het losdraaien van de schijf constateerd dat een kop het heeft begeven, dan kun je de platters overzetten op een werkend exemplaar van hetzelfde type schijf...
Maargoed, dit is bijna niet voor de hobbyist te doen aangezien je weer apart gereedschap nodig hebt....en veel geduld....

[Reactie gewijzigd door Phoenixinteract op 19 september 2011 22:55]

En daarna heb je alsnog alleen maar een data overpomp oplossing. Een HD die open is geweest vertrouw ik nog niet als prullenbak disk. :P
Moraal: Backup.

[Reactie gewijzigd door Alpha Bootis op 20 september 2011 00:31]

@Phoenix...
Wat jij zegt is uit de goede oude tijd en gaat nu niet meer op.

1. De kans is groot dat het bordje geprogrammeerd is in combinatie met de bijbehorende schijven. Je kan het proberen maar ik geef je vrijwel geen kans dat dat ooit zal lukken.

2. De positie van de platter is belangrijk. Ook dat zal dus niet lukken.

Er zijn gespecialiseerde bedrijven die data kunnen veiligstellen van defecte harde schijven. Beter is om daar gebruik van te maken en niet zelf te experimenteren.
Dat wordt toch ook in het artikel gezegd?
De firma Softlayer heeft ruim vijfduizend ssd's in bedrijf. Vrijwel alle ssd's zijn X25-E slc-ssd's van Intel, een fabrikant die ook bij kleinere datacenters populair is vanwege de vermeende betrouwbaarheid. Het gemiddelde uitvalspercentage over een periode van twee jaar zou volgens Softlayer tussen de 1,3 en 2,2 procent liggen
Of is 1,3 en 2,2 procent uitvalt soms heel veel?
De firma Softlayer heeft ruim vijfduizend ssd's in bedrijf.......Het gemiddelde uitvalspercentage over een periode van twee jaar zou volgens Softlayer tussen de 1,3 en 2,2 procent liggen
zoals in het verhaal staat heeft softlayer ruim 5000 ssd in bedrijf dat komt op ongeveer 65-110 ssd's die uitvallen in een periode van 2 jaar.

Maar ja het is nog te kort op de markt om te zeggen dat deze cijfers representatief zijn.
Ook zal de tijd dat een SSD aan staat ook invloed hebben op de levensduur.
Die cijfers zijn natuurlijk pas interessant als je van dezelfde firma hoort hoeveel van hun normale harde schijven ook stukgaan. Dan kun je een (voorzichtige) vergelijking opstellen tussen het aantal (in procenten) overleden SSD's en HDD's.
Ze hebben het over een gemiddeld uitvalpercentage. Er zijn dus niet absoluut 65-110 SSD's in die periode van twee jaar uitgevallen. Ik gok erop dat ze 1 jaar 65 uitgevallen SSD's hadden en het andere jaar 110, wat de reden zou zijn dat ze ook twee percentages noemen.
Als je een gemiddelde over een periode noemt, noem je niet meerdere getallen, maar 1, daarom noem je het ook gemiddelde. Zin is iig erg krom verwoord.
In de statistiek bereken je een gemiddelde en hang je daar een betrouwbaarheids interval aan. Met een bepaalde mate van zekerheid durf je te beweren dat een waarde tussen twee waardes in ligt maar exact weet je die waarde niet.

Iemand die 100 keer kop of munt doet met een euro weet dat die ongeveer 50 keer kop gaat krijgen maar niemand gaat beweren dat hij exact 50 keer kop krijgt. Als je dit gemiddelde dus experimenteel gaat bepalen zul je een uitkomst krijgen in de trant van "De kans op kop ligt tussen de 48 en 53%" maar nooit zul je exact 50% vinden ondanks dat dit de theoretisch correcte waarde is. Met meer experimenten kun je het interval verkleinen maar niet elimineren.

Een experimenteel bepaald gemiddelde wordt dus als een interval aangeduid en niet als exact getal
Als ik dit artikel lees dan staat er domweg dat het bepalen van ssd uitval nagenoeg onmogelijk is omdat men niet genoeg gegevens heeft. Dan is er dus eerder sprake van natte vingerwerk dan van daadwerkelijk wetenschappelijk onderzoek waarbij men een betrouwbaarheidsinterval gebruikt. Er staat overduidelijk dat men amper gegevens heeft, waarschijnlijk alleen maar de uitvalpercentages van jaar 1 en jaar 2. Het is gewoon puur giswerk wat ze doen. Vergeet niet de strekking van het artikel!
Alles gaat uiteindelijk stuk. Vaak geven hard disks een hint dmv een SMART berichtje in de trand van: "Help! Ik heb heel te veel dode sectoren verplaatst!" of "Help! Ik heb moeite met rond draaien!"

SSD's zeggen weinig en gaan gewoon dood.
Het artikel zegt niet dat Harddisk uitval makkelijker te voorspellen is, maar moeilijker dan men aanvankelijk verwachtte. Met andere worden de MBTF van SSD's lijken voorlopig op weinig gebaseerd te zijn.

De uitval van harddisk is ook moeilijk te voorspellen, S.M.A.R.T. monitoring lijkt maar in de helft van de gevallen uitval te kunnen voorspellen.
Wat heb je liever?

Nuff said :)
Wat heb je liever?

Nuff said :)
Dat ze zeggen help ik ga dood..
Ken je nog gegevens overpompen...
Nou bij deze, mijn ervaring..
Ik heb bij mij in het bedrijf redelijk grote hoeveelheden MLC SSD's voorbij zien komen (voor workstations dus) en daarbij moet ik concluderen dat de uitval bij Sandforce SSD's echt te hoog ligt. Saillant feit: De Sandforce SSD's gingen vooral stuk in (verschillende) laptops.
Dat de Intel SSD's betrouwbaarder zouden zijn kan ik zeer zeker beamen.
ik heb 8 sandforce ssd's in een db server hangen, en die gaan als een tierlier, na een jaar nog 0 uitval ;)
Kan best hoor, het is ook wel een andere situatie als je er 8 tegelijk koopt voor 1 server, dan dat er een stuk of 120 (Vertex 2, Corsair F-series, Intel en Samsung ssd's) in allerlei soorten workstations in gebruik genomen worden onder diverse load-omstandigheden.

Ik zou sowieso voor een DB server nooit MLC SSD's gebruiken, tenzij het geen ramp is als het stuk gaat, maar dat terzijde..
Dat plotselinge uitvallen heb ik een maand geleden aan den lijve meegemaakt.

Corsair F60, 's avonds sluit ik af niks aan de hand. VOlgende dag zetik de pc aan, no system disk or disk error. SSD dus naar de filistijnen...
Zelf dacht ik altijd dat SSDs minder kapot gaan omdat er geen draaiende onderdelen inzitten.
SSDs gaan bij veel gebruik eerder stuk dan HDDs omdat het aantal schrijfacties bij een SSD beperkt is. Iets van 100.000 ker per geheugencel.
[...]

SSDs gaan bij veel gebruik eerder stuk dan HDDs omdat het aantal schrijfacties bij een SSD beperkt is. Iets van 100.000 ker per geheugencel.
Dat is dus zeer goed te voorspellen, wat tegenstrijdig is met de in het artikel genoemde onvoorspelbaarheid van de uitval. De uitval zal waarschijnlijk ergens anders door worden veroorzaakt.
Softlayer noemt echter een opvallend nadeel van ssd's: flashdrives vallen meestal plotseling uit, zonder dat het Smart-systeem in de schijven bijtijds alarm slaat. Bij harde schijven is uitval beter voorspelbaar, zegt dit bedrijf.
Zo verrassend c.q. opvallend vind ik dat nu ook weer niet hoor.

Het is bij harde schijven in feite ook zo dat een fout in de electronica die uitval
veroorzaakt in het algemeen ook niet door SMART wordt opgemerkt voordat het te laat is.

Alleen de effecten van de draaiende delen (plus de magnetische laag) van een harde schijf (spin-up, leesfouten, retries) die worden door SMART gebruikt om waarschuwingen te geven...

Wat een interessanter vraagstuk is: Is de SSD electronica door de relatief nieuwe ontwikkeling ervan minder betrouwbaar dan de electronica in de harde schijven?
Als de SSD's vaker 'in één keer kapot gaan' dan dat er 'slechte stukjes flash geheugen'
ontstaan, dan zegt dat wel iets...
Dan zouden de fabrikanten meer ontwerp-aandacht aan de controlers moeten geven....
"Flash" in SSD heeft vaak twee fabrikanten: 1 voor de controller, en 1 voor het daadwerkelijk geheugen. Dat laatste faalt in kleine stukjes, het eerste in 1 keer.

Ik denk zelf dat het te maken heeft met de grootte van de bedrijven erachter. SandForce is een klein bedrijfje - bestaat een paar jaar, ongeveer 160 man in dienst. Samsung Electronics heeft zo'n 200.000 man in dienst. Daar zit gewoonweg meer ervaring tussen.
Het uitvalpercentage van OCZ SSD's is in mijn ervaring in ieder geval erg hoog. Waar ik werk verkopen we erg veel OCZ SDD's en helaas komen er ook veel binnen 3 maanden terug. Van wat ik zie gaat zo'n 5 tot 10% binnen die tijd kapot. Na die 3 maanden vallen er veel minder uit. De klachten zijn dan eigenlijk altijd dat de SSD niet meer herkent wordt. Dit probleem is sinds OCZ van 25nm naar 34nm geheugen gegaan is ook veel groter.

Voor mij persoonlijk om die reden geen OCZ. Intel lijkt tot nu toe de beste keuze. Op dit moment draai ik met een Crucial M4, hopelijk dat ie lang blijft leven.
Had dezelfde ervaring, en daarom dat ik nu deels geen vertrouwen lijk te hebben door mijn bovenstaande reactie. In de tijd nog bijna 250¤ voor 120gb (2SSD's) uitgegeven die voor allerlei problemen zorgden...
Mijn eerste OCZ 240GB Vertex2 SSD deed het 3 maanden. De replacement 5 weken.

Ik vroeg mijn geld terug en kreeg enkel de dagwaarde(enorm in prijs gekelderd vanwege alle slechte publiciteit). :(

Na wat onderhandelen toch voor een vergelijkbare Kingston kunnen ruilen (heb ik op werk al >1jaar probleemloos draaien). Het is even afwachten, maar de komende 2 jaar voor mij geen OCZ meer - laat ze eerst maar eens bewijzen dat ze het kunnen.
Je bedoelt denk ik te zeggen " van 34nm naar 25nm". Kan me haast niet voorstellen dat ze grotere cellen zijn gaan gebruiken. :>
In de praktijk zijn dit bruikbare, maar jammerlijke conclusies. Het rapport van Google van enkele jaren geleden had een paar belangrijke conclusies:
- reguliere uitvalspercentages zitten in de enkele cijfers per type harde schijf. De 1 en 2 procent die hier genoemd worden zijn dus vrij normaal.
- van alle SMART parameters zijn er slechts een aantal die een 'voorspellende gave' hebben en dus ook echt aankondigen dat en schijf gaat overlijden. Helaas verschilt die betrouwbaarheid dan ook weer tussen fabrikanten
- van het grootste aantal uitgevallen schijven was er vooraf door SMART geen waarschuwing of indicatie gegeven. Deze schijven waren dus alsnog van het ene op het andere moment 'dood'.

De conclusies van dit onderzoek moeten volgens mij in het licht gezien worden van dat vorige onderzoek van Googlelabs; bij SSD schijven is het nog vaker het geval dat een schijf van het ene op het andere moment electronisch dood is, zonder SMART waarschuwingen vooraf.
Zoals gezegd: in de praktijk dus potentieel een kleine ramp. Dankzij het Google onderzoek heb ik in een weekje een zeer betrouwbaar overzicht kunnen maken van ongeveer 400 servers met ruim 1000 harde schijven. Op basis van die SMART statistieken hadden we binnen eeen maand een betrouwbaar voorspellingsmodel, inclusief classificatie en urgentie voor het vervangen van stervende harde schijven. Bij sommige schijven waren we letterlijk net op tijd of net te laat.
Als SMART indicatoren bij SSDs geen aankondigingen doen, dan is zo'n beetje het enige dat je kunt doen rekening houden met een uitvalspercentage van 10% (realistisch het hoogst denkbare) en zorgen dat je dus altijd voldoende schijven op voorraad hebt om defecte te vervangen. Bedenk wel dat SSD modellen vaak een stuk korter meegaan en worden vervangen door nieuwere modellen.
Boeiend dat mijn SSD zou uitvallen, ten eerste zit er garantie op en ten tweede maakt TimeMachine een volledige back-up op een tweede hardeschijf.

Buiten dat lijken mij SSD een stuk veiliger dan conventionele HDD's omdat er niets mechanisch in zit dus eerder stuk kan gaan door bewegingen.

Helaas (of niet) heb ik mijn MBP met destijds een normale HDD een keer van bed laten vallen die stopte toen even met muziek spelen.
Het gebeurde maanden later toen ik een SSD erin had vervelend genoeg nogmaals maar de muziek bleef gewoon doorspelen er was dus niets aan de hand.

Uitval bekend/onbekend of niet, SSD is gewoon veiliger tegen stuk gaan.
Ik neem aan dat jij het niet leuk vind om telkens beroep te doen op de garantie.

Dat je garantie hebt wilt niet zeggen dat het niet zo erg is om er vaak gebruik van te maken.

- Je moet de SSD uit je PC halen.
- Opsturen (soms op eigen kosten)
- Wachten, nog meer wachten.
- Andere harddisk in je systeem doen en Windows installeren om je PC te kunnen gebruiken.
- Als je een nieuwe SSD terug krijgt weer installeren en weer Windows installeren om je PC eindelijk weer te kunnen gebruiken.

Zelfs als je je SSD direct om kan ruilen bij je PC winkel in de buurt moet je de meeste van deze handelingen uitvoeren, je ziet hoe tijdrovend het is.

Liever betaal ik een paar eurotjes meer en hoef ik al deze handelingen niet uit te voeren maar tegenwoordig kijken mensen eerst naar de prijs dus gaan de fabrikanten natuurlijk constant overal op proberen te besparen waardoor je onbetrouwbare hardware krijgt.
- Als je een nieuwe SSD terug krijgt weer installeren en weer Windows installeren om je PC eindelijk weer te kunnen gebruiken.
Daar gebruikt een Tweaker een programma zoals Acronis TrueImage voor natuurlijk. Het enigste wat je dan moet controleren achteraf is of het OS juist detecteerd dat het daarna op een SSD draait. Ik haal zelf ook de 'hidden devices' entry weg van de oude HDD.

Controleer dus na het 'ghost/imaging' proces of Windows 7 de defragmentatie service heeft uitgeschakelt. En anders doorloop je de simpele stappen om de SSD tweaks handmatig in te stellen, wat je ook normaal na installatie voor XP/Vista moet doen.
Dat zeg jij, tot wanneer je iedere dag eens een blauw scherm krijgt in Windows en je dagen zit te zoeken naar de ooraak en dan erachter komt dat het de SSDs zijn die deels stuk zijn...
Dat heb ik ook met RAM latjes gehad en een grafische kaart. Tja,... het kan nu eenmaal stuk.

Ik heb zelf al meer HDD's zien stukgaan. En dat ook vaak binnen 1 jaar tijd.
Ik ben zelf bezig een systeem samen te stellen en heb besloten dat SSD's, hoe mooi de techniek ook is te onbetrouwbaar zijn om bijvoorbeeld mijn foto's op te zetten. De foto's die op mijn harde schijf staan, heb ik in back-up op nog 2 losse harde schijven die niet in de zelfde kamer staan (dit in verbant met diefstal).

Toch schaf ik een SSD aan maar gebruik de SSD als cache samen met intels "smart responce technologie". Heb je toch het voordeel van een snelle harde schijf zonder, raid te hoeven draaien en mocht je SSD de geest geven heb je toch nog alle data.

Ik wacht nog even een paar generaties SSD's af om volledig mijn harde schijf te vervangen.

Als tweede optie overweeg ik een SSD als opstart schijf en twee gewone harde schijven als data schijf in RAID 1. Dat is relatief duur maar het scheelt weer een back-up maken. Volledig overgaan op SSD's lijkt mij gewoon nog te vroeg.
Mijn opstelling:

SSD bevat OS + fototools + 1 map voor foto's die ik aan het bewerken ben.
De map wordt gebackupd naar een gewone HD.
Daarop loopt een nachtelijke backup procedure naar een datacenter.

Dit levert mij stabiliteit, zekerheid (3 kopieen, max 1 dag oud) en flitsend snelle laadtijden op. RAW bewerkingen in Lightroom zijn nog nooit zo snel geweest. Vooral het feit dat Lightroom+catalog+tempfiles+previewfiles+bronfiles draaien op de SSD geeft je de enorme snelheidswinst. Ik backup enkel de bronfiles + XML.cart direct. De catalog kan me gestolen worden.

Ondanks 2 SSD crashes blijf ik SSD's kopen. Once you go SSD you can never go back. Tijdens de crashes ben ik weer even terug gegaan op een gewone HD... Dat is geen feest. Het lijkt alsof elke klik een pauze oplevert.

Het geld van de SSD verdient zich terug. Ik kan nu een foto bewerken in een kwart van de tijd dan voorheen. Extra bonus: de rest wordt ook meer responsive: browsen, office, find in files, ...

Dus met je eens: volledig overstappen, NEE.
Maar SSD's inzetten: Voor mij een volmondig JA.
Ik vind een SSD erg interessant en alles lijkt wat snappier te gaan, maar met de huidige stand van zaken, wil ik best 25 seconden wachten tot mn OS is opgestart. Het is me geen 100 euro waard voor een hooguit 90GB schijfje voor dingen die ik nauwelijks merk. De laadtijden kan ik vooralsnog mee leven. En of ik nu 1 nanoseconde moet wachten of 1 milliseconde, ik denk niet dat ik productiever wordt. (Dat geld voor dit moment)

Snelle laadtijden is leuk, maar dan moeten die SSD's per GB wel even iets goedkoper worden.

Laadtijden is een spel zijn nu niet bizar lang en snel data kopieren is een wassen neus, omdat een SSD schijf wel erg klein is voor dataopslag gebruik.

Ik zeg dit nu. Wellicht dat het er over een paar maanden heel anders uitziet, maar onder de 250 GB op dit moment vind ik een SSD niet interessant.

Gewoon mijn 2 centen
Dan heb jij nooit met een SSD gewerkt, want het is niet alleen dat je PC sneller start of je spelletje iets sneller laad. Zoals jij het doet klinken. Alles wat met data te maken heeft gaat sneller en niet zo een beetje ook en aangezien bijna alles wat op je computer gebeurd begint bij data kan je eigenlijk stellen dat alles wel een stuk sneller gaat. Om maar even wat voorbeelden te noemen

Files unzippen
Files kopieren
Files opslaan
Files openen
Programma's openen en sluiten
Programma's die met disk cache werken zoals veel image/video editing software
Programma's / OS instaleren.
Het is niet zo dat je pc alleen even een klein beetje sneller wordt, je zult heel je systeem niet meer terug herkennen na de aanschaf en installatie ervan. Althans, ik niet.

En nano- of milliseconden doen er inderdaad niet toe, maar dit zijn toch echt leukere dingen: Photoshop CS5: van 14 naar <3 seconden laadtijd, geen geratel meer, minder hitte, minder herrie, minder stroomverbruik, en alles, maar dan ook alles reageert veel sneller.

En als je gewoon lekker veel films op wilt slaan voor weinig geld, doe je dat inderdaad op een 2TB HDD van ¤60. Dat werkt prima. Maar ga daar niet je OS op zetten, want dat is echt pure bagger vergeleken met een SSD.
Basset, je hebt gelijk. Het voordeel van SSD is leuk en aardig maar word hier wel schomelijk overdrveven; alsof iedereen het MOET hebben. MIjn fam. heeft pc's met hdd's en zien vaak ook mijn snelle pc met SSD en RAID-setup. Niemand loopt te springen om een SSD, iedereen is tevreden met wat hij nu heeft.

Maar ach, we hebben het dan wel over huis, tuin en keuken gebruikers; wat zon 80 procent van NL ook gewoon is (misschien wel meer).
Hoewel er bij mij nog nooit een harde schijf is stuk gegaan was mijn Revodrive x2 240GB al na 1 maand gedeeltelijk stuk! 1 van de 4 'schijfjes' die er op zitten was helaas stuk gegaan. waardoor je dan nog maar 3/4 van de beloofde snelheid haalt gezien de 4 'schijfjes' in een Stripe volume staan. Ook het booten daardoor duurden aanzienlijk langer! Gelukkig had ik dankzij de garantie van MyCom al na 2 weken weer een nieuwe (Niet op voorraad).

Maar of dit dan ook meteen betekend dat een SSD minder betrouwbaar is als een HDD? Ik hoor ook genoeg verhalen van mensen die een HDD binnen krijgen en het een DOA blijkt te zijn. En dat is wat ik eigenlijk nog niet zo vaak heb gehoord als bij SSD's.. Maar dat komt denk doordat er nog aanzienlijk meer HDD's als SSD's worden verkocht. Ook kan het komen doordat er in de HDD bewegende onderdelen zitten die tijdens transport sneller beschadigt kunnen raken. Iets wat ik niet zo snel zie gebeuren als bij een goede compacte 2,5" SSD.
Toevalstreffer, bij HDD's heb je ook genoeg maandagochtendgevallen. Tom's Hardware concludeert dan ook dat zelfs gegevens van een bedrijf met 5K SSD-schijven niet afdoend zijn. Dan is dat van 1 schijf op ... 1 SSD in totaal die je toen had, al op zich niet zo betrouwbaar te noemen ;)
Ik vond dat zelf inderdaad ook al.. Dat het gewoon een toevalstreffer was! En als je SSD niet werkt komt het meestal door de firmware en wil ik het niet zo snel een 'kapotte' SSD noemen. Vaak ken je dan alsnog de firmware flashen en als dat niet lukt vind ik pas dat je het als 'kapot' mag beschouwen.. Want daar bevinden zich de meeste problemen denk. Met de firmware!
Interessant dat hier naar gekeken wordt. Hier op T.net is het volgens mij razend populair om een ssd in de pc te hebben, maar zelfs de gemiddelde tweaker zal geen backupkoning zijn. Daarom is het des te belangrijker dat er tijdig onderzoek gedaan wordt naar uitval.

Het valt me mee dat SSD's qua uitval betrouwbaarder lijken dan een traditionele schijf, maar dat is logisch vanwege de afwezigheid van bewegende onderdelen.
Ik ken niemand die hun SSD gebruikt als meer dan een OS-schijf + programma's + games.
Iedereen heeft er een 2e HDD naast voor de massa opslag, downloads, documenten, etc.
En dan nog dien je regelmatig een backup te maken van de HDD, gezien die ook plots kan uitvallen.

Laptops die ingericht zijn met een enkele SSD is een ander verhaal en helaas vergeten laptop gebruikers ook nog wel eens een fatsoenlijke backup te maken.
Lang leve oplossingen zoals dropbox.

Daar staan al mijn belangrijke documenten op, en de rest zijn wat applicaties (macbook) die ik zo weer van internet af kan halen. Voor mijn pc is het een ander verhaal.

(bedenk me net dat het al lang geleden is dat ik een backup heb gemaakt)
Dropbox moet je ook mee uitkijken, het is geen backup.. als al je pcs online zijn en je verwijdert per ongeluk iets of malware doet dat voor je dan is het overal weg
Dropbox is inderdaad geen vervanging voor een backup, maar als je naar de website van dropbox gaat kun je wel verwijderde bestanden herstellen. Ook kun je bestanden tot een maand geleden terugzetten naar een oudere versie.
Dat is zeker niet waar. via de website kan je bestanden t/m 30 dagen terugzetten. Daarnaast zit er een soort shadow copy in waarmee je vorige versies kan terugzetten.

http://www.dropbox.com/help/11

[Reactie gewijzigd door alfredhabienet op 19 september 2011 19:12]

Héhé, zo doe ik dat:
Ik maak iedere week - of voor ik software wil uitproberen - een image.
Mijn systeempartitie is c.a. 30 GB, waarvan 20 GB gebruikt, de image wordt c.a. 9.8 GB en die komt op mijn D: partitie terecht van mijn ahá 128 GB Crucial m4 (MSI U270 notebook).

Daarna, ook zeker wel eens per week schrijf ik die (en inmiddels gedownloade contents) met een blauw kabeltje en met 120 MB/sec weg naar een HD die in een Fantec Sneaker en die is aan de rand vam mijn bed is geschroeft (het computeren doe ik n.l. vaak daar ;) ).
Die HD gaat dan regelmatig naar "beneden" en daar gaat alles op een Sharkoon RAID 5 box. Waarbij deze weer is gesynchroniseerd is met een idem Sharkoon box met 5 maal 2 TB als 5 losse schijven als backup.

Die image maak ik niet met TI maar met Macrium Reflect 5.0 en duurt c.a. 8 minuten.
Het overzetten naar HD c.a. 50 sec. Naar de Sharkoons ook ongeveer.
Van iedere image wordt in een changelog middels een simpel kladblokbestandje de toegevoegde- of verwijdere software en/of instellingen weergeven.

Lijkt omslachtig maar ik vind het leuk werk, is er iets mis dan zet ik ff een image terug.
Voordeel van Macrium is de mogelijkheid om vóór Windows middels een bootmenuutje WinPE 3.0 op te starten en vandaaruit de image terug te zetten. Dus niks niet met USB stikjes, alhoewel dat ook kan in geval mijn bootmenu om zeep is.

[Reactie gewijzigd door GreenFrog op 19 september 2011 19:20]

10 TB, doe ff normaal man!

Filmpjes aan het verzamelen die je 1 keer kijkt en de andere helft helemaal niet?
Yupz... groot fan van. Daarnaast heb ik ook veel series. Zit nu rond de 5 TB. Ieder heeft zo z'n eigen hobby.
Tegenwoordig moet je wel, met die baggertv van nu. Man, vrouw en kinderen hebben een aparte smaak, en zeker met jonge kinderen staat de tv bijna heel de dag aan.

Ik heb mijn mediaschijven (4TB) al vol zitten met alle seizoenen van mythbusters, Star Trek series, Stargate series, enkele films en muziekverzameling.
Ik heb 2 NASsen ter beschikking met elk 2 schijven in mirror raid. De ene staat thuis, de andere is van mijn vader. Zo synchorniseer ik ze via de backupfunctie van de NAS automatisch naar elkaar via ssh/rsync over internet.
Ik weet niet waar jij mee bezig bent met je 10TB overkill en je gepruts met schijfjes omhoog en omlaag sjouwen, maar backupen moet wat mij betreft vooral zoveel mogelijk automatisch en ongemerkt gaan, en alleen de belangrijke data. Wat kan mij al die series en films nou schelen, het internet staat er vol mee, gaat er een schijf kapot heb ik altijd de tweede nog (in raid), en mocht ook die de geest geven dan download ik de films en series wel weer opnieuw.
Images maken ben ik ook maar mee gestopt, kost alleen maar meer moeite. Gewoon de windows 7 of ubuntu installatie cd erin duwen is net zo makkelijk, ik heb toch zo min mogelijk data op mijn systeemschijf staan. Zelf programma's die zonder installatie afkunnen (standalone kunnen draaien) heb ik niet op mijn systeempartitie staan.

[Reactie gewijzigd door ravenamp op 20 september 2011 11:45]

Laptops die ingericht zijn met een enkele SSD is een ander verhaal en helaas vergeten laptop gebruikers ook nog wel eens een fatsoenlijke backup te maken.
Dat is inderdaad het makkelijkste voorbeeld.

*schopt zichzelf om laptop te gaan backuppen*
@ FunFair:

Een nader verhaal, waarom ?

Een externe HD kan het zelfde werk doen als een tweede HD in de laptop.
Een ander verhaal, omdat het nooit zo makkelijk gaat als een 2e interne schijf.

Als je een laptop meezeult, sluit je bijna nooit de externe schijf aan, ofwel je vergeet te backuppen.

Enige mooie oplossing is dan om een NAS te hebben en via wireless een automatische backup in te stellen.
@ Roland 83

Je hoeft ook geen back-up koning te zijn: een back up van de hele (b.v.) 120 GB schijf duurt nog geen 15 minuten er zijn programma's in overvloed die je dit in enkele muisklikken laten doen..

Als je voor 15 minuten tijd geen tijd hebt, heb je het er wellicht wel voor over om een uurtje of drie te gebruiken om alles opnieuw te installeren en te updaten en dan maar hopen dat niet je vakantie foto's, documenten, e-mails etc.net even op dat ene SSD schijfje bleken te staan.

Een verstandig mens maakt altijd een back-up ongeacht het type schijf: alles kan kapot gaan immers.

Helaas laat de praktijk zien dat nog teveel mensen geen back-up maken ondanks de zeer lage prijzen voor mediadragers en dit feitelijk pas doen als ze hun billen hebben gebrand, tsja, dan moet je op de blaren zitten.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True