Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 157 reacties

De eerste benchmarks van een vroeg testexemplaar van OCZ's Vertex 3 Pro zijn opgedoken. De ssd beschikt over een Sandforce-controller van de nieuwe generatie en laat andere ssd's in vrijwel alle benchmarks met gemak achter zich.

De website Anandtech ontving een vroeg testexemplaar van OCZ. De ssd bestond enkel uit een pcb zonder casing eromheen en is uitgerust met een vroege firmwareversie. Desondanks doorliep de ssd met succes de talloze benchmarks. De Vertex 3 Pro is uitgerust met de SF-2500-controller, die vooral voor server-ssd's zal worden gebruikt. De SF-2200-controller is bedoeld voor mainstream-ssd's. Het testexemplaar is verder uitgerust met mlc 32nm-nandflashgeheugen van Toshiba, maar de mainstream Vertex 3-ssd's zullen gebruikmaken van 25nm-geheugen van IMFT.

In de gebruikelijke IOmetertest is de ssd aanzienlijk sneller met random writes van 4KB, maar pas bij random reads van 4KB toont de SF-2500-controller zijn potentieel. Bij sequentiële reads en writes nadert de Vertex 3 Pro snelheden van 400MB/s met maxima van ruim 500MB/s, mogelijk gemaakt door de realtimecompressie die de controller uitvoert. Bestanden die niet of minder worden gecomprimeerd, worden nog steeds met ruim 200MB/s weggeschreven of gelezen. Ook in verschillende benchmarks waarin dagelijks gebruik wordt nagebootst, is de Vertex 3 Pro sneller dan de concurrentie, hoewel de verschillen hier iets kleiner lijken.

De SF2500-controller levert niet alleen veel hogere prestaties dan elke andere controller op de markt, hij lost ook een probleem op waarvan de SF1200-controller last heeft. Als een ssd veel is gebruikt en al het geheugen is beschreven, nemen de prestaties af zodra er oncomprimeerbare data naar de ssd wordt geschreven. De SF1200-controller wil het geheugen namelijk zo min mogelijk belasten en ongebruikte blokken worden niet automatisch leeggemaakt zolang dat niet per se hoeft. Dat is goed voor de levensduur van het geheugen. Incomprimeerbare data moet echter op een leeg blok worden weggeschreven. Dus als alle blokken vol zijn, moeten die eerst worden leeggemaakt.

De SF1200-controller kan blokken met maximaal 80MB/s leegmaken, zodat de maximumschrijfsnelheid bij incomprimeerbare data op 80MB/s of lager komt te liggen, terwijl schrijfsnelheden van ruim 130MB/s mogelijk zijn. De SF2500-controller lijkt dit probleem opgelost te hebben. Jammer genoeg is niet duidelijk hoe; misschien kan hij blokken sneller dan met 80MB/s leegmaken of is de trimfunctie agressiever en wordt een bepaald aantal blokken vroegtijdig leeggemaakt zodra er incomprimeerbare data op de ssd wordt weggeschreven.

De Vertex 3 Pro gooit hoge ogen, maar de vraag rest hoe betrouwbaar de nieuwe ssd's met een Sandforce 2200- of 2500-controller zijn. In elk geval hebben de eerste firmwareversies van nieuwe controllers vaak kinderziektes, plooien die na verloop van tijd worden gladgestreken. De nieuwe Sandforce-controller heeft verder standaard ondersteuning voor de sata-600-interface en uit de verschillende tests blijkt dat het gebruik van een sata-600-poort sterk aan te raden is, omdat de performance op een sata-300-poort niet veel hoger is dan die van menige oudere ssd.

Anandtech ging ook uitgebreid in op de verwachte levensduur van het flashgeheugen. Door het nieuwe productieproces, dat van 50 naar 34 en nu naar 25nm evolueerde, neemt de levensduur van flashgeheugen af. Volgens Intel kon 50nm-geheugen 10.000 keer beschreven en herschreven worden, maar dat aantal cycles nam met 34nm-geheugen af naar 5.000, terwijl 25nm-geheugen nog maar 3.000 cycles zou kunnen doorstaan voordat het onbruikbaar is. Volgens Anandtech zou het echter ruim 300 jaar duren voordat zelfs 25nm-geheugen al zijn cycles heeft doorlopen, als de ssd zeer intensief wordt gebruikt. Het flashgeheugen zal echter al veel eerder dan na 300 jaar het leven laten.

Vertex 3 Pro

Moderatie-faq Wijzig weergave

Reacties (157)

Laatste stukje: Is wel gebaseerd op zijn eigen gebruik als power-user. Hij geeft dus niets aan over enterprise-gebruik, waarin mogelijk gebruiksscenario's voorkomen waarin de levensduur wel korter is.

Maar dan nog:
- Dit zijn consumentendrives
- Als is het slechts 10% van die 300 jaar, nog steeds meer dan genoeg.

Ook heeft hij een update bijgevoegd om nog eens extra duidelijk te maken dat geschreven data nog een jaar uit te lezen is nadat de laatste cyclus geschreven is.
Voor servers wordt dan ook meestal slc-geheugen gebruikt, dan al snel 50.000-100.000 p/e cycli kan doorstaan. Zelfs als slc-geheugen op 25nm wordt gebakken, zal het aantal p/e cycli een factor tien hoger zijn dan bij mlc-geheugen.
Nou, dit zijn geen consumentendrives -- dit zijn Enterprise drives. De Pro serie is wel degelijk bedoeld voor gebruik in servers en workstations. Echter bij een server/workstation gebruiker wordt ook verwacht dat ze zelf kunnen zien wat voor soort workload het is en dus wat voor technologie er in moet zitten. Biojvoorbeeld bij ZFS-gebaseerde storage clusters wordt meestal aangeraden een of meer MLC drives als read cache te gebruiken en een of meer SLC drives als write cache -- je gebruikt datgene wat past bij je gebruik.
De SF1200-controller wil het geheugen namelijk zo min mogelijk belasten en ongebruikte blokken worden niet automatisch leeggemaakt zolang dat niet per se hoeft. Dat is goed voor de levensduur van het geheugen.
Dat begrijp ik dus niet, die blokken moeten toch een keer leeg dus als je dan gaat wachten tot ze nodig zijn dan vertraagt dat de boel toch alleen maar?
Flashgeheugen bestaat uit blokken die op hun beurt weer bestaan uit pages. Het geheugen kan op pageniveau beschreven worden maar om de inhoud van een page te wijzigen moet het gehele blok worden gewist en opnieuw beschreven worden.

Als een blok volledig ongebruikt is maakt het inderdaad niet op welk moment de inhoud wordt gewist. Bij een blok dat nog wel gedeeltelijk is gevuld met gebruikte pages maakt het wel uit. Om het blok te kunnen verwijderen moet eerst de data in de nog gebruikte pages worden verplaatst voordat het blok gewist kan worden. Op dat moment verhoog je de slijtage van het geheugen omdat er pages worden beschreven terwijl er feitelijk geen data verandert. De SandForce-controller wil het moment waarop een blok wordt opgeschoond zo lang mogelijk uitstellen. Hoe langer je wacht, hoe meer ongebruikte pages een blok waarschijnlijk zal bevatten. Pages raken buiten gebruik als er een bestand wordt verwijderd en via het trim-commando wordt doorgegeven dat bepaalde lba's niet meer in gebruik zijn of omdat een bestand wordt overschreven en de ssd besluit deze wijzigingen elders op te slaan in lege geheugenpages die direct beschreven kunnen worden.
zo word het gebruik van de blokken beter verdeeld... anders gaat de schijf bijv. 10 x eenzelfde blok wissen en beschrijven terwijl er "verderop" nog lege blokken zijn...

Pas als de lege blokken "op lijken te raken" dan gaat ie wissen, zo heb je dus nog altijd lege blokkken ter beschikking en worden niet steeds dezelfde blokken beschreven en gewist.
Waarop is de levensduur van 300jaar gebaseerd. In het artikel van Anandtech kan ik hier geen uitsluitsel over vinden. Naar mijn inziens/gevoel ligt dit namelijk veel lager :?
Dat zal wel de MTBF (mean time between failures) zijn gedeeld door de verwachtte tijd dat ie per dag aan staat. Totaal niet representatief natuurlijk.

Als ik uit ga van continue gebruik en maximale snelheid van 200MB/s en een SSD van 120GB dan kom ik uit op 500 uur levensduur. Best wel weinig.

120 GB = 30G aan cellen.
cellen kun je 3000 keer beschrijven dus 90000G keer schrijven.
Schrijven met 200MB/s = 50M cellen per sec
Dus maximaal 1800000 sec schrijven = 500uur.
Continu schrijven aan 200MB/s is natuurlijk niet representatief voor normaal gebruik in een desktop PC, zelfs als er naar de SSD geswapt wordt.
Als dat cijfer verlaagd wordt naar 20MB/s (wat me nog extreem hoog lijkt; een gewone harddisk komt niet eens in de buurt terwijl ze als swap wordt gebruikt) komt de levensduur op 5000u, wat aan 8u/dag een kleine 2 jaar is.

Ik veronderstel/hoop daarom dat die levensduurberekening van 300 jaar gebaseerd is op de gemiddelde schrijfsnelheid tijdens realistische workloads; Zelfs als die schatting optimistisch is lijkt het me wel redelijk om bij normaal gebruik (dus niet de hele tijd benchmarken, of bijna geen ram in de computer steken omdat swappen toch zo snel gaat) te verwachten dat de SSD 5 a 10 jaar meegaat. Daarna is ze toch obsoleet...
De berekening van Anand die uitkwam op 300 jaar was gebaseerd op 7 GB writes per dag, met write amplification van 0.6 (dus 40% van de externe writes komt nooit op de cellen), omdat dat de worstcase write amplification was die ze in hun set sandforces gemeten hadden en de hoogste writes per dag die ze gemeten hadden in hun PCs. Anand schijnt wat dat betreft verreweg de heftigstye schrijver in het kantoor te zijn.
Je berekening raakt kant noch wal. Je begint zelf over representatief, op welke manier is jouw berekening representatief voor nromaal gebruik?

Ook is er zoiets als write-amplification. Sandforce schrijft vaak maar de helft van de data ook daadwerkelijk naar de geheugencellen, dan dat het in Windows in beslag neemt.

Verder draait mijn ssd al een dag of 200 = 4800 uur. Een factor tien langer dan jouw berekening en ik durf te wedden dat mijn ssd nog wel 10.000 uur draait. Dus waarom je moeite nam om deze berekening te maken weet ik niet?
Tuurlijk raakt het kant nog wal. Een levensduur van 300 jaar ook niet. Het was gewoon ter illustratie dat de minimale levensduur kan zijn bij volcontinue beschrijven.
ik denk dat je ssd helemaal niet draait... anders ben je afgezet ;) (dan is ie namelijk niet solid ;)


<on topic>
je hebt natuurlijk volledig gelijk. Als je zo gaat rekenen dan denk ik niet dan mechanische schijven heel erg lang meegaan.
ik denk dat je ssd helemaal niet draait... anders ben je afgezet (dan is ie namelijk niet solid
misschien heeft ie een hybride ;)
De levensduur is ook afhankelijk van hoe je met je computer omgaat.. als ie iedere dag een hoop stoten krijgt ofzo (angry german kid bv.) of gewoon een laptop hebt, dan gaat over het algemeen een SSD wel langer mee dan een HDD... ;)
Je kunt het ook in een ander daglicht zien.

Als je volcontinu met 200MB/s bezig bent op jouw schijf, overschrijf je iedere 10 minuten de voledige capactiteit van jouw disk. Dat is dan zo'n 144x 120GB = 17,28TB per dag.

De schijf wordt verwacht het te begeven bij 360TB io (write/erase).

Dit lijkt mij vandaag de dag een tikkie 'ruim' voor de "Jan met de Pet" (consument). Ik vind dat niet 'best wel weinig' als je je daarbij ook nog bedenkt dat het op dit moment het goedkoopste SSD is wat je kunt krijgen.

Vergeet niet dat 'de consument' thuis maximaal achter een 100mb/s internet lijntje zit en dit maar 6% van de belasting oplevert die je omschrijft. Uiteraard kan je er heel veel andere dingen bij gaan doen, maar die 200MB/s volcontinu (dagen achter elkaar) lijkt mij onrealistisch.
De goedkoopste SSD die je kunt krijgen? Die Vertex 3 Pro doet rond de $4-5 per GB, dat is redelijk aan de prijs voor een SSD.
De berekening was gebaseerd op een 25nm, zoals ook degene had gedaan waarop ik reageerde (3000 write cycles). De Vertex3 heeft gelukkig een veel hoger aantal cycles voordat het ding als 'versleten' moet worden beschouwd :)
En je kunt ze nog met een factor 10 vaker beschrijven tegenwoordig. Zeker deze 32mm.

[Reactie gewijzigd door RielN op 18 februari 2011 10:16]

Euh, nee. Hoe kleiner de features, hoe minder lang ze meegaan. 45 nm flash gaat 10k writes mee, 32 nm gaat 5000 writes mee, 22/25 nm gaat nog slechts 2500-3000 writes mee (en daarop zal de consumer versie gebaseerd zijn).
Lijkt mij ook idd... zeker met swap files enzo zou je zeggen dat delen wel regelmatig overschreven worden... En aangezien dit een server disk is verwacht je bijvoorbeeld ook logfile rotatie, databases en dat soort zaken... Ben wel eens benieuwd hoe ze hier aan komen.
Even verduidelijkt. Er stond niet dat het geheugen 300 jaar mee gaat, maar dat het aantal cycles pas na 300 jaar gebruik 'op zijn'. Volgens anandtech begeeft het geheugen het al na een jaar of 10. Met andere woorden, we hoeven ons niet druk te maken om het aantal program/erase cycles.
De enige juiste conclusie Marc. Als dat nu een beetje Common wordt bij SSD's.

Ok, er is wear. Maar in de praktijk nauwelijk te merken.
Een gewone HDD heeft immers ook wear, maar dan qua bewegende onderdelen zoals de lees/schrijfkop. Maar daar hoor je ook niemand over zeuren...
Jawel, er was niet al te lang geleden veel heisa over een laptop settings bug waarbij door agressieve powersaving instellingen de koppen constant geparkeerd werden. Die koppen hebben ook een rating voor het aantal parking cycles, als dat op is krijg je calibratie problemen en zelfs mechanische breuken (metaalmoeheid), beiden betekenen het bekende gekraak bij booten en weg data.

Voor SSD's gelden de optimistische MTBF's voor de behuizing, electronica e.d., niet voor de flash chips. Daar geldt een mijns insziens evenals optimische schatting van de levensduur omdat die uitgaat van vrij licht gebruik. Als je op volle snelheid (200 MB/s voor oncomprimeerbare data voor Vertex 3 Pro op 34 nm) een SSD van 100 GB blijft beschrijven zijn ook bij optimale wear leveling en zeg 28% overprovisioning (128 GiB totaal) de flash cellen na ca. 37 (34 nm, 5000 cycli) resp. 22 dagen (25 nm, 3000 cycli) op. Als we eind dit jaar naar 17/18 nm gaan (1500 cycli) is dat nog maar 11 dagen.

Dat wordt door Sandforce gebaseerde SSD's 'opgelost' door life cycle write throttling, d.w.z. de firmware verlaagt de schrijfsnelheid drastisch zodat je wel de garantieperiode haalt.. Op zo'n moment blijft de controller geen normale schrijfacties toelaten voor enkele uren tot dagen, hoeveel precies is afhankelijk van je laatste schrijf hoeveelheid en firmwarerevisie. OCZ refereert naar deze toestand als 'hammered state', je kan het vrij snel oproepen door een aantal keren achter elkaar CrystalDiskMark op maximale settings te draaien. Voor SF-1200 controller gebaseerde SSD's geldt dat dit verder niet te duiden is, vanaf SF-1500 is er schijnbaar een SMART value die uitgelezen kan worden of je apparaat zich in dit toestand bevindt, dus vermoedelijk ook voor SF-2500. Je weet niet voor hoe lang, of wanneer dit op gaat treden, behalve dat het waarschijnlijker is als je meer dan een paar GB per dag schrijft (licht consument gebruik dus).

Niet echt voor b.v. videobewerking of grafici bedoeld dus. Of film/muziekliefhebbers die hun bibliotheek vaak verversen.

In de toekomst gaat de voortschrijdende miniaturisering dit probleem telkens erger maken, aan het einde van de rit blijven een paar honderd cycli over, zelfs met getruuk als de Anobit fuzz technieken. In sommige STB's van vijf jaar geleden zit nog SLC flash met een rating van 1 miljoen cycli, we zitten nu al op drie ordes van grootte lager terwijl de hoeveelheid data alleen maar toeneemt. 3, 4 enz. bits per cel maken grotere overprovisioning wel iets goedkoper maar brengen geeneens 1 orde van grootte verbetering, terwijl door het gebruikte techniek de levensduur per cel zelfs verlaagd wordt.

Flash heeft voor dynamische opslag gewoon geen toekomst in zijn huidige vorm. Ik denk dat het binnen niet al te lange tijd vervangen moet worden door nieuwe, duurzamere technieken (degene die je hier constant voorbij ziet komen als 'over vijf a tien jaar' :)).
Als je een SSD gebruikt voor windows zorg je ervoor dat de swap niet op deze schijf gebeurd.
De meeste mensen zullen 1 ssd hebben voor het OS etc. en de overige schijven voor data opslag zullen harddisks zijn. Dat betekent dat als je je swapfile niet op je ssd wil zetten hij dus op één van je hd's terecht komt.
En of dat qua performance nou een verstandige keuze is ??
Gewoon lekker swappen.
swap-files, kan je niet gewoon alles in je ram duwen, koop gewoon 4-6 gig extra voor huidige prijzen. lijkt mij dan toch de betere/snellere oplossing dan heb je geen nood meer aan de je swapfiles.
Je moet ook geen swapfile gebruiken maar zorgen dat je voldoende geheugen in je pc hebt.
Als je een SSD gebruikt voor windows zorg je ervoor dat de swap niet op deze schijf gebeurd.
Ik snap die uitspraak niet. Je koopt een supersnelle schijf en dan ga je het meest i/o gevoelige bestand niet op je ssd zetten? Hoe dom is dat?
Júist wel! Als je eenmaal swap nodig hebt, dan is dat meteen de bottleneck voor de snelheid van je PC.

Door daarvoor zo snel mogelijk geheugen te gebruiken, mitigeer je de impact van het swappen. Zoals (uitentreure) vermeld in de reacties, heb je je PC al drie keer vervangen voor een quantumcomputer tegen de tijd dat je SSD kapotgeswapt is.
dow, natuurlijk zet je je swap wel op deze schijf. Swap is juist een van de dingen die je systeem traag maken, daarvoor wil je dus het snelst beschikbare medium hebben.

Denk er eens over an, wat doet een swap, veel random writes en veel random reads, en waar zijn ssd's goed in? inderdaad!

Als het goed is zorgt de controller op de ssd voor wear levelling. Dit betekent dat de writes netjes verdeeld worden oevr de disk. Je OS en filesystems merken hier niets van. Het gebeurt "onderwater".
Swap, tmp-files, cookies en tijdelijke internet-files gaan bij mij alle naar een RAMDrive (QSoft) van anderhalve GB icm OCZ Vertex 2 en Win7.
Bloedsnel en rommel mooi weer weg bij het uitzetten van de PC :)

[Reactie gewijzigd door Gemeijer op 18 februari 2011 12:33]

swap in ramdrive is uitermate stupide.
Het is nogal zinloos om je swap file in een ramdrive te plaatsen... Je kunt namelijk je swapfile gewoon uitschakelen. Daarbij is de default setting voor het swap bestand 1.5x de hoeveelheid ram in je systeem (wat dus per definitie niet past in een ram drive). Op deze manier kan bij een crash een geheugendump worden gemaakt. Swap file in een ramdrive voegt dus helemaal niks meer toe.

Overigens blijf je hyberfile.sys nog wel nodig hebben. Cookies die na een reboot verdwijnen lijkt me ook niet erg practisch.

[Reactie gewijzigd door sdk1985 op 18 februari 2011 13:50]

Al die onozelaars met hun regeltje van 1.5x de hoeveelhgeid geheigen?!?!?

Logisch gezien zou je swap-drive juist moeten verkleinen naarmate je meer RAM geheugen in je PC stopt. Dus als je nu een 1GB systeem hebt met 1.5Gb Swapfile en je stop in die PC 2.5GB RAM (wat dus vertaalt naar 3GB in realiteit) dan heb je GEEN swapfile meer nodig.

Dus al die pipos die dan 3GB RAM hebben gaan ipv hun swapfile te verkleinen (of helemaal weg te doen) juist een supergrote swapfile maken van 5GB? Hoe dom is dat? Dus iemand met 8GB RAM zou een swapfile moeten hebben van 12GB? Dat is toch absurd. Niet moeilijk dat het afsluiten van een PC steeds langer en langer duurt.
Ik krijg meteen een vreemd gevoel bij dit stukje:
Het testexemplaar is verder uitgerust met 32nm-nandflashgeheugen van Toshiba, maar de mainstream Vertex 3-ssd's zullen gebruikmaken van 25nm-geheugen van IMFT.
Vraag me af of je dan dezelfde perikelen gaat zien als met de Verte 2 die ineens 25nm Flash erin had zitten. Zoals de gekelderde performance. Vreemd dat ze een testexemplaar met 34nm Flash maken, terwijl ze van plan zijn om de uiteindelijke versies met 25 nm Flash te gaan maken.
Ben bang dat ze idd hoge ogen proberen te gooien met 32nm review samples, en dan een veel tragere 25nm versie op de markt brengen.
Ik denk dat het wel meevalt. De SF2500-controller is al lange tijd in ontwikkeling. Je moet een firmware maken en dan gebruik je een bepaald type geheugen als uitgangspunt.

Sowieso schijnt het prestatieverschil tussen 25nm en 34nm-geheugen nihil te zijn. Het ligt enkel aan het feit dat de controller anders omspringt met het geheugen, waardoor de ssd langzamer kan zijn. Dit ligt dus niet zozeer aan het geheugen zelf.
Nihil, aha, hoe kom je tot deze conclusie?
Een verschil van +/- 80MB/s tov +/- 25MB/s bij de vertex2 vind ik persoonlijk toch niet nihil. (oncomprimeerbare data)

Ik sluit me daarom volledig aan bij unfor.
Dat ligt aan de controller zoals ik al zei. Niet aan het geheugen...
Tja ik moet het nog zien. Mijn advies is om even de consumer producten en dan met name de CrystalDiskMark of As ssd resultaten af te wachten.

OCZ kiest niet zomaar 34nm geheugen voor hun nieuwe review samples. Ze hebben de boel al eerder bedrogen dus kijk uit!
De Vertex 3 Pro krijgt mogelijkerwijs sneller geheugen dan zijn goedkopere broertje Vertex 3 zonder Pro? Shock! Horror! Hoe kunnen ze! Dit had niemand verwacht!

Conclusies trekken over een consumer lijn op basis van de prestaties van de bijbehorende Pro lijn is nooit verstandig.
ziet er goed uit, ben ook van plan om een SSD te gaan halen, zijn zeker wel duur maar ook zijn geld echt waard :)

Alleen nog even wachten totdat ze een beetje betaalbaar worden.
De prijs/GB is nog veels te hoog.

[Reactie gewijzigd door stylzzzz op 18 februari 2011 08:58]

Hou er aub rekening mee dat de levensduur van SSD's veel korter is (maar een beperkt aantal schrijf-acties mogelijk). Veel mensen weten dit niet en kopen er een voor opslag.
Nog altijd een beetje een broodje aap verhaal helaas.

In de praktijk al nauwelijks een issue. Trouewns, als je hem voor opslag gebruikt zijn je read-writes sowieso een flinke factor lager dan een boot- of programmadisk. De tijd die het duurt voordat je er iets van merkt loopt ver over de verwachte gebruikstijd van de schijf.

http://www.storagesearch.com/ssdmyths-endurance.html
Nog altijd een beetje een broodje aap verhaal helaas.
Niet zozeer "nog altijd", als wel "al lang", ...gelukkig! Voor de rest niets op aan te merken, typo's daargelaten ;-)
Dank u voor de correctie. Goede informatie is belangrijk! :)
Als je de moeite neemt om blz 2 van het artikel van Anand te lezen, ontdek je dat bij het schrijven van 7GB per dag, de 10.000 cycles pas na 986 JAAR opgebruikt zijn. Natuurlijk gaat dat uit van een aantal theoretische aannames, maar het idee is duidelijk. HDD's hebben ook een MTBF. Voor beide soorten is dit in de praktijk een non-issue.
Voor beide soorten is dit in de praktijk een non-issue.
Nouja, een MTBF is misschien een non-issue, maar als hij toevallig op jouw schijf toeslaat is het in het geval van schijfjes-opslag wel vervelend (gelukkig heb je dan je backup van het weekeind daarvoor nog, maar toch..)

Bij een SSD is het verloop veel gradueler op het moment dat het optreedt en zou je niet ineens nergens meer bij kunnen.
bij een SSD ben je je data niet kwijt, je kunt altijd nog lezen, echter beschrijven van een
"versleten" cell werkt niet meer.
Allemaal leuk en aardig, maar ik heb al 2x een OCZ Solid 2 30GB SSD defect retour kunnen sturen wegens een controller die ermee ophield. In beide gevallen hetzelfde probleem, BIOS zag de hele schijf gewoon niet meer van de ene dag op de andere. Andere PC, Windows, Linux, maakte allemaal niets meer uit, ding was gewoon dood. Het flashgeheugen kon dus nog (zeer) lang mee, maar daar heb je dan niets aan. In beide gevallen is het defect bevestigd en heb ik de dagwaarde na een maand teruggekregen, dit laatste omdat wel direct een vervangende SSD nodig was.

Let er dus op dat niet alleen de flash chips voor problemen kunnen zorgen, het kan met een SSD ook op een andere manier misgaan en dan nog zonder waarschuwing ook. Er waren gelukkig backups van de data en een image van de programmatuur voorhanden, maar het geeft toch geen fijn gevoel. In mijn server zitten voor de root schijf dan nu ook twee SSD's in RAID1, mede naar aanleiding van deze ervaring.
Wil je weten hoeveel hdd's met platters ik gezien heb die kapot gingen waarbij het geen magnetisch effect betrof? Dus geen bad sectors, maar net zo dood als jij hier omschrijft. :)

De kans op een dergelijk probleem is bij magnetische schijven, veel groter. Daar zit nl. bijv. nog een electro motor in die het kan begeven, naast mogelijk dezelfde problemen met controllers/pcb.
Mijn OCZ Vertex 60 Gb is nu ook retour, 1.5 jaar oud, amper gebruikt in test pc, werd ook niet meer herkent in de bios van alle systemen
Mijn OCZ Vertex 2 90GB was na 9 dagen gebruik al overleden. Gewoon helemaal dood, niet meer in de bios zichtbaar, niet meer extern uit te lezen. Al tientallen traditionele schijven onder handen gehad maar zo een snelle en vooral definitieve dood nog nooit meegemaakt. Back-ups blijven dus onveranderd belangrijk. Natuurlijk netjes een nieuwe gehad.

[Reactie gewijzigd door Malarky op 19 februari 2011 02:15]

Wat dat betreft moet je sowieso nooit vertrouwen op electronica en al helemaal niet op een harddisk of SSD.

Goedkoper of betaalbare made in China producten waar SSD's van 200 euro onder vallen worden sowieso niet kwalitatief gebouwd en kunnen ook door gebrek aan kwaliteit de geest geven en niet zozeer door slijtage van het flashgeheugen.

Ik kan je uit eigen ervaring vertellen dat er gewoon soms tot 90% uitval is bij harde schijven, bij SD kaarten die vaak heel simpel in elkaar zitten krijg je zelfs defecten puur omdat het betaalbaar moet zijn en er dus op kwaliteit en robuustheid wordt gekort en er ook niet wordt getest.
Voor opslag gaat zo'n ding juist langer mee dan een normale HDD. Je besturingssysteem zet er steeds tijdelijke bestanden op en gebruikt em als scratch / swap disk. En dat is wel oké, want dat gaat namelijk lekker snel.

Als je er een sloot mp3 files op zet, dan gooi je die over het algemeen niet iedere 5 minuten er weer af voor een nieuwe lading. Die laat je juist maanden zo niet jaren staan. Dan gaat je SSD vrijwel eeuwig mee.
Nooit er vanuit gaan dat je data eeuwig blijft staan ;)
Op een flash chip wordt een spanningsverschil gezet. het zou me niets verbazen moest dat dat na een tijd (x aantal jaar) gewoon weglekken. Je SSD is dan natuurlijk niet stuk maar je data is wel weg.
Lees het artikel op Anandtech eens, zou ik zeggen. Daar wordt uitgelegd hoe dit zit, en waarom dit nou net geen issue is.
je moet er ook niet naar kijken alsof het een normale harddisk is, een normale harddisk is voor opslag.. maar ik zie SSD's meer voor performance voor je bootdisk en misschien games.

ik vind het wel terecht dat de prijzen per GB duurder zijn.. omdat ze helemaal niet gericht zijn op opslag.
Qua prestatie ten opzichte van normale HDD's is het zeker de meerprijs waard. Programma's installeren is gewoon grappig zo snel als het met een SSD gaat.

edit typfout

[Reactie gewijzigd door Smilezz op 18 februari 2011 09:26]

Helaas went het ook enorm snel waardoor de 'rest van de wereld' enorm traag lijkt. Programma's als Photoshop starten lekker snel op (3 sec), maar draai je het op een pc zonder ssd lijkt het wel een eeuwigheid. Nog erger is mijn hogeschool, daar duurt het om in te loggen alleen al meer dan een minuut of twee.

Ofwel de wow factor van de snelheid gaat snel weg, dan valt alleen maar de traagheid van andere systemen op.
Dat heet nou een luxe probleem.
Een onvermijdelijk euvel, echter van geen enkele invloed op de bruikbaarheid.
Wat mag ik verwachten als het gaat om de uiteindelijk retail prijs ?
prijzen staan gewoon in het artikel:

100GB: $ 525.00
200GB: $ 775.00
400GB: $ 1350.00
Jammer dat de cijfers voor de server variant zijn.
De snelheid voor consumenten zal dus lager uitvallen.

Dus, vraagje. Kun je ook server ssd's in een consumenten pc steken? of past dat niet.
Yep, dat past prima... server variant betekend niet meer en minder dan dat het aan hogere kwaliteits eisen voldoet... Maar is gewoon een SATA 600 interface dus leef je uit.
Zelf gebruik ik meestal server componenten in mijn pc.. Areca raid controller, WD RE schijven etc... wel iets duurder maar heb ook nooit problemen.
Er zijn wel degelijk verschillen tussen Consumenten versie en de Server versie.

Server versie gebruikt de duurdere SLC en een MTBF: 10 miljoen uur , waar de Consumenten versie MLC gebruikt met een MTBF: 2 miljoen uur.

Maar naast de levens duur die min of meer nvt is voor thuis gebruik, is SLC is een redelijk stuk rapper tegen over MLC in sommige scenarios, maar over het algemeen is er in gebruik niet extreem veel verschil.
SLC vs MLC is niet bij iedere fabrikant en serie het geval, Sandforce-based server drives waaronder deze zijn gewoon gebaseerd op MLC, meestal zelfs lagere kwaliteit MLC dan andere drives omdat de controller daarop is ingespeeld.

MTBF verschilt meestal wel, maar lang niet altijd met een factor 5.

Een groter verschil tussen server en consumenten drives is bijvoorbeeld de TLER functie bij RE drives, hoewel dat meer specifiek is een functie die ervoor zorgt dat deze drives in een hardware-raid kunnen functioneren, en daarbuiten minder goed werken dan gewone consumer drives. Het heet niet voor niks Raid Edition.
Dat is niet per definitie waar. Deze schijf bv bevat gewoon MLC en eerder was er ook al een bericht over andere server SSDs die gewoon MLC kregen.
SLC is leuk maar is erg duur omdat je er grofweg gezegd twee keer zoveel geheugen in moet duwen om dezelfde capaciteit te krijgen.
2 miljoen uur, met zo'n 8000 uur per jaar, is best een lange tijd voor MTBF :)
Offtopic ik heb ook die WD RE schijven in mijn thuis server zitten.
Ze zijn beiden gecrashed na 3 jaar hoe zijn jouw ervaringen?
Het pást wel, maar of het nog lang mág is maar de vraag, zie PS3: die is immers bedoeld als speelgoed, en het is niet de bedoeling dat je hem als supercomputer inzet.
Dat is juist precies andersom, een consumentenproduct inzetten als server product.

Overigens lijkt het mij vreemd als het ineens niet meer zou mogen, er zijn zat bedrijven die consumenten hardware gebruiken voor (kleine) services.
Overigens is dit al wel zo met internet providers, als je op een bedrijventerrein zit mag je geen consumenten internet aanvragen.

Affijn, het lijkt mij in elk geval een leuk iets voor een stabiele PC, zeker moederborden, heb je al die overclock dit en super bios dat niet. Moet ie natuurlijk wel Gewoon RAM ondersteunen, anders word het wel duur :P
Waar haal je die onzin vandaan? Heb 10-tallen klanten op industrie terreinen met consumenten ADSL abo's. Die zakelijke voegen simpelweg geen reet toe (zolang je een ISP hebt die niet op tcp/25 filtert e.d. tenminste). SLA is leuk, maar als het er uit ligt, ligt het er toch uit en van die 3 euro per dag die je terug krijgt wordt je ook niet wijzer. Ook overboeking is voor de meeste bedrijven geen probleem, zolang het niet hoeft te functioneren als VPN lijn waar VoIP over heen moet e.d.

En niet meer zou mogen? Wie gaat bepalen wat ik met MIJN hardware doe? Dat de fabrikant er geen ondersteuning op geeft is een ander verhaal.

En waar gaat die laatste alinea in godsnaam over? Een SATA interface is een SATA interface... Je lijkt in de veronderstelling te zijn dat dit alleen op server mobo's werkt ofzo.
precies mijn gedachten DCG909. Jammer dat deze test met de server variant is gedaan. Die variant is waarschijnlijk niet te betalen voor de gemiddelde consument.

Ook ben ik benieuwd naar de gevolgen van het nieuwe productieproces van 25nm, want de laatste berichten die ik daar over heb gelezen m.b.t. OCZ SSD's is dat de schijven daardoor een pak trager waren geworden.
Ja lijkt mij ook een hele mooie vervang voor mijn 2x OCZ Vertex 30GB in Raid0.

In ATTO Disk Benchmark, gaat hij:

Schrijven: ruim 500MB/s
Lezen: Ruim 500MB/s

Dat zijn nog is snelheden, niet normaal man en dat voor 1 SSD.


Je vind een hele mooie Review ook op Guru3D

[Reactie gewijzigd door AmigaWolf op 18 februari 2011 09:14]

ATTO benchmark heb je niks aan bij een vertex omdat deze de data comprimeerd. Atto is een oude benchmark gemaakt voor hdd's en gebruikt 100% comprimeerbare data.

Betere test is via AS SSD Benchmark of CrystalDiskMark.
Ik weet niet waar jij het over heb maar ATTO Disk Benchmark is helemaal niet oud, de laatste ATTO Disk Benchmark 2.46 komt uit 2010, en ATTO Disk Benchmark werkt bij mij en bij de Review sites altijd goed, krijg altijd de zelfde uitslag, en met AS SSD Benchmark of CrystalDiskMark krijg ik altijd een andere uitslag als ik hem weer opnieuw start.


Ja ATTO Disk Benchmark 2.46 vind ik en een hoop Review sites de beste.
ATTO benchmark heb je niks aan bij een vertex omdat deze de data comprimeerd. Atto is een oude benchmark gemaakt voor hdd's en gebruikt 100% comprimeerbare data.

Betere test is via AS SSD Benchmark of CrystalDiskMark.
Enkel de Vertex 2 comprimeert omdat die een SF controller heeft. De eerste vertex heeft een Indilinx controller en comprimeert geen data.

Maar met sequentiele snelheden patsen is inderdaad nutteloos bij SSD's, wat belangrijk is, is random i/o.
Nog enkele reviews voor de lijst:
PCPer
HotHardware
Legit Reviews
Wat ik niet snap zijn dit nou MegaBytes of MegaBits? Ik heb soms het idee dat de afkortingen MB / MBit door elkaar gehaald worden... Met mijn HDD schrijf ik namelijk gemiddeld met 40 tot 70 Megabyte per seconden (zo even uit mijn hoofd), 500 is wel erg veel dan...
Het is ook echt veel... 500MB/s klopt. Ze moeten opschieten met de volgende ATA spec ;).
Beroerdste review ooit. Geen enkele echte benchmark. Enkel PCMark Vantage komt nog in de buurt van echt gebruik, maar die benchmark laat een ssd amper zweten.

Niet te vergelijken met anandtech's review. En hopelijk ook niet met onze eigen ssd-reviews die eraan komen.
Ik wil niet vervelend doen maar Anandtech weet heus wel wat ze doen hoor, ze zijn een hele goede Review Site, maar jij weet het natuurlijk beter dan hun.
Marc doelt op de review van Guru3D. Daarin worden wel veel benchmaks gedraaid, maar veel van die tests doen hetzelfde (de toegangstijd en de snelheid in puur sequentiële of juist volledige willekeurige I/O meten). Leuke informatie maar een beetje loos om met vijf verschillende tools te meten. Anand pakt het inderdaad wel serieus aan.
Jammer dat ze zo'n idealistisch getal noemen van 300 jaar. Ook al zouden de componenten het individueel wel aankunnen. In een combinatie van al deze onderdelen is er altijd wel een onderdeel wat het begeeft.

De meeste elektronica producten gaan met +/- 10 jaar kapot of mankementen vertonen.

offtopic:
Je krijgt bij je geboorte een HD, en die gaat na 80 jaar ook weer mee je kist in
Dat wordt toch ook vermeld in het artikel... het geheugen 300 jaar maar de SSD als geheel veel korter.

offtopic:
Je krijgt bij je geboorte een HD, en die gaat na 80 jaar ook weer mee je kist in

Ik snap de humor niet helemaal maar goed.

[Reactie gewijzigd door johnkessels87 op 18 februari 2011 09:25]

De meeste elektronica producten gaan met +/- 10 jaar kapot of mankementen vertonen.
Ja, inderdaad... Mijn (dagelijkse) laptop is nu 11 jaar oud, en die begint mankementen te vertonen (breuk in behuizing). Voor de rest nog niet veel op aan te merken, maar ik ben wel op pad voor een vervanging van de 20G ("fluid" ;-) ) HDD. Vooral vanwege het lawaai dat die oude disk maakt ondertussen...

offtopic:
Je krijgt bij je geboorte een HD, en die gaat na 80 jaar ook weer mee je kist in

[/quote]
De meeste mensen die ik ken(de) gaan(ingen) gelukkig langer mee dan dat. Het zou wel leuk zijn als de (digitale) foto's van mijn kinderen nog minstens de kwaliteit hebben van de kinderfoto's van bijvoorbeeld m'n opa en oma. Op een aantal van die foto's zitten koffiekringen of krassen, en er zijn scheuren en waterschade, maar de foto's zijn nog wel lees- en toonbaar!

Als het medium waarop de foto's van mijn kinderen opgeslagen zijn, nog werkt over 80 jaar en ook nog uit te lezen is, is dat al heel wat ;-)
"Mijn (dagelijkse) laptop is nu 11 jaar oud, en die begint mankementen te vertonen (breuk in behuizing). Voor de rest nog niet veel op aan te merken"

Wees blij na 11 jaar! Zoiets noemen ze slijtage... Wat is het probleem dan?
De meeste laptops zijn na 5 jaar toch wel end of life hoor.
Een HDD die het 11 jaar volhoudt is ook best bijzonder. Wat te denken van de accu...
Het zou leuk zijn om te weten of deze professionele drive professioneel SLC of toch het goedkopere MLC geheugen bevat en in welke groottes hij verwacht wordt.
Het is in ieder geval mlc-geheugen dat gebruikt wordt. Voor de rest kun je het 10+ pagina tellende artikel gaan lezen op anandtech :)
Ik kijk toch met gemengde gevoelens naar die levensduur. Ik ga mijn SSD gebruiken voor het OS, programma's, downloads en parren. Na het parren wordt uitgepakt op een storage hdd. Naar schatting wordt gemiddeld per maand door usenet downloads ongeveer 1TB beschreven (heel ruim genomen). Als de disc fouten gaat vertonen bij 300TB (100GB eff. ruimte x 3.000 cycles), dan ben ik na 300 maanden = 25 jaar toe aan een nieuwe. Klopt deze berekening een beetje?

Ow, en nog iets....krijgt de consumentenversie van de Vertex 3 standaard een supercapacitor? Daarmee kan corrupte data door stroomuitval voorkomen worden.

[Reactie gewijzigd door -Moondust- op 18 februari 2011 12:07]

"On the bottom left is the large Cap-XX HZ202 super-capacitor that ensures that all writes are completed in the event of power interruption. Since this is an enterprise (i.e. server) class product, the stakes are a lot higher in terms of data integrity so having this feature adds an extra layer of protection although certainly will also add to the price. Note the OCZ branded PCB that is manufactured by them and not by a third party." http://www.legitreviews.com/article/1547/2/

Dus het lijkt mij dat de supercapacitor alleen op de enterprise versie zit.
Ik hoop dat de consumentenversies ook een supercap krijgen. Ik had gehoord van iemand dat dat met ingang van de 3e generatie tamelijk standaard zou zijn.
quote: Daarmee kan corrupte data door stroomuitval voorkomen worden.

Mjahhh, dan kan hij dus nog zijn buffer wegschrijven (voor zover hij die heeft) voordat hij uitknalt ?

Bij stroomuitval gaat hij echt niet de rest van je pc voeden dus die is dan zowiezo op zijn gat.... als dat gebeurt terwijl je een bestand aan het wegschrijven bent dan is dat bestand toch al half af / weg / gaar / corrupt...... enkel eventuele data in een eventuele buffer van de hd zelf ga je daar mee redden.....

Je RAM banken zijn dan al gewist/leeg en een hibernate/ cache file ofzoiets heb je niet dus wordt zowiezo een complete restart..... weg is weg.....

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True