Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 36 reacties
Submitter: abusimbal

Kingston heeft zijn assortiment SSDNow-drives uitgebreid met de SSDNOW V+-serie. Deze solid state disks zouden, dankzij het gebruik van een Samsung-controller, beter presteren dan de reguliere SSDNow-drives.

De V+-familie bestaat vooralsnog uit drie solid state disks, met capaciteiten van respectievelijk 64GB, 128GB en 256GB. De drives, die in een 2,5"-behuizing worden geleverd, beschikken over een sata300-interface. De website The Tech Report meldt dat Kingston controllers van Samsung gebruikt om het mlc-nandgeheugen aan te sturen. Deze vrij nieuwe controllers worden onder meer gebruikt in Samsungs eigen ssd's, maar ook in de Summit-serie van OCZ en in Mushkins Europa III-drives. Het is niet bekend of de controller wordt bijgestaan door een cache-geheugen.

De V+-drives van Kingston beloven alledrie een sequentiële leessnelheid van 220MB/s, terwijl de sequentiële schrijfsnelheden variëren al naar gelang de capaciteit van de ssd's: de 64GB-drive schrijft met maximaal 140MB/s, voor de 128GB-versie is dat 170MB/s en de 256GB-ssd spant de kroon met 180MB/s. De kleinste drive zou een adviesprijs van ongeveer 180 euro krijgen en per direct verkrijgbaar zijn. De 128GB- en 256GB-edities zullen vanaf september beschikbaar zijn en voor respectievelijk circa 350 euro en 700 euro over de toonbank gaan. Kingston geeft drie jaar garantie op de drives.

Kingston SSDNow V+
Moderatie-faq Wijzig weergave

Reacties (36)

Ik vraag mij af of in die drie jaar garantie ook dataverlies vervat zit. Voor de meeste systemen zal een SSD zijn levensduur wel voldoende lang zijn, maar als je een zeer intensieve I/O systeem hebt kan het wel eens zijn dat die cellen op drie jaar versleten zijn.

Een kleine berekening:
Als we er van uit gaan dat je zo een celletje een miljoen keer kan schrijven en dat de hele SSD vol staat. Drie jaar is ongeveer duizend dagen, dus één miljoen schrijfoperaties gedeeld door duizend dagen geeft duizend schrijfbewerkingen per dag. De kleinste schijf is 64GB, dus 64000GB I/O per dag (enkel schrijfbewerkingen geteld). Een dag telt 86400 seconden, zodat de gemiddelde doorvoersnelheid uitkomt op: 0.74GB/s oftewel een slordige 750MB/s.
Deze snelheid ligt ver boven de gespecifieerde sequentiële snelheid, dus nee het is niet mogelijk je cellen kapot te schrijven op drie jaar tijd.
Jawel want je berekening houd enkel in rekening dat iedere schrijfactie op een andere cel gebeurt terwijl je moet rekening houden dat een cel 4KB groot is meestal. En dat cellen die eenmaal zijn gebruikt veel gemakkelijker terug op nieuw worden gebruikt.

Hiermee rekening houdend is het heel goed mogelijk dat 10% van je cellen voor dat de 3 jaar om zijn MOGELIJK al beschadigd en onbruikbaar zijn. Zeker met oudere filesystemen die geen rekening houden met SSD's levensduur.

Geef mij nog altijd maar gewone hardeschijven. 1/10 van de prijs en de beste halen dezelfde snelheid als de SSDs.
Om dit te voorkomen hebben de SSD fabrikanten Wear Leveling geïmplementeerd.

Dus de bedoeling is wel degelijk dat schrijfacties gelijkmatig verdeeld worden over de beschikbare (vrije) blokken.

Waar dit niet werkt zijn de blokken waarin data staat die nooit verandert.

[edit]
Het zou wel mooi zijn als de SSD zelf een blok als onbruikbaar markeert na X schrijfacties. Zo hoef je je SSD niet weg te gooien als er maar een paar cellen 'op' zijn.

Moet je dan wel op een niveau hoger doen, omdat je anders per byte opslag meer dan een byte metadata hebt...

[Reactie gewijzigd door Titusvh op 11 augustus 2009 16:06]

Jawel want je berekening houd enkel in rekening dat iedere schrijfactie op een andere cel gebeurt terwijl je moet rekening houden dat een cel 4KB groot is meestal. En dat cellen die eenmaal zijn gebruikt veel gemakkelijker terug op nieuw worden gebruikt.

Hiermee rekening houdend is het heel goed mogelijk dat 10% van je cellen voor dat de 3 jaar om zijn MOGELIJK al beschadigd en onbruikbaar zijn. Zeker met oudere filesystemen die geen rekening houden met SSD's levensduur.
Ik hou er inderdaad rekening mee dat alle cellen gemiddeld gezien evenveel beschreven werden. Blijkbaar is dit in de praktijk niet zo dan? Ik dacht dat de firmware van de SSD zelf hier rekening mee hield? Blijkbaar ligt deze taak dus bij het FS? Volgens mij biedt geen van de huidige gangbare FS'n (voor Windows) ondersteuning om alle cellen evenveel te gebruiken. Ze zijn allemaal ontwikkeld in de tijd dat er van SSD nog geen sprake was.
De SSD controller zelf "husselt" de sectoren rond, en beschijft ze in een soort round-robin schema, zodat ze allemaal ongeveer even vaak aan bod komen.

Dus zo'n beetje als volgt:
lees sector 0, schrijf sector 0 wordt geimplementeerd als:
lees sector 0, die staat in cell nummer 1000.
schrijf naar cell 1001 en vul in dat sector 0 nu op 1001 staat.
1000 kan nu gewist worden, wordt niet meer gebruikt.

Het "wissen" van cellen duurt langer dan het schrijven. Je zou het zo kunnen zien: Bitjes op 1 zetten kost meer moeite dan ze op 0 zetten. Er draait dus een soort eraser process die de gebruikte cellen wist.

Als je een SSD drive achter elkaar door helemaal vol schrijft, dan wordt hij trager. Dat komt omdat je dan de eraser inhaalt, en je moet dan wachten tot hij weer wat sectoren heeft kunnen wissen.

Biedt ook interessante un-erase potentie: Als je een file in een SSD overschrijft met nullen is dat een zinloze bezigheid. Die nullen komen toch op een andere plek terecht dan waar je data stond (en nog blijft staan tot de eraser langs is geweest)!
Zou een OS bij een percentage kapotte cellen dan ook minder capaciteit aangeven? Of komt de capaciteit die het OS meldt gewoon uit de firmware en niet uit een optelsom van onbeschadigde cellen?
Normaal gesproken is een bepaald percentage extra geheugen geplaatst om kapotte cellen op te vangen.
De capaciteit laten afnemen is geen optie, immers zou dan je OS helemaal dol gaan als opeens je partitie 1mb kleiner is enz.

Geen idee wat het percentage is, dat zal ook per controler/fabrikant verschillen denk ik.

Ook weer een voordeel van SSD. Een rotte cluster op je harddisk kan je theoretisch wel laten markeren, maar de schijf is in de praktijk totaal niet meer bruikbaar. Een SSD met kapotte cellen is natuurlijk ook niet echt betrouwbaar, maar imho een stuk beter bruikbaar tot hij vervangen is dan een conventionele disk.
Dat is normaliter inderdaad een van de taken van de controller. Het filesystem kan uiteraard wel een handje helpen door data te groeperen in dezelfde blokken als de onderliggende ssd gebruikt etc.
Geef mij nog altijd maar gewone hardeschijven. 1/10 van de prijs en de beste halen dezelfde snelheid als de SSDs.
Ok, geef mij maar eens een normale harddisk die een access time heeft van minder dan 0.01 milliseconden, daar waar de SSD echt winst haalt.

Een harddisk heeft zeerzeker geen gelijkwaardige performance aan een SSD schijf.
€0.06/GB versus €2.4/GB (x25-m/vertex/p256), dus 1/40 van de prijs ipv 1/10. Voor heel veel mensen is het nog altijd interessanter om enkele hdd's in een raid te zetten dan al een SSD te gaan kopen. Enkel als de zoektijd belangrijk genoeg is of je geen plaats hebt voor meerdere schijven, is het een goeie optie.
Ik vraag mij af of in die drie jaar garantie ook dataverlies vervat zit.
En wat heeft dat voor zin? Alsof je je data daarmee terug krijgt als er verlies optreed.

Altijd backup paraat hebben, liefst op een compleet andere locatie.
Het nut is natuurlijk dat je dan een nieuwe schijf krijgt als deze binnen 3 jaar dataverlies krijgt door teveel schrijfacties. :)
Maar die schijf krijg je sowieso al door je garantie. De garantie op data is een gebruiker die backups neemt. Iedereen overzetten op Vista/Win7 of WHS en dankzij een automatisch ingestelde backup mag je het volledig vergeten. Zou zoveel makkelijker zijn als je bij mensen langsgaat.
nl2dav's vraag was nu juist of een door veel schrijven 'versleten' schijf wel een garantiegeval is. Ik denk eerlijk gezegd van niet. Net zo min als een (consumenten)stofzuiger waarvan de motor versleten is na 1 jaar omdat je hem 24/7 zwaar werk laat doen een garantiegeval is.
Want als hij vol is dan schrijft hij de files iedere keer in een ander cell deel? Denk het niet. Sterker nog, SSD werkt met segmenten van 512KB (of was het 128?). In ieder geval, een text bestandje van 16KB zal over het hele segment van 512KB een schrijfactie doen. (Lees: Uitlezen naar buffer, deleten, wegschrijven).

Zeker naarmate je SSD voller wordt, is dit een standaard actie.
De segmenten zijn 512KB en worden in blokken van 4KB gevuld totdat die vol is. Hierna wordt een ander segment van 512KB genomen om te vullen. Zodra een "sector" opnieuw wordt beschreven dan wordt dat het eerst volgende blok van 4KB aangesproken en het oude blok wordt al "leeg" gemarkeerd. Als alle 4KB blokken van een segment als "leeg" zijn gemarkeerd dan kan het segment van 512KB wordt gewist zodat deze weer kan worden gebruikt.

Dit is een reden waarom een gedeelte van de disk niet kan worden aangesproken zodat de disk voldoende segmenten heeft daadwerkelijk om blokken te wissen en schrijfacties te kunnen doen. Ook om bij nieuwe firmware automatisch segmenten te "schonen". Gelukkig is er weinig verandert de laatste 20 jaar toen dit ook al speelde met eeproms.
MLC Flash cellen kunnen bij mijn weten slechts 1000 to 10.000 maal beschreven worden en geen miljoen maal. Zelfs SLC Flash cellen kunnen maar een 100.000 write-cycles aan.
De eerste grote gok is het aantal keren dat je een cel kan beschrijven.

Het meest gangbare is MLC, en die zijn 10.000 keer te beschrijven.

Zie kopje "mlc en slc" in dit GOT topic.

Voelt als angstig weinig. Dat ze daar zolang garantie op durven te geven...
Het betekent dat je in de levensduur van de schijf ongeveer 10k*capaciteit mag schrijven, dus voor een 128Ger is dat 1280 terabyte. Dat is verdomd veel writes, zelfs met een swapfile en 4GB hibernate file ga je daar moeite mee hebben.
De voordelen betreft de acces-tijden versus prijs vind ik nog al aan de dure kant om daarvoor m'n Windows-bakkie om te gooien, maar voor bijvoorbeeld een SQL-server zou het een behoorlijke verbetering zijn (enkel voor de datafiles dan) en daar maak je zoiezo een backup van.
voor een database server heb je nog liever dat alle data mooi in RAM blijft, en dan heb je aan je snelle SSD'tje niets.

In desktop/workstation situaties levert een SSD daarentegen een leuke winst: opstarten van programma's/operating system gaat plots 4x zo snel (tegenover een doorsnee hdd), defragmentatie heb je niet meer nodig en het kopiëren van bestanden gaat ook een heel stuk vlotter, ook op één disk. Kortom: een bealngrijke bottleneck word weggewerkt, en dat merk je in de algehele prestates van je pc :)
Deze strategie gaat tegen je werken op het moment dat je op een NUMA-systeem draait. Je wilt eigenlijk alleen de index-pages in RAM hebben en wat pages die je vaak moet ophalen. Dit om zo alleen het geheugen te gebruiken wat achter de processor ligt waar je job draait. Anders moet je calls maken om geheugen te benaderen wat achter een andere processor ligt en die calls zijn vrij duur.
Ehm met een mlc lees snelheid van 220MB/s en een zelfde controller als op de Samsung en OCZ drives etc, kan het eigenlijk niet anders dan dat ook hier cache geheugen op de drive zit. Kijkend naar de andere drives gok ik gewoon maar even 32MB omdat er te weinig echt verschil zit tussen deze drive en de concurrenten met een zelfde controller. Met nog meer cache zou de snelheid niet heel erg veel hoger komen te liggen er zal heus wel iets meer snelheid mogelijk zijn maar uit eindelijk kun je maar zo veel cachen en geeft meer geheugen alleen maar een lagere cache hit ratio terwijl de snelheid nauwelijks beïnvloed zal worden.
Natuurlijk heeft hij cache. Zonder cache kan hij niet met de ATA controller overweg.
voor die prijzen gaan ze hem niet kwijtraken, Intel heeft op het moment de hele markt bij de ballen met de 80GB postville voor 190 euro. Ik zie niet waarom er ook maar iemand voor deze SSD zou willen kiezen.

Als ze ergens rond de 150 euro gaan zitten wordt het weer interessant.

[Reactie gewijzigd door Xtrafris op 11 augustus 2009 13:03]

Stap even over de hele OCZ Vertex series heen..
Intel hun schijfjes zijn aan de kleine kant voor veeleisende gebruikers. Zelfs 4x 160GB kom ik niet toe dus ik vond het spijtig dat hun 320GB er niet is bijgekomen.
80 GB voor OS + apps installaties is toch ruim voldoende?

Ik zie het er het nut niet van in om ook je data op een SSD op te slaan.
Deze Kingston V+ ssd zou dus nauwelijks sneller moeten zijn dan de OCZ Summit of de ssd's van Samsung zelf.
De Summit is al even te koop en wordt door verschillende Tweakers gebruikt, maar ik heb er geen bijster spannende verhalen van gehoord.

Als je een ssd koopt, zijn de OCZ Vertex en Intel X25-M (G2's) een betere keuze, naar mijn mening.
Zeker nu OCZ op zeer korte termijn sterk verbeterde firmware voor de Vertex-serie gaat publiceren!

Kom gezellig mee discusseren op Het grote SSD topic ~ Deel 4!
Hiervoor wordt geen SSD gebruikt, data zet je op een HDD en software op een SSD.
Dat hangt uiteraard van je data en doel af. Soms wil je juist dat die data zo snel mogelijk willekeurig toegankelijk is, terwijl je niet genoeg ram-geheugen (of geld daarvoor) hebt om de boel daarin te houden.
In zo'n geval zijn SSD's soms best een uitkomst, vroeger werd dat nog wel eens opgelost door een enorme hoeveelheid harde schijven te combineren zodat die allemaal met slechts een klein stukje van hun platters hoeven te werken.
Ja sorry dat ik het zeg maar echt vooruitgang zit er niet in de SSD's de laatste tijd. De capaciteiten gaan niet omhoog, het is steeds 64, 128, en 256. Waarbij je voor de 128 al 350 € kwijt bent...tja ik had eigelijk verwacht dat er stappen gemaakt gingen worden naar 256/512/1024 en dan dezelfde prijsstelling..Maar dat is blijkbaar toch een proces dat jaren duurt.
Een verviervoudiging gaat zelfs met de wet van Moore gewoon 4 jaar overheen, en dan moet je nog maar hopen dat het zo snel gaat. We kunnen nu eenmaal niet met ons magische toverstokje zwaaien om die capaciteiten te realiseren.
Ben dan toch benieuwd. Als het dezelfde controller is als de OCZ summit dan kan het nooit een goede SSD zijn.
Mijn systeem:

OCZ Vertex SATA II 30GB
Linux/Ubuntu 9.04 systeem disk
Start lekker snel op, 12 seconden. En uit in ong. 3 seconden
En 1x 500gb Samsung spinpoint datadisk
En 1x 500gb Samsung spinpoint backupdisk

Heerlijk, al die hebbedingetjes die op ons afkomen :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True