Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 20, views: 8.986 •

De Storage-divisie van Toshiba heeft drie series solid state drives voor de zakelijke markt uitgebracht. De nieuwe drives, drie PX02-varianten, zijn bedoeld voor servers en worden met 24nm- of 19nm-flashgeheugen geproduceerd.

De instaplijn van de drie series PX02-ssd's bestaat uit de PX02AM-ssd's, die zijn uitgerust met 24nm-flashheugen dat uit enterprise-mlc-chips is gebouwd. De sata-600-drives worden geleverd in capaciteiten van 100GB, 200GB of 400GB en zouden allrounders moeten zijn in een 7mm hoge verpakking. De eveneens met 24nm-emlc-chips gebouwde PX02SM-serie is volgens Toshiba bedoeld voor veeleisende serverapplicaties. De SM-serie is dan ook uitgerust met een dubbele sas-interface voor overdrachtsnelheden tot 12Gbps en de drives zijn in capaciteiten van 200GB, 400GB, 800GB en 1,6TB verkrijgbaar.

De derde serie PX03-ssd's, de PX03AN-serie, wordt met flashgeheugen dat volgens een kleiner procedé gemaakt wordt uitgerust. Het 19nm-flashgeheugen is consumenten-mlc-geheugen, maar zou desondanks bedoeld zijn voor lees-intensieve taken of als opstartschijven. De drives worden beschikbaar in capaciteiten van 55GB, 120GB, 240GB of 480GB en hebben een sata-600-interface. De drives komen in het laatste kwartaal van dit jaar op de markt, maar prijzen zijn nog niet bekend.

Toshiba ssd's

Reacties (20)

Ergens wel typisch dat er geen slc geheugen gebruikt wordt in deze apparaten... Naar mijn weten zou dat toch een hoop meer schrijfcycli moeten kunnen doorstaan dan mlc geheugen. Er wordt wel gezegd dat dit mlc geheugen geschikt zou zijn voor schrijfintensieve taken, maar dat is dus ook maar afwachten...
Ben zelf ook nog steeds erg sceptisch over de duurzaamheid van SSD's. Ik durf er nog geen belangrijke data op te zetten in ieder geval.

In hun PDF staat een levensduur (zo staat het in de pdf ... levensduur) van 5 jaar en bij de andere twee van 3 jaar. Dat lijkt me echt ontzettend kort! Bovendien kan ik zo snel ook niet vinden wat voor controller er gebruikt wordt.
Jammer dat iedereen zich druk maakt om irrelevante zaken. Zo is de 'write endurance' van SSDs voorspelbaar. Je kunt zeggen dat met het huidige verbruik van X gigabyte per dag je SSD nog x jaar mee kan gaan. Als die maximum bereikt is, kun je gewoon doorwerken maar werk je buiten de 'gegarandeerde' writecycles.

De meeste SSDs zullen krimpen naarmate steeds meer cellen vervangen moeten worden en de reserveruimte inmiddels op is. Andere SSDs verbieden verdere schrijfacties en maken zichzelf read-only. Dat laatste is ideaal voor backups.

Deze 'write endurance' is dus volkomen voorspelbaar en voor consumenten nauwelijks een probleem. Toch hebben vooral consumenten het over SLC. Dude wtf, denk ik dan!

Velen vergeten ook het hele voordeel van MLC: de prijs. Dan kun je niet simpelweg stellen dat SLC sneller is en meer write cycles aankan. Want bij MLC kun je simpelweg veel méér cellen hebben voor dezelfde prijs. Dat moet je ook verwerken in je 'endurance'. En qua snelheid heeft SLC dus juist een groot nadeel; minder cellen minder capaciteit, minder parallellisatie. Daarom haalt de Intel 311 met SLC maar zwakke resultaten; met 32GiB (20GB bruikbaar) aan SLC kom je gewoon niet ver.

Conclusie: SLC is leuk voor speciale toepassingen zoals servers die continu writes uitvoeren en hardeschijven voor die functie niet afdoende zijn. Nog belangrijker: de betrouwbaarheid van een SSD heeft weinig te maken met de write endurance, maar veel meer met de SSD controller. De meeste controllers maken gebruik van mapping tables zonder supercapacitor te gebruiken en zijn dus inherent onbetrouwbaar. Alleen de Intel 320 zou je als betrouwbare opslag kunnen aanmerken. De rest van de consumenten SSDs kan gemakkelijk corrupt raken wanneer de mapping tables of in geval van Sandforce ook de deduplicatietabellen beschadigd raken. Een secure erase kan je SSD weer bruikbaar maken, maar je data is kwijt. Als je een SSD als onbetrouwbaar wilt kenmerken, is dit een véél betere reden en write endurance is iets waar consumenten zich niet druk over hoeven te maken. Punt.
Gezien niet elke consument een computerspecialist is gaan de meeste consumenten af op wat reviews en fabricanten zelf hun vertellen. Als een fabricant dan garandeert dat het medium waar zijn belangrijke data op bewaard worden die bewaring maar enkele jaren garandeert is het logisch dat wie er iets meer voor kan betalen uitkijkt en geïnteresseerd is in dat product dat een iets langere tijd lijkt te garanderen.
Tenslotte lees je over drie of vijf jaar en voor een substantieel deel van de consumenten is dat een erg korte periode.
Zijn die consumenten zo dom of achterlijk? Neen, net zoals ik jou niet dom of achterlijk zou noemen als je kennis op het vlak van antropologie, geologie of theoretische fysica 'beperkt' is tot wat je in populair-wetenschappelijke publicaties leest of uit BBC-documentaires of Open University opgestoken hebt. Je bent dan gewoon geen specialist.
Ikzelf ben één van die consumenten die er over nadenkt naast mijn harde schijf een SSD in mijn laptop te installeren om zo die bijna drie jaar oude machine een upgrade te geven. Gezien ik enorm tevreden ben over kwaliteit en verhoudingen van het scherm van mijn laptop en er blijkbaar nog enkel die vervelende breedschermen verkocht worden hoop ik dat hij vervolgens nog jaren meegaat, liefst zonder verlies van data. Wat ik hier lees -mogelijks ook opmerkingen van jou- kan me helpen bij de beslissing wat te doen en bij de keuze van de SSD. Het is prettiger als die info niet gepaard gaat met een denigrerend toontje. Dude.
Tsja het is ook prettiger dat als je hele verhaal gewoon in één zin was gezet. Aangezien het hele verhaal ging om punt te maken dat je het bericht denigrerend vond. Dude.

Maar CiPHER je hebt helemaal gelijk. Bedoel hoe lang gaan de huidige MLC SSD's mee bij consumenten, ik zie overal screenshots van SSD Life Pro met rond de 10 jaar. Over 10 jaar heb je echt allang een nieuwe SSD of de opvolger van NAND als opslag in je computer. Bedoel 10 jaar geleden hadden we nog de Pentium 4 als top CPU en Geforce 4 bij de GPU markt om maar even aan te geven hoe snel technologie gaat.

Daarnaast belangrijke bestanden heb je meestal toch genoeg backups van of in een RAID staan. Het is je eigen fout als je belangrijke bestanden maar op 1 opslagmedium zet, maakt niet uit als het een SSD of een HDD is.
Als ik het zo eens lees op de wiki zou het erop lijken dat deze disks juist een kortere levensduur hebben dan SLC chips. Ze zijn alleen wel veel groter voor hetzelfde geld.
In de wiki (http://nl.wikipedia.org/w...tate_drive#MLC_versus_SLC) staat het volgende:

Solid-state drives zijn onder te verdelen in twee typen: SLC en MLC. Een SSD bestaat uit verschillende cellen. Iedere cel heeft een analoge waarde. Deze analoge waarde, doorgaans een lading, spanning of weerstand, wordt onderverdeeld om tot een digitale waarde te komen.

Bij Single-Level-Cell SSD's (SLC) wordt de analoge waarde van een cel verdeeld in twee bereiken: een hoog bereik en een laag bereik. Hierdoor slaat iedere cel effectief dus één bit op.

Bij Multi-Level-Cell SSD's (MLC) wordt de analoge waarde in meer bereiken verdeeld, meestal vier. Hierdoor worden effectief dus meer bits per cel opgeslagen.

Dit verschil heeft tot gevolg dat SLC's betrouwbaarder, duurzamer en sneller zijn, terwijl MLC's juist als voordeel hebben dat ze data veel compacter kunnen opslaan. Hierdoor kunnen MLC's met dezelfde opslagcapaciteit goedkoper worden geproduceerd dan SLC's.[1]
Misschien handig als mensen snappen hoe het werkt. Fysiek is er namelijk niet veel verschil tussen een SLC en een MLC chip.

SLC is eenvoudig, er is een hoge spanning of een lage, 1 of 0.

MLC is lastiger, er kunnen 2 staten in 1 cel worden opgeslagen, 00, 01, 10 of 11. Dit doen ze door verschillende spanningsniveau's te gebruiken, bij MLC geheugen moet je uit een cel dus 4 verschillende spanningsniveau's kunnen uitlezen. De reden dat dit lastiger is is omdat er een maximum is, de verschillen in spanning zijn dus klein. Wanneer een cel degradeert kan de controller de juiste spanning niet meer uitlezen, de cel is dan dus dood.
Dezelfde cel zou nog best kunnen werken als SLC, omdat het spanningsniveau groter is en daardoor eenvoudiger uit te lezen.

Waarom dan geen SLC? Eenvoudigweg omdat je met MLC geheugen 2x zoveel data kunt wegschrijven als met SLC. De prijs per GB is dus gehalveerd.

De reden dat zakelijke SSDs nu ook met MLC geheugen worden geproduceert is omdat SSDs volwassen zijn geworden (toegegeven, jong volwassen ;) ). De chips zijn betrouwbaar (blijkt uit jarenlang gebruik, afgezien van de firmware bugs ed.) en de controllers zijn geavanceerder geworden. Je data is veiliger op een SSD dan op een mechanische schijf.

Zoals hier boven al eens wordt gezegd, mensen maken zich zorgen over de hoeveelheid write cycli. In het slechtste geval heb je 3000 gegarandeerde writecycli, op een drive van 128GB betekent dat 384TB aan writes. Als je elke dag 1 game installeert van gemiddeld 8GB kun je dat dus 48.000 dagen doen. 48.000/365= ~130 jaar. Maak je hier vooral niet teveel zorgen over ;).

Er is trouwens tegenwoordig ook TLC, triple level cache. Hierbij kunnen in 1 cel 3 bits worden opgeslagen (000 - 111). Hiervoor heb je wel 8 spanningsniveau's nodig waardoor de cellen eerder dood zullen zijn. Maar wel 3x zoveel opslagruimte als met SLC. Ik geloof niet dat er momenteel veel SSDs zijn die dit gebruiken.

En om alles nog eens rustig na te lezen:
http://www.anandtech.com/show/5067/understanding-tlc-nand

[Reactie gewijzigd door DizzyMan25 op 21 augustus 2012 15:33]

Het geheugen uit de PX-02 series is Enterprise Class MLC. Dat houdt volgens mij in dat het in ieder geval 10k write-cycli aan kan. Dat komt in de buurt van SLC, maar dan voor minder geld. Ik begrijp die stap wel.

De PX-03 serie, dat wordt inderdaad afwachten. Lijkt mij ook wat vreemd. Hoe kleiner het procedé, hoe minder robuust het geheugen en dan toch zeggen dat het geschikt is voor schrijf-intensieve toepassingen...mmhhmmm....raar
Dat heeft alles met de prijs te maken. SLC is namelijk flink duurder dan MLC geheugen.
Toshiba gebruikt voor deze SSD's (net als Intel) eMLC ipv gewoon MLC geheugen:
Zoals we eerder al berichtten stapt Intel voor zakelijke SSD's nu ook over op MLC-geheugenchips en laat het het duurdere SLC links liggen. Omdat deze zakelijke MLC-chips echter volgens een aangepast proces geproduceerd worden, wordt ook wel van enterprise grade MLC, kortweg eMLC, gesproken. Het voornaamste verschil zit hem in de levensduur van de chips: eMLC ondersteunt flink wat meer erase/program cycli per geheugencel. Om dat te bewerkstelligen wordt een deel van de dataretentie opgeofferd: standaard MLC-geheugen houdt het nog twaalf maanden vol nadat alle erase/program cycli verbruikt zijn, eMLC beperkt dit tot drie maanden.
http://nl.hardware.info/nieuws/19872/intel-gaat-emlc-gebruiken-voor-lyndonville
SLC is gewoon een 'oude' techniek, dat deze iets betrouwbaarder zou zijn is alleen relevant wanneer de nieuwe techniek niet betrouwbaar genoeg zou zijn.

Je moet dit vergelijken met je huidige RAM-geheugen. Je hoort ook niemand over de precieze configuratie van hun geheugencellen. Het enige wat telt is of het stabiel, snel & betaalbaar blijft. Of dit nu een 3 transistor of 2 transistor oplossing is, is gewoon niet relevant.

Simpel gezegd, SLC is 'end-of-life', zeker aangezien het effect van een te vaak beschreven cel zeer beperkt is (alleen nog maar leesbaar) en dit door de controller kan worden opgevangen. De stabiliteit van een SSD wordt voornamelijk door de controller bepaald, want als die 'krak' zegt is het ook echt over.
Het gaat er niet om of SLC betrouwbaarder is dan MLC. Het gaat erom dat je SLC veel vaker kunt beschrijven.

50nm SLC doet 100.000 write cycles
50nm MLC doet 10.000 write cycles
34nm MLC doet 5.000-10.000 write cycles
25nm MLC doet 3.000 write cycles

Waarom wordt er dan MLC gebruikt? Omdat dit er voor de meeste consumenten niet toe doet. Als je 5MB per seconde naar je SSD schrijft kom je met MLC de garantie periode echter niet door.
Met een 25nm MLC van 1,6TB kom je met 5MB/sec gewoon 30 jaar door.

Maar ik vind een SSD die niet meer beschrijfbaar is ook niet meer betrouwbaar.

Maar ga eens kijken naar wat er in de Ruimtevaart wordt gebruikt. Ik zou NEVER NOOIT dat soort spullen willen hebben, ook al is het 100x betrouwbaarder dan mijn huidige materiaal, het is ook zo achterhaald dat je vergelijkbaar spul alleen nog maar in het museum tegenkomt.
Met een 25nm MLC van 1,6TB kom je met 5MB/sec gewoon 30 jaar door.
Totdat je er een SQL database op zet en de write amplification door het plafond gaat.

Los daarvan is SLC allerminst achterhaald. Het wordt nog steeds gebruikt. Alleen niet in de consumentenmarkt.
Waarom is de write amplificatie van databases eigenlijk zo groot? Ik snap dat dit veel (extreem) kleine writes zijn en dat SSDs enkel een heel blok in 1x kunnen schrijven (van 64 kebibytes ofzo?) maar het lijkt me wel dat SSDs hiervoor hun DRAM buffers gebruiken om niet voor wis-wasje een heel blok te herschrijven.
Als het je om betrouwbaar gaat ga je niet write-back maar write-through gebruiken, maw de buffer gebruik je niet, en dus herschrijf je wel voor ieder wis-wasje een heel blok.

Ik denk dat dat het ding is.
Nee, die buffer is in hardware, dus mocht er iets naar de stront gaan (stroomuitval ofzo) dan heeft de SSD nog steeds de mogelijkheid om de buffer te flushen (de vraag - of eis eigenlijk - is dat ie dat dan ook echt doet). Zou het een software-buffer zijn, dan klopt je argument.

[Reactie gewijzigd door _Thanatos_ op 21 augustus 2012 19:29]

Misschien even een domme vraag, maar wat moet ik me voorstellen bij een 'dubbele SAS-aansluiting'? Twee connectoren? Of is er twee keer zoveel bandbreedte beschikbaar op dezelfde data-connectie? Op de gelinkte site melden ze een 'Dual-Port 12Gb/s SAS-interface', en dat is ook weer voor twee uitleggen. Een standaard SAS-aansluiting heeft immers een throughput van max 6Gb/s, en aangezien ze zich wel aan de form-factor willen houden, kan er slechts 1 aansluiting voor de data zijn.

Volgens mij (en al de documentatie die ik zo snel kan vinden) is die 6GB/s echt de standaard, dus het zou leuk zijn als ze 12Gb/s over één kabeltje beschikbaar willen stellen: geen controller kan (nog) ermee werken.
En twee connectoren geven volgens mij heel erg leuke problemen: de complete aansturing van de opslag zal dan dubbel moeten worden uitgevoerd; compleet met een controle dat de ene connectie niet toevallig dezelfde gegevens wil bewerken als de ander. Dat is best mogelijk, maar de schijf zal niet meer voldoen aan de formfactor, en dus niet zo makkelijk meer gebruikt kunnen worden in de servers waarvoor hij bedoeld is (hot swap...?)

edit: Kleine correctie met dank aan hieronder...

[Reactie gewijzigd door esollie op 21 augustus 2012 21:34]

Even voor de goede orde, je mist een factor 8. Het gaat om 6 resp 12 Gb/s, en niet over GB/s.

Ik denk dat het wel twee aansluitingen zijn, of SAS moet toevallig een "dual" connector kennen in de standaard (en presto), maar daarmee vervalt uiteraard de compatibiliteit met SATA-controllers.
De aansluiting die ik op de tweede foto zie, die ken ik ook wel, maar die zit over het algemeen op de (RAID-) controller, en voorziet niet in een spanningstoevoer. Daaruit leidt ik af dat deze niet te gebruiken is als aansluiting voor de SSD zelf. Natuurlijk worden de gegevens verzonden door spanningsverschillen, maar deze zullen niet voldoende zijn om de printplaat van voldoende vermogen te voorzien.
De SAS-standaard is (volgens mij) juist ontwikkeld om compatible te zijn met SATA-controllers; dat in combinatie met het gebrek aan voeding in deze connector, doet mij sterk vermoeden dat dit niet de correcte mogelijkheid is.

Echter: iets lager lees ik bij andere connectoren dat deze voorbereid zijn voor 'toekomstige 10Gb/s-snelheden'. Ik vermoed dat die dubbele connectie dus inderdaad gaat om een dubbele bandbreedte op dezelfde data-aansluiting. Zou overigens wel een logische ontwikkeling zijn als je de geschiedenis van de SATA-achtige aansluitingen bekijkt...

Bedankt voor de correctie overigens, dat had ik over het hoofd gezien...
Net zoals men voor sata de stap heeft kunnen zetten van 1.5Gb/s naar 3Gb/s naar 6Gb/s, gaat de snelheid van SAS er ook op vooruit: van de initiele 3Gb/s naar de huidige 6Gb/s, en deze drives zijn al klaar voor de toekomstige 12Gb/s.
Check ook rechtsboven op http://en.wikipedia.org/wiki/Serial_attached_SCSI

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013