Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 38 reacties

Hitachi heeft zijn eerste enterprise-ssd's officieel aangekondigd. De Ultrastar SSD400S-serie wordt leverbaar in 100, 200 en 400GB-varianten en gebruikers kunnen kiezen uit versies met een sas- of fibrechannel-interface.

De ssd's zijn opgebouwd uit slc-chips van Intel die op 34nm worden gebakken en aan een niet nader gespecificeerde controller zijn gekoppeld. Volgens Computerworld zou het om een compleet nieuw ontwerp gaan. Door gebruik van hoge kwaliteit slc-chips en goede wear-leveling zou het 400GB-model 35 petabytes aan random writes kunnen doorstaan voordat hij het begeeft. Voor de 200GB- en 100GB varianten zou dat respectievelijk 18 en 9PB zijn.

De schijven worden geleverd in twee soorten: een 2,5"-variant met een 6Gb/s-sas-interface en een 3,5"-variant met een 4Gb/s-fibrechannel-aansluiting. Het sas-model kan maximale sequentiële leessnelheden van 535MBps halen en schrijfsnelheden lopen uiteen van 400 tot 500MBps, afhankelijk van de capaciteit van de schijf. In leessituaties haalt de ssd 46.000 iops en met schrijfacties komt de schijf uit op 13.000 iops. De variant met fibrechannel kent een tragere interface en komt dus ook niet aan de snelheden van zijn sas-broer. Bij deze lijn blijft de maximale leessnelheid steken op 390MBps en de schrijfsnelheden komen niet hoger dan 340MBps. Het aantal iops bij random lees- en schrijfacties is wel gelijk aan de sas-variant.

Hitachi en Intel kondigden in de tweede helft van 2008 aan samen te gaan werken op het gebied van ssd's. De SSD400S-serie is daarvan de eerste vrucht. De schijven waren eigenlijk gepland voor een introductie in de eerste helft van dit jaar, maar Hitachi wist deze datum niet te halen. Een tussentijds aangepaste featureset en een langdurig testtraject zouden de oorzaken van het uitstel zijn geweest.

Hitachi Ultrastar SSD400S Hitachi Ultrastar SSD400S Hitachi Ultrastar SSD400S Hitachi Ultrastar SSD400S
Moderatie-faq Wijzig weergave

Reacties (38)

Klinkt goed, ook de hoeveelheid data die geschreven kan worden voordat de schijf het zou begeven. Dat zal wel theoretisch zijn, maar gezien de laatste opmerking in het artikel lijkt me dat deze schijven goed getest zijn.

Wat me opvalt is het formaat van de schijf, de fysieke afmetingen dus. Het lijkt wel alsof het een soort doosje is waar een heleboel licht in zit. met andere woorden; waarom zouden ze een 3,5" model uitbrengen als het geheel ook in een 2,5" verpakking past?
Ik heb meteen mijn rekenmachine er even bijgepakt om uit te rekenen hoe vaak zo'n 400 Gb schijf nu in zijn geheel herschreven kan worden met random writes: 87500x. Dit is gelijk voor de kleinere schijven, gezien het lineaire verband tussen de schijfgrootte en het maximum wat ernaar geschreven kan worden.

Om dit te testen, aangenomen dat er met 500 Mb/s wordt geschreven, zoals aangegeven in het artikel, moet een schijf 9x10^7 s beschreven worden, ofwel een ruime 2 jaar en 9 maanden. Het kan dus nog wel even duren voordat deze op de markt komt! 8-)

Zonder dollen, dit is altijd theoretisch. Dit wordt op kleine schaal getest en dan doorgetrokken naar 400 Gb. Wel geven de bovenstaande getallen aan dat zo'n schijf het realistisch gezien niet meer begeeft doordat er teveel naar geschreven is, wat natuurlijk goed nieuws is. Het is natuurlijk te hopen dat dit ook doorontwikkeld wordt voor consumentenschijven.
Om dit te testen, aangenomen dat er met 500 Mb/s wordt geschreven, zoals aangegeven in het artikel, moet een schijf 9x10^7 s beschreven worden, ofwel een ruime 2 jaar en 9 maanden. Het kan dus nog wel even duren voordat deze op de markt komt! 8-)
Nou ben ik niet volledig op de hoogte van wear-level maar je rekent nu uit hoe lang het duurt voordat de volledige 400GB "defect" kan zijn. Het is natuurlijk veel interessanter om te bekijken hoe snel 5% of 10% van de schijf defect kan zijn doordat er extreem veel in een bepaald gebied wordt geschreven.

Ik kan me voorstellen, maar corrigeer me vooral als ik verkeerd denk, dat een swapfile (op een vaste allocatie) veel vaker een write op een bepaald stuk doet. Of log-rotations van een bepaalde database, web-server o.i.d.

Een enterprise-class drive met meer dan 1% uitval van opslagcapaciteit vind ik al extreem veel; daar is, in de praktische berekening, dus geen 2 jaar en 9 maanden voor nodig?
Is het om die reden misschien verstandiger om de swapfile niet op een SSD station te plaatsen? (Als je een HDD voorhanden hebt natuurlijk).
Ik kan mij voorstellen dat je dat qua performance natuurlijk liever niet wilt doen :)
Nou ben ik niet volledig op de hoogte van wear-level maar je rekent nu uit hoe lang het duurt voordat de volledige 400GB "defect" kan zijn. Het is natuurlijk veel interessanter om te bekijken hoe snel 5% of 10% van de schijf defect kan zijn doordat er extreem veel in een bepaald gebied wordt geschreven.
Dat duurt dan toch (bijna) even lang, dat is toch precies de bedoeling van wear-levelling? het voorkomen dat er te veel in een bepaald gebied geschreven wordt. correct me if i'm wrong.
Waarschijnlijk omdat het dan in oudere systemen kan welke nog geen 2,5" schijven accepteren, maar wel deze capaciteit kunnen faciliteren.

Anders moet je er nog brackets bij gaan komen, zo koop je ze ineens passend.
Klinkt goed, ook de hoeveelheid data die geschreven kan worden voordat de schijf het zou begeven.
Hoezo valt mee? Ondanks dat die schijf van 400GB echt niet elke dag zal worden volgeschreven, komt het er praktisch op neer dat je "maar" ongeveer (1/0.4)*35000 writes uit kan voeren voordat het beestje het begeeft.
Omdat het gaat om Hot-Swap schijven die nou eenmaal aan bepaalde specificaties qua maten moeten voldoen. De 2.5" drives zijn precies de maat van een 2.5" SAS hdd, en hebben dus de aansluiting op dezelfde plek zitten. Voor FC is er afaik geen 2.5" standaard en dan kom je dus bij de 3.5" standaard uit die wel bestaat. Als je niet aan de maten voldoet kun je de schijf niet gebruiken in je hotswap-apparatuur.

[Reactie gewijzigd door CyBeR op 17 november 2010 03:33]

Ik moet zeggen dat ik nogal huiverig ben om bedrijfskritische applicaties te draaien op een nieuw medium, zoals een SSD. De firmware van veel SSD's zijn nog niet echt goed uitontwikkeld. Mijn OCZ Vertex 2 is een maand geleden nog gecrashed door een firmwarebug (v1.11). Alle data in een klap weg. Gelukkig had ik een backup, maar voorlopig vertrouw ik mijn data meer op een harde schijf met een hele bak geheugen voor caching.

Hoe groot is de echte firmware eigenlijk? Ik moest een 70MB groot bestand downloaden om mijn OCZ te upgraden. Dat vind ik nogal wat... De installer zal natuurlijk wat ruimte kosten, maar al zou het de helft zijn, dan vind ik het nog veel voor firmware.
Deze SSD's krijgen hun 'hoge' prijs vooral vanwege hun intensieve tests, daar betaal je namelijk ook voor, niet alleen de hardware zelf.

Ik heb in diverse enterprise (Heb persoonlijk een hekel aan het woord) omgevingen een aantal Intel X25-E SSD's draaien in een RAID setup voor een kritische database, dat werkt nu al 1.5 jaar zonder problemen, waar er flink wat IOps door gaan.

Zelfs de X25-M (Desktop SSD's) doen het prima in een server omgeving.

Ik denk dus dat je goed moet kijken welke fabrikant je zaken mee doet, Intel en Hitachi zijn niet zo maar spelers, OCZ heeft in mijn ogen toch nog altijd het label "consument" aan zich hangen en niet zo zeer "enterprise".

De meningen kunnen daar over verschillen, maar je kan niet alle SSD's in één hokje plaatsen. In principe is een CompactFlash kaartje op een IDE slot ook een SSD, maar totaal niet te vergelijken met iets wat de meeste mensen onder een SSD verstaan.

Ook grote fabrikanten zoals EMC, NetApp, Dell en Sun (Oracle) bieden SSD's aan in hun storage systemen, dat doen ze ook niet zo maar.

Naar mijn mening is de SSD dus prima klaar voor 'enterprise' gebruik.
Ook bij harddisks kom je bugs tegen. De meest recente bugs zijn die bij Seagate 7200.11 disks, waarbij de firmware in een loop terecht komt vanwege data die door testapparatuur is achtergelaten op de schijven. Ander voorbeeld is Seagate's eerste U320 disks die op U320 controllers zichzelf steeds ophangen waardoor je 3x per maand je RAID-array aan het rebuilden bent...
Qua SSDs heb ik het niet zo op OCZ overigens. Ik heb in mijn laptop een X25-M, die heeft het vanaf dag 1 goed gedaan incl ondersteuning voor TRIM. In mijn desktop zit een OCZ Vertex 30GB, die sinds de laatste firmware ook TRIM heeft. TRIM inschakelen op dat ding betekent geheid dataverlies.
ik ben zelf nu een jaar in het bezit van een 60 gig OCZ vertex turbo, en ik ben zeer tevreden zonder problemen?
Hmm, beetje jammer dat er maar een 4Gb FC aansluiting op zit. Aangezien 8Gb toch wel gemeen goed begint te worden nu.... Zoals ook te zien is aan de 6Gb SAS aansluiting (Wat een nieuwere standaard is? :S)
Ze zijn dan ook al 3 maand oud (zie foto).
Ben jij niet in de war met externe Fiber Channel? Intern is volgens mij nog steeds 4Gb de standaard.
ik denk dat die tussen 700- 1700 gaat kosten
Ik denk eerder ergens tussen de 5000 en 10000 euro.

450 GB FC schijven kosten ook duizenden euro's per stuk. Zal voor deze 'nieuwe' techniek niet anders zijn.

Als vergelijk. Voor een 18 GB (write-optimized) SSD (logzilla) in een 7000 serie storage van Oracle betaal je zo'n 7000 euro. Kostbaar spul van bakker krul maar dan heb je ook wat.
Als ik die plaatjes zo zie.... holy crap.. als er al 400GB op die paar chips past! Waar gaat het heen met onze technologie _/-\o_
Deze fabrikant kennende zijn de ssd's de moeit waard. Wil best wat meer betalen om mijn data niet te verliezen. Hier vliegen de defecte harde schijven je om de oren, waarbij vooral Seagate de koploper is.
En begin nou niet te zeuren over dat ene 60 gig exemplaar dat vochtproblemen had, ze kunnen ook wel een eens een miskleun maken.
Ook hier heb ik veel te vaak dode harddisks. als het er maar een per maand is is het lekker rustig.

Toch moet je er van uit gaan dat alles stuk kan en stuk zal gaan.

Heb net twee weken geleden een ssd uit een netbook voorbij zien komen die dood was.

ik hoop wel dat we over 10 jaar opeens zeggen; he we hebben weinig defecte storage, ssd's houden het toch beter uit.

altijd blijven hopen ;)
Het kan open dus tweaken :)
wat wil je tweaken aan een SSD? :?
overclocken
SLC omzetten naar MLC en je capaciteit verdubbelen (en de levensduur verkorten)
het aantal levels van MLC verhogen en je capaciteit verhogen (en de levensduur verkorten)

niet dat dat 1-2-3 kan, maar theoretisch gezien zou dat wel kunnen.

[Reactie gewijzigd door Gamebuster op 16 november 2010 20:27]

Het werd tijd, als 15K sas fabrikant moet je die markt natuurlijk wel bij je houden..
Ik zie functioneel geen verschil tussen enterprise en consumer specs. Seek tijden bestaan niet. Het is allemaal pure doorvoersnelheid. Dus de vermeende verschillen tussen SAS en SATA zijn weggevallen. Een goede controller lost die verschillen op. Dus waarom dit in een SAN /SAN stoppen en niet een SATA disk :?

FC is aardig maar daar kun je een NAS tussen zetten en die regelt het koppelvlak voor je en niet de disk
SSD is geen schijf maar een plak.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True