Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 21, views: 14.488 •

Intel heeft de opvolger van zijn 710-serie solid state drives uitgebracht. De DC S3700-ssd's zijn bedoeld voor gebruik in datacenters en zouden fors rapper zijn dan de voorgaande serie. De mlc-drives zijn in zowel 2,5"- als 1,8"-modellen verkrijgbaar.

De nieuwe serie solid state drives is opgetrokken rond een nieuwe, door Intel ontwikkelde sata-600-controller, die geoptimaliseerd is voor hoge iops-prestaties. De nieuwe controller maakt zijn debuut in de high-end ssd's voor datacenters; de DC in de naam van de nieuwe drives is een afkorting voor Data Center. De controller stuurt op 25nm gebakken mlc-flashchips aan, die dankzij het-techniek de levensduur van het duurdere slc-geheugen moeten hebben.

De DC S3700-drives zijn als 2,5"-drives in capaciteiten van 100GB, 200GB, 400GB en 800GB verkrijgbaar, terwijl een 1,8"-uitvoering in 200GB- en 400GB-uitvoeringen geleverd kan worden. De controllers ondersteunen 256bits aes-encryptie en kunnen met 1GB ecc-geheugen gecombineerd worden. Condensators moeten zorgen voor databehoud wanneer de stroom in het datacenter wordt onderbroken. Anders dan standaard-ssd's, die 5V voedingsspanning vergen, kunnen de ssd's met zowel de 5V- als de 12V-rail worden aangesloten.

De controllers van de nieuwe DC S3700-drives zijn vooral ontwikkeld om bottlenecks tijdens hoge i/o-operaties weg te nemen in grote raid-arrays. De individuele drives halen 75.000iops bij lezen en 36.000iops bij schrijven, terwijl de sequentiële snelheden daarvoor 500MB/s en 460MB/s bedragen. De nieuwe serie is goedkoper dan de introductieprijs van de 710-serie, maar voordat de prijzen naar consumentenniveau kunnen dalen, moet naar regulier mlc-geheugen worden overgestapt. De drives kosten 235, 470, 940 en 1880 dollar voor de 2,5"-varianten en 495 en 965 dollar voor de 1,8"-drives.

Reacties (21)

Als die dingen in de praktijk betrouwbaar blijken zouden ze nog wel eens heel hard kunnen gaan lopen. Voor enterprise SSD's is dit een vriendelijk prijsje.
Betrouwbaar is relatief. Afhankelijk van het gebruik houdt een ssd het best lang of zelfs langer dan een hdd uit.
Het enige directe probleem is dat het aantal schrijfacties nog altijd 'beperkt' is. Zover ik weet betekent dat ook dat vendors je geen garantie bieden als je disk 'overschreven' is.
Met andere woorden: ssd's zijn nog steeds enkel écht interessant in bepaalde scenarios; zomaar wat hdd's vervangen door ssd's is vooral een dure grap. Het is daarentegen nodig a) goed te weten wat de karakteristieken zijn van de data die je wil hosten, of b) (en dat is waar we meer naar toe gaan) die keuzes automagisch te laten maken door een tiering of caching algoritme op storage niveau (be it SAN of local array)
Overigens mag je niet vergeten dat de grote massa aan applicaties géén nood heeft aan supersnelle storage. Zolang de bulk gewoon toe kan met goedkopere hdd's, is voor ssd's een optimaliserende rol weggelegd en zal de grootschalige adaptatie van ssd's op zich laten wachten.
Om een idee te geven; mijn huidige klant heeft momenteel één appplicatie die wel degelijk direct baat zou hebben bij snellere storage. Dit is een SQL die TB's per dag leest en waar soms klachten van zijn dat het te traag gaat. Maar... simpelweg de disken door ssd's vervangen zou betekenen dat we ongeveer _elke maand_ een SSD moeten vervangen! Hier is dus een tweezijdige aanpak nodig: SQL optimalisaties én een uitgekiende storage oplossing, wellicht met een ssd cache...
Die beperkte schrijf acties valt wel mee hoor, om elke maand een SSD te vervangen moet je de volledige capaciteit van de SSD meer dan 100 maal per dag overschrijven. (Dus meer dan 10TB naar een 100GB SSD). Dat lijkt me niet waarschijnlijk met een SQL database.
Wat het aantal schrijfacties betreft, daar is erg veel vooruitgang geboekt in de afgelopen paar jaar. In de specs voor deze schijven staat "10 drive writes per day for 5 years".
Dat houdt dus in dat je met een 100GB SSD, dagelijks 1TB aan data kan schrijven, 5 jaar lang, voordat je de schrijflimiet van de schijf bereikt.
Nou weet ik niet hoeveel data er geschreven wordt in de DB van je klant maar het lijkt me dat deze schijven wel degelijk interessant worden voor hun.
Verder zou je ze kunnen short-stroken (minder dan de totale capaciteit beschikbaar stellen) en hiermee de levensduur/aantal writes per dag nog verder kunnen verhogen.
Neemt natuurlijk niet weg dat SSD caching een interessante oplossing is maar dit werkt vaak beter met sequential reads/writes, wat bij een SQL db vaak niet het geval is.
Sowieso vanuit mijn ervaringen met SQL servers en enterprise applicaties kan ik je vertellen dat de meeste data die opgevraagd wordt op een dag vrij consistent is en het waarschijnlijker is dat dezelfde informatie vaker opgevraagd wordt dan compleet random.. (neem bvb. een forum waar de nieuwste threads/replies meer opgevraagd worden dan oude).

In deze situatie zou ik zelf liever een RAM cache zien. werkgeheugen is spotgoedkoop en je kunt makkelijk je server volproppen met god weet hoeveel ram zodat je enorm veel van je SQL database kunt cachen wat vervolgens de opvraagsnelheid bevorderd en disk IO enorm verminderd.

Gebruik jij voor die klant van jou al zoiets of is dat niet toepasbaar in hun situatie the_stickie?
die snelle ssd's da's mooi, maar hoe gaat zich dat nu verhouden tov storage oplossingen van equallogic, netapp, etc.
Hogere doorvoersnelheden = meer bandbreedte = zwaardere processors om het te managen etc.
Daar ben ik wel eens benieuwd naar.
Want een ssd san oplossing is voor alsnog erg prijzig 100k+ inclusief licenties etc.
Ik denk dat het juist de bedoeling is dat de SAN bouwers deze dingen gaan gebruiken. Nu wordt veel FusionIO gebruikt, en dat is fors duurder.
Er is al heel wat te koop onder de 100K hoor... Niet elke storage leverancier laat je zulke idiote licensie kosten betalen als NetApp en EMC... Overigens zie je redelijk wat hybride oplossingen welke de SSD's gebruiken voor hot data en dat vervolgens tieren naar SAS / SATA.
nog even en dan zijn erg SSD's van 800GB voor een prijsje dat je helemaal geen HDD meer wilt. 800GB SSD..... klikt goed voor je games en andere programma's. ben benieuwd hoe het nu verder gaat met HDD, die dingen kunnen tegewoordig al vele terrabytes aan, dus wat ze nog zouden kunnen doen is ze kleiner en sneller proberen te maken. maar op deze manier zie ik het eind van HDD steeds dichterbij komen.

ik snap dat die niet voor "thuisgebruik" is. maar dat zal ook neit meer lang duren

[Reactie gewijzigd door Steelbound op 6 november 2012 12:13]

De kans is groot dat er tegen die tijd ook HDD's zijn die veel groter zijn dan de huidige, dat de gemiddelde film die men download 50 Gb is, en de foto's die men opslaat ook tien keer zo groot zijn...
Storage groet, maar ook het gebruik groeit.
Ik heb zelf een aantal van deze badboys gehad: pricewatch: Intel 320 600GB

Ze draaien na 2 jaar nog steeds prima, hebben me nooit teleurgesteld en waren toen prima te betalen (ik heb er 2 doorverkocht via de V&A á 425/450 euro).

Ze zitten nu (na constant gebruik) op 96% OK. Ik heb HDD's gezien die na een jaar minder waren.

Betrouwbaar zijn ze dus al. Nu alleen nog iets goedkoper (de echt snelle jongens dan).
Ik vraag me alleen af hoe het zit met duurzaamheid.

Iirc waren er maar xxxxx schrijf/lees acties mogelijk tot ze kaput zouden gaan?
Voor een database-server zijn zulke schijven ideaal, maar wat heb je eraan als je hardwareboer er geen support op geeft? Als je bij Dell een server configureert, is de grootste SSD er eentje van 200 GB en die kost 820 euro. Wil je wat groters, dan moet je een PCIe insteekkaart kopen die tien keer duurder is. Ik vind het toch wel opmerkelijk dat Intel een aparte lijn met Datacenter-SSD's heeft, en een grote hardwareboer ze vervolgens niet kan leveren met support.
Die 200GB is een Intel 710 disk, heb bij een klant twee 710s van 100GB met LSI Cachecade staan, werkt wel aardig.

[Reactie gewijzigd door analog_ op 6 november 2012 13:07]

Ideaal als je db acties vooral lezen zijn.... een ramp als je data voortdurend wijzigt ;)
Een ramp? 36.000 IOPS random write is niet mis. Enig idee hoeveel hdd's je in moet zetten om dat te halen? 100-150 schat ik. Overigens zijn 'mostly write' databases bijzonder zeldzaam, ik ben ze in 20 jaar consultancy nog maar twee keer tegen gekomen.
een ramp, niet qua performance, maar qua kost...
Ze zijn net aangekondigd, DELL gaat deze staks echt wel leveren..
Leuk als ZIL en/of L2ARC met ZFS!
of ssd cache voor ESXi.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013