Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 87 reacties

De Amerikaanse hardwareproducent OCZ Technology Group heeft zijn nieuwste Z-Drive R3 pci-express solid state drive formeel ge´ntroduceerd. Het bedrijf liet de ssd al tijdens de CES zien, maar heeft inmiddels alle specificaties vrijgegeven.

De Z-Drive R3 is, net als de overige Z-Drives van OCZ, bedoeld voor servers waarbij hoge doorvoersnelheden en veel iops gewenst zijn. De interface is geen sata-poort, maar de opslagcapaciteit wordt middels een pci-express-x8 ontsloten. Om in een groot aantal serverbehuizingen te passen, is de pci-express-kaart in halve hoogte uitgevoerd, hoewel een toekomstige kaart met volledige hoogte nog hogere prestaties moet gaan leveren. De kaarten met 300GB, 600GB of 1,2TB opslagcapaciteit moeten leessnelheden tot 1GB/s mogelijk maken, terwijl schrijven met maximaal 970MB/s mogelijk zou zijn.

De veelal belangrijkere random write-snelheden bij een sectorgrootte van 4K bedragen 135000iops. De twee of vier flashcontrollers waaruit de kaarten zijn opgebouwd, SandForce's SF-1565-controllers, worden daartoe in raid-opstelling gebruikt. Bovendien maakt OCZ gebruik van een zelfontwikkelde techniek die het VCA, of Virtualized Controller Architecture, noemt. Deze techniek moet verschillende onderdelen van ssd's kunnen combineren en als virtuele controller aansturen. Dat moet doorvoersnelheden verhogen en latencies tot een minimum beperken. OCZ maakte nog geen prijzen voor de Z-Drive R3-serie bekend.

OCZ Z-Drive R3
Moderatie-faq Wijzig weergave

Reacties (87)

Interessant artikeltje over het verschil tussen MLC en SLC: http://www.slideshare.net/zhaojp/ssd-and-enteprise-storage

opm: op pagina 13 staat "tired storage", dat moet natuurlijk "tiered storage" zijn.

[Reactie gewijzigd door rkoper575 op 28 januari 2011 21:38]

Ben benieuwd naar de andere specs zoals MTBF.
Die 1,2 TB zal idd wel een flinke duit kosten!
MTBF = 10Miljoen uren
Verbruik: 6W idle, 14W active
Gewicht: 139Gram
Techniek: MLC
Controller: 4 Sandforce 1565
afmetingen: 169.55 x 79.19 x 19.24 mm (L x W x H)
3 Jaar garantie :)
Die 10 miljoen uren neem ik met een zoutmijn aan korrels: 10.000.000/24(uren/dag)/365.25(dagen/jaar) ~= 1141 jaar bedrijfstijd voor het uitvallen. Dit is verre van realistisch.

[edit]
Dus als ik 200 van zulke array's in gebruik neem, moet ik er rekening mee houden dat er na 5 jaar een enkel exemplaar moet vervangen omdat deze statistisch defect raakt. Is dat wat je bedoelt?

[Reactie gewijzigd door Xellence op 28 januari 2011 13:58]

Een MTBF is geen levensduur... Ik sta er verbaasd van dat ik op Tweakers nog moet uitleggen...

Het is een statistisch getal voor relatief korte periode. Je kunt een MTBF bijvoorbeeld gebruiken om te bereken hoeveel schijven in je SAN er in een jaar kapot zullen gaan.
OCZ maakte nog geen prijzen voor de Z-Drive R3-serie bekend.
Je moet eerst een medisch rapport dat je goed in orde bent inleveren bij hun wil je een prijsopvraag doen lijkt me :X
Het is natuurlijk niet voor consumenten bedoeld maar voor zakelijke toepassingen waar hoge doorvoersnelheden cruciaal zijn. Enig nadeel is dat het om PCI-E kaarten gaat, je kan ze dus niet zo makkelijk in een SAN kwijt en zal ze dus of via een server zelf moeten delen met het netwerk (trekken gelijk je 10Gb netwerk helemaal vol) of genoeg taken op een lokale server hebben om hem vol te krijgen.
Afhankelijk van de prijs kan het voor een VDI project wel erg leuk zijn, gelijk genoeg IOPS op je lokale storage :)
[...] 135.000 IOPS [...]
Meer hoef je bijna niet te weten, een 15k SAS schijf haalt misschien 175-190 IOPS. Een SSD misschien 3000-4000, dus dit is performance buiten de charts.

Sneller dan een SAN of wat dan ook, ideaal in een VMWare machine of database bak.
Het lijkt me sterk dat deze kaarten (lees:ssd) ingezet zouden worden om databases op te draaien. Als jij bijv. je sql-server van voldoende geheugen voorziet zal het grootste gedeelte van je data gecached worden in ram (dat is ook snel hoor;)) wat vele malen goedkoper zal zijn dan zo'n kaart. Ook voor VMware lijkt het mij geen gewenste oplossing, de meeste VMware omgevingen worden centraal gedraaid (storage) om het te mirroren en failover mogelijkheden te benutten. Om een vergelijkbare constructie te bouwen met dit product mag je flink 'knutselen' en wijk je denk ik behoorlijk af van de best practice.

Ik denk persoonlijk dat dit eerder ingezet zou worden voor ontwikkel-projecten waarbij er veel iops gewenst zijn en wat de doorlooptijd van het project positief kan be´nvloeden.
Hangt maar net van de database af hŔ? Als je actieve data in het ram past (dus het meeste is inactief), dan is dat veel goedkoper. Maar als vrijwel de gehele database actief is, dan is deze oplossing veel beter.
Ook al past je hele database in RAM, inserts/updates/deletes wil je toch graag synchroon naar disk schrijven. En dan is die random write performance toch heel belangrijk. Als je database read-only is maakt het inderdaad niks uit.
In mijn tak van sport (DWH / BI) heb je nog al eens met grote sorts en hash joins te maken. Dan is zo'n dingetje wel errug mooi voor temp. Dondert niet dat-ie niet in het SAN netwerk hangt, temp wil je toch niet backuppen.
Er zijn al SSD's die 40-50k 4k write IOPS halen en met de Vertex 3 Pro is ons 75k belooft. Die "3000-4000" IOPS voor een SSD is dus verre van correct. Dit betekent natuurlijk niet dat die Z-drive R3 geen nut meer heeft, maar hij zit qua specs veel dichter bij "normale" SSD's.
Meeste SSD's zitten op de 40k - 50k IOPS. Wel een stukje meer dan 3k/4k. Natuurlijk bij lange na nog geen 135, maar toch niet verkeerd. :)
de iops bij OCZ zijn gebaseerd op gebakken lucht ik heb een revodrive die 70k iops zou moeten lezen maar haald met veel moeite 17k iops (schijven) en 5.5k (lezen).

[Reactie gewijzigd door computerjunky op 28 januari 2011 18:09]

Sneller dan een SAN ? Je vergelijks appels met peren ! Je bedoelt waarschijnlijk een storage array, want een SAN is immers een Storage Area Network, het netwerk tussen servers en storage dus.
Een SAN is uitsluitend bedoeld om data te transporteren, niet om op te slaan. Net als je op een LAN ook geen data kunt opslaan, dat doe je op een fileserver (die zijn LUN's dan weer via een SAN zou kunnen benaderen).
Ideaal voor een database server met veel requests. Nadaal is weer redundantie, als de server een probleem heeft zal ook de ssd problemen hebben en zul je dus een backup server nodig hebben.

Neemt niet weg dat voor grote organisaties dit ideale dingen zijn voor meer prestaties. Op die manier heb je steeds minder rackruimte nodig en dat scheelt ook weer in de kosten.
Wel nee...

Als je een slimme setup gebruikt dan werk je met een apart backup netwerk en een hartbeat oplossing die deze server in de gaten houd en een andere server als mirror draait. Mocht deze dan omvallen dan heb je een tweede backup server die het werk meteen kan overnemen.
Natuurlijk niet in het zelfde rack op de zelfde stekkerdoos of op het zelfde elektriciteitsnet net aan sluiten en als het even kan in een ander data center neer zetten die backup machine maar anders dan dat mag het geen probleem zijn om een backup server te draaien die gewoon netjes bijhoud hoe deze machine zich voelt en als als deze even hoest dan gewoon hop het werk over nemen tot de main server weer hersteld is.

Deze SSD's zijn al snel 1000 euro of meer maar het is inderdaad zo dat je dat niet gebruikt om even WoW mee te spelen of om de start van GTA IV wat korter te maken. Het is eerder nuttig als je bijvoorbeeld even een fullHD film aan het bewerken bent en een filter eroverheen hangt met een workstation die natuurlijk minimaal 6 cores heeft om het geheel een beetje snel te berekenen en de SSD in ieder geval een beetje bezig te houden.

Het lijkt me wel een leuk idee om zo'n ding eens een paar daagjes uit te proberen in mijn systeem toch eens kijken hoe veel sneller GTA IV kan starten en of je Win7 echt in minder dan 5 seconde geheel geboot kan krijgen :p
Met 1000 euro voor deze SSD zitten ze mooi in het middensegment. De echte enterprise SSD's zijn nl SLC's, die hebben geen TRIM nodig, maar kosten dan ook een factor 15x meer..... en dan heb je pas 73GB ofzo... Maar goed, voor thuis is dit natuurlijk wel een leuk hebbedingetje. 1000 Euro is nog net te overzien, 10k euro voor slechts 73GB tot >30k voor eentje van 400GB is echt buiten mijn budget.

Bron: http://www.networkcomputi...anyone-challenge-stec.php
http://itopsmgr.blogspot.com/2010/07/ssd-testing.html

[Reactie gewijzigd door rkoper575 op 28 januari 2011 21:52]

Zover ik weet is trim nodig om de fysische harde schijf op de hoogte te brengen van logische veranderingen in het filesystem (deletes) zodat eventueel vrijgekomen ruimte mee gebruikt kan worden om de performantie te verhogen en degratie tegen te gaan.
Een SLC heeft een pak betere performantie en minder last van degardatie, maar is nog steeds niet op de hoogte van filesystem bewerkingen...
Ik snap dus niet helemaal waarom SLC SSD's geen TRIM zouden gebruiken?
Die tweede server heb je sowieso nodig. Database servers die dit nodig hebben zullen niet onbelangrijk zijn in bedrijfsprocessen en dus zullen de kosten van downtime snel onacceptabel hoog oplopen.
Deze passen wel in SAN's alleen moet je dan voor "zelfbouw" gaan.
Je kan dan denken aan Openfiler of Nexenta.
Die installeer je op standaard x86 hardware waar deze kaartjes prima in passen.

Verder is zal 10GbE meestal niet de bottleneck maar de IOPS.
Als die 135000 random 4K iops doet is dat 540MB per seconde.
Dat past prima over een 10GbE touwtje.
Je zit er volgens het artikel een nulletje naast 135000IOPS. Dat trekt een GBit lijntje niet ;) Daarnaast lijkt me dit geen kaart die je in een SAN stopt maar gewoon direct in de server die hem nodig heeft. Scheelt flink wat overhead.
kleine correctie, 135.000 x 4K = 540.000K => ~ 540MB/s. Factor 10 :)
Nogmaals: een SAN heeft geen disken, omdat een SAN een netwerk is. Je bedoelt waarschijnlijk een storage array, wat je dan wel weer op een SAN aansluit.

SAN = Storage Area NETWORK !
Ofschoon voor servers bedoeld ben ik wel benieuwd naar prijzen en desktop/game prestaties.

Ook nog 1 vraag, wat me niet helemaal duidelijk is uit het artikel en ook niet van de OCZ website is hoe de SF-1565's met de pci-e x8 communiceren? In oudere versies ging dit via een pci-X bridge chip.
Met een sustained write van 900MB/s kan je natuurlijk razendsnel een compleet spel in je RAM geheugen laden (immers, met zo'n dure kaart heb je natuurlijk ook wel 32GB ram), je laad gewoon eenmalig het complete spel en verder wordt dan alles vanuit je RAM geladen, zal aardig leuke prestaties geven vermoed ik.
Heb je niets aan want games worden niet geschreven om zomaar alles in het geheugen te laden.
Er zijn al weinig games die in 64bit draaien om die hoeveelheden geheugen te kunnen gebruiken. En van al die games die toch een 64bit versie hebben en het zouden kunnen gebruiken, doen ze het niet.
Het is dan ook de vraag heeft het veel nut om een spel in je RAM te laden als je toch al zulke hoge snelheden hebt.
Je wil een SSD die in de orde van microseconden werkt vergelijken met RAM wat in nanoseconden werkt?

Een beetje RAM haalt >10GB/s Dat is even wat anders dan 900MB/s sequentieel en 500MB/s random.
Oke, je hebt gelijk dat RAM vele malen sneller is maar in de praktijk merk je bij een spel toch weinig verschil?
Oh jawel. De grootste ramp is dat de 500 MB/s "random" voor disks op 4KB blokken gemeten wordt. RAM haalt de 10 GB/s met blokken van 32 bytes (1 cache line). Een 32 bytes write naar SSD moet via een read-modify-write cyclus van 2x4KB. Dat is dus 256 keer meer werk, bovenop de 20x langzamere performace, In totaal heb je't dus over zo'n 5000 keer langzamer (!)
Die prijzen zullen niet mals zijn. Een 1TB SSD met lees- en schrijfsnelheden van om en nabij de 1GB/s? Erg leuk, maar voor de consument nog ver buiten bereik, en eigenlijk ook niet zo nodig. Een betaalbare PCI-e SSD zou ik interessanter vinden.
Door deze ontwikkelingen in de bedrijfsmatige toepassingen, waarbij je in acht moet nemen dat de prijs-prestatie-betrouwbaarheid heel anders ligt, komen betaalbare onderdelen steeds dichtbij voor de consument. Mogelijk komen enkele onderdelen uiteindelijk naar de consumentenproducten.

De vraag is bijvoorbeeld is er een markt voor PCI-e SSD voor de "gemiddelde" consument. Als deze markt er is zullen er producten komen. Als deze markt er niet is of niet groot genoeg zal dit niet of minder snel gebeuren.

Het is juist erg mooi dat men nu al zulke prestaties kan halen. Dit betekend dat de technologie zich verder ontwikkeld en deze ontwikkelingen zullen hun uitwerking hebben op uiteindelijk alle lijnen van producten in deze productcategorie.
Serieus mensen hier is dus niets speciaal aan hÚ.
Het enige dat ze doen is de chips van de huidige SSD's in een array op die kaart plakken en verbinden met pci-express.

Ik ga niet zeggen dat er niets van kunde voor nodig is, maar geen enkel van die onderdelen of kennis is nieuw.
En ook geen enkel van die onderdelen gaat goedkoper worden of er nu 10 of 10 000 000 van die kaarten verkocht worden.
Klopt helemaal. Deze dingen zijn alleen duur omdat het bleeding edge is. Maar in de toekomst wordt dit ook de standaard voor consumentenspul. Consumentenspul is nu namelijk CPU->PCIe->SATA->controller->flashchips, en deze kaart gebruikt een CPU->PCIe->controller->flashchips opzet. Dat scheelt dus 1 stap, en is daardoor fundamenteel goedkoper.
Straks worden moederborden groter, omdat men meer PCI-express poorten wilt, voor kaarten als deze. Over een paar jaar, zitten er geen "harde schijven" meer in ccupters (zoals nu het geval is bijv), maar alleen nog maar controllers/kaarten. Op zich wel een leuke ontwikkeling, zo blijft er meer ruimte in een kast over voor andere dingen.
Grotere moederborden bestaan al, de extended-ATX modellen. Door opslagcapaciteit naar PCI-e te verplaatsen zullen deze borden interessanter worden. De ruimte voorin hoeft verder niet verloren te gaan, als ze investeren in zowel sloten als 2.5 / 3.5" modellen zou een betere optie zijn naar mijn smaak.

Kun je gemakkelijker meer in RAID draaien zonder op ruimtegebrek uit te lopen. Zeker de RAID10 combinaties bijv of andere mengvormen waarvoor minimaal 4 schijven nodig zijn werden in het verleden nogal wel eens vermeden wegens ruimtegebrek. Terwijl het toch juist fijn is om niet te hoeven kiezen tussen of hoge snelheid of uitermate betrouwbaarheid.
Ik ken eigenlijk geen 1 bedrijf wat in de afgelopen 10 jaar voor Raid 0 gekozen heeft ipv Raid 10 of Raid 5. De kosten van een serieuze Raid controller was vaker een argument, maar dan komen bedrijven uiteindelijk uit bij raid 1. Als dat genoeg snelheid oplevert is daar ook niets mis mee.

Maar als ik kijk naar de huidge servers kun je daar vaak een flinke hoeveelheid 2.5" disks en dus SSDs in kwijt. Ik zie dan ook weinig toekomst voor dit soort kaarten buiten het extreme performance gebied.
Ik doelde meer op thuisgebruik voor de enthousiaste tweaker onder ons, niet zozeer in de business setting :-).
Hoe zit dat met TRIM support bij zo'n kaartje? Bij de meeste pci-e raid ssd's is dat niet mogelijk toch.. Neemt de bruikbaarheid van een dergelijk apparaat dan niet enorm af?
In dit filmpje kan je de volledige line-up ssd's zien van ocz op de ces, en er is ook een bij waar in een raidopstelling trim zit. Dit zou de eerste keer zijn voor zover ik weet.

http://www.youtube.com/watch?v=dbj6NOsIBFw
Ja hij heeft het daar over dit kaartje (Z-Drive R3) en zegt expliciet dat er TRIM ondersteuning op zit. Bedankt :)
"De Z-Drive R3 is echter meer dan een aantal in RAID geschakelde SSD's op ÚÚn kaart. Zo heeft OCZ speciaal voor deze kaart haar eigen 'Virtualized Controller Architecture' technologie ontwikkeld, waardoor de NAND geheugenchips effectiever aangestuurd kunnen worden met als resultaat hogere doorvoersnelheden. Daarnaast biedt deze technologie van OCZ ook ondersteuning voor features als TCQ, NCQ, SMART monitoring en zelfs TRIM. Normaal gesproken werkt TRIM niet als meerdere SSD's in raid worden geschakeld, maar door de extra softwarelaag die OCZ op de Z-Drive R3 heeft gebouwd zouden TRIM commando's van het besturingssysteem wÚl effectief verwerkt kunnen worden. Dankzij TRIM worden verwijderde bestanden ook daadwerkelijk uit de geheugencellen geschrapt, zodat er meer lege ruimte overblijft om snel nieuwe bestanden naartoe te kunnen schrijven."

Bron: http://nl.hardware.info/nieuws/22055/ocz-lanceert-z-drive-r3
Dit is echt ideaal voor zaken waar je veel IOPS bij nodig hebt. VDI is zo een stuk gemakkelijker te realiseren. Twee van deze dingen, paar fiberchannelkaarten en wat van die nieuwe Xeons erin en off you go. Dit zal meteen onze 10gbit switches volpompen, dat dan weer wel...

Dit wordt erg interessant om in de gaten te houden en het zou mij niet verbazen als deze in high/end SAN´s terecht zouden komen, voor o.a. VDI. SSD is al bijna een must als je een grote omgeving heeft, maar dit maakt het een stuk interessanter.

edit @ hieronder: 1U machines... Nah, gewoon blades ;).

[Reactie gewijzigd door Chocola op 28 januari 2011 13:09]

ik weet niet waar jij je servers koopt, maar ik heb eigenlijk geen servers die het niet hebben ;)
Dit is een mooie oplossing om veel io performance in kleine doosjes te stoppen. Het is prima mogelijk om 12 of meer cores in een 1U machine te stappen, er is echter veelal geen ruimte voor een storage oplossing die kwa performance daarin meekan (als je dus lokale storage wil).

Afgezien daarvan is dit idee natuurlijk niet nieuw, zie ook fusion IO kaarten die al langer op de markt zijn.
Heb jij nog pizzadozen ? Maken ze die nog ? Blades !!!
Dit laat wel mooi zien dat de ontwikkelingen op het gebied van de SATA standaard te ver achterlopen, zelfs SATA3 kan deze snelheden niet bijhouden.
Deze nieuwste SATA standaard piekt op 600 mb/s
http://en.wikipedia.org/w...3.0_.28SATA_6_Gbit.2Fs.29
vergeet niet dat deze SSD oplossing in RAID opereert... Wanneer ik 2 SATA600 schijven in RAID 0 draai dan kom ik ook op zo'n 400-500 MB/s...

Ik ben overigens erg benieuwd naar de prijs van deze snelheidsduivel!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True