Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 43 reacties

OCZ heeft zijn eerste pci-e-ssd met ondersteuning voor nvme officieel uit de doeken gedaan. De Z-Drive 6000 voor enterprise-doeleinden komt in twee lijnen beschikbaar: een met regulier mlc en een met het duurzamere enterprise-mlc.

De Z-Drive 6000 is een lijn 2,5"-ssd's met pci-e 3.0 x4-interface en ondersteuning voor nvme. Nvm-express is de opvolger van sata's ahci, dat lage latency's oplevert en optimaal gebruik kan maken van het parallelisme van solid state-geheugen. De Z-Drive-ssd's komen in een 6000- en een 6300-lijn, waarbij het enige verschil het gebruik van emlc en hhhl aic-form-factor voor laatstgenoemde is.

Beide types ssd's komen in versies met 800GB, 1,6TB en 3,2TB op de markt. Ze bevatten de PMC-Sierra 'Princeton'-controller en zijn opgetrokken rond 19nm-128Gbit-chips van Toshiba, moederbedrijf van OCZ. In het vierde kwartaal van dit jaar moet nog een 6,4TB-versie van de drive verschijnen.

OCZ claimt dat de sequentiële lees- en schrijfsnelheden van het 3,2TB-model van de 6000-serie op respectievelijk maximaal 2900MB/s en 1900MB/s liggen. De schrijfsnelheid bij het 6300-model ligt met maximaal 1400MB/s wat lager. Willekeurig lezen zou op maximaal 700k iops kunnen.

OCZ Z-Drive 6000OCZ Z-Drive 6000OCZ Z-Drive 6000OCZ Z-Drive 6000OCZ Z-Drive 6000OCZ Z-Drive 6000

Moderatie-faq Wijzig weergave

Reacties (43)

Kwam net dit artikel tegen, een blik in de SSD fabriek van OCZ:
http://www.anandtech.com/print/9218/ocz-fab-tour
Ik snap niet waarom ze niet verder borduren op de SAS3 standaard.
Nu komen er weer van die exotische kaartjes, probeer die maar eens te hot swappen.
Omdat NVMe dť nieuwe standaard is voor SSD's en SAS 12GB/s primair ontworpen is voor HDD's. Op elke SSD met een SATA of SAS connector zit een extra controller chip en AHCI bridge waardoor de SSD minder snel met het NAND kan communiceren.

Daarnaast zorgt NVMe voor gigantisch hoge doorvoersnelheden en nog lagere latency. Mede doordat NVMe een native driver krijgt.

Het plaatje in de Tweakers.net review van Intel's 750-ssd geeft goed aan wat het nut is van NVMe. reviews: De eerste nvme-ssd voor de consument getest

Conclusie: NVMe is verre van exotisch en de nieuwe standaard voor SSD's. Steeds meer server fabrikanten waaronder HP, Supermicro, Lenovo, Dell komen met mobo's met NVMe aansluitingen waar deze OCZ en Intel SFF 2.5" NVMe SSD's op kunnen worden aangesloten. Elk huidige moederbord kan al de HH-HL PCIe NVMe SSD's aan.
Dat NVMe heel efficiŽnt is, is leuk, maar in de serverwereld zijn een aantal zaken vanzelfsprekend:
  • Hotswap
  • Hardwarematige RAID
  • Bij belangrijke systemen: Failover
NVMe veroorzaakt problemen met al deze punten en alleen op het gebied van hotswap zijn er oplossingen aan de horizon. Met als gevolg dat servermarkt op dit moment massaal kiest voor SAS en SATA SSD's.

Belangrijk is ook dat de prestaties van SATA en SAS SSD's nog geen pijnpunt voor klanten zijn. Met name bij SAS kun heb je 24 gigabps per SSD beschikbaar als je beide poorten gebruikt. NVMe is potentieel zeker sneller, maar zolang klanten niet ervaren dat de SSD's hun servers afremmen zullen ze bovengenoemde punten zwaarder wegen dan het prestatievoordeel van SSD's.
Hardware RAID is een verouderd concept. In de tijd dat je Pentium Pro'tje overbelast was, moest je'm niet ook nog eens belasten met een software RAID. De situatie vandaag is echter dat Intel de koning is van goedkope transistoren dankzij massaproductie. Hardware RAID vereist ASIC's, en dat zijn dure transistoren. Daarom is hardware RAID technisch efficienter, maar software RAID economisch efficienter.

Wat het probleem is met NVMe failover ontgaat me. Hoe zou dat moeten verschillen met NVMe? Afgezien daarvan, in genoeg virtualisatie-oplossingen is het antwoord om de hele server te fail-overen. Dan heb je ook de hotswap niet meer nodig, dat kan dan offline.

Qua prestaties is de 24 Gbps het probleem niet. In het verleden keken we niet naar sub-milliseconde latencies van de controller, omdat de 10 milliseconde rotational latency toch dominant was. Met SSD's gaat dat steeds meer tellen, en kan NVMe dus met die laatste milliseconde helpen.
Je verhaal gaat niet volledig op. Alles in software doen betekend ook dat data meerdere keren over de pci bus heen moet. Stel je hebt RAID6 dan heb je je normale data plus twee parity schijven. Dit betekend dat je 3x de data over de bus naar individuele schijven moet versturen. Bij een RAID controller schrijf je 1x naar de controller zelf. Die het dan naar elke individuele schijf schrijft. Elk met maximale snelheid. Vele malen efficienter. Ook zou je cpu struikelen of significant belast worden met het verwerken van dit soort maximale data snelheden. Daar komt nog bij dat software raid welliswaar je data veiligsteld in de meeste gevallen. Maar zeker bij linux software RAID garandeerd het niet dat je machine blijft functioneren bij de uitval van een schijf!! Nog los van de stukken betere hotswap mogelijkheden van hardware RAID. Maar wie weet. Wellicht zien we in de toekomst nog een soort "sli" voor pci schijven die deze combineert tot een logische eenheid of iets dergelijks. Tot die tijd is het een interesante techniek met een hoop potentie maar zeker geen vervanger van hardware RAID.
Ik ga niet argumenteren of processoren snel genoeg zijn om in software af te kunnen handelen. Dat zijn ze voor veel toepassingen waarschijnlijk ook wel. Waar het wel om draait is dat het gewoonweg niet mogelijk is om een server te verkopen zonder hardware RAID. In 9 van de 10 aanvragen voor servers die ik ontvang, is hardware-RAID een harde eis. Dat klanten hardware-RAID eisen, heeft denk ik net zoveel te maken met het gemak en de zorgeloosheid ervan, dan dan angst dat de processor te traag is. Die angst speelt overigens wel een rol, en angst leidt vrijwel altijd tot beslissingen.

De geschiktheid van een schijf voor failover houdt verband met de tweede poort. De tweede poort zorgt ervoor dat twee verschillende RAID-controllers (die in een andere server kunnen zitten), bij de data kunnen, zodat je een systeem zonder single-point-of-failure kunt bouwen, dat automatisch handelt in geval van uitval van een component. Klanten die dergelijke systemen in gebruik nemen, zijn in vrijwel alle gevallen niet meer bereid om er afscheid van te nemen, omdat de failover ze veel waard is.

[Reactie gewijzigd door dmantione op 21 mei 2015 12:55]

Wanneer je applicaties zoals MySQL, Oracle Rac, Postgress, Exchange of VDI oplossingen draait op een "normale" SAS SSD dan heb je het over max 150.000 IOPS wat al heel optimistisch is bij 4kb random R/W acties. Dat is bij lange na niet voldoende en dan heb je veel van die SSD's nodig om die applicaties lekker te laten lopen.

Dan heb je NVMe SSD's zeker nodig en dan met name de PCI-e variant (HH-HL) waar je met bv >1.000.000 IOPS te maken hebt met een grootte van bv 3.2TB per kaart.

Dus dan wordt NVMe zeker interessant en worden SAS SSD's obsolete. Elke SSD bouwer bouwt nu verder op NVMe en laten SAS liggen vanwege de door mij genoemde "minpunten" in alle posts vandaag. Bv een HGST SN100 PCI-e kaart

[Reactie gewijzigd door Ibidem op 20 mei 2015 22:29]

Ja, maar welke zonderling rust een databaseserver uit met maar 1 SSD? In een databaseserver staan doorgaans belangrijke gegevens, dus je wilt RAID... en dus NVMe valt af. Maar geen nood... wat dacht je van een server gevuld met 24 SSD's? Voor een databaseserver gebruik je RAID10 om betrouwbaarheid te creŽren, en in RAID10 heb je dan effectief 150000*12 = 1,8 miljoen iops

Verder is het onzin enkel in iops te denken... voor databases klopt het, maar er is meer dan databases in serverland.
PCI-e SSD's van bv HGST zijn schaalbaar in een cluster van maximaal 32 PCI-e SSD's en daar heb je dan je "RAID" mogelijkheden.

NVMe bestaat niet alleen als PCI-e product maar dus ook als 2.5" SFF product. Daar zijn nu HBA's in ontwikkeling waar je dus wel RAID mee kan gebruiken. Zodoende zal SAS of SATA op den duur niet meer gebruikt worden. Teveel nadelen vs NVMe
Dus toch weer een HBA, maar welke dan? Als fabrikanten als LSI of Areca iets nieuws hebben zijn ze er als de eerst bij om mij met e-mails te bestoken of ik het wil testen, maar ik heb nog niets in die richting gezien. Dat ik al wel informatie heb van LSI over de volgende generatie SAS-controllers zegt denk ik een hoop.
Helemaal gelijk, NVMe wordt de nieuwe standaard voor High preformance SSD. Zou je dit nu voor thuis nodig hebben..... ik denk het op dit moment niet, maar in de toekomst zeker wel.
De nieuwste Macbook gebruikt ook een NVME flashdrive en zoals ik het begrepen heb is het niet alleen goed voor de snelheid en latency, maar schijnt ook een voordelig effect te hebben op het stroom verbruik.
Maar het is nooit verkeerd om deze standaard nu te omarmen, want het is vergeleken met SATA beter geschikt voor SSD's.

[Reactie gewijzigd door OkselFris op 20 mei 2015 20:39]

Inderdaad. En laat bij harde schijven nou net latency de grootste bottleneck zijn :)

De upgrade naar SSD heeft het merendeel van de latency problemen weggehaald, maar er blijft toch altijd genoeg latency om een goede nieuwe standaard op de markt te brengen.
SAS3 kan 12Gbit aan. De SSD uit het artikel doet al bijna 24Gbit en dat is al meer dan de toekomstige/actuele SAS4 op 22.2Gbit.

Dat er voor- en nadelen kleven aan elke oplossing, lijkt me evident maar puur op snelheid is de SAS3 standaard al achterhaald.

[Reactie gewijzigd door MAX3400 op 20 mei 2015 16:29]

Een SAS-apparaat heeft twee poorten, elke poort is 12 gigabps, dus een SAS-interface zou wel degelijk adequaat zijn geweest voor deze SSD als we het over bandbreedte hebben.
SAS 3.0 is gelimiteerd omdat het nog altijd via een HBA moet gaan, NVMe heeft als voordeel dat deze direct via de PCIe met de CPU verbonden wordt, daarom is een HBA ook niet meer nodig. Hierdoor kun je een veel hogere performance behalen met een veel lagere latency.

Tja en dan is aan jouw de keuze of je voor een PCIe NVMe zou gaan (wat inderdaad neit hotswappeble is) of je kiest voor de 2.5inch drive formaat wat wel hotswap heeft.

Supermicro maakt van het laatste al een tijd gebruikt van in hun servers.

[Reactie gewijzigd door Ijsklont op 20 mei 2015 16:31]

Waarom wil je deze nou weer perse hot swappable hebben? In een server omgeving hang je deze niet en ga je thuis deze swappen?

[Reactie gewijzigd door jporter op 20 mei 2015 16:36]

In een server omgeving hang je deze niet? Volgens mij is nvme voorlopig juist voor server bedoelt en niet voor thuisgebruik, zie ook de prijs. :)
Daarbij kunnen nvme ssd's gewoon hotswappable zijn hoor, wel wenselijk voor servers die je niet uit wilt hebben. :)

Edit: ik weet niet of je de plaatjes heb bekeken, maar daar zie je toch duidelijk.... servers. :)

[Reactie gewijzigd door Rudie_V op 20 mei 2015 16:41]

Hahah goede opmerking, ik heb het plaatje niet eens bekeken, ik dacht dat het hier om van die insteek PCI-E kaarten ging...
Daar gaat het ook om. Bekijk de plaatjes nog maar eens goed dan zie je, en wordt er gesproken over, physical PCIe.
Hij bedoelt echte pcie insteekkaarten zoals de door jouw genoemde intel 750 nvme insteekkaart. Deze drives zijn:
De Z-Drive 6000 is een lijn 2,5"-ssd's met pci-e 3.0 x4-interface en ondersteuning voor nvme. Nvm-express is de opvolger van sata's ahci,
Gewoon normale ssd's maar dat met een pcie interface ipv sata.

Edit: ik zie dat de intel 750 ook als 2,5" ssd beschikbaar is .:
http://techreport.com/rev...olid-state-drive-reviewed

[Reactie gewijzigd door Rudie_V op 20 mei 2015 17:15]

Opvallend dat ik bijna jaar een NVME SSD thuis heb en nu geld aan het reserveren ben voor een Intel 750 over PCIe.

Dat nieuwe technologie duur is, betekent niet dat je het niet thuis kan gebruiken.
Ik zeg ook niet dat het niet kan, maar je bent niet de doelgroep van deze nieuwe ssd's. Weinig mensen die het geld er voor over hebben of laat staan ook deze snelheid nodig hebben voor hun dagelijks gebruik pc'tje. Een normale ssd is goedkoper en volstaat ook voor 99+% van de thuisgebruikers. Maarja, we zitten hier wel op tweakers dus er zullen hier altijd wel mensen zijn die zo'n ssd wel gebruiken. :)
Dat zijn flink grote SSD's!

In een ander artikel zie ik prijzen genoemd van ~$1.70 per GB, dus die 800GB drive zal dan op $1360 uit gaan komen. Geen budgetdrive dus :)
Ze zijn dan ook bedoeld voor enterprise. Lees de introductie paragraaf.
Ik ken wel enkele enterpises die (moeten) letten op hun budget.
SSD's worden ook niet voor alles binnen een enterprise ingezet.
Ze worden normaal voor tijdskritieke applicaties gereserveerd.
Televoting wordt meestal op zo'n ssd's verwerkt.
Search engines zullen hier ook wel wat voordeel bij hebben.
In een beetje data netwerk zijn ze op OS/server niveau niet bezig met welke data waar en op wat voor een soort schrijf staat.
Budget is maar net wat je wel kan uitgeven. Voor consumenten is een goede snelle PCIe SSD nu ongeveer 1§ per GB. Ik vind dat niet duur maar hoe anderen (of enterprises) erover denken, weet ik niet.
Na Intel heeft nu OCZ hun nvme-SSD's geÔntroduceerd. Begin nu zeer benieuwd te worden naar de drives van Samsung en Crucial, dat zijn momenteel de populairste fabrikanten. Samsung is al bezig met productie maar van Crucial heb ik nog niet gehoord. Wellicht dat deze nieuwe interface een verschuiving in SSD-land kan betekenen :)
Allemachtig wat een snelheden en wat een ontwikkeling. De SSD's worden nu ook al snel steeds groter en sneller. Ik weet niet tot hoeveel GBit/s pci 3.0 ondersteunt maar als dit ook nog mogelijk is kan men voorlopig weer even vooruit
NVME lokaal vs. over 100GBit Ethernet:
https://www.youtube.com/watch?v=l2QBvNwJx64

Geen verschil...
Vergeet Sandisk niet. Kijk eens wat die bv maken:
http://bigdataflash.sandisk.com/infiniflash

512Tb in een 3u kastje.

of hgst met 3.3 tb nvme disks in beide soort behuizingen
http://www.tomsitpro.com/...d-sn100-sn150,1-2541.html

[Reactie gewijzigd door pauldaytona op 20 mei 2015 22:49]

En die connector op het (vermoedelijk) 2,5 inch model is een... NVMe-connector ofzo? Kan ik dat ergens op aansluiten in een bestaande pc, of moet ik eerst een pc hebben met een speciaal iets erin? Of zijn er PCIe kaarten waar ik ze op kan aansluiten?
Hee, OCZ, dat bedrijf heeft ook werkelijk zo'n vre-se-lijk goede naam in SSD land.

Jaja, het is overgenomen en wat al niet, OCZ komt er bij mij gewoon niet in, die hebben het toch wel erg goed verprutst met hun SSD's.
Reageer dan gewoon niet, heeft inhoudelijk weinig tot niets te maken met het nieuwsbericht. Om toch maar on-topic te reageren op jouw reactie.

Ja, OCZ deed het in het verleden (in het Vertex 3 tijdperk) niet best. Hun NAND i.c.m. de gebrekkige Sandforce controller heeft destijds bijna hun hele imago om zeep geholpen. Daarnaast ging het financieel niet erg lekker met ze en was een bankroet onvermijdelijk. (Zie ook)

Inmiddels zijn we bijna 3 jaar verder en is Toshiba (een van 's werelds grootste NAND producenten) volledig eigenaar van OCZ en is de kwaliteit van de producten beter dan ooit te voren. Ze hebben immers toegang tot de beste kwaliteit Toshiba NAND aangezien ze eerste keuze hebben uit de wafer. De "restjes" gaan naar andere SSD fabrikanten. Hun R&D afdeling is fors uitgebreid en dat is te merken door deze stap naar NVMe.

Voor de twijfelaars: kijk eens op hun RMA pagina waar ze transparant zijn over hun return & failure rate (extreem laag): http://ocz.com/enterprise/quality

En daarnaast hebben ze met hun uitgebreide garantie voorwaarden op bijna elk product een gratis advanced replacement optie incl gratis verzenden. Kortom: SSD defect? Een nieuwe is er binnen 1-3 werkdagen en de oude mag je gratis retourneren. Weinig fabrikanten met dergelijke voorwaarden hoor.

En aangezien een test meer zegt kijk dan eens hiernaar : Kitguru test 5x OCZ ARC100 SSD die na 300TB aan workload nog steeds gaan
Die SSD's werken volgens OCZ officieel tot "slechts" 22TB aan workload maar gaan ruim 13x zo lang mee. Nuff said....

nee, ben geen OCZ medewerker of iemand die belang heeft bij bovenstaand. Wordt gewoon moe van deze simpele reacties op oud en inmiddels niet meer relevant nieuws

[Reactie gewijzigd door Ibidem op 20 mei 2015 18:01]

300TB lijkt indrukwekkend, maar we mogen hopen dat ie het toch wat langer uithoudt. :)
http://techreport.com/rev...xperiment-theyre-all-dead
Hoezo lijkt? Als je als normale thuisgebruiker zo'n 15GB per dag verbruikt aan gewijzigde data dan is dat 5.5TB per jaar aan workload op je SSD. Dat is behoorlijk veel. Dan doe je dus 55 jaar met deze SSD voordat ie kapot gaat. Dan is 300TB dus een behoorlijke knappe prestatie voor een consumenten SSD!
Als je je link lees gaan die OCZ ARC's het na de 300TB begeven, ik zie dat de 4e het bij de 424TB begaf. Als je de link bekijkt die ik gaf zie je dat er SSD's zijn die het pas na de 2000TB begeven, en dat zijn ook gewoon consumenten SSD's, zoals de samsung 840 pro (240GB) die het als laatste bij de 2400TB begaf. Ik weet niet wat het prijsverschil is tussen de OCZ ARC en een samsung 840 pro, maar voor mij is het een makkelijke keus welke ik zou kiezen. :)
Als je dat blog even doorleest lees je ook heel snel dat dat soort duurtests veel minder zeggen over de kwaliteit van een SSD dan de meeste mensen denken. Dus "nuff said"? Don't think so.

Verder: allemaal leuk en aardig, maar dat imagoprobleem blijven ze waarschijnlijk de rest van hun leven houden, Toshiba had imo beter de hele OCZ naam kunnen schrappen, en SSD's onder hun eigen naam kunnen uitbrengen, Toshiba is een bekende naam met een prima reputatie.

Nu gaat het inmiddels wel goed ja, maar na zulke grote problemen kijk ik de kat wat langer dan 3 jaar uit de boom, en blijf ik bij producenten die vanaf het begin het al prima doen, zonder idiote uitvalcijfers, en in dat opzicht spannen Intel, Crucial en Samsung zeker de kroon. En dat voor, althans bij Crucial en Samsung, erg scherpe prijzen.
Ja hoor, ik denk dat ze bij HGST nog steeds wel eens het Deathstar-imago ervaren. Relevantie? Geen. En nee, bij de genoemde merken is niet alles perfect, bijvoorbeeld:

nieuws: Samsung komt eind april met nieuwe fix voor 840 EVO-ssd's

Het is niet moeilijk om merken aan te wijzen die een produkt op de markt hebben gezet waar een probleem mee was. Merken die structureel slecht zijn aanwijzen is stukken lastiger. En het huidige OCZ is natuurlijk niet meer hetzelfde als voor de overname door Toshiba, dus ik zie in ieder geval geen reden om OCZ nog zwart te maken.
Bij mij zeker wel, ik heb nog steeds een setje vertex3's in de productie draaien... kwa random writes rennen ze rondjes rondom bijvoorbeeld samsung 840 pro, of crucials... en ook minder uitval :) Ik weet niet hoe het kan, maar nog nooit problemen mee gehad!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True