Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties
Submitter: Martijn13

Geheugenfabrikant OCZ werkt aan solid state drives met een interne raid-controller. Daarmee hoopt OCZ een betere performance uit zijn ssd's te persen. Het geheugen wordt in tweeŽn opgedeeld en in raid-0 aangesproken.

Jmicron logoDe nieuwe ssd's zouden binnen ongeveer twee weken moeten verschijnen, zo denkt een OCZ-medewerker die de drives op een forum introduceerde. OCZ beoogde de techniek voor deze solid state drives voor de opvolger van de derde versie van de Core-serie in te zetten, maar besloot de raid-drives een eigen serie-aanduiding te geven. De Apex-ssd's zijn gebaseerd op de hardware die in de Core V2-ssd's werd gebruikt, maar OCZ voegde een raid-chip aan de ssd's toe en splitste het nand-flash in tweeŽn en gaf iedere helft een controller. De computer ziet de interne raid-oplossing niet en herkent de drive als regulier sata-apparaat.

Aangezien de drives geŽvolueerde versies van de Core V2-ssd's zijn, maakt OCZ nog steeds gebruik van de vaak verguisde Jmicron-controller. De doorvoersnelheid van deze geheugencontroller is voldoende om rappe sequentiŽle lees- en schrijfsnelheden in benchmarks op te laten tekenen, maar vooral met random i/o's hebben ssd's met die controller moeite. OCZ publiceerde dan ook resultaten van de drive met Atto Disk Benchmark, die alleen sequentiŽle tests uitvoert. In combinatie met een chipset van Nvidia meldt OCZ lees- en schrijfsnelheden van respectievelijk 160MB/s en 140MB/s, terwijl een ICH8-southbridge van Intel respectievelijk 180MB/s en 140MB/s mogelijk maakt.

De datastromen worden door de interne raid-controller van de Apex-drives niet gecached, aangezien cache-geheugen ontbreekt. Mede daarom raadt de OCZ-poster aan de drives in een raid-opstelling in te zetten: hardware-raid zou de voorkeur hebben, maar ook de softwarematige raid die door menig southbridge mogelijk wordt gemaakt, zou de prestaties ten goede komen. Ook zou het de voorkeur hebben Windows uitgebreid te tweaken voor gebruik met de nieuwe ssd's: zo zouden diverse functionaliteiten, zoals het indexeren van schijven, de slaapstand, prefetch en superfetch moeten worden uitgeschakeld. Bovendien zou het draaien van Windows in een Steadystate-modus de prestaties ten goede komen. Keerzijde hiervan is echter dat, aangezien Windows dan in een ramdisk geladen wordt, alle veranderingen aan het besturingssysteem tijdens een sessie na een herstart verdwijnen.

De Apex-ssd's zouden nog dit jaar moeten verschijnen in versies van 30GB, 60GB, 120GB en 250GB. De prijzen van de solid state disks zouden op of iets boven het niveau van de Core V2-serie komen te liggen. Aangezien de drives echter alleen in raid goed zouden functioneren, dus wanneer twee identieke Apex-drives gekocht worden, zijn de ssd's niet echt zo budgetvriendelijk als OCZ wil doen voorkomen.

OCZ Core ssd's
Moderatie-faq Wijzig weergave

Reacties (47)

Tijd om SATA te dumpen als interface en over te gaan op 8x en/of 16x PCIe interfaces. SATA2 doet 300MB/sec, ongewtwijfeld te weinig voor een Intel X-26 M/E. Bovendien lijkt het me onnodig om een conversieslag uit te voeren van SSD <-> SATA <-> PCIe. Vaak zit de SATA controller gewoon via PCIe aan de southbridge vast. Kost dus onnodige rekencycles. Nu goedkope SSD's al over de limiet van SATA1 zit, lijkt het me tijd. De voordelen van SATA zijn me uberhaupt niet duidelijk; het lijkt me slechts nadelig?
Het voordeel van sata is dat de ssd's op een willekeurige moderne sata-controller aangesloten kunnen worden en onder een willekeurig besturingssysteem gebruikt kunnen worden zolang deze ondersteuning heeft voor de betreffende sata-controllers. Tevens biedt het de mogelijkheid om ssd's te hotswappen en in raid te zetten om op deze wijze de prestaties en redundancy te verbeteren.

Een pci express-ssd zou betekenen dat er vooral in servers in hele andere infrastructuur gebruikt moet gaan worden. Hoe ga je die dingen in swapbays stoppen, hotswapbaar maken, aansluiten op een backplane en ervoor zorgen dat alles op afstand te managen is?

Voor sas en sata zijn producten die deze features bieden in ruimte mate beschikbaar. Wat we onderhand wel nodig hebben is een upgrade naar 6Gbit/s bandbreedte per poort, maar daar wordt aan gewerkt.

Zodra ssd's in de buurt komen van 600MB/s lijkt me de sequentiŽle doorvoersnelheid overigens niet echt meer een issue. De schrijfresponstijd van flashgeheugen is een veel grotere beperking.
PCIe kan gewoon hotswapbaar zijn, en er is een server PCIe uitvoering in de vorm van een backbone oplossing. Mogelijkheden zat dus. en de schrijfsnelheden zijn ook wel in orde. Kijk bijvoorbeeld naar de bestaande 4x PCIe oplossing die al op de markt is en stel je dat met grotere capaciteit chips voor op een raid niveau meteen in een 16x slot (of aan de HT bus oid)
3Gbs is niet 300MB/s delen door 8 he, niet door 10 ;) Oke, dat is de theoretische snelheid maar met draden en eigen controllers is dat altijd haalbaar (USB-devices dus niet, firewire weer wel net als SATA1/2).. Dan is het dus 350+MB/s
Doet elke controller intern niet al een soort van raid-0? Ik meen me te herinneren dat bijvoorbeeld de Intel SSD's het geheugen via 10 kanalen tegelijk kan aanspreken, en zodoende de sequential read kan verhogen.

Dit klinkt meer als een hack om de limitaties van de (budget) JMicron controller gedeeltelijk te verbreken.

[Reactie gewijzigd door Xandrios op 19 december 2008 20:20]

Dat klopt inderdaad. De Intel X25-M en X25-E hebben tien kanalen, de huidige Mtron-ssd's vier kanalen met in de planning voor 2009 een achtkanaals controller. De oplossing van OCZ is kennelijk het in raid zetten van twee flashcontrollers.

De bottleneck van de OCZ Core-ssd's is de hoge responstijdtijd die optreed bij uit uitvoeren van kleine schrijfacties op bestaande data. Deze hoge responstijd is een eigenschap van flashgeheugen. De slimmere controllers proberen er omheen te werken door wijzigen in blokken van het flashgeheugen zoveel mogelijk te voorkomen en cachegeheugen in het ontwerp op te nemen. De JMicron-controller kunnen dit kennelijk niet. Het in raid zetten van twee JMicron-controllers zal wel wat helpen om de prestaties te verbeteren, maar wonderen moet je er niet van verwachten.

Een betere oplossing is het gebruik van een raidcontroller met onboard cache (bijv. Areca ARC-1200 van 150 euro) en het zoveel mogelijk verplaatsen van data die vaak wordt gewijzigd (pagefile, temp, userdata e.d.) naar een harde schijf.

[Reactie gewijzigd door Femme op 19 december 2008 20:30]

Tja... als ik vaak wijzigende data niet op de SSD mag zetten, waarvoor zou ik dan nog een SSD aanschaffen? Mooie grote aaneengesloten bestanden trek ik ook heel snel van een traditionele harddisk af.... Daarvoor heb ik geen SSD nodig.

Je vraag dan om bestanden die potentieel het meeste baat bij een SSD zouden hebben, niet op de SSD te zetten.

En om nou 150 euro uit te geven, om een brak ontwerp te verbeteren... Zit je tegen die tijd niet gewoon op de prijs van die Intel X25? Dan zou ik dus gewoon die Intel kopen.
Flashgeheugen is (vergeleken met een harde schijf) zeer snel in random reads. De sequentiŽle leessnelheid van de nieuwste modellen is ook erg hoog. Flash is echter erg traag op het uitvoeren van kleine wijzigingen van bestaande data. Dit wordt veroorzaakt door het feit dat een heel blok gewist moet worden om reeds geprogrammeerde pages in dat blok te kunnen wijzigen. De betere controllers kunnen hier goed omheen werken, zoals de Intel X25-M is verbijsterend snel is zolang er vrije pages beschikbaar zijn op de ssd. Een Mtron presteert ook goed maar is in random writes hoogstens vergelijkbaar met een harde schijf. De dommere ssd's hebben niet eens cache wat hen nog een extra achterstand geeft op harde schijven.

De bestanden die het meeste baat hebben bij een ssd zijn de bestanden van je besturingssysteem en applicaties/games. De schrijf I/O van de pagefile, userdata en tempfiles hebben meer baat bij een grotere cache dan bij de lage leestoegangstijd van flashgeheugen. Met een grote write-back cache wordt de responstijd van schrijfacties nagenoeg nihil zolang de data in de cache past. Dit zal vaak het geval zijn bij pagefile I/O, het wegschrijven van data in de user dirs en het webschrijven van tempfiles. Een ssd + grote write-back cache is een ideale combinatie. Zeer snel lezen, zeer snel schrijven.

Een raidcontroller met cache zal overigens niet alleen de ssd sneller maken maar ook de eventuele op deze controller aangesloten harde schijven.
Een betere oplossing is het gebruik van een raidcontroller met onboard cache (bijv. Areca ARC-1200 van 150 euro) en het zoveel mogelijk verplaatsen van data die vaak wordt gewijzigd (pagefile, temp, userdata e.d.) naar een harde schijf.
De nieuwe Vertex serie van OCZ is hiermee dan mischien wel een winnaar. Die heeft namelijk zowel een andere controller en tot 64MB aan cache geheugen onboard. Dat elimineert in ieder geval al het gebruik van een toch wel prijzige raid-kaart bij een simpele setup of laptop.
Klopt, meerdere chips worden parallel gezet om zo meer data tegelijk te lezen of te schrijven.

Twee brakke controllers in raid zetten is imho geen oplossing voor de problemen. Veel meer random write IOPS zul je er hier niet uit gaan persen, en dat is nu net het grote probleem met Core series.

Dus zolang ze de zelfde controller aanhouden zal er weinig veranderen.

Gemiste kans lijkt me!
Waarom niet raid 00 met 4 controllers of 000 met 8 of raid 0000000000 met 1024 etc.
Kortom, beetje zinloos om dit met "raid 0" aan te duiden.
raid0 met 4 of 8 of 1024 disks heet nog steeds gewoon raid0.

en waarom dat niet is zal wel te maken hebben met de ruimte die het kost. en misschien nog wel belangrijker de grote van de chips en bijbehoordende kosten.

de jmicro controller heeft 4 kanalen, dus elke controller die je toevoegt heeft minimaal 4 chips nodig.
met 4 controllers dus al minimaal 16 flash chips. in totaal 20 chips. word al krap in die 2.5inch behuizing.
ook moet je dan flash chips zoeken met een relatief kleine capaciteit anders word je schijf veel te duur. vaak worden die niet eens meer gemaakt tegen die tijd dat ze hiervoor goedkoop genoeg zijn omdat ze niet meer rendabel zijn.

[Reactie gewijzigd door Countess op 20 december 2008 00:52]

@ elleP
Deze vraag heb ik mij ook al afgesteld.
De schaalbaarheid van dergelijke modules is echt perfect.
SSD leent zich dan ook uitermate goed voor een dergelijke snelheidsoptimalisatie.

Ik verwacht dat we een dergelijke techniek inderdaad op korte termijn zullen krijgen.
Dat is gewoon de manier om het aantal I/O-ops enorm op te krikken en tevens de data doorvoer.
Fout, bij raid 1 (redundantie, alles wordt 2x weggeschreven) verlies je de helft van je opslagcapaciteit. Bij raid 0 verlies je niets aan ruimte.
Eens even kijken of ik het goed begrijp...

OCZ heeft een SSD met een brakke controller, zodat random writes gigantische vertragingen oplevert. Om de hoeveelheid random writes te beperken, gaan we er intern twee in RAID-0 zetten, zodat ze beiden gemiddeld nog maar de helft krijgen.
Maar dat werkt nog niet goed genoeg... Dus gaan we ze extern nog eens in RAID-0 zetten, zodat ze nog minder random writes krijgen.

Werkte blijkbaar nog steeds niet goed genoeg, dus gaan we ook ook nog eens windows zodanig configureren, zodat er niets op de schijven gedaan wordt. Hetgeen prestatie verlagend is, omdat je dus geen baat meer hebt van prefetch (factor 5) of indexing (factortje 100)

En DAN eindelijk leveren de SSD mooie prestaties...

Maar je moet ze natuurlijk niet voor normaal werk gaan gebruiken, je mag er alleen benchmarks op draaien.


Ehm.. Misschien handiger gewoon die klote controller de vullisbak in te gooien? |:(
Leuk, maar zonder goede doorvoer rate ben je er niks mee.

offtopic maar wel intressant: Kom ik op een idee, waarom geen geheugen in raid plaatsen voor grotere doorvoer snelheid of is dit zo moeilijk? Geheugen in RAID-1 bv geeft (theoretisch) het dubbele van de snelheid. Dus heb je 4 keer 2GB aan geheugen steken (8GB totaal) kun je gewoon in raid-1 dan totaal 4GB gebruiken maar wel aan het dubbele van de normale snelheid. Zeker met de latency enzo van het nieuw geheugen :(
Je zal wellicht RAID-0 bedoelen...
DDR2 en DDR3 gebruiken nu al dual/triple channel. Alhoewel uit tests blijkt dat bij DDR2 dit geen echt groot effect had. Hopelijk werkt triple channel een stuk beter.
En idd, de latencies van DDR3 zijn op dit moment echt voor te huilen. DDR3-1333 met huidige latencies is volgens mij trager dan DDR2-800 met 4-4-4-12 latencies ... (en is dan nog stukken duurder voor 1GB minder als je 3x1GB DDR3-1333 vergelijkt met 2x2GB DDR2-800)
Graag zou ik hierover 's een test lezen op T.net

[Reactie gewijzigd door cedrique op 20 december 2008 11:34]

Raid-0 is toch uw opslag verhogen he als 1 geheel dat doe je nu al, 4 latjes van 2GB bv wordt 8GB kun je gebruiken als 1. Het is echt wel de Raid 1 dat ik bedoel voor de doorvoer snelheden serieus op teschroeven. Voorbeeld met hd's 2*500GB wordt 1TB of in Raid1 500Gb met dubbele doorvoer snelheid, zou het zelfde kunnen gebeuren met geheugen 4 latjes van 2GB in Raid 1 wordt 4GB met dubbele doorvoer in dual of trippel channel, dus dit word dan eigenlijk QUAD of "6" channel, geheugen.
In raid-1 moet gewoon alles dubbel (tegelijkertijd) weggeschreven worden, daar win je al niets bij. De media zijn gewoon exacte kopies van elkaar.
Bij lezen zou idd elk medium voor de helft van de data kunnen zorgen zodat je theoretisch dubbele leessnelheid bereikt.
Ja ok maar dan nog is het nog altijd waarschijnlijk sneller dan de dual en tripple channels en derbij tis maar een idee of het ooit in productie gaat is een andere vraag :) :Y) 8)7
Dit heb ik zoieso nooit begrepen, als een raid 0 opstelling beter is, waarom niet combineren in 1 unit.

En vooral bij zoiets schaalbaars als een SSD is raid 0 gewoon ideaal.
Raid0 is niet beter, het is sneller. Maar wel complexer, en gevoeliger voor falen.
Er is niks komplex aan RAID-0, blokjes van bijv. 32kb worden om en om naar een disk geschreven ; de oneven blokjes naar disk-A, de even naar disk-B. Zo simpel is het. Natuurlijk is dat gevoeliger voor falen; nu heb je 2X de kans dat er een disk kapot gaat (of meer bij meerdere disk in raid-o).

Ben bang dat je weer dezelfde issue's gaat zien bij deze disks, RAID-0 is geen geneesmiddel voor een brakke jmicron controller; lijkt me.

[Reactie gewijzigd door Madrox op 19 december 2008 23:52]

In zo'n situatie is het net zo gevoelig voor falen als er geen gebruik van maken.

Je hebt 2x 64 miljard plekken om je byte op kwijt te kunnen. Dat is evenveel als 1x 128 miljard plekken om je byte kwijt te kunnen.

Maar 1x 64 miljard plekken zal 2x zo weinig bij mis gaan, maar is ook weer 2x te klein.

Het is maar hoe je het interpreteert :)
Ik denk dat je niet naar de bytes moet kijken, maar naar andere onderdelen die kunnen stuk gaan. Ik weet niet wat er in een ssd zit, maar als er een "niet-geheugen-chip" er mee stopt en er van die chip maar 1 per ssd aanwezig is, dan ben je in een raid 0 opstelling de gegevens van de andere schijf ook kwijt. Je hebt in raid 0 dus twee keer zoveel risico op het stuk gaan van zo'n chip...

Tis wel hoe je er naar kijkt, maar dan moet je wel goed kijken ;)
Neuh; dit betreft puur de onderverdeling.
Bit kapot in deze situatie is 't zelfde als een bit kapot in iedere andere situatie.
Data wordt overigens ook op SSD's in een meervoud opgeslagen.
(Meestal low-level in een 3-voud)
Als ik het goed begrijp werken de schijven dus intern in raid, en voor goede prestaties moet je ze zelf ook nog een keer in raid hangen ?
We wachten de tests maar weer even af.
Maar, kan je twee van deze schijven dan ook weer in een raid0 opstelling leggen? :)
Lijkt me wel, daar Windows een dergelijke SSD als een "gewone" SSD herkent (zie tekst).
Zou je meerdere Raid-0 units in een Raid-1 opstelling kunnen plaatsen? :Y)
Ja, dat heet RAID-01. Een andere variant is RAID-10. Hier worden meerdere RAID-1 arrays in een RAID-0 array geplaatst.
ja waarom niet? het word gewoon herkend als 1 schijf, dus kan je ze in alle soorten raid plaatsen dunkt mij!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True