Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 84 reacties
Submitter: TheBorg

OCZ heeft een nieuwe interface voor solid state-drives ontwikkeld, die vele malen sneller moet zijn dan de snelste sata-variant van dit moment. De High Speed Data Link-interface zou per kanaal een snelheid van 20Gbps kunnen halen.

Volgens OCZ is de huidige technologie om ssd's met de rest van het systeem te verbinden niet afdoende. De ssd-fabrikant heeft dan ook HSDL ontwikkeld om deze bottleneck op te heffen. Via een enkele HSDL-verbinding zou het mogelijk moeten zijn om snelheden tot 20Gbps te realiseren, dat is meer dan drie keer zo veel als met de huidige sata-600-specificatie mogelijk is. OCZ biedt de techniek licentievrij aan en is in overleg met verschillende fabrikanten om de verbinding standaard ondersteund te krijgen op moederborden en raidcontrollers. Tot die tijd levert het bedrijf bij elke HSDL-schijf een speciale pci-e-insteekkaart mee, waarop de schijf moet worden aangesloten. Het eerste model van de kaart zal een enkele schijf ondersteunen, maar OCZ heeft ook al een model met vier aansluitingen op stapel staan.

De eerste ssd die van de nieuwe aansluiting gebruik gaat maken is de 3,5" grote OCZ Ibis. Intern bestaat deze drive uit vier SF-1200-chips van Sandforce die in een raid-opstelling zijn geplaatst. OCZ maakt gebruik van een standaard-sas-connector om de schijf met de insteekkaart te verbinden. In de eerste tests blijkt de schijf behoorlijk indrukwekkende prestaties neer te zetten, met sequentiële lees- en schrijfsnelheden die respectievelijk 800MBps en bijna 700MBps weten aan te tikken. De Ibis komt qua leesnelheid vaak dicht in de buurt van de Fusion-io, een ssd die rechtstreeks in een pci-e-slot wordt gestoken. Met het wegschrijven van data blijkt de Ibis zelfs sneller te zijn. Een ander voordeel is dat de Ibis, in tegenstelling tot de Fusion-io, bootable is.

Omdat de schijf intern gebruikmaakt van een raid-opstelling, is het niet mogelijk om het trim-commando door te sturen. In plaats daarvan doet de schijf aan garbage collection in idle toestand, waardoor de prestaties over een langere termijn op niveau blijven. De eerste Ibis-schijven moeten nog dit jaar uitkomen, waarbij de capaciteiten van 100 tot 960GB lopen. Het goedkoopste model moet 529 dollar gaan kosten.

OCZ Ibis OCZ HSDL OCZ HSDL
Moderatie-faq Wijzig weergave

Reacties (84)

Hiermee blijft Intels Light Peak toch met 10Gbps achter.

maar 529 dollar voor 100Gb is wel weer erg veel, ik denk dan ook dat ze voorlopig bedoeld zijn voor servers etc.
Lightpeak is bedoeld voor extern gebruik met kabels die meters lang kunnen zijn. HSDL is voor intern gebruik met kabels van waarschijnlijk max 1m, als dat al haalbaar is, want 1 meter is al extreem lang op deze snelheden. (Bij 1 meter kabel staan er al 36 "bits" tegelijk op de kabel, oftewel, als je de tijd bevriest en met een probe over de kabel gaat kom je elke 2,7cm een andere waarde tegen.)

Ik moet wel zeggen, 5Gbps per LVDS paar (met 8b/10b codering 6,25 GT/s) is zeer indrukwekkend PCIe gaat nu net naar 8 GT/s, en die hoeven geen rekening te houden met waardeloze kabels en connectoren.

Tevens zie je hier wel het verschil tussen een enkel bedrijf dat probeert een standaard te introduceren en een organisatie/groep waar veel bedrijven (IEEE/SATA/JEDEC/USB/etc) die proberen een standaard vast te leggen. Een enkel bedrijf kan dit vele malen sneller door minder rompslomp, en daardoor loopt het een stuk voor op wat een dergelijke groep doet.

[Reactie gewijzigd door knirfie244 op 30 september 2010 14:23]

ze lopen dan misschien voor, maar de technologie moet nog eerst vechten om erkenning.
Als meerdere bedrijven samen een standaard vast leggen, wordt van bij het design rekening gehouden met wensen van iedereen. De standaard heeftd an ook van in het begin genoeg volgers. Dat gebeurt bij dit voorbeeld niet. Dus als deze standaard werkelijk revolutionair is en goed doordacht, is er een kans(je) dat andere bedrijven dit oppikken. De kans lijkt echter groter dat een ander bedrijf geïnteresseerd is, maar liever nog feature X had gezien, en dus een eigen implementatie maakt. Als vervolgens meerdere bedrijven hetzelfde doen, is zo'n standaard (bijna) waardeloos.
Tja, standaarden hebben nu eenmaal altijd 2 kanten. Ze zijn goed omdat ze voor iedereen gelijk zijn en er dus meer mogelijkheid tot concurrentie is, maar terzelfdertijd zijn ze ook slecht doordat het een samenraapsel van aparte ideëen is. Kwaliteit wordt vaak ingewisseld om andere marktspelers aan boord te houden/krijgen.
Klopt in theorie misschien wel, maar omdat ze het licentie vrij aanbieden, lijkt me toch dat er zeker wel interesse voor zal zijn...Ik weet niet hoeveel spelers op de markt zulke technologie licentie vrij aanbieden, maar mij klinkt het redelijk bijzonder in de oren....
Inmiddels was toch al een heel tijd bekend dat er verbindingen met veel hogere snelheden benodigd zijn en niet alleen voor SSD, Het lijkt wel of de hele industrie heeft lopen slapen op dit gebied.

Dus dit geld zowel Intel met Lightpeak, wat nota bene alleen op verzoek van Apple gemaakt is, als alle ander fabrikanten. Terwijl de problemen met de huidige bandbreedte met gewone kabel links ook al een hele tijd bekend zijn.

Het lijkt erop dat niemand echt vooruitgang wil, iedereen wil een standaard maken waarvoor de rest van industrie maar moet betalen en waarvan men elk jaar of twee met een nieuwere versie moet uitkomen, zodat men nog meer binnen te halen.

Ik hoop dat OCZ nog veel meer met die link kan doen.
Ze lopen dus helemaal niet voor, SATA600 bestaat al erg lang (al is pas vrij kort geleden de eerste schijf geintroduceerd die er wat aan heeft). Dat is ook 6 Gbps. Over inderdaad die crappy connectoren.
De 10 Gbps is een initiële snelheid. Lightpeak kan in z'n huidige vorm schalen tot 100Gbps.
Daarnaast zijn, zoals knirfie244 al aangaf, de doelen van de 2 architecturen iets anders, hoewel ik het een goed idee zou vinden als er '1 bus to rule them all' zou komen, voor zowel intern de kast als extern.
hoewel ik het een goed idee zou vinden als er '1 bus to rule them all' zou komen, voor zowel intern de kast als extern.
Daar kun je nog wel een poosje van dromen: het probleem is dat de enige bus die iedereen gelukkig kan maken er één is die in alles beter is dan een bus, die gespecialiseerd is in één of twee dingen.
Als ik nu in een PC of server kijk wat er zoal voor verbindingen tussen devices gebruikt worden, dan zou deze bus ongeveer de volgende specs moeten hebben:
De doorvoersnelheid moet hoger zijn dan wat nu beschikbaar is
én de bus moet minstens net zo veel apparaten aankunnen als elke huidige bus
én die mogen elkaar niet vertragen want dat doen p2p verbindingen nu ook niet
én het ding moet lage latency bieden aan alle devices
én er moeten bidirectioneel grote hoeveelheden signalen tegelijk op de bus kunnen zodat je geen wachttijden krijgt bij intensief gebruik
én hij moet eenvoudige connectoren hebben anders wordt het leven erg ingewikkeld bij plug-and-play
én het moet allemaal hot-swappable zijn
én hij moet ook stroom leveren over de bekabeling
én er moet prioriteit aan devices kunnen worden toegekend
én dan moet ie ook nog goedkoop zijn.

De reden dat er zoveel verschillende bussen in gebruik zijn is dat je van die lijst min of meer naar hartelust kunt aanvinken wat je wilt hebben, maar dat sommige van die criteria anderen uitsluiten. Sowieso is het laatste criterium natuurlijk niet meer gehaald als je de rest voor elkaar hebt.
Je hebt gelijk, maar al deze eisen schalen steeds mee: throughput moet steeds hoger, latencies moeten steeds lager, er moeten steeds meer apparaten kunnen worden aangesloten etc.
Lightpeak is wat mij betreft al een hele grote stap de juiste richting op:
- het is optisch,
- er komt (als we Intel mogen geloven) support voor een koperkabel naast de fo-kabel om randapparatuur van stroom te voorzien,
- het is bidirectioneel,
- je kan meerdere apparaten aansluiten (tot 7 in een daisychain topologie dacht ik),
- het is hot-pluggable,
- de connectoren worden eenvoudig genoeg (ze gebruiken voor R&D de usb connectors maar dat verandert nog),
- de throughput is hoger dan concurrerende technologieen,
- uitstekende latencies (dat krijg je al snel bij fiberoptics)
- er is QoS

Het enige waar ik geen zicht op heb op het moment is de prijs van het alles.
Dit alles maakt Light Peak IMO een goede kandidaat om van USB2/3, FireWire, SATA en misschien zelfs ethernet misschien niet de protocollen zelf maar in elk geval de hardware te vervangen.
Lightpeak is een hardware technologie. HSDL is een protocol. M.a.w. er kan zoiets bestaan als een HSDL lightpeak kabel.
Dit is dan ook geen normale SSD. Maar een Extreme performance SSD. Er worden immers 4 SF1200 chips gebruikt. Daarnaast heb je ook nog een raid controller nodig. En een chip voor het HSDL gedeelte kortom ze zijn ook veel duurder om te maken.

Deze SSD's zitten ook in een heel ander markt segment. Zo ver ik weet niet speciaal het server segment.

[Reactie gewijzigd door Astennu op 30 september 2010 13:50]

Jij wilt een snelle bootable server hebben :) ?
Handig toch ~700mb/s lezen.

OT:Je ziet toch ook echt elke dag vernieuwingen over een SSD he!
Ik hoop dat ze ooits nog goedkoper worden }>
lol 700mb/s - dat is ECHT bijna instant on, dit lijken me leuke schijven voor bijv de cash van een database in een server parkt, - een blade met genoeg lees kracht om een database niet in ram te hoeven cashen. het nadeel is dat het flash blijft en je dus OF sneller je disks moet vervangen of minder writes moet zien uit te voeren. en voor dat laatste heb je vrij specifieke instellingen nodig.
Zolang er niks bekend is over de toegangstijd kun je helemaal niets zeggen over "instant on" of niet. Zal wel snor zitten (<0.1ms ofzo), maar toch. 700MB/s met een latency van 2 dagen kan ik je ook leveren door je iedere seconde een CDtje op te sturen :+
Eerlijk gezegd.. het klinkt alsof ze gewoon 4 sas/sata 600 MB/sec kanalen bundelen. Dat zou ook verklaren waarom ze de connector daarvan gebruiken.

Reken even mee: SATA-600 is 6 Gbps per kanaal. Maal 4 is 24 Gbps. Trek er de overheads vanaf en je komt precies op die 20 Gbit aan reeel te halen snelheid.

De vraag is wmb of ze de 4-disk-raid0 chip op de SSD hebben gezet, en dus de 4 channels gebruiken als een gebundelde verbinding (wat overigens ook in de standaard staat), of dat ze de pcie kaart als raidkaart gebruiken en die 4 sf1200 drives gewoon ieder over een sata600 kanaal aansluiten. Waarschijnlijk zal het het eerste zijn want bij mijn weten ondersteunt sf1200 geen sata600 kanalen.

Edit: inmiddels op Anandtech leesbare sheets gevonden en een fatsoenlijke uitleg, dus het zijn geen SAS/SATA kanalen, maar PCIe lanes, en op dit moment nog 1.1 lanes ook van slechts 250MBps, dus voor een capaciteit *nu* van 1000 MBps oftewel 10 Gbps.

[Reactie gewijzigd door Jasper Janssen op 1 oktober 2010 10:39]

Wat een rotzooi weer uit het OCZ kamp. Dit systeem bevat echt een belachelijke hoeveelheid abstractie en overbodige complexiteit. Even de trip aflopen die je niet te vervangen bytes afleggen op deze OCZ setup, vergeleken met een FusionIO drive:

Van begin tot eind voor de OCZ deze setup:
- Flash
- Sandforce controllers
- sata links op de print met connectoren en een interne backplane-achtige constructie (dus geen native PCIe implementatie!)
- RAID controller
- PCIe-over-SAS kabel
- passive PCIe switch
- PCIe slot

Nu voor een FusionIO IODrive:
- Flash
- proprietary controller
- PCIe slot

Dit is niets anders dan een OCZ Z-drive revo-drive in een loze, complexere vorm, met meer kwetsbaarheden en net zo weinig performancewinst en flexibiliteit. (pak een areca met losse Vertex 2's en hebt een veel snellere en vooral flexibelere setup)
Bovendien is er al een standaard voor PCIe-over-een-kabel, gebruik die dan gewoon ipv rotzooien met een SAS kabel met eigen pinout.

Hoewel OCZ probeert leuke producten probeert neer te zetten, worden deze duidelijk bedacht tijdens de vergaderingen van het marketingteam en niet tijdens de lunchpauzes van de engineers. Jammer.

Edit: de "HSDL-link" is een PCIe 1.1 x4 link, dus 1GB/s of 8Gb/s. Dat is heel wat anders dan de genoemde 20Gbit/s.

Beetje jammer dat deze post als offtopic wordt gemarkeerd, veel relevanter kan ik hem toch niet maken hoor.
OCZ gebruikers op hun teentjes getrapt? :+

[Reactie gewijzigd door P5ycho op 1 oktober 2010 07:53]

Je vergeet nog een stap, namelijk de PCIe naar PCI-X switch voordat de 3124 er op komt. De 3124 is nu eenmaal stukken goedkoper dan vergelijkbare chips met native pcie lanes.

Architectonisch heeft deze drive niets van doen met de Z-drive (4x barefoot controllers? please. Niet vergelijkbaar met Sandforce), maar alles met de revo-drive.

De revo-drive is een pcie kaart met daarop een pcie/pcix bridge, een SiI 3124, en 2x SF1200 + nand, en een expansion connector (so far geen uitbreidingskaartjes voor) met de andere twee SATA links erop.

Dit is kortom kwa snelheid vergelijkbaar met een Revo-drive inclusief het nog niet bestaande expansie kaartje eraan.

Native pcie ssd controllers bestaan niet, dus je kunt het OCZ moeilijk kwalijk nemen dat ze ze niet gebruiken bij hun implementatie.

Zowel de Revo-drive als de Iris zijn in feite manieren om Vertex 2 schijven in een pc te hangen die minder ruimte innemen dan een stapel Vertex 2s met een losse controllerkaart erbij. De prijs is ook heel vergelijkbaar met een zelfde stapel Vertex 2s.
unlike the Z-Drive the RevoDrive is stupidly fast in desktop workloads.

If you’re wondering how this is any different than a pair of SF-1200 based SSDs in RAID-0 using your motherboard’s RAID controller, it’s not.

[Reactie gewijzigd door Jasper Janssen op 30 september 2010 17:38]

Je vergeet nog een stap, namelijk de PCIe naar PCI-X switch voordat de 3124 er op komt.
Vanuit een/mijn engineer's perspective gezien is dit echt om te huilen.
Native pcie ssd controllers bestaan niet, dus je kunt het OCZ moeilijk kwalijk nemen dat ze ze niet gebruiken bij hun implementatie.
FusionIO kan het, dus waarom OCZ dan niet? OCZ plakt alleen bestaande conponenten aan elkaar, dat wil niet zeggen dat ze niet de moeite kunnen nemen zelf aan de slag te gaan met een controller. De kosten en risico's zijn natuurlijk veel groter en dat is vast niet te verantwoorden tov. het management, maar dan hoef je nog niet met zo'n gedrocht aan te komen zetten imho. Ga dan gewoon de FusionIO IOdrive resellen.
Ik neem het ze dus wel degelijk kwalijk. Ik vind het gewoon geen nette oplossing.
Zowel de Revo-drive als de Iris zijn in feite manieren om Vertex 2 schijven in een pc te hangen die minder ruimte innemen dan een stapel Vertex 2s met een losse controllerkaart erbij. De prijs is ook heel vergelijkbaar met een zelfde stapel Vertex 2s.
De Ibis kost 500 euro voor 100GB, dat vind ik aardig aan de prijs eerlijk gezegd. Zeker niet vergelijkbaar met 2x Vertex2 60GB.
Logisch ook, omdat ze zoveel extra's hebben moeten introduceren dat de de controllers nu een net zo grote rol gaan spelen als het flash in de prijs, en daarmee de kleinere Ibis drives relatief duur blijven.

[Reactie gewijzigd door P5ycho op 1 oktober 2010 08:03]

Een 100GB Iris is dan ook vergelijkbaar met 4 Vertex2s 30GB en een simpele HBA zonder raid, en dan ben je toch even wat meer kwijt dan voor 2 60s. Maar je hebt gelijk, de prijzen van Iris liggen bij introductie net niet competitief me roll-your-own.. Alleen wel vergelijkbaar, zelfs als het ietsje meer is. En het gebrek aan kabelrotzooi is wel een significant voordeel.

BTW, dat interne backplane lijkt voor de verbinding naar de dual-SF1200 kaarten gewoon standaard SAS connectoren te gebruiken (die zijn dual-channel, dus dat kan prima), daar zal niet echt wat mis mee zijn kwa betrouwbaarheid. De backplane verbinding naar het controllerkaartje herken ik niet maar zal gezien de verdere opzet waarschijnlijk ook een standaard fourchannel sas/SATA connector zijn. Hoe betrouwbaar PCIe lane op een SAS channel is is waar de echte vraag ligt, maar op zich zijn de technieken van SAS2 en PCIe 2 erg vergelijkbaar, ook kwa bitrate, en PCIe 1.1 zoals nu zal dan ook nauwelijks problemen op kunnen leveren lijkt me.

FusionIO kost het dubbele, dus het idee dat er dan maar geen concurrentie moet komen kan ik me niet in vinden. Ik vind het juist erg knap dat OCZ het voor elkaar krijgt om standaard chips op een dusdanige manier aan elkaar te knopen dat ze veel goedkoper uit kunnen zijn voor vergelijkbare performance. Ik zou het zelf niet snel kopen denk ik -- voor m'n desktop is het te snel, en voor de meeste servers is het ook niet geschikt zonder een stuk meer testen -- maar het is best een moo concept.

Overigens, ook bestaande PCIe external standaarden zijn à) veel te duur en b) bedoeld voor extern en externe afstanden, en juist niet voor korte, interne afstanden.

Een prijsverschil van de helft vergeeft eenhoop kludginess, zeker in de initiële release.
...dat ze veel goedkoper uit kunnen zijn voor vergelijkbare performance.
Daar ben ik het nog niet mee eens. Als we IOps en instruction latency gaan vergelijken dan kan ik je zonder benchmarks al vertelllen dat de IOdrive de vloer aanveegt met de Ibis setup. Bovendien is de IOdrive in te zetten in de servermarkt zonder er slapeloze nachten aan over te houden.
...maar het is best een mooi concept.
Daar verschil ik dus van mening. Dit is niet de kant die we op moeten gaan met SSD storage imho.
Het is het enige denkbare concept dat OCZ kan ontwikkelen zonder echt flink te moeten investeren in nieuwe designs. Ik snap dat ze het zo doen, met een beetje marketingsaus klinkt het voor de gemiddelde tweaker super. Toch blijft het gewoon een nicheproduct dat vooral voor het aanzien van het bedrijf geproduceerd wordt, en hoogstwaarschijnlijk zeer weinig afzet zal zien. Zeker niet in de servermarkt iig.

Overigens ben ik het eens met je andere punten idd.

[Reactie gewijzigd door P5ycho op 1 oktober 2010 12:17]

OCZ heeft wel vaker niche/prestigeproducten, daar drijven ze op. Wat ze niet zijn is een chip ontwikkelaar. Dat kan je ook niet zomaar worden als je het niet bent. De FusionIO route is gewoon gesloten voor ze -- ze zijn geen bedrijf dat nu kan beginnen met iets ontwikkelen en dat dan 3, 4 jaar later op de markt brengen, zoals FusionIO dat gedaan heeft. Daarvoor hebben ze de lange adem niet, en ook (als je eerlijk bent) niet de visie voor. Zoiets is ook een gigantische gok, die ook fout kan gaan.

FusionIO heeft een mooi product, maar daar moet je je niet blind op staren. Wat ze hebben ontwikkeld is een pcie -> flash controller met veel kanalen (overigens waarschijnlijk wel op basis van bestaande bouwstenen denk ik), maar ze leveren die chip niet los maar gebruiken hem alleen op hun eigen product. Zo lang dat het geval is zullen de producten altijd vrij duur zijn.

Ondanks het feit dat FusionIO bestaat zijn er nog best veel workloads waarin SSD-RAID opstellingen worden gebruikt. Daarvoor heb je op dit moment de opties:

- pcie-based kaartjes, meestal niet lowprofile, maximaal een x aantal afh van je moederbord en kast
- een traditionele raid HBA met 2.5" hotswap plaatsen, bij een hoop servers gelimiteerd in hoeveelheid.
- een traditionele nonraid HBA met 2.5 SSDs en softwareraid.

Voor de laatste categorie kan bijvoorbeeld een opstelling met 4x IRIS en de te komen pcie16 -> 4x pcie4 bridge kaart stukken compacter uitvallen dan een opstelling met 16 losse SSDs en de bijbehoren power en sata kabels.

Een FusionIO is mooi, maar meerdere in een server wordt al snel lastig. Echt grote storage arrays zul je er dus nooit mee kunnen bouwen. Nu weet ik dat roterende media voorlopig de overhand zal houden bij storage-heavy setups

"De kant die we opmoeten" -- tja, als alles wat er uitkwam zich moest houden aan wat een bepaalde persoon denkt dat de goede kant op is, dan zouden we heel veel innovatie missen.

Eerlijk gezegd vind ik het brengen van pcie lanes direct naar drives en het daardoor afschaffen van SATA best een goed IDE. Dat is nl. ook precies wat de eerste IDE drives waren -- de ISA 8 en later 16 bits bus (met een beperkte hoeeveelheid controlesignalen) uitgevoerd over een 40 pins kabel. Dat de uitvoering van wat er aan die pcie lanes hangt nu niet zo effectief is, dat is weer heel wat anders, FusionIO zou bijvoorbeeld prima een 3.5" form factor drive kunnen ontwikkelen die via deze HSDL werkt en precies dezelfde performance haalt als d'n echten. Ook OCZ kan als er eenmaal PCIE/flash chips zijn heel simpel 3.5"en 2.5" form factor drives ontwikkelen met deze zelfde interface.
Inderdaad,
Ik denk dat je gelijk hebt.
Volgens mij kan het allemaal veel simpeler.
Ik denk dat de toekomstige SSD gecombineerd gaat worden met het geheugen.
Als je DDR3 geheugen en SSD's combineert op 1 kaart kun je via een interne link rechtstreeks van het geheugen naar de SSD schrijven of omgekeerd.
Misschien heb je dan nog enkele aansluitpinnetjes nodig om de schrijf- en lees-commando's af te vangen, maar dat is dan ook alles. Er hoeft dan geen enkele data-overdracht plaats te vinden via de PCIe, SATA of SAS.
Voordeel 1: DDR3 chips en NAND chips worden toch door dezelfde fabrikanten gemaakt.
Voordeel 2: DDR3-1600 werkt met een bandbreedte van meer dan 12.000 GB/s
Voordeel3: PCIe en SATA poorten blijven vrij voor andere dataverkeer.
Voordeel4: De interne link tussen geheugen en SSD is alleen intern, dus hoeft geen standaard te worden. Elke fabrikant kan hiervoor zijn eigen protocol gebruiken.
Daar kun je ook wat nadelen tegenover zetten:
- DRAM heeft een rechtstreekse link met de CPU core. Daar kun je geen flash naast zetten, en de interface is compleet anders.
- DRAM verder van cd CPU zetten is een drama voor je performance, zelfs als je je on-CPU caches vergroot. We hebben net een tijdje een on-die MCU, laten we daar lekker afblijven :)
- Data in je RAM is hele andere data dan op je storage media. Dat is niet samen te voegen.
- Het op zijn kop zetten van de hele interne architectuur van de huidige PC's is een groot drama, en wat je voorstelt is aardig ingrijpend

Naast dit alles: de enige reden om de SATA link te elimineren is latency, niet throughput. Je SSD komt echt tot z'n recht bij random operations, en daar gaat de door OCZ voorgestelde architectuur juist onderuit door al die extra abstractielagen.

Wat ik eerder zie gebeuren is NVMHCI ipv SATA:
http://www.intel.com/standards/nvmhci/index.htm
Hmmm, ik had gehoopt dat ze iets revolutionair nieuws ontwikkeld hadden, maar als ik het zo bekijk: een HSDL interface is in feite geen serieele maar parallelle interface, namelijk vier LVDS links die elk 5Gbps zullen doen.

Men had net zo goed vier sata-6 links aan zo'n drive kunnen hangen en dezelfde snelheidsverbetering kunnen hebben. Enige mooie is dus dat ze een connector gestandaardiseerd hebben.
Waarom zou je niet vier (of twee of noem een getal meer dan een) Satakabeltjes naar de SSD kunnen leggen? Ziet er misschien wat minder mooi uit dan een kabel, maar nu zou er dus weer een extra aansluiting op het moederbord moeten komen.
Dan moet je moederbord de SSD als RAID set aanspreken. Dat kan natuurlijk wel, maar dan moet je je wel afvragen waarom je niet gewoon 2 SSD's hebt gekocht.

Daarbij werkt TRIM dan niet meer (goed, bij deze SSD ook niet) en je random access kan eronder te lijden hebben.

Gezien deze nieuwe drive intern ook met RAID werkt is het wel een goede vraag waarom je die zou kopen ipv. 2 (of 3, 4, whatever) losse snelle SSD's in RAID.
Euhm die connector is een SAS connector en die bestaan toch al wel wat jaren.
ja maar dat gaat vast niet werken op een sas-controller ..... denk ik......

kortom nog eens verwarrend ook....
Leuk en aardig allemaal, maar de standaard SSD's komen net bij de 200MB, deze komt net boven de 800MB uit wat maar een 'klein' beetje boven de snelste Sata standaard is. Laat ze eerst maar eens tot de 600MB komen met standaard SSD's
Ik heb er geen bezwaar tegen om nu vast een aansluiting op mijn moederbord te hebben om over 1 of 2 jaar een SSD voor te kopen.

Alleen voel ik weinig voor een compleet nieuwe standaard. Het is ook wel handig om harde schijven, optische drives en SSD's allemaal met hetzelfde stekkertje/controller aan te kunnen sluiten. Weer een extra controller erbij zal ook de prijs van moederborden opdrijven.

Ik zou dus liever een nieuwe SATA versie zien met meer snelheid die ook backwards compatible is.
wel eens gehoord van sata port multipliers. straks hang je gewoon een hele raid array aan deze 20gbps poort. en heb je effectief "e-Sata on steroids"
-onzin had ik neergekwakt-

Met je eens, vaak worden de max. snelheden toch niet gehaald.

[Reactie gewijzigd door Exorcist op 30 september 2010 14:09]

dat is erg leuk dat dat met 1 schijf zo is, maar wat als je 4 hele snelle SSD's nou in raid 0 wil gooien?? Dan zou ik wel graag zien dat ik niet gelimiteerd wordt door de SATA600 aansluiting.
Ehm... Per SSD kom je nog steeds daar niet boven uit. Elke SSD gaat dmv. een SATA kabel naar de controller en die stuurt het dan weer door. Dus per SATA600 poort kom je daar nog steeds niet aan (tenzij ze bij die SSD intern al een soort van RAID configuratie gebruiken).
ja, maar bij SATA is het toch zo dat alle poorten tezamen SATA600 aankunnen, maar bij SAS is het 600 per kanaal en zou je theoretisch dus met 4 x een SSD met SATA600 snelheid dus veel hoger moeten kunnen komen dan de 600 in totaal??
Nee, dat is niet zo. Ik denk dat jouw klepel is dat SATA halfduplex is en SAS is fullduplex. Een SATA conector kan dus niet tegelijkertijd schrijven en lezen, maar slechts een van de twee tegelijk met 600 meg per sec. SAS 2 kan tegelijk 600 meg schrijven en 600 meg lezen. Dat ga je pas echt merken als je scala's aan schijven over een link aanstuurt, bij SATA via port multipliers (vrij beperkt, normaal tot 5 disks aan een SATA link) en bij SAS via expanders (kan twee niveaus achter elkaar en kan dus honderden schijven aan).

SAS heeft daarnaast de mogelijkheid tot kanalenbundeling, je kan bijv tussen een HBA en een DAS cabinet vier SAS kanalen bundelen voor een brede, snelle verbinding.
Zelfs een pci-e 3.0 x16 slot haalt 16Gbit/sec, dus die oplossing pci-e kaartje zal niet per definitie een betere oplossing zijn vergeleken met een normale SSD.
Kaarten genoeg die op pci-e draaien http://www.alternate.de/h...Drives&l2=PCI+Express&amp; (Duitse versie van Alternate). 700-800 mbps worden er ook al aangeboden..

Ik snap je punt dan ook niet helemaal met de 16Gbit/sec voor een pci-e x16 slot ... dat is wel 2Gbyte/sec oftewel 2048 Mbyte/sec. De schijven waar in dit stuk over gesproken wordt hebben het over 700-800 Mbyte/sec. Dan dekt de pci-e x16 voorlopig toch nog de lading ?

edit: het valt mij nu pas op dat de betreffende nieuwe link 20Gbps moet aankunnen wat 3x zoveel zou zijn als de huidige sata600 met 600 Mbps..... is 3x600 niet 1800 = 1.8 Gbps ? en wordt er dan niet 2Gbps bedoelt ?

nog een edit: heb het even nagelezen het is toch echt 20 Gbps (oke oke ... Gigabit) en pci-e 3.0 x32 sloten halen theoretisch 32 Gbps (ik heb echter geen idee of er als hardware implementaties bestaan)

[Reactie gewijzigd door DikkeDouwe op 30 september 2010 14:10]

Volgens mij haal je Bits en Bytes door elkaar.
Sata-3 = 600 MegaBytes / seconde dat is dus 600x8 = 4800 Megabits per seconde. Maar soms wordt ook wel met 10 bits gerekend vanwege error checking etc.
Dus dan zou het 6000Megabits/seconde zijn.
Meer dan 3x 6000 = inderdaad ongeveer 20.000 (20 Gbits/sec)....
pci-e 3.0 x 16 haalt 16GByte/sec. Dus 128GBit (iets minder maar niet veel)
Als dit een standaard wordt kunnen we nog vele leuke dingen verwachten. Tevens zul je dan ook zien dat gewone SSD's goedkoper gaan worden. Kan dat ook wat meer de mainstream markt in
Tevens zul je dan ook zien dat gewone SSD's goedkoper gaan worden.
Want nieuwe data overdracht standaarden verlagen de prijs van flash geheugen? Vergelijk een 16 GB USB stick met een 160 GB SSD en je zal zien dat de prijs ongeveer een factor 10 verschilt. Een 160 GB SSD is bijna letterlijk 10 16 GB USB stick in een verpakking. Uiteraard met een betere controller, maar dat zijn uiteindelijk de kosten niet.
Ja: de producten moeten namelijk concurerend blijven.

En zodra er SSD's komen die zo enorm veel sneller zijn, zullen de andere prijzen dus wat zakken.
Voila, weer een stap dichter bij het verdwijnen van de langzame SATA poorten. Op een gegeven moment prik je geen drives (SSD of met schijven) meer in je pc, maar geheugen. :)

Volgende drempel is de doorvoersnelheid van het PCI-e kanaal. :)

Nu OCZ met dit product probeert de grote markt aan te bouwen zullen de concurrenten ook wel volgen.

Hopelijk zal dit niet ontaarden in een wildgroei van connectors maar krijgen we straks dit soort spul standaard ingebouwd op mobos ipv. SATA connectoren.

[Reactie gewijzigd door Rarz op 30 september 2010 13:49]

PCIe 3.0 staat al op stapel en zou volgend jaar al op de markt kunnen zijn. De standaard voorziet in 1 GB/s per kanaal, dus 16 GB/s voor x16. Dit is wel maar het dubbel van de huidige standaard...
http://en.wikipedia.org/wiki/PCI_Express
Ik vindt dat mensen nog ff moeten wachten... SSD is net pas op de markt, en moet zichzelf nog evalueren.

De snelheden en betrouwbaarheid zijn nu nog slecht, en de prijzen erg hoog.
Wacht nog 6 a 12 maanden en kijk dan nog eens.

Volgens mij is het een wereld van verschil.
En nieuwe aansluitingen op Mobo ? Dan moeten we nog ff afwachten,
We kunnen wel van alles bedenken, maar zonder concrete informatie en bewijzen, zijn we alleen maar aan het gokken.

(wou dit ff kwijt <>mijn mening over deze situatie)
De snelheden en betrouwbaarheid zijn nu nog slecht, en de prijzen erg hoog.
Wat je even vergeet is dat performance van SSD's juist heel betaalbaar is. Wil je de performance van laten we zeggen een Intel X25-M 80GB benaderen, dan heb je al snel bedragen van 4 cijfers nodig om de performance te benaderen met HDD's.
De betrouwbaarheid is ook prima, de technologie is al een jaar volwassen wat mij betreft.
Zou het zelf niet weten, maar mensen gokken alleen maar, terwijl er niks over te vinden is... Hoe kan je dan je Argument waar maken, als je niks kan bewijzen..

En wat ik hier terug lees is dat Intel veels te duur is, en OCZ onbetrouwbaar is (wat ik weinig van merkt aan mijn RAM)

Dus vandaar dat ik ook zou, dat ze beter kunn en afwachten dan in een lucht krijpen terwijl er niks is ;)
Jij gokt natuurlijk net zo hard dat SSD's onbetrouwbaar zijn.

Intel is juist een hele tijd de SSD-to-get geweest. geen onvolkomenheden, retesnel, en een groot bedrijf erachter dat zich niet kan veroorloven om rotzooi op de markt te zetten.

Je RAM is geen SSD. Als je de problemen met de OCZ Vertex 1 (barefoot controller) gevolgd had, dat ding zat vol bugs. OCZ doet ook niet aan endurance tests met SSD's , jij bent hun kwaliteitscontrole. Ze hebben meer belang bij het eerst op de markt komen met een SSD, goed voor hun naam.

Als je nu een SSD wilt, neem dan een Intel X25-M, Micron RealSSD C300 of een SSD met Sandforce controller (Vertex II bijv.) Afwatchten heeft geen nut.
pff maar dit word er niet goedkoper op.. 100GB voor 530 dollar vind ik niet bepaald goedkoop
Als je zo nodig goedkop wil dan koop je een TB schijf van een paar tientjes, alleen dan niet klagen over de performance realtief tot een SSD...

Dit is niet alleen een iets snellere SSD, dit is een veel snellere SSD! Op bepaalde vlakken is de ioXtreme nog net iets beter (IOPS), maar die koste (bij introductie) $900 voor 80GB, $1500 voor de 80GB Pro versie. En de volledige IO-Fusion kaarten beginnen bij $5000 voor 80GB tot rustig $15.000 voor de 320GB SLC versie. Die dingen gebruik je dan ook over het algemeen niet in je desktop PC.

Als inderdaad die prestaties worden neergezet dan is ~€500 voor 100GB heel redelijk, het enige waar ik huigerig over ben is dat het een OCZ is, ze hebben echt veel te veel crap gehad met hun half bakken implementaties (zowel SSD als RAM). Ik zou toch echt twee keer kijken voordat ik een OCZ product koop...
Wat voor een problemen dan?

Ik heb nooit problemen met mijn OCZ ram gehad.
Omdat ik nooit last heb gehad van iets betekent dat nog niet dat er geen problemen zijn. Wellicht zijn er geen problemen met jou specifieke OCZ product, wellicht merk je die problemen niet en zijn ze er wel...

Ga maar eens de 140.000 posts in de zes grote SSDs topics bekijken, zeker de eerste paar generatie OCZs hadden flinke problemen.

Effe googlen, deze is van nog geen half jaar geleden:
http://www.anandtech.com/...quickly-to-stop-shipments

En zo iets kan een keer voorkomen, maar ik geloof dat dergelijke ongein zich voordeed bij 2 op de 3 series.
De eerste generatie van ieder product heeft problemen, niet alleen de SSD's van OCZ. Hele series met auto's worden zelfs teruggeroepen, om dan gelijk maar te stellen dat de auto fabrikant over de hele linie geen goede producten aflevert is gewoon onzin. Feit is dat ze nu gewoon prima producten afleveren.

Ik ben benieuwd of dit een nieuwe standaard wordt. Je ziet dat de SSD markt volop in ontwikkeling is en dat grotere bedrijven achterblijven qua ontwikkeling. De kleinere bedrijven kunnen veel sneller schakelen en OCZ doet dit heel goed op het moment. De grotere spelers als Intel, WD en Seagate lopen op het moment achter de feiten aan.
Concurrenten die in het begin stadium van de SSD bezig waren leverde wel producten met een stuk minder mankementen en loste de eventuele problemen op in de volgende generatie. OCZ probeerde de goedkoopste/snelste producten op de markt te zetten en gebruikte vervolgens de goedkoopste componenten die vaak nog eens slecht geïmplementeerd werden. Ik heb in de afgelopen paar jaar een hoop reacties gelezen dat SSDs bagger waren, deze reacties kwamen voornamelijk van OCZ gebruikers.

Ik verwacht dat als een serie auto's wordt terug geroepen omdat het bij te hard remmen het kinderzitje door het voorruit lanceert (inclusief kind) die autofabrikant voorlopig heel weinig auto's gaat verkopen.

Het is leuk dat je op de 'cutting edge' producten uitgeeft, maar als je als koper 50/50 kans heb om aan de verkeerde kant van het mes te vallen dan zou ik heel sceptisch naar die producten kijken. Wellicht is dit een super product, maar dat ga ik niet first-hand uitvinden. Laat staan dat ik iets dergelijks in een server zou zetten.

Intel maakt hele degelijke SSDs, WD is slechts pas in de SSD business gestapt en is daar een complete nieuweling in, Seagate SSDs durf ik even niets over te zeggen. Maar dat ze achter de feiten aan lopen is niet geheel waar, ze maken alleen gebruik van methodes die werken. Hoeveel klachten heb jij gelezen over Intel SSDs? Die Intel SSDs zijn wel een stukkie duurder, maar ze werken wel.
"I have to at least hand it to OCZ for acting quickly to pull the drives, especially after today's warning."
Ik heb nu al een aantal jaren een 32GB OCZ Solid Series SSD in gebruik en ik kan geen problemen opmerken los van de bekende jmicron controller problemen, maar zelfs dat valt nog reuze mee. Maargoed wie weet heb ik wel gewoon geluk met een goed product.
jmicron controller is toch een keuze van de producent. Er waren genoeg andere producten die geen gebruik maakten van de jmicron controller en wel netjes werkte.
Begonnen zo de eerste SSD's ook niet? Kan me wel herinneren dat er erg hoge prijzen aan vast zaten toentertijd.
Het is een premium product dus daar hoort ook een premium prijs bij.

OCZ komt ook met betaalbare producten; 120 GB voor 189 euro.

bron: nieuws: OCZ introduceert Onyx 2-ssd's
In verhouding tegenover de huidige SSD, vind ik de prijs nogal meevallen. Een OCZ vertex 60GB kost nu nog 120 euro. Maak er 100GB van en je komt uit op 200 euro. Dat is de helft van de prijs van deze HSDL, terwijl de snelheid 3 keer zo hoog is. Dus zeker ook aantrekkelijk voor de thuisgebruiker die eens iets extreems wilt proberen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True