Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 66 reacties

Enkele reviewers hebben de pci-express ssd-kaarten van Fusion-io aan de tand mogen voelen. Volgens de eerste testresultaten blijken de doorvoersnelheden van de ioXtreme-kaarten allerminst tegen te vallen.

HotHardware kreeg de beschikking over twee pci-express-kaarten van Fusion-io: de ioXtreme en de ioXtreme Pro-kaarten zijn solid state drives die niet aan een sata-poort gehangen worden, maar hun data via de pci-express-interface uitwisselen. De ioXtreme-kaart wordt als standalone-ssd in een computer verwerkt, terwijl de Pro-versie bedoeld is voor raid-opstellingen. Met de kaarten wordt een administratie-pakket, ioAdministrator, meegeleverd, waarmee de prestaties te meten zijn en de instellingen van de ssd's beheerd kunnen worden.

Als eerste test werd de Pro-ssd geformatteerd en aan de performance-benchmarksoftware voor harde schijven Atto Disk Benchmark onderworpen. De 80GB mlc-drive noteerde bij deze test een leessnelheid van ruim 800MB/s, met uitschieters naar 815MB/s. Ook het wegschrijven van gegevens verliep net wat sneller dan bij een standaard sata-schijfje: de ioXtreme Pro liet een snelheid van 320MB/s optekenen. De hoge prestaties worden overigens gekoppeld aan een flink prijskaartje: de Pro-versie van de ioXtreme zou 1500 dollar kosten, terwijl de 'gewone' versie 900 dollar moet kosten.

Atto-resultaten Fusuin-io ioXtreme Pro
Moderatie-faq Wijzig weergave

Reacties (66)

Het blijft toch supertriest dat reviewers blijven kwijlen over de transfer rates van dat soort oplossing....

Transferrates zijn niet interessant bij SSD!!!

Het zijn juist de lage seektimes die wel interessant zijn. Die zijn in de praktijk namelijk de ECHTE bottlenecks van harddisks.
En aangezien het juiste kleine files zijn die die bottleneck zo hardnekkig maken is het ook niet zo vreselijk dat SSDs nog niet zo groot zijn als harddisks.

Maar dat simpele feit wil er blijkbaar maar niet in bij reviewers. Hoe vaak ze er ook op gewezen worden...
Voor de toepassing waar ze vandaag hun geld waard zijn, zijn IOps belangrijk. Maar binnenkort moeten die dingen bij particulieren en daar heb je toch echt wel meer interesse naar doorvoer. De IOps van een thuisgebruiker kunnen ze ondertussen aan of ze weten dat ze op een blacklist komen.
Nee, ook particulieren hebben veel meer baat bij lage seektimes. (alleen beseffen ze dat zelf niet)
Lage seek is sowieso een non-issue bij ssd's. 0,1ms of 0,09ms maakt niet uit als je van hdd's komt. En de IOps van een thuisgebruiker kunnen ze ook wel aan.

Blijft enkel bandbreedte over en dat gebruik je constant thuis. Meer dan de 20sec die je sneller bent bij het opstarten. Als je nog het oude opstarten gebruikt want bij alle OS'n is het populair om gewoon in S4 in te slapen en bij een gemiddeld thuisgebruiker met Windows en 2GB geheugen moet er dan enkel één file van 2GB ingelezen worden.
Op welke planeet heb jij het afgelopen jaar gewoond?

De tergend slechte prestaties van de SSD's met een JMicron controller hebben aangetoond dat een lage accesstime helemaal geen non-issue voor een SSD hoeft te zijn. Sterker, het was een gigantisch probleem! Bij random writes kregen die krengen het voor elkaar om een gemiddelde latency van 200ms te produceren! Dat is meer dan 10x langzamer dan een simpele harddisk

Lage accesstimes bleken helemaal niet gegarandeert bij SSD's, en was het belangrijkste onderscheid tussen de verschillende modellen. Hoewel de moderne controllers het zaakje goed onder controler hebben, zitten er nog steeds enorme verschillen in IOPs van de SSD's.
Heb je eindelijk een supersnelle SSD via PCI-express aangesloten; een full-duplex low latency parallelle interface, gaan ze simpele doorvoer testen. :'(

Een HDTune Pro met wat random I/O scores lijkt mij véél interessanter.

En het feit dat ze SLC geheugen gebruiken zegt mij dat ze geen goede controller hebben kunnen vinden. Intel heeft bewezen dat MLC geheugen uitstekende scores kan leveren en in bepaalde gevallen zelfs hogere performance dan SLC geheugen. Voor SLC is echter geen geavanceerde controller vereist, wellicht dat dat de reden is voor dit type geheugen te kiezen. De enige third-party MLC-controller die het redelijk doet is Indilinx. De Intel controller steekt daar met kop en schouders bovenuit.
Voor slc-geheugen is net zo goed een geavanceerde controller vereist als voor mlc-geheugen. Slc-geheugen is weliswaar sneller maar het latencyverschil is veel minder groot dan het enorme verschil tussen een controller die het flashgeheugen beschrijft als ware het een normaal block level device of een controller die om de beperkingen van flashgeheugen probeert te werken met copy on write-technieken en dergelijke.

Het levende bewijs hiervaan zijn de slc-ssd's met een JMicron JMF602. Die presteren nog steeds gewoon slecht.

De reden dat hier slc-geheugen is gebruikt is dat dit product is gericht op gebruik in servers en daar hecht men waarde aan de langere levensduur (en betere prestaties) van slc-geheugen.
Ze positioneren deze lijn nogal nadrukkelijk op 'the desktops and workstations of content creators and extreme gamers'. Voor servers zijn er de iodrives, met nog iets pittiger prijskaartjes.
Ze hebben wel een SLC versie, deze is bedoelt voor servers, de ioDrive (80GB, 160GB) & ioDrive DUO (320GB)
http://www.fusionio.com/Products.aspx

De snelheden van deze dingen zijn echt om te kwijlen: 1.5 GB/sec schrijven / 1.4 GB/sec lezen aldus Fusion-io.

Prijzen zijn echter niet mals:
De 80GB versie van de ioDrive kost rond de $3000,- de ioDrive duo (in 320GB & 640GB) kost zelfs nog meer.
Zie ook http://www.tomshardware.c...lds-Fastest-SSD,7254.html
Ik heb hier een ioDrive 80Gb (zakelijk) en ik kan bevestigen dat de snelheden werkelijk fenomenaal zijn. Die kaart draait letterlijk rondjes om een intel X25-M postville, en dat zijn niet de langzaamste SSD's. De kaart zit momenteel in een database server en de snelheid is meer dan enkele factors omhoog gegaan.
Lijkt me nog interessanter in een RAID opstelling, of werkt dat niet via PCI-E?
Zou wel moeten kunnen (kan ook met een aantal RAID kaarten), de vraag is of de kaarten dat zelf ondersteunen.
Ja dat ondersteunen de kaarten (de pro variant althans).
SLC heeft een langere levensduur wat belangrijk is voor potentiele kopers van dit soort hardware. Deze dingen worden niet verkocht als boot schijfje voor tweakertjes maar voor 24/7 servers waar er continu hard gewerkt moet worden en standaard MLC geheugen binnen de kortste keren versleten is.
De Samsung controllers zijn ook niet slecht hoor. Bij tweakers zie je altijd roepen over Intel of Indilinx, maar ondertussen steken alle OEM's lekker SamsungSSD's in de systemen. Iets lagere prestaties maar voor een leukere prijs en ze hebben er capaciteit voor.
Het is maar goed dat ze dit systeem als PCIe aanbieden. Zelfs de derde generate SATA haalt deze snelheden niet. Mja, misschien multilane (kan dat naar 1 device?) maar dat zit alleen op dure RAID-kaarten. Van de andere kant wel jammer dat de kaarten er zo duur van worden, maar er zijn vast mission critical servers waarin dit voordeel biedt t.o.v. andere SATA-connected enterprise-SSD's.
Het nadeel van een dure PCIe-kaart is dat je je data niet redundant kunt opslaan. Je zou dan met twee kaarten moeten werken. Als je raid gebruikt kun je goedkopere ssd's in raid 5 draaien en zo toch hoge prestaties halen. De nieuwste raidcontrollers van LSI Logic halen doorvoersnelheden van meer dan 2GB/s en hebben ook nog eens een ram cache aan boord.
Dat kan wel met PCIe kaarten, maar dat moeten ze dan expliciet ondersteunen. 3 of meer van die kaarten zouden in theorie geprogrammeerd kunnen worden om samen te werken en een hardware-RAID5 te vormen. De berekeningen kunnen ze dan ook best onderling verdelen. Een beetje zoals SLI bij videokaarten ;)
ik heb zo'n vermoeden dat je in mission critical nog altijd SAS (SCSI) zult vinden.
Je heb ook andere oplossingen, dingen zoals RamSan (ook SSDs), die lopen ook niet via SAS (SCSI). Deze lopen via Fibre Channel of InfiniBand, dus direct gillen dat mission critical altijd nog SAS (SCSI) zal zijn is heel kort door de bocht.
Goede vooruitgang zo! Alleen jammer dat ssd's nog niet zo groot zijn. Voor de "normale" mens die een fileserver heeft zal het nog wel even duren voordat dit aantrekkelijk is in raid opstelling.

Vraag me alleen af of de chips direct op de kaart zitten of dat je nou een losse ssd moet aansluiten. En welke grootte hebben ze het in het verhaal over?

EDIT: 80gb lees ik.

[Reactie gewijzigd door DJJ op 29 oktober 2009 18:56]

Als je even doorklikt naar de bron van het artikel dan zie je enkele afbeeldingen. Deze ssd's zien eruit als een oude grafische kaart met een klein heatsinkje. Ook nemen ze maar 1 slot in beslag, dus als je wil kan je er gemakkelijk enkele naast elkaar in je kast proppen. :)
De 'normale' mens zou gewoon een x aantal 1TB sata's nemen en 1 (kleine) SSD voor het OS op de fileserver.

Een fileserver voor de 'normale' mens zal gericht zijn op diskspace en niet op snelheid.
voor minder geld koop je 4 postvilles en hou je nog geld over. (raid 0 doet elk moederbord tegenwoordig)
en dan heb je 4 sata aansluitingen nodig, kost het je CPU kracht om de raid te voeden en ben je nog steeds langzamer als 1 Fusion...
Is dat zo? Als in: wat is de latency van een postville versus dit ding (transfer snelheid is niet interresant. Hoevaak lees je 800Mb aan data in een keer in? Nooit dus).
Meeste raid controllers schalen zelfs niet meer boven 2ssd's in raid. Noch in bandbreedte, nog in IOps.
Mooi spul maar echt schofterig duur... dat is echt niet nodig... gewoon lekker op je gemakje wachten op gunstige prijzen...
Dit soort uber-oplossingen worden nooit betaalbaar. Blijft enterprise-level. Want tegen de tijd dat het betaalbaar kán worden, performt het niet voldoende meer en worden ze weggeconcurreert door 16Gbps SATA5. Ook tegen die tijd is er wel weer een andere interface is vele malen sneller is dan het PCIe van nu.

Misschien dat je *deze* kaarten dan op de tweedehands markt kunt vinden, maar nieuw blijven dit soort oplossingen onbetaalbaar voor stervelingen.

[Reactie gewijzigd door _Thanatos_ op 2 november 2009 22:52]

Nu hopen dat er somehow geboot kan worden van zulke schijven in te toekomst....
Waarom kan dat nu niet? Gewoon eigen bios op het kaartje, en je kunt booten.

Je kunt tenslotte ook booten van raid-kaartjes bijvoorbeeld.

edit: ok, wist ik dus niet, thanks.

[Reactie gewijzigd door 19339 op 29 oktober 2009 23:13]

Dat schijnt met deze kaarten dus niet te kunnen, wellicht dat het inderdaad mogelijk is na een firmware upgrade maar tot nog toe zijn ze niet bootable.
Zie ook artikeltje op Toms Hardware:
Fusion-io said that while the new ioXtreme isn't bootable, the company will release a firmware update at a later date to enable booting and other features.

[Reactie gewijzigd door hellbringer op 29 oktober 2009 21:36]

Kwestie van je bootloader op een CF kaartje zetten en je OS op deze schijf. Moet jij eens kijken hoe dat boot.
Helaas nog geen Boot ondersteuning :'( ze zijn wel bezig zeggen ze om het wel te laten booten. Tot die tijd wacht ik het maar af :/
Ga eerst maar eens braaf sparen. :+
Dan gooi je toch een bootmanager op een usb-stickje? :)
Tegenwoordig met gigabit is het wel lekker als je de transfers met > 100MB/s voorbij ziet gaan in plaats van de 50-60 van nu. Daarnaast worden bestanden die men met internet binnenhaalt ook steeds groter, vroeger was dat 350/700MB voor een film. Nu is het al rap 10GB. Als je die film van je cachedisk weg moet schrijven is het wel lekker.

[Reactie gewijzigd door NoxiuZ op 29 oktober 2009 22:49]

Hoe meer SSD's hoe beter, het kan alleen maar goedkoper worden met meer concurrentie. Ik zelf zou nooit zoveel uitgeven voor een SSD, maar voor in servers/renderfarms misstaat zoiets niet :)
volgens mij is bij renderen de harddisk niet de bottleneck, het zijn de cpu's die zich voor de volle 100% in moeten zetten.

voor (database)servers lijkt het me wel een prima toepassing.
op zich kan het voor gigantische scene's meewerken (met veel diskswapping)
maar eigenlijk moet je dan gewoon meer ram kopen.
of je scene beter optimaliseren.
Bij renderen misschien niet, maar bij bijvoorbeeld realtime kleurcorrecties op HD materiaal moet er rond de 1GB per seconde worden weggeschreven...best een uitdaging op zich... Punt is wel dat SSD in die hoek nog niet erg gebruikt wordt vanwege de te kleine opslag capaciteit. Ze kunnen echter wel gebruikt worden in hybrid storage pools, een feature van ZFS, waar ze dienen als cache tussen RAM en de disken in.
Zo werkt het vandaag niet bij SSD's. Concurrentie alleen gaat niet helpen want geheugen gaat nu al voor een goedkope prijs en we willen geen tweede debacle zien waar je dan goedkope ssd's in de winkel krijgt welke trager zijn dan een hdd door hun slechte kwaliteit.
De technologie verder ontwikkelen om het goedkoper te kunnen doen is de enige oplossing en dat komt er niet op een maandje of zelfs een jaartje.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True