EMC brengt pci-e-kaart uit voorzien van 300GB flashopslag

EMC heeft onder de naam VFCache een pci-e-kaart aangekondigd waarop 300GB aan nand-geheugen beschikbaar is. Het flashgeheugen is bedoeld om in een server geplaatst te worden en dient voor caching van veelgebruikte data.

De halfhoge x8-pci-e-kaarten in de VFCache-serie zijn voorzien van 34nm slc-flashgeheugenchips afkomstig van Micron. Op de kaarten zal in totaal 300GB aan nand-flash zijn geplaatst. EMC stelt dat een VFCache-kaart goed is voor 750.000 iops bij willekeurige 4K-leesacties en 91.000 iops bij willekeurige 4K-schrijfacties. De sequentiële lees- en schrijfsnelheden zouden 3 en 0,8GBps bedragen bij 128K-blokken, terwijl de latency lager zou liggen dan 50µs. Een VFCache-kaart verstookt 25W.

Volgens EMC zorgt de VFCache-hardware door de directe toegang via de pci-express-bus naar de cpu voor een aanzienlijke snelheidswinst ten opzichte van ssd's en harde schijven. De kaarten dienen dan ook als cachinglaag in servers waarbij EMC een driver meelevert om te bepalen welke data geschikt is om in de 'flash-cache' te plaatsen. Ook is een koppeling mogelijk met het Fully Automated Storage Tiering-platform van EMC. Hoeveel de VFCache-kaart gaat kosten, is nog niet bekend gemaakt.

EMC VFCache

Door Dimitri Reijerman

Redacteur

06-02-2012 • 20:03

37

Reacties (37)

37
37
22
2
0
8
Wijzig sortering
dat zijn gewoon van Fusion die IBM's.
Rebranded.

het nieuwe hieraan is de technologie waarvoor hij ontwikkeld is, wat hem zo speciaal maakt.
Wat deze kan doen andere PciE ssd's niet.
Het cachen zit niet in de kaart zelf, maar in de driver. Dus als je die driver op een andere SSD zet dan heb je precies hetzelfde.

Het is erg leuk, maar ik zie liever hiërarchische storage of een hiërarchisch filesystem in een OS zelf. Dan kun je zelf bepalen welke lagen je welke snelheid meegeeft en tegen welke kosten. Dan kun je ook meer doen dan alleen een cache, je kunt bijvoorbeeld battery backed RAM/SSD/15K schijven/7K2 schijven in die volgorde gebruiken. Dan is je storage betaalbaar en toch heel snel.

Diverse fabrikanten (waaronder EMC zelf) zijn al bezig met die hiërarchische modellen. Dus dit product voegt niet zo heel veel toe. Het is een redelijk rappe SSD met een slimme driver. En EMC kennende zal hij qua prijs wel bovenin de markt komen.
Ik kan me niet inbeelden dat EMC die driver gaat vrijgeven voor gebruik met een andere SSD oplossing. Trouwens het concept waarbij software gaat bepalen wat best op de SSD terecht komt versus HDD's kan je in diverse oplossing reeds vinden (oa. IBM SVC en StorWize doen net hetzelfde al is de driver daar de firmware van de vermelde oplossingen).

Tot op heden heb ik nog niets gezien wat bij deze EMC oplossing vernieuwend is.
Het is erg leuk, maar ik zie liever hiërarchische storage of een hiërarchisch filesystem in een OS zelf.
Uit het artikel:
Ook is een koppeling mogelijk met het Fully Automated Storage Tiering-platform van EMC
FAST is hiërarchische (tiered) storage op OS nivo.
Ja dat doen ze idd al. De SSD/15K SAS/7K2 NL-SAS laag zit al op hun SAN-bakken zoals VNX, VMAX en Symmetrix. Vandaar dat je dit ook moet zien als een uitbreiding om FAST net uit die storage boxen te halen en naar de server te extenden. De kaart werkt natuurlijk ook zonder FAST, alhoewel het natuurlijk mooier zal samenwerken met de andere oplossingen van EMC zelf ;)
Dit is geen opslag SSD, maar puur voor caching. Dat houdt dus in, als de host in power off gaat, dat deze SSD geen data bevat. Tenzij je het tiering principe gaat gebruiken icm deze kaart (zou ik niet doen, laat maar lekker op die SAN staan)

Zie het maar als een FC Host Bus Adapter (HBA) met veel geheugen :)
Flash houdt z'n data vast bij power-down. Dat is een eigenschap op bitnivo. "Cache" is puur een gebruiksvorm. Bits weten niet dat ze in een cache zitten, dus dat verandert niets.

"ReadyBoost" voor Windows gebruikt dat zelfs expliciet: dat is een flash cache om het booten te versnellen, en dat werkt uiteraard niet als je data weg is bij power down.
En wat kan deze dan doen... verklaar je nader.
Waarom is dit anders dan een RevoDrive?
single HDD - max ~200 IOPS
single SSD - max ~ 8000 IOPS
single PCI SSD > 80.000 IOPS

Dus vooral voor systemen met heel veel IO zullen erg blij worden.
Met 2 PCI SSD's haal je IOPS waar je met "normale" disken hele RAID config's nodig hebt, met erg veel read/write cache om in de buurt te komen van de PCI SSD's.
Je zou ook naar glas kunnen gaan, maar dan heb je een SAN nodig en ook dan moet je weer redelijk wat cache in het SAN stoppen, terwijl je ook meerdere HBA's in je systeem nodig hebt. ;)
Maar een revodrive is ook een PCI SSD. Het verschil is dus PCIe x8 bij deze kaart terwijl de Revodrive PCIe x4 heeft.

Deze kaart heeft wat meer read performance, maar als je een Revodrive x2 neemt dan heb je weer meer write throughput en IOPS.

In alle hardwarematige opzichten is dit apparaat dus vergelijkbaar met een Revodrive, alleen de specs zijn in detail anders.
Wat meer read performance?
750.000 iops
Mischien een foutje? If not is het tien keer zo snel dan een flink rappe SSD.

[Reactie gewijzigd door OddesE op 2 augustus 2024 18:44]

Dit werkt direct op de PCIe bus terwijl een SSD via een SATA verbinding moet werken.
Daar zit waarschijnlijk het meeste performance verlies in.
Verschil is ook SLC versus MLC. Scheelt in betrouwbaarheid en performance zoals je kunt zien.
Waarschijnlijk zit het verschil hem ook in de betrouwbaarheid.
Gegeven dat ECM een vrij prijzige leverancier is, vraag ik me af hoe 'economisch' deze 300gb 750k, 91k iops oplossing is. Met een (areca)-raid kaart een stuk of 10 SSD's kom je op het zelfde niveau uit of beter met meer GB's:
reviews: Intel 520: nieuwe high-end ssd getest
Alleen gaat deze cache oplossing het waarschijnlijk veel langer uithouden dan je raid opstelling. SSD's zijn niet gemaakt om vaak overschreven te worden en met vaak bedoel ik heeeeeeeeeeeeeeeeeeeel erg vaak. SSD's zijn perfect om uitgelezen te worden, zet er dus relatief statische gegevens op en je hebt een super performant systeem, maar zet ze in als Write-cache en ze houden het niet lang vol.
Het is nog steeds niet zo snel als een op DRAM gebaseerde oplossing potentieel kan zijn.
Zou je deze ook kunnen gebruiken in zfs als cache disk? Laat het zfs maar uitzoeken ipv een apparte driver.
Ok het algoritme zit in de driver voor de caching. Kijk dan eens naar ZFS zou ik zeggen, zelfde functionaliteit en je kan zelf kiezen welke storage je erachterhangt. (SATA/SAS ...) Geen vendor lockin en vééél betaalbaarder dan de prijzen die EMC hiervoor zal vragen.
Allemaal wel leutig, maar ga dat eens verkopen aan enterprise klanten? Dag ING/Rabobank/whatever, kijk eens naar zfs joh. Deze producten zijn voor enterprise en high-end markten. Op dat niveau speelt er veel meer mee dan alleen de hardware.
desondanks erg strak als cache _0- .
Die PCI Hdd's doen me altijd denken aan de 8MB ISA geheugenkaart die vroeger in m'n 386 zat als uitbreiding op de standaard 1MB geheugen. Volgepakt met geheugen chipjes :) Belachelijk veel geheugen destijds, niet eens zo lang na de uitspraak "640K is genoeg voor iedereen".

Ik weet het nog niet zo met die HD's op een kaartje, ik heb een beter gevoel bij een los component waar ik gewoon de stekkertjes in/uit kan halen. Ondanks de betere prestaties (die in de praktijk vaak niet gehaald word). Bovendien zijn ze vaak een stuk duurder dan de losse variant.

[Reactie gewijzigd door ravenamp op 2 augustus 2024 18:44]

Van http://www.computerworld...._did_Gates_really_say_it_

Gates himself has strenuously denied making the comment. In a newspaper column that he wrote in the mid-1990s, Gates responded to a student's question about the quote: "I've said some stupid things and some wrong things, but not that. No one involved in computers would ever say that a certain amount of memory is enough for all time." Later in the column, he added, "I keep bumping into that silly quotation attributed to me that says 640K of memory is enough. There's never a citation; the quotation just floats like a rumor, repeated again and again."

...

"Yet despite Gates's convincing denial, the quote is unlikely to die," Fallows wrote. "It's too convenient an expression of the computer industry's sense that no one can be sure what will happen next."
en hoe veel langer gaat slc geheugen mee ten opzichte van mlc geheugen?
Dat ligt eraan of je vooral leest of vooral schrijft. Je kunt het alleen aangeven in write cycles, maar niet in aantal jaren praktisch gebruik (zonder de context te kennen).

[Reactie gewijzigd door _Thanatos_ op 2 augustus 2024 18:44]

Anoniem: 128124 @r25046 februari 2012 20:54
Die hierboven is wel een stukje sneller met leesacties, he?
Anoniem: 125883 6 februari 2012 21:12
Dat doet me ineens terugdenken aan zo'n 8-bit LIM EMS memory board dat in m'n IBM PC/XT stak. 't ding was full lenght en had voor 4MB aan chips erop steken (en dat waren er véél destijds). Ineens kon die bak Windows 3.0 draaien :')

Man man... toen kon je echt nog eender wat kopen voor je PC.

Maar goed, dit had een andere functie dan de kaart uit het artikel.
Wat kan je nu dan niet kopen voor je PC?
Een 8-bit LIM EMS board want er zit geen ISA slot meer op je PC :+
Je kan nog gewoon PCs kopen met een ISA slot, of gewoon een PCI <-> ISA kaartje.

Grappig dat mijn bericht "off-topic" is, en het jouwe "off-topic". Dat modereren is echt een moeilijk vak, hoor.

[Reactie gewijzigd door J.J.J. Bokma op 2 augustus 2024 18:44]

Op dit item kan niet meer gereageerd worden.