Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 33 reacties

Het startende bedrijf Violin heeft hardware ontwikkeld waarmee tot 504GB geheugen in een 2U-server gestopt kan worden. Deze 'memory appliance' kan via een HyperTransport-verbinding aan een Opteron-server worden geknoopt.

Door een heel 19"-rack vol te bouwen met dit soort machines kan er tot 10TB geheugen geplaatst worden, wat bijvoorbeeld nuttig kan zijn voor hele grote databases. Daar moet dan wel grof geld voor neergeteld worden: alleen de 120GB 'starter kit' kost namelijk al 50.000 dollar.

Via software kan gekozen worden om data in het snelle lokale geheugen te plaatsen of in het enorme 'extended memory', dat een stuk trager is maar nog steeds sneller werkt dan een harde schijf. Door de virtuele geheugenbanken in een raid-opstelling te zetten kan de betrouwbaarheid en snelheid van het systeem verder verhoogd worden. Violin hoopt de eerste systemen in de tweede helft van 2008 te kunnen leveren.

Violin scalable memory

Update (10:40) Zoals opgemerkt in de reacties bestaat er nu al een versie van het systeem dat inhaakt op pcie, wat het ook toepasbaar maakt voor Intel-machines. De AMD HyperTransport-versie zou wel extra voordelen bieden, zoals een lagere latency en cache-coherentie.

Moderatie-faq Wijzig weergave

Reacties (33)

Ik kan me toch herinneren dat de laatste series AlphaServer (GS1280 in ieder geval, wellicht ook voor de GS80 en GS160 en zeer wellicht ook voor de GS47) al lang en breed RAID memory hadden.

Ahh, inderdaad, uit http://h18002.www1.hp.com...d/ek-egmem-up-b01-web.pdf :

An optional fifth RIMM (RAID option) may be selected for redundancy. One RAID option must be selected for each four RIMM memory options on one CPU, but RAID options do not have to be selected for all CPUs.
Het inzetten van "raid" concepten gebeurt natuurlijk al langer dan vandaag, door middel van interleaving van memory-banks; het equivalent van een raid-0, als ik mij niet vergis voor het verbeteren van de performance.
Normaal gesproken wordt bij memory de data "beschermd" met ECC en/of (denk servers) parity. Het combineren van ECC en parity heeft als gevolg dat 1 bits datacorruptie zowel gedetecteerd kan worden en gecorrigeerd (ECC) en dat 2 "omgevallen" bits ook nog betrouwbaar gedetecteerd kunnen worden (alleen correctie is niet meer mogelijk, maar nog wel welke dimm en cel de bron was, en dat is nuttig om te weten als het gaat om potentieel tientallen tot honderden dimms). Vergelijk het met raid 5 met een hotspare disk er bij: 1 disk kan rustig overlijden, maar als de hot spare nog niet volledig bijgesynct is kun je het niet permitteren een tweede disk te verliezen.
Het lijkt me trouwens een redelijke niche markt waarin violin zich begeeft: afgezien van beperkingen van bandbreedte over de hypertransport bus, zit je met nog weer een andere latency dat maakt het flink complex voor OS bouwers om op te anticiperen, en anderzijds ook voor programmeurs: Moet je nu ook nog je algoritmes gaan optimaliseren voor memory-out-of -the-box? Zie dat eens in een beowulf cluster context en je krijgt og weer een laag complexiteit er overheen. De ideale oplossing voor niet cpu-intensieve, wel memory-intensieve applicaties (maar hoeveel zijn er dat?).
et combineren van ECC en parity heeft als gevolg dat 1 bits datacorruptie zowel gedetecteerd kan worden en gecorrigeerd (ECC) en dat 2 "omgevallen" bits ook nog betrouwbaar gedetecteerd kunnen worden (alleen correctie is niet meer mogelijk, maar nog wel welke dimm en cel de bron was,
Daar klopt niks van.
ECC is 64 bits data en 8 bits ECC. Daar kun je veel meer dan 1 bit mee corrigeren.
Ik heb het specifiek over SECDED en andere varianten van hamming-code, zie http://en.wikipedia.org/wiki/Hamming_code. De paragraaf die parity vergelijkt met hamming is lekker inzichtelijk en verklaart een hoop.
Het inzetten van "raid" concepten gebeurt natuurlijk al langer dan vandaag, door middel van interleaving van memory-banks; het equivalent van een raid-0, als ik mij niet vergis voor het verbeteren van de performance.
Precies. Ik heb hier een HP Netserver LH4r uit 1999, die gebruikt 4-way interleaving, dus 4 (EDO) dimm's van 64MB of 256MB om 256MB of 1GB te maken. Momenteel zit er 4GB in, ofwel 2x 8 DIMM's.

Memory RAID zit bijvoorbeeld in de HP Proliant DL580 vanaf G3.
Ik dacht dat er voor betrouwbaarheid ECC geheugen was?
Maar een strip kan ook opeens overlijden en dan zou heel je systeem down zijn.
Als een strip overlijd in raid opstelling, kan ie gewoon nog doordraaien.

(Denk ik tenminste)
maar dan moet je wel hotplug strips hebben anders moet weer eerst het hele systeem down om hem te vervangen.
je kunt beter aangekondigde downtime (en in de periode daarvoor, lichtelijk verslechterde performance) hebben, dan een plotseling uitvallende server, waarvan je dan geen idee hebt welk component het heeft begeven (of je moet een echt uitgebreid servermoederbord hebben) en je dan ook nog eens nar het datacentrum moet begeven voordat het gefixt is ;)
Ik dacht dat er voor betrouwbaarheid ECC geheugen was?
Wat heeft dit met dit artikel te maken?

*edit* ah raid opstelling van het geheugen, had er over gelezen.

[Reactie gewijzigd door Zamalan op 11 december 2007 08:41]

Hier zit heel waarschijnlijk ook wel ECC geheugen in :)
voor 50.000 dollar voor 120 Giegjes mag je dat wel verwachten... :)
ecc is niet meer als dat er een pariteits bitje bijkomt. meestal komt dat er op neer dat je in plaats van 8 chips dan 9 chips op een reepje hebt zitten. wanneer je het geheugen al in een raid configuratie zet voor redundantie valt het nut van ecc chip weg.

correct me if i'm wrong..
Ik zit ff op die site te kijken van de fabrikant (http://www.violin-memory.com), daar hebben ze het over een PCIe kaart met PCIe kabel naar het memory rack. Dat betekend dus dat je het ook voor servers met intel CPU's kunt gebruiken.
Niet wanneer die pci-e bus aan de HyperTransport bus zit.
Die heeft Intel niet, dus is het niet mogelijk.
Praten die ook HyperTransport dan?
dees lijkt mij gewoon de next gen van server systemen. klinkt in alle geval wel grof maar dat mag dan ook weer voor zulke bedragen :) nice going Violin.

inderdaad momenteel wordt in servers ECC gebruikt om foutjes te kunnen opvangen maar hoe ik het hier begrijpt heeft het systeem hierboven vernoemd qua opbouw (geheugen) niets meer te zien met de manier die wij nu kennen van servers. hoewel het nog steeds dezelfde latjes blijken te zijn die gebruikt gaan worden
Betrouwbaarheid heeft in dit geval te maken met redundancy. Stroom verlies op ram geheugen betekent meestal verlies van gegevens...

*smarty mompelt, als ze hetzelfde geheugen gebruiken als dat we momenteel in pc's/servers gebruiken*

Vandaar een sort of RAID 1 oplossing met 2 verschillende stroom-groepen
De machines bestaat uit meerdere RAID5 (4 modules + 1 parity) welke door de gebruiker aan elkaar kunnen worden geknoopt waardoor een RAID50 array ontstaat.

Meer informatie hierover kun je vinden op http://www.violin-memory.com/tech/faulttolerant.html
Ik kan me vergissen maar is RAID5 niet opgebouwd uit 3Data+1Parity ? Dus 4 elementen (met eventueel een hot spare disk)
Nee, RAID 5 bestaat uit minimaal 2 data + 1 parity disk, dus een minimum van 3 schrijven. Echter je kunt net zoveel data schrijven aan de array toevoegen als je wilt (en je controller toelaat). Als je echter meer dan 6 schrijven beschikbaar hebt, dan kun je meestal beter twee RAID 5 array's in striped mode (RAID 50) gaan draaien. Omdat een RAID 5 array zichzelf kan hergenereren, loop je dus niet het risico als bij RAID 0 dat als 1 schrijf weg valt, dan de andere waardeloos wordt, echter de performance schiet net als bij raid 0 flink omhoog.

Onze SAN bestaat uit 4 RAID 6 array's met elke 10 data schrijven en 2 parity schrijven van elk 74GB waarmee onze SAN een kleine 3TB aan ruimte heeft. Omdat wij voor raid 6 hebben gekozen kunnen twee schrijven tegelijkertijd uitvallen zonder problemen.

[Reactie gewijzigd door Niemand_Anders op 11 december 2007 10:05]

Raid 5 bestaat uit minimaal 3 modules.
2+1 parity
maar je kan bijvoorbeeld ook 6+1 parity + 1 spare doen
@ UptownWings:
Zoals je het nu omschrijft is het RAID-3: minimaal 2 disks en aparte 1 parity disk. RAID-5 is minimaal 3 disks en distributed parity over de disks.

[Reactie gewijzigd door PcDealer op 11 december 2007 11:18]

De cijferaanduiding geeft het type RAID weer en heeft niks te maken met het aantal schijven dat wordt gebruikt. RAID 3 bestaat toevallig ook en lijkt enigszins op RAID 5 maar verdeelt de parity data niet over alle schijven, RAID 5 wel. Om wat meer over RAID te weten te komen kan je lezen op: http://en.wikipedia.org/wiki/RAID
Het (minimaal) aantal schijven kan is overigens wel afhankelijk van het type RAID ;)

Het stond al in bovenstaande tekst ... ik moet beter lezen :z

[Reactie gewijzigd door DavidAxe op 12 december 2007 00:03]

Beetje stomme gedachte waarschijnlijk: voor 50000 euro dollar kan je ook aan 15 Opteron bakken met 8GB per node komen, van een goed merk! Ongetwijfeld is daar wel een software-laag overheen te leggen om dat als 1 database aan te spreken. Dan heb je toch veel meer snelheid en bandbreedte?

edit: verkeerde valuta gelezen :P En nou ja, dit zal misschien wel makkelijker te bouwen zijn dan je eigen software-laag. Plus dat het natuurlijk veel minder ruimte inneemt... om maar even met mezelf te discussieren :+

[Reactie gewijzigd door John_Glenn op 11 december 2007 10:04]

Ik denk dat als je een grote array cq database analyseert/bewerkt dat, bij het spreiden over meerdere machines, de ethernetverbinding zelfs een stuk langzamer is dan wanneer je gewoon al je data op de lokale disks analyseert.

Wellicht is database mining prima geclusterd te doen maar array bewerkeningen zijn een stuk lastiger en langzamer over een netwerk. Ik zie de oplossing van Violin dan ook meer als een relevante oplossing voor financieele/medische/natuurkundige onderzoeken waarbij op een extreem grote dataset real-time moet worden gewerkt.
Gigabyte iRAM anyone
"Extended geheugen"?
Ik krijg flashbacks... Kan ik er ook Expanded geheugen van maken met EMM?
ik denk dat 2 24 poorts areca's met een stapel ram erop en 15k schijven en raid 50 nagenoeg even snel zal zijn voor de "gemiddelde" gebruiker achter zo'n systeem dan een verheerlijkte ramdisk. en een heel stuk goedkoper ook nog, nog niet eens te praten over het hot swap gedeelte (een stokje ram uit dat ding trekken moet het hele ding uit, bij raid niet...)

een van de weinige gebruikers zou mogelijk google oid zijn, 99% van de overige gebruikers kunnen naar mijn inzien wel af met raid, maar dat ben ik weer. :)

[Reactie gewijzigd door flippy.nl op 11 december 2007 14:22]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True