Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 64 reacties

Opslagfabrikant Texas Memory Systems heeft naar eigen zeggen 's werelds snelste en grootste ssd-opslagsysteem geďntroduceerd. De Ramsan-440 is met een capaciteit van 256GB of 512GB verkrijgbaar.

De ssd's kunnen via san of direct, via maximaal acht 4Gbps-glasvezelkanalen met geplande ondersteuning voor Inifiband-poorten, in een serveromgeving aangesloten worden. De solid state disks zijn opgebouwd uit ddr2-modules die intern in raid-opstelling zijn geplaatst. De raid-3-inrichting van het geheugen maakt het mogelijk data met 4500MBps of 600.000 iops aan te spreken, terwijl de latency van het systeem maximaal 15 microseconden bedraagt. TMS heeft voor ddr2-ram als basis voor de opslagserver gekozen: afhankelijk van de capaciteit worden een of twee banken met achttien geheugenmodules benut. Elke module is 16GB groot en opgebouwd uit 1Gb-ddr2-chips. Extra ecc-chips moeten fouten in de geheugenopslag corrigeren, terwijl IBM's Chipkill-technologie de eventuele uitval van geheugenchips moet opvangen.

De Ramsan beschikt naast redundantie op geheugengebied ook over dubbel-redundante en hot-swappable psu's en koelers en een backupbatterij die de server in geval van een stroomstoring gedurende vijfentwintig minuten van energie kan voorzien. Ook de vijf flashmodules aan de voorkant van de opslagserver zijn hot-swappable; bij stroomuitval wordt op deze secundaire opslagmodules binnen zes minuten een backup gemaakt van de 512GB data die op de primaire ram-ssd's past. De server past in een 4U hoog 24"-rack en weegt ongeveer 41 kilogram. Het piekverbruik van de Ramsan-440 bedraagt 650W. De server is via een java-applicatie met elke browser op afstand te beheren. De opslagserver van Texas Memory is per direct verkrijgbaar; de 256GB-versie kost 150.000 dollar, voor de 512GB-editie moet 275.000 dollar betaald worden.

TMS Ramsan-440
Moderatie-faq Wijzig weergave

Reacties (64)

Sectoren waar informatie belangrijk is. Als ik bijvoorbeeld naar de postbank kijk en er gaat iets fout bij postbank.nl, dan hebben ze ongetwijfeld dergelijke systemen als in dit bericht beschreven staat. Moet wel een heleboel fout gaan achter elkaar wil de site offline gaan en gegevens onherroepelijk verloren gaan.
Redundantie en hot-swappable zijn twee belangrijke termen die bij alle organisaties met belangrijke digitale informatie van belang zijn.
Ik ga ervan uit dat de postbank gewoon een mainframe heeft waarop de financiele administratie draait. En die zal je echt niet bereiken via mijn.postbank.nl

Dat zal waarschijnlijk gewoon een database zijn die volledig in het geheugen staat. Een "beetje" server kan toch echt wel 100 GB intern geheugen aan. (Veel) meer heb je niet nodig voor een database. Een paar stevige http servers ervoor en gaan met die banaan.

Transactielog of mutatie's vervolgens richting de master database schieten en eens per dag(deel) de master dumpen en inlezen in de database die in het geheugen staat.

Deze opstelling heeft bij lange na niet de performance van een in-memory database. Of de betrouwbaarheid van een gemirrored mainframe.
LOL :D

Maat van me is Oracle developer en die heeft een tijdje bij T-Mobile gewerkt. Daar hadden ze, een aantal jaren geleden, databases van tegen de 8TB.

Dus 100GB voor een database??? Misschien alleen al de user accounts :D
Bankrekening, saldo. Wat heb je nog meer nodig ?
3 maanden transactie's, zeg zo'n 20K. Zit je op 5 miljoen gebruikers per 100 GB.

TB's heb je nodig als je alles over langere tijd moet vastleggen. Dat doe je echt niet bij een mijn.postbank.nl

(Useraccounts valideer je via pasje met een ldap, dus een andere database)

Ik kan me haast niet voorstellen dat database van 8TB een redelijk performance heeft bij een webserver.
3 maanden transactie's, zeg zo'n 20K. Zit je op 5 miljoen gebruikers per 100 GB.
Drie maanden? Banken moeten dit soort shit een jaar of 7 bijhouden zeg ik uit m'n hoofd.
Kan inderdaad wel kloppen, maar die gegevens van 7 jaar geleden hoef je niet direct paraat te hebben. Die gegevens worden relatief weinig opgevraagd, dus dan maakt het niet zoveel uit als ze ergens achteruit het san van een harddisk moeten worden geplukt.
Een wettelijk opslagtermijn geldt voor de hoofdadministratie op het mainframe.

Website's zoals mijn.postbank.nl verbinden je echt niet rechtstreeks met de hoofdadministratie. Maar met een uittreksel daarvan. Deze wordt periodiek volledig opnieuw ingeladen (om hem in sync te laten lopen met de hoofdadministratie).(Rente bijvoorbeeld wordt alleen berekend in de hoofdadministratie)
Je hebt productiesystemen die gemuteerd worden en een datawarehouse als je over grote hoeveelheden data praat.
Financiële sector bijvoorbeeld waar heel veel gegevens snel voorhanden moeten zijn er waar veel mutaties plaatsvinden. Ziekenhuis is ook zo'n grootverbruiker. Als je bijvoorbeeld in de serverfarm van bijv. een Radboud kijkt en je ziet wat ze daar alleen al voor de opslag van MRI/CAT en Rontgen gebruiken...wat ook nog eens snel oproepbaar moet zijn. Als je heel snel veel data genereert en moet dat daarna ook snel weer voorhanden hebben, dan is zo iets voor korte termijn opslag mogelijk interessant, voor landruige opslag van gegevens is het m.i. minder handig.

[Reactie gewijzigd door Gover op 24 juli 2008 16:06]

Maar in een ziekenhuis is een 'gewoon' harddisk-opslagsysteem toch goed genoeg? Daar gaat het om opslagcapaciteit en doorvoersnelheid. Niet om heel snel (millisecondes) willekeurige data uit de opslag te halen. Meer om met hoge doorvoersnelheid grote bestanden in te lezen, een zoekvertraging van een paar tiende seconde hoeft dan geen probleem te zijn.

Ik denk inderdaad meer aan internettoepassingen met zeer grote hoeveelheden gebruikers die heel veel (onvoorspelbare) datapakketjes nodig hebben. Zoals de eerder genoemde gameservers, zoekmachines en dat soort dingen.
15 ms maximaal? Help, dan doet zelfs mijn ouwe brikkie het nog beter. Als SAS- en aanverwante schijven een latency van gemiddeld 4 ms hebben, waarom zou je voor zoiets kiezen? Bandbreedte haal je door schijven in RAID te zetten, dus waarom dit ding zo speciaal is? Daarnaast weet ik dat hoewel RAMdisks niet de goedkoopste zijn, 150K nog altijd aan de ruime kant is. DDR2-chips kosten geen fluit, 18 euro per GB ofzo, dus dat zou je op 4 en-een-half duizend euro laten stranden. Interface en ontwikkeling erbij, en voila. Heb je ook nog eens een latency van 5 nanoseconden, dus een factor 3000 sneller. Lust je nog peultjes?
15 microseconds staat in de bron, niet milliseconds. Deel dat maar eens door duizend dus.
Daarnaast is het absoluut waar dat je hier teveel betaalt als je naar het geheugen kijkt, maar het gaat dan ook vooral om de redundantie, schaalbaarheid en beveiligingen tegen uitval. Als jij binnen 6 minuten 512GB aan data moet kunnen backuppen, dan kost dat alleen je al een berg duiten, meer dan die 4500 euro in ieder geval. Dat in een 4U server kast combineren is ook nog een kunst op zich. 150k is een hoop geld, maar daar koop je ook garantie voor. Als je een bank of ziekenhuis je eigen bouwsel van slechts 50.000 euro inzet voor kritische toepassingen zou ik toch minder rustig slapen ;)
als antwoord zal ik nog even een keer de link plaatsen zoals ik hier boven ook al had gedaan;

http://www.superssd.com/success/ccpgames.htm

Ook even een quote:

Performance analysis revealed that disk queues were 40 requests deep. Microsoft recommends upgrading hardware if disk queues exceed 3. Better hardware is needed if more users are accessing a server.
...
Ideal RAID Storage performance is achieved when the requested data blocks are large; conversely, RAID Storage performance is greatly reduced when requested data blocks are small. Typical disk access times are 2-5 milliseconds and what was needed was a faster disk access time of 20-50 microseconds.

Overigens een klein saillant detail:

The RamSan-400 delivers 400,000 I/Os per second, has 3,000 MB of internal bandwidth with latency of less than 15 microseconds

ms is in dit gevalletje dus micro secondes. Veel succes met je RAID. Lust je nog boontjes?

F5, F5, F5 :X

[Reactie gewijzigd door ScytheNL op 24 juli 2008 16:49]

Voor welke sector is dit nou een must have? (voor het geld wat je ervoor moet betalen)
Game servers zo als die van EVE-Online, een MMO die bestaat uit een server waar enkele tien duizenden mensen tegelijk op spelen, niet zo als bij WoW meerdere identieke werelden maar gewoon een universum.

Zij gebruiken al RAMSAN disks voor hun database tables omdat er met tienduizende clients tegelijk natuurlijk wel erg veel I/O is van en naar de DB. De lage access times en hooge door voer snelheid van de RAMSAN disks is dan heel belangrijk. Ze hebben alleen de oudere versies in gebruik die veel kleiner zijn dan deze monsters.

Ik kan me zo voor stellen dat ook op een beurs vloer dit soort dingen geen overbodige luxe zijn je wilt toch alle transacties realtime bij houden iets wat op een grote beurs al snel een enorme data stroom wordt die een gewone disk of disk array niet kan bij houden.
De online gaming sector. CCP (Makers van EvE-online) gebruiken al RamSan tech (RamSan 400 - 64GB SSD's) en aangezien ze bezig zijn om een infiniband omgeving op te zetten lijkt mij dat ze dit wel heel aantrekkelijk zullen vinden.

Hier meer info over het succes van server SSD's:
http://www.superssd.com/success/ccpgames.htm

PS: in het artikel word gesproken over 17K users online, op dit moment is het dus al opgelopen tot 30K-40K op piek uren. Vandaar dat ze nu dus ook aan het kijken zijn naar een infiniband omgeving aangezien de lag en latency dus weer terug beginnen te komen.

Bahh, ik moet vaker refreshen voordat ik 3 replies stuur.

[Reactie gewijzigd door ScytheNL op 24 juli 2008 16:47]

Misschien weten de anderen dat je zoiets niet in 5 minuten ontwerpt, printplaatjes maakt, in elkaar schroeft, en kunt verschepen.

Ik werk zelf in een vergelijkbare kritieke branche, waar uitval ook enorm duur is (maar in mijn branche gaat het om mensenlevens ipv om geld). Uit mijn ervaring weet ik dat een componentje veranderen een kleine ramp kan betekenen (andere leverancier geeft al soms problemen, je wilt niet weten wat er allemaal opduikt als overgestapt wordt van een loodhoudend naar een loodvrij IC), er erg veel opvolging en papierwerk nodig is om op tijd in te grijpen, heel lange tijd uitgebreide klantondersteuning nodig is (7 jaar later nog support gegarandeerd), er erg uitgebreide en dure testen worden uitgevoerd op elke geproduceerde unit, bepaalde technieken worden gebruikt die men nergens elders aan kan (wegens gebrek aan ervaring/kennis of omdat men de risico's niet aandurft), .....

Dus ja, een simpele variant zonder garanties kan je 30 keer goedkoper maken, maar in bepaalde branches betaalt men met alle plezier die 30 keer meerprijs.
Een SAN met FC schijven zit al rond de 40.000¤ voor een niet al te groot model (een Clariion CX3 met 3TB bijvoorbeeld). Dat is al 60.000$ voor een "normale" SAN. LAat staan zoiets als dit wat gloednieuw is en dergelijke specs heeft.
Nahja, 't is niet echt gloednieuw dus, het is de laatste uit een illustere lijn RAMSANs. Ze proppen er steeds grotere memchips in en wsch ook dikkere IO-chips, maar het is niet alsof het ding uit de lucht komt vallen.

Maarja.. 512GB aan ddr2 kost op dit moment al minimaal 12k, een stuk of 5 128GB flashdrives kost ook nog eens 5k erbovenop, en dan komt het echte werk: de chips om de boel aan elkaar te knopen en er 600k ops/sec uit te poepen. Let wel, een dikke raid5 array van sas schijven haalt eerder in de orde van duizenden tot tienduizenden dan honderdduizenden ops.

Als je dit nodig hebt, dan weet je het, en dan heb je ook geen probleem om dit ervoor te betalen -- maar ik gok dat ze maar een paar hele grote klanten hebben (zoals EVE online uit hierboven) en dat ze precies ontwikkelen wat die klanten nodig hebben -- maar je hoeft je niet voor te stellen dat die dingen per pallets tegelijk wegverscheept worden bij een fabriek in China.

[Reactie gewijzigd door Jasper Janssen op 25 juli 2008 11:41]

Als je geen 5 9s garantie nodig hebt ... tuurlijk.

Binnenkort komt de ANS-9010 van Acard uit. Laten we even hoog gaan zitten en de kosten schatten op 1000 euro, dat is duur genoeg dat 4 GB DIMMs interessant zijn ... dus 32 GB aan 4 GB ECC DIMMs erin. 8 van die dingen en een servertje met een PCIe SAN kaart en je hebt 256 GB voor rond die 20K euro. Als de ANS-9010 goedkoop genoeg is dat je 2 GB DIMMs kan gebruiken wordt het allemaal nog veel goedkoper (past alles alleen niet meer in 1 grote server kast).
Als je van ddr geheugen de spanning afhaalt...dan ben je toch alles kwijt.
Kun je dat wel echt Solid State noemen?
Solidstate gaat alleen om het idee dat er geen bewegende delen inzitten (om het zo maar even te noemen). Dat het door spanningsloosheid wegvalt is een bijkomend probleem, maar nog wel solid state.
http://en.wikipedia.org/wiki/Solid-state_drive

interessante uitleg.... SSD heeft van oorsprong niets met DDR
Maar dit is RAM geheugen. Dus als je dat apparaat uitzet is je SSD ook leeg!
Lezen is ook een kunst:

Ook de vijf flashmodules aan de voorkant van de opslagserver zijn hot-swappable; bij stroomuitval wordt op deze secundaire opslagmodules binnen zes minuten een backup gemaakt van de 512GB data die op de primaire ram-ssd's past
binnen zes minuten een backup gemaakt van de 512GB data
Dat is trouwens ook aardig snel schrijven. 6 min= 360 sec, dus (512/360) = bijna 1.5GByte per seconde. Zo'n SSD wil ik ook wel ;)
En dat tegenover een maximale leessnelheid van 4500MBps ~ 4.5GB/s dan vind ik het ietwat tegenvallen.

Desondanks zijn het nog steeds snelheden waar bijna niemand de komende jaren "in zijn thuis-PC" aan zal komen.
Ach, dit is niks. Jaaaren geleden had Cray al een leuk SSD:

Kijk maar hier.

Oh, wat liep Cray in die tijd voorop met zijn backbones en storage oplossingen ...

Nog steeds wordt technologie, die Cray in die tijd ontwikkeld heeft, gebruikt in de huidige supercomputers, zoals die van SGI en IBM.
uh, die leessnelheid komt van de ram modules. Niet van de Flash schijven. Dat zijn twee hele verschillende stukken van dit apparaat.
Ik neem aan dat de 5 flashmodules in raid-5 gebruikt worden. Dit betekent dat je de schrijfsnelheid bijna door 4 kunt delen: 350MB/s
Daarom dus de flashdisks die een backup bijhouden mocht de stroom uitvallen. ;)
waarom geen DDR3? prijs/kwaliteit verhouding?
latencies van ddr3 zijn hoger :) daarnaast zal ook prijs enigsinds een rol spelen ja

[Reactie gewijzigd door rimpeldinky op 24 juli 2008 16:33]

wat heeft dit in hemelsnaam met SSD te maken?
Het is een solid state drive, alleen uitgevoerd met RAM en powersupply.

Niet alleen flashdrives behoren tot de SSD's
Hier zit zo te zien ook gewoon flash in hoor, het RAM is alleen voor tijdelijk cachen denk ik 2X16 GB is namelijk bij lange na geen 512 GB :+
Yup, maar een bank (waarvan de grootste er twee heeft) telt 18 modules en 16 x 18 is nog meer dan 256GB, wat ook klopt want er is ook nog sprake van redundantie.
18 modules zegt tegen mij dat er 16 modules effectieve data en 2 aan ECC worden overgegeven, en dat komt inderdaad precies uit op 16*16=256.

Vroegah hadden onze PCtjes dat nog gewoon standaard, 9 chippies voor iedere 8 bits, voor parity-checking.
oke Rob en Deathscythehell, bedankt voor jullie opheldering! is een "ouderwetse" server ongeveer net zo duur? Is dit echte concurentie?
Ik verwacht dat een oudere server wel goedkoper zal zijn maar qua concurentie kan deze denk ik niet tegen de performance van een RamSan SSD server opboxen. Zoals je al hebt kunnen lezen is de performance boost ten opzichte van CCP's oude RAID server immens. Ze hebben beide hun toepassingen waarin ze uitblinken maar voor databases waar veel kleine db calls worden gemaakt heb je bij wijze van een 10x zo grote "originele" RAID hd server nodig tegenover een compleet rack van deze SSD's.

(wilde gok mbt de cijfers, zoveel verstand van de exactre cijfers heb ik niet maar overdrijven maakt de zaak duidelijk ;) )
Bij het lezen van het artikel heb ik steeds zo'n gevoel dat ik per ongeluk GB's en TB's door elkaar haal ofzo. Zie ik het nu verkeerd of is er niets wat dit ding doet dat je niet vele malen goedkoper kunt oplossen met een goede opstelling van traditionele harddisks?
ikweeniehoor maar 600k aan IOPS of 4500MBps...succes met je hardisks.
Okee dat is waar. Maar heb je er ook wat aan? Voor welke toepassing moet je een zo kleine hoeveelheid opslag zo snel kunnen benaderen? En zelfs in dat geval, is het dan niet goedkoper om een stel 'normale' servers met veel geheugen in een snel netwerk te hangen. Die kunnen immers ook prima hun werkgeheugen naar een schijf schrijven als dat nodig mocht zijn. Voor zo'n bedrag kun je volgens mij heel wat traditionele middelen inzetten om een zelfde resultaat te verkrijgen.
De hoeveelheid opslagruimte is voor veel servers helemaal niet belangrijk. Wel voor toepassingen als youtube, maar veel databases zijn hooguit enkele tientallen GB's groot en moeten toch vele duizenden iops kunnen verwerken, dáár is die snelheid voor nodig. En dergelijke databases worden al als 'zwaar' gezien.
Hierbij gaat het dus om nog zwaardere toepassingen met nog meer data die snel bereikbaar moet zijn. In zo'n geval doe je je gewone massaopslag natuurlijk ook niet op zo'n systeem, daar zet een een apart systeem voor neer die veel meer is gericht op sequentiele doorvoer en niet op random io zoals dit systeem.

Een mooi voorbeeld is de server apollo, welke de database van GoT levert. Deze database past makkelijk op een van de 15 36GB schijven, toch zitten er hier 15 van in. Puur om een zo hoog mogelijke snelheid te bereiken. De hoeveelheid is niet zo belangrijk, alleen de snelheid, daar komt het op aan.
Bedankt, je post is samen met het online gaming voorbeeld een duidelijke uitleg van wanneer zo'n systeem nuttig kan zijn. Ik had niet gedacht dat er veel toepassingen waren met zoveel users (want daar heb je toch de snelheid voor nodig) en tegelijk zo'n (relatief) kleine hoeveelheid data.
http://www.superssd.com/success/ccpgames.htm

En dat verhaal is alweer oud, inmiddels zitten ze rond de 40,000 spelers tegelijkertijd online op piektijden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True