Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 40 reacties
Bron: Capricorn Technologies, submitter: GREENSKiN

Capricorn Technologies, dat eerder al in het nieuws kwam met de levering van een petabyte opslagcapaciteit aan het Internet Archive, heeft aangekondigd dat het een nieuw opslagsysteem heeft ontwikkeld. De GB3000 is een standalone-oplossing die in een 1U-behuizing past en maximum 3TB aan gegevens kan bijhouden. De TB120 bestaat uit een cluster van GB3000-servers en biedt een maximale ruwe opslagcapaciteit van 120TB. Beide systemen hebben hun thuishaven in de PetaBox-productlijn gevonden. De GB3000 die als basis voor de TB120-configuratie dient, is opgebouwd uit VIA Epia Mini-ITX-borden en biedt volgens Capricorn net daardoor een zeer lage Total Cost of Ownership.

GB3000-nodes in een rackDe TB120 past in een standaard 19"-rack en is ontworpen met aandacht voor energieverbruik en warmteontwikkeling. Daardoor kan volgens het persbericht van Capricon Technologies niet alleen bespaard worden op de systemen zelf, die verkrijgbaar zijn vanaf anderhalve dollar per gigabyte, maar is ook het draaiende houden van de systemen uiterst voordelig. Volgens de specificaties verbruikt een TB120 ongeveer 80W per GB3000-node en 3,2KW per rack. Een opslagcapaciteit van een petabyte zou al mogelijk zijn met een energieverbruik van minder dan 30KW, aldus Capricorn.

Moderatie-faq Wijzig weergave

Reacties (40)

Niet zo bijster bijzonder dit:
Men neme:
- Een NAS barebone van Intel (SS4000-E), Newisys (NA-1400), Infrant (ReadyNAS), Synology (RS-406) of vergelijkbaar. Kosten: 550 Euro.
- Vier 750 GB hdd van Seagate, dus 3 TB. Kosten: net geen 1500 Euro.

Totaal ongeveer 2000 Euro, dus 0.66 Euro per gigabyte. Stroomverbruik is identiek of zelfs nog minder dan deze oplossing. Nadeel is dat de meeste van deze kastjes niet in een rack behuizing passen, maar de Synology is wel een 1U server.

Over eventuele prestatie verschillen hebben we het niet :7
Zou ik niet doen, dan hou je maar 3 schijven over als je RAID 5 gaat draien en gooi je dus een kwart van de maximale opslag van je behuizing weg aan redundantie van je data.
Als deze dozen een beetje dezelfde opzet hebben als die petabyte levering aan 'The Internet Archive' dan gebruiken ze helemaal geen RAID. (Of ze een JBOD of een RAID0 gebruiken vertelt het verhaal dan weer niet...)
Ik neem aan dat ze toch wel een vorm van raid ofzo gebruiken aangezien je geen 120tb zonder bescherming tegen hd uitval wil gebruiken :P

Zoals ik het zie is er gewoon voor 120tb fysiek aan schijven aanwezig ongeacht of er een vorm van raid wordt gebruikt.

Daarnaast is op de site van Capicorn ook niet terug te vinden of er uberhaupt een mogelijkheid is tot het gebruiken van raid aan gezien ik niets lees over een aanwezige raid controller.

En software raid 5 ofzo op zo'n epia lijkt me ook niet echt een performance boost :P
er wordt geen RAID gebruikt, maar redundantie op node-niveau is zeker mogelijk. Denk hierbij aan RAID5 of RAID6 achtige configuraties met nodes ipv schijven. Middels iSCSI is het dan goed mogelijk om LUNs te definieren en zodoende een cheap SAN op te bouwen.
Mijn 'oplossing' heeft dezelfde ruwe opslagruimte als de in het artikel beschreven apparaat. Dus dat is niet een nadeel ten opzichte van de Capricorn. Wat dat betreft is jou opmerking niet relevant.

Je hebt wel gelijk dat de RAID-5 opslag capaciteit, bij gebruik van vier harddisks, een kwart minder dan de ruwe opslag capaciteit is. Maar ik denk dat heel veel 1U servers met vier harde schijven dit 'probleem' hebben.
Voor het gemak sla je DE eigenschap van dit systeem even over, clustered computing (8>
Clustered computing met EPIA? Niet bijster efficient. Waarom 3TB in een computing node? Ook niet echt nodig.

Nee, eerder een geval van clustered storage. Wat ook prima met alternatieve NAS barebones gerealiseerd kan worden.
0.66 per GB is toch veel niet?
nu kan je al voor 90euro 300GB kopen ... ;)
ik mag aannemen dat dit ook in wel in RAID 5 draait lijk me namelijk voor een bedrijf niet zo leuk om dat data te verliezen van hun 120TB+ systeem
redundancy op disk niveau is niet interessant, omdat je dan nog steeds een probleem hebt als een node uti valt. Redundancy in dit soort systemen word daarom op super-node-niveau geregeld. Bijv. door chucks op meerdere nodes op te slaan.
Pantagruel is jaloers, zijn Epia M10K heeft slechts 1.8 TB opslag capaciteit (3Ware RAID-5 met 8x SATA) in een standaard mini tower behuizing. Met ca 70 euro centjes per Gbyte opslag ruimte is het best betaalbaar (is dus incluis aanschaf mobo, geheugen, kast, PSU, RAID kaart en de HDD's)

Een 'nadeel' is wel dat de onboard NIC's bij de Epia bordjes vrijwel allemaal 100Mbit zijn, sneller dan 10 Mbyte/sec zal de data dus niet over het netwerk verspreidt worden, aangezien het enige PCI slot in gebruik is kan ik er geen PCI Gbit NIC insteken (kniesoor die daar op let).
Met een dual-riser card kan je toch twee PCI-kaarten erop aansluiten? Zal ongetwijfeld ten koste gaan van de performance, maar minder erg dan 100Mbit. Investering van een paar losse euro's, maar misschien de moeite waard. Al zijn er natuurlijk ook al Epiabordjes met gigabit lan.
Maar ik begrijp niet helemaal hoe dit werkt... het zijn dus allemaal "losse" nodes, maar er moet toch ook een soort knooppunt zijn waar ze gecombineerd worden tot 1 hele grote opslag, oid?
zal wel een DFS-achtige techniek inzitten volgens mij ;)

(DFS op wikipedia)
klinkt leuk maar ik vraag me af hoe snel deze systemen met een via bordje zijn.

als ineens 20, 30 of 40 mensen op het systeem willen dat is de doorvoersnelheid niet al te hoog lijkt me.
Ik begrijp niet hoe ze de doorvoer snelheden en accestimes hoog willen houden met deze bordjes erin... En ik vraag me af of dit voor een bedrijf niet een relatief dure oplossing is, meestal zijn bedrijven niet zo keen op vervanging, het was slimmer geweest om een vergelijkbaar idee op de markt te brengen wat gebruikt kan worden in combinatie met meer gangbare opslagmogelijkheden..
Die dingen moeten ook niet veel CPU kracht hebben.
Als men een protocol als bvb iSCSI gebruikt moeten die VIA bordjes aleen data rondschuiven.
Redundancy wordt op een hoger niveau afgehandeld met behulp van bvb iSCSI storage adapters.
Die doen dan RAID met hele SAN volumes ipv schijven.

Nu iSCSI is maar 1 manier waarmee men deze SAN aan een serverpark kan knopen.
Er zijn nog andere manieren om dit te doen zonder veel CPU kracht.

Jammer genoeg staat dit niet vermeld op de productpagina's van Capricorn.
Voor een complete datasheet moet je contact opnemen met het bedrijf. |:(
Dat het gebaseerd is op via Technoligy
wilt niet zeggen dat ze hun standaard bordtjes erin gepropt hebben

Zal mij niks verbazen dat ze hun eigen mini-itx bordtjes in elkaar gezet hebben
ze hebben niks aan een onboard sound chip en dergelijke lijkt me
met de ruimte die gemaakt is kunnen ze dan extra ide controllers (sata) of een scsi (sas) chip/systeem erop gezet hebben

Maar helaas kunnen we nu er aleen maar over speculeren want er is niks te vinden erover
Wat is hier zo bijzonder aan? Kan ik ook wel leveren, maar dan 11TB per 3U.

Stroomverbruik is alleen wel wat hoger, namelijk 5,6KW per rack, maar dan kan je er ook 154TB in kwijt ipv 126TB.

Prijs ligt ook zo rond de $1,5 per gigabyte en dan heb je nog meer CPU power tot je beschikking ook. Beetje overtrokken nieuws dit.
Hoe wil je dit precies realiseren dan? Want als dat jou lukt zou ik het op de markt zetten...
Eeh Supermicro 3U behuizing met 15 drivebays, supermicro server bordje S775, Intel P4 D 3.2 GHz (kan dus nog zuiniger als je een Core 2 DUO bord en CPU pakt, is ook ca de zelfde prijs. Areca 16 poorts controller erin en wat ram. Owja en dan 15x een 750GB SATA schijf niet te vergeten.

Booten doe je via het netwerk en klaar is kees. Ik heb al soortgelijke systemen geleverd, maar dan met 400GB schijven. Dan kom je op 6TB per 3U uit, maar is wel goedkoper per GB aangezien dergelijek schijven veel gunstiger geprijsd zijn.

Er zijn inmiddels ook behuizing van Supermicro met 24 drivebays dacht ik, daar heb ik alleen nog geen rekenmodel voor :P

Het leuke is dat ej dan ook nog een 3x rudundant voeding achterin hebt hangen, dat zie ik de Capricorn nog niet doen.
De Capricom heeft geen redundant voeding omdat het niet nodig is, bedrijven die zoiets als dit gebruiken geven niet om een node meer of minder, daar heb je gewoon redundant nodes, valt er 1 uit dan vervang je die.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True