Space Simulator Cluster gebaseerd op Shuttle barebones

Als je de marketingpraat van Shuttle mag geloven, dan is de Shuttle XPC barebone pc vooral geschikt voor mensen die een krachtige computer op hun bureau willen hebben maar geen grote kast willen of nodig hebben. Ook zou de barebone niet mistaan in de huiskamer als multimediacenter om DVD, DivX en bijvoorbeeld MP3 bestanden af te spelen. Maar enkele creatieve geesten hebben een andere toepassing gevonden.

Tegenwoordig bieden Beowulf clusters een goedkoop alternatief voor supercomputers van bijvoorbeeld Cray. Beowulf clusters zijn namelijk opgebouwd uit standaard PC hardware en draaien onder Linux. Het nadeel is echter vaak dat standaard PC kasten veel plaats in beslag nemen en dat 1u-kasten relatief duur zijn. Maar de Theoretical Astrophysics group (T-6) van het Los Alamos National Laboratory in de Verenigde Staten heeft hierop een oplossing gevonden. De barebones van Shuttle nemen namelijk een stuk minder plaats in dan standaard PC kasten en bieden toch alles wat er nodig is om een cluster te bouwen.

De Beowulf cluster bestaat uit 294 Shuttle XPC SS51G barebones die elk zijn uitgerust met een 2.53GHz Pentium 4 processor, 1GB PC2700 DDR SDRAM, een 80GB Maxtor harddisk een een 3Com 3C996B-T Gigabit Ethernet netwerkkaart. Dit alles wordt via een switch met elkaar verbonden en het eindresultaat is een cluster, Space Simulator gedoopt, met een performance van maar liefst 665.1Gflops wat de 85ste plaats oplevert in de top 500 van supercomputers. De Space Simulator moet de Avalon Alpha Beowulf cluster gaan vervangen en neemt maar de helft van de plaats in van de uit 140 nodes bestaande Avalon.

Space Simulator (klein)

Door Ralph Smeets

Nieuwsposter

26-11-2002 • 21:30

56

Submitter: Soar

Bron: X-Bit Labs

Lees meer

Shuttle SN45G review
Shuttle SN45G review Nieuws van 29 juni 2003
Eerste reviews Shuttle SB61G2
Eerste reviews Shuttle SB61G2 Nieuws van 23 mei 2003
Sun onthult nieuwe servertechnieken
Sun onthult nieuwe servertechnieken Nieuws van 19 november 2002
Cray X1 supercomputer gelanceerd
Cray X1 supercomputer gelanceerd Nieuws van 14 november 2002
HP en Oracle gaan samenwerken
HP en Oracle gaan samenwerken Nieuws van 12 november 2002
IBM introduceert Power blade-servers
IBM introduceert Power blade-servers Nieuws van 24 oktober 2002
Fujitsu SPARC64 V 1,35GHz benchmarks
Fujitsu SPARC64 V 1,35GHz benchmarks Nieuws van 14 oktober 2002
Geen Itanium 2 voor Google
Geen Itanium 2 voor Google Nieuws van 4 oktober 2002
Meer Unreal info
Meer Unreal info Nieuws van 26 november 1998

Reacties (56)

56
55
44
2
0
0
Wijzig sortering
Dit zal wel een leuke order zijn geweest voor Shuttle. Als er meer van deze orders komen kan de prijs van die barebones misschien nog wel omlaag. :9
'ki Denk dat 300 systeempjes écht niet genoeg is om wat te betekenen voor de prijs hoor.
Natuurlijk zijn zulke dingen wel perfecte reclame dus blij zullen ze er wel mee zijn.
Ik weet niet hoe diep die systemen zijn, maar als het over hoogte gaat en breedte, nemen 4 1U kasten toch echt minder ruimte in dan 4 van deze systeempjes.
Een XPC heeft een volume van 300(diepte)x200(breedte)x185mm(hoogte) = 110.000mm^3 . Een standaard 1U kast van bijvoorbeeld Procase heeft een volume van 482(breedte)x619(diepte)x44,45(hoogte) 132.948mm^3. Lijkt me dus dat je zo'n 20% plaats bespaard bij het gebruik van de Shuttle kast.
Haal je schoolgeld terug !
200 x 300 x 185 = 11.100.000 mm3
482 x 619 x 44,45 = 13.262.013 mm3
Maar zo'n 1U ast+inhoud kost ook tig keer zoveel als deze standaard kastjes,
Ja, maar heb je al eens naar de prijs van zo'n barebone gekeken... en vergelijk dat dan maar eens met de gemiddelde aankoops prijs van een gevulde 1U kast... maakt toch een aardig verschil dacht ik zo... ;)

<edit>
Damn net telaat
</edit>
keb ut ff snel met de pricewatch vergeleken. Maar ze zeggen op hun site dat een node per stuk nog geen $1000,- kost. Volgens de tweakers pricewatch betaal je toch minimaal € 1800,- voor de zelfde configuratie. Vooral de Gigabit NIC van 3com is mega duur € 676,-

Dus ze hebben daar meer dan 40% minder betaald voor een best aardige configuratie. Dus groot inkopen is zeker weten de moeite waard.
http://www.tweakers.net/pricewatch/42283

€ 70,- voor 3Com 3C1000b-T 10/100/1000 PCI Network Interface Card. Das wat anders dan € 676 :P

http://www.tweakers.net/pricewatch/28646

€ 164 voor de versie die ze in deze kasten gebruiken (3Com 3C996B-T)
Die 676 voor een 3com gigabit nic is ook zwaar belachelijk. Van intel heb je meen ik onder de 100 euro al een gigabit NIC.
Ze zullen dus echt geen 650 euro voor een NIC uitgeven als ze geld willen besparen...

Oh ja, per 300 inkopen helpt ook wel met de prijs hoor ;D
Behalve een prijsverlaging zou er ook wel eens een extra model kunnen komen. Ik kan me voorstellen dat ze in dit geval net zogoed vooruit hadden gekunnen met een lelijke kast, wat ook weer goedkoper had kunnen zijn...
Dus nog iets simpelere backbones voor dit soort toepassingen lijkt me niet overbodig :)
Als ze dit vaker gaan doen zal shuttle en de moederbord fabrikanten als ze slim zijn hierop gaan inspelen en een model maken wat meer gericht is op dit soort toepassingen.
De USB/firewire, microfoon, speaker opening voor diskette station en cd speler zijn eigenlijk overbodig hier. Dus dan zou ik me een kastje voorstellen met eventueel een dubbele processor en 2x gigabitLAN onboard en zonder de ander troep. Ook de video kaart zou dan veel simpeler kunnen zijn.
Oftewel met de kosten die ze uitsparen aan de nu voor dit geval overbodige dingen kunnen ze hier specefieke extra's voor maken en een grote concurrent worden voor de huidige 1U 2U rackmounts
hoezo kan het allemaal simpeler en goedkoper?

audio - onboard (in de sis-chipset??)
video - onboard (in de sis-chipset)
100Mbit - onboard (in de sis-chipset)

Het is wel jammer dat ze hiervoor dure gbit kaartjes moesten aanschaffen.
en inderdaad denk ik wel dat er best een markt is voor cluster-barebones, waar zelfs al 2 of meer mainboards in een kastje zitten. De vraag is dan natuurlijk of er markt genoeg is om de prijzen zo laag te krijgen als deze shuttle barebones.
Als je natuurlijk geld over hebt is zo'n Gbit NIC niet zo'n aanslag op je budget ;)

Maw... ze hebben op diverse andere onderdelen kunnen besparen en dan is het niet zo'n ramp om zo'n (kaart) er in te stoppen... maar zo'n kaart hadden ze ook moeten aanschaffen als ze met andere mobo's/behuizinge zouden werken ;)
dion_b Moderator Harde Waren @TD-er27 november 2002 00:33
Voor deze clustertoepassingen is een Gigabit NIC een absolute vereiste :o

Het is alleszins niet een sluitpost, de interconnects zijn namelijk bij clusters als dit de bottleneck :)
[quote]audio - onboard (in de sis-chipset??)
video - onboard (in de sis-chipset)
100Mbit - onboard (in de sis-chipset)[/quote

Wat is bedoelde is dat het allemaal overbodig is voor dit soort doeleinden op het netwerk na maar goed voor dit soort toepassingen heb je meer aan Gbit netwerk. En wat overbodig is kan dus weggelaten worden dus simpelere chipset en dus goedkoper te produceren
Als ik op die url van je klik krijg ik het volgende :

User not allowed to access this forum (not_allowed)


kben nochtans een registered user ...
om toegang tot de huiskamer te krijgen moet je een (150?) bepaald aantal techpost doen plus volgens mij een bepaalde tijd geregistreerd staan. Dus in jouw geval nog maar even tijdje heel actief GoT-en
Mjah je kan niet van iedereen verwachten dat hij/zij overal geregistreerd is.
Dus zou ik het wel leuker vinden mocht hij een stukje tekst overnam of een link naar een foto voor diegenen die op GoT geen toegang hebben tot die pagina.
Anders is het maar erg boeie ... }:O
Mooi, maar ze kunnen toch net zo goed kale ITX mainboardjes netjes naast elkaar zetten en daar een x aantal gemeenschappelijke voedingen + cooler aanhangen.

Het is een rekencluster dus als je er een reepje MB's extra in hangt en hem van het netwerk boot ben je ook geen HD nodig..

Heb je die kasten niet eens nodig en dat scheelt volgens mij nog VEEEL meer ruimte...

/edit: Poohbeer: Ik bedoel natuurlijk niet dat je nu alle mainboardjes in de open lucht hebt staan. Je moet er natuurlijk altijd een gezamenlijke casing omheenbouwen, ook om daar de koele lucht doorheen te blazen... (8>
Veel meer werk dan standaard aangeleverde kastjes.
+ die kast is niet voor niks hoor: bescherming, aarding, emi shielding, ...
Iemand een USB/Vuurdraad aansluiting nodig? :P
Dat zal zeker warm worden, maar ze worden bijna nooit volledig belast.Er komen weinig taken die de volle power van alle systemen vergen.

Je hebt ook heel veel opslag : 294X74GB (effectief)= 21756 GB, dus 21,4 Terabyte :).

Het is zeker goed bedacht. Afgezien deze kastjes tegen hun maximum hangen. Dit kun je ook doen met gewone computers, dan ben je ook goedkoper uit en het blijft koeler.Het kost wel meer ruimte, maarja het is wel slim uitgedacht.

Waar gebruiken ze die dingen nou voor dan? .Intensieve berekeningen of als Database.........
Anoniem: 56005 @typhon26 november 2002 22:55
Waar gebruiken ze die dingen nou voor dan? .Intensieve berekeningen of als Database.........
Tja, misschien als je de titel van het topic even goed bestudeert:
Space Simulator Cluster gebasseerd op Shuttle barebones
Of anders de tekst van het artikel even aandachtig leest:
de Theoretical Astrophysics group (T-6) van het Los Alamos National Laboratory in de Verenigde Staten
Dan zou je daar misschien uit kunnen concluderen dat het doel van deze clusters sterrenkundige simulaties is.
Ik zie hier ook goede mogelijkheden voor die nieuwe blade servers, bv. die van IBM, daarmee pak je 84 dual-Xeon systemen in een standaard rack, dus 168 processoren.
Maar daar hangt wel een ander prijskaartje aan. Ik denk zeker dat dit een goede en economische oplossing is.
Ik zit me net af te vragen wat die grap zou kosten,
406 X 294 = €119364 voor alleen de kastjes...
ik denk idd als ze andere kastjes hadden genomen dat ze beter uit waren geweest
-edit-

Perseus hou er wel rekening mee dat alles in amerika goedkoper is...en als je een kleine 300 stuks koopt je ook nog een flinke korting krijgt
Je vergeet dat je in een normale kast nog een moederbord, koeler een een grafische kaart moet plaatsen. Daarnaast was hun Avalon cluster gebaseerd op standaard PC kasten die in twee keer zoveel ruimte twee keer zo weinig processors kwijt was. Met de Shuttle kastjes heb je dus vier keer zo weinig plaats nodig en dat heeft waarschijnlijk voordelen zoals het niet hoeven bouwen van een nieuwe ruimte.

Het alternatief, 1u kasten of bladeservers is ook duur. Daarnaast bestaan er zover als ik weet nog geen bladeservers met de 2,54 Pentium 4 processor. Dus dan is eigenlijk een 1u kast het enigste alternatief en als je m'n andere reactie leest, kun je zien dat je daarmee niet meer plaats bespaard.

Op dit item kan niet meer gereageerd worden.