Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 85 reacties

De universiteit van San Diego heeft voor zijn Supercomputer Center een subsidie van twintig miljoen dollar gekregen om een nieuwe supercomputer met 256TB aan flashgeheugen te bouwen en in bedrijf te nemen.

De nieuwe supercomputer van het SDSC, of San Diego Supercomputer Center van de San Diego-universiteit moet worden ingezet om complexe wetenschappelijke vragen te beantwoorden, waarbij grote hoeveelheden data gemanipuleerd en geanalyseerd moeten worden. De computer zal de naam Gordon dragen en de planning is dat de supercomputer medio 2011 in gebruik zal worden genomen. Gordon volgt dan supercomputer 'Dash' op, die eveneens van flashgeheugen gebruikmaakt.

Gordon zal door Appro International worden gebouwd en zal bestaan uit 32 supernodes. Elke supernode is weer onderverdeeld in 32 rekennodes, die ieder tenminste 240gflops kunnen leveren en over 64GB werkgeheugen beschikken. De opslag wordt verzorgd door twee i/o-nodes per supernode, die elk 4TB aan flashgeheugen oftewel ssd's kunnen aansturen. Intel zal de ssd's leveren. De totale hoeveelheid flash-opslag komt daarmee op 256TB en de supercomputer krijgt in totaal 64TB geheugen. De verschillende nodes zullen via full-duplex 16Gbps-Infiniband-verbindingen met elkaar communiceren.

De rekenkracht moet afkomstig zijn van de snelste Intel-processors die in 2011 verkrijgbaar zijn: dat zullen naar alle waarschijnlijkheid cpu's zijn die op de Sandy Bridge-architectuur gebaseerd worden. Welke specificaties deze opvolgers van Westmere, de die-shrink van Nehalem, krijgen, is nog niet bekend. De Intel-cpu's zouden Gordon met een rekencapaciteit van 245tflops naar de top 30 van supercomputers moeten stuwen.

Reacties (85)

Reactiefilter:-185072+133+22+30
Moderatie-faq Wijzig weergave
Ik vraag me af over wat voor wetenschappelijke vragen ze het dan hebben. Tuurlijk, we kennen allemaal 'het weer' en weten dat daar erg veel rekenkracht voor nodig is. Maar ik vraag me altijd af wat voor 'vragen' ze hier willen beantwoorden... (we weten natuurlijk allemaal al dat het antwoord "42" is ;) )

Dit soort getallen zetten je (mij iig:)) altijd aan het denken. Als we het nu eigenlijk al over werkgeheugen hebben waarin astronomisch grote getallen staan die je eigenlijk niet meer in je hoofd kunt bevatten, hoe gaat dit er dan uit zien over een jaar of 20?
De wetenschappelijke problemen die men hiermee kan oplossen/berekenen kunnen over zeer uiteenlopende dingen gaan.

Het komt vaak neer op het oplossen van immense stelsels. Men heeft extreem veel variabelen die men allemaal wil berekenen om zo bijvoorbeeld iets te modelleren. Hierbij is het grote probleem dat een stelsel van n onbekenden in het slechtste geval in het beste geval (zie hieronder :) )zo'n n^2 berekeningen vergt om op te lossen. Men heeft natuurlijk wel heuristische methoden om tot benaderende oplossingen te komen maar het is niet zo moeilijk te begrijpen dat je al zeer snel zeer veel rekenkracht nodig hebt.

Twee mogelijke toepassingen zijn bijvoorbeeld kwantummechanische berekeningen bij grotere moleculen of modelleren van vervorming en spanning in ingewikkelde geometrische structuren.

@Rick.v.stiphout: dat kan je wel vergeten, je schrijft he trouwenst als pi niet phi.... ;)

[Reactie gewijzigd door Wouter.S op 6 november 2009 22:44]

n^2 slechtste? ... Sommige programmeurs zouden staan te juichen als ze een algoritme kunnen schrijven voor een probleem waarbij de Orde slechts kwadratisch toeneemt :P

n^x: polynomisch (x = 2, kwadratisch. x = 3. kubisch...)
betekent dat voor iedere extra parameter in je berekening, je een paar extra servers in je park erbij moet zetten.

x^n: exponentieel (Handelsreizigers probleem, dynamisch geprogrammeerd)
betekent (als x = 2) dat voor iedere extra parameter in je berekening je, je serverpark moet verdubbelen.

en het kan nog erger...

n!: facultatief(Handelsreizigers probleem, brute force)
betekent dat voor iedere extra parameter in je berekening je, je serverpark moet verveelvoudigen waarbij 'veel' staat voor het aantal parameters van je berekening. (stel je hebt tien parameters en het moeten er elf worden, dan moet je dus elf keer zoveel rekenkracht hebben als het berekenen van het probleem van 'tien'.)


Wikipedia heeft er een leuk artikeltje over.
Ik ben wel benieuwd hoe jij in het slechtste geval een stelsel van n onbekenden op kunt lossen in n^2 berekeningen... Als je dat even met ons deelt doe je de wetenschap een groot plezier denk ik ;)

Om de boel nog wat te verduidelijken: vaak gaat het om stelsels met n onbekenden en m vergelijkingen met deze onbekenden. Je krijgt dan een matrix en een "uitkomstvector" (m groot) en gaat op zoek naar een vector met oplossingen (n groot). Vaak is er geen exacte oplossing en moet je op zoek naar de beste oplossing, wat dan meestal gebeurt met een iteratief proces dat na een aantal stappen de beste oplossing zal benaderen.

Dergelijke iteratieve methoden zijn vaak voornamelijk opgebouwd uit matrix-vector vermenigvuldigingen, die in zichzelf al vrij bewerkelijk zijn :)
ok bedankt voor de correctie, je hebt idd gelijk. want "phi" s de 21e letter van het Griekse alfabet. Die staat weer voor "Het Guldengetal" welke ongeveer 1.618 is. (sorry voor het off-topic gaan ;) )
Eén van de typische zaken die je met supercomputers berekent, zijn molecuul simulaties. Je bouwt dan een model op van individuele atomen, die tesamen een eitwit of DNA vormen, en gaat dan kijken hoe zich dat in 3D vormt, welke stabiele toestanden er zijn, en hoe het interacteerd met andere moleculen.

In principe is dat gewoon de wetten van newton toepassen op atomaire schaal. Maar omdat je zo verschrikkelijk veel atomen nodig hebt (O.a. om het water waarin het molecuul zit te simuleren!), gaat zo'n berekening toch enorm veel rekenkracht vergen. Doodnormaal dat mensen weken op een berekening wachten.

Met dat soort simulaties hopen we dan beter te begrijpen hoe de biologie op moleculaire schaal werkt. En dat is hard nodig, om verschijnselen als kanker te bestrijden.

[Reactie gewijzigd door AHBdV op 6 november 2009 22:02]

best leuk, maar wat meer down to earth:

het vergelijken van grote hoeveelheden data uit de huidige en toekomstige dna sequencers of proteomics apparatuur met publieke databases of elkaar duurt nu al soms dagen op hardware die niet eens zo veel langzamer is als boven beschreven. Die 256 TB zit vol voor je het weet.
Check eens wat meer discovery channel, daar zie je veel beelden van uit de ruimte. Men kan als met genoeg rekenkracht heeft ook simulaties uitvoeren over het ontstaan van het heelal, of fysische theorien met toetsen die in de praktijk soms onmogelijk zijn om uit te voeren.

Verder zijn CAD, eindige elementen, en zoals reeds gezegd grote stelsels van data (voor het grootste deel zijn dit enorme matrixen) enkele dingen die baat hebben bij dit soort computers.

O, ja, ik dacht onlangs iets gelezen te hebben over een supercomputer waarop met heel veel linux systeem virtueel op draaien om iets te onderzoeken? weet begot niet meer wat, mss was het iets met een bot... om zo de normale gausstatistiek te bekomen over een of ander resultaat...
Het had te maken met hoe grote botnets zich gedragen om zo toekomstige botnets makkelijker af te zijn en beter te herkennen
Ze hadden op een computer cluster een miljoen virtule linux machines draaien waarop ze het gedrag van botnets wouden bestuderen.

http://tweakers.net/nieuw...-machines-onderzocht.html
Niemand weet wat we dan precies doen maar we kunnen we dan wel met onze telefoons berekenen.
Waarschijnlijk gaan ze voor de zoveelste keer de decimalen van "phi" berekenen.
zovaak gebeurt dat niet, want je hoort er nooit wat over.
Phi: http://en.wikipedia.org/wiki/Golden_ratio

Wel hoor je vaak wat over de decimalen berekenen van pi:
http://en.wikipedia.org/wiki/Pi
Jij bedoelt Phi als in Fi (de Griekse letter F), maar Rick bedoelt een aangeblazen Pi wat overigens niet correct is.

Het berekenen van Pi is trouwens een vrij nutteloze bezigheid want we weten tegenwoordig veel meer decimalen dan echt nodig zijn om nauwkeurig te kunnen rekenen, zelfs voor precieze in bijvoorbeeld de ruimtevaart.
Wat ik me nu afvraag: deze apparaten gaan (neem ik aan) jaren mee (enkele tientallen?). Hoe doe je dat als er een CPU (of andere deel) kapot is? Over een tijdje zijn die al lang niet meer te koop. Laten ze die dan gewoon bijmaken (met alle kosten van dien), of kunnen ze er gewoon een willekeurige andere inzetten?
Hoe doe je dat als er een CPU (of andere deel) kapot is?
Deze compu zal maar in de orde van 5 jaar meegaan, dus zo'n issue is het niet. Daarnaast zullen ze zeker wat spare units of daadwerkelijk CPU's op voorraad hebben (neemt toch bijna geen ruimte in). Tenslotte gaan CPU's bijna nooit kapot :)
Dank allemaal voor de uitleg. Verbaast me toch hoe snel zo'n ding alweer "op" is. En ik wist niet dat je ook later nog zulke oude CPU's/andere producten kon bestellen :)
ik kan nu ook nog wel een pentium 2 boxed bestellen.
het ligt alleen niet bij de plaatselijke hardware boeren in het magazijn.
Ik kan me ook voor stellen dat 'ie van een processortje meer of minder zal qua rekenkracht niet heel veel uit maken denk ik. Misschien is dit wel vervelend voor de communicatie tussen de cores onderling als er ineens ééntje weg valt.
Wie zegt dat deze apparaten tientallen jaren mee gaat? Moet je voor de grap eens kijken hoe snel een supercomputer in 2000 was. Daar kom je er nu echt niet meer mee.
Juist, maar hij blijft wel hetzelfde of meer rekenkracht geven dan vroeger (bv. optimalisaties). Dus zon supercomputer verliest zijn waarde niet geheel.
Even een n00b vraag: Wat voor een OS draait daar nou eigenlijk op?
in het algemeen zijn het Unix / SUN systemen maar "Custom OS'en" kan ook. Op zulke machine's draaien meerdere OS'en op aparte partities of LPAR's.
Hum ik vraag mij af wat de beredenering is van deze constructie?

Is het om de "snelheid" van de SSD of gaat het om het algehele stroom verbruik?
Want bij berekeningen is het opslag medium niet zo belangrijk als het CPU, memory bandbreedtes en cache prediction modellen
Dat 't een supercomputer is wil niet zeggen dat-ie alleen maar "rekent"...

Zoals al in het bericht staat: "waarbij grote hoeveelheden data gemanipuleerd en geanalyseerd moeten worden". Dusdanige hoeveelheden dat het werkgeheugen niet groot genoeg is (of bij die groottes niet meer kosten-efficient is). Dus moet de data van disk komen, en dan zijn SSD's een heel stuk sneller dan standaard disken.
En ze zeggen ook dat hij bij de top 30 super computers moet komen.
Al die supercomputers op de "Dash" na gebruiken standaard HDD's en toch zijn ze sneller
Ze zijn sneller wat betreft het maximaal aantal tflops dat de cpu's kunnen afleveren. Ik zie niets over de I/O's staan....
En ze zeggen ook dat hij bij de top 30 super computers moet komen.
Al die supercomputers op de "Dash" na gebruiken standaard HDD's en toch zijn ze sneller
Je hebt niets aan snel rekenen als je de resultaten niet kan wegschrijven en vice versa, Gordon gaat ws. gebruikt worden voor taken waarbij veel data gemanipuleerd en weggeschreven moet worden...
Kop:
'Gordon' wordt eerste supercomputer met ssd's
en vervolgens in de tekst:
Gordon volgt dan supercomputer 'Dash' op, die eveneens van flashgeheugen gebruikmaakt
Da's wel tegenstrijdig, niet?
Idd, dat dacht ik ook al :P Kan iemand dat even uitleggen??
Ik denk dat 'Dash' gebruik maakte van het ouderwetse flashgeheugen zoals bijvoorbeeld te vinden is in MP3 spelers ofzo terwijl 'Gordon' echte SSD's gebruikt.

Het princiepe is het zelfde maar ze werken anders.
Quote:
De rekenkracht moet afkomstig zijn van de snelste Intel-processors die in 2011 verkrijgbaar zijn: dat zullen naar alle waarschijnlijkheid cpu's zijn die op de Sandy Bridge-architectuur gebaseerd worden.

Je zou eigenlijk verwachten dat we hier ook de Larrabee zullen gaan zien. Het zou volgens mij redelijk makkelijk moeten zijn om de code die je normaal op de CPU laat draaien nu op de Larrabee te laten draaien, beide x86. Het porten van de code naar de GPU van nVidia of AMD zou nog wel het nodige werk opleveren, maar bij Larrabee niet.
En om het volgende maar aan te halen zou single/double precision geen hinder moeten opleveren(http://www.tomshardware.com/news/Intel-Larrabee,6030.html):
"It is interesting to note that Intel mentioned that Larrabee will "fully support IEEE standards for single and double precision floating-point arithmetic." ".
De keuze voor flash SSD's i.p.v. SSD's gebaseerd op Ram geheugen is naar mijn inziens logisch.

De moderne Flash SSD's doen wat snelheid betreft in bepaalde gevallen niet gigantisch veel onder voor Ram SSD's en presteren soms gelijkwaardig.


Bij Ram SSD's heb je nog altijd een backup nodig voor het geval er een storing is in de energievoorziening. (Eenzelfde capaciteit aan Harddrives of Flash geheugen)
Dit kost dus ook meer ruimte en energie, zowel in direct verbruik als ook nog eens de extra koeling.

Verder lijkt me de kans groot dat er nog een 'next gen' Flash SSD gebruikt zal worden die nog beter presteert en betrouwbaarder is dan wat nu op de markt is.
Nog ff een linkje naar Texas Memory Systems.....

http://www.ramsan.com/products/products.htm

De grote jongen van oudsher op het gebied van Ram SSD's heeft ook de switch naar Flash SSD's gemaakt.
Off-Topic: beetje jammer van al die Gordon Jolink grapjes.

On-Topic: Ik vraag me af hoe snel deze supercomputers weer worden geëvenaard door gewone desktopcomputers, heb eens gehoord dat daar meestal een tijdsspan van 10 jaar tussen zit, maar weet het niet zeker.

Desalniettemin zijn deze supercomputers natuurlijk handig voor wetenschappelijke doeleinden, vraag me wel af voor wat voor soort berekeningen je zoveel rekenkracht nodig heb (doet me denken aan de oude supercomputers die een nucleaire oorlog moesten voorspellen en nabootsen).
Ik kan werkelijk niet snappen waarom ze in (notabene) 2011 geen gebruik maken van een GPU of iets vergelijkbaars om berekeningen op uit te voeren. Is daar een logische verklaring voor?

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True