Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 85, views: 27.836 •

De universiteit van San Diego heeft voor zijn Supercomputer Center een subsidie van twintig miljoen dollar gekregen om een nieuwe supercomputer met 256TB aan flashgeheugen te bouwen en in bedrijf te nemen.

De nieuwe supercomputer van het SDSC, of San Diego Supercomputer Center van de San Diego-universiteit moet worden ingezet om complexe wetenschappelijke vragen te beantwoorden, waarbij grote hoeveelheden data gemanipuleerd en geanalyseerd moeten worden. De computer zal de naam Gordon dragen en de planning is dat de supercomputer medio 2011 in gebruik zal worden genomen. Gordon volgt dan supercomputer 'Dash' op, die eveneens van flashgeheugen gebruikmaakt.

Gordon zal door Appro International worden gebouwd en zal bestaan uit 32 supernodes. Elke supernode is weer onderverdeeld in 32 rekennodes, die ieder tenminste 240gflops kunnen leveren en over 64GB werkgeheugen beschikken. De opslag wordt verzorgd door twee i/o-nodes per supernode, die elk 4TB aan flashgeheugen oftewel ssd's kunnen aansturen. Intel zal de ssd's leveren. De totale hoeveelheid flash-opslag komt daarmee op 256TB en de supercomputer krijgt in totaal 64TB geheugen. De verschillende nodes zullen via full-duplex 16Gbps-Infiniband-verbindingen met elkaar communiceren.

De rekenkracht moet afkomstig zijn van de snelste Intel-processors die in 2011 verkrijgbaar zijn: dat zullen naar alle waarschijnlijkheid cpu's zijn die op de Sandy Bridge-architectuur gebaseerd worden. Welke specificaties deze opvolgers van Westmere, de die-shrink van Nehalem, krijgen, is nog niet bekend. De Intel-cpu's zouden Gordon met een rekencapaciteit van 245tflops naar de top 30 van supercomputers moeten stuwen.

Reacties (85)

Error: Ik heb er de kracht niet meer voor.
LOL :P haha anyway wat zouden er mee gaan berekenen dan Super PI ofzo?
Boter kaas en eieren, hoe verlies ik niet?
delen door 0?
Volgens mij gaan ze dat wel merken SSD's ipv HDD's, HDD's zijn al vrij lang de zwakste schakel in computersystemen. Maar inderdaad, wat valt er nou te berekenen met zo'n supercomputer?
Ach als je dit soort grote hoeveelheden geheugen gebruikt kun je natuurlijk vrijwel alles vanuit memory berekenen. Voor zeer grote modellen geld dat natuurlijk niet meer maar ik denk dat je een normale pc qua IO niet kunt vergelijken met een beest als dit.
Met supercomputers worden bijvoorbeeld simulaties en toekomstige berekeningen van het heelal berekend. In Nederland hebben ze bijvoorbeeld in 2008 een 'sterrenhoop' gesimuleerd met een supercomputer.

Hetgeen wat deze berekening/simulatie zo moeilijk maakt is het onderling berekenen van de zwaartekracht die de sterren hebben, dit kan alleen een supercomputer berekenen. Een doorsnee computer zou hier jaren over doen. In Nederland zijn overigens de meeste supercomputers speciaal voor het berekeningen van zwaartekrachten.
Van alles, heelal onderwerpen bijvoorbeeld. Dingen als zwaartekracht en zo. Maar ook gewoon lokaal, wat je elke dag ziet: het weer. Dit word ook veel gedaan door super computers, bij het gebruiken van het "kraken" van encryptie' s zal dit ook ongetwijfeld word toegepast.
Dat mechanische HDD's de zwakste schakel zijn, is waar. Maar ik dacht dat flash ook niet zo'n hele hoge betrouwbaarheid heeft.
Waar ik wel benieuwd naar ben, hoe gaan ze die flash erin zetten. Want je kunt flash chips ook als geheugenbankjes plaatsen, net als ram. Dan heb je veel bandbreette. Address ruimte genoeg met de huidige procs.
Zou dat een pun zijn op "Flash Gordon"?

Nee, niet op de Gordon uit Nederland
Ik denk het wel ja, vanwege het flash gebruik :)
Ik vraag me af over wat voor wetenschappelijke vragen ze het dan hebben. Tuurlijk, we kennen allemaal 'het weer' en weten dat daar erg veel rekenkracht voor nodig is. Maar ik vraag me altijd af wat voor 'vragen' ze hier willen beantwoorden... (we weten natuurlijk allemaal al dat het antwoord "42" is ;) )

Dit soort getallen zetten je (mij iig:)) altijd aan het denken. Als we het nu eigenlijk al over werkgeheugen hebben waarin astronomisch grote getallen staan die je eigenlijk niet meer in je hoofd kunt bevatten, hoe gaat dit er dan uit zien over een jaar of 20?
Niemand weet wat we dan precies doen maar we kunnen we dan wel met onze telefoons berekenen.
Waarschijnlijk gaan ze voor de zoveelste keer de decimalen van "phi" berekenen.
zovaak gebeurt dat niet, want je hoort er nooit wat over.
Phi: http://en.wikipedia.org/wiki/Golden_ratio

Wel hoor je vaak wat over de decimalen berekenen van pi:
http://en.wikipedia.org/wiki/Pi
Jij bedoelt Phi als in Fi (de Griekse letter F), maar Rick bedoelt een aangeblazen Pi wat overigens niet correct is.

Het berekenen van Pi is trouwens een vrij nutteloze bezigheid want we weten tegenwoordig veel meer decimalen dan echt nodig zijn om nauwkeurig te kunnen rekenen, zelfs voor precieze in bijvoorbeeld de ruimtevaart.
De wetenschappelijke problemen die men hiermee kan oplossen/berekenen kunnen over zeer uiteenlopende dingen gaan.

Het komt vaak neer op het oplossen van immense stelsels. Men heeft extreem veel variabelen die men allemaal wil berekenen om zo bijvoorbeeld iets te modelleren. Hierbij is het grote probleem dat een stelsel van n onbekenden in het slechtste geval in het beste geval (zie hieronder :) )zo'n n^2 berekeningen vergt om op te lossen. Men heeft natuurlijk wel heuristische methoden om tot benaderende oplossingen te komen maar het is niet zo moeilijk te begrijpen dat je al zeer snel zeer veel rekenkracht nodig hebt.

Twee mogelijke toepassingen zijn bijvoorbeeld kwantummechanische berekeningen bij grotere moleculen of modelleren van vervorming en spanning in ingewikkelde geometrische structuren.

@Rick.v.stiphout: dat kan je wel vergeten, je schrijft he trouwenst als pi niet phi.... ;)

[Reactie gewijzigd door Wouter.S op 6 november 2009 22:44]

ok bedankt voor de correctie, je hebt idd gelijk. want "phi" s de 21e letter van het Griekse alfabet. Die staat weer voor "Het Guldengetal" welke ongeveer 1.618 is. (sorry voor het off-topic gaan ;) )
n^2 slechtste? ... Sommige programmeurs zouden staan te juichen als ze een algoritme kunnen schrijven voor een probleem waarbij de Orde slechts kwadratisch toeneemt :P

n^x: polynomisch (x = 2, kwadratisch. x = 3. kubisch...)
betekent dat voor iedere extra parameter in je berekening, je een paar extra servers in je park erbij moet zetten.

x^n: exponentieel (Handelsreizigers probleem, dynamisch geprogrammeerd)
betekent (als x = 2) dat voor iedere extra parameter in je berekening je, je serverpark moet verdubbelen.

en het kan nog erger...

n!: facultatief(Handelsreizigers probleem, brute force)
betekent dat voor iedere extra parameter in je berekening je, je serverpark moet verveelvoudigen waarbij 'veel' staat voor het aantal parameters van je berekening. (stel je hebt tien parameters en het moeten er elf worden, dan moet je dus elf keer zoveel rekenkracht hebben als het berekenen van het probleem van 'tien'.)


Wikipedia heeft er een leuk artikeltje over.
Ik ben wel benieuwd hoe jij in het slechtste geval een stelsel van n onbekenden op kunt lossen in n^2 berekeningen... Als je dat even met ons deelt doe je de wetenschap een groot plezier denk ik ;)

Om de boel nog wat te verduidelijken: vaak gaat het om stelsels met n onbekenden en m vergelijkingen met deze onbekenden. Je krijgt dan een matrix en een "uitkomstvector" (m groot) en gaat op zoek naar een vector met oplossingen (n groot). Vaak is er geen exacte oplossing en moet je op zoek naar de beste oplossing, wat dan meestal gebeurt met een iteratief proces dat na een aantal stappen de beste oplossing zal benaderen.

Dergelijke iteratieve methoden zijn vaak voornamelijk opgebouwd uit matrix-vector vermenigvuldigingen, die in zichzelf al vrij bewerkelijk zijn :)
En van de typische zaken die je met supercomputers berekent, zijn molecuul simulaties. Je bouwt dan een model op van individuele atomen, die tesamen een eitwit of DNA vormen, en gaat dan kijken hoe zich dat in 3D vormt, welke stabiele toestanden er zijn, en hoe het interacteerd met andere moleculen.

In principe is dat gewoon de wetten van newton toepassen op atomaire schaal. Maar omdat je zo verschrikkelijk veel atomen nodig hebt (O.a. om het water waarin het molecuul zit te simuleren!), gaat zo'n berekening toch enorm veel rekenkracht vergen. Doodnormaal dat mensen weken op een berekening wachten.

Met dat soort simulaties hopen we dan beter te begrijpen hoe de biologie op moleculaire schaal werkt. En dat is hard nodig, om verschijnselen als kanker te bestrijden.

[Reactie gewijzigd door AHBdV op 6 november 2009 22:02]

best leuk, maar wat meer down to earth:

het vergelijken van grote hoeveelheden data uit de huidige en toekomstige dna sequencers of proteomics apparatuur met publieke databases of elkaar duurt nu al soms dagen op hardware die niet eens zo veel langzamer is als boven beschreven. Die 256 TB zit vol voor je het weet.
Check eens wat meer discovery channel, daar zie je veel beelden van uit de ruimte. Men kan als met genoeg rekenkracht heeft ook simulaties uitvoeren over het ontstaan van het heelal, of fysische theorien met toetsen die in de praktijk soms onmogelijk zijn om uit te voeren.

Verder zijn CAD, eindige elementen, en zoals reeds gezegd grote stelsels van data (voor het grootste deel zijn dit enorme matrixen) enkele dingen die baat hebben bij dit soort computers.

O, ja, ik dacht onlangs iets gelezen te hebben over een supercomputer waarop met heel veel linux systeem virtueel op draaien om iets te onderzoeken? weet begot niet meer wat, mss was het iets met een bot... om zo de normale gausstatistiek te bekomen over een of ander resultaat...
Ze hadden op een computer cluster een miljoen virtule linux machines draaien waarop ze het gedrag van botnets wouden bestuderen.

http://tweakers.net/nieuw...-machines-onderzocht.html
Het had te maken met hoe grote botnets zich gedragen om zo toekomstige botnets makkelijker af te zijn en beter te herkennen
Offtopic: Gordon Freeman
Dat was ook zowat het eerste wat bij me opkwam :D.
Is $20 miljoen niet wat overdreven?
Intel hardware hea :Y)

Nee maar 20 miljoen valt nog wel mee denk ik met die dure intel processoren (topmodellen dus!) en al die SSD's.
Op grond waarvan zouden we $20 miljoen overdreven moeten vinden? Jij weet verder totaal niets van dit project, maar jij gaat even hier vanuit je luie stoel bepalen dat het budget "overdreven" is?
Ikzelf heb 400 servers onder mijn hoede, maar je mag natuurlijk best denken dat ik er niks van weet.
Ze krijgen 20 miljoen om de supercomputer te bouwen en in bedrijf te nemen. Dit grapje is opgebouwd uit 32*32 machines met de nieuwste processors en bakken geheugen. En dan nog flinke stapels SSDs. Reken maar eens uit wat dat zou moeten kosten.

En dan praat je nog niet over het arbeidsloon van de beheerders/onderzoekers, het ontwikkelen van specialistische software, misschien een airco of zelfs een nieuw gebouw enz enz. Als je niet weet wat er onder het bedrag valt kun je niet zeggen of het duur of goedkoop is.

Maar goed dat zei jj71 eigenlijk al....
but, can it play crysis?

nee even serieus, hoeveel HD-films zou je hier tegelijk vanaf kunnen streamen?
en hoeveel IOPS gaat hij halen?
De volgende heet Joling? :+
En dan kunnen ze niet samenwerken :+
Serverpark "De Toppers" :+
Hum ik vraag mij af wat de beredenering is van deze constructie?

Is het om de "snelheid" van de SSD of gaat het om het algehele stroom verbruik?
Want bij berekeningen is het opslag medium niet zo belangrijk als het CPU, memory bandbreedtes en cache prediction modellen
Dat 't een supercomputer is wil niet zeggen dat-ie alleen maar "rekent"...

Zoals al in het bericht staat: "waarbij grote hoeveelheden data gemanipuleerd en geanalyseerd moeten worden". Dusdanige hoeveelheden dat het werkgeheugen niet groot genoeg is (of bij die groottes niet meer kosten-efficient is). Dus moet de data van disk komen, en dan zijn SSD's een heel stuk sneller dan standaard disken.
En ze zeggen ook dat hij bij de top 30 super computers moet komen.
Al die supercomputers op de "Dash" na gebruiken standaard HDD's en toch zijn ze sneller
Ze zijn sneller wat betreft het maximaal aantal tflops dat de cpu's kunnen afleveren. Ik zie niets over de I/O's staan....
En ze zeggen ook dat hij bij de top 30 super computers moet komen.
Al die supercomputers op de "Dash" na gebruiken standaard HDD's en toch zijn ze sneller
Je hebt niets aan snel rekenen als je de resultaten niet kan wegschrijven en vice versa, Gordon gaat ws. gebruikt worden voor taken waarbij veel data gemanipuleerd en weggeschreven moet worden...
zou zou een pun op Flash kunnen zijn, die was namelijk ook suuuuupersnel

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBGrand Theft Auto V

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013