Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 38 reacties

Cray heeft twee nieuwe supercomputers geïntroduceerd: de XT5 MPP en de XT5h. De XT5-lijn kan acht quadcore Barcelona-processors van AMD huisvesten op een enkel bord.

Cray logoDe massively parallel processor-versie van de XT5 is uitgerust met 1112 processors in zes kasten om tot 43 Tflops te komen. 'Voor zover ik weet is dit de hoogste Opteron-dichtheid in een systeem die je kunt krijgen', vertelt Cray -strateeg Jan Silverman tegen EETimes. De op Linux gebaseerde XT5 is voorzien van een nieuwe generatie SeaStar2+ interconnect en kan zowel uitgerust worden met vier- als met acht-socket-blades.

De maximale geheugencapaciteit van de nieuwe borden is vier keer zo groot als die van de XT4-blades, oftewel 32GB per twee sockets. Overigens kunnen de kabinetten van de XT5 ook gevuld worden met blades van het XT4-systeem. De hybride supercomputer XT5h kan niet alleen uitgerust worden met Opterons, maar ook met vector-processors via Crays X2-blades, en met Fpga's via XR1-blades. Volgend jaar moeten de opvolgers van de in november 2006 geïntroduceerde XT4-systemen beschikbaar komen.

Moderatie-faq Wijzig weergave

Reacties (38)

Je leest op tweakers de laatste tijd steeds vaker over supercomputers.
Kan iemand mij een paar voorbeelden geven in wat voor soort situaties dit soort systemen ingezet worden. Ik bedoel: wat 10 jaar geleden een supercomputer was, staat nu in je woonkamer. Zijn de complexe berekeningen veranderd? Hebben wiskundigen nieuwe sommetjes bedacht of vergeet ik gewoon iets?

-edit-
Bedankt voor de antwoorden allemaal!

[Reactie gewijzigd door AlphaRomeo op 8 november 2007 15:53]

Zoals ik zei een post hierboven, kijk hier. Je vergeet een ding: wanneer een computer sterk genoeg wordt om een complexe berekening in een korte tijd uit te voeren, wordt het tijd om de berekening complexer te maken ;). Bij weersvoorspelling kun je bijvoorbeeld meer variabelen mee laten nemen in de berekening.
Veel problemen hebben exponentieel veel rekenkracht nodig. Dat wil zeggen dat je bijvoorbeeld om een stap dieper te kijken niet dubbel zoveel, maar wel 10 of 100 keer zoveel rekenkracht nodig hebt. In het algemeen geldt dat wetenschappers nooit genoeg zullen hebben
Een hele simpele is bijvoorbeeld een weersvoorspelling: (ff heeel kort door de bocht) De aarde wordt opgedeeld in vakjes van een bepaalde grootte, en daar worden allemaal simulaties op uitgevoerd.
Je voorspelling wil je graag weten voordat het weer er daadwerkelijk is, maar de nauwkeurigheid hangt onder andere af van de resolutie van je vakjes: hoe kleiner die vakjes, hoe nauwkeuriger de voorspelling. En hoe kleiner de vakjes, hoe sneller je computer moet zijn om op tijd antwoord te krijgen.

[Reactie gewijzigd door Sentry23 op 8 november 2007 15:54]

Toch hebben ze het bij het weer steeds vaker fout :+
Da's een mythe. De korte termijn voorspelling wordt juist beter, waar men supercomputers voor nodig heeft zijn overigens niet korte termijn voorspelling maar lange termijn, dus meer dan 5 dagen.
De berekeningen worden gewoon simpelweg steeds uitgebreider. Kan mij niet voorstellen dat ze 10 jaar geleden op dezelfde schaal berekeningen deden als nu het geval is. Plus dat er steeds meer berekend wordt. Denk bijvoorbeeld aan kwantum mechanica.

[Reactie gewijzigd door DeathClock op 8 november 2007 15:52]

de modellen van kernexplosies, weer, etc. zijn steeds complexer (steeds meer variabelen) en dus zwaarder, gevolg sneller computer nodig.
Als men er eerst 3 maanden over deed om een bepaalde berekening te maken en nu een uur, dan heb je je winst al te pakken. Bovendien zullen ze wel telkens de grens verleggen van wat ze willen berekenen.

Ik vind 43tflops trouwens niet écht schokkend veel, als je je bedenkt dat NEC net een apparaat heeft uitgebracht die ruim 800tflops uitperst..

[Reactie gewijzigd door kreator op 8 november 2007 15:54]

Verschil is dat zo'n NEC ding 100% maatwerk is en je zo'n cray bij wijze van spreken gewoon in de winkel kunt halen.
Enkele voorbeelden: simulaties van kernproeven, weersvoorspellingen en klimaatmodellen, brute-force aanpak van wiskundige problemen, kortom: analyseren van *veel* data of van *veel* mogelijke toestanden.

Het is niet zo dat wat 10 jaar geleden een supercomputer was, nu in je woonkamer staat. Daar zou je namelijk nog niet eens Windows op kunnen draaien. Supercomputers hebben een totaal andere architectuur (over het algemeen, hierboven kan het dus ook met Opterons) dan huis-tuin-en-keuken computers. Denk oa. aan vectorprocessors.

Verder is elk jaar de technologie natuurlijk sneller en wiskundige/natuurkundige problemen die men 10 jaar geleden niet of veel te traag kon analyseren met computers kunnen nu of over 10 jaar wel worden berekend.
Weersvoorspellingen klopten 40 jaar geleden lang niet altijd, en nu nog steeds niet, ondanks al die teraflopperdeflops...
Dat zal dan ook wel de reden zijn waarom men het geen weersvoorspelling noemt maar een weersverwachting. Met voorspelt niks, spreekt alleen een verwachting uit.
Wellicht dat het over heel wat jaartjes wél te voorspellen valt, maar dat is nu nog niet zo.

Overigens: Hoe groot is de markt voor supercomputers tegenwoordig nog met al die distributed computing projects?
Overigens: Hoe groot is de markt voor supercomputers tegenwoordig nog met al die distributed computing projects?
heel groot. Denk je nou echt dat bijvoorbeeld het ministerie van energie in Amerika afhankelijk wil zijn van onze koetjes om een bepaalde berekening uit te voeren die de yield bepaald van een nieuw model atoombom? dacht het niet.

En zo zijn er vele toepassingen die zeer geheim zijn (medisch, natuurkundig, wiskundig). Daar willen ze 1 supercomputer die ze kunnen reserveren, zodat ze gegarandeerd 43 terraflops aan rekenkracht hebben, ze willen niet afwachten hoeveel tweakers op dat moment ingelogd zijn met het zoveelste @home project, en hoeveel rekenkracht ze daaruit kunnen halen als diegene zwaar aan het 3D renderen of gamen is.

Nu is de stelling 'de markt voor supercomputers is groot' natuurlijk heel subjectief. vergeleken met 10 jaar terug is de markt zeker substantieel gegroeid. Vergelijk het met de reguliere server markt, dan stelt het geen ene moer voor natuurlijk. Maar bij dergelijke apperatuur speelt er wel een vele malen groter investeringsbudget dan de gemiddelde multinational per jaar spendeert aan IT.
Beste Arjan,


Net wat je zegt: distributed computing projects.

Niet alle berekeningen laten zich makkelijk splitsen in deel berekeningen waarbij het geheugen gedistribueerd is, zonder dat de processoren çonstant op elkaar moeten wachten.

Terwijl bij een shared memory machine ze allemaal tegelijk 'weten' wat er in het geheugen staat en ze 'gewoon' door kunnen blijven gaan met hun deelberekening.

Dit was een aantal jaren geleden aan de RuG de reden om een Cray erbij te kopen ten nadele van een Connection Machine (een soort cluster in a box).

Te veel last van de distributed memory paradox, meer geheugen maakte de machine 'trager' door meer interprocessor communicatie.


Groeten,


Jan Gerrit Kootstra
Wiskundig Alumnis van de RuG
waar hebben ze al die rekenkracht voor nodig??
alle irreterende berekening vreten processorkracht. hoe meer irretaties hoe precieser het resultaat dus daar kan je geen rekenkracht genoeg hebben.
Iteratie of irritatie? Irritatie uitrekenen zou nuttig kunnen zijn in de medische wereld.

En dan nog is het zo ver ik weet niet eens een Nederlands woord, geen idee wat het in het Nederlands is eigenlijk.

[Reactie gewijzigd door StefanTs op 8 november 2007 23:08]

Voorbeelden zijn van berekenen wat kernexplosies doen, weer berekeningen etc etc

voor meer info kijk eens op www.top500.org
Simulaties naar bijvoorbeeld het weer of nucleaire explosies. Kijk ook hier.
Flops kun je niet omrekenen naar MHz. Dat zijn twee verschillende eenheden.
Inderdaad aangezien het per proc architectuur uitmaakt wat je met een bepaald aantal Hz kunt doen.

[Reactie gewijzigd door ThE_ED op 8 november 2007 16:27]

1 tera = 1000giga.
Dus 43.000Ghz

@ hier beneden, je hebt gelijk had verkeerd gelezen...

[Reactie gewijzigd door Osxy op 8 november 2007 15:46]

Een paar maanden geleden stond er ook een artikel op Tweakers.net over een aantal wetenschappers die de supercomputer van IBM hadden gebruikt om een rattenbrein na te bootsen.
Met de supercomputer konden ze een 1/100 rattenbrein op 1/10 van de tijd compleet nabootsen.
Ook hieruit blijkt dat hoe complexer hoe meer rekenkracht. En de resolutie van de grootte en tijd.
@Mar2zz: Pi is een irrationeel getal. Je kunt het zo ver uitrekenen als je wilt, je zult nooit tot een laatste digit komen.

Naast weersvoorspellingen en kernexplosies (wat weer een machtig voorbeeld) worden er ook heel veel natuurlijke processen gesimuleerd. Denk bijvoorbeeld aan de onderlinge interactie van atomen in een eiwit.
Brute-force is denk ik niet de manier waarop dit soort zaken aangepakt worden, de meeste modellen zullen iteratief zijn.
Deze Cray is zeker niet de grootste. De BlueGene is dat wel:

http://http://www.top500.org/system/7747

In dat artikel staan trouwens ook een paar toepassingen:
The 360-teraFLOPS machine handles many challenging scientific simulations, including ab initio molecular dynamics; three-dimensional (3D) dislocation dynamics; and turbulence, shock, and instability phenomena in hydrodynamics. It is also a computational science research machine for evaluating advanced computer architectures.
Niet te vergeten is het aantal processors dat de blue gene gebruikt. De blue gene gebruikt 131072 processors om 360teraflops te behalen. (link: http://top500.org/system/performance/7747)
De cray gebruikt 1112 processors om 43Teraflops te behalen. (zie artikel)
Klein rekensommetje: (131072/1112)*43=5068Teraflops! (Ok, zal wel geen perfecte schaling zijn, maar dit is toch wel een indrukwekkend getal)
Denk dat dit toch wel wat krachtiger kan worden.

2e vergelijking: De XT4 gebruikt 23016 processor voor 120Teraflops. (link: http://top500.org/system/performance/8372) (gebruikt dual core opterons)
Klein rekensommetje: (23016/1112)*43=890Teraflops.

Het is maar vergelijking maar kom.
Hopelijk crash dat ding niet, anders heb je een Craysis! hehe :P
/offtopic

wel mooie bak natuurlijk, maar wat gaan/kan ze/je er mee doen???
Ik vind het vooral een interessante ontwikkeling dat ze steeds meer FPGA's als co-processoren gaan integreren in computersystemen. Dit lijkt me vooral voor dit soort specifieke berekeningen zeer effectief.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True