Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 64 reacties

Nasa werkt samen met Intel en SGI aan een nieuwe supercomputer die onder de naam Pleiades in 2009 een rekencapaciteit van 1Pflops moet kunnen leveren. Drie jaar later moeten de prestaties vertienvoudigd zijn.

NASA-logoDe Amerikaanse ruimtevaartorganisatie Nasa gaat de Nasa Advanced Supercomputing afdeling van het Ames Research Center in Moffett Field uitbreiden met een door Intel en SGI gebouwde supercomputer. Met een voor 2009 geplande rekenkracht van 1Pflops moet het nieuwe rekenmonster zijn voorganger, de Columbia, ruim verslaan. De inmiddels op leeftijd rakende Columbia haalt met zijn 10.240 Itanium 2-processors, die op 1,5GHz en 1,6GHz draaien en over 9MB L3-cache beschikken, ongeveer 61Tflops, ongeveer zestien keer minder dan de Pleiades-computer moet gaan leveren.

Hoe Nasa en zijn partners de rekenkracht van de nieuwe supercomputer, genoemd naar een cluster sterren in het sterrenbeeld Stier, zullen realiseren, is nog niet bekend. Mogelijk zullen quadcore-Xeons ingezet worden, die ruwweg tien maal betere prestaties neerzetten dan de in Columbia gebruikte Itaniums. Het doel om in 2012 de 10Pflops-grens te passeren, blijft echter ambitieus. De Columbia neemt de twintigste plaats in het top500-lijstje van supercomputers in: met 1Pflops zou Pleiades de eerste plaats innemen. Nasa gaat de rekenkracht van de nieuwe supercomputer gebruiken voor het verbeteren van de betrouwbaarheid van simulaties en modellen.

Moderatie-faq Wijzig weergave

Reacties (64)

hoeveel is 1 Petaflop nou eigenlijk? want ik denk nu gewoon "veel" omdat ik me er helemaal niets bij kan voorstellen.

en dan bijv. in verhouding tot mijn C2D T7300?

[Reactie gewijzigd door oddish2211 op 8 mei 2008 14:09]

1. Download freeware PC Wizard @ http://www.cpuid.com/download/pcw2008_v184.zip
2. Uitpakken en kan direct "PC Wizard.exe" opstarten (geen installatie nodig)
3. Aan de linker-onderkant op Benchmark klikken
4. Dan op het CPU icoontje met het klokje erin klikken

Bekijk Whetstone x87 en de Whetstone iSSE2 Floating Point resultaten en je hebt een aardige vergelijking hoeveel Flops jouw CPU aankan.

Er zijn zat andere manieren, maar heb PC-Wizard samen met vele andere tools op een USB stick staan, omdat het geen installatie vereist, en gemakkelijk in gebruik is.
Alleen jammer, dat de SSE unit niet echt gebruikt word in de wetenschap.
Daar word alleen de 80 bit Double gebruikt.

Vandaar dus dat meestal of een Opteron of een Itanium, of een IBM Power 6 gebruikt word voor supercomputers welke veel Flops nodig hebben.

Voor Integer berekeningen is het natuurlijk een ander verhaal.
Het hangt volledig van de applicatie af. Net zoals Cuda er voor zorgt dat de GPUs van nVidia voor niet-grafische doeleinden gebruikt kunnen worden. Het is echter wel zo dat de wetenschappelijke software die NASA gebruikt waarschijnlijk in IA-64 is geschreven en dus geneens op een desktop CPU kan draaien.

De x86 en x64 Intel compilers zijn echter prima in staat om te helpen met het gebruiken van SSE versnellende functies zelfs als de source code er geen rekening mee houd (zolang de optie tenminste wordt aangezet). De GCC compiler heeft ook een floating point SSE compiler optie (-mfpmath=sse en -msse2), die zelfs standaard aanstaat voor de 64-bit versie.

Xeons en Opterons hebben gewoon SSE ondersteuning, dus het hangt allemaal af van de degene die de source code compileert, wat je bij open source gewoon zelf kan doen.
Ik heb het gedownload en gerund, het blijkt helaas dat mijn oude opoe in haar hand gestuurde rolstoel een turbo vergeleken is met mijn systeem Amd Athlon 2600+ 1 Gb en een simpele GeForce MX400 videokaart :X

Maar het is een bijzonder fijn werkend tooltje, dus bedankt voor de link en uitleg erbij :)

[Reactie gewijzigd door Athalon1951 op 8 mei 2008 16:48]

Uit m'n hoofd:
Een enkele core van een c2d kan 2 floating point operations per kloktik (waarvan 1 vermenigvuldiging).
Dus: 2 cores * 2 operaties * 3.0G (ongeveer?) tikken per seconde = 12G FLOPS
Dit zijn waarschijnlijk single precision (32 bit) operaties, tov double precision (64 bit) voor de meeste supercomputers, dus om het eerlijk te vergelijken zou je het wellicht door 2 moeten delen.
Core2Duo is 64 bit. Double precission in de CPU is 128 bit, en daarvoor moet je de prestaties inderdaad door 2 delen. 32 bit floats kan de Core2 volgens mij zelfs 2x zo snel doen. Dus ongeveer 24GFlops voor 32 bit, 12 voor 64 bit en 6 voor 128 bit...
http://en.wikipedia.org/wiki/FLOPS hier zie je een hele uitleg over (peta)flops :)

FLOPS = FLoating Point Operations Per Second.
Een petaflop is dus 10^15 flops.

Op die pagina staat ook dat een gewone rekenmachine ongeveer 10 FLOPS levert.
Ik denk dat als je een vergelijkingstabelletje erbij pakt dat de C2D T7300 misschien 4 a 5 Gigaflop haalt.
1 Petaflop is 10.000.000 Gigaflop.
Dus 10.000.000 / 4 = 2.500.000x zo krachtig :P
Nee, 1 petaflop = 10^15 en 1 gigaflop = 10^9, dus het verschil is een factor 10^6 = 1.000.000 (één miljoen), niet 10 miljoen.

1.000.000 / 5 = 200.000 keer.
1 Gigabyte/flop
1000 Giga = 1 terra
1000 terra = toch 1 peta niet? (flops)

dus 1.000.000/4 = 250.000x

allez, dat denk ik dan met mijn beperkte kennis :)
Sry guys, heb die 10.000.000 Gigaflop gerekend vanuit 10PFlops.
Deze supercomputer is dus 2.500.000x zo krachtig als een C2D.
1 Petaflop is dus 1.000.000 Gigaflop.
Dus 1.000.000 / 4 = 250.000x zo krachtig
http://en.wikipedia.org/wiki/FLOPS
petaflop 10'15.
Kon de hele term FLOPS niet. Weer wat geleerd.
Wat mij verbaast is dat NASA niet meer voor proven technology kiest. Nu nemen ze een relatief groot risico door helemaal een nieuw ontwikkelingtraject in te gaan. De vraag blijft altijd of de doelstelling wel gehaald gaat worden.

Als de Columbia nu de 20-ste plaats inneemt zouden ze "morgen" toch kunnen starten met degene die nu op de eerste plaats staat?

Jammer genoeg weet ik niet de specs van al die supercomputers, dus ook niet wat het verschil is van de huidige eerste en de Columbia.
Als de Columbia nu de 20-ste plaats inneemt zouden ze "morgen" toch kunnen starten met degene die nu op de eerste plaats staat?
Dus jij koopt ook liever een 90nm Prescott Pentium 4 omdat die toevallig op de 1ste plaats staat, dan een 45nm Core 2 Quad? Nu heb ik twee uiterste gekozen, maar het is natuurlijk heel normaal dat er voor nieuwe technieken worden gekozen bij de keuze voor een nieuwe supercomputer. Vooral vanwege energie en ruimte besparingen die dat meebrengt.

De oude doet het nog prima (gewoon wat langzamer), dus deze wordt gebouwd met de aankomende 10 jaar (en meer) in het vooruitzicht. Vandaar ook de extra uitbreiding naar 10PFlops in 3 jaar. De Intel CPUs zullen hoogst waarschijnlijk 45nm zijn (als inderdaad Xeons en geen Itaniums worden gebruikt). De Itanium Tukwilla die eind dit jaar komt is namelijk nog steeds 65nm, en de Poulson 32nm komt pas veel later.

De Xeon Nehalem kan echter van dezelfde chipset/functies gebruik maken als de Itaniums, dus eventueel een combinatie is ook mogelijk. Het zou me juist niks verbazen als de 1PFlops bereikt wordt door van Xeon Nehalems gebruik te maken en dat die dan later door Tukwillas vervangen worden (of eventueel Poulson).
Zelf de ruimte in gaan is vele malen duurder en zoals gebleken zijn de Space Shuttle's duur maar ook niet echt meer bullit proof. Om die hele vloot te vervangen daar heeft de VS gewoon geen geld voor, vandaar dat ze met een compactere versie van de Shuttle gaan komen. Voor satelieten en dergelijke zullen ze in de toekomst voorlopig weer gebruik gaan maken van draag raketten.

Verder denk ik dat NASA genoeg parameters heeft om goeie simulatie modellen van de ruimte na te kunnen bootsen. Daarbij komt dat NASA veel meer doet dan alleen ruimtevaart en misschien dat ze straks met deze computer wel een betere Shuuttle kunnen ontwerpen.

Maar we zullen zien, de mens zelf leeft ook steeds meer in een virtuele omgeving en dat gaat ook nog steeds goed. Of het wenselijk is laten we maar even in het midden maar we gebruiken de computer en het internet steeds meer voor van alles. Helemaal vervangen zullen we het fysieke gebeuren niet maar het blijft een aanvulling waar we niet meer zonder kunnen.
"Waarom innoveren als je in oude technologie kunt investeren?" :?

huidige eerste doet 478 tflops
huidige tweede 167 tflops...
Binnen een jaartje of 10 hebben we dit pceetje allemaal in onze broekzak zitten en kunnen we er nog mee telefoneren ook.
absoluut niet, rekenkracht groeit volgens de wet van Moore, elke 1,5 jaar een verdubbeling. Over 10 jaar is een pc dus iets meer dan 2^6=64 keer zo snel dan nu. Hierboven is uitgerekend dat deze supercomputer ongeveer 100.000 keer zo snel is als de huidige processoren. Op een pc die net zo krachtig is zullen we volgens de wet van Moore nog zo'n 25 jaar moeten wachten. Voordat deze hoeveelheid rekenkracht in een mobieltje zit zal nog wel een aantal jaren langer duren.

[Reactie gewijzigd door DitisKees op 8 mei 2008 15:53]

Er staat nergens dat volgens de wet van moore de rekenkracht gaat verdubbelen:

http://nl.wikipedia.org/wiki/Wet_van_Moore

De Wet van Moore stelt dat het aantal transistors op een computerchip door de technologische vooruitgang elke 18 maanden verdubbelt.

Dat daardoor de rekenkracht verdubbelt kan zo zijn, maar dat is niet waar de wet van moore in eerste instantie over gaat.
Wet van Moore (als die hierop van toepassing is...) geeft aan dat processor snelheid elke 18maanden verdubbeld. Aangezien het hier een cluster van 10.000 nodes gaat, heb je ruim 13 verdubbeling * 1,5 jaar ~= 21 jaar nodig voordat je die capaciteit in 1 enkele processor hebt. Tel daar nog eens een paar jaar bij op voordat je dat soort capaciteiten in embedded systeemen terugziet.

Maar dan heb je zo'n krachtig systeem in je broekzak dat die telefoneert voor jou.
De wet van Moore is natuurlijk ook geen echte wet, wat velen even over het hoofd zien. Het is gewoon een verwachting der ontwikkeling, echter beginnen we natuurlijk wel op het einde te komen van de huidige stand van hoe men chips maakt.
Mwoa, dat betwijfel ik. Tenzij er heel veel nieuws ontdekt wordt, want dan zou je alles zo klein moeten maken dat je de wetten van de natuur overtreed. Zie jij maar eens 45 nm schakelingen nog vele malen kleiner te krijgen in de huidige setting om al die processors in je broekzak te krijgen.
Denk het niet fysieke grensen worden nu al benaderd ;)
Ze komen echt wel op iets nieuws, de techniek gaat altijd vooruit.
Lopen we dan nu met de supercomputer van 10 jaar geleden op zak? Natuurlijk niet.... Onze telefoontjes van nu komen niet eens in de buurt. Zelfs onze laptopjes nog niet eens.....
Niet dat het echt dichter komt bij ons begripsvermogen, maar deze jongen zal straks dus 1.000.000.000.000.000 floating point berekeningen per seconden kunnen maken.

Zie http://en.wikipedia.org/wiki/TOP500 voor een lijst met supercomputers.
Of zie
http://top500.org/list/2007/11/100
voor de officiele site... :P

(edit ; "wij" staan op plaats 37 !)

[Reactie gewijzigd door Terr-E op 8 mei 2008 16:49]

Hoe Nasa en zijn partners de rekenkracht van de nieuwe supercomputer, genoemd naar een cluster sterren in het sterrenbeeld Stier, zullen realiseren, is nog niet bekend. Mogelijk zullen quadcore-Xeons ingezet worden, die ruwweg tien maal betere prestaties neerzetten dan de in Columbia gebruikte Itaniums.
Kan ik me niet voorstellen. Het zou me verwonderen als niet Tukwila gebruikt gaat worden.
nieuws: Intel: Tukwila dubbel zo snel als Montvale
Ik kan het me ook niet voorstellen.
Zelfs ik, als AMD liefhebber, kan niet om de FPU van de Itanium heen.

Ik snap dan ook echt niet waar deze :
Mogelijk zullen quadcore-Xeons ingezet worden, die ruwweg tien maal betere prestaties neerzetten dan de in Columbia gebruikte Itaniums.
onzin vandaan komt.
Zijn dan niet meer met Cell Processors van IBM?
http://en.wikipedia.org/wiki/Cell_(microprocessor)
Alvast investeringen aan het maken voor hun MMO? :+
Hoe zat het ook weer dat je videokaarten en of gameconsoles kan gebruiken voor zulke berekeningen. Volgens mij is dat veeel efficienter
Ehm, je bedoelt dat je dan pakketjes via internet ( met latency / uitval etc ) wilt gebruiken. En afhankelijk wilt zijn van mensen die als ze eventjes een spelletje willen jouw berekening stopzetten. Last hebben van computers die 's nachts aanstaan en ze dus uitzetten...

Nee, ik denk dat nasa echt vrolijk wordt als ze moeten zeggen : Die berekening is er volgende week, of volgende maand als GTA IV deze week uitkomt...

Nog even daargelaten dat ik gok dat de energie efficientie van een supercomputer veel beter is dan van 10.000 complete computers / consoles
Videokaarten schijnen veel beter voor dit werk te zijn dan CPU's toch? Nvidia heeft een mooi systeem genaamd Tesla dat voor dit soort doeleinden gebruikt wordt.
128 Floating Point Processor Cores
Achieve up to 350 GFLOPS of performance (512 GFLOPS peak) with one C870 GPU
In een 1U 19" Tesla servertje zit:
# Tesla S870 GPU Computing System

* Four GPUs (128 thread processors per GPU)
* 6 GB of system memory (1.5 GB dedicated memory per GPU)
* Standard 19”, 1U rack-mount chassis
* Connects to host via cabling to a low power PCI Express x8 or x16 adapter card
* Configuration: 2 PCI Express connectors driving 2 GPUs each (4 GPUs total)
Scalable Solutions

* Scalable from one to thousands of GPUs
Met 1 Tesla servertje zit je dus al snel aan 1400 Gflops (2048 Gflops piek).

1 Pflops = 1.000.000 Gflops

1.000.000 / 1400 ~= 714 19" 1U Tesla servertjes

Iemand die weet hoeveel 1U je kan proppen in een 19" rack? In ieder geval dat geintje lijkt me ietwat goedkoper ;)

Dit niet aan intel vertellen he :| Worden ze bang want ze zullen winst missen xD

offtopic:
Om dan nog maar even te reageren op het Crysis geleuter hier bovenaan, inderdaad als ze dit gaan gebruiken dan wil ik naar die demonstratie als ze Crysis en Call Of Juarez enzo gaan spelen ;)

[Reactie gewijzigd door Ventieldopje op 9 mei 2008 01:46]

Laat zo'n Telsa-ding maar eens met 64-bit precisie rekenen, dan blijft er weinig van de prestaties over. Dat is maar een van de vele redenen waarom GPGPU lang niet altijd aantrekkelijk is. Laat je niet misleiden door de maar al te vaak verkrachte "gigaflops" maatstaaf.

[Reactie gewijzigd door Wouter Tinus op 9 mei 2008 08:17]

.via de interne mail van SGI kreeg ik dit al een x aantal weken te lezen. De bedoeling is om die 10pflops binnen 5 jaar uit te breiden naar 15 a 20pflops.
Als columbus nu had geleefd, dan hadden ze tegen hem gezegd. Je bent nu een paar keer op zee geweest en dat is zonder handel toch best wel duur. Hier heb je een leuke computer dan kun je voortaan de oceaan en je boot zelf simuleren, dan hoef je niet meer van die dure reizen te maken.

Het is dus oftewel de ruimte in of opheffen die NASA, tenzij je naam verandert in NSSI (National Scientific Simulations Institute)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True