Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 35 reacties
Bron: InfoWorld

IBM en Cray hebben contracten met het Amerikaanse ministerie van Defensie afgesloten voor de bouw van twee supercomputers. Voor de twee rekenmachines is bijna een half miljard dollar uitgetrokken.

IBM Blue Gene-bouwsteentje Het Defense Advanced Research Projects Agency heeft IBM 244 miljoen dollar toegezegd voor een vierjarig ontwikkeltraject, dat moet resulteren in een machine die 'honderd keer sneller dan hedendaagse general purpose supercomputers is'. Dat houdt volgens het Amerikaanse leger een snelheid van twee tot vier petaflops in, oftewel twee tot vier biljard sommetjes per seconde. Daarbij moet wel de kanttekening worden gemaakt dat de huidige recordhouder, een IBM Blue Gene, rond de 360 biljoen flops aflevert en dus 'maar' een factor tien langzamer is. De te bouwen IBM-machine, die wordt opgetrokken rond de Power7-cpu, moet verder veel simpeler te programmeren, bedienen en gebruiken zijn dan courante supercomputers. IBM heeft daarvoor naar eigen zeggen gekozen voor een holistisch ontwerp - en het is ongetwijfeld voor het eerst dat een computerbouwer claimt dat de werking van zijn machine niet met behulp van de afzonderlijke onderdelen te verklaren is.

Het contract dat Cray in de wacht sleepte is 250 miljoen dollar waard. Cray is overigens al met een 'petascale'-machine bezig: in maart sleepte het een opdracht van het Amerikaanse ministerie van Energie in de wacht, die in 2008 een supercomputer moet opleveren die minstens één petaflop produceert. In het kader van het nieuwe contract zal Cray, net als IBM, software proberen op te leveren waarmee het schrijven van de applicaties voor de machine 'tien keer zo snel' verloopt als wat momenteel het geval is. Het zogeheten High Productivity Computing Systems-programma van Darpa moet dankzij dergelijke innovaties zijn geld wel terugverdienen: de militairen hopen op een 'nieuwe generatie supercomputers', waarvan ze de technologie aan andere overheidsdiensten en het bedrijfsleven kunnen verkopen. Onder de geïnteresseerden bevinden zich het ministerie van Energie, het National Security Agency en de olie-industrie.

Moderatie-faq Wijzig weergave

Reacties (35)

Belangrijk om op te merken is dat je de snelheid van supercomputers eigenlijk niet kunt uitdrukken in het aantal berekeningen per seconden / of het aantal klokslagen per seconden.
Dit omdat een supercomputer niks anders is dan een heel reeks processoren die hetzelfde geheugen delen.

Stel het hebt een processor met snelheid x. Als je dan n processoren met snelheid x hebt dan kun je zeggen dat je de computer een snelheid n*x heeft. Maar dit geldt alleen voor bepaalde algoritmen / problemen die je onder kunt verdelen in subproblemen die je apart kunt berekenen.
Veel algoritmen kun je niet opsplitsen en zullen dus niet sneller zijn...

Nu weet ik niet of ik het helemaal bij het juiste eind heb, maar volgens mij wel :-) Mischien weet iemand anders meer.
Dat klopt inderdaad. De software die op supercomputers draait bevat echter heel wat parallellisme. Een voorbeeld:

Monte Carlo algoritme (zie ook http://en.wikipedia.org/wiki/Monte_Carlo_method):

Software die gebaseerd is op dit algoritme gaat systemen simuleren dmv statistiek. Stel dat je bv wil berekenen wat de lichtflux is op verschillende plekken in je kamer wanneer je bv een grote lichtbron onder je plafond hangt.

Je laat dan random een foton vertrekken vanuit je lichtbron en berekent dmv statistiek waar het ergens zou botsen met materie. Hier kan je foton geabsorbeerd worden, of gereflecteerd, ... In dat botsingspunt krijg je dus mogelijk een secundair foton met andere karakteristieken (in een andere richting, andere frequentie, ...), en hiervoor wordt opnieuw dezelfde berekening overgedaan. Dit wordt herhaald totdat het foton bv volledig geabsorbeerd is. Dit bovenstaande zal ik verder een track van een foton noemen.

Als je dit bovenstaande doet voor bv een paar miljoen random fotonen uit je lichtbron, bekom je statistische distributies over de oppervlakken waarop je de lichtintensiteit wou berekenen. En zo is de intensiteit dus berekend.

Op een dual core machine kan je dus slechts 2 tracks tegelijkertijd berekenen; op een supercomputer kan je duizenden tracks tegelijk laten berekenen. Dus een perfecte schaling aangezien deze algoritmes meestal volledig onafhankelijk zijn.
Bijna helemaal gelijk.
Je hebt alleen nog een beetje last van het probleem dat er 1 procesje draait (de schedualer) die de hele rambam aan procesjes moet verdeelen over de procesoren. Dit kost tijd, bijvoorbeeld heb ik op mijn server met twee procs van de tweede proc over het algemeen maar 40% winst.

Dit heeft er ook mee te maken dat de processors soms dezelfde bus om de beurt moeten gebruiken, en dus op elkaar moeten wachten. Ik denk dat in dit geval elke processor zijn eigen geheugen (+ management), zijn eigen bussen en zijn eigen communicatie-poortje heeft richting de rest.

Desalniettemin denk ik dat je snelheid n*x is, maar eerder iets van n*(x*0.4) Ofzo.

Je idee is in ieder geval wel goed.
Er zal inderdaad wat overhead zijn, maar in dit geval zal dat slechts heel beperkt zijn (de eigenschappen van de materie zullen niet veranderen nadat er een foton op gebotst is). Gemiddeld gezien heb je wel gelijk denk ik, niet alle processen schalen even goed.
In principe zit daar wel een kern van waarheid in. Vandaar dat ze het ook over een theoretische capaciteit hebben.

Over het algemeen worden op dit soort computers goed parallelliseerbare problemen losgelaten. In fortran geschreven cellulaire atomaten draaien als een tiet. Deze kunnen zo gecompileerd worden dat ze maximaal gebruik kunnen maken van de meerdere rekeneenheden.
Met een paar PS3 is dat zo gefixed.
En nu niet deze post als "grappig" bestempelen want dit is eerder waar dan je denkt.
Misschien dat ze in 2010 voldoende leverbaar zijn!
Nee joh dan word je wel weg gemod door gasten die zelf puntjes willen vangen
Weten we ook weer waar alle gestolen cpu's uit Maleisië naar toe gaan :Y)

nieuws: Overvallers maken voor miljoenen aan cpu's buit
Even voor de duidelijkheid: onder een holistisch (ook wel: autonoom) computersysteem wordt een systeem verstaan dat in staat is zichzelf constant:
1. te configureren
2. te onderhouden en te repareren
3. te beschermen
4. te verbeteren/optimaliseren.

Hierdoor voldoet het om de machine opdrachten te geven die tamelijk globaal van aard zijn, waarbij het systeem dan zelf uitzoekt hoe dat het beste te realiseren. Hoe de machine uiteindelijk precies tot het gewenste resultaat is gekomen, kan onzichtbaar blijven voor de programmeur.
Het zogeheten High Productivity Computing Systems-programma van Darpa moet dankzij dergelijke innovaties zijn geld wel terugverdienen
Duistere praktijken van de Darpa Initiative...
DARPA is de grondlegger van het internet !
(of is dit te duister).
Uiteraard hebben ze ook minder fraaie kanten.
DARPA is de grondlegger van het internet !
dat willen de amerikanen je graag laten geloven, maar het echte feit is das een natuurkundige bij het CERN het internet heeft bedacht.
De Amerikanen zijn alleen een stuk minder bescheiden als echte geleerden
In CERN is het www bedacht. Wat (D)ARPA gedaan heeft is een gedistribueerd systeem opzetten dat bij een kernaanslag communicatie mogelijk blijft maken. Hierbij werden verschillende militaire instalaties aan elkaar gekoppeld. Later werden hier ook de universiteiten op aangelsoten. Dit speelde zich zo'n 20 jaar eerder af dan de eerste keer dat ze bij het CERN uberhaupt het tcp/ip protocol gingen inventariseren.

Als je zegt dat het WWW uitgevonden is bij het CERN heb je gelijk, het internet zelf is echter een uit de hand gelopen communicatie projectje van DARPA.

En nu ophouden de fictie van Dan Brown na te praten zonder zelf eens wat onderzoek te doen ;).
Jij bedoelt de Darma Initiative, DARPA is iets anders :Y)
Zal Amerika met zo'n supercomputer nu eindelijk een effectieve strategie voor de netelige situatie in Irak kunnen 'berekenen'?
Ik denk dat iets te veel programeer werk is :'(
Dan heb je alle gegevens ingevoerd krijg je vervolgens dit:

Illigal entry, this program has performed an faulty operation and will terminate itself...gevolgd door een blue screen...

Of...het is een kunstmatige Intelligentie....wordt ie zwaar depressief
hehe...kun je eindelijk mario vloeiend spelen. 't kost wat, maar dan heb je ook wat :+
Ik denk , dat ze als OS linux zullen gebruiken. IBM en Cray timmeren hard aan de weg met deze OS op hun Super Computers.
Nu nog wachten tot ze 8192 GPU's aan mekaar kunnen knopen en ik kan hem voor in huis gebruiken }> om de allerlaatste games te spelen :7
Tegen die tijd zit intel ongeveer aan een 20core of 30 core cpu? Want ze releasen toch een 80core in 2010? :)

Gaat de power7 ook multicore zijn?
http://en.wikipedia.org/wiki/POWER7

Power7 zou ook pas voor 2010 zijn!
Gaat de power7 ook multicore zijn?
Aangezien de Power5 ook al multicore is zal dat vast wel.
Dat plaatje is ZOOOO veels te klein:

Check deze pagina voor de bron, en eindelijk eens wat foto's van de inhoud van z'n blue gene machine.

http://www.fz-juelich.de/zam/ibm-bgl/configuration/
dus het leger gaat een zakelijke relatie met de olie industrie aan? dat is wel heel erg olie op het vuur van de vs, olie schurken staat .. etc etc...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True