Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 38 reacties
Bron: C|Net, submitter: T.T.

IBM heeft afgelopen vrijdag meer details over de performance van de Blue Gene/L supercomputer bekend gemaakt. De Blue Gene/L is, met veertien biljoen berekeningen per seconde, momenteel goed voor plek 73 in de lijst van 500 's werelds snelste systemen. Het systeem, ter grootte van een afwasmachine, draait zowel Linux (speciaal voor I/O) als een speciaal hiervoor gemaakt besturingssysteem. Blue Gene/L bevat speciale processors die momenteel op 700MHz draaien, dit zal volgend jaar echter 40% sneller kunnen. Big Blue gaat het systeem uitrusten met in totaal 1024 CPU's. Gekoppeld aan 127 broertjes zal Blue Gene afstevenen op de eerste plaats in de top 500. In totaal zullen de systemen 131.072 processors bevatten, dit levert een snelheid op van 360 teraflops.

IBM wil met een andere machine genaamd Blue Gene/P de magische barriere van de één petaflop (1.000.000.000.000.000 berekeningen per seconde) gaan doorbreken. De Earth Simulator van NEC is momenteel de snelste machine op de aardbol, deze haalt echter maar eendertigste deel van een petaflop. Big Blue heeft daarnaast nog plannen voor een derde systeem wat de naam 'Cyclops' gaat dragen. Het bedrijf wil hierin chips gaan verwerken die per stuk een flinke hoeveelheid processors gaan bevatten. IBM ligt met het project echter wel wat achter op schema:

IBM expects a machine it calls Blue Gene/P to be the first to achieve the petaflop milestone. The company also is planning another Blue Gene computer it calls "Cyclops" that's expected to use chips with many processors on each slice of silicon.

When IBM launched the Blue Gene project in 2000, it hoped to build Blue Gene/P in 2004 or 2005. Now it appears that Blue Gene/L is will arrive in 2005 and Blue Gene/P in 2006, said Debra Goldfarb, vice president of products and strategy for IBM's Deep Computing group.
Blue Gene op weg naar de petaflop

Lees meer over

Gerelateerde content

Alle gerelateerde content (23)
Moderatie-faq Wijzig weergave

Reacties (38)

Ik vraag me af of dit alles niet wat overdreven is... waarom is er zoo ontzettend veel rekenkracht nodig en wie heeft er zoveel geld voor over? Betaalt zoiets zich eigenlijk wel terug?

Ik ben ook zeer benieuwd hoeveel stroom zo'n ding vreet. Iets zegt me wel dat zo'n monsterlijk apparaat met een thermische camera in een satelliet prima te zien is :+
Nou, ik wil anders best weten hoe het klimaat er over 100 jaar uitziet hoor. Of hoe je een medicijn maakt dat kanker geneest. Dan zijn Petaflops wel handig. :9
Met megawatts-zuipende petaflops kan ik je wel vertellen dat het klimaat over 100 jaar een paar graden warmer is :+
Nah, je hebt als recht-geaard tweaker toch wel wat over voor een fatsoenlijke framerate in Doom IV :+
Wetenschappers willen dit soort dingen heel graag gebruiken en we betalen op de hele wereld wel ergens een beetje aan mee. In dit geval is dit ding bestemd voor bio-medici die het heftige knutselwerk wil doen met 'grote' moleculen.
In de hoge energy fysica is het simuleren van een gebeurtenis erg interesant, en dit op basis van de (met clusters en (over een tijd nog meer) met Grid Computing) berekende data van de waarnemingen in grote detectoren (CERN, FermiLab en andere tenten).

Verder wil ik er nog even aan toevoegen dat dit artikel er op duidt dat er een Freakin' hoeveelheid van 1.000.000 processors worden gebruikt in deze BlueGene. Dat vind ik best wel intens veel.
@siepeltjuh, zie het zo, als je een 700mhz pakt waarvan je weet dat die in een cluster wel 100% blijft leveren of een 1ghz die in een cluster terugzakt naar 70% van zijn prestatie kom je ook op hetzelfde uit.

Wat ze dus het lieft hebben is makkelijk rekenwerk, dus zorgen ze ervoor dat het processors zijn die zo min mogelijk inleveren bij grotere aantallen.

Opzich wel netjes dat ze maar 1 jaar op hun planning uitlopen. Bedoel de stap naar 1petaflop is toch wel een enorme vooruitgang als het beste systeem op dit moment daar maar 1/3 van scoort.

Ben echt benieuwd of IBM zo een gigantische schaalbaarheid van zijn cluster kan waarmaken
Als het dan maar geen petaflop gaat worden ;) :+

@Dennizz

Het project waarvoor ze dit doen, voorspellen hoe proteine uitvouwen naar een complexere structuur, is een goede zaak!

Hopelijk weten ze een hoop nare ziektes hiermee de spreekwoordelijke nek om te draaien! :)

Edit update:
Blue Gene's original mission was to tackle the computationally onerous task of using the laws of physics to predict how chains of biochemical building blocks described by DNA fold into proteins--massive molecules such as hemoglobin. IBM has expanded its mission, though, to other subjects including global climate simulation and financial risk analysis.
Persoonlijk vind ik gene folding & climate simulation een stuk interresanter dan financial risk, maar ik kan me voorstellen dat ze bij Big Blue ook graag meer brood op de plank willen hebben... :)
natuurlijk begrijp ik wel dat IBM graag dit wil, maar kunnen ze niet veel beter met z'n allen onmeunig veel geld gaan steken in processoren op lichtsnelheid? Ik neem aan dat dat gewoon alles overtreft toch.. maar de techniek hierachter vind ik wel erg interresant, hoe alles wel niet samenwerkt:s, gewoon ongelofelijk..

@ siepeltjuh, ik snap je wel, maar er zal vast wel wat achter zitten waarom ze dat niet meteen hebben gedaan :)
in een licht processor verplaatst de interne data zich met de lichtsnelheid, de aansturing is echter nog altijd gelimiteerd door de snelheid van de control-technologie.

Een redelijk alternatief zou zijn quantum computers maar dat is voorlopig nog geen realistisch doel.
electrisiteid gaat ook (ongeveer) met de lightsnelheid.
en zoals tybris al zei, ook hier ligt de beperking bij de controle (in het geval van electrisisteid zijn dat de transistors)
Volgens mij is de ontwikkelling van Blue Gene/P niet bedoelt als een project met een heuse toepassing. Zoals het bereken van kaalheid of wat dan ook.

offtopic:
of de vraag "what is de meaning of life, the universe and everything?!

Sommigen zullen dit antwoord wel weten...
Zo niet lees the Hitchhikers Guide to the Galaxy :P)


Het is meer een kwestie van kunnen realiseren. Misschien komen er wel andere complicaties aan het licht, waar nog nooit iemand aan had gedacht. Het is meer een invulling van theorie omzetten in praktijk.
En een flink stuk prestige moet je maar denken.

Op die manier zal het ding ook indirect flink opleveren.
of de vraag "what is de meaning of life, the universe and everything?!
Simpel, even zoeken op google =P

http://www.google.com/search?hl=en&ie=UTF-8&oe=UTF-8&q=the+answer+to+l ife+the+universe+and+everything&btnG=Google+Search
"By the time IBM has upgraded the box's 512 chips, each with two processors, and linked it with another 127 identical systems in 2005, Big Blue hopes to take the top spot."
512chips x 2processors x127systems=
130.048processors
Dat past niet meer in een wasmachine. En dit is alleen nog maar om sneller te zijn als Earth Simulator. Om met deze processoren de PetaFlop te bereiken moet je dit getal ook nog eens minimaal met 25 vermenigvuldigen.
130.048 x 25 maakt dan samen: 3.251.200 processors.
Drie miljoen processoren, wat voor een wapens worden hiermee dan ontwikkeld? Dit gaat een hele lieve kluit geld kosten dat ook aan vreedzame dingen besteed had kunnen worden.
Dit zal wel een typfout zijn:

Wat verder zeggen ze dat er in een machine 1024 CPU's zitten
Big Blue gaat het systeem uitrusten met in totaal 1024 CPU's
En dat zal het gekoppelt wordne met in totaal 128 systemen
Gekoppeld aan 127 broertjes zal Blue Gene afstevenen op de eerste plaats in de top 500. In totaal zullen de systemen 131.072 processors bevatten, dit levert een snelheid op van 360 teraflops.
Het zijn ook 127 wasmachines...
hoe koelen ze die dingen eigelijk wel niet? Dat gaat toch niet met een standaart wc setje denk :P
Ik mis het allerbelangrijkste weer en dat is de PRIJS van dit mooie spul.

Laten we eerst een minimum prijs per processor bepalen:
64 * 1024 processors * $10k per 'node'
afgerond =

1 miljard dollar

We kunnen overigens schudden dat dit gebruikt gaat worden voor het weer in je achtertuin (behalve als het voor een aanval nodig is, of als de machine idled). Ook voor de NASA gaat dit niet gebruikt worden. De NASA heeft een 256 processor SGI Altix3000 zopas aangeschaft.

Quantummechanica is een mooie algemene verzamelnaam.

Dit gaat natuurlijk met name voor het simuleren van nucleaire explosies gebruikt worden.

Nog even wat uitleg over de gebruikte termen.

1 gflop = 1 miljard EFFECTIEF gehaalde berekeningen. De processors kunnen dus op papier nog veel meer als dat.

1 tflop = 1000 gflop = 1 biljoen effectief gehaalde berekeningen.

1 pflop = 1 petaflop = 1000 tflop

De snelste 'gewone' processors, zoals bijvoorbeeld de opteron en de itanium2/madison die halen ongeveer rond de 4-6 gflop.

Een itanium2 op 1.3Ghz haalt ongeveer 5.2 gflop,
dus zijn broertje op 1Ghz haalt natuurlijk met de ogen dicht nog 4 gflop. Die kost iets van 800 dollar (de 1Ghz versie). Idem opteron. Die heeft echter voor vector-supercomputers natuurlijk wat nadelen waarvan verreweg de grootste is dat de opteron maar 1 MB cache heeft.

Ik begrijp dat 1 processor op 700Mhz in deze machine ook zo op deze snelheid zit (maar dan dual core natuurlijk). Echter dat zal voor zeker 10x de prijs zijn.

Vector processors zijn vaak razendduur. De US government besteld er hier maar liefst 64K van.

Voor zoveel mogelijk computerpower tegen de laagste prijs, is IBM vaak een enorme prijsvechter.

Het is voor mij heel lastig voor te stellen dat deze dual core power processor ineens zo maar goedkoper kan geleverd worden voor zo'n machine.

Want zelfs al wordt hij spotgoedkoop geleverd, al die routers gaan die machine toch al snel richting de 1 a 2 miljard dollar stuwen.

De US government kennende zal die niet meer als 1 miljard willen uitgeven aan zo'n machine.

Je gemiddelde software programma parallel laten rekenen op deze machine is natuurlijk wel een illusie. Alle software die enige interactie met andere software nodig heeft gaat niet draaien op deze machine.
Hebben de vorige schrijvers wel eens nagedacht over het meedoen aan distributed computing projects? Zou het niet effectiever werken als de kanker research die we nu met z'n allen doen over een systeem zoals hierboven beschreven beschikt?

Denk eens na, als je distibuted b.v. een eerste shifting doet om daarna de kanshebbers op zo'n systeem te laten doorrekenen.... Da's effectief onderzoek en daar kun je mensenlevens mee redden.
distributed computing is vooral handig als er vele verschillende los van elkaar staande bewerkingen moeten worden uitgevoerd. Daardoor zou zo'n machine natuurlijk enorm vertragen. DC is trouwens gebaseerd op goodwill van mensen die hun pc idle stond te draaien en ik denk niet dat zulke bakbeesten ook maar een uurtje staan te idlen :P


Theoretisch zou deze volgens hun planning 1 Petaflop halen, maar simpel 1 miljoen cpu's van 1 gigaflop lineair vermenigvuldigen vind ik redelijk naïef
Allemaal leuk en aardig, maar je beseft toch wel dat het gigantisch duur is om zo'n supersysteem te kopen? Zelfs huren ervan zou al een vermogen kosten...
Op dergelijke systemen koop je processor tijd. De het ding kan van 20.00 voor ford een nieuwe airbag staan door te rekenen om daarna verder te gaan met een nieuw medicijn voor kaalheid (en daar kan goud mee worden verdiend).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True