Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 41 reacties
Bron: News.com, submitter: Slagroom

Een prototype van de IBM Blue Gene/L supercomputer heeft met een volgehouden score in Linpack van 36,01 teraflop per seconde de voorlopige eerste plaats veroverd op de volgende editie van de top 500 die in november verschijnt. De prestatie ligt echter slechts marginaal boven die van de NEC Earth Simulator, die al sinds juni 2002 bovenaan staat met 35,86 teraflops. De machine van IBM bevat ruim drie keer zoveel processors als die in het Japanse Yokohama, maar is fysiek maar liefst honderd keer zo klein en daardoor beter geschikt voor commerciële toepassingen.

Het is niet de eerst keer dat een prototype van Blue Gene/L meedoet in de lijst; in de editie van juni verschenen al prototypes met 4096 en 8192 processors. De voorlopige nieuwe recordhouder heeft er dus 16.384, en de uiteindelijke versie die begin volgend jaar aan het Lawrence Livermore National Laboratory in Californië wordt opgeleverd zal er maar liefst 131.072 hebben. De Earth Simulator zal daarmee definitief verpletterd worden en het doel van de VS om weer de nummer één te worden als het gaat om rekenkracht wordt daarmee direct vervuld. Een jaar na de 360 teraflop zware Blue Gene/L staat de Blue Gene/P met 1 petaflop rekenkracht op de roadmap. Van beide systemen wil het bedrijf kleinere versies verkopen aan voor toepassingen zoals biologische en chemische simulaties. Ook in Nederland komt tenminste één Blue Gene te staan.

Blue Gene op weg naar de petaflop

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (41)

Wat ik wel eens zou willen weten wat de doorbraken nu zijn geweest die deze machines hebben bewerkstelligd. Zijn hier lijsten van?
Wat ik me nu eigenlijk afvraag of deze systemen alleen een hoop cpu's hebben, zoals het schema laat zien (32*64*8 = 16384 cpu's in één tower) of dat het ook een hoop geheugen e.d. heeft.

16384 cpu's in één tower kan ik me haast niet voorstellen, alleen de warmte al... Verder zouden er 2048 cpu's op een level passen, dat is ongeveer 45*45 cpu's naast elkaar...
Het zijn meestal kleine RISC processoren, die behalve erg snel ook nog erg klein en koel zijn vanwege een beperkte instructie set (=minder transistoren nodig).

Bijvoorbeeld een pentium4 is behalve een all-round processor met een flinke klap cache, ook nog compatible met de eerste 8088. Dat zorgt voor een hoop 'rommel' en ruimteverspilling.

Warmte is niet zo'n probleem bij Risc processoren, ze produceren veel minder warmte omdat ze kleiner zijn en in dit soort grote systemen worden toch vaak wel andere koelmethoden gebruikt. Daar zitten meestal de kosten niet in.
kosten bij zoiets als dit zitten 'm juist wel in de warmte afvoer. koelen is namelijk 4x zo duur als verwarmen in de bouw en ik denk dat het niet veel anders is in een server-ruimte zoals dit. verder zit er natuurlijk ook een grote kosten post in de ruimte en de netwerk infrastructuur. daarom is deze interessant omdat ie lekker compact is. minder ruimte om te koelen, minder ruimte en minder netwerk-gedoe.
denk bijv. aan die apple G5 cluster. is de goedkoopste oplossing qua hardware maar vreet enorm veel ruimte en produceert een nette hoeveelheid warmte daarom zul je ze ook niet vaker tegen komen denkelijk

wat ik me afvraag is waarom de US zo nodig #1 moet staan terwijl ze al een nette staatsschuld hebben. niets meer dan een zoveelste patser vertoning van hoe goed ze wel zijn. en ik vraag me af hoelang het gaat duren eer japan hun ES een beetje upgrade.
Het zijn meestal kleine RISC processoren, die behalve erg snel ook nog erg klein en koel zijn vanwege een beperkte instructie set (=minder transistoren nodig).

RISC betekent niet een beperkte instructie set.
Verder is RISC niet synoniem met klein en koel. (Uiteraard bestaan er kleine eenvoudige processors die volgens het RISC principe gebouwd zijn).

Bijvoorbeeld een pentium4 is behalve een all-round processor met een flinke klap cache, ook nog compatible met de eerste 8088. Dat zorgt voor een hoop 'rommel' en ruimteverspilling.

Het stukje dat voor de compatibiliteit zorgt is verrassend klein. Het zorgt inmiddels eigenlijk niet echt meer voor "rommel" en "ruimteverspilling". De cache neemt wel erg veel ruimte in, maar dat zou ik geen verspilling noemen.

Warmte is niet zo'n probleem bij Risc processoren, ze produceren veel minder warmte omdat ze kleiner zijn en in dit soort grote systemen worden toch vaak wel andere koelmethoden gebruikt. Daar zitten meestal de kosten niet in.

Het warmte probleem is bij RISC processoren net zo groot.
En bij hele grote systemen is de warmte ontwikkeling juist wel een groot probleem. Al die geproduceerde warmte moet goed afgevoerd worden (om het plaatselijk niet teveel op te laten lopen), en bovendien door een geforceerde koeling weer opgeheven worden (airco), waarmee het totale energieverbruik gigantisch stijgt. Als er weer naar waterkoeling teruggegrepen moet worden, krijg je de funderingsproblemen van de oude mainframes weer terug.
Is het niet zo dat deze chips multicore zijn? Er was ooit eens een artikel over een multicore (8 of 16?) PowerPC chip? als er daadwerklijk 32 logiche core op 1 chip zitten , kom je snel aan een groot aantal processors.

edit: linkje gevonden: http://www.tweakers.net/nieuws/29296

edit 2: Daar hebben ze het echter over 4 cores per chip. die weer samen kunnen wekren met 1 andere chip van 4 die dan weer geclusterd kunnen worden met 4 andere sets van 2 chips om zo 64 procs "per set" te krijgen.
zit ook tenminste in 2 towers volgens het plaatje, 16 in een dan kom je o p32 in twee ;)
of dat het ook een hoop geheugen e.d. heeft.

Volg de bron en links daarin:
Blue Gene/L, the first member of the family, will contain 65,000 processors and 16 trillion bytes of memory.
Oftewel: 16000 GB geheugen voor het nog grotere broertjes; waarschijnlijk 4000 GB voor deze unit.
Earth simulator wordt gebruikt om met name het weer en de aarde in de gaten te houden.
Japan is heeft vrij veel last van orkanen en aardbevingen.
de vraag was niet: "wat wordt er mee onderzocht", maar "tot welke kennis hebben dit soort systemen nu al geleid". Ook ik zou dit wel eens willen weten.
Maar dat geeft hij toch ook in zijn antwoord: onderzoek leidt tot kennis.
En nu zullen ze vast en zeker veel meer weten wat betreft het weer en natuurrampen en hebben ze dus ook meer kennis.
...en het doel van de VS om weer de nummer één te worden als het gaat om rekenkracht wordt daarmee direct vervuld.
Ik denk dat ze heden ten dage al de nummer één zijn, alleen hebben wij als gewone burgers daar geen weet van. De NSA zal vast wat leuke supercomputers hebben staan die krachtiger zijn dan de Earth Simulator. En de supercomputers van het ECHELON netwerk zullen vast ook wel krachtiger zijn dan de Japanse machine. Leuk om dit soort artikelen te lezen, alleen moeten we niet de illusie hebben dat de getoonde supercomputers ook daadwerkelijk de krachtigste ter wereld zijn.
mja das natuurlijk wel alleen speculatie...
je zou als tegenargument kunnen stellen dat zo'n "supercomputers" nog steeds high-tech zijn, en dat het niet zo eenvoudig is zo' ding "in het geniep" te bouwen of te laten maken.
Hiervoor is heel wat know-how nodig, die niet zomaar overal te vinden is (imho dus ook waarschijnlijk niet in overheidsdienst) gecombineerd met ingewikkelde machines met niet mis te verstane specs.

Eigenlijk denk ik dat "overheden" zich heden ten dage niet meer amusreen met het elkaar de loef afsteken met sneller speelgoed te bouwen, maar eerder wie heeft het meeste _cash_ om zo'n ding aan te schaffen

btw: begrijp me niet verkeerd; het kan best zijn dat er in een of andere kelder van het witte huis een mainframepje staat te draaien, maar ik betwijfel wél dat dat dan krachtiger zou zijn dan bovengenoemden...
mja das natuurlijk wel alleen speculatie...
je zou als tegenargument kunnen stellen dat zo'n "supercomputers" nog steeds high-tech zijn, en dat het niet zo eenvoudig is zo' ding "in het geniep" te bouwen of te laten maken.
Hiervoor is heel wat know-how nodig, die niet zomaar overal te vinden is (imho dus ook waarschijnlijk niet in overheidsdienst) gecombineerd met ingewikkelde machines met niet mis te verstane specs.
Natuurlijk is het niet makkelijk om supercomputers in het geheim te bouwen en te ontwikkelen, maar vergeet niet dat we het hier hebben over de NSA, een geheime overheidsdienst met een enorm budget; groter zelfs dan het budget van de CIA en de FBI samen. Als ze iets geheim willen houden dan lukt ze dat echt wel. En er zijn ook voorbeelden te geven, neem de B-2 spirit bommenwerper, dat is een project met een hogere moeilijkheidsgraad dan het ontwikkelen van een snelle supercomputer, en dat project is ook geheim gehouden.
btw: begrijp me niet verkeerd; het kan best zijn dat er in een of andere kelder van het witte huis een mainframepje staat te draaien, maar ik betwijfel wél dat dat dan krachtiger zou zijn dan bovengenoemden...
Natuurlijk is het speculatief, maar het lijkt mij juist zeer waarschijnlijk dat er supercomputers bestaan met een (veel) grotere rekenkracht dan de Earth Simulator. Rekenkracht die in het belang van de nationale veiligheid niet naar buiten gebracht kan en mag worden, en daarom hebben wij er als gewone burgers geen weet van.
Dit soort supercomputers worden niet geheim gehouden. Het is een prestige strijd op zich wie de snelste heeft. Ook binnen de USA. Dan wordt er gezegt: De Nasa heeft een computer met x teraflops. Wat ze er vervolgens mee doen is dan weer wel vaag. Maar je kan een supercomputer net zo min geheim houden als een wolkenkrabber. Het lekt toch wel uit. Neem dan maar de publiciteit van het snelste zijn.

Ook zijn dit soort clusters niet echt relevant voor een hoop taken. Ze kunnen snel rekenen, maar ze kunnen vrijwel geen info tussen de verschillen processen uitwisselen.

Maar als mensen willen geloven dat er in het geheim veel snelere computers bestaan zal dit ze er niet vanaf houden, er zijn tenslotte ook mensen die geloven in een auto die niet kapot gaat en op lucht rijd. Persoonlijk denk ik dat in ieder geval een supercomputer moeilijk te verbergen is en het bestaan ervan dus bekend is.
Dit soort supercomputers worden niet geheim gehouden. Het is een prestige strijd op zich wie de snelste heeft. Ook binnen de USA. Dan wordt er gezegt: De Nasa heeft een computer met x teraflops. Wat ze er vervolgens mee doen is dan weer wel vaag. Maar je kan een supercomputer net zo min geheim houden als een wolkenkrabber. Het lekt toch wel uit. Neem dan maar de publiciteit van het snelste zijn.
Weet jij dan wat voor type supercomputers o.a. in het ECHELON netwerk worden gebruikt? En wat voor supercomputers gebruikt de NSA? Naar mijn weten zijn die niet bekend; informatie over de rekenkracht van dit soort geheime overheid diensten lekt dus zeker niet altijd uit. Je vergelijking met de NASA gaat ook niet op, want de NASA is geen geheime dienst en die hebben er dus geen belang bij dat hun rekenkracht verborgen blijft voor de buitenwereld.
Ook zijn dit soort clusters niet echt relevant voor een hoop taken. Ze kunnen snel rekenen, maar ze kunnen vrijwel geen info tussen de verschillen processen uitwisselen.
Voor de taak die ze bij de NSA moeten vervullen zijn ze anders uiterst geschikt. Het ECHELON netwerk onderschept naar schatting 3 miljard communicaties per dag, om dat effectief te filteren heb je een gigantische hoeveelheid rekenkracht nodig.
Tja en de Cell doet al gewoon 1-1,5 Teraflops.
Pleur er daar eens 5120 van bij elkaar dan is het dag dag Nec Earth Simulator en dag dag Blue Gene.
Je moet niet alles geloven wat in de marketing over de "revolutionaire" Cell geschreven wordt. IBM is een van de bedrijven achter die processor en als je met een handjevol van die chips daadwerkelijk een beest van een supercomputer zouden kunnen bouwen dan zouden ze dat ook wel doen in plaats van door te gaan met hun op Power gebaseerde Blue Gene, denk je ook niet? Typisch Sony (een van de anderen achter Cell) om te claimen dat hun nieuwe speelkastje van 200 dollar meer kan dan twintig normale pc's.
Je moet niet verbaast staan te kijken als die cell daadwerkelijk (vrijwel) de specs haalt die sony beweerd. Echter, er zullen wel wat haken en ogen aanzitten die deze cpu nu nog niet geschikt maakt voor het gebruik in clusters.

Het zou echter dom van IBM zijn om niet te proberen deze chip van technieken te voorzien die (nog) niet in de Power5 zitten. Als ze beter zijn, komen ze ook in de Power5. Werken ze niet helemaal perfect hoor je er nooit meer van.
De prestatie ligt echter slechts marginaal boven die van de NEC Earth Simulator, die al sinds juni 2002 bovenaan staat met 35,86 teraflops.
Ik zou het verschil tussen de 2 wel in mijn desktopje willen hoor :+.
het verschil? 36,01 - 35,86 = 0,17 Teraflops = 170 Gigaflops..

Mjaa doe mij dat ook maar :)
36,01 - 35,86 = 0,17
Damn he, waar heb jij leren rekenen... :?
Doe mij dan maar het verschil tussen 0,17 en 0,15 teraflops.
Ik vraag me af of dat past... :+
Dat zou nou een leuk machinetje wezen om DPC op te draaien :+
En daaar gaan we weer... elke keer als er een supercomputer op tweakers komt word hij of onder een bed geduwd of is het leuk voor een DPC(tje)... :r
"Imagine a beowulf cluster of those..."
Dit is natuurlijk gelul.

Het simpele feit is dat Toshiba niets te winnen heeft met een CPU enkel voor de PS3 en dus deze CPU zeker niet exclusief wil houden. (Punt ontkracht)
Dat zeg jij.
Toshiba heeft genoeg te winnen door de Cell exclusief te houden voor bepaalde producten en dat is zodat ze meer voor iedere Cell kunnen vragen.
Hoge vraag en laag aanbod geven veel winst.
Dat leer je in je eerste jaar economie.
Tot slot zijn er verschillende krachtiger CPUs op dit moment in development. Daar hoor je weinig van maar ze zijn wél al op verschillende routemaps verschenen. Eerst maar eens zien of de Cell zijn belofte waarmaakt. (heel snel en tegelijkertijd goedkoop) Daarna wordt het pas echt zinvol om de prestaties te vergelijken met andere processors.
Voorlopig heb ik er echter nog geen één kunnen testen. Iemand anders wel?
Welke dan?
Kom maar op met links naar die routemaps en kom maar niet aan met multiple CPU configuraties, want we hebben het over losse CPU's met de rekenkracht van 1-1,5 Teraflops.
Waarom zou de Cell zijn belofte niet waarmaken?
De Emotion Engine heeft ook zijn beloftes waargemaakt.
Het zou puur gezichtsverlies zijn als ze hun beloftes niet waar zouden maken en als je zo groot als Sony bent dan doe je alles om dit te vermijden.
Ja het is inderdaad zinvol ja om CPU's onderling te vergelijken.

Hier is een vergelijking van losse CPU's.
Cell : 1-1,5 Teraflops
Blue Gene : 32 Gigaflops
Nec SX-5 (zit in de Earth Simulator) : 8 Gigaflops
P4 3,6GHz : 7,3 Gigaflops
Amd 64 FX53+ : 4-4,5 Gigaflops

Zo daar heb je je vergelijking.
Leuk CPU lijstje maak jij...
Mag ik dan ook de benchmark scores van de Cell even zien? Die van de rest is namelijk wel beschikbaar!
Pietje puk's argument dat er snellere processoren in ontwikkeling zijn heb je hiermee dus niet ontkracht.
Als je rekening houdt met een 'normale' ontwikkelcyclus dan zijn ze nu bezig met proc's die over 3 jaar uit moeten komen (uitzondering : itanium, is bijna 10 jaar over gedaan). Weet jij de specs van die ontwerpen? Nee dus... die maken ze itt de Cell niet bekend. Dit is gewoon een marketing hype zoals er zoveel zijn. Tegen de tijd dat dit wonderprocje gelanceerd wordt (dus echt verkrijgbaar en te benchen) dan weten we hoe snel hij echt is (itt hoe snel de marketingboys beweren dat ie is).

Overigens :
Hoge vraag en laag aanbod geven veel winst.
Dat leer je in je eerste jaar economie.
Inderdaad. In je tweede jaar leer je dan ook dat de vraag bij dit soort producten vrij sterk afhankelijk is van de prijsstelling, en dat winstmaximalisatiefuncties meestal niet lineair zijn (en dan zeker NIET omgekeerd evenredig met het aanbod).
De Emotion Engine heeft ook zijn beloftes waargemaakt.
Als je dit al gelooft dan heeft het weinig zin om met je in discussie te gaan over de Cell. Dat was een nog grotere hype over 100 tot 1000 keer zo snel als een pc in 2005. We hebben het gemerkt. Heb nog een leuke toevoeging voor je rijtje trouwens, aangezien je je zo graag blindstaart op flops:

GeForce 256 (ja, die hopeloos achterhaalde videochip uit 1999): 50 gigaflops
vraag me af wat de prijs van zoiets is
Zoals je kan zien, heeft het ongeveer ¥7,2mrd gekost, dus ongeveer ¤52,5mln :)
Als je dit al gelooft dan heeft het weinig zin om met je in discussie te gaan over de Cell. Dat was een nog grotere hype over 100 tot 1000 keer zo snel als een pc in 2005. We hebben het gemerkt. Heb nog een leuke toevoeging voor je rijtje trouwens, aangezien je je zo graag blindstaart op flops:

GeForce 256 (ja, die hopeloos achterhaalde videochip uit 1999): 50 gigaflops
Sony zei dat de Emotion Engine 6,2 Gigaflops kon en dat kan die ook dus daar hoef ik niets aan te geloven, want dat kan die gewoon.
Tuurlijk staar ik me blind flops, want dat is de rekenkracht van de CPU.

De GeForce 256 kan nog niets eens 2 Gigaflops, want de GeForce 4 TI4600 kon maar net aan 15 Gigaflops.

De Intel Itanium is helemaal niet zo krachtig, want die blijft ergens steken bij de 5 Gigaflops en dan heb ik het over de Itanium 2.
Tuurlijk staar ik me blind flops, want dat is de rekenkracht van de CPU.
Gigaflops is een nog veel zinlozer nummertje dan de kloksnelheid. Het is een zeer theoretisch getal waarbij geen enkele rekening gehouden hoeft te worden met interne en externe beperkingen zoals de parallelliseerbaarheid van software, I/O, registers, cache, branching, etc. De ene fabrikant is daar realistischer in dan de ander. Iedere fabrikant hanteert bovendien zijn eigen definitie van wat een "flop" precies is, en die twee factoren maken gigaflops-getalletjes totaal onvergelijkbaar.
IBM is een van de bedrijven achter die processor en als je met een handjevol van die chips daadwerkelijk een beest van een supercomputer zouden kunnen bouwen dan zouden ze dat ook wel doen in plaats van door te gaan met hun op Power gebaseerde Blue Gene, denk je ook niet? Typisch Sony (een van de anderen achter Cell) om te claimen dat hun nieuwe speelkastje van 200 dollar meer kan dan twintig normale pc's.
Ff nadenken voor je wat zegt he.
De Cell is wel krachtigste losse CPU die er bestaat of op dit moment in development is.
IBM kan simpelweg niet een supercomputer met heel veel Cell CPU's maken omdat de Cell een joint venture van IBM, Sony en Toshiba is.
Dat betekent dat IBM niet zomaar een supercomputer kan maken zonder de toestemming van Sony of Toshiba.
Sony en Toshiba willen gewoon graag die Cell exclusief houden voor de PS3 net zoals de Emotion Engine van de PS2.
Dit is natuurlijk gelul.

Het simpele feit is dat Toshiba niets te winnen heeft met een CPU enkel voor de PS3 en dus deze CPU zeker niet exclusief wil houden. (Punt ontkracht)

Doel van de Cell processor is dat ding in zoveel mogelijk hardware in te bouwen zodat alle toekomstige sony (en toshiba (?) ) apparatuur onderling kan samenwerken.

Tot slot zijn er verschillende krachtiger CPUs op dit moment in development. Daar hoor je weinig van maar ze zijn wél al op verschillende routemaps verschenen. Eerst maar eens zien of de Cell zijn belofte waarmaakt. (heel snel en tegelijkertijd goedkoop) Daarna wordt het pas echt zinvol om de prestaties te vergelijken met andere processors.
Voorlopig heb ik er echter nog geen één kunnen testen. Iemand anders wel? :)
131.072 CPU's met 2 gig ram per cpu (geschat)
En toen stond alle data op 1 40 gig HDD met 2 MB cache en 5400 toeren met windows XP pro licentsie voor maar 2CPU's en waren die de bottleneck :P

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True