Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 57 reacties
Bron: News.com, submitter: T.T.

Eind november werd bekendgemaakt dat IBM in opdracht van de Amerikaanse overheid een tweetal supercomputers ging bouwen. Over de snelste van deze twee, Blue Gene/L, is nu meer informatie vrijgegeven. Deze machine zal gebruik maken van 65536 dual-cpu nodes. Iedere processor zal voorzien zijn van twee floating point units en 4MB cache. Hoewel het eigenlijk de bedoeling was om een speciale core te ontwerpen is inmiddels besloten om hem te baseren op de huidige generatie 0,13 micron Power-chips. De reden hiervoor is budget- en tijdsdruk. Om dezelfde reden is ook de hoeveelheid geheugen (16TB) minder dan gepland, en zal er in plaats van waterkoeling normale luchtkoeling worden gebruikt.

Die-size en hitteproductie zijn de voornaamste redenen waarom de chip aangepast moet worden voor de supercomputer. In ieder chassis worden namelijk 64 processors geplaatst, verdeeld over zestien modules van twee nodes per stuk. De chassis worden met 32 stuks tegelijk in een rack geplaatst, en er moeten in totaal 64 van deze racks afgeleverd worden voor het eind van 2004. Het systeem zal dan ongeveer een half tennisveld in beslag nemen. In de herfst van dit jaar moet er een prototype van 512 nodes operationeel zijn, en de aangepaste processors zijn dan ook op dit moment al in productie.

IBM Blue Gene

Binnen de computer zullen 1024 nodes gealloceerd worden voor I/O en het verdelen van de taken. Dit is tevens het gedeelte van het systeem dat onder Linux draait. De andere 64512 nodes draaien een zoveel mogelijk gestripte en geoptimaliseerde versie van een 'custom operating system', vermoedelijk IBM's eigen AIX. Onderling zijn de nodes gekoppeld met een drietal netwerken. Eén voor onderlinge communicatie, een tweede voor communicatie met de hele cluster, en daarnaast nog normale gigabit ethernet-verbindingen. De theoretische maximumcapaciteit van de computer is 360 teraflops, maar in de praktijk zal de onderlinge communicatie tussen de nodes (mede door de volledig dynamische routering) de helft van die capaciteit in beslag nemen.

IBM mannetje bij overdreven groot schaalmodel 64-core cpu Het Blue Gene/L-project is echter slechts een opstapje naar Blue Gene/P. Deze laatste moet de eerste computer worden met een capaciteit van een petaflop (een miljoen keer een miljard berekeningen per seconde). Hoe Blue Gene/P gebouwd zal gaan worden is nog niet zeker, en zal dan ook voor een groot deel afhangen van de ervaringen die met Blue Gene/L en Blue Gene/C worden opgedaan. Blue Gene/C, codename "Cyclops", is eveneens een supercomputer in ontwikkeling, maar dan volgens een andere filosofie: minder nodes, maar juist meer rekenkracht per chip. Hoewel het nog lang niet zeker is wordt gedacht aan processors met tot wel 64 cores aan boord. Welke van de twee strategieën in de praktijk het best uitpakt zal uiteindelijk gebruikt worden om Blue Gene/P te bouwen.

Moderatie-faq Wijzig weergave

Reacties (57)

Worden hier ook weer 'kernproeven' mee berekend netzoals bij de vorige supercomputer van IBM. Of een complex klimaat/weer programma?

Standaard vraag bij dit soort nieuws: "Koetje?" }:O :Y)
Worden hier ook weer 'kernproeven' mee berekend netzoals bij de vorige supercomputer van IBM. Of een complex klimaat/weer programma?

Standaard vraag bij dit soort nieuws: "Koetje?" }:O :Y)
Uit het artikel:

Blue Gene's original mission was to tackle the computationally onerous task of using the laws of physics to predict how chains of biochemical building blocks described by DNA fold into proteins--massive molecules such as hemoglobin. IBM has expanded its mission, though, to other subjects including global climate simulation and financial risk analysis.

Dus nee, het gaat hier waarschijnlijk niet om computers die kernproeven simuleren.

Een supercomputer die kernproeven simuleert is de ASCI White. Hieronder een stukje uit het artikel over de ASCI White:

Blue Gene/L will be large, but significantly smaller than current IBM supercomputers such as ASCI White, a nuclear weapons simulation machine at Lawrence Livermore National Laboratory, which will also be the home of Blue Gene/L.

http://news.com.com/2100-1008_3-1000421.html
Schrijf maar eens een distributed client geoptimaliseerd voor een 65000 processormachine... :7
Win 64bit is al een hele opgave...

}:O
65000 duals dan he, dus eigenlijk 130000 ;)
Het artikel zegt dat ongeveer de helft van de processor power gebruikt wordt om de communicatie af te handelen. Dus 1 procje doet werk, de 2e staat alleen maar "IP" pakketten te routeren.
heel makkelijk zoals je zelf al zegt, het is een distributed client, het is dus juist heel makkelijk om daar een client voor te schrijven, desnoods draai je de client meerdere keren :D
Zo een computer heb ik ook thuisstaan; de installateur zij dat ik geen cv- ketel meer nodig had :)
De hele tennisvereniging niet :7

Ontopic: En waarom heeft de OVERHEID dit nodig dan? Het leger, de nasa, echelon enzo hebben er in de toekomst misschien wel wat aan, dat kan ik me voorstellen, maar de overheid?

Of wil Bush nu al weten wat zijn kansen zijn bij de volgende verkiezingen :z.
Wetenschappelijk onderzoek *ring a bell*
Seismische activiteiten worden gemeten en geven heel veel factoren/variabelen die allemaal met elkaar een correlatie opna houden en waar je dus voorspellende informatie uit zou kunnen toveren na veel stamp werk.

Weer voorspellingen, gedetailleerde het weer meten en kunnen analyseren. Cray's zijn snel, maar als je een nieuwe centrum voor onderzoek start of een centrum breid zich uit en wil is Hughes neerzetten, dan ga je voor het kwalitatief beste machientje en vooral snelste ;)

KernFysica
Hoge Energy Fysica
Biomedisch, moet ik nog meer doelen voor zo'n beest bedenken?

Echelon, leger, nasa zijn maar een paar spelers op de markt. Grote spelers dat wel, maar toch wereldwijdt beperkt (naar de buitenwereld)
om olie te zoeken bv. er stond recent een bericht over de zware machines die door rafinaderijen en oliemaatschappijen en zo gebruikt worden. er zijn duizend en 1 dingen te bedenken waarbij rekenintensief werk aan te pas komt. ik denk niet dat ze dergelijk duur spul gaan gebruiken om bv uw gedrag op het internet te gaan volgen ;) dat hebben ze al (in kleine mate)
om olie te zoeken bijvoorbeeld
hmm moeten ze die nog ZOEKEN dan??? ze hebben maar naar IRAK te gaan nu :+ :o
Behalve de NASA is alles wat jij opnoemt de overheid beste man(of vrouw...). Dus bijvoorbeeld daarvoor idd. :)
kleine korrektie de NASA is ook overheid dus alles wat genoemd is is overheid.
NASA staat voor National Aeronautics and Space Administration.
Volleedig gefinancieerd door de Amerikaanse overheid.

Hier vind je wat meer info over de geschiedenis van de NASA http://history.nasa.gov
server voor massive online oorlogs spelletjes (goedkoper dan een echte oorlog...) :+
Ja lekker s'ochtends warm water, oh nee shit, heb ik dat ding gisteravond toch uitgezet!
'de installateur zij'

zullen we daar maar zei van maken ;)
En over 10 jaar heeft iedereen dit thuis staan als single proc ;)

Wat ook wel 1337 is is dit "clustertje" in een cluster > :)
Das wel erg positief gedacht. 10 jaar geleden hadden we processoren ala 386DX40 ofzo. Nu 3000MHz, oftewel 75 keer maar zoveel. Dus ff rekenen levert een snelheid van 225 GHz op. Das toch ook niet zo geheel verkeerd lijkt me. Dus Intel een Pentium 7 225GHz en AMD een Athlon AP 175+ GHz :9

Intel is al op weg. Op http://www.theregister.co.uk/content/3/19604.html staat dat ze al hebben uitgevonden om transistors op 0,02 micron te bouwen, wat processoren opleverd als 10GHz en meer dan een biljoen transistors. Op die manier gaan we de 225GHz toch wel al erg snel halen. :+

Op http://www.vnunet.com/Features/1129818 staat dat zowel Intel als AMD al transistors kunnen maken van 3GHz per stuk en meer. Zo kan men dus naar de 20GHz binnen enkele jaren. Probleem is echter de warmte. Daar een 386DX40 niet eens koeling behoefde heeft de P4 al een bakbeest van een koeler en wanneer deze lijn van warmteontwikkeling zou worden doorgezet zouden we in 2005 een processor hebben die de warmte produceerd gelijk aan een nucleaire reactor. Beetje warm dus. :)

Vandaar ook dat zo'n bakbeest als deze niet zo snel op te zetten is. Vind het nog knap dat ze het zonder waterkoeling voor elkaar kunnen krijgen. Als ze nog een beetje energiezuinig bezig zijn gebruiken ze de vrijgekomen warmte voor verwarming van gebouwen of het opnieuw opwekken van energie.
Das wel erg positief gedacht. 10 jaar geleden hadden we processoren ala 386DX40 ofzo. Nu 3000MHz, oftewel 75 keer maar zoveel. Dus ff rekenen levert een snelheid van 225 GHz op.
De vergelijking die jij maakt is niet geheel correct. Je vergelijkt in princiepe een 40MHz 386 met een 3000MHz 386. Naarmate we nieuwe processoren zien verschijnen, zien we ook de IPC, hoeveelheid cache, ondersteunde instructies etc veranderen. Dus eigenlijk zou een Pentium4 met een kernkloksnelheid van 40MHz veel sneller moeten zijn dan een 486 met een kernkloksnelheid van 40MHz.

Kijk maar naar de AthlonXP en de Pentium4. Of zelfs de Pentium4-M en de Pentium-M. In deze vergelijkingen zal je zien dat het aantal MHz-en totaal niet gelijk is. Toch is het prestatieverschil veel kleiner dan het verschil MHz-en. Kortom, de IPC waarde, de grootte van de cache, de architectuur, de ondersteunde instructies, etc, bepalen allemaal mee in de prestatie van de PC per MHz.
Dat klopt, maar ik vergeleek ook enkel de megahertzen. Natuurlijk zijn al een hele serie instructies in de processor bijgekomen zoals MMX en SSE. Dit maakt het verschil in snelheid natuurlijk anders. Echter, in de toekomst zullen er nog steeds nieuwe instructies worden toegevoegd. De snelheidstoename zal ongeveer evenredig zijn. De megahertzen ook. Dit wil niet per definitie zeggen dat zo'n 225GHz processor dan ook 75 keer sneller is in een benchmark. :z
Reactie op elinsen

Als voorbeeld is een 2 GHz XP ( XP2400+ ) al ruim 10 keer zo snel als een 266 MHz Celeron, terwijl de kloksnelheid nog geen 10 keer zo hoog is.

Gaan we dat met een 2.66 GHz P4 vergelijken, dan blijkt ook die ruim 10 keer zo snel.

( zijn ff vergelijkingen met SiSoft onder Arithmetic benchmark, pak je de multimedia bench,dan zijn de verschillen nog veel groter tot wel 15-30 keer zo snel bij een 10 voudige kloksnelheid )

Dus dan denk ik dat de CPU's als ze b.v nog es een 10 keer hogere klok hebben, toch echt per kloktik nog effectiever blijken en wel degelijk ruim 10 keer zo snel zijn. Zal dan bij een 75 keer hogere klok ook nog wel zo zijn :)
We vergeten allemaal dat over 10 jaar de computer die op "levend weefsel" loopt ook al aardig doorontwikkeld zal zijn, de koeling problemen ben je dan volgens mij wel kwijt. En qua snelheid liggen ze geloof ik nu al veel hoger dan de snelste computer beschikbaar op dit moment.
Wel op tijd water geven, he...
als ik me niet vergis is de IBM processor een RISC(Reduced instruction set computing) architectuur, terwijl pentium en athlon een CISC(complex ISC) archtitectuur zijn.

om niet helemaal op te gaan in details:
HEEL algemeen kun je stellen dat een RISC computer minder instructies in hardware nodig heeft om een commando uit te voeren dan een CISC.

dus: 10MHz van een CISC processor zijn helemaal niet te vergelijken met 10 MHz van een RISC processor.

dus in feite kan de egte kracht van deze supercomputer nog hoger liggen dan een vergelijkbare supercomputer opgebouwd uit evenveel pentiums of athlons...
lol, de GBA heeft ook een RISC processor. Wat zou je krijgen als je 130000 GBA's clustert?
ff rekenen en de wet van Moore.

stel het aantal transistoren op x. dan zit er dus 65536*2*x transistoren in oftewel 131072x processoren.

10 jaar de wet van moore oftwel ongeveer een 4 keer een verdubbeleibng van het aantal transitoren = 2^4 = 16

over 10 jaar zitten we pas op 131072/16=1/8192 keer het aantal transistoren van dit kacheltje.


als je het doorrekent hebben we dus nog ff minstens 30 jaar te gaan voor deze brute kracht mainstream wordt.

(zou dan nog steeds de wet van Moore opgaan)?
Waarschijnlijk nog minimaal een decennium, volgens Moore zelf
zie: http://www.tweakers.net/nieuws/25498/
Ja ja, veel dual core CPU's bij elkaar proppen. Da's niet zo heel erg vernieuwend.

Wat ik veel interessanter vind is die CPU met 64 cores. Als dat een beetje blijkt te werken dan wordt dit ontwerp binnen no-time (lees 5 tot 10 jaar) overgenomen voor de consumenten computers en kun je nog leuke resultaten verwachten. Een multicore CPU lijkt me heel interessant vanwege de massale parallele processing die dan mogelijk is. Dan mogen ze volgens mij nog wel heel wat moeite steken om er en genoeg cache erbij te 'bakken' en geheugen er aan te kunnen knopen dat snel genoeg is om zoveel core's (of liever gezegd cache's) van data te kunnen voorzien.

Wie weet als je dan op .9 of nog lager technologie zit je nog steeds gigantische silicium plakken moet snijden.
En ze wellicht CPU's op de markt brengen waarvan de helft van de cores het niet doet als budget model. ;)
Waarom zou je de cpu's nog los snijden uit de wafel?
"Gewoon" wat logica erbij die zorgt dat de defecte kernels niet gebruikt worden (300 kernels per 300mm wafel, waarvan 256 gebruikt ofzo).
En dan 1 wafel per blade.
KOELING van die wafer? 256 keer 70watt?
Wat voor voeding?

Ik denk dat je de shuttle pc`s dan wel kan vergeten als je een core hebt van 30cm diameter....
Zoiets zal lang duren hoor voordat het in consumenten handen komt in de vorm van 1 CPU.

Niet eens 10 jaar, tenzij we praten over Quantum computers.

Met de huidige ontwikkelingen zou ik zeggen minimaal 20 jaar om zo een computer te kunnen evenaren in rekenkracht op 1 CPU.
Het Blue Gene/L-project is echter slechts een opstapje naar Blue Gene/P. Deze laatste moet de eerste computer worden met een capaciteit van een petaflop (een miljoen keer een miljard berekeningen per seconde).

Een miljoen keer een miljard?????? :?
T%$ing; hoe kun je zo'n bewering nou echt staven, een stopwatch schiet wat te kort lijkt mij.......
Heel simpel, je weet wat één processor kan doen (aantal instructies per kloktik * aantal kloktikken) * aantal (rekenende) processoren en je hebt de theoretische prestaties. Vervolgens zou je er nog een model overheen kunnen gooien om te bekijken wat de prestaties in de praktijk zijn.
Standaard Slashdot reactie...

Wow, imagine a Beowolf cluster of these!!

:+
Standaard Tweakers reactie...

Wow, hoe zal een }:O daar op draaien!

:+
amerika wil de grootste hebben lol dat kan wel eens dik tegenvallen investeren in technologie is misschien veel belangrijker dan in veel materiaal dat na een paar jaar kan vervangen worden met veel minder hardware wie weet hebben ze binnen 3 jaar een dna processor die perfect werkt en even krachtig is als deze 65536 processoren ik denk niet dat amerika deze suppercomputers zullen gebruiken om iets te vinden tegen aids of zo eerder om hun zoveelste wapenarsenaal bij te houden dan is het misschien beter te investeren in kernfusie of zo van rekenkracht alleen kan je toch ook niet leven :9
<offtopic>
Al ooit eens van het begrip
leestekens
gehoord?
</offtopic>
omfg doe eens een enter, een komma of iets dergelijks, dit is waanzin
Nou als je wilt weten hoe groot die processor is kijk maar ff naar dat grote plankje wat die donkere man vast heeft op dat plaatje.

Bewijs: er zitten 8x8 plaatjes op die plank als je goed telt en dat is uitgerekend 64.

Nou bouw maar een kast waar alles in past met de huidige technologie dan lijkt me dat het mischien wel iets meer wordt dan een half tennis veldje als ze dat ook nog willen koelen met lucht.
Denk je nou serieus dat dat een echte processor is, in plaats van een schaalmodel om aan de (domme) pers te laten zien wat ze bedoelen met een multi-core cpu?
Ik denk dat in de toekomst niet alleen de dimensies van de transistoren zullen krimpen, maar ook gaat men lagen met chip's "stacken" in een core, een soort multiprocessor dus.
Ingebouwde koeling moet ook mogelijk zijn, misschien volgens de heatpipe methode!! :*)
Ben bang dat voor een heatpipe je wel iets meer ruimte nodig hebt. Het idee van multicore processoren bestaat echter al langer, volgens mij heeft IBM zelfs Power4 processoren die dit hebben. Ook Intel heeft er al naar gekeken.
Het grootste probleem is echter de koeling... Dat loopt nogal uit de klauwen bij 2x75W.
eigenlijk als het zo bekijkt lijkt zo'n ruimte met al die computers die daarin staan op een cpu zelf
maar hier is elke cpu gewoon een transistortje :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True