Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 57, views: 12.384 •

IBM is door de Academie van Wetenschappen in Beieren aangetrokken om een supercomputer te bouwen. De tot SuperMUC gedoopte computer moet in 2012 voltooid zijn en zal dan in totaal beschikken over een rekenkracht van 3 petaflops.

SupercomputerDe supercomputer wordt opgebouwd uit 14.000 Intel Xeon-processors, die in IBM System X iDataplex-servers zijn gehuisvest, meldt PCWorld. IBM zal daarbij gebruikmaken van zijn Aquasar waterkoelingsysteem. Hierbij wordt warm water gebruikt om de hardware te koelen, waardoor het hele koelsystem 40 procent minder energie dan gewoonlijk zou verbruiken. IBM zette Aquasar deze zomer voor het eerst in bij een supercomputer van het Swiss Federal Institute of Technology in Zürich. De bouw van de SuperMUC wordt financieel gesteund door de Duitse overheid en de deelstaat Beieren.

Met een score van 3 petaflops zou de SuperMUC, als hij momenteel zou draaien, de top 500 van krachtigste supercomputers aanvoeren. De huidige nummer één is de Chinese Tianhe-supercomputer, met een score van 2,67 petaflops. Toch is het waarschijnlijk dat als de SuperMUC in 2012 uitkomt, er alweer krachtigere modellen uit zijn. De SuperMUC zal worden beheerd door het Leibniz Supercomputing Centre in Garching en onderzoekers uit heel Europa zullen de supercomputer kunnen gebruiken om berekeningen uit te voeren op het gebied van onder andere geneeskunde en astrofysica.

Reacties (57)

haha lijkt me een leuk pc'tje: over 30 jaar kunnen ze wat deze supercomputer kan in een normale desktop kwijt denk ik :) en dan zijn de desktop's van nu niet groter dan een mobieltje :P

ja de ontwikkelingen blijven maar voortgaan... het zal inderdaad denk ik niet lang de snelste zijn, aangezien de chinezen enzo altijd een voorsprong op ons willen hebben :P

[Reactie gewijzigd door _-SaVaGe-_ op 15 december 2010 09:37]

Ja het is ongelooflijk 14000 processoren.

Ik kan me nog plaatjes heriineren van de eerste computer die roomsized was en minder rekenkracht dan een tegenwoordig simpele rekenmachine heeft.

Dit is een leuke link over de historie.

http://www.ardeco.be/Icar...nts/informatica/lijst.asp
Ik vraag het me af...

De schaal verkleining lijkt langzaam maar zeker op zijn einde te lopen... na de 10nm is er niet echt veel ruimte meer om er nog flink wat van af te snijden.
De andere oplossingen zo als grafeen of nano tubes zijn op dit moment niet in voldoende volumes te verwerken en het zou zo maar kunnen dat dat ook in de toekomst niet blijkt te kunnen. We zouden best wel eens tegen het plafond kunnen zitten en voor een tijdje de extreme snelheid van de verkleiningen achter ons moeten laten en ons moeten concentreren op het uitbreiden van het aantal cores, en bijvoorbeeld de cores gaan stapelen net zo als we nu al geheugen stapelen. Het probleem daarbij is de koeling... door stapelen maken we het alleen maar moeilijker om de koeling goed te regelen.

Op dit moment durf ik niet te zeggen of het echt mogelijk is dat we steeds maar kleiner en kleiner blijven gaan...
vast wel, maar dan stappen we gewoon over naar de vijfde generatie computers: quantum computers. In de tussentijd kunnen er nog computers gemaakt worden op basis van DNA moleculen zodat er een schaal van enkele nanometers mogelijk is. Of grafeen, ze verzinnen wel iets.
Je weet niet echt waar je het over hebt.

10nm zal waarschijnlijk pas in 2020 mogelijk worden en tegen die tijd is er al veel meer mogelijk dan nu.

Cores stapelen of het aantal cores verhogen is afhankelijk van de schaalverklkeining.

Je kan de oppervlakte van de chip niet zomaar vergroten met meer cores of het stapelen van cores omdat er dan latency optreedt en de electrische signalen niet meer op tijd aankomen.

Grafeen is vrijwel zeker de volgende stap, de enige reden dat grafeen nog niet gebruikt wordt is omdat silicium wordt uitgemolken.

Pas als silicium tegen de limiet aanloopt zal er miljarden in grafeen worden geinvesteerd en vanzelfsprekend de nieuwe techniek worden waarop chips worden geproduceerd.

Het gaat gewoon om die miljarden die de industrie in het onderzoek van grafeen moet stoppen, wanneer dat gebeurt komt de opvolger van de huidige technieken automatisch.
Koelen met warm water? :?
http://www.gizmag.com/usi...l-internet-servers/14830/

Stom gezegd; om zeer koud water aan te voeren in grote hoeveelheden, is meer energie nodig dan om "warm" water aan te voeren terwijl de opgenomen warmte van de CPU's alsnog voldoende is om de CPU's onder hun maximale temperatuur te laten functioneren.

[Reactie gewijzigd door MAX3400 op 15 december 2010 09:41]

Er is uit meerdere onderzoeken gebleken dat koud koelen helemaal niet zo nuttig uitpakt voor de levensduur en prestaties van servers.

Als je meer informatie wilt over dergelijke onderzoeken, lees de whitepaper op de Intel website: http://download.intel.com...e/reference/IPACK2009.pdf
Lijkt me idd logisch, kijk naar het asfalt op de baan, 'snel opwarmen' van -10 naar 5 graden is al niet zo gezond en kan het asfalt beschadigen. Een hypercomplexe processor is al iets beter beschermd tegen dit soort zaken, maar toch, snel opwarmen en weer heel snel afkoelen is voor geen enkel materiaal goed.
Jep. Als je een processor van pak m beet 70░C moet koelen, kan dat ook met water van 50░C. Je hoeft dus geen energie te steken in het terugkoelen van water naar bv. 20 graden, en kunt gewoon gebruikmaken van de aanwezige buitenlucht om het terug te koelen tot 50░C. (Temperaturen als voorbeeld uiteraard)

Edit: ook condensatie is bij warm water natuurlijk een stuk minder.

[Reactie gewijzigd door Atlas85 op 15 december 2010 10:00]

Dit lijkt een beetje op hetzelfde idee als een TEC-element.
Hierbij wordt ook warmte gebruikt om te koelen:
http://en.wikipedia.org/wiki/Thermoelectric_cooling
"Hierbij wordt warm water gebruikt om de hardware te koelen, waardoor het hele koelsystem 40 procent minder energie dan gewoonlijk zou verbruiken."

Ehh,,, koelen.. met "warm" water?

Bedoelen ze niet het warme water hergebruiken voor energie o.i.d.?
But why HOT water?

Chilled water has been used to cool mainframes, and it certainly does the job, but there’s a catch - chilling that water requires a lot of electricity. The Swiss process uses water that’s at 60-70C (140-158F), which is still cool enough to keep the servers’ chips below their “red line” of 85C.

[Reactie gewijzigd door Klojum op 15 december 2010 09:43]

Al ik kijk naar bijvoorbeeld http://www.popsci.com/tec...er-could-cut-energy-costs dan doen ze beide. Er wordt gekoeld met water dat 60-70 graden warm is, daarna wordt het water gebruikt voor bijvoorbeeld verwarming van gebouwen. De onderdelen kunnen maximaal 85 graden aan, waardoor het water nog steeds een koelende werking heeft.

Zie ook http://www.technewsdaily....ep-internet-humming-0436/
Nee! Koelen met warm water heeft grote voordelen.

Wat nu gebeurd als je met koud water koelt is dat de hardware veel warmte direct kan afstaan. Dit is vaak meer warmte (en dus energie) dan nodig is om het proces onder een bepaald, kritisch temperatuur te houden. Processen die lokaal gezien "te koel" zijn verlopen dan ook lager met als gevolg prestatieverliezen.

Verder ondervindt de hardware die met koud water wordt gekoeld grotere temperatuurverschillen wat voor stress in het materiaal zal zorgen en dus de levensduur van de gebruikte hardware zal verlagen.

Warm water als koelwater kan dus ervoor zorgen dat je dus stabiel bij een optimaal temperatuur kan opereren en tegelijkertijd energie kan besparen en de levensduur van je hardware kan verlengen.
Snap nog steeds niet waarom de supercomputer steeds groter, sneller en duurder moet worden en ook nog een "per instituut". Mag toch aannemen dat meerdere instituten ter wereld onderzoek doen naar dezelfde zaken zoals medicijnen, astrofysica etc; waarom dan niet gebruik maken van de gezamenlijke CPU-kracht middels grid-computing of andere manieren tot het bundelen van CPU-power & RAM?
Hoeveel mensen denk je dat er in de rij staan om een super computer te gebruiken? Nogal wat. Er is dus gewoon een markt voor.

Al ben ik het met je eens dat dit soort projecten ongetwijfeld economisch en milieu-technisch rendabeler kunnen wanneer deze op een overstijgend niveau worden beheerd.
Hmm, ze willen er allemaal gebruik van kunnen maken. Ze voeren allemaal hun eigen onderzoek uit. Dus ze willen dan wel altijd die rekenkracht kunnen gebruiken. Daarnaast staat in het artikel dat de supercomputer door onderzoekers in heel Europa gebruikt kan worden.
Klopt maar zeer vaak gaat het dan over onderzoekers die zelf amper/geen CPU-power in huis hebben. Maar als jij werkt op een andere/concurrende universiteit met 2petaflops in de kelder, zal je minder snel toegang krijgen, vermoed ik zo.
Omdat, ondanks alles, het als instituut nog steeds belangerijk is om de "eerste" te zijn die resultaten heeft. Je ziet wel vaker dat twee onafhankelijke onderzoeken tot dezelfde conclusies komen, maar wie het eerste publiceert wordt als de "ontdekker" aanschouwt. Puur prestige dus. (Maar het bevordert in zekere zin wel de concurrentie op onderzoeksvlak)
En je denkt dat de rest van de supercomputers stilstaan op het moment dat deze online komt?

Er is een enorme vraag naar rekenkracht. De kosten voor deze computers worden dus gewoon terugverdient door de rekenkracht te verhuren.

Er komt bijvoorbeeld behoorlijk veel data vrij bij de LHC.

Daarnaast is het natuurlijk efficiŰnter om de data niet te hoeven verspreiden over het Grid als dit niet nodig is. Rekenkracht bundelen.
wat ik niet snap is waarom er maar tot 3 petaflops word gebouwd en niet tot 6 ofzo, dan maak je een verschil. nu lijkt het echt alsof ze alleen maar het record willen verbeteren.
Dat is net zo'n vraagstelling als dat je een spelletje wil spelen op FullHD met 2x AA of 16x AA... De investering voor "dubbele prestaties" is over het algemeen meer dan het dubbele van het vorige model.
huh? het is geen spelletje, wie heeft de snelste... Zoals je kunt lezen zullen er, tegen de tijd dat de SuperMUC klaar is, alweer snellere super computers zijn.

[Reactie gewijzigd door Abom op 15 december 2010 10:08]

Je maakt een grapje zeker?

Waarom maken ze geen telefoon met een 4GHz processor? En flash geheugen van 1TB?

Het kan zeker wel, maar prijs-prestatie gewijs is het niet te doen.
Zeer waarschijnlijk spelen kosten en verwacht gebruik hier mee. Als je 2 petaflops nodig hebt, en je verwacht dat dit met 10% per jaar stijgt, dan heb je niet veel meer nodig.

Daarbij vermoed ik dat dit systeem ook uitbreidbaar is met nog een paar racks erbij. In dat geval kunnen ze gewoon opschalen als er meer capaciteit nodig is.
Het is waarschijnlijk te duur
mooi om te zien dat ze steeds meer naar waterkoeling overstappen in zulke centra's. ik weet niet precies hoeveel het scheelt maar voor de beheerders die er moeten werken zal het enorm schelen dat je niet meer die ongelofelijk herrie hebt van airco's die volluit staan te blazen. er zal nog wel wat conventionele koeling zijn maar het maakt wel een stuk aangenamere werkomgeving...
Servers zijn meestal watergekoeld, dit omdat de processors allemaal zeer dicht op elkaar zitten, hierdoor is er geen ruimte om een goede airflow te creeŰren.
Het water wordt vervolgens in een andere ruimte gekoeld. Daarna gaat het weer terug naar de computer.

Hier een plaatje om het te verduidelijken:
http://sanyo.com/news/2007/10/images/071023-3.gif
alleen gaan ze het water in deze server niet koelen. maar gebruik maken van 'warm' water. ;)
Ook dat warme water kan niet oneindig energie opnemen en moet dus toch van 'heet' naar 'warm' teruggekoeld worden.
Je pompt het door een radiator in een nabijgelegen kantoor waar het grootste deel van de warmte wordt efgegeven. Daarna kan je controleren of de temperatuur nog ok is en desnoods wat bij koelen of warmen voordat je het terug door het systeem pompt.
Als je koelt met warm water, dan is het daar niet echt koel in die ruimtes...Ik ben vooral benieuwd of ze ook gaan doen aan energie-terugwinning dmv. het warme water. Met warmtewisselaars moet je een aardig percentage aan elektriciteit terug kunnen winnen, waarmee zo’n ding milieuvriendelijker is en goedkoper om te draaien.
Dat zou je zeggen, maar zo simpel is het niet. Als je nou water van een paar honderd graden had, dan was het goed te doen met een turbine, maar het gaat hier over lauwwarm water. Bij mijn weten zijn er geen economisch rendabele manieren om daar elektriciteit van te maken.
Hij bedoelt waarschijnlijk het gebruik van een eliminatiebatterij op de luchtvoorbereidingsgroep van de pulsie. Dit wordt in zowat alle grotere gebouwen waar en koeling en verwarming terzelfdertijd nodig is toegepast, en zal dus inderdaad een serieus stuk schelen in de stookkosten.

Koelwater van 50a60░C kan je via juist gedimensioneerde eliminatiebatterijen probleemloos aan 25░ terugvoeden aan je installatie (hier serverpark). Op die manier kan je 100% van het elektrisch verstookte vermogen door je servers terug afstaan aan de verwarming van het gebouw.

Sowieso zal er ruimtekoeling nodig zijn ook, anders zit je binnen de kortste keren met ruimtetemperaturen van 60Ó70░C. Cpu's kunnen daar mss tegen, je andere onderdelen gaan snel sneuvelen.
Hmm... als ik die set-up zo zie, zou ik nog wel wat veranderen aan de Aquasar.

Want als je de pijlen bekijkt lopen de koude en warme water stroom paralel in de warmte wisselaar. Het lijkt mij efficiŰnter om die tegengesteld te laten lopen. Dan is het temperatuur verschil en dus de warmte overdracht het hoogst over het hele traject.
kunnen ze hiermee nu ook sneller de versleuteling kraken van onze amsterdamse kindervrind? Of heb je daar een andere soort computer voor nodig?

Vind het echter een weinig ambitieus plan, 3 petaflops over 2 jaar, tegen die tijd lopen de chinezen wel tegen de 10 petaflops aan.
Het is geen wedstrijd, het is een kosten-batenanalyse.

Op dit item kan niet meer gereageerd worden.