Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 57 reacties, 12.454 views •

IBM is door de Academie van Wetenschappen in Beieren aangetrokken om een supercomputer te bouwen. De tot SuperMUC gedoopte computer moet in 2012 voltooid zijn en zal dan in totaal beschikken over een rekenkracht van 3 petaflops.

SupercomputerDe supercomputer wordt opgebouwd uit 14.000 Intel Xeon-processors, die in IBM System X iDataplex-servers zijn gehuisvest, meldt PCWorld. IBM zal daarbij gebruikmaken van zijn Aquasar waterkoelingsysteem. Hierbij wordt warm water gebruikt om de hardware te koelen, waardoor het hele koelsystem 40 procent minder energie dan gewoonlijk zou verbruiken. IBM zette Aquasar deze zomer voor het eerst in bij een supercomputer van het Swiss Federal Institute of Technology in Zürich. De bouw van de SuperMUC wordt financieel gesteund door de Duitse overheid en de deelstaat Beieren.

Met een score van 3 petaflops zou de SuperMUC, als hij momenteel zou draaien, de top 500 van krachtigste supercomputers aanvoeren. De huidige nummer één is de Chinese Tianhe-supercomputer, met een score van 2,67 petaflops. Toch is het waarschijnlijk dat als de SuperMUC in 2012 uitkomt, er alweer krachtigere modellen uit zijn. De SuperMUC zal worden beheerd door het Leibniz Supercomputing Centre in Garching en onderzoekers uit heel Europa zullen de supercomputer kunnen gebruiken om berekeningen uit te voeren op het gebied van onder andere geneeskunde en astrofysica.

Reacties (57)

Reactiefilter:-157054+136+24+30
Moderatie-faq Wijzig weergave
Koelen met warm water? :?
Er is uit meerdere onderzoeken gebleken dat koud koelen helemaal niet zo nuttig uitpakt voor de levensduur en prestaties van servers.

Als je meer informatie wilt over dergelijke onderzoeken, lees de whitepaper op de Intel website: http://download.intel.com...e/reference/IPACK2009.pdf
Lijkt me idd logisch, kijk naar het asfalt op de baan, 'snel opwarmen' van -10 naar 5 graden is al niet zo gezond en kan het asfalt beschadigen. Een hypercomplexe processor is al iets beter beschermd tegen dit soort zaken, maar toch, snel opwarmen en weer heel snel afkoelen is voor geen enkel materiaal goed.
http://www.gizmag.com/usi...l-internet-servers/14830/

Stom gezegd; om zeer koud water aan te voeren in grote hoeveelheden, is meer energie nodig dan om "warm" water aan te voeren terwijl de opgenomen warmte van de CPU's alsnog voldoende is om de CPU's onder hun maximale temperatuur te laten functioneren.

[Reactie gewijzigd door MAX3400 op 15 december 2010 09:41]

Jep. Als je een processor van pak m beet 70°C moet koelen, kan dat ook met water van 50°C. Je hoeft dus geen energie te steken in het terugkoelen van water naar bv. 20 graden, en kunt gewoon gebruikmaken van de aanwezige buitenlucht om het terug te koelen tot 50°C. (Temperaturen als voorbeeld uiteraard)

Edit: ook condensatie is bij warm water natuurlijk een stuk minder.

[Reactie gewijzigd door Atlas85 op 15 december 2010 10:00]

Dit lijkt een beetje op hetzelfde idee als een TEC-element.
Hierbij wordt ook warmte gebruikt om te koelen:
http://en.wikipedia.org/wiki/Thermoelectric_cooling
"Hierbij wordt warm water gebruikt om de hardware te koelen, waardoor het hele koelsystem 40 procent minder energie dan gewoonlijk zou verbruiken."

Ehh,,, koelen.. met "warm" water?

Bedoelen ze niet het warme water hergebruiken voor energie o.i.d.?
But why HOT water?

Chilled water has been used to cool mainframes, and it certainly does the job, but there’s a catch - chilling that water requires a lot of electricity. The Swiss process uses water that’s at 60-70C (140-158F), which is still cool enough to keep the servers’ chips below their “red line” of 85C.

[Reactie gewijzigd door Klojum op 15 december 2010 09:43]

Al ik kijk naar bijvoorbeeld http://www.popsci.com/tec...er-could-cut-energy-costs dan doen ze beide. Er wordt gekoeld met water dat 60-70 graden warm is, daarna wordt het water gebruikt voor bijvoorbeeld verwarming van gebouwen. De onderdelen kunnen maximaal 85 graden aan, waardoor het water nog steeds een koelende werking heeft.

Zie ook http://www.technewsdaily....ep-internet-humming-0436/
Nee! Koelen met warm water heeft grote voordelen.

Wat nu gebeurd als je met koud water koelt is dat de hardware veel warmte direct kan afstaan. Dit is vaak meer warmte (en dus energie) dan nodig is om het proces onder een bepaald, kritisch temperatuur te houden. Processen die lokaal gezien "te koel" zijn verlopen dan ook lager met als gevolg prestatieverliezen.

Verder ondervindt de hardware die met koud water wordt gekoeld grotere temperatuurverschillen wat voor stress in het materiaal zal zorgen en dus de levensduur van de gebruikte hardware zal verlagen.

Warm water als koelwater kan dus ervoor zorgen dat je dus stabiel bij een optimaal temperatuur kan opereren en tegelijkertijd energie kan besparen en de levensduur van je hardware kan verlengen.
mooi om te zien dat ze steeds meer naar waterkoeling overstappen in zulke centra's. ik weet niet precies hoeveel het scheelt maar voor de beheerders die er moeten werken zal het enorm schelen dat je niet meer die ongelofelijk herrie hebt van airco's die volluit staan te blazen. er zal nog wel wat conventionele koeling zijn maar het maakt wel een stuk aangenamere werkomgeving...
Servers zijn meestal watergekoeld, dit omdat de processors allemaal zeer dicht op elkaar zitten, hierdoor is er geen ruimte om een goede airflow te creeëren.
Het water wordt vervolgens in een andere ruimte gekoeld. Daarna gaat het weer terug naar de computer.

Hier een plaatje om het te verduidelijken:
http://sanyo.com/news/2007/10/images/071023-3.gif
alleen gaan ze het water in deze server niet koelen. maar gebruik maken van 'warm' water. ;)
Ook dat warme water kan niet oneindig energie opnemen en moet dus toch van 'heet' naar 'warm' teruggekoeld worden.
Je pompt het door een radiator in een nabijgelegen kantoor waar het grootste deel van de warmte wordt efgegeven. Daarna kan je controleren of de temperatuur nog ok is en desnoods wat bij koelen of warmen voordat je het terug door het systeem pompt.
Als je koelt met warm water, dan is het daar niet echt koel in die ruimtes...Ik ben vooral benieuwd of ze ook gaan doen aan energie-terugwinning dmv. het warme water. Met warmtewisselaars moet je een aardig percentage aan elektriciteit terug kunnen winnen, waarmee zo’n ding milieuvriendelijker is en goedkoper om te draaien.
Dat zou je zeggen, maar zo simpel is het niet. Als je nou water van een paar honderd graden had, dan was het goed te doen met een turbine, maar het gaat hier over lauwwarm water. Bij mijn weten zijn er geen economisch rendabele manieren om daar elektriciteit van te maken.
Hij bedoelt waarschijnlijk het gebruik van een eliminatiebatterij op de luchtvoorbereidingsgroep van de pulsie. Dit wordt in zowat alle grotere gebouwen waar en koeling en verwarming terzelfdertijd nodig is toegepast, en zal dus inderdaad een serieus stuk schelen in de stookkosten.

Koelwater van 50a60°C kan je via juist gedimensioneerde eliminatiebatterijen probleemloos aan 25° terugvoeden aan je installatie (hier serverpark). Op die manier kan je 100% van het elektrisch verstookte vermogen door je servers terug afstaan aan de verwarming van het gebouw.

Sowieso zal er ruimtekoeling nodig zijn ook, anders zit je binnen de kortste keren met ruimtetemperaturen van 60à70°C. Cpu's kunnen daar mss tegen, je andere onderdelen gaan snel sneuvelen.
Snap nog steeds niet waarom de supercomputer steeds groter, sneller en duurder moet worden en ook nog een "per instituut". Mag toch aannemen dat meerdere instituten ter wereld onderzoek doen naar dezelfde zaken zoals medicijnen, astrofysica etc; waarom dan niet gebruik maken van de gezamenlijke CPU-kracht middels grid-computing of andere manieren tot het bundelen van CPU-power & RAM?
Hmm, ze willen er allemaal gebruik van kunnen maken. Ze voeren allemaal hun eigen onderzoek uit. Dus ze willen dan wel altijd die rekenkracht kunnen gebruiken. Daarnaast staat in het artikel dat de supercomputer door onderzoekers in heel Europa gebruikt kan worden.
Klopt maar zeer vaak gaat het dan over onderzoekers die zelf amper/geen CPU-power in huis hebben. Maar als jij werkt op een andere/concurrende universiteit met 2petaflops in de kelder, zal je minder snel toegang krijgen, vermoed ik zo.
Hoeveel mensen denk je dat er in de rij staan om een super computer te gebruiken? Nogal wat. Er is dus gewoon een markt voor.

Al ben ik het met je eens dat dit soort projecten ongetwijfeld economisch en milieu-technisch rendabeler kunnen wanneer deze op een overstijgend niveau worden beheerd.
Omdat, ondanks alles, het als instituut nog steeds belangerijk is om de "eerste" te zijn die resultaten heeft. Je ziet wel vaker dat twee onafhankelijke onderzoeken tot dezelfde conclusies komen, maar wie het eerste publiceert wordt als de "ontdekker" aanschouwt. Puur prestige dus. (Maar het bevordert in zekere zin wel de concurrentie op onderzoeksvlak)
En je denkt dat de rest van de supercomputers stilstaan op het moment dat deze online komt?

Er is een enorme vraag naar rekenkracht. De kosten voor deze computers worden dus gewoon terugverdient door de rekenkracht te verhuren.

Er komt bijvoorbeeld behoorlijk veel data vrij bij de LHC.

Daarnaast is het natuurlijk efficiënter om de data niet te hoeven verspreiden over het Grid als dit niet nodig is. Rekenkracht bundelen.
wat ik niet snap is waarom er maar tot 3 petaflops word gebouwd en niet tot 6 ofzo, dan maak je een verschil. nu lijkt het echt alsof ze alleen maar het record willen verbeteren.
Dat is net zo'n vraagstelling als dat je een spelletje wil spelen op FullHD met 2x AA of 16x AA... De investering voor "dubbele prestaties" is over het algemeen meer dan het dubbele van het vorige model.
huh? het is geen spelletje, wie heeft de snelste... Zoals je kunt lezen zullen er, tegen de tijd dat de SuperMUC klaar is, alweer snellere super computers zijn.

[Reactie gewijzigd door Abom op 15 december 2010 10:08]

Zeer waarschijnlijk spelen kosten en verwacht gebruik hier mee. Als je 2 petaflops nodig hebt, en je verwacht dat dit met 10% per jaar stijgt, dan heb je niet veel meer nodig.

Daarbij vermoed ik dat dit systeem ook uitbreidbaar is met nog een paar racks erbij. In dat geval kunnen ze gewoon opschalen als er meer capaciteit nodig is.
Je maakt een grapje zeker?

Waarom maken ze geen telefoon met een 4GHz processor? En flash geheugen van 1TB?

Het kan zeker wel, maar prijs-prestatie gewijs is het niet te doen.
haha lijkt me een leuk pc'tje: over 30 jaar kunnen ze wat deze supercomputer kan in een normale desktop kwijt denk ik :) en dan zijn de desktop's van nu niet groter dan een mobieltje :P

ja de ontwikkelingen blijven maar voortgaan... het zal inderdaad denk ik niet lang de snelste zijn, aangezien de chinezen enzo altijd een voorsprong op ons willen hebben :P

[Reactie gewijzigd door _-SaVaGe-_ op 15 december 2010 09:37]

Ik vraag het me af...

De schaal verkleining lijkt langzaam maar zeker op zijn einde te lopen... na de 10nm is er niet echt veel ruimte meer om er nog flink wat van af te snijden.
De andere oplossingen zo als grafeen of nano tubes zijn op dit moment niet in voldoende volumes te verwerken en het zou zo maar kunnen dat dat ook in de toekomst niet blijkt te kunnen. We zouden best wel eens tegen het plafond kunnen zitten en voor een tijdje de extreme snelheid van de verkleiningen achter ons moeten laten en ons moeten concentreren op het uitbreiden van het aantal cores, en bijvoorbeeld de cores gaan stapelen net zo als we nu al geheugen stapelen. Het probleem daarbij is de koeling... door stapelen maken we het alleen maar moeilijker om de koeling goed te regelen.

Op dit moment durf ik niet te zeggen of het echt mogelijk is dat we steeds maar kleiner en kleiner blijven gaan...
vast wel, maar dan stappen we gewoon over naar de vijfde generatie computers: quantum computers. In de tussentijd kunnen er nog computers gemaakt worden op basis van DNA moleculen zodat er een schaal van enkele nanometers mogelijk is. Of grafeen, ze verzinnen wel iets.
Je weet niet echt waar je het over hebt.

10nm zal waarschijnlijk pas in 2020 mogelijk worden en tegen die tijd is er al veel meer mogelijk dan nu.

Cores stapelen of het aantal cores verhogen is afhankelijk van de schaalverklkeining.

Je kan de oppervlakte van de chip niet zomaar vergroten met meer cores of het stapelen van cores omdat er dan latency optreedt en de electrische signalen niet meer op tijd aankomen.

Grafeen is vrijwel zeker de volgende stap, de enige reden dat grafeen nog niet gebruikt wordt is omdat silicium wordt uitgemolken.

Pas als silicium tegen de limiet aanloopt zal er miljarden in grafeen worden geinvesteerd en vanzelfsprekend de nieuwe techniek worden waarop chips worden geproduceerd.

Het gaat gewoon om die miljarden die de industrie in het onderzoek van grafeen moet stoppen, wanneer dat gebeurt komt de opvolger van de huidige technieken automatisch.
Ja het is ongelooflijk 14000 processoren.

Ik kan me nog plaatjes heriineren van de eerste computer die roomsized was en minder rekenkracht dan een tegenwoordig simpele rekenmachine heeft.

Dit is een leuke link over de historie.

http://www.ardeco.be/Icar...nts/informatica/lijst.asp
Hoi, Ik heb mij net speciaal geregistreerd bij tweakers om een vraag te stellen over zo`n super computer. Hoe moet ik mij dat voorstellen zo`n computer. Krijg je een gebruikers account en log je in net hoe je inlogt op je terminal server van windows server. En dan kun je snel werken met een snelle computer. Of plaats je een server in een van die racks en die maakt gebruik van de cpu`s in die super computer. Sorry dat dit een beetje een nooby vraag is maar ik kan mij er niets van voorstellen hoe men kan werken met zo`n computer.

Gr davy
Meestal huur je een bepaalde performance (#CPU en #memory) voor een bepaalde tijd. Je kunt dan remote inloggen en een executable starten.

Zelf een server erbij hangen is er iig niet bij. Tenzij je natuurlijk samen een leuk project opzet en geld bijlegt, dan is alles mogelijk ;)

-- @julby
LOL, dan heb je of veel data, of je doet iets niet goed. Je moet de analyse natuurlijk ook op de supercomputer doen, en dan doorsturen naar deze website:
http://pdos.csail.mit.edu/scigen/

Heb je gelijk je paper en hoef je alleen een paar kB te downloaden ;)

[Reactie gewijzigd door Zwartoog op 15 december 2010 12:49]

Vrij veel data dus :) De software voor de analyse is niet geïnstalleerd op Huygens dus downloaden was de enige optie (je kan wel verzoeken indienen voor extra software, maar dan was het downloaden op dat moment toch de snellere oplossing ;))

Maar ik geef toe dat analyse op Huygens zelf een betere optie was geweest..
Veel onderzoeksinstituten hebben accounts, je logt dan inderdaad gewoon in via SSH en kan gewoon dezelfde dingen doen als je normaal 'thuis' op je linux-machine doet.

Komen wel wat extra dingen bij kijken, iedereen wil natuurlijk tegelijk rekenen dus je kan weinig simulaties / berekeningen direct starten. In plaats daarvan zet je het in de wachtrij met aanvraag van een x-aantal nodes / processoren en start de berekening als er rekenruimte is en je aan de beurt bent..

Off-topic: Laatst nog wat leuks meegemaakt; simulatie die thuis ongeveer 22 uur nodig had gestart op Huygens (supercomputer in A'dam), die was daar in 2 uur klaar.. Leuke tijdwinst, alleen kostte het downloaden van alle data via SCP wel bijna 24 uur :'(
Dan krijg je waarschijnlijk maar beschikking over een klein stukje van de cpu kracht van die supercomputer. Wat is daar dan de toegevoegde waarde van?

Als een standaard PC 22u nodig heeft, en je moet eerst toestemming krijgen om zo'n supercomputer te gebruiken, daarna inloggen, je data instellen, 2u berekenen, alles weer downloaden... Dan ben je eigenlijk gewoon sneller uit om het met je eigen pc te berekenen.

Ik vind een factor 11 snelheidswinst tussen "supercomputer" inzetten en je thuispc de boel laten afwerken maar héél mager...
Voor zo'n kleine rekenjob is dat inderdaad een beetje onzinnig, maar als je van 2 weken rekenen terug kan gaan naar 30 uur (idem factor 11), dan zie je ook wel in dat dat wél nut heeft.

Uiteindelijk kun je je natuurlijk afvragen of supercomputers nog bestaansrecht hebben met de komst van gridcomputing, maar aangezien die dingen nog gebouwd worden is het antwoord dus blijkbaar ja.

[Reactie gewijzigd door ebia op 15 december 2010 16:49]

@Athmozz: aangezien deze klus geen grote prioriteit had had ik dit geval maar 16 processoren (dual-core) aangevraagd voor de berekening, thuis heb ik 1 quadcore. Daarnaast moest hier zoveel data worden weggeschreven dat dit deels de beperkende factor in de rekentijd was. En wat ebia zegt; wij draaien ook klussen op 128 (dualcore) processoren tegelijk welke dan nog steeds uren rekentijd kosten. Dit wil je echt niet meer thuis doen...

@ebia: gridcomputing heeft ook zijn nadelen. Bij de modellen waar ik veel mee werk (meteo/CFD) wordt er ontzettend veel gecommuniceerd tussen de verschillende processoren, bij grid-computing zal de relatief trage communicatie tussen de verschillende computers de grote bottleneck zijn..
Dank je voor de uitleg _/-\o_ , maar nu komt de hamvraag.
Als je thuis op de pc 1X1=1 dan rekent die dat snel uit.
Ook als je het sommetje groter maakt is dat geen probleem.

Dit is natuurlijk lachwekkend wat ik als voorbeeld gebruik :) , maar wat moet ik me dan voor stellen met rekenkracht? Is dit het zelfde als ik een krachtige 3D game speel op de pc en de processor omhoog schiet met 70% ?
De grote tijdswinst komt op het moment dat je meerdere taken tegelijk kan gaan uitrekenen, in jouw voorbeeld sommetjes als 1x1=1 alleen dan dezelfde berekening een x aantal keer tegelijk.

Stel je wil dit 100x uitrekenen en iedere berekening kost 1 seconde. Met de meest simpele code berekent de computer de som 1x1=1, daarna de som 1x1=1, enz. en duurt dit 100 seconden. Als je dit parallel gaat programmeren (multi-threaded) en 100 processorkernen ter beschikking hebt rekent de computer alle 100 berekeningen simultaan en duurt de berekening dus maar 1 seconde.

Bij veel 3D modellen waarbij in een grid wordt gerekend zijn er veel berekeningen die op iedere gridcel exact hetzelfde worden uitgevoerd. Dit is een typisch voorbeeld van code die je kan parallelliseren en waarmee dus grote tijdswinst te behalen is als je het op een supercomputer 10-100 processorkernen tegelijk berekend.
met wat zoekacties zoals ( multi-threaded, gridcel :) ) ben ik een stuk verder gekomen om te begrijpen wat zo`n suppercomputer berekend. dank je wel voor de duidelijke uitleg _/-\o_ !! nu heb ik een totaal begrip waarom zulke rekenkrachten nodig zijn en vooral in de medische sector, universum enz enz. nogmaals dank je wel voor de uitleg.
Het is waarschijnlijk te duur
Hmm... als ik die set-up zo zie, zou ik nog wel wat veranderen aan de Aquasar.

Want als je de pijlen bekijkt lopen de koude en warme water stroom paralel in de warmte wisselaar. Het lijkt mij efficiënter om die tegengesteld te laten lopen. Dan is het temperatuur verschil en dus de warmte overdracht het hoogst over het hele traject.
kunnen ze hiermee nu ook sneller de versleuteling kraken van onze amsterdamse kindervrind? Of heb je daar een andere soort computer voor nodig?

Vind het echter een weinig ambitieus plan, 3 petaflops over 2 jaar, tegen die tijd lopen de chinezen wel tegen de 10 petaflops aan.
Het is geen wedstrijd, het is een kosten-batenanalyse.

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True