Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 55, views: 21.281 •
Submitter: Keneo

HP gaat voor de Universiteit Gent een nieuwe supercomputer bouwen. Het rekenmonster draait RedHat Linux en moet een piekprestatie van 155 teraflops kunnen behalen. De nieuwe supercomputer wordt de krachtigste van BelgiŽ.

HP heeft gekozen voor 8500 cores van Intels Sandy Bridge technologie, gekoppeld aan een FDR InfiniBand-netwerkinterconnect van Mellanox. Data Direct Network levert de dataopslag en Adaptive Software levert de job scheduler, die maakt dat het systeem taken parallel kan uitvoeren.

De supercomputer zal gebruikt worden voor de voorspelling van fysiologische processen in de ruimte, vloeistoffen- en plasmadynamica, nanotechnologie, het modelleren van materialen, biofysica, bio-informatica en computational chemistry. Onderzoeksinstellingen en universitaire organisaties van Vlaanderen mogen het systeem gebuiken.

In de tweede helft van dit jaar begint HP aan de constructie. Een nieuw datacentrum van de Universiteit Gent zal het systeem huisvesten. HP noch de Universiteit Gent was bereid om details vrij te geven over de technische specificaties van het systeem. Hoe ze aan het cijfer van 155 teraflops komen is dus niet duidelijk.

Het hele project zal ongeveer 4,2 miljoen euro kosten; dat bedrag wordt gefinancierd door de Vlaamse overheid. Met dit project krijgt België een tweede supercomputer in de top 500. De enige die daar nu in staat, op plaats 291, is in privégebruik. Het nieuwe systeem van HP zal die plek evenaren.

Reacties (55)

Gaaf!. Hier in Groningen op de RuG stonden we ooit in de top 10 met de BlueGene. Dat was misschien 10-15 jaar terug? Nu staan we niet eens meer op de top 500.
De applicaties voor zo' n supercomputer zijn enorm. Maar vooral sterrekundige berekeningen worden er tegenwoordig bij ons op los gelaten.
Applicaties bouwen voor zo'n supercomputer valt alleen niet altijd mee, als je een foutje maakt kan dat wel eens een dure zijn.

[Reactie gewijzigd door shadylog op 1 februari 2012 14:19]

Applicaties bouwen voor zo'n supercomputer valt alleen niet altijd mee, als je een foutje maakt kan dat wel eens een dure zijn.
Leg eens uit waarom dat een dure fout kan zijn. :?
Berekeningstijd op zo'n computer is erg duur (per minuut/uur/whatever eenheid). Als er een fout/bug in je software zit kan dat aardig in de kosten lopen en dat is natuurlijk zonde, zowel van de kostbare tijd op de computer (die andere, nuttigere dingen had kunnen doen) als van het geld.
Omdat het stroomverbruik enorm is. Verder is tijd op een supercomputer vaak erg in trek wat dus inhoud dat je waarschijnlijk je geboekte moment verliest en je project een nieuw moment moet boeken. Waardoor je project vertraging op loopt en dus duurder wordt.

[Reactie gewijzigd door evilnes op 2 februari 2012 17:13]

Verbruik zou eigenlijk standaard moeten worden vermeld bij dergelijke instituten. Niet zelden verbruiken ze evenveel als een dorp of een kleine stad. Dat onttrek je niet zomaar uit de omgeving.
En met cloud-computing in het verschiet zullen alleen maar meer grote serverparken komen. Ben geen boomknuffelaar maar dienstverlenende bedrijven zouden het energieverbruik deels moeten compenseren met zonnepanelen en of met de restwarmte iets nuttig doen.
Nou ja met cloud computing heb je wel het voordeel dat jouw systeem lang niet zo sterk moet zijn en veel minder stroom hoeft te gebruiken en als je dat x1000 doet bespaar je ok wel een klein dorp aan stroom.
En als jij je systeem dan ook nog met je persoonlijke zonnecell van stroom voorziet is stroom verbruik een non issue
Wat je eerst op je PC deed, gebeurt nu dus gewoon op een netwerk van servers. Als cloud computing groter wordt, komen er gewoon meer servers, die i.p.v. jouw computer de stroom vreten.
stomme gedachte natuurlijk.

Als je eerst 1000 computers had staan die 10% van de tijd iets aan het doen waren, had je wel 1000 computers draaien.

Nu heb je er maar 200 nodig:
10% van 1000, en voor die pieken zorg je dat je er 100 extra hebt.

De restwarmte van die 100 (of 200) kun je gebruiken voor nuttige zaken aangezien je dat kan bundelen.
De restwarmte van die 1000 kun je niks anders mee dan je voeten van warme lucht voorzien.

En zo zijn er nog wel meer redenen waarom cloud computer efficienter kan zijn.
Ik vind het echt een mooie ontwikkeling dat 90% van de supercomputers linux (of een variant daarvan) draait.Wat ik me echter wel afvraag. Is het nu zo dat de overheid een supercomputer aanschaft en dat onderzoeksinstellingen en universiteiten ervan gebruik mogen maken. Of moeten zei hiervoor betalen?
Ik neem aan dat de overheid dat betaald voor het onderwijs en dat de universiteit de supercomputer krijgt, met waarschijnlijk voorwaarden wie hem dan allemaal zou mogen gebruiken.
De enige die daar nu in staat, op plaats 291, is in privťgebruik.
Een miljonair die graag enorme berekeningen doet ofzo?

[Reactie gewijzigd door MrBlueEyes op 1 februari 2012 14:22]

Ik denk dat indien de computer eigendom is van een private onderneming (dus geen publieke instelling, staatsbedrijf) dit ook aanzien wordt als privť gebruik in deze context.
[...]

Een miljonair die graag enorme berekeningen doet ofzo?
of een private instelling. Een onderzoekslaboratorium bijvoorbeeld. Prive of Privaat is in dit geval alles != overheid. Dus ook bedrijven vallen daar onder.
Privťgebruik kan evengoed ook gewoon een bedrijf zijn die gebruik door andere bedrijven/instanties/organisaties niet toe staat. Dit lijkt me iets meer plausibel.
Een financieel instituut, volgens top500.org

http://i.top500.org/site/50323
Het eerste waar ik aan denk is het bijhouden van alle beursinformatie en hierop met een geavanceerd computermodel inspelen en zo winst behalen. Je zou eens moeten weten hoe complex deze computermodellen kunnen zijn. Voorspellen van de koers is geen natte vingers werk hoor!
Die "black box" trading modellen kunnen best complex zijn maar zo erg dat ze supercomputers nodig hebben heb ik ze nog niet gezien. Wat bij de banken wel extreem veel rekentijd kost is de posities berekenen van complexe optieboeken met honderdduizenden transacties die elk weer hun eigen onderliggende modellen hebben om delta/gamma/etc te berekenen.

[Reactie gewijzigd door Dreamvoid op 1 februari 2012 15:26]

Het eerste waar ik aan denk is het bijhouden van alle beursinformatie en hierop met een geavanceerd computermodel inspelen en zo winst behalen. Je zou eens moeten weten hoe complex deze computermodellen kunnen zijn. Voorspellen van de koers is geen natte vingers werk hoor!
Daarom staan er een heleboel van die datacenters erg dicht bij de beurzen voor HFT. Iedere milliseconde extra kan verlies opleveren....

Zie ook deze 'Tegenlicht' van de VPRO (50 minuten!)
Het eerste waar ik aan denk is het bijhouden van alle beursinformatie en hierop met een geavanceerd computermodel inspelen en zo winst behalen. Je zou eens moeten weten hoe complex deze computermodellen kunnen zijn. Voorspellen van de koers is geen natte vingers werk hoor!
En desondanks is dit nou net de oorzaal van de financiŽle crash.
Gebruikt de bankdirectie om te berekenen hoe groot hun bonus mag zijn zonder dat er een financiŽle crisis door ontketend wordt. Er bleek helaas een bug in de software geslopen te zijn... :)
155 TFlops is niet veel. Tuurlijk is het een hoop, maar de 6990 haalt al 2TFlops. Dus zet 70 computers met 6990CFX in infiniband en je hebt hetzelfde. En wellicht nog goedkoper ook.
HP heeft gekozen voor 8500 cores van Intels Sandy Bridge technologie, gekoppeld aan een FDR Infiniband-netwerkinterconnect van Mellanox
Wel een mooie setup. Maar toch vraag ik me af; dit is een consumentenprocessor. Waarom geen Opterons of Xeons? Spaart nog geld uit op de borden ook.

Iets zegt me dat dit een niet zo efficiŽnte beslissing is geweest. Beter hadden ze een fors datacentrum voor het geld gebouwd.
Wel een mooie setup. Maar toch vraag ik me af; dit is een consumentenprocessor. Waarom geen Opterons of Xeons? Spaart nog geld uit op de borden ook.
Er staat toch nergens dat het consumenten CPU's zijn die ze gaan gebruiken? Er zijn ook Xeons gebaseerd op de Sandy Bridge architectuur, en gezien ze in een SMPsetup gebruikt worden is de kans groot dat ze die gaan gebruiken, ipv nodes met allemaal maar 1 CPU.
Inderdaad, de snelste van het moment, de K-computer heeft 8,2 petaflops, oftewel 52x sneller dan deze supercomputer.
En hoe zit het nu met die berg van 2 KM die NL wil bouwen , broodje aap ?
Je vergeet echter dat een CPU general purpose is en een GPU gericht is op grafische taken, en dus voor sommige toepassingen gewoon niet geschikt is ;)
Gpu's zien niet alleen voor grafische taken en dit is al een tijd zo geweest. Gpgpu wordt steeds belangrijker, en bijvoorbeeld GCN van AMD heeft al priority based schedulers net als de interupt schedulers in cpu's.

Zou zelfs zo ver gaan om te zeggen dat ALLES wat je op een cpu kan doen ook met een moderne gpu kan, echter wordt het pas efficienter als je iets laat doen wat makkelijk in ( overwegend dezelfde ) kleinere deel taken is the verdelen.
Programmeren, compileren en optimaliseren voor een GPU gaat compleet anders dan programmeren, compileren en optimaliseren voor de CPU. Met een CPU is ook al vele jaren meer ervaring, dus voor de onderzoeken van de Universiteit Gent kan het zinvol zijn om vooral in CPU-power te investeren ipv in GPU (of GPGPU)-power.

Bij het berekenen van het aantal flops worden geoptimaliseerde processen gebruikt, waarbij de GPGPU wel hoge flops kan halen, en dus op papier sneller is. Maar de flops-telling die op die manier berekend wordt heeft wel nut voor de top500, maar is irrelevant voor de applicaties die de universiteit er op wil gaan uitvoeren...
Tjah, die TFlops zeggen eigenlijk niet zoveel. Het is een beetje als megapixels niet veel zeggen over hoe goed de camera is en pk's niet zoveel zeggen over hoe rap de auto gaat.

En al zeker niet als we spreken over piekperformantie.
Zoals al gezegd, Xeon's zijn niet uitgesloten als je over Sandy Bridge praat.

Gpgpu met huidige besturings systemen en compute platform drivers is niet voor alle taken geschikt, en waar het wel geschikt is vereist het over het algemeen meer investering in het schrijven van de meest optimale simulatie software.


Efficiency word beoordeeld op niet op peak performance maar op sustained performance. En sustained performance wordt niet genoemd omdat het afhankelijk is van de efficiency van de software. Peak performance is hardware gebasseerd.

Verder, efficiency kan je ook bekijken met aanschaf kosten, stroom verbruik en doelstelling in het oog. Denk dat dit de overwegende bepaling van efficiency is, en niet peak performance en zelfs niet systained performance zonder deze laatste 3 elementen :)
Het datacenter staat er al. Op campus "Sterre":
http://www.ugent.be/nl/ac...hten/open-datacenter.htm/

En voor wie het zich afvraagt wat die supercomputer zoal verbruikt: Het datacenter kan zo'n 3MW leveren aan de ingebouwde installaties.
Nee ze hebben hier niets aan, gewoon voor de lol een pc'tje bouwen ... Het is een universiteit, tuurlijk hebben ze hier wat aan 8)7
Jezus wat is dit nou weer voor reactie?

In het artikel:
De supercomputer zal gebruikt worden voor de voorspelling van fysiologische processen in de ruimte, vloeistoffen- en plasmadynamica, nanotechnologie, het modelleren van materialen, biofysica, bio-informatica en computational chemistry.
Neem aan dat het een bedrijf is die die andere supercomputer heeft, of wat moet ik anders van privťgebruik maken?
Systeem op 291 in privťgebruik? Iemand details daarover?
. De computer moet een piekprestatie van 155 teraflops kunnen halen en RedHat Linux draaien
Moest ik hier als enige om lachen?:p
nee, ik zat ook al te googelen naar de system requirements van RedHat :)
@ JacobsT Quote: JelleLampaert

Een financieel instituut, volgens top500.org

http://i.top500.org/site/50323
Nummer 291 uit de lijst van november 2011 hoort bij een financiŽle instelling (http://i.top500.org/site/50323). Dus wellicht BNP Paribas Fortis of KBC.
Of SWIFT, de grootste verwerker van financiele transacties ter wereld, ook een Belgisch bedrijf. Aangezien ze hun naam niet bekend maken is de kans dat het Swift is zelfs groter, die laten bijna nooit iets buiten lekken (vandaar dat het groot nieuws was een paar jaar geleden dat ze de US inzage hadden gegeven op hun Europese data servers).

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013