Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 56 reacties
Submitter: Javache

De universiteit van Gent heeft voor 1 miljoen euro een supercomputer aangeschaft. Het krachtige systeem moet wetenschappelijk onderzoek ondersteunen op het gebied van onder meer informatica, chemie, geneeskunde en genetica.

Universiteit van Gent logoDe supercomputer wordt door het Nederlandse bedrijf Clustervision samen met IBM gebouwd. Clustervision is ook verantwoordelijk voor het onderhoud ervan. De machine is opgebouwd uit 196 blades van IBM, die elk voorzien zijn van twee low-voltage Intel Xeon L5420-quadcores, geklokt op 2,5GHz. Elke bladeserver heeft 16GB ram tot zijn beschikking. "Dit levert bij elkaar een maximale rekencapaciteit van 15,68Tflops op, terwijl de opslagcapaciteit van het systeem enkele tientallen terabytes bedraagt", aldus Matthijs van Leeuwen van Clustervision. Verder wordt er gebruikgemaakt van de nieuwste Infiniband double-datarate-technologie voor de interconnects en van IBM's Gpfs-bestandssysteem.

De supercomputer zal, als deze in gebruik is genomen, de snelste in BelgiŽ zijn en de 240ste plek innemen op de internationale Top500-ranglijst van supercomputers. "Begin november zal de machine al geplaatst kunnen worden, waarna een select aantal wetenschappers de supercomputer zullen testen. Begin volgend jaar zal het systeem volledig in gebruik worden genomen", aldus Danny Schellemans, hoofd Informatie- en Communicatietechnologie van de universiteit van Gent.

Het nieuwe hpc-systeem van de universiteit van Gent zal deel uitmaken van het Vlaams Supercomputing Centrum. Deze bundelt de rekenkracht van de systemen van de Vlaamse universiteiten om zo gemeenschappelijke infrastructuur ter beschikking te stellen aan alle Vlaamse onderzoekers. De supercomputers zullen verbonden worden via het 10Gbps-netwerk van Belnet.

Door het centrale gebruik van de supercomputer kunnen onderzoekers meer tijd aan onderzoek besteden en is het onderhoud efficiŽnter dan het bijhouden van afzonderlijke systemen per onderzoeksproject. Sommige onderzoekers waren zelf voor het onderhoud van door hen gebruikte systemen verantwoordelijk.

ClusterVision

Gerelateerde content

Alle gerelateerde content (23)
Moderatie-faq Wijzig weergave

Reacties (56)

Ter vergelijking: Nederland's snelste systeem is ASTRON op de Universeit Groningen. Die staat op de 51e plaats op de lijst met een pieksnelheid van 41.78 TFlops. Deze machine staat er voor de verweking van de LOFAR data.
De snelste ter wereld op dit moment heeft een pieksnelheid van 1375.78 TFlops, en is de vinden in de VS.

[Reactie gewijzigd door ATS op 7 oktober 2008 17:30]

Nederland's snelste systeem is ASTRON op de Universeit Groningen. Die staat op de 51e plaats op de lijst met een pieksnelheid van 41.78 TFlops. Deze machine staat er voor de verweking van de LOFAR data.
hmm, en huygens dan met 60Tflops (link / link2)
Idd, huygens wint. 3328 Power6 cores elk geklokt op 4.7 GHz, 128 GB ram per clustertje van 64 cores.

Opslagcapaciteit 800 TB.

Wel leuk, als je op Huygens een cat /proc/cpuinfo doet krijg je 64 cores te zien :9
Reactie op Fox1973

1 klein tekstbestandje moet genoeg zijn om het volgende (nog niet ontdekte)priemgetal te herbergen :D

[Reactie gewijzigd door Svart Rose op 7 oktober 2008 17:32]

Roadrunner is designed for a peak performance of 1.7 petaflops

6,480 Opteron processors with 51.8 TiB RAM (in 3,240 LS21 blades)
12,960 Cell processors with 51.8 TiB RAM (in 6,480 QS22 blades)
216 System x3755 I/O nodes
26 288-port ISR2012 Infiniband 4x DDR switches
296 racks
2.35 MW power
Als ingenieursstudent aan de UGent kan ik dit zeker toejuichen!! Ze bewijzen hier toch mee dat ze in Vlaanderen eeen vooruitstrevende rol kunnen spelen.Vrij zeker dat ons vooruitziende rector daaarvoor heeft geijverd! :)

Ik ben ook wel te vinden om met andere internationale universiteiten de krachten te bundelen en een tegenhanger van de Amerikaanse supercomputers te bouwen...
In feite gebeurt dit al, door heel Europa zijn een groot aantal supercomputers van Universiteiten en publieke onderzoeksinstituten aan elkaar verbonden tot een soort cluster. Niet echt natuurlijk, want zoals hier al eerder gepost heb je het dan over computers die fysiek elkaars rekentaken swappen, maar toch redelijk vergaand. The Grid is onder andere ook in verbinding met CERN etc, dus op het moment dat er een test loopt in Zwitserland of ergens anders waar veel rekenwerk voor nodig is (denk Radio antennes die het heelal afspeuren, of LOFAR) dan wordt er rekenruimte vrijgemaakt door heel Europa.

Eigenlijk is het een beetje zoals die screensaver van SETI.

In Amerika gebeurt dit minder bij Universiteiten, daarentegen hebben zij weer DARPA en NASA etc die met elkaar 'praten'

Supercomputers zijn trouwens leuk, maar de hele Appollo missie is gemaakt en berekend op computers waar je tegenwoordig nog geen filmpje op kan bekijken.
Voor 1 miljoen de krachtigste computer van BelgiŽ, dat is toch niet veel of wel? De Nederlandse is 4x zo snel, maar ik dacht dat die stukken duurder zou zijn 1 miljoen. Man, als ze zo goeiekoop zijn koop ik er ook wel een. ;)
Vergeet niet dat dit ding natuurlijk ook stroom VREET, zelfs als ze low voltage CPU's gebruiken wat ze doen. Dus de aanschaf is 1 miljoen, maar daarna nog enkele tienduizenden euro's per jaar (schat ik)
Ik weet dat dit ook bij de aanschaf van de nieuwe Blue-Gene in Groningen ook een grote rol heeft gespeeld. Als je bedenkt wat het ding kost aan energie, niet alleen om de computer zelf te draaien, maar bijvoorbeeld de windtunnel die nodig is voor het koelen (windkracht 8, permanent) en de apparatuur die nodig is om het in The Grid (netwerk van supercomputers door Europa heen), Surfnet en intern voor alle onderzoekers beschikbaar te maken, dan wordt de weging verbruik per processor ineens heel interessant. Even een ruw getal, maar ik geloof dat HPC een ton per jaar aan energie kost. (Essent was ook niet blij met onze upgrade ;) )
als het nog over het net kan wel ja, als ze er nieuwe kabels voor moeten trekken wat minder...
Ik neem aan dat z'n ding 100 W trekt:

P = 100W * 196 = 19200W = 19.6KW
T = 24*365 = 8760 Uur

E= P * T = 19.6 * 8760 = 171696KwH

De prijs voor KwH = 0.18 euro (bij mij op school nemen we dat als uitgangs waarde). Dus dan:

Prijs = 171696 * 0.18 = 30 905.28 Euro

^ Wooh dat is gigantisch, zit ik er veel naast?

(en JA ik verveel me:P)
die dingen trekken wel meer dan 100watt.. en wat denk je van de koeling de climate-controll etc.. reken eerder op 400watt (my guess)
Doe er maar een 0 achter, zn systeem vraagt iets meer aandacht dan alleen stroom, alleen voor het onderouds contract ben je dat al kwijt, dan komt je koeling, ups, huisvesting etc. er nog bij.
Goeie zet! Ik ben altijd voor dit soort investeringen. Zeker nu deze computer ook onderdeel wordt van een netwerk.

Ik heb het idee dat onderzoek doen steeds complexer wordt, en dus dit soort machines vereist. Dit komt voornamelijk door onze onstilbare honger naar 'wetenschap' (ofwel: wetenschappelijk bewijs van A of B, of onderbouwing voor Y etc.) Door Universiteiten deze hpc's te laten gebruiken geef je ze meer mogelijkheden en groeicapaciteiten.

Wat ik opvallend vind (en goed:)) is het gebruik van low voltage processoren. Oke, het zijn er nog steeds 392, en het apparaat zal voldoende stroom willen drinken, maar kennelijk is er wel gelet op verbruik en efficientie.
<offtopic target="plaatje">Mens! Blijf van de blades af!</offtopic>

Leuke ontwikkeling, ik verwacht dat ze m in de testfase al flink laten rekenen. Tis extreem duur om zo'n ding ff een paar uur niets te laten doen, laat staan paar maanden.
Iedere overeenkomst met de werkelijkheid berust op zuiver toeval.
Voor de voorlichtingsfolders van technische studie halen ze ook alle vrouwelijke studenten die de opleiding telt bij elkaar.
Niks duur aan.. hij levert alleen niks op op dat moment, de prijs blijft hetzelfde. ;)
zeer mooi initiatief ....
toch lijken me "enkele tientallen terrabytes" aan de lage kant voor zoveel blades ?
of zie ik dit verkeerd ? :?
ligt er maar net aan wat je er mee wilt doen :)
Mja, als je echt opslagcapaciteit nodig hebt hang je het geheel aan een SAN. Dan heb je binnen no-time meerdere tientallen terrabytes aan data.
SAN, DAS (meer een uitbreiding direct op het systeem) en NAS-systemen zeggen nog niets over de data-opslagcapaciteit, maar wel op de manier dat data-opslag wordt voorzien.
da's waar. MAARRR, als je grote hoeveelheden storage voor dit soort projecten wil hebben doe je dat op een goede SAN, niet met een hele zwik DASsystemen. da's inefficient om te janken en totaal niet te maintainen. :)
Opslagcapaciteit is iets anders als rekenkracht, en daar reken je een supercomputer op af, niet op zijn omvang in massa, opslagcapaciteit of aantal cores

[Reactie gewijzigd door Maikel_1976 op 8 oktober 2008 11:42]

In eerste instantie dacht ik dat de Universiteit van Gent een co-processor op haar 368 had gemonteerd, maar ze hebben het toch wat groter aangepakt zie ik. :)
De machine is opgebouwd uit 196 blades van IBM, die elk voorzien zijn van twee low-voltage Intel Xeon L5420-quadcores, geklokt op 2,5GHz. Elke bladeserver heeft 16GB ram tot zijn beschikking. "Dit levert bij elkaar een maximale rekencapaciteit van 15,68Tflops
1568 cores met 15,68TFlops/s met ongeveer 3 terabyte aan werkgeheugen
Schril contrast met de "Nederlandse" Huygens.
De Huygens werd op 13 juni 2007 formeel in gebruik genomen door de Amsterdamse burgemeester Job Cohen en de voorzitter van de NWO. Echter, de Huygens was pas volledig operationeel halverwege 2008, en kreeg meer dan 3000 IBM next-generation POWER6 processoren. Hij heeft hiermee een verwerkingssnelheid van ongeveer 60 Teraflops. De computer zal een werkgeheugen hebben van 15 terabyte en een opslagcapaciteit van 800 terabyte. De Huygens is hiermee een goede subtopper op het gebied van supercomputers.
bron:wikipedia
(of een andere link)

Zeg maar met de helft aan Cores een kwart van de performance. Ik ben wel nieuwsgierig naar het verbuik van beide rekencentra.

:Y) proost/sante iig voor de dames en heren aldaar die gebruik mogen en kunnen maken van die rekenwonder.

[Reactie gewijzigd door Atmosphere op 7 oktober 2008 20:21]

grappig, toen ik de koptekst las dacht ik aan een PS3. Maar het is wel een iets snellere server geworden blijkbaar :9
Toch mooi hoor zulke specs. Voor school nu met een project bezig waar we hashes (md5 o.a.) genereren en vergelijken, in het kader van onderzoek naar collisions in hashfuncties. We beginnen met het ontwikkelen van een 'force'-methode met vaste input (6 karakters, BASE64), maar alleen dat zorgt al voor een dikke 68 miljard 700 miljoen combinaties en een halve terabyte aan data. O mochten we toch maar even een van die mooie computers gebruiken, dan was het in een knip gebeurd :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True