Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 67 reacties
Bron: Universiteit Antwerpen, submitter: JohanDM

De Universiteit Antwerpen activeert op 14 maart de snelste supercomputer in België: Calcua. De door Sun geleverde supercomputer kan een theoretische top van twee teraflops aan en is opgebouwd uit 256 Sun Fire V20z-nodes. Elke node is uitgevoerd met twee AMD Opteron-processors en vier tot acht gigabyte geheugen. Naast deze losse nodes beschikt de Calcua over een back-end bestaande uit twee Sun Fire V440 servers. De universiteit gaat het apparaat inzetten voor het verwerken van wetenschappelijke data op het gebied van wiskunde, informatica, taalkunde, biomedische wetenschappen, fysica en chemie. Daarnaast zal het voor bedrijven mogelijk zijn om tegen betaling gebruik te maken van Calcua; tien procent van zijn rekenkracht zal te huur aangeboden worden. De Calcua zal als eerste Belgische supercomputer in de Top 500 komen te staan, en zal daar een aantal andere Europese supercomputers gaan vergezellen. De snelste daarvan is de MareNostrum uit Barcelona met twintig teraflops.

Moderatie-faq Wijzig weergave

Reacties (67)

Supercomputers zijn helaas nog steeds enigzins nationale dingen. Juist op dit gebied zou een beetje Europees denken geen kwaad kunnen. Volgens mij krijg je dan meer waar voor je geld. Maar ja, mooi voor Belgie.

Wat zien die dingen er trouwens altijd cool uit. Veel beter dan gewone computers.
Dat ding op de foto is niet het betreffende systeem...
http://www.calcua.ua.ac.be/docs/calcua_poster.pdf
Hiero staat een picje van HET cluster :P
Inderdaad, de foto lijkt een SGI Origin 3000 serie te zijn.
Er zijn ook bedrijven met supercomputers. De computer zelf zal altijd wel in 1 land staan, maar het onderzoek dat erop gebeurt hoeft daarom niet enkel van dat land te zijn. Ik geloof niet dat er veel onderzoek op die computer zal gebeuren dat enkel nationaal gebeurt.
Met het Europees denken zijn ze al een tijdje bezig hoor. Kijk bijv. maar naar http://www.tweakers.net/nieuws/35417

@VisionMaster : idd, maar aangezien er staat te lezen dat men zo een nieuwe supercomputer creëert en dat het om een internationale inspanning gaat; wel, ik wees enkel op het feit dat er toch al op Europees (lees internationaal) niveau aan gewerkt wordt.
Ter aanvulling:
Jou linkje refereert naar een Super Computer collaboratie initiatief dat DEISA (www.deisa.org) heet. Het doel is om heterogene SuperComputer architecturen te kunnen gebruiken voor een rekenprobleem.
Das een beetje het idee van Grid Computing... Het idee is daarom gezamelijk een systeem mee op te zetten om je problemen uit te kunnen rekenen (en uitkomsten of je input mee op te kunnen slaan) op lokaties buiten de deur, bijv. bij collega instituten of bedrijven die aan hetzelfde probleem werken en die ook een paar computers bij elkaar gezet hebben om een clustertje te vormen.
Goed ... het is dan meestal, niet een supercomputer maar een cluster (al dan niet met MPI enhancements uitgerust) maar het idee is simpeltjes ... 'verdeel en heers' en 'velen handen maken licht werk'. :Y)

Dus zet een clustertje op, installeer de Grid software er boven op... stel de zooi in, regel wat met de grote resource centra door je aan te melden... En je kan stuff rekenen voor anderen en als return, jij weer bij anderen.
Wat zien die dingen er trouwens altijd cool uit. Veel beter dan gewone computers.
Ja, maar wat raar dat er midden op dat vijfde rack-ding niet zo'n bolletje zit. Zou het een uitverkoopje geweest zijn? }>
Die zullen wel heel wat PC belasting moeten gaan betalen ;)
Ze kunnen er in ieder geval snel DVD's mee rippen :-)
De pc is wel al gekocht voor die taks er is, maar reken eens uit hoeveel hen dit extra zou gekost hebben...
Haha, net als in het andere topic...
256 Sun Fire V20z-nodes
maal 40 euro, is dus 10.240 euro aan PC-tax...
MOEWHAHAHAHA }>
<i>twee teraflops per seconde</i>

Da's dus 2 * 10^12 floating point operations per seconde per seconde.

Net zoiets als 2 GHz per seconde, of 200 Watt per seconde.
Oftewel het aantal floating point operations per secondekwadraat... Dat geeft dus de versnelling van het aantal floating point operaties weer. (8>
Dat geeft dus de versnelling van het aantal floating point operaties weer.
dan hebben ze dus nadat ze hem 35 seconden aan hebben staan al de snelste supercomputer ter wereld! :9
Ghz is per definitie aantal x (berekeningen of trillingen) per seconde
en hier zijn dat er 2 biljoen ofte 2.000.000.000.000
of ook 2.000 Ghz :)
Nou, niet helemaal. Als een computer op 2 GHz draait dan betekent dat dat de interne klok 2 miljard keer per seconde tikt. Zeer elementaire, simpele bewerkingen duren inderdaad maar 1 tik, maar de meesten duren meerdere tikken. GHz en flops kunnen dus niet zomaar vergeleken worden.

Overigens wilde ik met mijn post duidelijk maken dat "flops per seconde" dubbelop is. Hetzelfde geldt voor GHz per seconde en Watt per seconde. In beide eenheden zit al een "per seconde" ingebouwd.

Zoals masteriiz opmerkt zou dat dus de versnelling van het aantal floating point operaties zijn :).
Er wordt in belgie trouwens gewerkt aan een (blijkbaar redelijk krachtig) grid. http://www.begrid.be/

In april neemt de KULeuven ook haar nieuwe HPC in gebruik -> 272 Opteron's http://ludit.kuleuven.be/hpc/ (linksonderaan)
Een krachtig grid is ongeveer gelijk aan een snel internet, iets wat nogal abstract is in de mesh van heterogene internet connecties tussen tal van routers.

begrid is, als het goed, een initiatief van de belgen om hun computer resources lekker op te kunnen hopen in nationaal verband tussen de universiteiten. Tevens zijn deze dudes o.a. actief in de Europese inititieven van EGEE en LCG-2 om compatible te blijven met de andere Grid initiatieven die op zowel Europees als wereld niveau zich afspelen. Erg handig, want dan kan je eenvoudiger meedoen in verschillende andere computing initiatieven die hiervan gebruiken maken in de wetenschappelijke (en straks ook industriele) sector die zich niet alleen in Belgie afspelen.

Wordt meestal bereikt door een compatible set van middleware te gebruiken en door de basis van de beveiligingssystemen gelijk te houden. In dit geval door te werken met certificaten voor personen en servers die erkent worden in een wetenschappelijke collaboratie van deze Grid initiatieven op wereld niveau.
Dat soort afspraken en (defacto) standaarden zijn handig om lekker samen te kunnen werken. :Y)
voor zij met taal correctie vragen ... deze kan je word spell check doen in minder dan een derde van een vierde van een zesde van een nanoseconde ;) ;) ;)
Wie schrijft er nu een scriptie in word ;)

*kuch*Latex*kuch*
Ik vraag me bij die supercomputers wel af op welk OS ze draaien.

Linux
BSD
een embed OS
MS (vast niet)
MacOSX (enkel voor de Xserver nodes, tenzij ze er linux op draaien)

Hoeveel keer zouden ze zoiets rebooten, waarschijnlijjk niet veel, aangezien die dingen nooit aan een netwerk/internet hangen.
Ik weet van TERAS, nationale super bij SARA, dat daar Irix op draait ivm het feit dat het een SGi machine is uit een bepaalde periode met PowerPC cpu's.
Een andere machine draait Red Hat (getweakde versie). Een clustertje draait Debian en een ander draait weer Red Hat.

Even uit het hoofdje ... dus naai me niet en zoek het op: www.sara.nl

Er zijn supers bekent met BSD (een variantje van bijv. FreeBSD), Irix, HP-UX, Solaris en diverse linux distro's zijn mogelijk zoals Debian, SuSe, Red Hat en noem maar op.

Verder kan je pingen op: teras.sara.nl
Er is voldoende bandbreedte ;-)
SGI gebruikt MIPS cpu's. In de 3000 serie zit een R16000, en daar draait inderdaad IRIX op, SGI's eigen UNIX versie. Een aantal jaren geleden zeker een van de bleeding edge UNIX omgevingen, maar inmiddels een beetje achterhaald...
Misschien de bron eens raadplegen?

software: Op de 256 nodes die als execution nodes gaan dienen, komt een linux distributie SUSE te staan. Op het back-end managment gedeelte komt Solaris. Het Grid management wordt verzorgd door Sun N1 Grid Engine 6.

Rebooten denk ik dat ze nooit doen...
Ik denk wel dat het op een netwerk hangt. Er is zowiezo al een enorm snel netwerk tussen de execution nodes en de management servers. Waarschijnlijk zullen die management server ook op het netwerk hangen, tenzij je grote programma's die moeten lopen, of veel data die gecrunched moet worden handmatig gaat intypen, of met een cdtje overladen...
Ze zullen wel ongetwiijfeld niet aan internet hangen...
Mij lijkt dat die dingen (supercomputers) WEL aan een netwerk hangen. Het zou niet echt handig werken zijn als je op je fietsje naar die bak moet gaan om ff je USB harddisk eraan te hangen zodat je je meetdata erop kan gooien.

Logisch lijkt het me wel dat dat ding niet 'zomaar' aan het internet hangt...maar binnen een netwerk moet ie wel zitten.
Teras hangt 'zomaar' op het internet.
Verder hangt Matrix dat ook... dus ik verdenk Aster en Solo er ook van bij SARA.
The Earth Simulator hangt ook 'zomaar' aan het Internet... je moet alleen wel weten 'waar'... ;)

PS: het TeraGrid incident wordt wel aardig voorkomen trouwens ... gezien er minimaal toch wel de moderne versie van SSH wordt gebruikt voor de console connecties en niet Telnet (plaintext username/password over_the_wire, zoals ze dat in de USA hadden met een nationaal cluster uit het TeraGrid project/collaboratie.

Dus ga er maar dik vanuit dat jij met een IDS systeem in de gaten gehouden wordt en dat de rest van de faciliteit meestal wel goed achter een 'nette' vuurmuur staat.
2 teraflops is een gigantische snelheid, maar enige nuancering is wel op zijn plaats. Enerzijds komt 2 teraflops neer op 4 gigaflops per CPU, hetgeen de huidige PC's al halen. Anderzijds kan deze snelheid alleen worden bereikt wanneer alle processors tegelijkertijd met hetzelfde proces bezig zijn. Het proces moet dus (ver)deelbaar zijn, zoals bijvoorbeeld het SETI project. 2 teraflops is dus de maximale rekensnelheid.
Ik denk wel dat de meeste processen die op een supercomputer uitgevoerd worden verdeelbaar zijn. Die berekeningen zijn vaak toch niet afhankelijk van één parameter, dus laat je een paar computers parameter één uitwerken, een andere groep doet parameter twee en dan nadien laat je die parameters samenvoegen in één computertje. Ofwel de eerste helft computers op de eerste helft an de gegevens laten ploegen; de andere helft op de tweede helft en zo natuurlijk verder opdelen :)

Niet dat ik veel van supercomputers afweet, maar het zal hoogstwaarscihijnlijk toch wel mogelijk zijn om bv. een 3D-film te renderen, een gigantisch model te testen, ...
Je deelt het probleem gewoon op, voor de zekerheid misschien met een marge van overlapping ofzo en de rest laat je over aan de computer.

Ik denk echt dat je dit verkeerd inschat: als ze een supercomputertje hebben staan, zullen ze wel weten wat ze doen en zullen ze heus geen single-threaded processen daarop laten lopen, dan kun je evengoed een gewone pc gebruiken, inderdaad :)
Als 2 terflop de theoretische maximum is komt hij ongever binnen op plaats 200 in de top 500
Sterker nog ... het is een theoretisch maximum.
Je kan namelijk nooit de Super dusdanig met een probleem vullen, dat alle CPUs optimaal van hun naastgelegen geheugen gebruik kan maken, op een dusdanige manier dat alle CPUs bij elkaar niet alle bandbreedte tussen alle CPUs, memory banken en tussen alle segmenten tot hun fysieke maximum vol pompen. In andere worden ... dat je de Super optimaal vult, zodat iedere CPU tot zijn maximale capaciteit kan functioneren.
Dat is het fundamentele probleem van iedere supercomputer bouwer...

Meestal worden deze testen gedaan met Linpack, wat de standaard test is voor zulke systemen om op een syntetische manier hun hele super te vullen en dan dus te zien wat hun efficientie maximaal is met hun huidige setup. Wellicht dat er namelijk nog een hoop te tweaken valt ;Y)
Waarschijnlijk zul je de maximum performance normaal niet met 1 project halen. Daarom wordt er ook CPU tijd verkocht aan bedrijven, instellingen, universiteiten, etc. Veel rekenjobs zijn overigens prima over veel CPU's te verdelen.
Ik weet er niet zo veel van, maar bij ons worden nog wel eens weerstandsberekeningen gedaan. Om te weten wat een bepaalde vorm voor weerstand heeft onder bepaalde omstandigheden worden vaak een paar miljoen (bijna dezelfde) sommen gedaan. Die kun je over het algemeen prima parallel laten doorrekenen.
Het SETI project is wel een voorbeeld van een van de simpelste verdelingen van rekenwerk, omdat 1 computer een hele lange tijd in zijn eentje kan werken aan een stukje data.

Bij de meeste berekeningen is het helaas minder eenvoudig: Elke computer heeft *alle* data van *alle* andere computers continu nodig voor het rekenwerk. De kunst is dan om de data zo te verdelen dat elke computer zo min mogelijk tijd op data staat te wachten.
Count Grishnackh:
taalkunde?
precies wat ik dacht

kan iemand mij misschien eens vertellen hoeveel teraflops een normale computer heeft? (dit zal wel een getal waarde achter de comma zijn :P) gewoon eens ter vergelijking?
Daar hebben ze het volgens mij ook meestal over megaflops
ok maar hoeveel megaflops is een normale pc dan?

en wat zijn megaflops eigenlijk? (denk dat ik daar maar even over ga googlen) aangezien dat volgens mij niet gelijkstaat aan megaHertz :P

ik gok iets met berekeningen per seconden ofzo :S
FLOPS: Floating Point Operations Per Second. Het aantal drijvende komma operaties per seconde dus. Ik denk dat een normale P4 in de 300-500 MFLOPS zal zitten... (gokje hoor :) )
Mijn pc hier doet volgens SiSoft Sandra SiSoftware Sandra

Dhrystone ALU : 9453 MIPS
Whetstone FPU : 3931 MFLOPS
Whetstone iSSE2 : 7055 MFLOPS

Nu weet ik het verschil niet tussen deze 2, maar laat ik de laatste nemen (grootste getal :P )

1 TFLOPS = 10^12
1 GFLOPS = 10^9
1 MFLOPS = 10^6

7055 * 10^6 = 0.007055 * 10^12

Dus ik mag hier nog wel gaan OC'en als ik ze voorbij wil steken...
De term 'megaflop' wordt alleen gebruikt bij de Cyrix processoren ;).
Wat dacht je van de 8" removable opslag media van vroeger :)
De Universiteit Antwerpen gaat de supercomputer inzetten voor het verwerken van wetenschappelijke data op het gebied van wiskunde, informatica, taalkunde, biomedische wetenschappen, fysica en chemie.
taalkunde :?
Misschien TKI (Taal & Kunstmatige Intelligentie), computers die onze taal leren (herkennen en zelf zinnen uitpoepen bijvoorbeeld).
Wellicht bepaalde algoritmen vinden in geschreven werken van bekende schrijvers? Zoiets zou het best kunnen zijn.
taalkunde :?
Scripties van studenten laten controleren op taalfouten :+ beetje denkende aan die vele taalfoutjes die gemaakt worden (en die ok ook maak) |:(
Als student aan de Universiteit Antwerpen weet ik dat de "verantwoordelijke" prof bij de faculteit Wiskunde-Informatica zit, en dat op de campus waar de supercomputer staat enkel faculteiten wetenschappen gevestigd zijn. Dus of ze zijn het gewoon vergeten, want op andere campussen heb je wel wat taalkundige richtingen of hij is echt bedoelt voor de exacte wetenschappen. Maar ik ga naar de oficiële inhuldiging, ik zal het eens vragen. :)
Hier vind je wie wat gaat doen met dit stukje technologie.
Dit document zegt ons dat slindenau er eigenlijk pal op zat :)
De bedoeling is de computer dmv zelflerende processen een en ander bij te brengen wat betreft taalkunde. Meer bepaald, wat betreft het "begrijpen" van informatie in taal.
Zie ik daar op www.calcua.ua.ac.be/foto.php?cfoto=4 dat iedere unit een optische lezer en een diskettestation heeft? Is dat geen gigantische verspilling want dat gebruik je toch nooit?
Het blijven Belgen! ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True