Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties

Het Amsterdamse instituut SARA is begonnen met de aanschaf van een nieuwe supercomputer. De huidige supercomputer wordt in augustus vier jaar en is dus verouderd. Voor de opvolger is een bedrag van 10 miljoen euro gereserveerd.

Van die 10 miljoen euro moet de supercomputer drie jaar kunnen draaien. "Aanvankelijk wilden we 17 miljoen euro reserveren voor vijf jaar, maar dat hebben we nog niet binnen", zegt adjunct-directeur Peter Michielse van SARA. De aanschaf van de nieuwe supercomputer bevindt zich nog in een pril stadium; leveranciers wordt nu gevraagd een aanbod te doen. Dat moet volgens Europese regels, omdat SARA met publiek geld wordt gefinancierd.

Wel heeft Michielse in grote lijnen een idee hoe de nieuwe supercomputer eruit moet komen te zien. "De peak performance moet ongeveer een factor tien hoger liggen dan de huidige", zegt Michielse. De huidige supercomputer Huygens kan ongeveer 65 teraflops aan. Michielse tekent daarbij aan dat het niet zozeer gaat om de piekprestaties, maar om de gemiddelde performance bij gebruik.

Wat werkgeheugen betreft zal bij de nieuwe supercomputer 'ietsje zuiniger' worden gedaan. "We hebben nu al relatief veel geheugen", zegt Michielse. De Huygens beschikt over 15TB werkgeheugen. De 700 terabyte opslagruimte wordt waarschijnlijk verhoogd naar 5 tot 10 petabyte. Het huidige systeem beschikt daarnaast over een doorvoersnelheid van 160Gbps tussen verschillende nodes in de supercomputer; daar komen 'enkele tientallen gigabytes' bij.

Tot slot is ook de total cost of ownership belangrijk, zegt Michielse. "Ook het energieverbruik is een belangrijke kostenpost", zegt hij. De Huygens werd geleverd door IBM, maar omdat het een openbare aanbesteding is, kan elke fabrikant meebieden. Michielse verwacht dat er in september of oktober een kandidaat geselecteerd is, waarna de machine begin volgend jaar kan worden geleverd.

Vorig jaar werd al bekend dat het kabinet geld richting SARA zou schuiven voor een upgrade van de Huygens; naar nu blijkt wordt dat dus geen upgrade, maar een nieuwe supercomputer.

Moderatie-faq Wijzig weergave

Reacties (47)

Nou vraag ik mij af hoeveel stroom die kast uit het stopcontact trekt. :P
Volgens http://www.top500.org ongeveer 1MW. Ongeveer 200 Euro/uur :Y) aan stroom kosten (exclusief koelen). Volgens dezelfde lijst zou deze computer 20ste staan qua performance.
In de top 100 komt Nederland niet voor helaas.
Volgens dezelfde lijst zou deze computer 20ste staan qua performance.

Op nummer 20 staat:

20 NOAA/Oak Ridge National Laboratory
United States Cray XE6, Opteron 6276 16C 2.30GHz, Cray Gemini interconnect / 2011
Cray Inc. 77824 565.70 715.98 972.0

Volgens mij komt Nederland niet eens meer voor in de top 500...... :?
Huygens?: The energy consumption depends on the work load: 540 – 600 kW

[Reactie gewijzigd door tinus73 op 16 april 2012 15:44]

"Peek performance moet factor 10 hoger liggen". Ligt het aan mij of is dat overvraagd?

De huidige supercomputer is nu 4 jaar. Volgens de wet van Moore verdubbeld de performance elke 2 jaar en zou een nieuwe dus 2 x 2 = 4 keer sneller kunnen zijn. Was de huidige Supercomputer dan toch niet zo super dat je zomaar een 10x snellere kan krijgen?
Volgens de wet van Moore verdubbeld de performance elke 2 jaar
De wet van Moore zegt niet alleen niets over de prijs maar ook niets over performance.

De wet van Moore zegt alleen wat over het aantal transistors per oppervlak.
http://en.wikipedia.org/wiki/Moore%27s_law

Tot ca 2003 hielt performance min of meer gelijke tred met het aantal transistors per oppervlak, maar sinds performance het van multi-core moet hebben is thermisch management de beperkende factor, en neemt performance lang niet meer zo snel toe als voorheen. Vandaar dat je tegenwoordig met een PC van 5 jaar oud nog vrij goed mee kan komen.


The Free Lunch Is Over
2004 (updated 2009)
http://www.gotw.ca/publications/concurrency-ddj.htm
"The major processor manufacturers and architectures, from Intel and AMD to Sparc and PowerPC, have run out of room with most of their traditional approaches to boosting CPU performance.
...
CPU performance growth as we have known it hit a wall two years ago. Most people have only recently started to notice."
De wet van Moore zegt echter niks over de prijs en volgens mij ligt die ondertussen toch wel iets gunstiger, de octacores zijn niet zo duur meer. Daarnaast, ik zie nergens staan wat de 'oude' gekost heeft? Als ze nou 10 miljoen in plaats van 1 miljoen hebben is het natuurlijk niet zo moeilijk.
Als ik het me goed herinner is de wet van Moore een verdubbeling van het aantal transistors, niet een verdubbeling van de performance per se.

Maar ben het met je eens dat een factor 10 sneller in 4 jaar redelijk positief ingeschat lijkt.
Moore voorspelde dat het aantal transistors eens per 18 maanden zou verdubbelen... Verder zitten we daar al een beetje onder de laatste tijd, maar zo lang je algoritme lekker schaalt met het aantal CPUs dan valt er nog best wat winst te boeken.

Verder zijn de geheugenprijzen de laatste tijd baksteentje aan het spelen, en valt er dus nog best wat te winnen. Voeg daarbij de GPU-power die er wellicht in gaat komen (hoewel lastiger te gebruiken) en je komt best aan de 10x meer rekenkracht.
Het is geen wet. Meneer Moore heeft voorspelt dat dit zou gaan gebeuren...
Misschien een domme vraag maar wat wordt er nou precies berekent met zo'n supercomputer?
Misschien een domme vraag maar wat wordt er nou precies berekent met zo'n supercomputer?
Wat je maar wilt. Zolang je het programmeert :)

D'r zijn supercomputers zoals die van KNMI die klimaatmodellen / weersvoorspellingen doorberekenen, er zijn supercomputers die als virtuele windtunnel dienen (de USMC heeft er zo eentje, met 2048 CPU's), en je hebt supercomputers zoals die van DOE, die virtueel atoom/waterstofbom proeven doen.

Ook spelen supercomputers een voorname taak bij het afhandelen van alle gegeven van de LHc van CERN, de supercomputer bij SARA is ook een node in dat netwerk. (voor de data van CERN wordt een klein legertje aan supercomputers over heel europa gebruikt)
Dat kan echt van alles zijn.
Echte reken vreters zijn meestal natuurkundige (of biologische) simulaties.
Denk aan klimaatmodelen of simuleren van de volledige werking van een hersencel (neuron).

Een voorbeeldje van een supercomputer berekening van ik geloof in Frankrijk, simulatie van de evolutie van het hele heelal (er zijn subtiel andere theorien over donkere materie en energieen en hiermee kijken ze welke theorie het beeld oplevert dat het meest lijkt op wat we echt zien).
http://www.deus-consortium.org/gallery/videos/
Volgens de vermelde link in het artikel:
[...] wordt onder andere ingezet bij onderzoek in diverse gebieden o.a. schone energie, klimaatverandering, watermanagement, beperken van geluidshinder en verbeteren van medische behandelingen

[Reactie gewijzigd door PcDealer op 16 april 2012 21:21]

Uhm, kunnen ze niet beter 6 maanden wachten tot dat de delftse ontdekkingen geverifieerd zijn? dan kunnen ze meteen een 'echte supercomputer' bouwen ;)
Of je nou serieus bent of niet, even voor de duidelijkheid: het realiseren van de quantum-computer ligt nog bijzonder ver van ons vandaan. Dat de mogelijke ontdekking van het majorana-deeltje hierbij zeker aan heeft bijgedragen is waar, maar dit is nog onder bijzondere omstandigheden en verre van praktisch (ik bespaar u de details). Schattingen van de praktische realisatie van de quantum-computer lopen uiteen van 15 tot 75 jaar.
Is het dan ook aankomende januari beschikbaar...?
Een echte functionele quantumcomputer kan nog wel een eeuw duren.
Het ontdekte deeltje is maar een kleine schakel in de ketting van ontdekkingen en ontwikkelingen die nog gedaan moeten worden.
Wat gebeurt er met de oude maar volgens mij toch redelijk snelle Huygens?
Ja een goede vraag. Ben ik ook wel benieuwd naar :)
Ik verwacht eigenlijk dat bijvoorbeeld scholen / universiteiten wellicht delen "kopen" / "krijgen".
Als ze bereid zijn de elektriciteits rekening te betalen. Dat kan aardig oplopen. Ik kan het zelf niet uitrekenen, maar misschien is het op niet al te lange termijn al goedkoper een 65 teraflops machine op basis van Atom CPU's te nemen, dan een paar jaar de stroom rekening voor de Huygens te betalen.
blijft waarschijnlijk draaien. de Lisa draait ook nog steeds en wordt heel erg veel gebruikt
Het kan zijn dat de leverancier van de nieuwe supercomputer deze inruilt. Die kan hem mogelijk weer verkopen, milieuvriendelijk recyclen of als grondstof verkopen (koper, goud, ijzer, aluminium, plastic, etc.).
Marktplaats?

Nee, ik vraag het mij ook af. Mijn 'oude' 8core macpro doet nog steeds perfect dienst als render engine. Ook al is de 12core 2x sneller.
Het is misschien een beetje bleu, maar is het niet slimmer (met het oog op de bezuinigingen) om de budgetten voor dit soort projecten in NL te koppelen?

Daarmee bedoel ik 1 echte supercomputer voor meerdere universiteiten & overheidsinstellingen...
Wat is daar het voordeel van? Rekentijd is nu al schaars en moet vaak al lang van te voren worden ingeboekt.
Doordat je budget groter is kan je een snellere computer bouwen, dit bespaard theoretisch tijd per taak, dus kan je meer taken draaien... bla, bla, bla. je snapt t wel.

Maar het echte voordeel zit hem in het feit dat je de overige tijd complexere modellen kan draaien, wat de wetenschap ten goede komt.. aangezien veel modellen nu aanzienlijk versimpeld moeten worden om in het toegewezen tijdslot berekend te kunnen worden.
Dat is een goede vraag. Maar volgens mijn kunnen onderwijsinstellingen bij SARA al tijdslots inhuren. Daar is het ook een Academisch Rekencentrum voor.

[Reactie gewijzigd door PcDealer op 16 april 2012 20:58]

SARA is al 1 echte supercomputer voor meerder universiteiten. SARA wordt beheerd door 1 van de universiteiten in Amsterdam (weet niet meer precies welke) maar iedere universiteit in NL kan er rekentijd op huren, wat dan ook gebeurt. Dat was al zo in de jaren 90 toen ik zelf nog (in Leiden) studeerde en ik neem aan dat het nog steeds zo is.
SARA is geen supercomputer, SARA is het centrum dat supercomputers beheerd, zoals Huygens en LISA (die nogsteeds draait en voor veel taken nogsteeds voldoet).
Die kopen wij op voor schrootwaarde ;)

De markt in deze beesten is vrji klein, kan me voorstellen dat er misschien een paar partijen op de wereld zijn die hier interesse in hebben... wellicht een weerdienst oid,
Die gaan vaak naar universiteiten en inderdaad weerdiensten in verschillende landen.

Er zijn best wat partijen die zo'n "oude" machine maar al te graag overnemen.
Gaat het in het geval van een Upgrade De Huygens ook om een openbare aanbesteding? Het lijkt me dat IBM dat zelf het goedkoopste kan uitvoeren.

Als het meer gaat kosten door die openebare aanbesteding, omdat alles volgens de regeltjes nou een maal alles duurder maakt, kunnen ze dan niet beter SARA afblazen, en alles onder de naam Upgrade Huygens doen?
Het huidige systeem beschikt daarnaast over een doorvoersnelheid van 160Gbps tussen verschillende nodes in de supercomputer; daar komen 'enkele tientallen gigabytes' bij.
Enkele tientallen gigabytes nog wel. Dat is dan echt een behoorlijk dikke verbinding, het lijkt me best waarschijnlijk dat het hier gewoon over Gb gaat ipv GB.
Gb of GB: veelgemaakte fout in bestekken bij aanbestedingen. Als in het Programma van Eisen gevraagd wordt om b.v. een laptop met "mininaal 128Gb SSD", dan bieden we 64GB aan, want dat voldoet aan de minimale eis. :)
Goede klantenservice!
Ja.. Alleen beetje jammer dat dezelfde mensen het waarschijnlijk reviewen en je op dat punt gewoon '0' scoort, aangezien je volgens hun niet aan de eis voldoet.

Verder kan ik me niet voorstellen dat een partij die resources (geld) in een tender steekt zulke flauwe geintjes uit haalt.. Hoe simpel wil je jezelf buitenspel zetten voor het winnen van een bid?
Je ergert je aan dat soort* fouten.
Dat soort fouten irriteert je.

Dat is nou waar ik me aan erger. :)

BTW, 65 Teraflops ?
Mijn videokaartje doet al 3 Teraflops.
20x gtx680 er in, klaar ! :)

[Reactie gewijzigd door gryz op 16 april 2012 15:20]

je vergeet dat we het hebben over terraflops die te meten zijn met scientific computing benchmarks, en die rusten voor een groot deel op double precission matrix-matrix multiplication (DGEMM). dat lukt dan helaas weer niet zo snel op GTX680 kaartjes...
Ik was het niet vergeten. Single vs double precision.
En wat natuurlijk ook een groot verschil uitmaakt is het beschikbare geheugen. Een videokaart heeft 2-4GB videoram max. Dat is niks, als je flink aan het rekenen bent.

Toch zijn de getallen wel indrukwekkend.
Als je single precision vs double precision even buiten beschouwing laat.
Zie hier de lijst van snelste supercomputers van de laatste decennia.
http://en.wikipedia.org/w...g#Historical_TOP500_table

In 1999 was de snelste supercomputer ter wereld de Intel ASCI Red/9632. Die deed 2.4 Teraflops. Pas eind 2000 kwam er een snellere supercomputer. Dat was de IBM ASCI White, die 7.3 Teraflops deed. Dat was slechts 12 jaar geleden. Nu kan een eenvoudig videokaartje 3 Teraflops doen. Zelfs al is dat single-precision, ik vind het toch indrukwekkend.
Als in 4 jaar tijd het apparaat 10x zo snel is geworden snap ik de noodzaak niet zo om nu weer zo'n apparaat aan te schaffen. Er is "haast" met berekenen maar waarom? Als je over (nog eens 4 jaar) alles kan berekenen wat de aan te schaffen computer gaat berekenen de komende 4 jaar in nog geen 5 maanden is het dan geen optie om met de "oude" apparatuur te blijven werken?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True