Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 65, views: 16.225 •

Minister Verhagen van Economische Zaken stelt 7 miljoen euro beschikbaar voor een datacentrum voor high performance computing. Ook belooft hij een upgrade voor de Huygens-supercomputer zodat deze weer in de Top500-lijst komt.

Verhagen deed zijn beloftes op het ICT-Delta-congres, dat woensdag in Den Haag gehouden werd. Het rekencentrum voor high performance computing en de bijgewerkte Huygens-supercomputer moeten bedrijven, onderzoekers en ontwikkelaars toegang geven tot geavanceerde ict-diensten.

Huygens is dringend aan een update toe. Bij zijn introductie in 2008 nam het rekencluster de 35e plek in op de Top500 van 's werelds krachtigste supercomputers. Het systeem valt echter bij de laatste editie van de lijst buiten de boot. In 2008 beschikte het IBM Power 575 Hydro-Cluster over 3328 Power6-cpu's met een kloksnelheid van 4,7GHz. Het totale werkgeheugen was 15,6TB groot en de diskcapaciteit bedroeg 972TB. Onbekend is waar de voorgestelde upgrade uit gaat bestaan, maar het ministerie zegt dat een 'topnotering' weer in het vizier moet komen. Ook details over het hpc-datacentrum zijn nog niet niet duidelijk.

Verhagen maakte verder bekend dat Amandus Lundqvist, voorzitter van de SURF-stichting en van het High-Tech Systems Platform, aangesteld is als ict-ambassadeur en in die hoedanigheid onder andere moet zorgen voor vermindering van de regeldruk voor de ict-sector. De minister lanceerde verder een Digitaal Ondernemersplein, waar ondernemers terecht kunnen voor overheidszaken, een wedstrijd voor apps die gebruikmaken van datasets van de overheid en het programma Digitale Vaardigheden Beroepsbevolking, voor het bijbrengen van digitale vaardigheden die nodig zouden zijn in de Nederlandse kenniseconomie.

Ten slotte stelde Verhagen 110 miljoen euro beschikbaar voor het Commit-onderzoeksprogramma, dat is opgebouwd uit de pijlers 'informatie', 'kleine computers' en 'grootschalige rekendiensten', en uiteen valt in zestien deelprojecten. De minister geeft als voorbeeld huisartsen die medische gegevens snel en veilig willen laten onderzoeken, en technieken om digitale opnamen van opsporingscamera's te scannen.

Reacties (65)

Is het belangrijk dat deze computer in een Top-X staat of dat de mensen die ermee werken de resultaten kunnen krijgen die ze nodig hebben?
Vergeet vooral niet wŠŠr de uitspraken van Verhagen zijn gedaan: op een congres. Kortom, koffie drinken, broodjes eten, lezing bijwonen en omringd worden door hordes lobbyÔsten die je graag horen zeggen dat je hen meer geld gaat geven.

Of ben ik nou te pessimistisch?
Of ben ik nou te pessimistisch?
Nouja :)
http://www.rijksoverheid....ogen-van-de-economie.html
http://www.sara.nl/news/m...ent-ict-dutch-top-sectors

Dit zijn geen wilde uitspraken die even verzonnen worden om daar goed voor de dag te komen en vriendjes te maken.. Er zijn een tijd geleden ook al gesprekken geweest vanuit SARA met de gebruikers om te kijken hoe de supercomputer werd gebruikt, wat de toekomstwensen zijn, etc. Dat doen ze niet als er geen plannen voor een upgrade zijn.

Ik denk dat een upgrade geen kwaad kan; even snel door de queue kijkende staan er ook nu weer rekentaken al sinds vrijdag te wachten op een plekje. En meer rekenkracht is meer mogelijkheden; grotere of geavanceerdere simulaties / analyse, etc.
tja en dan Amandus Lundqvist op de koffie (oud directeur IBM Nederland)
idd, echt weer een idiote minister die niet weet wat hij nou werkelijk doet, behalve heel goed politiek bedrijven.
verhagen != goed politiek bedrijven
een supercomputer is voor die man als een E-penis. It doesn't matter what u do with it, as long as it's bigger than your neighbour's.

een volledig artikel met 1.5 regeltje over het gebruik, blijkbaar zijn er nog mensen die belang hechten aan efficient gebruik van materiaal :X
En ik zit overal maar LED-lampjes in te draaien om energie te besparen. En dat terwijl de overheid ondertussen megawatt-uren aan energie verstookt om maar ergens boven op een lijst te staan ... echt waar ....
Wat voor nut heeft het om weer op nummer X te staan binnen een ranglijst, zolang de rekenkracht nog aan de wensen voldoet.
Dit is een beetje in de categorie, "my penis is bigger then yours". Weet niet of dat 7 miljoen aan belasting geld waard moet zijn.
Precies mijn idee.
Beter even focussen op belangrijke zaken en die zijn voor de regering anders dan een supercomputer imho.
Iets van "Nederland kennis economie?", vooroplopen in technologische ontwikkelingen? academische onderzoeken/ studenten binnenhalen / faciliteren? Deelnemen in eenr anglijst, en het liefst zo hoog mogelijk heeft als resultaat dat je weer besproken wordt, Dit geeft tevens bedrijven / instanties reden om zich hier te settelen. Gaat dus net even iets verder dan te pochen met "wie heeft de grootste".
Je genoemde argumenten hebben weinig relatie met een supercomputer lijkt me.
Ik schat zo in dat je in de marketing of sales werkt; zelfde boodschap, mooier strikje.
Dan moet ik je droog zeggen dat je fout zit. Het gaat namelijk echt verder dan het spelletje "mijne is beter".
Stel een bedrijf wil iets zwaars laten uitrekenen, en heeft zelf de benodigde kennis en CPU power niet in huis.
dus Cloud computing valt even af.
Dit bedrijf vraagt een lijst op van de supercomputers en kijkt zo waar ze hun berekeningen kunnen laten uitvoeren. staat uw niet-zo-super-meer-computer niet in de lijst krijg je ook zo geen werk meer te doen.
Verder wordt er hier zwaar op onze enigste rijkdom geteerd, onze kennis, dus moet je ook mee gaan in alle ontwikkelingen op dit gebied en stilstand is achteruitgang.
En het is niet dat Huygens per toeval in de lijst stond, plaats 35 is niet niks, plaats 501 wel.
Dus om je kennis economie draaiende te houden moet je je kennis en apparatuur up2date houden en spiegelen aan je peer groep. (in dit geval de top500 lijst)

Maar Madcat is dan ook misschien eerder een naam voor in andere branche
Had hij zichzelf MathCAD genoemd die zou direct aan de kennis economie gedacht hebben. ;)
@ejay79, ja je moet je kennis ook etaleren en kunnen verkopen.
Cloud computing valt zeker niet af: $1,279-per-hour, 30,000-core cluster built on Amazon EC2 cloud

Het is de vraag of je zo'n cluster standaard beschikbaar wilt hebben, of dat je per rekentaak een cluster wilt aanslingeren. Alle (Power) code die nu bij Sara gebruikt wordt draait natuurlijk niet op (x86) Amazon, maar voor nieuwe projecten is het misschien een goede optie.
Deze supercomputer zou gewoon 5 jaar mee gaan, dus wees blij dat ze hem een update geven in plaats van een heel nieuw systeem a la 30 miljoen.

Daarnaast doet dit beestje nuttige dingen als klimaatverandering en watermanagement simulaties, iets wat voor Nederland wel belangrijk is.
Wat voor nut heeft het om weer op nummer X te staan binnen een ranglijst, zolang de rekenkracht nog aan de wensen voldoet.
Ja inderdaad. Nederland scoort internationaal steeds slechter op ICT-gebied en onze supercomputer staat niet meer in de Top500. Nu 'kopen' we voor 7 miljoen euro een plaats op die lijst, maar zegt het echt wat? Dit lijkt me een prijzige prestige kwestie.
goedkoop denk ik eerder :) Als je verwijst naar iets als seti@home kan je zien hoeveel nederlandse computers te werk stellen.

Niet het gewenste plaatje van een grote supercomputer maar het eind doel is wel hetzelfde.

Nederland stelt niet zo veel voor hoe dan ook :) zelfs niet met een geweldige supercomputer....
Sterker nog, het heeft vrij weinig nut om op nummer X te staan, wanneer je bezuinigd op de rest van de infrastructuur. Bij SARA (waar Huygens staat) benadrukken ze bij bijna iedere presentatie dat bij het ontwerp niet gekozen is voor een hoge notering, maar specifiek voor een betere afstemming tussen de verschillende onderdelen, zoals het I/O systeem.

Verder is het nog maar de vraag of die 7 miljoen nu echt zo slecht besteed is. Het supercomputercentrum levert ook broodnodige diensten en ondersteuning aan gebruikers (vooral wetenschappers) die daardoor een stuk efficienter kunnen werken. Op deze manier maakt een goede supercomputer vele kleine clusters overbodig, wat ook weer scheelt in onderhoud. Universiteiten kunnen hun (belasting)geld dus ook beter besteden.
Ik vind dat, als er gebruik gemaakt wordt van belastinggeld, wij gratis op deze supercomputer moeten kunnen inloggen om bijvoorbeeld clouddiensten te gebruiken of om complexe berekeningen uit te voeren.
Stop die Huygens gewoon in een ton, met een hoepeltje er om. Laat ze liever geld in de zorg steken.
Was Huygens niet een vooruitstrevende wetenschapper die al enige tijd is overleden? Zo is was er bijvoorbeeld een Studenten beurs voor WO'ers.

Linkje: http://nl.wikipedia.org/wiki/Christiaan_Huygens

[Reactie gewijzigd door johnkessels87 op 16 november 2011 14:49]

Ik zie de opzet van de opvolger van het edp hier, hopen dat ze het nu wel goed gaan doen
Elektronisch Dossier PatiŽnten?
Als dat hierop draait... on steroÔde :D
Vraagje: waarom wil Maxime Verhagen dat deze computer weer op een respectabel plekje in een lijst terecht komt door meer geld te beloven?

a) Omdat het de wetenschap, bedrijfsleven en het algemeen belang van Nederland ten goede komt?
b) Omdat het een prestigekwestie is en men er graag bij wil horen.

Serieus, ik kan uit het artikel niet goed opmaken welke zeer-hoog-urgente projecten op dit momenten schreeuwen om een snellere supercomputer, anders dan dat we niet meer in de Top500 staan.
Het kost allemaal (veel) geld dus: staat de Huygens op punt van instorten of gaat dit om het gras bij de buren?
A. Als er vraag naar is dan kan het er altijd van komen. Als er geen vraag naar is dan heeft het geen nut.
B. Als het gaat om prestige dan is het geen goed idee om er zoveel geld in te stoppen. Prestige zoeken ze maar in de hoek waar het geen geld kost.
Ik ga er niet vanuit dat ze er geld in gaan pompen en dat het ding uiteindelijk de helft van de tijd niets zit te doen.

Men zal denk ik wel bij de instanties die er gebruik van maken gechecked zijn of deze behoefte hebben aan meer reken kracht.
Met meer reken kracht zal hij sneller klaar zijn met het werk en zal er op jaar basis dus meer gedaan kunnen worden.
Ik heb zelf nogal wat simulatie-ervaring en ik kan je verzekeren dat als er meer rekenkracht beschikbaar is, er ook meer rekenkracht gebruikt gaat worden. Een deel ervan zal nuttig gebruikt worden, een deel ervan zal verspild worden omdat op een snellere machine een pak extra simulaties draaien soms minder moeite kost dan even na te denken wat die simulaties zullen opleveren. En ja, ik heb ook redelijk wat simulaties gedaan om figuurtjes en tabelletjes in journal papers iets indrukwekkender te maken (zonder dat het enige wetenschappelijke meerwaarde had boven eerst denken en dan een fractie van de simulaties doen), maar evengoed pakken simulaties om nieuwe simulatiemethoden op punt te stellen (wat dus wel nuttig is).

Om maar te zeggen dat het niet noodzakelijk nodig is, maar ook niet noodzakelijk onnuttig maar vooral dat de load van de cluster niet direct bepalend is voor de nood aan extra investeringen. De tijd tussen het submitten van een job in de queue en het starten van de job lijkt in de praktijk een betere graadmeter: hoe langer het duurt eer je resultaten hebt (en een groot deel van de berekeningen op zo'n cluster zijn relatief (naar de rekenkracht van zo'n machine) kortlopende simulaties), hoe beter een gebruiker zal nadenken. Als je job binnen de paar minuten start, werkt dat sneller dan nadenken (en worden veel resultaten waarschijnlijk nooit echt gebruikt omdat de gebruiker tegen het einde van de simulatie ook zelf ook al bedacht heeft wat het zou moeten geven); als het een paar dagen duurt, zou je als onderzoeker toch wel al hebben moeten nadenken en lijkt het inderdaad wenselijk om voor wat meer rekenkracht te zorgen.

Maar als gebruiker is meer rekenkracht altijd leuk en kan je dus met de load levels altijd aantonen dat meer "noodzakelijk" is.
Het kost allemaal (veel) geld dus
Dat valt best wel mee. Je praat over nog geen 50 cent per inwoner. Vergelijk dat eens met een EDP fail van honderden miljoenen.

Als het uitgeven van 7 miljoen ervoor zorgt dat 'onze' supercomputer weer tot de wereldtop behoort dan is dat goed besteed geld. Wij Nederlanders zijn goed met water management. Als Bangkok wordt verplaatst, wie denk je dat ze om advies gaan vragen?
Daarnaast zijn er enorm veel Nederlandse bedrijven actief in de offshore industrie.

En hoewel veel politici vaak het IQ van een visstick lijken te hebben, is Nederland gewoon nog steeds een kennisland.. Kennis zit niet alleen bij universiteiten en hogescholen, maar ook gewoon bij het bedrijfsleven..
Aan de ene kant goed, maar aan de andere kant why??
Kunnen ze niet beter Tilburg de opdracht geven om een super computer te laten bouwen hun hebben toch 750mil reserves.
Kunnen ze die oude rammelbak niet gewoon overklokken dan? :)
Waarom probeert men niet al die PC's, die bij de mensen thuis een beetje idle staan, te verenigen tot een giga supercomputer (vrijwillig aanmelden aan computergrid), moet je eens kijken wat een power je tot je beschikking hebt. Ja de latency zal wel een probleem zijn, maar mogelijkheden zijn er toch zeker zou ik zeggen.
Moet je eens kijken wat een powerDRAW je dan hebt...
Tegenwoordig zijn computers veel zuiniger in idle dan onder 100% belasting en gaan ze zelfs vaak vanzelf in sleepmode. Daarom zijn ook projecten als seti@home en consorten minder populair tegenwoordig.
Dat hogere verbruik betekent dat minder mensen geneigd zijn om mee te doen, maar ook dat het een hogere impact heeft op het milieu, iets waar de overheid ook rekening mee dient te houden.

edit: Overigens leent ook lang niet elke taak zich er voor om gedistribueerd uitgevoerd te worden, want dat is wat je nu eigenlijk voorstelt. Om dit te kunnen doen moet je een taak kunnen opdelen in een heleboel deel opdrachten die niet afhankelijk zijn van het resultaat van de eerdere taken. Als die afhankelijkheid er wel is, dan zou je iedere keer moeten wachten tot iemand iets uitgerekend heeft voor je iemand anders weer het volgende uit kan laten rekenen. Dan is er van je hypothetische rekenkracht weinig meer over.

[Reactie gewijzigd door finraziel op 16 november 2011 15:00]

Een beetje makkelijke reacties hier. Bijna overal wordt aangenomen dat de supercomputer nog voldoet aan de vraag, en er wordt nergens melding gemaakt van de wetenschappers die hem mogen gebruiken.

Voor zover ik dit soort wereldje ken, staat er ergens een supercomputer, en kan je uren 'huren' als wetenschapper zijnde voor een project. Als je een beetje wetenschap hebt bedreven dan weet je wel dat je altijd tijd te weinig hebt voor je berekeningen. Met meer tijd kan je een hogere detail, resolutie of kleinere tijdstap voor je berekening pakken. Met meer tijd kan je meer iteraties doen om een betere dekking over inzicht te krijgen. Etc.

Er zijn genoeg wetenschapsgebieden die zelfs aan de snelste supercomputer nog niet genoeg hebben. Het zijn niet altijd de meest efficiŽnte programma's, maar dat is het doel ook niet. Het gaat om iets te onderzoeken want zonder de supercomputer niet goed of moeilijk gaat. Vergroting van de rekenkracht maakt het mogelijk om een complexer of meer gedetailleerd model te pakken. En aangezien de meest complexe modellen nog steeds een hele eind van de (analoge) werkelijkheid afstaan, is er nog een hele tijd vraag aan grotere en snellere supercomputers...

[Reactie gewijzigd door TRG op 16 november 2011 14:47]

Ik ben het gedeeltelijk met je eens, maar het stukje "het zijn niet altijd de meest efficiŽnte programma's" is in de praktijk soms een understatement.

Ik heb als onderzoeker ooit het Matlab programma van een collega dat na 64 dagen gecrasht was door een stroompanne op een uurtje of drie herschreven in C++ (automatische conversie met een paar kleine aanpassingen). In mijn ogen kon dat nog efficiŽnter, maar met de eerste aangepaste versie was de rekentijd op dezelfde machine verminderd tot 12 minuten. In dergelijke gevallen zou het veel meer opleveren om onderzoekers die vaak wel inzicht hebben in wiskundige modellen maar minder in de meest efficiŽnte manier om die te implementeren bij te laten staan door mensen die dat tweede kunnen. Dat zou in sommige gevallen veel meer opleveren dan geld pompen in apparatuur (voor processen die dagen of weken lopen maakt O(n) of O(n≤) een gigantisch verschil), maar in onderzoeksmiddens hier in Europa moet een onderzoeker nog altijd volledig zelf opdraaien voor alles wat met zijn onderzoek te maken heeft, ook al gaat daar eigenlijk enorm veel efficiŽntie mee verloren.

Maar daarover hoor je helaas zelden of nooit iemand spreken.
en zo word mijn zorg premie elk jaar maar duurder en duurder...
en dat terwijl de zorg elk jaar goedkoper wordt :+ (maar de prijzen stijgen hoor 8)7 )
Zorg wordt alleen maar duurder. Sinds 1998 zijn de kosten per hoofd van de bevolking meer dan verdubbeld. Die stijging in prijs is voornamelijk te wijten aan het feit dat we met z'n allen steeds maar ouder worden. Meer ouderen = meer zorg nodig = hogere premies.
het gaat mij alleen over de gezondheidszorg, de marktprijzen dalen maar de zorg kosten stijgen.
we betalen voor een nep economie als het om zorg gaat, en dat is alleen maar om dat wij een vrije markt denken te kunnen hebben.

medicijnen worden niet duurder maar goedkoper, maar de premies gaan omhoog :+

Op dit item kan niet meer gereageerd worden.



Populair: Desktops Samsung Smartphones Sony Microsoft Apple Games AMD Consoles Politiek en recht

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013