Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 18, views: 7.457 •

Surf, een ict-organisatie voor het hoger onderwijs en onderzoek, heeft samen met het NWO zes miljoen euro ge´nvesteerd in het Netherlands eScience Center. Het instituut, dat 'escience' moet promoten, wordt in Amsterdam gevestigd.

Volgens Surf en het NWO gaat het Netherlands eScience Center (NLeSC) zich bezighouden met multidisciplinair en data-intensief wetenschappelijk onderzoek. Daarbij ligt de nadruk op het toepassen van escience, een onderzoeksmethode waarbij intensief gebruikt wordt gemaakt van de gebundelde rekenkracht van computerclusters om grote databestanden te analyseren. Mogelijke toepassingen van escience-initiatieven zijn een nieuwe zoektechnologie voor databases en complexe computersimulaties.

NLeSC, dat op het Science Park in Amsterdam zal verrijzen, moet volgens de initiatiefnemers het gebruik van innovatieve ict bij wetenschappelijk onderzoek stimuleren om zo de kennispositie van Nederland te versterken. Zo hoopt het nieuwe instituut de samenwerking tussen het bedrijfsleven en academische onderzoekers te verbeteren.

Om deze doelen te bereiken stelt het NLeSC dat het de samenhang tussen diverse wetenschappelijke onderzoeksgebieden in kaart wil brengen, terwijl tegelijk de 'duplicatie en versnippering op gebied van escience' moeten worden tegengegaan. Ook wil het instituut een ict-infrastructuur opzetten waarbij de nadruk ligt op het toepassen van nieuwe computational science-projecten op basis van opensourcecode.

Prof.dr. Jacob de Vlieg, voorzitter van de NLeSC-implementatiecommissie, laat aan Tweakers.net weten dat het NLeSC nodig is omdat wetenschappelijk onderzoek steeds meer data genereert en dat daarbij onderzoeksmethoden worden ontwikkeld die in andere vakgebieden hergebruikt kunnen worden: "Bij Google is bijvoorbeeld software ontwikkeld om literatuur in te scannen. De opensource-code werd door onderzoekers later hergebruikt om culturele trends te ontdekken in historische teksten. Onderzoeksmethoden zijn dus soms overlappend." Volgens De Vlieg zal het NLeSC op 1 september zijn deuren openen en zal het werk bieden aan zeventien personen.

Reacties (18)

Dat er weinig mensen reageren is niet direct een aanduiding dat er weinig nieuwswaarde in dit artikel zit.

Dit is namelijk een prachtige ontwikkeling naar de toekomst toe om nederland als kennis economie te stimuleren.
Amerika met silicon valley is al veel te mainstream :Y)

Hiermee hebben we in de toekomst een mooie basis om verder te groeien en onderzoek te kunnen blijven doen.
On-topic: k geloof er totaal niet in. De chinezen zullen straks alles overnemen met hun robots enzo...
Ja laten we maar meteen stoppen met innoveren en alle hogescholen en universiteiten ook maar sluiten. Het scheelt een hoop op de begroting en er komt veel mankracht ter beschikking dat eenvoudig en goedkoop werk kan verrichten.
Precies (jij zult het wel sarcastisch bedoelen zo te zien :()
Het interessante hiervan zit hem naar mijn mening in deze zin: "...om culturele trends te ontdekken in historische teksten.".

Het gaat - uiteraard - niet zozeer om de technologie maar om wat je ermee doet. Dit zou een geheel nieuw opkomend veld van onderzoek mogelijk kunnen maken, dat media-theoreticus Lev Manovich "cultural analytics" noemt. Dit houdt kort gezegd in dat je computing power gebruikt om bepaalde trends waar te nemen en te mappen.
Lees deze twee blogposts maar eens:

http://setup.nl/content/lev-manovich-cultural-analytics
http://mastersofmedia.hum.uva.nl/2009/05/26/lev-manovich-cultural-analytics-lecture-at-paradiso/
Het is een goede ontwikkeling. Nederland loopt op dit moment redelijk achter op het gebied van large-scale computing. In andere landen heb je projecten waar je niet eens een aanvraag kunt doen als je niet minstens 5000 CPUs volledig kunt benutten. Terwijl in Nederland je eigenlijk nauwelijks dergelijke hoeveelheden computer-power kunt krijgen.

Ik werk in een onderzoeksgroep (op het Science Park in A'dam, waar ook dit initiatief zich zal vestigen) en wij gebruiken de clusters van SARA voor onze simulaties, maar de machine waar wij op draaien heeft zoveel gebruikers dat er lange wachttijden zijn voor CPU-tijd, zelfs in beperkte hoeveelheden.

Het is dus de hoogste tijd dat er geld gestoken wordt in het uitbreiden van de hoeveelheid beschikbare computer-power in Nederland.
5000 CPUs lijkt me overdreven, of heb je een voorbeeld?

De nummer 1 supercomputer (Tianhe-IA, http://nl.wikipedia.org/wiki/Tianhe-I, http://www.top500.org/system/10587) heeft ~14000 processoren en een supercomputer iets dichter bij huis (de ECMWF supercomputer, http://www.ecmwf.int/serv...upercomputer_history.html) ongeveer 9000. Lijkt mij sterk dat je daarvan 1/3 of 1/2 voor een enkel project voor mag gebruiken.

Ik maak zelf (bij vlagen) ook gebruik van SARA/Huijgens en vind het reuze meevallen met de wachttijden. Run in de queue zetten en meestal begint hij vrij rap. Maargoed, ik vraag dan ook nooit 5000 processoren aan ;) (sowieso lastig met maar 3500 cores).
5000 CPU's lijkt overdreven, ik ben blij als ik er een keer 500 krijg. Maar met de nieuwe technologieen die al gebruikt worden wordt het straks mogelijk om die 5000 full time vol te stampen.

De grootste bottleneck de komende tijd gaat data transfer en netwerk capaciteit worden. Met name de 'last mile' de connectie tussen wetenschapper en z'n workstation en het grid. Zelfs met snelle verbindingen tussen nodes en clusters gaan we er niet komen. De wetenschap heeft binnen een paar jaar 1-10 Gb tot aan het workstation nodig om uiteindelijk zowel de input als de output van alle berekeningen netjes te kunnen verwerken.
5000 CPUs lijkt me overdreven, of heb je een voorbeeld?

De nummer 1 supercomputer (Tianhe-IA, http://nl.wikipedia.org/wiki/Tianhe-I, http://www.top500.org/system/10587) heeft ~14000 processoren en een supercomputer iets dichter bij huis (de ECMWF supercomputer, http://www.ecmwf.int/serv...upercomputer_history.html) ongeveer 9000. Lijkt mij sterk dat je daarvan 1/3 of 1/2 voor een enkel project voor mag gebruiken.
Er wordt steeds meer gebruik gemaakt van netwerken van supercomputers. De "Big Grid" die door o.a. CERN gebruikt wordt is hier een voorbeeld van.
Ik maak zelf (bij vlagen) ook gebruik van SARA/Huijgens en vind het reuze meevallen met de wachttijden. Run in de queue zetten en meestal begint hij vrij rap. Maargoed, ik vraag dan ook nooit 5000 processoren aan ;) (sowieso lastig met maar 3500 cores).
Huygens valt inderdaad wel mee, maar Lisa is een drama. Daar wacht je een dag voordat een job met 8 nodes start of iets in die richting.
Het starten van een job op LISA hangt van een aantal factoren af. Je kan je voorstellen dat gebruikers die veel gebruiken minder prioriteit krijgen als de anderen . Belangrijk is wel dat je uberhaupt iets submit van een job om goed te kunnen bepalen of je nu lang moet wachten of niet. :)
Een hele mooie ontwikkeling natuurlijk om een eigen Silicon Valley in Nederland te creeeren. Ik heb alleen het idee dat elk beetje stad zo'n eigen kennis en innivatie plekje wil maken en dat daardoor dit soort instituten te versnipperd over het land worden verdeeld. Je hebt dus het Science Park in Amsterdam maar ook veel kennisindustrie in Eindhoven en omgeving. Daarnaast rond elke universiteit met een beetje beta-opleidingen zijn weer allerlei dingen te vinden.

Op het moment ben ik met een boek bezig ("From 0 to 1") waarin wordt verteld dat door dergelijk versnippering eigenlijk maar gebied van doorslaggevend belang is geweest in de computer industrie namelijk SIlicon Valley. Door aanwezigheid van allerlei bedrijven welke op elkaar kunnen bouwen en hun technologieen, software en hardware innovaties kunnen uitwisselen. Daarnaast is het wel belangrijk dat deze industrie vooral in de jaren 1960 erg groeide en er in vergelijking met toen geen Internet was wat dus voor deze tijd weer in het voordeel van verscnipperde kennis- en innovatieinstituten kan werken.

Ben benieuwd hoe alles uitpakt als het gaat om innovatie in Nederland :)
Een hele mooie ontwikkeling natuurlijk om een eigen Silicon Valley in Nederland te creeeren....Door aanwezigheid van allerlei bedrijven welke op elkaar kunnen bouwen en hun technologieen, software en hardware innovaties kunnen uitwisselen.
Silicon Valley is ongeveer zo groot als Nederland, we hebben hier geen plek voor zoveel bedrijven bij elkaar.

En dat eScience center is vooral gericht op onderwijs, niet op bedrijven.

Dus (helaas) zie ik in NL niet zo snel een Silicon Valley ontstaan.
In Nederland willen ze dit soort projecten ALTIJD in Amsterdam starten. Ik snap dat dit natuurlijk goed lobbywerk is van de meerdere organisaties, maar het lijkt me toch dat de regio Eindhoven zich bij uitstek leent voor dit soort projecten.
Waarom koppelen ze dit niet aan de High Tech Campus in Eindhoven? Nu willen ze 2x het wiel uit gaan vinden.
Amsterdam (UvA, VU, SARA, NIKHEF, AMOLF) is wel de bakermat van eScience in Nederland.
vergeet schiphol niet...

maar ja hij heeft wel gelijk nederlandsche organisaties en zeker als ze gekoppeld
zijn aan de overheid zouden ook op andere plekken in nederland actiever moeten zijn.
Ik ben het niet helemaal met je stelling eens. Ten eerste veroorzaakt concurrentie tussen bijvoorbeeld universiteiten en science parken (versnippering zoals jij het noemt) voor constante motivatie voor verbetering.
Daarnaast is Nederland zo compact dat je niet echt kunt praten over kennis in Amsterdam en in Eindhoven alsof het onafhankelijke zaken zijn.
Het NLeSC is van essentieel belang in Nederland. Onderzoekers willen (en in sommige gevallen moeten) met elkaar samenwerken, delen van (dure) instrumenten, delen van onderzoeksdata, etc. etc. De hoge fysica en astronomen hebben hun eScience infastructuur wel op orde. Maar wat dacht je bijvoorbeeld van taalkundigen, die putten uit zo'n grote hoeveelheid informatie in een multitude van formaten. Hierin zoeken of informatie correleren is zeer lastig. Het NLeSC ondersteunt dit soort onderzoek. Dan heb ik het nog niet over biologen, economen of sociologen gehad...
Als ik eens ga tellen en ik lees dat het gaat om 17 personen die aan het werk gaat, dan is een budget van 6 miljoen misschien net genoeg om 1 jaar te draaien. Dan heb je het over 400.000 budget per persoon per jaar, wat voor hoog opgeleid personeel met werkplek niet abnormaal is. Het komt op mij over dat er een aardig idee weer eens slecht uitgevoerd wordt door een gebrek aan geld.
Ik vind dit een noodzakelijk en goed idee, maar heb bij voorbaat mijn twijfels over het succes van dit initiatief. Ik denk dat er meer voor nodig is om het gebruik van computers in de wetenschap te stimuleren.

Op dit item kan niet meer gereageerd worden.



Populair: Desktops Samsung Smartphones Sony Microsoft Games Apple Politiek en recht Consoles Smartwatches

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013