Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 180 reacties

De snelheid van de supercomputer van instituut SURFsara moet worden opgeschroefd, zo vinden Nederlandse wetenschappers. Reden hiervoor is dat buitenlandse concurrenten snel hun apparatuur verbeteren, waardoor Nederland mogelijk achter gaat lopen.

Een groep van 60 wetenschappers onder aanvoering van professor Simon Portegies Zwart heeft een petitie ingediend bij de Koninklijke Nederlandse Akademie van Wetenschappen, zo bericht De Volkskrant. Daarmee hopen zij geld los te peuteren voor een upgrade van de supercomputer van SURFsara. De kosten bedragen zo rond de 100 miljoen euro, maar er zijn nog geen toezeggingen gedaan over het beschikbaar komen ervan: de afgelopen jaren zou er structureel te weinig geld zijn binnengekomen bij SURFsara om de upgrade te betalen en zijn er financiële tekorten ontstaan.

Met een upgrade willen de Nederlandse wetenschappers ervoor zorgen dat de supercomputer zijn positie op de ranglijst voor snelste supercomputers handhaaft. De vrees is dat de apparatuur van SURFsara eind volgend jaar al niet meer mee kan, waardoor Nederland afglijdt op de ranglijst. Dat kan er vervolgens voor zorgen dat Nederlandse wetenschappers geen rekentijd meer krijgen op buitenlandse supercomputers. Nederland zou met een 'trage' supercomputer niet gekwalificeerd genoeg meer zijn voor internationale samenwerking, zo meent Zwart.

Mogelijk doet de overheid een bijdrage om SURFsara van de benodigde financiën te voorzien. In een reactie laat het ministerie van Economische Zaken weten dat er wordt gekeken naar een oplossing. Meer concrete informatie werd echter niet gegeven.

Moderatie-faq Wijzig weergave

Reacties (180)

En voor welke doeleinden wordt deze computer gebruikt? Niet cynisch bedoeld.
Het zijn eigenlijk meerdere computers met in totaal 38,880 cores (volgens http://www.top500.org/system/178256).

Hoe dan ook, het SARA cluster wordt gebruikt voor genetisch onderzoek (ik heb er wel eens op mogen rekenen, en ik heb collega's hier in de VS die er op rekenen) en andere complexe berekeningen. Eigenlijk iedere wetenschapper in Nederland kan toegang krijgen op het cluster om er vervolgens jobs op te submitten.

Een voorbeeld van een internationale samenwerking is bijvoorbeeld dat CERN een deel van zijn data naar dit cluster stuurt voor berekeningen (je weet wel die organisatie met die vrij grote deeltjesversneller).

Waar de onderzoeker op doelt met 'internationaal positie verliezen' is dat wetenschap net politiek is: als je iets ter beschikking stelt (data/reagens/whatever) dan kun je er later ook iets voor terug vragen. Ik kan me voorstellen dat het beschikbaar maken van rekentijd aan CERN er bijvoorbeeld voor zorgt dat bepaalde Nederlandse wetenschappers ook aan deze data mogen rekenen. Dat soort samenwerkingen zijn niet mogelijk als je niets te bieden hebt.
Mee eens. Zoeiets als een grootschalige (nationale) rekenfaciliteit lijkt me nou typisch iets waar je als overheid in kan investeren. Vooral als er goed gebruik van gemaakt wordt.

In inderdaad ... die 'quid pro quo' samenwerking is heel herkenbaar. Je bent in samenwerkingsprojecten zo interessant als wat je te bieden hebt, en als de ontwikkelingen snal gaan dan kan je er zo weer uitliggen. Terugkomen vanuit die poisitie is lastiger (en duurder) dan je positie behouden door mee te blijven investeren denk ik.
De super van SARA wordt niet gebruikt voor de LHC experimenten.
Daarvoor worden de grid computing rekenclusters die onder andere bij SARA, Nikhef en RUG staan gebruikt.

Meer info: http://wlcg.web.cern.ch/ en http://www.nikhef.nl/grid/

In algemene zin klopt het wel dat er veel ruilhandel gedaan wordt met rekenkracht tussen de verschillende partijen in verschillende landen. Dankzij dit systeem hebben onze Nederlandse wetenschappers mogelijkheden om te rekenen op systemen met bepaalde eigenschappen die we in Nederland niet/amper hebben staan.
SURFsara omschrijft het zelf zo:

"SURFsara ondersteunt onderzoek in Nederland door geavanceerde ICT-infrastructuur, diensten en expertise duurzaam te ontwikkelen en aan te bieden.

Wij waarborgen deze ondersteuning door:
  • het beschikbaar stellen van een geïntegreerde ICT-onderzoeksinfrastructuur
  • het leveren van diensten op het gebied van computing, dataopslag, visualisatie, netwerk, cloud en e-Science
  • het beschikbaar stellen van multidisciplinaire expertise en support in ICT-technologie en toepassingen
  • het doen van alle daarvoor noodzakelijke innovatie, engineering en ontwikkeling.
Ons motto: Geavanceerde en duurzame infrastructuur, dienstverlening, ondersteuning, innovatie en ontwikkeling gaan hand in hand."

[Reactie gewijzigd door nul07 op 11 april 2015 17:11]

dat ze de kosten van al die dingen dan doorrekenen aan hun klanten ipv de algemene belastingbetaler. 60 wetenschappers die 100.000.000 ¤ willen, is elitair egoïsme: we kunnen het zelf niet betalen, maar vinden ons belangrijk genoeg om iedere burger 7¤ afhandig te maken ofte 1.7 miljoen per wetenschapper. Moest iedereen bij jullie zich zo belangrijk vinden, dan hadden jullie 28.3 biljoen nodig ofte 28.333.333.333.333 ¤

zijn die andere burgers daar écht zó gebaat bij ???
Je doet het voorkomen alsof er in de wetenschap veel geld te verbrassen valt. Niets is echter minder waar: er wordt hard gewerkt voor een grijpstuiver. Dit soort korte termijn denken is wat er voor zorgt dat wetenschappers Nederland gaan mijden.

Die 100 miljoen wordt geinvesteerd over meerdere jaren: een nieuw cluster is niet zomaar weer ouderwets. Daarnaast zijn er meer mensen betrokken dan de 60 mensen die een handtekening hebben gezet. Die 60 zijn waarschijnlijk allemaal professoren. Onder elke professor werken een aantal postdocs, en mogelijk ook PhD studenten en analisten. Die zijn mogelijk allemaal afhankelijk van die infrastructuur, plus de mogelijke wetenschappelijke samenwerkingen die daarmee in verband houden. Dit betreffen analyses die niet alleen door Nederland uitgevoerd kunnen worden (zoals CERN), omdat daar gewoon weg het geld niet voor is.
Ik ben bang dat de wereld iets complexer in elkaar zit dan dit. Ik praat hier ook zeker niet voor alle mensen in de academische wereld (!), maar heb onderstaande helaas wel zelf ervaren.

Veel professoren zijn vandaag de dag vnml bezig met netwerken. Het onderzoek dat gebeurt delegeren ze (incl. het schrijven voor onderzoek) aan postdocs, doctoren en zelfs studenten. Het geld in universiteiten wordt deels verdeeld op basis van publicaties; ik heb situaties gezien waarbij studenten een onvoldoende kregen als ze niet probeerden te publiceren (waarbij uiteraard de professor en doctor ook op de lijst moesten -- en ook de plaatsen van publicatie uitzochten). Nog erger is dat veel deeltijd professoren (die van oudsher de kennis van ons land moeten vertegenwoordigen) worden aangenomen om deze redenen.

Deeltijd betekent dat deze mensen nevenfuncties hebben (logischerwijs). Als je gaat inventariseren zal het je opvallen hoeveel van deze professoren een nevenfunctie bij vooraanstaande consultancy bedrijven of als investeerder hebben. Adviseren voor kennis (universiteit) of voor kennis (consultancy) wordt zo een blurry geheel; een sales gesprek waar niets uit komt kan naar de universiteit, een sales gesprek waar iets uit komt kan naar het bedrijf, waar deze mensen vaak een aandeel in hebben. En investeringen...? Lees verder.

Vervolgens gebeurt het soms dat uit een project (lees: na hard werk van studenten en/of doctoren) een goed idee komt, wat commerciele waarde heeft. In samenspraak met de universiteit wordt afgesproken dat een kick-back fee wordt berekend naar de universiteit, de rest gaat het bedrijf in. Aandeelhouders zijn normaliter professoren en netwerkrelaties, soms uitgebreid met doctoren die een functie gaan vervullen in de board. In veel gevallen worden patenten opgesteld en het geheel wordt gecommercialiseerd.

Ik kan nog even doorgaan...

Waarom is dit relevant? Wat je hieruit moet lezen is dat de scheidingslijn tussen commerciele belangen en onderzoek niet zo scherp is als deze gesteld wordt. De investeringen die wij als Nederlanders betalen worden gecommercialiseerd, waarbij een aantal mensen de opbrengsten opstrijken. Wel de baten, niet de lasten.

Terugpakkend op waarom wetenschappers Nederland gaan mijden. Ik ga het gewoon op mezelf betrekken... De wetenschapper in me wil waarde creëren voor de samenleving, niet voor een professor, bedrijf of de universiteit. Ik geloof dat mijn onderzoek waarde heeft -- en mijn commerciële carrière heeft dat inmiddels ook gewoon aangetoond. Dat doe ik echt niet voor het geld - maar waar ik wel vraagtekens bij zet zijn de belanghebbenden en of ik mijn tijd nuttig besteed. Hard werken heb ik geen enkel probleem mee. Mijn tijd vullen met het schrijven van SenterNovem voorstellen en publiceren met de naam van mijn professor (die niets aan waarde heeft toegevoegd) heb ik heel erg veel moeite mee. En wat heb ik aan die professor, als ik meer weet van de stof dan hij? Waarom zou ik niet gewoon meteen in het bedrijfsleven stappen als ik daar gewoon mijn ding kan doen zonder dit gezeur om geld?

En dan is er nog moraal. Ik vind het principieel onverenigbaar dat er met gemeenschapsgelden onderzoek wordt betaald, waar vervolgens de baten van naar de universiteit en een aantal betrokkenen gaan. Als commercieel bedrijf vind ik het zelfs een vorm van oneerlijke concurrentie: ik betaal belasting, wat vervolgens wordt gebruikt om onderzoek te doen naar dingen die ik verkoop, waarbij ik vervolgens een concurrent erbij krijg -- en niet eens het werk waar ik nota bene zelf voor heb betaald kan gebruiken binnen mijn eigen bedrijf. Let wel, ik denk dat onderzoek goed is -- maar wil als ik de lasten draag ook de baten voelen!

Combineer dat met slagingspercentages voor studenten die afgedwongen worden en je hebt voor mij de voornaamste redenen dat ik het bedrijfsleven ben ingestapt.

Wel of niet een supercomputer kopen? Als echte wetenschapper zoek ik wel een oplossing voor het probleem. 10x meer rekenkracht zie ik academisch gezien niet direct het nut van -- je kan prima aantonen dat iets wel of niet werkt als het langzamer is. Vergeet niet: onderzoek doen is niet hetzelfde als het maken van een product, waar dit soort factoren belangrijk zijn.
Je laatste alinea is regelrechte onzin; grote lariekoek. Het grootste deel van de algoritmes op supercomputers is al volledig geoptimaliseerd (in de wiskundige zin én programmeer technische zin) dus het enige om te kunnen concurreren met het buitenland of om complexere problemen te kunnen oplossen is meer rekenkracht.

Een goed voorbeeld hiervan is vloeistof dynamica. Al jaren is men op zoek naar betere modellen voor turbulentie aan de hand van direct numerical simulations. Dit heeft gewoon veel rekenkracht nodig en aan DNS valt weinig te optimaliseren.
Dit heeft gewoon veel rekenkracht nodig en aan DNS valt weinig te optimaliseren.
Dit geloof ik gelijk, maar desalniettemin vind ik binnen ca. 2 minuten studies die laten zien hoe het met FPGA's 13 tot 73x sneller kan dan met CPU's. De vraag is dan, of het verstandig is om zo'n vloeistof-dynamica probleem op te lossen met snellere en meer CPU's, of dat het verstandiger is te kijken naar een cluster dat niet noodzakelijker meer en snellere CPU's heeft, maar een stel toegevoegde FPGA's heeft.

Dus niet per se meer "domme" Linpack-FLOPs, maar gewoon de processor zo hardwarematig instellen dat deze is geoptimaliseerd voor het probleem, waardoor zelfs oudere FPGA's meer rekenkracht op bepaalde vakgebieden kunnen leveren dan nieuwere CPU's.

ed - Perfect voorbeeld is bitcoins minen, dit gebeurde vroeger op CPU's, toen op GPU's, daarna op FPGA's en daarna op ASIC's. Nu hebben die ASIC's op papier minder "algemene" rekenkracht dan een CPU, maar uiteindelijk is het toch een stuk goedkoper en sneller op die manier bitcoin's te minen, daarvoor worden CPU's praktisch niet meer gebruikt. In die zin kan ik me dus voorstellen, dat een overgang van CPU's naar FPGA's voor vloeistofdynamica een veel grotere verbetering en bovendien goedkoper zou kunnen zijn dan 10x zo snelle CPU's.
Nadeel is wel dat bijna iedere wetenschapper programma's kan schrijven voor "CPU-supercomputers", maar voor FPGA's is dit lastiger.

[Reactie gewijzigd door kidde op 12 april 2015 20:45]

Fpga's halen lang niet de snelheid van een CPU en zijn een stuk duurder.

Ja, je kunt hardwarematig berekeningen uitvoeren wat sneller is dan een cpu met dezelfde clock en ja, dat is ontzetten veel complexer op grote schaal en ja, voor iedere individuele simulatie moet een complex fpga desing worden gemaakt en ja, het wisselen van fpga design tussen 2 simulaties kost tijd. Nee, fpga's zijn hier niet voor geschikt.
Kidde: je kunt zo'n fpga team niet betalen.

Er is geen budget voor wetenschappelijke software om die om te zetten naar FPGA's :)

Verder een ander probleem voor die fpga's is de bottleneck naar andere nodes toe. je hebt enorme bandbreedte nodigvan de ene node naar de andere.

Als jij een node bouwt die ineens 73x sneller is moet je ook 73x de bandbreedte hebben naar andere nodes.

Ook is het heel lastig om dus met een fpga dus een snelle vectorprocessor van tegenwoordig te verslaan.

Die hikken al bijna tegen de 3 Tflops double precision aan (niet verwarren met het nutteloze single precision).

Dat in een fpga halen is niet eenvoudig. Dan is er vervolgens het prijskaartje.

De snelste fpga herprogrammeerbare kaart van nu is dus van intel en 1.5 Ghz ofzo. Maar wat is de prijs daarvan? 100k dollar ofzo?

Tegen 1 Xeon Phi die is 2400 dollar (als je er maar 1 koopt).

Het is heel lastig om een fpga programma te bakken. Doe je dat in verilog of nog lower level taaltje?

Geen wetenschapper die dat taaltje kent natuurlijk. Die werken met recursies en dat soort zaken. Da's niet zo eenvoudig op fpga's. Dan moet je elk programma omzetten daarnaar.

Kortom, generieke hardware die werkt voor alle wetenschappers is veel handiger. De slag die gemaakt wordt nu richting gpgpu hardware is al een enorm grote.

Ik herinner me nog hoe we jaar of 10 geleden aan programmeren waren voor gpu's en dat we het maar niet voor elkaar kregen om hoge IPC te halen. Dus het ding kon 1 instructie per clock executen, maar de efficiency van de software programma's, zo tegen 2007, dan was 25% al heel wat op Nvidia hardware. Een Chinese wetenschapper postte dat zijn code op Nvidia ook 25% haalde maar op ATI haalde hij wel 50%.

Komt ineens een publicatie tijdje later van een Amerikaan. Of eigenlijk posting/lezing en pdf'je online. Volkov was de naam.

Ja 70% halen was GEEN PROBLEEM, als je de architectuur maar goed begreep.

Nu zijn we bijna 10 jaar verder. We begrijpen die architectuur een beetje. Wil je zeggen dat we nu weer OVERNIEUW moeten beginnen?

Ik draai hier aantal computers waar priemgetallen op gecrunched worden. Voor wat factorisatiecode is er wel wat gpu geweld, maar voor het harde FFT gebeuren (dat gebeurt daar in sommige velden met DWT's overigens - een specifieke FFT) dat werkt nog ontzettend inefficient bij de publieke code.

Lachwekkende efficiency halen ze uit die gpu's met de publiek bekende codes.

Nu zal dat vast, ook voor de publieke code, binnen paar jaar wel gefixed zijn. Echter, als je dat overzet richting fpga - dan zou je dus codes van de NSA moeten lenen om bepaalde problemen sneller door te rekenen.

Dan een volgend probleem is dat in toenemende mate vakgebied voor vakgebied dus geconfronteerd wordt met het harde feit, dat nieuwere algoritms ontdekt worden, die allemaal 1 ding gemeen hebben. Ze profiteren enorm van een beetje RAM. Dus het eerste beetje is enorm veel waard.

Op FPGA's is het heel lastig om RAM te stoppen die de fpga's kan bijhouden. Een persoon die goed is in RAM controllers te ontwerpen voor fpga's, die kan op dit moment al tonnen verdienen. Die ga je dus in Nederland NIET VINDEN. Gewoon NIET. In USA zitten er een paar en die verdienen nog meer dan de meeste quants in de financiele wereld verdienen.

Je vindt ze gewoon NIET.

Nu ben ikgeen expert op fpga's, maar simpele fpga code kan ik ook wel pennen. Maar hoe je die memory bandbreedte oplost en snelle access naar de RAM, dat is echt enorm probleem.

Dus fpga projectne die kunnen rivaliseren met een generieke supercomputer, reken op enige miljoenen euro's per project.
Behalve dan... dat er nog heeel veel gedaan wordt aan CPU-rekenwerk. Even rondkijkend in mijn vakgroep is eigenlijk alles gewoon doodsimpel geschreven voor processorkracht, en zo wordt het dus ook gerund. Iets als een grafische kaart (die hier >50x sneller werkt) wordt met argusogen bekeken, het zou lastig zijn, het zou onbetrouwbaar zijn, en wat de boer nie kent, da vret ie nie. Aldus staat er een schitterend cluster a best wel wat euros, maar wordt er niet geinnoveerd, waardoor een oplossing voor een fractie van de kosten niet gezien wordt.

Verder wordt er inderdaad weinig rekenkracht verspild, langdurige simulaties doe je zelden voor de lol, en als iets ook met kleinere samples uitgewerkt kan worden heeft dat wel de voorkeur (terecht).
Sara heeft ook een cluster met snelle gpu's erin.

Je zult als overheid die duizenden wetenschappers faciliteert natuurlijk een mix aan hardware moeten hebben.

Gevectoriseerde supercomputer die heel snel is met snelle Tesla's of Xeon Phi's of IBM (wie simpelweg goedkoopste bid doet) voor datgene waar gpgpu code voor beschikbaar is.

En een paar computers met maximale RAM voor diegenen die veel RAM nodig hebben en een cluster met cpu cores voor al die luie wetenschappers die hun code niet geport hebben naar gpgpu, of die complexere berekeningen maken met veel branches.

Het gros van alle rekenkracht wordt keihard verspild aan knullige programma's, maar da's ook geen enkel probleem.

Wetenschap is er om te leren en gros van diegenen die daar draaien zijn geen geniale HPC programmeurs simpelweg.

Dat ben ik wel, maar ik bouw dus robots en 3d printers.

Logisch dat ze daar niet aan kunnen tippen.

De belangrijkste reden waarom je de snelste supercomputers bouwt is een hele simpele: je kijkt met je software iets verder in de toekomst. En als dat maar 1% sneller is dan rivaliserende organisaties, dan ben jij dus sneller met je resultaten en the big man.

Dat vooruit kijken in de toekomst is gewoon belangrijk.

p.s. voor nieuwe supercomputer heb je wel geschikte locatie nodig en genoeg stroom die goedkoop ingeslagen wordt.

Het wordt tijd om zo'n nieuwe supercomputer eens in het oosten van het land te bouwen in plaats van in de bunker van Amsterdam.

Ten eerste daar nieuwere hardware en hele grote supercomputer gewoon veel veel meer stroom gaat vreten dan die kleine supercomputers die ze totdusverre bij SARA gebouwd hebben. Ten tweede is er gewoon nieuwe locatie nodig. SARA's bunker is gewoon te klein hiervoor en niet geschikt om genoeg megawatts te leveren hiervoor en de stroomprijs die je krijgt in Amsterdam is gewoon factoren duurder dan bijvoorbeeld dicht bij de Duitse grens waar net wat nieuwe kolencentrales zijn geopend.

Dus de lokatie WAAR je dat bouwt moet je ook gewoon open houden en kijken naar waar je goedkoopste stroom kunt krijgen.

Die kolencentrales produceren dat nu voor iets van 1 cent per kilowattuur ofzo. Zo'n soort prijs moet dus wel te bedingen zijn voor afname van megawatt of 20.

Ten oosten van Arnhem ligt volgens mij nieuwe lijn, Dus klein plaatsje buiten enschede, niet al te ver van een trafostation van een 380 KV lijn, dat komt wel snel bij me op als locatie.

[Reactie gewijzigd door hardwareaddict op 12 april 2015 23:52]

Alsof de wereld zo in elkaar zit. Niet dus. Wat veel vaker voorkomt is dat commerciële bedrijven zich gemeenschappelijk uitgevoerd onderzoek toe eigenen en het vervolgens dichttimmeren met patenten waardoor dezelfde samenleving er nog een keer dik voor mag betalen om er gebruik van te maken.
Uiteraard gaat het twee kanten op mis, maar dat maakt Atlastes punten niet minder geldig. Er zitten gruwelijk grote morele gaten in de universitaire structuur, en dat maakt een discussie als deze zo complex. Daarnaast vragen genoeg professoren gewoon octrooien aan op hun vondsten, al dan niet op naam van de uni, of een spin-off van hun vakgroep (afhankelijk van aan wie ze zich meer verbonden voelen), waardoor bedrijven alsnog fiks mogen betalen, voor met gemeenschapsgeld gedaan onderzoek. (deels is dit te verdedigen doordat de overheid het onderzoek kostendekkender wil maken, en dus minder geld geeft, en het verzoek om zelf maar fondsen te werven)
De morele bezwaren die gegeven worden stuiten mij tegen de borst. Het plaatst de commerciële bedrijven in de slachtofferrol en dat is een omdraaiing van de werkelijkheid. De Europese werkelijkheid, in de VS werkt het in veel gevallen iets anders, daar wordt veel minder uit overheidsmiddelen gedaan en is het model dus veel afhankelijker van vermarkting van de resultaten (commerciële sponsoring van onderzoek is niet zo goed voor de onafhankelijkheid immers). In Europa is dat dus anders, daar is de overheid een borging om de onafhankelijkheid en diversiteit van onderzoek zo groot mogelijk te houden.
En waarom zou dit verkeerd zijn? Als het onderzoek een patent oplevert vind ik dat de universiteit daar ook het voordeel van moet opstrijken. Dat geeft dan meteen een basis on de funding van ons onderwijs!
En dan is er nog moraal. Ik vind het principieel onverenigbaar dat er met gemeenschapsgelden onderzoek wordt betaald, waar vervolgens de baten van naar de universiteit en een aantal betrokkenen gaan.
En waar de resultaten/test sets/ruwe data etc vervolgens niet van op te vragen zijn door die zelfde belasting betaler. Of waar de publicatie alleen achter een betaal muur beschikbaar is voor diezelfde belasting betaler :(
'je kan prima aantonen dat iets wel of niet werkt als het langzamer is.'

Zo geredeneerd zijn supercomputers helemaal niet nodig: met honderd jaar rekenen op een gewone PC kun je de resultaten tenslotte ook bereiken.

Jouw windows98 computer voldoet waarschijnlijk ook nog prima?
@Atlaste

Goed verhaal, maar een paar kanttekeningen.

(0) De accentverschuiving in de taak van onderzoekshoogleraar van wetenschapper naar "brand-manager" is niet iets wat die hoogleraren zelf gekozen hebben.

Het is ze opgelegd door een maatschappij (tunnel) visie die het slechtste van 'socialistische' regel- en bemoeizucht en nivelleringsfetisjisme combineert met het slechtste van neo-liberalisme (sturen op hijgerige korte-termijn indicatoren en "de markt" verwennen met doucertjes om de schade opgelopen door regeldzucht en torenhoge kosten voor Nederland alsstandplaats weer enigszins te compenseren).

Een maatschappijvisie die geld voor onderzoek "maatschappelijk verantwoord" wil zien, en daarvoor bij totaal gebrek aan inzicht, lange-termijn visie of kunde maar vertrrouwd op procedures, commissies, verslaglegging en in arren moede stuurt op "meetbare" grootheden zoals publicaties en patenten is daar debet aan.

Diezelfde maatschappijviso die tegelijk uitgesproken dom en spilziek tewerk gaat bij b.v. grote automatiseringsprojecten, onrendabele infrastrucuurprojecten (b.v. de Betuwe-lijn), staatssteun aan bedrijven (onlangs de banken weer, daarvoor was het Philips, daarvoor Fokker, en daarvoor OGEM).

En ja, ook in dat klimaat kunnen slimme hardwerkende mensen succes hebben, maar dan moeten ze wel een "merk" creeren en onderhouden (hun eigen naam, die van hun instituut, en die van hun onderzoeksgroep). En als ze dat doen dan kunnen hebben ze geen tijd meer om persoonlijk wetenschappelijk werk van niveau te doen.

(1) Qua geldsbesteding denk ik dat belastinggeld besteed aan onderzoek "in de breedte" per saldo nog steeds wel bij de B.V. Nederland terecht komt, en wel door het netwerk effect. Het feit alleen al dat er Nederlandse bedrijven zijn die de met belastingeld verkregen kennis vercommercialiseren heeft een uitstraling. Het zorgt voor "mindshare" voor de onderzoeksgroep, het bedrijf(je), en de cluster bedrijven en bedrijfjes die er omheen liggen.

(2) Als de producten die eruit komen leiden tot bedrijvigheid in Nederland (en toegegeven, dat is niet altijd vanzelfsprekend, maar je kan dat lang niet altijd afdwingen) dan heb je werkgelegenheid geschapen die uitstraalt naar beneden toe. Toe en met de horeca, de fabrikant van verpakkingsmateriaal, en de schoonmaker toe. Zonder die investering had je dat niet gehad. Je kan situaties hebben zoals bij Fokker, waarbij de geinvesteerde miljarden verloren gaan, of Philips dat rustig bedrijfstakken verkoopt en productie off-shored, maar zonder risico geen gewin.

(3) Dat afgeven op de rol van leider van een instituut of een onderzoeksgroep is m.i. niet terecht. Het feit dat jij gekomen bent waar je bent is voor een deel jouw verdienste, en voor een deel terug te voeren op de onderzoeksgroep waar jij in bent opgeleid, het geld dat het instituut of de groep heeft aangetrokken, en de (noem het " strategische") keuzes die de leider van dat instituut gedurende een tiental jaren heeft gemaakt. En jawel, dat vereist dat er tijd gespendeerd wordt aan netwerken, en wel door iemand die "wisselgeld" heeft, d.w.z. die het instituut of de onderzoeksgroep ergens aan kan committeren. En dat zijn vakgroepsleiders en hoofden van instituten.

Het feit dat je nu op jouw speciale deelterrein meer weet dan "de professor" is niet vreemd en betekent niets meer dan dat je als wetenschapper 'aan de maat' bent.

Bovendien: zoveel moeite is het niet om 'de professor' wat erkenning te geven door hem/haar als laatste auteur op te voeren (ongeacht de alfabetische volgorde). Iedereen weet wat het betekent als de leider van een onderzoeksgroep als laatste auteur wordt opgevoerd.

[Reactie gewijzigd door Golodh op 12 april 2015 10:13]

Die wetenschappers zijn de klanten. Wetenschappers hebben geen eigen geld. Die werken altijd met het geld van anderen. Voor universiteiten is de overheid (en dus de belastingbetaler) de voornaamste leverancier van dat geld. Het KNAW verdeelt de pot.
Hoeveel geld er aan wetenschap wordt besteed staat vooraf vast. Als deze wetenschappers het geld krijgen dan krijgen andere wetenschappers het niet. Je gaat er dus niet meer belasting van betalen. Of dit doel het geld waard is kan ik niet beoordelen. Daar is het KNAW voor.
Alsof Nederland en het bedrijfsleven geen enorme baat hebben gehad bij de goede stand van de Nederlandse kennis-economie. :I Dit soort investeringen verdienen zichzelf normaliter dubbel en dwars terug.
Wat een geblaat weer, wetenschappers ja wat doen die nu eigenlijk. Kijk is om je heen en gebruik uw hersens een tijdje en ontdek eens wat de wetenschap allemaal doet. Of denkt u dat de weelde, technologie, artsen en hun mogelijkheden, uw voedsel en weet ik allemaal nog meer om u heen aan de bomen groeit. Zonder de wetenschap waren we nog steeds grotbewoners. Dus van mij mogen die wetenschappers die schamele 100.000.000 euro wel hebben. En natuurlijk zijn het er geen 60 die die computer gebruiken. Heel onderzoekend Nederland staat in de rij om de rekenkracht van die computer te kunnen gebruiken.
Hahaha, als wetenschappers hun onderzoek zelf moetsen betalen leefden we allemaal nog in een grot.
Natuurlijk hebben wetenschappers fondsen nodig.
Die super computers worden o.a. gebruikt om NL droog te houden en daar hebben we allemaal profijt van.

Beschouw het maar als de snelweg waarop je rijdt. Heb je ook niet zelf betaald.

[Reactie gewijzigd door EchoWhiskey op 11 april 2015 19:04]

Welnee joh, de burger is niet gediend met wetenschappelijk onderzoek naar genetica, erfelijkheid etc. Medicijnen en o ja, vooruitgang (en alles waar jij nu gebruik van maakt)op alle mogelijke gebieden ontstaat gewoon vanzelf (en dat is wel cynisch bedoeld).
Altijd leuk als mensen reageren die niets van geld, economie, markten, financiën e.d. afweten. Geld zit dieper dan een simpele rekensom die je wellicht logischerwijs in eerste instantie in je hoofd hebt zitten. "Ik geef je één euro, nu ben ik één euro armer en jij bent die rijker". Grote kans dat deze gene voortaan iets bij jou gaat kopen, wat je elk jaar 2 euro oplevert. Dus ja, je bent inderdaad één euro kwijt, maar uiteindelijk krijg je op jaarbasis er zelfs 2 voor terug.
Nu is het soms lastig om zo'n berekening te maken met bijvoorbeeld zo'n publiekelijk project, maar het kan bijvoorbeeld best inhouden dat je die 100 miljoen euro investering na 3 jaar terug hebt gekregen als belastingbetaler. Wellicht omdat je voor 10 man niet meer de WW hoeft te betalen, dat bedrijven interesse tonen en mee willen investeren of dat er simpelweg een iets ontdekt wordt wat 'verkocht' gaat worden over de jaren heen wat miljarden oplevert voor de samenleving.

Hoe dan ook wil je, vooral als Nederland zijnde, op de kaart blijven. Dat levert gewoon zoveel op, en daar draagt zo'n project als dit dus indirect aan bij.
Tja, wellicht niet netjes maar ik verwacht misschien wat meer van mensen op een site als Tweakers. Tegenwoordig komen er meer en meer reacties die zo enorm ongefundeerd zijn puur omdat deze personen, met alle respect dan, geen kennis van zaken hebben. Dat is overigens niet erg, maar ga dan geen statements maken alsof je weet waar het over gaat. Bij mening artikel over 'onderzoek' komt er altijd wel weer een reactie over: "Waarom nu weer zo'n duur onderzoek, daar komt toch niets concreets voor ons uit ". en nu weer een reactie over "De belastingbetaler, laat iemand anders dat maar betalen" gevolgd door wat (uiteraard) overdreven rekensommetjes. Kom dan eens echt met een voorbeeld waarin jij aantoont dat het verloren geld is. Maar goed, wellicht nogal offtopic om het in een nieuwsbericht reactie te gaan discussiëren.
Misschien komt het omdat wij Vlamingen niet zo'n groot ego hebben om overal gezien te willen worden.

SETI en bij uitbreiding zowat heel LOFAR. Leuk dat we weten dat we op nog geen 10.000 jaar geen enkele andere bewoonbare planeet kunnen koloniseren, laat staan er een sms'je naartoe kunnen sturen en antwoord krijgen.

jij komt trouwens met een zo mogelijk nog nuttelozer sommetje af: alsof burgers aan overheidsobligaties 100% op jaarbasis winst kunnen maken.
1; het gaat niet om ego. Het gaat erom om je als land zo op te stellen dat je indien nodig wat kunt bereiken. Dat landen naar je toe willen komen om bijvoorbeeld zaken te doen. Prima als jij niets wilt bereiken net als zoveel mensen, maar er zijn vele studenten geweest die dankzij onze goede 'handelsverdragen', connecties en wat dan ook kansen hebben gekregen die ze anders nooit hadden bereikt. Idem voor bedrijven die dankzij de 'naam' en 'status' van Nederland, inclusief de kennis, het kunnen en de verhoudingen met andere landen konden internationaliseren.

2; nee, maar we leren wel andere dingen die we wellicht wel nu kunnen gebruiken al dan niet over x-jaar. Los daarvan komt er wel wat meer uit dan je beknopte samenvatting.

3; Ik heb het niet over overheidsobligaties, maar overheidsgeld of gewoon geld wat besteed word wat uit belastinggeld komt. Indien het een investering is, betekend dat domweg dat er uiteindelijk weer geld terug komt wat dan niet meer betaald hoeft te worden door de bevolking. Denk je dat een land zelf geen winst maakt los van 'belastingen' of iets dergelijks? Dus ja, die investering van 100m kan inhouden dan er op andere vlakken het dubbele weer binnenkomt wat inhoud dat het een goede uitgave is. Dat zorgt er misschien weer voor dat er niet op allerlei zaken bezuinigd hoeft te worden wat 'ons' weer wat gaat kosten.
In feite wat ik dus wil zeggen is dat je een bepaalde kostenpost niet als directe kosten moet zien, want zo werkt dat absoluut -niet-.

En ja, Belgie.. Jullie BNP op 527.810 (miljoenen $) en Nederland op 880.394. Was je misschien maar wat 'egoistischer' zoals je zelf beweerd als reden, dan had je nu meer geld te besteden. (en ja, je loopt ook achter op bbp per hoofd bevolking wat wellicht een beter argument is)
Moeten ze dat ding in Groningen zetten , kan de NAM ook eens een simulatie laten lopen over de onttrekking van gas uit de groningse bodem en de resultaten voor de bebouwing. }>
Geloof me, die zijn al gedaan ;) Inclusief modellen hoe de bevolking reageert op een verzakking van n cm... Echter blijkt misschien ook dat die modellen dus niet helemaal lekker zijn (of dat de politiek ze vakkundig terzijde schuift, je weet maar nooit), en er dus meer onderzoek nodig is naar hoe je gaswinning goed modelleert...
Volgens mij worden die dingen gebruikt voor onderzoek naar duurzame energie, klimaatverandering, watermanagement en voor medische doeleinden.
Het is volgens mij alleen zinvol bij real-time berekeningen in een complex scenario waarbinnen elke gebeurtenis invloed heeft op alles. Voor andere zaken die gewoon "batchgewijs" uitgevoerd kunnen worden kunnen de rekenklussen gedistribueerd worden over een systeem dat uit verschillende types computers en netwerken kan bestaan. Daar is geen grid-architectuur voor nodig waarbij alle rekenkernen supersnelle verbindingen met elkaar hebben.

Bij dit verhaal heb ik het idee dat er maar een paar mensen zijn die dit echt nuttig willen en kunnen inzetten en een grote groep die alleen maar hitsig wordt van het woord supercomputer omdat dat P&R en geld betekent.
Geleuter mugen4u, de laatste keer dat ik zo'n rapport doorlas over wat er op die supercomputers liep toen vrat medische doeleinden en biologie bij elkaar 0.5% van de totale systeemtijd bij SARA.

De klimaatsoftware die liep op SARA die was ontzettend inefficient en vol bugs. Hopelijk hebben ze daar van geleerd.

Maar een kijkje nemen in de toekomst dat is belangrijk natuurlijk. Een telescoop in Nederland kunnen we niet bouwen - je ziet geen drol door een telescoop hier. Maar gegevens doorrekenen van anderen dat kunnen we wel.
Met een upgrade willen de Nederlandse wetenschappers er voor zorgen dat de supercomputer zijn positie op de ranglijst voor snelste supercomputers handhaaft. De vrees is dat de apparatuur van SURFsara eind volgend jaar al niet meer mee kan, waardoor Nederland afglijdt op de ranglijst. Dat kan er vervolgens voor zorgen dat Nederlandse wetenschappers geen rekentijd meer krijgen op buitenlandse supercomputers. Nederland zou met een 'trage' supercomputer niet gekwalificeerd genoeg meer zijn voor internationale samenwerking, zo meent Zwart.

Dit komt op mij over als een klassieke "pissing contest" wij zijn beter want wij hebben een snellere supercomputer..... :F

Het enige uitgangspunt zou moeten zijn of wat ze nu hebben krachtig genoeg is voor de vraag uit NL.
Zo niet dan moet er rekenkracht bij, zo ja dan voorlopig lekker zo laten.
Dat kan er vervolgens voor zorgen dat Nederlandse wetenschappers geen rekentijd meer krijgen op buitenlandse supercomputers. Nederland zou met een 'trage' supercomputer niet gekwalificeerd genoeg meer zijn voor internationale samenwerking, zo meent Zwart.

Nouja goed ik las het artikel ook zo, op het dikgedrukte na. Indien dat zo is, is het natuurlijk wel van belang dat ze een nieuwe supercomputer krijgen. En dan gaat het er niet meer om wie sneller is.

Stel jij krijgt geen onderzoeken meer toegewezen doordat andere het beter en sneller kunnen, dan is dat een klap voor de Nederlandse wetenschap.
Nee het is principieel verkeerd om aan een er niet toe doende prestatie van een supercomputer samenwerkings sancties te verbinden.
Er staat nl nergens in het stuk dat we in NL rekenkracht te kort komen maar wel dat het buitenland ons erop afrekend. Dat is imho echt te gek voor woorden.
Ik weet niet hoe het zit met dergelijke berekeningen maar is het niet zo dat je een bepaalde grote berekening snel kunt laten verrichten door het cluster van supercomputers? En dat de nederlandse sc dus niet constant in gebruik is door nederlandse activiteiten. Maar dat je de berekeningen dus snel uit kan laten voeren op het gehele internationale cluster maar dat als jij een enkele computer hebt het dus te lang gaat duren.

Je hebt er bijvoorbeeld niets aan om t weer voor morgen te voorspellen als je berekeningen 48 uur duren. Bij wijze van spreken dan he.

Dus dat het internationale cluster dan eisen stelt aan deelnemende landen lijkt mij dan niet meer dan logisch. Als zij geen gebruik meer kunnen maken van jou capaciteiten mag je hun capaciteit ook niet meer gebruiken.
Helaas pindakaas. Er zijn niet zoveel problemen die makkelijk in onafhankelijke deelproblemen zijn op te splitsen (embarrassingly parallel software noemen we dat).

Stel je wilt een klimaatberekening doen voor de komende 100 jaar.

Dan kun je niet 100 computers aan de slag zetten op 100 locaties die elk hun gang gaan.

Want om jaar 2 te berekenen in de toekomst heb je eerst de resultaten van jaar 1 nodig en om jaar 100 te berekenen heb je eerst de resultaten nodig van jaar 99.

Met het weer is dit nog erger. Dat is waarom het KNMI niet zover vooruit kan rekenen.

Een of ander heuveltje van 200 meter in Duitsland zorgt er voor dat een bepaald deel van de bewolking een kleine koers/hoogte afwijking krijgt cq al gedeelte van het vocht kwijt is voor het verder richting Nederland drijft - Tja en dat heuveltje zat NIET in je variabelen, dus ging die hele voorspelling de mist in.

Dan heb je 't de dag erop ook fout natuurlijk.

Kortom het ene resultaat wat je berekent heb je nodig om het volgende resultaat te berekenen.

Er is dus een sterke cohesie tussen de verschillende nodes van je supercomputer nodig.

[Reactie gewijzigd door hardwareaddict op 13 april 2015 01:21]

Jij denkt teveel op de korte termijn. De (middel-)lange termijneffecten van het inkopen van rekenkracht terwijl je zelf niets meer te bieden hebt zijn dat je als 'speler' niets meer in te brengen hebt, je bent niet meer 'onderdeel van' maar gewoon een afnemer geworden. Dat kan er onderaan de streep ook voor zorgen dat het duurder is om je rekenkracht te verkrijgen.

Zoals clifdon ook zegt. Het onderzoeken is nooit gratis, zowel bij afname als bij zelf beheren. Dan kun je beter zelf beheren waardoor er wereldwijd een grotere capaciteit ontstaat en uiteindelijk iedereen méér kan doen, en je zelf als land ook een positie inneemt ipv achter de feiten aan te lopen.

Defensiebeleid werkt hetzelfde.

[Reactie gewijzigd door Vayra op 11 april 2015 13:33]

Misschien kunnen ze gewoon betalen als afnemer?
Je zou inderdaad meer samenwerking verwachten en meerdere centrale collectief gesubsidieerde supercomps ter beschikking willen hebben....

....Klinkt dat intelligent genoeg?
Nou ik kan iedereen garanderen dat de rekencapaciteit niet toe rijkend genoeg is om iedereen te bedienen. Veel berekeningen staan gewoon op een eigen computer of zelfs privé computers dagen lang te pruttelen. Kijk maar naar die projecten zoals foldinghome waar je met de programmatje op je computer kleine stukjes op je computer kan laten berekenen. De wetenschap is daar heel erg blij mee. Met die extra reken capaciteit . Waar zelfs die niet tegen op kan.
Nee hoor. Een F1 coureur wil ook het liefst de snelste bolide uitkiezen. En een ondernemer de zuinigste of meest praktische en ga zo maar door.
Het werkt een beetje anders: je moet als land je steentje bijdragen aan rekencapaciteit om mee te mogen spelen met de grote jongens. Dat lijkt me ook wel redelijk, als je van die grote machines gebruik wil maken zal je zelf ook moeten investeren, en niet alleen goedkoop meeliften op de investeringen van andere landen. Dat wetenschappers 'niet gekwalificeerd genoeg' zouden zijn is daar gewoon een wat sjiekere formulering voor.
Dan maken die grotere jongens toch het gebruik van hun computers duurder? Kunnen die hun investeringen voor grotere gedeeltes terugverdienen, kunnen wij onze onderzoekjes alsnog blijven uitbesteden, hetzij met hogere kosten.
Dus in plaats van geld uit te geven aan onderzoek (investeren in eigen sc om internationale sc te mogen gebruiken), geef je dezelfde hoeveelheid geld uit aan onderzoek (meer betalen voor de international sc).
Briljante oplossing, maar of dat een oplossing biedt voor het te lage budget voor onderzoek aan de hand van supercomputers vraag ik me af :P

[Reactie gewijzigd door pmeter op 11 april 2015 12:57]

Kijk, ik persoonlijk vind het een strak plan om de beste sc te bouwen, ben niet voor niks EletricalEngi aan het studeren aan de TU.
Je blijft het echter moeten bekijken vanuit kosten/baten, als wij gemiddeld de helft van de tijd onze eigen sc nodig hebben en de andere helft die van iemand anders, en dat kost ons bijv 4 mil (ruwe gok) per jaar, is het nog altijd goedkoper dan 100 mil investeren in een nieuwe...

Maar, zoals Diavire ook al zegt, aan zelf een high end 100 petaflopje neerzetten hebben we ook voordelen op de lange termijn
Dit zijn investeringen in de toekomst van ons allemaal, deze manier zorgt ervoor dat belangrijk onderzoek en constante technische verbeteringen doorgevoerd worden, waar wij allemaal profijt van hebben.

Dit is trickle down, alles wat er in deze top wordt gemaakt en verbeterd vindt op een of andere manier zijn weg omlaag naar ons gewone consumenten, zij het in betere productiemethodes, snellere chips, nieuwe vindingen, wij als techniek liefhebbers gaan er allemaal door vooruit.

Hoe minder er hier aan wordt meegedaan door landen, hoe minder vooruitgang er op lange termijn wordt geboekt.

Dus laat maar lekker onze belastingcenten spenderen, het is voor een goed doel (hint: ons).
Het is de klassieke afweging tussen huren en kopen.
Als je een apparaat één keertje nodig hebt dan kun je het beter huren. Als je het iedere dag gebruikt is het meestal beter om het zelf te kopen.

Het is naief om te denken dat die wetenschappers die afweging niet hebben gemaakt. Capaciteit huren op rekenclusters is deel van de dagelijkse praktijk. Als ze voorstellen om zelf zo'n computer te kopen (of te upgraden) dan is dat omdat dit de goedkoopste manier is om de benodigde rekenkracht te krijgen.

Wanneer huren goedkoper was dan deden ze dat wel want rekenkracht heb je nooit genoeg.
"Dat kan er vervolgens voor zorgen dat Nederlandse wetenschappers geen rekentijd meer krijgen op buitenlandse supercomputers."

In je eigen quote......
Maarja, heb je daar echt 100miljoen voor nodig om op de lijst te blijven? Misschien is een veel lager bedrag ook voldoende om nog op de lijst te blijven staan........ Tja, daar willen die wetenschappers natuurlijk niet aan, want die willen natuurlijk de snelste computers...

[Reactie gewijzigd door SuperDre op 12 april 2015 06:30]

Maarja, heb je daar echt 100miljoen voor nodig om op de lijst te blijven?
100 miljoen. Dat is niks. Ze doen daar leuke dingen mee, met veel mensen, en een lange tijd. Mijn belastinggeld gaat ook naar Griekenland en die doen met 100 miljoen vrijwel niks en komen volgende maand weer vragen.

Geef het de wetenschappers maar. Kunnen ze uitrekenen hoeveel Groningen nog verzakt en wat voor weer ik in mijn vakantie in juni heb.
Die lijst is natuurlijk BS.

Hij heeft 't vast over www.top500.org en dat is een sporthal top 500.
Die is gewoon niet belangrijk die lijst want je kunt niet 1 generieke supercomputer meer bouwen die alle problemen kan berekenen.

Je zult je supercomputers met zoveel wetenschappers met verschillende behoeftes, gewoon moeten splitten in verschillende supercomputers.

Kortom op die sporthal top500 hoog staan is wishful thinking tenzij de code die hij op het oog heeft te willen gaan draaien ,d us prima op manycore hardware draaien kan.

Dat neemt niet weg dat het bouwen van nieuwe snelle supercomputers erg belangrijk is voor de Nederlandse wetenschap.
Het gaat om het principe dat er niet word gekeken naar nut / inzetbaarheid maar naar prestige.
Dat is imho een super slecht begin. Daar vervolgens ook nog eens consequenties aanhangen in de vorm van een sanctie dat wij dan niet meer mee mogen doen is te bizar voor woorden.
Lijkt me alleen maar fair dat iedereen zijn steentje bijdraagt, als andere landen niet investeren maar wel gebruik zouden willen maken van de nederlandse rekencapiciteit zouden wij dat ook niet op prijs stellen.
Bij SARA word er gewoon betaald door alles en iedereen die gebruik wil maken van de daar aanwezige rekenkracht, dus als het ergens goedkoper / sneller kan: prima !
Bij SARA word er gewoon betaald door alles en iedereen die gebruik wil maken van de daar aanwezige rekenkracht, dus als het ergens goedkoper / sneller kan: prima !
Als het dus niet kostendekkend is voor vernieuwingen en uitbreidingen dan is er iets anders aan de hand...
Probleem oorzaak gevalletje?..

Als jij achter dreigt te gaan lopen en er is geen stok tussen de deur dat je verplicht te investeren en uit te breiden.. hoeveel mensen zullen dan geld uit trekken om vooruit te gaan?

Dat ze jou verplichten om te investeren in je systemen e.d. is een goede stok tussen de deur. Anders zou het stil gaan staan..

Ik vraag me alleen af wat voor publiek belang er bij dit systeem direct is. Kan er niet geïnvesteerd worden door bedrijven? 100 miljoen belasting geld is toch zo'n ~4 euro per persoon.
Het enige uitgangspunt zou moeten zijn of wat ze nu hebben krachtig genoeg is voor de vraag uit NL.
Zo niet dan moet er rekenkracht bij, zo ja dan voorlopig lekker zo laten.
Met die mentaliteit komen we niet vooruit natuurlijk. Als je maar lang genoeg stopt met investeren in ontwikkelingen (zoals die van de supercomputer) dan valt de vraag vanuit NL vanzelf weg natuurlijk: dan lopen we zo ver achter op de rest dat technologie er überhaupt niet meer toe doet.

Of anders gezegd:
Als we technologie en wetenschap alleen uitoefenen wanneer er vraag naar is, dan kunnen we 80% van onze universiteiten, onderzoeken en Nederlandse technische doorbraken gelijk wel stoppen.

Technologische en wetenschappelijke vooruitgang ontstaan voor het overgrote deel niet, omdat er vraag naar is.

In de woorden van Henry Ford: als ik de mensen gevraagd had wat ze nodig hadden, dan hadden ze me verteld dat ze snellere paarden nodig hebben.

[Reactie gewijzigd door GeoBeo op 11 april 2015 15:31]

Rekenkracht en uitvindingen binnen de wetenschap zijn twee totaal verschillende zaken.
Het eerste is slechts een "Tool" het tweede betreft echte ontwikkeling.
Je hebt een hamer en een hamer.. maar niet elke hamer kan dezelfde klus klaren..

Je hebt een goede tool nodig om verder te kunnen ontwikkelen..
Helemaal mee eens, maar dan moeten ze bij NWO/NCF/SARA, met name die eerste 2, ook wat professioneler worden in hoe je aanbesteed.

Dat leerproces is al enorm verbeterd daar, maar ze weten nog niet erg goed hoe je aanbesteed. Elke persoon die kritiek levert wordt feitelijk gewoon eruit geflikkerd, dat is hoe de ambtelijke cultuur daar is.

Als je eerst 100 voorwaardes stelt aan wat je gaat bouwen en dan pas aanbesteed, dan krijg je dus enorm dure oplossingen in je maag gesplitst waardoor een paar nieuwe supercomputers dus weer helemaal takketraag zijn t.o.v. wat je voor 't zelfde geld kunt krijgen.

Als je mee wilt doen met de grote jongens moet je ook op dezelfde manier aanbesteden en simpelweg bereid zijn die supercomputer desnoods in een klein veldje op de grens van Nederland met Duitsland neer te zetten, dicht bij een nieuwe kolencentrale in Duitsland waar zo'n gebouwtje al stond of simpel te bouwen viel en waar de stroomprijs heel goedkoop is.

Het is te veel op Amsterdam gefocussed, terwijl er bijna geen grote energiecentrales in de buurt van Amsterdam staan die nog niet volgeboekt zijn.

Als die bereidheid tot keiharde Amerikaanse public bidding er niet is - dan kunnen ze gewoon niet meespelen met de grote jongens.
Niet mee eens.

De snelste rekenkracht ter wereld hebben is niet alleen een "tool", maar is op zichzelf ook een ontwikkeling. Er staat nergens beschreven hoe je de snelste supercomputer ter wereld bouwt. Ontwikkeling dus, waarmee technologie, wetenschap en de reputatie van Nederland gepushed wordt.

Verder heb je de tool (soms) nodig om tot de wetenschappelijke uitvindingen te komen. Ze staan dus niet los van elkaar. Als je de tool weghaalt zal de wetenschap daaronder leiden tot op zekere hoogte. Wetenschappers geven nu dus duidelijk aan dat ze er flink onder leiden en dat dit dus ten koste gaat van hun werk.

[Reactie gewijzigd door GeoBeo op 11 april 2015 12:01]

Snellere paarden heeft ie ook geleverd....
Nee. Een auto is geen paard en bovendien mis je daarmee het hele punt van die uitspraak. Namelijk; als je alleen technologie ontwikkeld waar de markt direct naar vraagt, dan blijf je stilstaan.
ik vrees dat als je begint uit te leggen waarom je een snellere wilt, dat geen enkele politieker het nog begrijpt. Dus speel je in op hun eergevoel (die gasten vinden het heerlijk om nieuwe lintjes te doorknippen en te kunnen verkondigen dat door hun inspanningen NL een supercomputer heeft die op de zoveelste plaats staat!)

Trouwens, wetenschappers willen alsmaar snellere en grotere computers, je kan dan gwn nog meer simulaties draaien en nog meer onderzoek doen. Hetzelfde verhaal met deeltjesversnellers, LHC was nog maar net volledig ontworpen en de plannen voor de volgende werden al opgesteld.
De problemen die men probeert op te lossen worden ook steeds moeilijker en hebben meer computerkracht/beam energie nodig.
Dat gaat snel zeg. Ik herinner mij nog de volgende berichten op Tweakers:
http://tweakers.net/nieuw...rcomputer-in-bedrijf.html en http://tweakers.net/nieuw...nederlandse-systemen.html

Na een analyse dus als volgt:
  • vanaf 14 juni 2013, is de Cartesius-supercomputer in gebruik
  • vanaf november 2014, de allereerste top 500 vermelding voor de Cartesius
  • 11 april 2015, wordt het huidige nieuws bekend
  • "De vrees is dat de apparatuur van SURFsara eind volgend jaar al niet meer mee kan, waardoor Nederland afglijdt op de ranglijst"
  • Eind volgend jaar is december 2016?
Na nog geen twee jaar blijkt de Cartesius-supercomputer dus alweer binnen 3.5 jaar gedateerd te zijn. Het lijkt erop dat er een upgrade cycle vereist is om de 3 jaar, volgens hun eigen bewoordingen.
Cartesius is niet in een keer gebouwd, maar in meerdere fasen. In de eerste fase zat vooral veel ondersteunende infra, opvolgende fasen voegden storage capaciteit en diverse typen rekenkracht toe (zowel CPU als GPU eilanden) Werd tijdens de opening in de presentaties ook nadruk op gelegd.

Wat top500 betreft : dat zegt vrij weinig. Er zijn veel clusters die wel in de top500 zouden horen op basis van LinPack score maar waarvan men ze liever niet publiek heeft. En er zijn veel toepassing-specifieke clusters die veel krachtiger zijn in alles behalve Linpack dan de meeste top500 entries maar die er dus niet in staan.

En ja, een HPC cluster is maar circa 2-3 jaar 'efficient' te gebruiken, daarna zijn nieuwere generaties hardware zoveel efficienter (meer flops/watt enzo) dat vervanging economisch interessant wordt.
Voornamelijk de zin "(...), waardoor Nederland afglijdt op de ranglijst" lijkt te suggereren dat het allemaal om behoud van een (of de huidige) positie in de ranglijst van de top 500 gaat.

Anders zou het niet zoveel moeten uitmaken of Cartesius wel of niet in de top 500 staat lijkt mij. De upgrades zouden daar los van moeten staan met uw beredenering. De tekst wijst op het tegendeel.
Yup, daar komt het wel op neer, met dank aan de Wet van Moore. Ieder 18 maanden worden computers dubbel zo snel. Een supercomputer die drie jaar later wordt gebouwd is dus vier keer zo snel. Daarmee zal je nooit lang bovenaan zo'n lijst kunnen staan zonder te blijven investeren.
Hou er ook rekening mee dat dergelijke projecten lang duren voordat er hardware in gebruik genomen kan worden. Men is nu bezig met de fondsen op orde krijgen, daarna zal men moeten plannen en bouwen waarna het geheel getest moet worden. Dan ben je snel een aantal jaar verder.
Laten die wetenschappers maar zelf eens een supercomputer ontwerpen! 100 miljoen is namelijk gewoon veel te veel. Rond 2002 heb ik een aantal zeer grote Linux clusters geleverd aan bedrijven en zo moeilijk is het nu ook weer niet.
De winnaars in de it industrie (Google, twitter, Apple, facebook) maken allemaal hun eigen computers met daarbij de software.
Ik weet dat er genoeg slimme koppen rondlopen bij diverse universiteiten om zoiets te bouwen. Vervolgens kunnen dat ding dan bij Sara neerzetten.
Dat lijkt me niet erg effectief. Als je van klimaat verstand hebt, ben je nog geen systeemontwerper.
Dat klopt, echter zijn er genoeg faculteiten waar ze die kennis wel hebben. Heb zelf gewerkt met onderzoekers van de VU/UVA die echt wel wisten waar ze het over hadden. Ook bij de technische universiteiten is er genoeg kennis beschikbaar.
Al de universiteiten de handen in elkaar steken en een bid book maken met de eisen (en dan met open haalbare eisen, niet geschreven op 1 of andere (huis) leverancier), dan kan in een samenwerking met andere faculteiten heus wel iets mooi ontstaan.
Professor Zwart zal eens rond moeten kijken welke technische IT-faculteiten hieraan mee kunnen kunnen werken. Hij zou bijvoorbeeld kunnen beginnen met professor Henri Bal van de VU, welke in het verleden bewezen heeft om met goedkope techniek nieuwe functionaliteiten uit te werken.
Dan wordt namelijk het geld dubbel goed besteed (en voor computer onderzoek) en daarna voor het gebruik.
Zo'n google / microsoft datacentertje kost echter wel 2 miljard dollar, dus als je dan 100 miljoen euro al veel vindt???????

De duurste is altijd in Japan, omdat die zelf de eigen hardware, ja zelfs processoren, willen ontwerpen. Die kost dus rond de miljard euro omgerekend.

Als we dat projecteren op Nederland. Japan 100 miljoen inwoners, Nederland 17 miljoen.

Zeg factor 6 verschil bijna: 1 miljard / 6 = 166 miljoen euro mag hij dan kosten, of niet?

p.s. een top10 supercomputer bij SARA neerzetten is totale onzin. Die lokatie is daar niet geschikt voor. Omgeving Amsterdam is gewoon te duur.

Zo'n supercomputer die megasneller is gaat zeker rond de 20 megawatt vreten. Dat zet je dus niet neer bij SARA. Die energieprijs die ze betalen daar is vast te veel per megawattuur.

Je zoekt dan dus gewoon een goedkopere locatie op.

[Reactie gewijzigd door hardwareaddict op 13 april 2015 01:38]

Hm, hoe ver mag je zakken in die ranglijst voor je niet meer 'gekwalificeerd genoeg' bent?
Volgens deze lijst staat Nederland op de 45ste plaats en Belgïe op de 300ste...
Nederland wilt gewoon in de top 10 zitten, da's alles.
top10 is niet realistisch.

Verder concurreer je dan met je hele budget met organisaties die toevallig kunnen rekenen op manycores, terwijl toch 50% van je rekencapaciteit en DUS budget geinvesteerd dient te worden in cpu cores en RAM.

Dus het wordt toch al eerst het budget in 2en delen en dan van het overgebleven budget dus iets bouwen wat manycores heeft en mee kan doen in de sporthal top 500.

Die sporthal top 500 is een lachwekkende benchmark overigens. ik zou ueberhaupt niet maanden rekentijd van zo'n supercomputer willen weggeven om die benchmark te draaien. Dat is echt ZONDE van de rekentijd.

De enige benchmarks die je wilt draaien zijn codes die je ZELF hebt. En dan benchen of de opgeleverde supercomputer snel genoeg is voor de purpose.
Deze groep van 60 mensen zouden eens wat meer transparant moeten worden met wat ze allemaal doen met die rekenkracht en uit hun ivoren torentje moeten komen alvorens ze voor 100 miljoen euro's vragen in een tijd van crisis.

Als je de belastingbetaler niet kan uitleggen wat ze met die vroegere investeringen hebben bewerkstelligd dan ben ik er ook niet voor om hoog op een lijst van belangrijkheid te klimmen.

Ik heb de snelste auto in Nederland. Heb ik wel zelf betaald om op te scheppen want je kunt die kracht in Nederland niet op de weg zetten zonder illegaal bezig te zijn. Ik denk niet dat dit de snelste auto ter wereld is en verwacht ook niet dat de belastingbetaler me de volgende nog snellere auto koopt.
Deze groep van 60 mensen zouden eens wat meer transparant moeten worden met wat ze allemaal doen met die rekenkracht
Het is geen geheim hoor. Op hun website kun je gewoon lijsten zien met projecten waar ze aan werken.

Heb je geprobeerd uit te zoeken wat ze met die supercomputers doen of vind je dat ze het persoonlijk bij jou thuis moeten komen uitleggen?
Volgens mij is dat wel geheim. Waar kan ik van elk willekeurig proces wat op die supercomputers draait de documentatie en de broncode zien? Misschien kunnen die "wetenschappers" wel helemaal niet zo goed programmeren.

Ik zie geen enkele reden om belasting te betalen voor iets waarvan ik niet de vruchten kan plukken.

Een supercomputer moet gewoon geld kosten voor de afdeling die het gebruikt en dan niet in de vorm van een fixed fee; er moet een prikkel zijn om goede programma's te schrijven en er moet een beloning zijn voor mensen om die programma's te optimaliseren. Alles is er nu op gericht dat dit niet gebeurt.

Zie trouwens ook: http://nl.wikipedia.org/wiki/Tragedie_van_de_meent
Volgens mij is dat wel geheim. Waar kan ik van elk willekeurig proces wat op die supercomputers draait de documentatie en de broncode zien? Misschien kunnen die "wetenschappers" wel helemaal niet zo goed programmeren.
Ik vind dat je nogal een grote sprong maakt van "uitleggen wat ze doen" naar "alle broncode en documentatie". Ik ben op zich wel voor de publicatie van alle broncode (GPL fanboy hier) maar daarmee leg je de lat wel erg hoog. Die eis geldt ook niet voor andere wetenschappers. Ik ben bang dat het ook niet snel gaat gebeuren want de concurrentie in de wetenschap is moordend. Nu al gebeurt het regelmatig dat onderzoeksresultaten worden gestolen en gepubliceerd door een ander team.
Zelf zou ik graag zien dat na publicatie van het onderzoek alle broncode wordt vrijgegeven zodat het onderzoek herhaalbaar is. Heel wat wetenschappers doen dat al maar het is nog niet verplicht.
Ik zie geen enkele reden om belasting te betalen voor iets waarvan ik niet de vruchten kan plukken.
Je hebt nog geen kanker dus je wil ook niet betalen voor onderzoek naar kanker?
Dan kun je al het fundamentele onderzoek wel stop zetten. Dit soort onderzoek wordt juist door overheden betaald omdat bedrijven het niet doen. Bedrijven willen op korte termijn winst maken. Als er wel vruchten te plukken zijn dat betaalt het bedrijfsleven wel.
Overheden kunnen investeren in onderzoek die niet op korte-termijn winst zijn gericht. Projecten die te groot of te duur zijn voor het bedrijfsleven.
Een supercomputer moet gewoon geld kosten voor de afdeling die het gebruikt en dan niet in de vorm van een fixed fee; er moet een prikkel zijn om goede programma's te schrijven en er moet een beloning zijn voor mensen om die programma's te optimaliseren. Alles is er nu op gericht dat dit niet gebeurt.
Het is niet gratis en er is strenge controle en een enorme druk om te presteren op de mensen die hier gebruik van maken.
Over die eis. Als ik -- of in dit geval wij -- het financier dan wil ik ook alle intellectuele rechten ontvangen. Als ik dit niet ontvang, steelt de wetenschapper effectief van mij. In een bedrijf wordt dit niet geaccepteerd, waarom zou ik het dan wel accepteren? Dat dit dus nu voor veel "wetenschappers" (ik zou dit woord graag willen gebruiken voor mensen die zonder financiële motieven de mensheid verder willen brengen) niet geldt, vind ik eerder een gebrek bij mijn mede-Nederlanders.

Er is een simpele reden waarom ik wel geld zou willen stoppen in kanker: P(ik krijg kanker) >> 0 en er zijn heel veel mensen waarvoor dit geldt. Het is dus onvermijdelijk dat er veel vraag zal zijn/is naar een dergelijk product.

Ik zou het echter wel liever zo zien dat ik zelf kan kiezen op welke kankerprojecten ik mijn geld zet. Dus, in plaats van de situatie nu dat ik maar moet hopen dat het geld goed terecht komt, zou ik liever zelf een directe donatie doen aan een onderzoeksgroep.

Persoonlijk geloof ik overigens *niet* dat KWF een efficiënt pad naar de oplossing van kanker zal vinden. Er is juist alle reden toe (vanuit de organisatie gezien) om kanker *nooit* op te lossen, of zo langzaam mogelijk, omdat ze dan tenminste kunnen blijven bestaan.

Als je kijkt naar wie hun geld gaat, dan zie je dat het doel nooit is om één oplossing voor kanker te vinden. Het gaan allemaal om onderzoek in speciale gevallen. Aangezien het aantal "speciale gevallen" astronomisch is, past dit perfect bij de doelstelling van de organisatie KWF: eeuwig blijven bestaan. Dus, ze kunnen in de media doen alsof ze daadwerkelijk een einde willen maken aan kanker, maar als je ziet hoe ze kun investeringen alloceren, kun je aflezen dat ze dit niet daadwerkelijk willen.

Daarbij geloof ik overigens ook dat je best een onderzoeksysteem zou kunnen maken op kapitalistische principes waardoor ook projecten met een lange termijn payoff nog steeds via de markt financiële ondersteuning kunnen krijgen.

Nu is het zo dat de meest kansrijke projecten via spinoffs voor een habbekrats in de markt gezet worden (vergeleken met de totale investering die daar al in gedaan zijn door het publiek) waardoor ze alsnog het volle pond kunnen betalen voor het eindproduct.

Uiteindelijk is het ook zo dat door bepaalde dingen te classificeren als "niet de moeite waard voor het bedrijfsleven", je bepaalde marktkrachten tegenwerkt. Het kan zijn dat onderzoek duur is, omdat er veel handmatig gedaan moet worden. Als dat werk gewoon maar betaalt wordt door de overheid (en dat is iets wat een bedrijf nooit zou doen), dan houdt dat innovatie in het automatiseren (en dus goedkoper maken van die taak) tegen.

Ik heb net de code bekeken van het eerder vermeldde sterrenonderzoeksprobleem en dergelijke slechte code zou *nooit* bij ons in productie draaien. Dus met die "druk" valt het dan denk ik wel mee. Als ik in die raad zou zitten die hierover gaat, zou ik ze willen adviseren om alles wat intelligenter aan te pakken en dus voordat er over zou worden gegaan tot een grote investering eerst even de zaakjes wat beter te organiseren en wat betere programmeurs aan te trekken. Die kosten ook geld, maar geen 100 miljoen.

Meer in het algemeen denk ik wel dat supercomputers heel nuttig kunnen zijn, maar dan moet er wel een goede motivatie voor zijn. Als ik kan kiezen tussen een aantal Melkert banen of een nieuwe supercomputer, dan kies ik wel voor het laatste.
Probleem bij die 500k stichtingen in Nederland is dat ze altijd eerst de dure salarissen van hun bestuur moeten bekostigen voor er ueberhaupt geld naar 't goede doel gaat.

Dat is gelukkig dus andere discussie dan die over supercomputers.

Een belangrijke vraag van mij zou wel zijn of in de commissies die over die supercomputers gaan nog steeds mensen zitten die enkel in die commissie zitten omdat de commissie an sich een betalende commissie is, terwijl het gros de ballen verstand heeft van rekenen op supercomputers.

Ik herinner me nog dat ik stond voor de oude supercomputer bij SARA en dat de directeur NWO/NCF naast me stond en zei: "ze hadden ons beloofd dat we de processoren van deze dure supercomputer gewoon zouden kunnen upgraden naar nieuwe processoren - dan had deze computer nog jarenlang kunnen meegaan, terwijl we 'm nu gaan opbreken. Zonde"

Waarop ik vroeg: "Je hebt die belofte ook op papier vast laten leggen?"

Toen was het heel stil.

Kijk, die supercomputers bouwen is iets redelijks recents. De overheid heeft daar nog niet zoveel ervaring mee. Maar men leert langzaam maar zeker bij.

Dat gaat echter met ambtelijke snelheid.

De software is altijd het grote probleem en is dat ook altijd geweest. Het snelste nu zijn de manycores en dat gaat voorlopig niet veranderen, terwijl ze steeds meer stroom vreten.

Dus de hoevelheid stroom die je nodig hebt neemt toe. Dus dat is de nieuwe uitdaging. Dan kun je redelijk goedkoop een megasupercomputer bouwen hoor. Maar dat vereist weer heel wat slagen.

De software is het grote probleem waar ook geen simpele oplossing voor bestaat - dat is het grote probleem. Alleen vriendjes zouden die opdracht krijgen. En de beste programmeurs zijn vaak niet goede vriendjes met wie er feitelijk zit bij SARA.

Sterker nog, tegenover hen zit een heel andere groep met hun eigen clustertje. Dus die willen niet eens DRAAIEN op hardware van SARA zelf.

Die willen hun EIGEN clustertje enkel voor HUN departement.

Die staat letterlijk op 100 meter afstand van SARA dus, daar het per cpunode uur gewoon te duur is wat SARA doet.

Dat aanpakken vereist heel wat veranderingen.

Nee dan USA. Je mag daar niet eens toegang op de campussupercomputer vragen als je MINDER dan 5000 cores vreet per batchjob.

Werkt je software daar dan niet voor? Pech gehad!

Dat zijn dus machines in de top van die top500.

Dat vereist simpelweg wat denkslagen en veranderingen bij al die organisaties.

Neemt echter niet weg dat het belangrijk is om nieuwe hardware te bouwen en ze ook de tijd te geven die denkslag te maken.

De software is dan chapter B. Helaas maar waar.
Je betaalt bij SARA gewoon per CPU uur, gebaseerd op wallclock time van je job.
Dus inefficient werken kost meer geld, hoeveel simpeler wil je het?
Ach we weten in ieder geval 2 lobby clubs, die dit project steunen.
Namelijk Avid en Brein, LOL
Waarom crisis erbij halen? Het is pas crisis als er niets meer is, en je in de Maslov piramide afglijdt.

Stilstand is achteruitgang, en dat word overduidelijk bewezen, als je niet opwaardeert, bijsteld en aanpast (periodieke itteraties) dan sta je stil.
Om dan weer op niveau te komen heb je veel geld nodig. De cycli om te vernieuwen met voldoende rekenkracht lijken erg kort. Algoritmen ed worden steeds complexer om nog nauwkeuriger uitkomsten te berekenen. En dan vraag je je af wil je afhankelijk zijn van rekenkracht uit het buitenland, waar je dan een prijs voor betaald of niet.

Dit heeft niets met crisis of wat dan ook te doen, dit heeft met wetenschappelijk op niveau werken. Beter gezegd dit is een deel van onze toekomst.
100 miljoen klinkt als veel, maar op een rijksbegroting van 250 miljard vind je het niet terug.

Moeilijk te zeggen of dit een zinnige investering is. Maar de kans dat het gaat renderen is in ieder geval groter dan de 30 miljard euro belastinggeld die we hebben uitgegeven om een bank te redden. Een bank die volgens de minister van Financiën snel naar de beurs moet en dan 15 miljard euro gaat opleveren.

Bij de snelle beursgang van ABN AMRO gooien we dankzij twee PvdA-ministers Bos en Dijsselbloem pak 'm beet 150 supercomputers weg....

Om alles even in perspectief te zien.
Dan heb ik er nog wel eentje;

18 miljard subsidie om goed werkende windmolens te vervangen :) Dan zijn pak 'm beet nog eens een 150 supercomputers....
Ik hoop toch echt serieus dat de overheid hier geen geld in stopt.
Op dit moment kunnen ze beter banen creëren van deze mogelijke toegezegde subsidie's voor de werklozen.
Zou van de zotte zijn als dit soort projecten voorrang zou krijgen.

[Reactie gewijzigd door Cosmo_nl op 11 april 2015 13:22]

Daarom is het maar goed dat jij en ik hier niet over beslissen. Het directe nut van dit soort investeringen is moeilijk uit te leggen aan het ongeïnformeerde volk. De schade die je oploopt als je dit soort dingen laat verslonzen is des te groter.

Dit zijn juíst bestedingen die nodig zijn om banen te creëren, alleen niet zo duidelijk aanwijsbaar als geld besteed aan een Melkert-baan.
zoals dit ?
nieuws: SURF introduceert cloudopslagdienst voor universiteiten en hogescholen

situatie nu :
afstand sterretje X wordt berekend in 2 seconden.

Gewenste situatie :
afstand sterretje X wordt berekend in 1 seconden.

Ik zie niet in hoe dit zo belangrijker kan zijn, dan bijvoorbeeld, de nederlandse bevolking.

Jij ?

[Reactie gewijzigd door martin.M op 11 april 2015 15:07]

Je genoemde SURF voorbeeld vind ik nou juist een discutabele. SURF is een samenwerkingsverband om diensten voor het onderwijs te bieden die niet vrij in de markt verkrijgbaar zijn en voor een enkele onderwijsinstelling te duur zouden zijn om te ontwikkelen.

Cloudopslag is nou juist een dienst die wél vrij beschikbaar is in de markt. (De enige reden dat SURF het toch aanbiedt is volgens mij het Patriot-act gebeuren. Ze garanderen opslag op Nederlandse servers.)

Back on topic: Ik zit niet echt in de onderzoekswereld, maar er zijn een hoop investeringen die zich indirect uitbetalen. Je kunt niet alles plat slaan tot een simpel oorzaak en gevolg.

Maar ik snap het wantrouwen wel, want dezelfde argumenten golden ook voor het meedoen aan de JSF en om nou te zeggen dat we daar veel mee opgeschoten zijn...
Nederland maakt een hoop onderdelen voor de JSF en heeft daardoor veel banen in Nederland opgeleverd bijvoorbeeld bij Fokker en nog 26 bedrijfen die al orders hebben ontvangen :P

[Reactie gewijzigd door Cosmo_nl op 11 april 2015 20:57]

Onder andere, maar wat probeer je uit te leggen met deze link?
Ow heb ik het verkeerd dat dat met behulp van een super computer ging ?
Ja, dat heb je redelijk verkeerd. Je gaat een supercomputer niet gebruiken om storage neer te zetten.

Een HPC systeem zoals o.a. een supercomputer zet je in voor wetenschappelijk onderzoek. Dat kan een astronomische berekening zijn, het simuleren van het menselijk lichaam voor onderzoek naar bepaalde medicijnen, het berekenen van hoe dijkdoorbraken voorkomen kunnen worden, of er deeltjes bestaan wat alle andere deeltjes massa geven of hoe kunnen we machines zelf lerend maken.
Ik vond het al raar, maar dacht dat het om de zelfde SURFSARA ging
SURF en SURFsara doen meer.

Uiteindelijk is het wel leuk dat die storage in Nederland staat, het is natuurlijk een beetje dom om al dat onderzoek te doen en vervolgens in een land als Amerika op een dropbox neer te gooien waar de NSA al jouw jarenlang werk kan vorderen vanwege een economisch belang.
dat laatste, heb ere weinig vertrouwen in dat dit niet gebeurt, welliswaar met andere systemen, maar toch.
Maar inderdaad, blif ik er sceptisch over waarom er alweer zoveel miljoen geinvesteerd moet worden.

Als je zegt
De berekeing met een nieuw systeem kan met een factor 10 sneller berekend worden, dan zeg ik, da's het overwegen waard, maar in deze huidige crisis, is dat totaal niet verantwoord.

Wat dat betreft zijn er wel meerdere landen verkeerd bezig.
De regeringen zijn volgens de inwoners van welvarendste landen van de wereld al 65 jaar lang niet goed bezig. Moet je nagaan. Hoe het er aan toe gaat in de wat minder welvarende landen en wat die van hun bestuurders denken.
Hangt ervan af,
je kan arm zijn en aan je medemens denken, of je kan rijk zijn en alleen aan geld denken.
Ja dat is nu precies wat hier wel gebeurd. Sociale zekerheid heet dat, en in veel andere landen gebeurt dat niet. Daar bereiken de land bestuurders vooral zich zelf. Wordt eens wakker en wees dankbaar dat u hier leeft en wij wel een capabele en redelijke land bestuur hebben en houdt a.u.b is op met zuren over onze regering.
Dat is dan ook de reden waarom jij niet beslist maar iemand anders. Het geld dat wordt besteed levert indirect ook banen op alleen op lange termijn,
Nee je hebt gelijk, nu wordt het besloten door mensen die pissen op jouw gezondheid ;)

Edit :
Had je gehoopt op een baantje dan ?
Ben jij even naief, dat je denkt dat jij dat krijgt.
Waarschijnlijk worden geleerden ingeschakeld, zonder Nederlands paspoort, LOL

[Reactie gewijzigd door martin.M op 11 april 2015 18:07]

???? Gaat alles nog goed met je ? Ik waardeer het meer als mensen een normale bijdragen leveren aan het forum. Dit soort uitlatingen resulteert tot niets.
Dat is dan ook de reden waarom jij niet beslist maar iemand anders.

LOL, you made my day :)
Het geld dat wordt besteed levert indirect ook banen op alleen op lange termijn,
Hoezo. De snellere computer komt in plaats van de ouwe en de banen blijven dezelfde, vermoed ik zo. Het lijkt me sterk dat een snellere computer ineens ook meer medewerkers vereist.
Wat leverd dit dan aan banen op zonder de monteurs meegerekent ?
Dit lijkt mij een beetje te veel op ; honderden mensen ontslaan om jezelf een dikke vette bonus te kunnen geven.
Door middel van deze computer kan ik in ieder geval niet nu ineens en in de toekomst meer mensen in dienst nemen.
Zou wat zijn 100 Rekenpatsers bouwen en de werkloosheid is opgelost :+
Mijn oude 386 die in de vitrinekast staat kan ook bereken dat dit niet klopt
Kom op beetje realistisch, of ben je soms de wetenschapper die hem wilt hebben 8)7 .
Leg uit en dan hebbie mijn zege
Ok laat ons dan even zien hoe jij op je 386 dan even voor rekent dat het geen banen oplevert. 😁
Hoe levert innovatie in technologie banen op. Mmmmm.. Ja hoe kan men dat in de paar regels uitleggen. Als je iets kan wat een ander niet kan dan levert dat werk op. Als je alleen iets kan wat een ander jaren geleden al niet meer nodig had, levert dat duidelijk geen werk op.
Als je op onderzoeksgebied mee wil draaien met de rest van de wereld is een supercomputer nodig voor het draaien van simulaties en dus zal er geld beschikbaar moeten komen om deze supercomputer een soort van up-to-date te houden.
Geld voor dit soort zaken zou net zo geregeld moeten worden als voor de deltawerken, die elk jaar een miljard? krijg zonder politiek geneuzel, gewoon omdat het nodig is.

Als de overheid zijn eigen ICT eens goed zou doen dan hadden we nog een paar miljard over en kon die 100 miljoen wel bekostigd worden. :)
Als de overheid zijn eigen ICT eens goed zou doen dan hadden we nog een paar miljard over en kon die 100 miljoen wel bekostigd worden. :)
Duh! Wanneer de overheid zijn zaken op orde zou hebben, zou er ook geen staatsschuld zijn. Alleen al de rente over deze schulden zou al meer dan genoeg zijn om een hele berg supercomputers aan te schaffen.

De realiteit is helaas anders: Het verbranden van andermans geld (belastinggeld) is iets waar ambtenaren een hele dik plassertje van krijgen....
Die staatsschuld, die is dan weer grotendeels in handen van pensioenfondsen. Zo wordt indirect de pensioenen betaalt, zo erg is het dus ook weer niet, anders zou ons pensioenstelsel weer duurder zijn (we investeren via pensioenfondsen eigenlijk in onze eigen toekomst en renderen daar dan hopelijk tijdens onze oude dag op)

Vraag is wel of een nog zwaardere supercomputer nou daadwerkelijk rendement (economisch, wetenschappelijk of maatschappelijk) gaat opleveren. In ieder geval zijn er slechtere investeringen te bedenken dan een supercomputer die heel veel toffe fundamentele en toegepaste wetenschap mogelijk/makkelijker maakt.
Die staatsschuld, die is dan weer grotendeels in handen van pensioenfondsen. Zo wordt indirect de pensioenen betaalt, zo erg is het dus ook weer niet, anders zou ons pensioenstelsel weer duurder zijn (we investeren via pensioenfondsen eigenlijk in onze eigen toekomst en renderen daar dan hopelijk tijdens onze oude dag op)
Ik hoop dat je een grapje maakt, op deze manier kun je namelijk ook criminaliteit recht praten. Steel een schilderij uit een museum, verkoop deze op de zwarte markt en geef de opbrengst uit: Goed voor de economie! Dus morgen maar met z'n allen de musea plunderen? }:O

Diefstal is diefstal, vrij simpel. En wanbeleid van de overheid zit hier héél dicht tegenaan, zie bijvoorbeeld ICT fraude in Nederland. Of de bouwfraude. Of de belastingfraude met toeslagen, teruggave, etc. etc. Wanbeleid wat fraude in de hand werkt.
Geen enkel grapje.

Je leest mijn post niet zo goed en haalt er heel ongerelateerde dingen bij. Waar jij het over hebt staat overigens bekend als de 'parabel van de gebroken ruit'.

Waar ik het over heb is puur dat staatsschuld niet per se erg is. Niet de bedoeling om dat aan waardeloze zaken uit te geven (dat is de waardevernietiging), maar de schuld op zich is niet kwalijk. En dat lijk jij wel te zeggen. Waarom is het niet schadelijk? Om dezelfde reden dat een hypotheek niet schadelijk is als je in een huis wilt wonen, of om een bedrijfslening af te sluiten als je een bedrijf wilt starten. Je hebt kapitaal nodig om waarde te creeeren!

Maar goed, dat is vanuit het perspectief van de leningnemer. Het grappige aan staatsschuld is dat wij als burger eigenlijk leningverstrekker zijn. Dat doen we door middel van de pensioenfondsen. De overheid betaalt zijn schulden aan de pensioenfondsen netjes terug aan de pensioenfondsen en daar geniet je op je oude dag van.

Nog aparter is dat we, als het goed is, als burger ook nog van die overheidsinvestering profiteren. Jij hebt gelijk dat als het een waninvestering is, dat het dan niet goed gaat. Maar gelukkig creeert de overheid in merendeel waarde (door middel van politie, wegen, rechtspraak, wetenschap, gezondheidszorg, scholing, etc.) voor ons burgers.

Dan heb je dus het gekke: je leent geld aan de overheid, die het weer investeert in jezelf en de resultaten van die investering krijg je ook weer terug, via pensioenfonds? Is het magie? Vestzak, broekzak?!

Nee, dat is nou onze economie. Het hele spelletje met rondpompen van geld tussen burger, overheid, bedrijven en pensioenfondsen draait om 1 ding: efficient alloceren van kapitaal. Dat is het doel van ons financieel stelsel. We hebben maar een beperkte hoeveelheid geld. Om dat zo goed mogelijk te verdelen hebben we in een kapitalistisch samenleving dit systeem in leven geroepen.

Is dat fout? Nou er zitten wel nadelen aan. Maar moet je eens gaan kijken hoe goed het ging/gaat in niet-kapitalistische landen.

Kortom: ik nuanceer wat jij zegt m.b.t. staatsschuld. Ik ben het ook met je eens dat je geld niet aan zinloze zaken moet uitgeven. Dat is namelijk zeer inefficient alloceren van kapitaal. Precies het omgekeerde van wat we willen. Maar het is niet zo zwart/wit als jij lijkt te denken.
Staatsschuld heeft niet direct met kapitalisme te maken. Uitgaven aan politie e.d. zijn geen investeringen die zichzelf terugverdienen; er moet steeds geld naar toe. Het is noodzakelijke overhead.

De term "investering" wordt dezer dagen in de politiek te pas en te onpas gebruikt en is sterk aan inflatie onderhevig.
itgaven aan politie e.d. zijn geen investeringen die zichzelf terugverdienen
Kan ik het lastiger hartgrondiger mee oneens zijn. Moet je de politie maar eens afschaffen en zien wat dat doet met economische groei.

Het is geen 'profit centre' (alhoewel je met de hoogtes van boetes daar soms aan gaat twijfelen), maar goede inzet van politie en justitie verdient zichzelf dubbel en dwars terug.

Ben het overigens wel met je eens dat het niet alleen een economische waarde heeft (of zou moeten hebben, of zelfs maar dat je het primair zo moet beschouwen). We investeren vooral in politie omdat het de kwaliteit van ons leven verhoogd en dat het veel prettiger is om in een land te leven waar je veilig over straat kan. Maar dat is juist _ook_ waarde. Het is wat lastiger om dat in kille cijfers uit te drukken, maar het is zeker waarde.

Ik heb er in ieder geval geen slecht gevoel over dat daar geld naar heen gaat. Sterker nog, ik zou pleiten om de salarissen daar eens flink te verhogen. Wil ik best wat meer belasting voor betalen. Moet je nagaan, we kunnen er ws. zelfs een geldbedrag op plakken, hoeveel het ons waard is, als je daar onderzoek naar gaat doen!
Precies wat ik zeg: "investeren" is aan inflatie onderhevig.

Natuurlijk is politie belangrijk. En wegen, en internet, leger, gezondheidszorg, riolering, waterleiding, stoepen, fietspaden, huisartsen, zebrapaden etc.

Maar het blijven gewoon onkosten die gemaakt moeten worden. Geen investeringen. Investeringen zijn in dit verband "newspeak".
Onkosten zou ik het zeker niet noemen. Het geld dat je uitgeeft komt direct ten goede aan de kerntaken van een overheid en interessant genoeg, ook direct ten goede aan mij als burger. Onkosten zijn "bijkomende" kosten.

Maar goed, je mag het noemen zoals je wilt, taalspelletjes kun je eeuwig voeren (houd ik ook wel van hoor :-) ). Mijn oorspronkelijke punt blijft staan: het is geen "weggegooid" geld, het gaat om afwegingen van efficient alloceren, maar zelfs inefficiente allocatie betekent niet dat het verdwijnt.

Kortom, het is niet zo zwart/wit als cariolive23 stelt en ook wanneer de overheid geen geld verspilt, zouden we nog steeds een zeer gezonde staatsschuld hebben. Gelukkig maar.
Het is zeker geen taalspel. Dat hebben politici er van gemaakt.
Zie voor de werkelijke betekenis van investeren (voordat politici het gingen misbruiken voor hun eigen politieke doelen):
http://nl.m.wikipedia.org/wiki/Investering
http://www.encyclo.nl/begrip/investeren

Een ander woord dat politici m.i. versjitterd hebben is de term "bezuinigen". Politici doen immers het omgekeerde. Zij geven elk jaar meer uit, en verhogen de belastingen.
Ook burgers bezuinigen niet. Zij geven steeds meer uit aan belastingen.

"Bezuinigen" betekent dus: meer uitgeven. Ik kan dit niet anders uitleggen dan "newspeak".
In de American Scientist van maart/april 2015 staat een artikel over het werk van Simon Portegies Zwart (de aanvoerder van de petitie). Hierin wordt zijn onderzoek naar de wisselwerking van zwaartekracht in het melkwegstelsel beschreven. Doel is van een (realistische) 100 miljard sterren de (zwaartekracht) interactie te simuleren over de loop van ruim 5½ miljard jaar. Dat is een vreselijk complexe klus omdat elke ster dus interactie vertoont met 99999999999 andere sterren en elke volgende berekening afhankelijk is van de vorige (als alle sterren van plaats veranderen veranderen de onderlinge voorwaarden mee).

Het artikel geeft niet letterlijk een oorzaak maar alle huidige berekeningen zijn niet hier gedaan. In plaats daarvan worden supercomputers in Lugano (Zwitserland, 51 miljard elementen) en Oak Ridge in Tennessee (experiment met 242 miljard elementen, waarin ook zwarte matrie is opgenomen) gebruikt. Waarbij die laatste overigens een week nodig zou hebben voor de volledige berekening, maar door gebrek aan financiering het bij een test gebleven is.

In samenwerkingsverbanden tussen onderzoeksgroepen kan je niet eeuwig leunen op de supercomputer van de ander. Als die van jou niet geschikt is voor die klus (bijvoorbeeld een andere configuratie die meer geschikt is voor andere taken) dan kan je altijd nog rekentijd ruilen met een andere onderzoeksgroep.
nieuws: SURF introduceert cloudopslagdienst voor universiteiten en hogescholen

Ik zie niet in waarom er 100 miljoen besteedt moet worden zodat studenten hun spul Razendsnel in de cloud kunnen hangen
Dat is een ander project en het geld komt uit een ander potje. Surfdrive heeft echt geen 100 miljoen gekost.

Laat je niet misleiden door de naam SURF. SURF is een overkoepelende organisatie die allerlei verschillende groepen en projecten aanstuurt. Dat beide projecten SURF in de naam hebben betekent nog niet dat er een direct verband is.
Had het al gezien, thx voor de info ;)
In de American Scientist van maart/april 2015 staat een artikel over het werk van Simon Portegies Zwart (de aanvoerder van de petitie). Hierin wordt zijn onderzoek naar de wisselwerking van zwaartekracht in het melkwegstelsel beschreven. Doel is van een (realistische) 100 miljard sterren de (zwaartekracht) interactie te simuleren over de loop van ruim 5½ miljard jaar.
En daar wordt de weersvoorspelling beter van en het komt het klimaat ten goede. Mooi.
Klinkt imho niet direct als iets waar wij ooit iets aan zullen hebben.
Dan zie ik liever geld naar iets meer praktisch gaan.
Ik denk dat 'niet direct als iets waar wij ooit iets aan zullen hebben' veel te kort door de bocht is. Hoewel dergelijke onderzoeken geen direct zichtbaar resultaat opleveren hebben zij vele bijproducten die wèl zichtbaar zijn.

Voor eerdere versies van dit onderzoek zijn complete supercomputers gebouwd met specialistische, eigen hardware: de GRAPE coprocessors. ( http://www.hpcwire.com/20...er_grape-8_supercomputer/ )

De ontwikkeling van dergelijke chips is niet rendabel voor een commerciele partij: wie doet er nu fundamenteel onderzoek naar zwaartekracht? Maar een (gesubsidieerd) onderzoek als dit maakt wel ontwikkeling mogelijk die er anders niet geweest zou zijn. En dankzij die ontwikkelingen zijn jouw weer- en klimaatmodellen nu nog nauwkeuriger.

Vergelijk het met de afdracht aan de ESA, daar komt voor elke euro belastinggeld twee euro terug. ( http://www.nrcnext.nl/blo...evaart-levert-22-euro-op/ )
Ik wil ook een snellere computer, maar dat zit er soms gewoon niet in. Ze klinken als een stel verwaande onderzoekers die hun positie dreigen kwijt te raken omdat er nu eenmaal regeringen zijn die wel wat meer te besteden hebben dan die van ons.

Persoonlijk hoop ik dat die 100 miljoen een keer naar hulpbehoevende instanties gaan zoals bejaardentehuizen ipv dit soort geldverslindende akties want een computer is altijd op den duur trager dan de nieuwste. Zo kan je wel bezig blijven en er zijn nu eenmaal dringerende zaken dan dit.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True