Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Kabinet investeert 30 miljoen euro in Square Kilometre Array-radiotelescoop

Het Nederlandse kabinet steekt 30 miljoen euro in het Square Kilometre Array-project. Dit is een samenwerkingsverband van elf landen dat moet leiden tot de grootste radiotelescoop ter wereld, die uit honderden antennevelden en meer dan honderdduizend antennes zal bestaan.

De minister van Onderwijs, Cultuur en Wetenschap, Ingrid van Engelshoven, meldt in een Kamerbrief dat het Nederlandse kabinet 30 miljoen euro investeert in de Square Kilometre Array. Het kabinet heeft ook besloten om het verdrag tot oprichting van het SKA-observatorium te ondertekenen. Dit gebeurt op 12 maart in Rome. Met deze investering en dit verdrag neemt Nederland definitief deel aan de bouw en het beheer van wat de grootste radiotelescoop ter wereld moet worden.

Astron, het Nederlands instituut voor radioastronomie, is blij dat Nederland heeft besloten om mee te werken aan dit project. Het instituut, dat de Low Frequency Array heeft ontworpen, ontwikkeld en beheerd, speelt een belangrijke rol bij het SKA-project. Naar verwachting zal de SKA niet alleen een flinke impuls geven aan het wereldwijde astronomisch onderzoek, maar zal het ook bijdragen aan de economie. "Binnen dit project is overeengekomen dat de deelnemende landen een proportioneel aandeel krijgen in contracten voor de bouw van SKA", zegt Michiel van Haarlem van het SKA Office Nederland bij Astron. "Nederlandse bedrijven en instellingen zijn goed gepositioneerd om contracten te winnen op veel gebieden, bijvoorbeeld voor de levering van elementen van de telescoop en slimme software."

Deze gigantische nieuwe radiotelescoop, waarvan de eerste fase vanaf 2020 wordt gebouwd en die vanaf 2022 de eerste resultaten moet opleveren, wordt gebaseerd op de Westerbork Synthese Radio Telescoop en de Low Frequency Array. Het wordt de gevoeligste radiotelescoop ter wereld, die gebruikt zal worden om de algemene relativiteitstheorie te testen, het vroege heelal en het ontstaan van de eerste sterrenstelsels te onderzoeken, magneetvelden in kaart te brengen en radioflitsen te ontdekken. Maar de SKA zal ook worden ingezet voor het bestuderen van exoplaneten die om nabije sterren draaien, en daarmee het beantwoorden van de vraag of er buitenaards leven is.

De SKA wordt gebouwd in het afgelegen West-Australië en Zuid-Afrika. In Australië zal de telescoop uit 130.000 antennes bestaan, die verspreid worden over 512 antennevelden. Al deze antennes genereren een petabit per seconde aan data; dat is volgens Astron meer dan drie keer zoveel als het wereldwijde internetverkeer in 2018. SKA-Low, het gedeelte in Australië, moet 135 keer zo snel worden als Lofar en 8 keer zo gevoelig; deze antennes richten zich op frequenties tussen 50 en 350MHz. SKA-Mid, het gedeelte in Zuid-Afrika, bestaat uit ongeveer tweehonderd schotels met diameters van vijftien en twaalf meter; dit gedeelte richt zich op frequenties tussen 350MHz en 14GHz.

In 2017 besloten de deelnemende landen dat de grootte van de SKA werd beperkt om kosten te besparen. Het tijdschrift Scientific American schreef dat hiermee de kosten op 674 miljoen euro zullen uitkomen. Dit betekent dat de rekenkracht is teruggeschroefd en dat de antennes en schotels dichter op elkaar geplaatst worden. Dat leidt tot een minder hoge resolutie. Daardoor is de telescoop minder goed in staat om zwakke signalen op te pikken van een paar honderd miljoen jaar na de oerknal, zo stelde Heino Falcke, een Duitse astronomiehoogleraar aan de Nijmeegse Radboud-universiteit. Astron stelt in een brochure uit 2017 dat de SKA zo gevoelig wordt dat de telescoop in staat is om een vliegveldradar waar te nemen op een planeet op vele tientallen lichtjaren van de aarde.

Door Joris Jansen

Nieuwsredacteur

28-01-2019 • 14:53

61 Linkedin Google+

Reacties (61)

Wijzig sortering
De vraag die ik mij hierbij stel is, hoe gaan ze al deze data opslaan en verwerkt krijgen?
De 512 antennevelden leveren 1 petabit per seconde aan data op, dat is 125TB per seconde ofwel 3942000TB per jaar.
Welk systeem kan dit soort aan data wegschrijven en analyseren?

Edit: Rekenfout recht gezet met dank aan: @bavanandel

[Reactie gewijzigd door tjelleaz op 29 januari 2019 13:22]

Ze zullen even afkijken bij andere astronomische projecten, of bij CERN. Bij CERN wordt ook een onhandelbare hoeveelheid data gegenereerd. Toevallig weet ik van CERN dat de 1e laag filters niet eens volledige computers zijn als wel 'gewone' logic gates. Dan wordt het nog verder real-time gefilterd door dingen die al wat meer op computers lijken en pas daarna voor het eerst opgeslagen. De opgeslagen data wordt dan gebruikt voor analyse.

De exacte getallen weet ik niet meer precies, maar de logic gates alleen al filteren volgens mij >>99% van de data. Jij noemt 500 Petabyte per jaar aan data, ik ga meer uit van ordegrootte 1 Petabyte per jaar (na filteren).
Zelfs de data die ze wel opslaan is dusdanig veel dat men een enorme backlog aan het opbouwen is. Dit probleem speelt niet alleen bij CERN.

Ook hierdoor zie je de populariteit van AI en ML de laatste jaren enorm stijgen. Ondanks dat we nog altijd groeien in totale compute vermogen, zijn er nog enorme verwerkingstekorten en dit tekort groeit elke dag.

Ondanks al dat filteren blijven er bizarre hoeveelheden data op de plank liggen.
En er moet eerst een hoop data op de plank liggen alvorens men met een oplossing aankomt. Dat lijkt mij een kip en ei verhaal.

De camera sensor van mijn gsm creëert ook een onhandelbare hoeveelheid data voor iemand die in de jaren 80 leeft.

Anders had het klimaat geen probleem geweest.

[Reactie gewijzigd door BlaDeKke op 28 januari 2019 18:02]

Alleen groeit de hoeveelheid data al lange tijd exponentieel ten opzichte van de beschikbare rekenkracht. En de manieren van verwerking en filteren blijven achter.

https://futurism.com/large-hadron-collider-shut-down-2021
Ze schakelen de LHC uit omdat ze de data niet meer kunnen verwerken.

Zoals bij die camera sensor is het niet een kwestie van "We kunnen er nu niet zo veel mee, maar over 10 jaar wel".

De hoeveelheid data die bij dit soort onderzoek gegenereerd wordt is wel degelijk een probleem. We komen nu al supercomputers te kort. Elk grootschalig datacreërend onderzoek gaat dit probleem groter maken. Die 30miljoen, of nog een zakje geld, kan allicht beter gestopt worden in het verwerken van, i.p.v. onderzoeken. We kunnen niet eindeloos meer onderzoek op de stapel bij blijven gooien.

AI en ML gaat in de onderzoek (en dan niet alleen wetenschap) een enorm belangrijke rol spelen. Intel, AMD, Nvidia en ARM mogen nog enorm bijpoten om de huidige resource tekorten weg te werken. De groei lag jarenlang bijna stil en dat is al enige tijd goed te merken.
Logic Gates worden op veel meer plekken bij astronomisch onderzoek gebruikt. en de 99% wegfilteren is een realistisch getal.

Zelfs daarna is er nog veel te veel data over.
Het is ook vaak meer scripts schrijven om de juiste dataset te maken voor dat onderzoek wat je wil beginnen. om het zo hanteerbaar te maken voor de computertijd die je is gegeven.

Wat me persoonlijk steekt is het feit dat het vaak zoeken is naar schelpen op een strand vol met diamanten, dan zijn de diamanten alleen maar heel veel lastige glimmende steentjes. er kan zoveel meer interessante informatie inzitten waar nu uberhaut nog niet aan gedacht word.
Ze zullen denk ik sowieso on-site (op/naast) de antenne veel verwerken (lees filteren)... De meeste data zal je denk ik niet nodig hebben. Er is speciale hardware die dergelijke taken snel kan processen (e.g. FPGAs en GPUs). Er zijn FPGAs van bijv. Xilinx die al een RF core ingebouwd hebben. https://www.xilinx.com/pr...on-devices/soc/rfsoc.html Kost wat, maar dan heb je ook iets.

De rest zal off-site moeten gebeuren.
Onder het artikel staan 2 links waar wat meer uitleg te vinden is. Vooral het artikel “hoe verwerk je 10 Tbit/s is heel interessant.

Veel leesplezier
125TB per seconde ofwel 492750TB per jaar
Meer. 125TB x 3600 = 450.000TB per uur
Vermenigvuldigd met 365 x 24 levert dit 3942 miljoen TB per jaar, ofwel 3942 exabyte. Allemensen dat is veel!
Mooi om te lezen dat ook Nederland deel zal nemen aan dit project :)
In Australië zal de telescoop uit 130.000 antennes bestaan, die verspreid worden over 512 antennevelden. Al deze antennes genereren een petabit per seconde aan data; dat is volgens Astron meer dan drie zoveel als het wereldwijde internetverkeer in 2018.
Dat is een flinke bak aan data. Is er iets bekend hoe dit verwerkt zal worden? En of er een soort van Seti/Stardust@Home achtig compute project is?
Mocht je dit interessant vinden, dan is hier een website die hierop gericht is: http://ska-sdp.org/

En in deze github zijn de reference algoritmes te vinden:
https://github.com/SKA-Sc...gorithm-reference-library

Het is enorm veel data, maar er is veel potentie tot parallelle verwerking van al deze data. Dus het gros zal waarschijnlijk op de GPU geïmplementeerd worden.
Mooi om te lezen dat ook Nederland deel zal nemen aan dit project :)

Is er iets bekend hoe dit verwerkt zal worden?
En waar de drie backups staan ?
Ik hoop wel dat dit feest niet teveel impact heeft op de natuur aldaar.
welke natuur? het is duizenden vierkante mijlen aan onleefbare woestijn., niet de veluwe.
Het Nederlandse kabinet steekt 30 miljoen euro in het Square Kilometer Array-project.
"Nederlandse bedrijven en instellingen zijn goed gepositioneerd om contracten te winnen op veel gebieden, bijvoorbeeld voor de levering van elementen van de telescoop en slimme software."
Dus in het gunstigste geval zal het meer opleveren dan de investering zelf? Of is dat dagdromen?
Misschien, maar ik hoop dat dat niet per se de intentie is. Wetenschap mag geld kosten.
Sluit dit dan nog enigzins aan op de LOFAR die we al hebben?

[Reactie gewijzigd door DeFeCt op 28 januari 2019 15:29]

Nee, die staat bijna letterlijk aan de andere kant van de wereld.

Volgens mij was LOFAR (inmiddels 10 jaar oud) de voorloper van dit project. De SKA heeft bijna 10 keer zoveel antenne's.
Ja het sluit zeker aan. LOFAR was de eerste grootschalige test met een radiotelescoop op basis van velden vol kleine losse antennes die per stuk de hele hemel waarnemen (i.t.t. een schotelantenne) en waar het richten van de telescoop plaatsvindt door middel van het slim koppelen van de individuele signalen.

Bij SKA zal een deel van de antennes (linker plaatje) ook zo georganiseerd zijn. De kennis die is opgedaan bij LOFAR zal goed gebruikt gaan worden bij het ontwikkelen van SKA.
Krijgen we straks een Europese versie van Seti@home om deze enorme heoveelheden data te verwerken?
In 2017 besloten de deelnemende landen dat de grootte van de SKA werd beperkt om kosten te besparen. Het tijdschrift Scientific American schreef dat hiermee de kosten op 674 miljoen euro zullen uitkomen. Dit betekent dat de rekenkracht is teruggeschroefd en dat de antennes en schotels dichter op elkaar geplaatst worden. Dat leidt tot een minder hoge resolutie.
Ok, er is dus bezuinigd op die Vierkante Kilometer Telescoop.
Hoeveel is er nog van over? Is e naam nog wel van toepassing?
Hebben we het nu over 0.9 Vierkante Kilometer of 0.1 Vierkante Kilometer?
512 velden van ~256 antenne's. Waarom staan ze gegroepeerd in velden met zo'n grote dichtheid?

Gevoelsmatig zou 1024 velden van ~128 antenne's beter werken, of ~43000 velden met 3 antenne's. Maar ik weet er dan ook weinig van.
Al deze antennes genereren een petabit per seconde aan data; dat is volgens Astron meer dan drie zoveel als het wereldwijde internetverkeer in 2018.
Astron kan zich volgens mij beter bezig houden met radioastronomie dan met leuke “feitjes” die kant nog wal raken. Als ze denken in 0,33 seconden meer data verkeer te genereren dan het wereldwijde internetverkeer van 2018 wil ik graag weten wat ze van die 674 miljoen kopen.
Ik denk dat de fout hier toch echt eerder zit in jouw begrijpend lezen hoor, no offense...
Wat ze bedoelen is dat een petabit per seconde meer dan drie keer zoveel is als hoeveel bit per seconde er gemiddeld over het internet gaat, niet wat er in een heel jaar over het internet heen gaat. En dat klopt geloof ik wel aardig. Ik kan even niet de cijfers voor 2018 vinden, maar volgens wikipedia was er in 2017 zo'n 122000 petabyte per maand aan traffic over het hele internet. Omgerekend naar petabit per seconde is dat: 122000 * 8 / 30 / 24 / 60 / 60 = 0,38 petabit/s. Volgens die cijfers zouden ze dus net ietsje onder 3 keer zoveel zitten (tenzij die 1 petabit per seconde al naar beneden afgerond was), maar close enough...
Dit moet het wel zijn. Wat ik langs zie komen als dataverkeer bij een kleine isp is al vele malen meer (over 2018). Ik zou het anders geformuleerd hebben, maar dat is dan ook niet mijn vakgebied :).
Er staat dat ze meer dan 3 keer zoveel genereren dan het wereldwijde internetverker in 2018.
Dus ze doen het is 1/3second. ipv in 3 seconden.
Maar vraag me ook wel af wat ze ermee gaan kopen.
Dank, ik had het reeds aangepast.

Jammer dat inhoudelijke reacties off topic worden gemod. Ik hoor liever hoe Aston dat dan wel voor elkaar krijgt.
Wat? Data genereren? Niet heel moeilijk aangezien er nog steeds een analoog signaal op al die antennes binnenkomt. Gooi dat door een mooie DAC van voldoende resolutie, en je genereert al de nodige megabytes per antenne per seconde. Vermenigvuldigen met het aantal antennes (100k) en hoppa, data. 99% daarvan wordt niet eens opgeslagen, maar direct door een FPGA gefilterd, maar het wordt wel gegenereerd.
wil ik graag weten wat ze van die 674 miljoen kopen.
Wat dacht je van een heleboel antennes, bijkomende infrastructuur en datacenters om alle data te verwerken en op te slaan. Details daarover zal je zoals gebruikelijk niet vinden in een niet-gespecialiseerde publicatie zoals dit artikel, maar het is niet geheim. http://ska-sdp.org/ https://www.skatelescope.org/ https://netherlands.skatelescope.org/ska-project/
Hoop wel dat Nederland afdwingt dat het project de privacy van eventueel buitenaards leven respecteert zoals in onze wet is beschreven. Dus alle data goed beschrijven en laten toetsen door de betreffende commissie.
Leuk project verder. Jammer dat ie kleiner moest om paar cent.
Zie lid 4 van de introductie van de GDPR: "The processing of personal data should be designed to serve mankind."

Conclusie; E.T. hoeft geen vervelende cookiemeldingen weg te klikken... De mazzelaar!
Ik wilde zeggen dat het beter aan leraren kon worden gegeven maar het zijn er wel 120.000 dus kom ik op eenmalig 250 per leraar. Ik besefte me niet hoveel mensen leraar zijn. Well leuk dit soort low budget oplossingen met een sensor over zo'n enorm oppervalk. Ik kan bijna niet wachten tot ze hiermee iets opzienbarends ontdekken.

Op dit item kan niet meer gereageerd worden.


OnePlus 7 Pro (8GB intern) Microsoft Xbox One S All-Digital Edition LG OLED C9 Google Pixel 3a XL FIFA 19 Samsung Galaxy S10 Sony PlayStation 5 KPN

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True