Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 78 reacties

Cern heeft het grootste computergrid ter wereld in gebruik genomen. De gedistribueerde rekencapaciteit is nodig voor de verwerking van de ongeveer 15 miljoen gigabyte aan gegevens die de LHC-deeltjesversneller per jaar produceert.

Cern logoDe in bedrijf genomen Worldwide LHC Computing Grid, zoals het door Cern ontworpen computernetwerk heet, verbindt ongeveer 100.000 computers met elkaar waardoor om en nabij de 7000 wetenschappers in 33 landen toegang hebben tot de gegevens afkomstig van de LHC, bevindingen kunnen delen en rekenkracht kunnen bijdragen aan het experiment.

De gegevens van de LHC worden via dedicated glasvezelnetwerken eerst naar elf tier-1-computercentra in Azië, Europa en Noord-Amerika gestuurd. Twee daarvan, de Brookhavven National Laboratory in New York en de Fermi National Accelerator Laboratory in Illinois, hebben een spilfunctie omdat deze de gegevens verder distribueren naar ongeveer 140 tier-2-computercentra. Cern levert zelf 10 procent van de benodigde rekencapaciteit, de rest wordt verzorgd door het computergrid.

'Gemiddeld kunnen we 250.000 taken per dag verwerken', aldus Ian Bird, hoofd van het Wlcg-project, 'ook uitschieters naar 500.000 taken per dag zijn geen probleem'. Ter vergelijking: één processor zou enkele dagen bezig zijn met het verwerken van een enkele taak.

Het computernetwerk zal de eerst komende tijd overigens duimen zitten te draaien vanwege het heliumlek in het ondergrondse netwerk van de deeltjesversneller. De verwachting is dat pas in het voorjaar van 2009 de LHC weer opgestart kan worden.

Moderatie-faq Wijzig weergave

Reacties (78)

Nederlandse grid infrastructuur wordt niet alleen gebruikt voor de LHC projecten.
Het nationale grid project valt onder de noemer Big Grid www.biggrid.nl.
Zolang de LHC nog niet werkt is het niet zo dat de infrastructuur "uit z'n neus staat te vreten".
Projecten zoals Lofar en V-LE maken ook gebruik van deze infrastructuur en is bedoelt voor de gehele wetenschappelijke community in Nederland.

Wel jammer dat dit nieuws bericht op basis van een Amerikaanse bron is gebaseerd en niet op het pers bericht van het Nikhef.

Voor geïnteresseerden is op 18 Oktober een open dag op het Science Park Amsterdam waar je vast en zeker meer te weten kan komen over de LHC en het bijbehorende Grid.
De deeltjesversneller kan pas weer in de herfst van 2009 worden opgestart :?
Nee, de deeltjesversneller wordt pas weer in het voorjaar opgestart, niet omdat die dan pas weer operationeel kan zijn, maar omdat dat zo gescheduled is.

Door het Heliumlek moesten ze het hele zaakje op laten warmen tot om en nabij kamertemperatuur, een fix uitvoeren die in uren uit te drukken is en vervolgens het zaakje weer bijna tot het absolute nulpunt afkoelen. Dat opwarmen en afkoelen kost gigantisch veel tijd (enorme magneten om de deeltjes in de baan te houden bij die hoge snelheid).

Toen bleek dat ze daar pas mee klaar konden zijn enkele dagen voor de geschedulde "winterstop", hebben ze besloten om alles na het voorjaar te tillen. Dit brengt "slechts" een vertraging van een paar weken met zich mee.
Eigenlijk brengt het welbeschouwd voor de experimenten helemaal geen vertraging met zich mee, omdat het najaar ingepland was voor het testdraaien. Dat testdraaien is hetgeen er nu bij inschiet.

De winterstop is regulier ingelast omdat de stroom in die tijd aanzienlijk duurder is dan in de zomermaanden. En aangezien het spulletje nogal wat verbruikt hebben ze hiermee een behoorlijke kostenreductie kunnen bewerkstelligen. Als het spul eenmaal draait, hebben ze in de wintermaanden genoeg data liggen om die tijd zonder duimendraaien door te komen, ondanks (of dankzij :) ) die grote grid.

/edit typo en laatste zin.

[Reactie gewijzigd door Pjerry op 6 oktober 2008 01:10]

De tunnel weer opwarmen van 1,9K naar kamertemperatuur, elektromagneet vervangen en weer koelen naar 1,9K neemt nu eenmaal veel tijd in beslag.
Laten we hopen dat het dan wel goed werkt en niet weer vertraging oploopt.
Als dit die versneller is welke op dicovery was, dan zijn het ook behoorlijk grote magneten welke vervangen moeten worden.

5 meter lang, en 3 hoog geloof ik.
Waarvoor heb je computerberekeningen nodig als deeltjes met elkaar botsen ?
Serieuze vraag.
De uit de kluiten gewassen detectoren/sensoren van LHC genereren per seconde een ENORME hoeveelheid data (600 MB/s). Pas na analyse van deze enorme hoeveelheid data weet je pas wat er precies gebeurd is en kun je evt. het gezochte deeltje vinden. En voor het analyseren heb je gewoon enorm veel rekencapaciteit nodig.

http://www.physorg.com/news3850.html
Die data bestaat uit foto's ?
Soort van. In de kern van Atlas zit CMOS chips. Dat zal iets van 60Mpix zijn, maar ja... ht kan foto's nemen met 40MHz. Niet iets wat je koopt bij de gemiddelde foto boer :D

Verder heb je de tracks door de vele detectoren heen en dat is een aardige uitdaging.

edit: Yup en die spoeltjes (bij Atlas zijn de 8 grote spoeltjes goed te zien) zullen de geladen deeltjes uit hun baan rukken en door de detector slingeren met als doel om de deeltjes door alle detectoren heen te laten gaan. De CMOS chippies zijn maar een klein deel van de detector, er zitten daarna nog de collorie meters (energie intensiteits meet dingen), muon kamers en nog een hoop dingen tussen door. En dat is alleen nog maar Atlas.

[Reactie gewijzigd door VisionMaster op 5 oktober 2008 22:12]

Je vergeet de paar spoeltjes die erin zitten ;)
Twee voorbeelden:
Een 'hit' in een detector onderdeel is nog geen waargenomen deeltje, kan bijv. ook ruis zijn, of een hit van een ander toevallig passerend deeltje. Een deel van de rekencapaciteit is nodig om in de enorme brei van hits in alle verschillende detectoronderdelen te zoeken naar patronen en daarvan 3D 'tracks' te construeren. Zodra je een track 'ziet' kun je al veel meer zeggen over de eigenschappen (massa, lading, etc) van het deeltje door bijv. naar de kromming in het magnetisch veld te kijken.

(daarnaast zijn sommige detectordelen slechts gevoelig voor een bepaalde selectie van deeltjes, maar dat terzijde)

Een ander deel is nodig omdat de waarnemingen op een of andere manier getoetst moeten worden aan de theorie. En de enige manier om dat te doen is vanuit de theorie een groot aantal nep-events events te genereren (Monte Carlo), en die te vergelijken met de waargenomen events.

EDIT: En om nog even op het artikel te reageren: Het 'grid' was 2 jaar geleden ook al in gebruik en in (bij mijn weten) bijna dezelfde hoedanigheid als nu. Het wordt al tijden voor allerlei fysica gerelateerde (proef)berekeningen gebruikt (zoals de MonteCarlo simulaties in mijn tweede voorbeeld). Ik zet dus ernstige kanttekeningen bij zowel de titel als de slotzin van dit bericht. :)

[Reactie gewijzigd door skion op 5 oktober 2008 18:25]

Voornamelijk om te zoeken naar botsingen die iets interessants opleveren. Veruit de meeste botsingen leveren eindproducten die we al lang kennen, die data kan men dus weggooien. Maar die een op de heel veel miljard botsingen die iets nieuws oplevert willen we er graag tussenuit filteren en nader bestuderen.
Ik ben er geweest, en ik heb ook gevraagd of het niet met het huis tuin en keuken distributed kon, maar ze zeiden toen dat ze niet genoeg controle dan hadden over wat er gebeurde, en ze vonden het niet praktisch. Ze wilden niet precies zeggen waarom, maar ze zeiden dat ze er naar hadden gekeken.
Ik wil je best vertellen waarom hoor en het is op zich nog wel eenvoudig uit te leggen.

De data is te veel om te verhandelen, de data moet constant verwerkt worden de komende 15 jaar lang en meerdere malen keren worden verwerkt (iedere wetenschapper heeft zijn eigen analyses).

Een event (1 botsing) is ongeveer maar een paar MB groot, maar de verwerking van velen neemt effe tijd in. De verwerking ervan heeft ook in de analyse tools veel geheugen nodig, dus al met al ongeveer een paar honderden MB per reken job. De eis is 1,5GB per CPU core. Ook de temp directory heeft omvangseisen.

En dan hebben we het nog niet eens over het redudant opslaan van de data op een geografisch verspreide manier.

Dat wil je niet de huistuinkeuken machines aan bieden in een BOINC client :)
Interessant! Thanks voor de info.

Aan de ene kant wel voor te stellen. Zo'n miljardenproject overlaten aan 'huis tuin & keuken' oplossingen is misschien een beetje eng. Ik weet niet in hoeverre het mogelijk is om bijvoorbeeld corrupte data te krijgen daardoor (al dan niet bewust).

Aan de andere kant heeft dit project erg veel media aandacht gehad en ligt de nadruk erg op het 'samen' doen. Was best leuk geweest als je in elk journaalitem had gehoord dat ook jij had kunnen meewerken, door een programmatje te installeren en wat datapakketjes te berekenen.

Dat zou eventueel nog naast Cern's eigen systeem kunnen, wellicht is er minder kritische data die je aan het publiek over zou kunnen laten? Met 'huis tuin en keuken' distributed computing ben je natuurlijk ook niet zeker van een bepaalde capaciteit, maar daarvoor zou je natuurlijk deze supergrid als backup voor kunnen laten dienen. Alles wat je tekort komt haal je uit de grid, als je capaciteit over hebt gebruik je het weer ergens anders voor...

Enorm speculatief allemaal natuurlijk, maar kan me moeilijk voorstellen dat het echt compleet onmogelijk is.
Ik vind afremmers, betere detectie of zelfs genezing van kanker oplossen anders veel belangrijker dan eventueel weten hoe het heelal is ontstaan. En dat is dan nog een ongelooflijke grote eventueel. Ze hebben nu al decennie geld in da stom project zitten steken en het enige resultaat is uitstel en meer kosten.

Dus laat de universiteiten zich maar met onnozelheden bezig houden en de ht&k zal wel belangrijke zaken proberen op te lossen.
There we go again... Weet je, als je echt veel vooruitgang wil boeken in de toegepaste wetenschappen, begin je best een wereldoorlog. Zo eentje als we in 1945 gehad hebben... Nooit een snellere technologische vooruitgang gekend:
- computer ontstaan uit enigma krakende machine van Alan Turing
- raketten ontstaan uit de Vergeltungswaffen
- kernenergie ontstaan uit zoektocht naar kernbom
- ontstaan van nieuwe wetenschappen of moderne benaderingen van oude wetenschappen (bvb cybernetica, aerodynamica)
- ook de basis voor de auto zoals we die nu kennen is toen gelegd
- misschien nog wel het belangrijkste van allemaal: penicilline aka antibiotica

En hoe komt het dat die allemaal tijdens de 5 jaartjes van WO2 zijn kunnen ontstaan?
-> Door bvb het fundamentele onderzoek van een zekere A. Einstein, die in 1905 met z'n E=mc² de basis legde voor kernenergie, hoewel dat toen voor geen meter nuttig was.

M'n punt: Ook niet-toegepaste/fundamentele wetenschappen (of bekender: kennis omwille van de kennis) moeten beoefend worden, zonder de fundamentele wetenschappen geen toegepaste wetenschappen. Dus gelieve geen "besteed het geld liever aan onderzoek naar kankergeneesmiddelen"-posts meer, ze kloppen simpelweg niet...
Sterker nog, je zou zelfs kunnen zeggen dat het omgekeerde waar is. Veel van de belangrijkste ontdekkingen in de geschiedenis zijn per ongeluk gedaan, terwijl men op zoek was naar iets heel anders. Penicilline bijvoorbeeld, is alleen maar ontdekt omdat er een schimmelinfectie op een voedingsbodem zat, had de man iets meer haast gehad, dan zou die plaat weggegooid zijn...
Sterker nog, er zat géén bacterie-infectie op de voedingsbodem ;)
Daardoor werd de bactericide werking van penicillium duidelijk (na enig gepuzzel uiteraard ;) ).
Door de komst van electiriciteit, de ontdekking van magnetisme en anti-materie zijn er diverse instrumenten mogelijk geworden die een direct medisch doel dienen. Dit soort dingen moet je groter zien en het gaat niet alleen om de oerknal herbeleving. Dat is maar een klein (sensationeel klinkent) onderdeel van al het onderzoek dat er zal worden gedaan.
Wat dacht je van proton beam therapie? Maakt ook gebruik van een deeltjesversneller... die therapie is mede dankzij CERN/Fermilab etc. te gebruiken (o.a. voor melanomen in het oog). Of denk je dat een arts dat wel even bedacht zou hebben als hij maar financiering ervoor had gehad?
Bestralingen an sich zijn "bijkomstigheden" van onderzoek dat op ander gebied plaatsvond, met heeeel andere doelen voor ogen.

Als je je nu eens wat meer zou verdiepen in de materie alvorens je mening te spuien, dan zou je doorhebben dat de geneeskunde (onder andere) hier wel degelijk veel baat bij kan hebben.
De voornaamste reden is waarschijnlijk dat dit hele project een enorm prestige gehalte heeft, voor elke betrokken partij. Voor het opzetten van alle computer-gerelateerde dingen zijn ook universiteiten en professionele instellingen aangetrokken om alles te ontwerpen. Een huis-tuin en keuken oplossing volstaat dan niet, het moet sowieso heel betrouwbaar zijn, maar tevens ook inzichtelijk voor alle betrokken partijen. Daarom zullen door de betrokken partijen echt wel alle mogelijkheden onderzocht zijn, en is dit als beste eruit gekomen.
Waarom staan de twee belangrijkste datacentra op een continent? Sterker in een land. Lijkt me dat je dat soort dingen zo veel mogelijk wil verspreiden. Stel je voor dat de VS ineens een aap als president krijgt (helemaal niet zo onwaarschijnlijk) en niet meer wil dat anderen gebruik maken van deze data centra zitten we mooi met de gebakken peren.
De gegevens van de LHC worden via dedicated glasvezelnetwerken eerst naar elf tier-1-computercentra in Azië, Europa en Noord-Amerika gestuurd. Twee daarvan, de Brookhavven National Laboratory in New York en de Fermi National Accelerator Laboratory in Illinois, hebben een spilfunctie omdat deze de gegevens verder distribueren naar ongeveer 140 tier-2-computercentra. Cern levert zelf 10 procent van de benodigde rekencapaciteit, de rest wordt verzorgd door het computergrid.
Kijk, ze zijn niet zo belangrijk voor het berekenen of maken van de data, eerder voor het doorsturen van de data, en gezien er nog 9 andere Tier 1 (wat eigenlijk overdreven is, want ik dacht dat er maar 5 waren, maar dat is nogal moeilijk te bepalen, zie wikipedia dacht ik), is het niet "zo erg" als die twee even gaan bokken, want dan kan een andere het overnemen, via andere glasvezels of andere verbindingen...

Misschien hebben ze die twee gekozen omdat zij het gemakkelijkst en met de minste verbindingen tot aan de 140 Tier's 2 konden gaan. Als die twee dan bokken, dan nemen ze een andere en zullen vooral Amerikaanse Tier's 2 problemen hebben, want wij zullen voor Europa ook wel enkele belangrijke hebben, maar voor een stuk ook afhankelijk zijn van de Amerikaanse Tier's 2...
Right,

lijkt me dat ze die 2 gekozen hebben om de amerikanen ook nog wat toegang tot LHC te geven. De meeste Tier-1's liggen in Europa.
Meeste verbindingen lopen overigens via Amsterdam naar de VS, via Netherlight om precies te zijn.
Zie http://www.surfnet.nl/nl/...f/Pages/SURFnetenLHC.aspx en voor de leuke plaatje http://www.surfnet.nl/SUR...ht-GLIFformat-Jan2008.gif

[Reactie gewijzigd door lunchbox op 6 oktober 2008 02:04]

De Amerikanen zitten heel zwaar in 1 van de experimenten, te weten CMS. Allicht dat ze dus zelf ook veel doen aan de data verwerking. De velen wetenschappers die in de VS blijven tijdens hun onderzoek willen ook zelf snel bij de data kunnen. Ook hebben ze een heel aantal onderdelen van de LHC zelf ontwikkeld van tekening tot eindproduct.
Waarom staan de twee belangrijkste datacentra op een continent? Sterker in een land
Volgens mij is dit niet waar, het probleem is dat Tweakers een Amerikaanse bron heeft gebruikt, die dit nieuws vanuit Amerikaans perspectief schrijft:
The U.S. has been an essential partner in the development of the vast distributed computing system....
In werkelijkheid zitten ook een aantal hele belangrijke knooppunten in Europa, en een daarvan is NIKHEF/SARA in Amsterdam.
http://www.nikhef.nl/pub/pr/press/20081001-lhc-grid.html

[Reactie gewijzigd door terabyte op 5 oktober 2008 15:03]

Als je de spilfuncie wilt geven aan datacenters, is america waarschijnlijk de beste keuze. vanuit de vs lopen het meeste glas naar europa en azie.

offtopic:
Het is op z'n minst ontactisch te noemen van je dat de vs waarschijnlijk een aap als president krijgt terwijl obama waarschijnlijk de verkiezingen gaat winnen.
Uhm, sorry, maar nee (op meerdere fronten) :)

De data centers in de VS (de 2 van de 11 Tier-1's) doen hun reprocessing daar en distribueren dat naar hun Tier-2's. Ze doen niet meer of minder dan de anderen.

Wat betreft het glas: De meeste glasvezels naar Azie gaan niet via de VS. Er licht veel glas van de VS naar Japan, maar er is meer van west naar oost. Ping maar eens paar sites in China en India. Academisch Rusland, India, Taiwan en China loopt via Europa naar de VS. Soms kom je nog SurfNet of de AMS-IX tegen (ligt er aan of je commercieel gaat of academisch).

[Reactie gewijzigd door VisionMaster op 6 oktober 2008 10:54]

Zou eigenlijk nog interessant kunnen zijn moesten ze met het computergrid meewerken aan andere distributed projects vermits niet alle computers 100% gaan gebruikt worden.
Dat wordt al gedaan om Bio-medische toepassingen computer tijd te geven. Soms uit vrijwillige basis, soms in overleg door dat er een deel van de LCG infrastructuur is er voor gebruikt kan worden dat er al is.
Eén processor doet meerdere dagen over 1 taak. Gemiddeld 250k taken per dag en 100k computers.
Dat zijn dan geen 100.000 thuis pc's.
kan dat grid dan niet ondertussen ingezet worden voor andere doelen ?

DPC ofzo O-)
Al eens gedaan (en op mijn donder gehad...) voor het Apen team. :)

Het Grid wordt ook voor andere dingen gebruikt. Vooral omdat de infrastructuur er is, dus ook eenvoudig uitgebreid kan worden voor andere doelgroepen.

Verder wil je je BOINC clients niet belasten met gigabytes aan data per reken-job. En de gemiddelde WN heeft tegenwoordig een eis om 1,5GB per CPU core te reserveren voor een rekenjob.

Dat pak je niet zo handig in, in een BOINC werkpakket. Al zou je het doen, dan is de BOINC infrastructuur als nog niet schalend genoeg voor de hoeveelheid data die verhandeld dient te worden.
Ik zou het liever andersom zien.
Is die grid eigenlijk niet overbodig? Dit zou toch ook met 'huis tuin en keuken' distributed computing moeten kunnen? Daar zou ik best aan willen deelnemen....
DC zit ook in de grid via BOINC
Het is voor wetenschappelijke doeleinden, en mits DPC afspraken maakt met alle meewerkende landen, zal dat wel mogelijk moeten zijn. Start jij maar alvast de administratieve rompslomp ;)
1/2 A4'tjes in excel met naam, land & handtekening voor akkoord..
zo moeilijk is dat toch niet (A)
"De verwachting is dat pas in de herfst van 2009 de LHC weer opgestart kan worden."

Zie:http://press.web.cern.ch/press/PressReleases/Releases2008/PR10.08E.html

Volgens de website van de LHC verwacht men de versneller in het voorjaar van 2009 weer operationeel te hebben (zou anders toch een beetje jammer zijn...).
Hier is het bijbehorende videootje; http://www.youtube.com/watch?v=fM7YIHsgZtc
Hoge kwaliteit modes is beschikbaar.

Data eerst op tapes, gevolgd door crunching met IBM toys...

Wordt inderdaad in bevestigd dat met de hoeveelheid data die ze te verwerken krijgen, 1 CD per seconde te vullen is.

[Reactie gewijzigd door fridgeman op 5 oktober 2008 17:02]

Nou snap ik dat dit netwerk niet realtime is, maar zou er een benadering gegeven kunnen worden van hoeveel flops dit systeem oplevert?
60.000 Pentium 4 tot Xeon 3.4GHz (er is meer als je de prive setups mee kan rekenen).
Geen flauw idee hoe de verdeling precies is. Er is een information system dat het publiceert, maar dat is te veel informatie om effe door te ploegen, greppen en sorteren. Zoek en gij zult vinden.

[Reactie gewijzigd door VisionMaster op 6 oktober 2008 08:02]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True