Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 36 reacties
Bron: Public Technology, submitter: silentsnow

De website Public Technology meldt dat Britse wetenschappers deze week 's werelds grootste computergrid zullen demonstreren. Op 78 locaties staan in totaal meer dan 6.000 computers die samen de Large Hadron Collider Computing Grid vormen. LCG is de eerste permanente en wereldwijde computergrid die gebouwd werd. De experimenten die met behulp van de Large Hadron Collider uitgevoerd zullen worden, zullen jaarlijks ongeveer vijftien petabytes aan gegevens produceren en er is dan ook nood aan heel wat rekenkracht om al deze data te verwerken.

In de Large Hadron Collider, bij het CERN in Genève, wil men met behulp van deze deeltjesversneller namelijk de Big Bang nabootsen. Eerder al meldden we dat IBM een storage tank geleverd had om de data afkomstig van deze deeltjesversneller op te slaan. Tegen 2007 zal de LHC over een rekenkracht beschikken die equivalent is aan honderdduizend van de snelste computers vandaag.

Kaart met locaties van LHC-computers

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (36)

ze hebben het over de grootste maar als ik het zo lees lijkt het best wel veel op distributed computingen en als je het kan vergelijken (ik ben niet zo in deze materie) dan zou de distributed computing projecten groter en meer verspreid over de wereld zijn, toch ?

edit:
bedankt voor de uitleg, maar distributed computing is volgens mij wel veel goedkoper dus waarom gebruiken ze dat niet meer, als je er een leuke prijs mee kan willen dan gaan ook steeds meer mensen mee doen in de hoop wat te winn en (werkt iig bij de loterij) en net als bij de loterij moet je maar 1 keer wat doen (een lot kopen of programma installeren en het kost je " niets" behalve stroom
DP infra werkt niet omdat ze met enorme datahoeveelheden werken die een speciale infrastructuur tussen de machines nodig hebben (
around 15 Petabytes of data each year
). Dat gaat niet over het gewone internet....

Een Grid als dit heeft zijn eigen supersnelle verbindingen en opslag voorzieningen.
Het gaat wel over het gewone ordinaire internet heen.
Er zijn af en toe wat extra lijnen ter beschikking gesteld om van CERN naar bijv. Geant (een EU gesubsidieerd Euopees internet knooppunt voornamelijk voor wetenschappelijk verkeer). Maar dat is het dan.

Er zullen wel dedicated verbindingen mogelijk zijn door middel van een dynamisch aanvraag op een snelle ((on)beperkte) verbinding voor tijdelijke duur.

De 15 PB (zal in werkelijkheid meer zijn overigens) wordt niet in 1 keer gecreerd en over het net heen gespuugd.
Dit gebeurt in bursts door een jaar heen. Nadeel is dat meerdere wetenschappers bepaalde data wil hebben. Dus dat er vanalles veelvuldig moet worden verstuurd... Hier wordt momenteel nog fel over gediscussieerd hoe dat zo slim mogelijk aan te pakken.
Dat het niet over het gewoone internet gaan betekend niet dat het niet kan, met een 5 Gbit lijntje die nonstop volop pompt kom je al op die 15 PetaByte per jaar.
En het hoeft ook niet allemaal door een lijn, het zal wel verdeeld worden tussen alle computers.
Nee, want een grid is eigenlijk èèn computer cluster die je zelf beheerd en altijd beschikbaar is. DC is je CPU idle time vrijwillig afstaan.
wat is het verzschil met een netwerk dan :D
Verschil met DC is in dit geval dat het gaat om een permanente grid, i.t.t. de dynamische vormgeving van DP. Daar kun je immers meedoen en aftaaien op het moment dat 't jou uitkomt. In dit geval is het de bedoeling dat deze grid jaarlijks uitgebreid wordt om zo een steeds krachtiger frame op te bouwen.
Australie valt geloof ik een beetje buiten de boot, volgens het plaatje dan. En nu komt australie toch ook weer niet uit het stenen tijdperk toch? :?
Klinkt allemaal heel interressant, maar wat voor "experimenten" willen ze dan gaan uivoeren.

Grappig ook dat de meeste computers in landen zoals Rusland en Polen staan
Nou ... Rusland heeft maar 2 instituten die er aan mee doen en dat rode puntje naast finland is Moskou.
De kleuren hebben als betekenis om aan te geven *wat* voor site het is. Draaien ze alleen een cluster met een hoop nodes (rood) of (blauw) draaien ze centrale Grid infrastructuur services.
Naast Engeland is een blauwe stip dat Amsterdam aanduidt. Daar draaien een aantal infrastructurele services.
In Geneve en in Italie idem.
En ik heb geen idee wat India hier aan mee draagt ...

Anywayz... ik vind dit een betere kaart:
LCG2 World Map
Daar kun je n.a.v. dit plaatje weinig over zeggen.
Wellicht dat rode en blauwe puntjes voor verschillende hoeveelheden staan, maar dan nog.
"Large Hadron Collider" - Het gaat dus om infrastructuur om de metingen van de experimenten van een deeltjesversneller (botsingen) te verwerken. Daar komen enorme hoeveelheden data vanaf.

Ik denk dat de computers graag neer worden gezet in landen met wat minder strenge milieuwetgeving en grote reserves aan olie en gas. In Polen en Rusland zullen de prijzen van elektriciteit relatief laag zijn. (Al misschien voor de plaatselijke bevolking wel hoog)
Zelf zit ik in de vakgroep Moleculair dynamics van de TU in delft en wij komen soms rekenkracht te kort. Dit is een stapje dichter bij de realistische simulatie's van levende organismen.
n de Large Hadron Collider, bij het CERN in Genève, wil men met behulp van deze deeltjesversneller namelijk de Big Bang nabootsen
Dit soort "experimenten" dus
Kennen we nog iemand die bij deze Grid werkzaam is, ik zie mooie scores voor DPC in het verschiet? Testdraaien zal wel klaar zijn, maar anders...... :Y)
't zijn er samen maar 6000 valt me wel wat tegen.

Klop maar even aan zullen we dat eens snel uitbreiden
Als je kijkt naar de top500 (www.top500.org/list/2004/06/) van supercomputers, zou je inderdaad denken dat met een wereldwijd grid grotere getallen gehaald zouden kunnen worden.
Large Hydron Collider homepage:
http://lhc-new-homepage.web.cern.ch/lhc-new-homepage/

En nog mooier:

Help zelf mee om de LHC te ontwikkelen in de vorm van een Distributed Computing project :P:

LHC@Home:
http://athome.web.cern.ch/athome/
offtopic:
[quote]
Help zelf mee om de LHC te ontwikkelen in de vorm van een Distributed Computing project
[/quote]
Dat gaat dan geen koetje worden maar een KOEEEEEEEEEEEEEEEE :+
Is het al bekend wàt ze gaan berekenen? Lijkt mij dat ze dit Grid niet voor Seti gaan gebruiken...
"Large Hadron Collider Grid"

Misschien berekeningen ten behoeve van onderzoek in een deeltjes versneller waarin met Hadron gebotst wordt? :o

Uit het gelinkte artikel:
Particle physics experiments at the Large Hadron Collider (LHC), currently under construction at CERN in Geneva will produce around 15 Petabytes of data each year - 15 million, billion bytes. To deal with this vast volume of data, particle physicists worldwide have been building a computing Grid.
Hadronen is een verzamelnaam voor de deeltjes die de sterke wisselwerking voelen, deze is weer op te splitsen in de groep mesonen en de groep baryonen (waaronder protonen en neutronen vallen) :)
In de LHC worden bundels protonen op elkaar "gebotst"
edit:
ik lees net dat ze ook loodkernen op elkaar laten botsen met enorme energieën :)
Zoek in Google op LHC en dan:
-ATLAS
-CMS
-LHCb
-ALICE

Dit zijn de 4 grote experimenten die in de bundel zijn gebouwd. (er is nog een 5de ... dacht ik).
ATLAS is al geschat op 10PB per jaar trouwens.

ATLAS is een detector van ong. 6 verdiepingen hoog, als ik het goed heb 44 meter lang in een cyclindrische vorm en staat ergens in de LHC ring. Deze ring is gemiddeld 100 meter onder de grond gebouwd en die 4 experimenten zijn dat dus ook... }>
i.a.w. het zijn niet je huis-tuin-keuken science fair experimenten :+
Kleine aanvulling:
Een petabyte is één miljoen gigabytes.
Zie ook: http://en.wikipedia.org/wiki/Petabyte
uh...patabyte = 1024 terrabytes
terrabyte = 1024 gigabytes
dus een petabyte = 1048576 gigabytes
Jammer dat je het geen filosofische vragen kan stellen: Zoals :"Is er een God"
Antwoord : "Nu wel"

Maar ik zie voorlopig geen stampede over dit geweld heenkomen :)
equivalent is aan honderdduizend van de snelste computers vandaag.
dus ie is sneller dan zichzelf :D
Waar nog niemand het over heeft is over de techniek van het grid zelf. Ik zie dat daarvoor globus wordt gebruikt. Uit eigen ervaring weet ik dat je daar zeer veel mee kunt doen. Het is dan ook -de- standaard grid toolkit die op de nederlandse universiteiten wordt gebruikt (bv op het DAS2 cluster van Leiden, Amsterdam, Utrecht, etc).

In Globus 3 is overigens veel veranderd, men is meer java gaan gebruiken en web service interfaces. Dat terwijl Globus 2 volledig C was en meer op eigen protocollen liep. Het gaat behoorlijk rap, want versie 4 komt er ook al weer binnekort aan.

Zie www.globus.org voor mee info.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True