Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 87 reacties

De Large Hadron Collider is weer aangezet. Technici hebben de problemen die ontstonden na kortsluiting weten te repareren. De eerste botsingen worden echter pas eind mei weer verwacht. De herstart van de LHC gaat botsingen met een veel grotere energie dan voorheen opleveren.

Training quenches naar 6,5 TeVSinds zondag vliegen er weer protonen door de 27 kilometer lange buis van de LHC. Het gaat echter om bundels met een relatief lage energie. Uiteindelijk wordt er toegewerkt naar botsingen met een totale energie van 13TeV. Dit zou nieuwe ontdekkingen op moeten leveren die het standaardmodel van de natuurkunde verder moeten ondersteunen. Ter vergelijking: de botsingen van de eerste Run hadden een energie van maximaal 8TeV.

Een stukje afvalmetaal hield de gemoederen sinds zaterdag 14 maart bezig, maar gelukkig kon dit kortsluitingveroorzakende deeltje relatief simpel verwijderd worden. De machine werd 14 februari 2013 stilgelegd om de versneller voor te bereiden op hogere energiebundels. Tweakers schreef eerder een uitgebreid artikel over de LHC met veel achtergrondinformatie.

Om de LHC voor te bereiden, moesten 18 van de 1232 supergeleidende magneten worden vervangen ten gevolge van slijtage. Meer dan 10.000 elektrische verbindingen tussen de magneten zijn met afleiders uitgerust om te fungeren als alternatieve route voor de 11.000 ampère in het geval van een fout. Dit was in 2008 de reden van het eerste uitstel: een fout in twee lassen van de elektrische verbindingen zorgde voor een lek in de met vloeibaar helium gekoelde magneten. Hierdoor moesten 53 magneten worden vervangen. De vertraging liep op tot meer dan een jaar. De machine zelf zal op een hogere spanning werken om de hogere energiebundels te kunnen leiden en is uitgerust met nieuwe stralingsbestendige elektronica. Daarnaast is het vacuümsysteem dat de bundelpijp vrij moet houden van verdwaalde moleculen geupgrade en het cryogeen systeem voor de supergeleidende magneten opgeknapt.

LHC

In de versneller zullen protonen in Run 2 slechts 25 nanoseconden gescheiden worden, tegen 50 nanoseconden in de eerste Run. De LHC zal dus meer deeltjes per tijdseenheid afleveren en zo ook meer botsingen voor de experimenten opleveren. Om al die extra botsingen te kunnen meten, zijn de verschillende detectoren voor de experimenten ook onderworpen aan verschillende upgrades en onderhoudsprogramma's, zoals upgrades voor de subdetectoren en datavergaarsystemen.

De it-afdeling van CERN heeft bijna 60.000 nieuwe cores en 100 petabyte extra schijfruimte geïnstalleerd om alle extra data te kunnen verwerken. De netwerkinfrastructuur is ook stevig onderhanden genomen, samen met nieuwe uninterruptable powersupplies.

Wat gaat nu onderzocht worden? Het higgsboson moet verder uitgediept worden. Er is al heel veel bekend, zo is de massa van het higgsboson vrij goed duidelijk, maar het kan nog beter. De eigenschappen van het higgsboson zijn heel precies bekend als functie van die massa in de theorie van het standaardmodel. Dat wil zeggen: er is goed bekend hoe het higgsdeeltje uit elkaar moet vallen. Elke 'nieuwe' theorie die anders is dan het standaardmodel geeft een andere voorspelling. Er wordt dus heel precies bekeken hoe het uit elkaar valt en of er een andere waarde gezien wordt dan verwacht wordt uit het standaardmodel.

Daarnaast wordt er gekeken of supersymmetrie aan te tonen zal zijn, alleen heeft supersymmetrie veel vrije parameters. Dat zorgt ervoor dat het moeilijk is om precies te voorspellen wat er gezien gaat worden. Als er iets geks gezien wordt of aanwijzingen daarvoor, dan zal daarop ingezoomd worden en wordt er gekeken wat de gevolgen van dit model zullen zijn. Supersymmetrie gaat ervan uit dat ieder elementair deeltje een zogenaamde superpartner heeft. De partner van een boson is bijvoorbeeld een fermion en dat van een fermion een boson. Wat daar allemaal op zal volgen, dat is onbekend terrein.

Naast het higgsboson en supersymmetrie, zijn er nog vele andere theorieën en modellen waar onderzoekers op CERN mee bezig zijn. Donkere materie en donkere energie zijn daarvan de bekendsten.

Update: om 12:27 hadden beide beams (tegen de klok in en met de klok mee) het volledige rondje afgelegd.

Het verlossende woord Cern beam 2 run lhcrestart

Moderatie-faq Wijzig weergave

Reacties (87)

Je kan het project helpen door deel te nemen in het Atlas@home project: http://atlasathome.cern.ch/index.php

Zo help je zelf mee aan de ontwikkelingen.
Is dat inmiddels niet een vreselijk achterhaald en innefficiënt concept geworden?

Jaren geleden heb ik ook meegedaan aan dergelijke projecten.. in de tijd dat processoren op één constante (maximale) snelheid draaiden.. maar nu heb je toch geen "spare cycles" meer en betekent het draaien van zo'n (BOINC-)client dat je dus je processor zwaarder belast en beduidend meer energie verbruikt? En dan lijkt me dit een onzinnige actie.. het is natuurlijk wel leuk voor een dergelijk project dan anderen hun enerierekening betalen (waar wij als kleinverbruiker de hoofdprijs voor mogen betalen i.t.t. bedrijven) maar het lijkt me dat het ook nog eens op specifieke hardware véél effectiever kan gebeuren.

Dus hoe sympathiek dergelijke projecten ook mogen klinken: ik doe daar, al was het maar uit milieuoogpunt, niet (meer) aan mee.
Dit argument gooide ik op bij de jaarlijkse tweakers boinc@whatever runs maar pakte toen niet. Blijkbaar is cycles doneren aan pharma efficiënter dan ze zelf wat cloud laten kopen (eiwitjes vouwen dacht ik).
Je vouwt dan ook niet voor big pharma maar voor universiteiten, en die hebben gewoonlijk chronisch geldgebrek. Als er inderdaad geld verdiend kon worden met dit soort onderzoek gooide een grote farmaceut er wel een cluster en een stel wiskundigen tegenaan, maar dat is (nog) niet het geval.
De grote medische universiteiten die veel samenwerken met farmacautische bedrijven hebben juist relatief veel geld. Instituten als Johns Hopkins hebben miljarden te besteden.
de grap is ook dat distributed zowieso efficienter is, gezien een data centre gekoeld moet worden.

dat betekent stroom naar warmte en dan meer stroom om die warmte af te voeren.

in huis zeker als het koud is betekent dat die warmte ook je huis verwramt, (kost wel iets meer dan gas) maar die warmte wordt dus niet weggegooid.
kortom het dient 2 doelen, daarom werk ik mee met dit soort projecten in de winter (houdt mijn slaapkamer in de winter op een comfortabele 15-16 graden zonder de kachel) maar niet in de zomer.
de grap is ook dat distributed zowieso efficienter is, gezien een data centre gekoeld moet worden
De kosten van koeling zijn veel minder dan de inefficientie van het opdelen van taken in kleine rekenblokjes voor inefficiente thuiscomputers en het onnodige dataverkeer over het internet en het bijhouden en verwerken van de distributieresultaten.
Je zet nu de kosten voor de onderzoekers af tegen kosten die andere maken (distributie centra, thuis gebruikers en internet providers).

Dat is appels met peren vergelijken, onderaan de streep kost het de onderzoekers gewoon minder. De rest wat je opsomt wordt door overige betaald en is dus niet relevant.
Die zijn wel relevant als je de milieu impact bekijkt.
Dat klopt, maar we hadden het over de kosten. Het milieu aspect was niet aan de orde gekomen, dan wordt het een hele andere discussie.
Dan moet je toch even teruglezen in de thread want het milieu oogpunt wordt daar wel degelijk genoemd.
Het is vooral goedkoper voor de organisatie. Een equivalent cluster huren in de cloud is behoorlijk prijzig.
Ja maar is het ook niet super inefficiënt om rekenkracht te kopen die vervolgens 8 uur van de dag op het minimale van zijn kunnen draaid? Dat een andere instantie ook rekenkracht koopt voor die 8 uur...

Natuurlijk kost dat geld aan energie. Maar ik geef ook aan collectes, dat kost ook geld...
je had ook een goedkopere minder zware cpu kunnen kopen, maar dat allemaal terzeide, jij wilt dus beweren dat het een goed idee is om een 'fictief iets, lees economische waarde' af te zetten tegen een reeel iets namelijk energie vebruik...

om wat zaken te noemen het powergrid naar data centra is compleet anders dan naar woonwijken, en in woonwijken is het energie net dan ook niet ingericht op 100en bloinc clients. dan kijken we vervolgens naar de netwerk infra, adsl / cable / fiber netwreken dienen te worden geupgrade omdat niet iedereen meer kan waar hij/zij voor betaald namelijk internet toegang en youtube kijken...

vervolgens krijg je latencies die lastig zijn vervolgens moet cern zijn software zo inrichten dat ze een vraag stellen en het zich kunnen permiteren om lang (soms heel lang) op het antwoord te wachten, dat voegt enorme complexiteit toe.

stel dat je voor elke euro die dit jouw kost, aan stroom en slijtage, 1mb aan data kunt verwerken, dan kun je dat in een effcient ingericht datacenter, voor 30ct, dus door het 'zelf' te doen en niet te doneren boor je ze eigenlijk 70ct door de neus... lekker sociaal
stel dat je voor elke euro die dit jouw kost, aan stroom en slijtage, 1mb aan data kunt verwerken, dan kun je dat in een effcient ingericht datacenter, voor 30ct, dus door het 'zelf' te doen en niet te doneren boor je ze eigenlijk 70ct door de neus... lekker sociaal
Maar stel nou eens dat de mensen die zo'n Boinc-client voor een specifiek project schrijven, vermoedelijk best knappe koppen, net ietsje beter op de hoogte zijn van de eisen van dat project dan jij of ik, dat zij net ietsje beter weten wat voor hun eigen project wel of niet belangrijk is en wat wel of niet haalbaar is...
Denk je niet dat we, puur vanwege het bestaan van een Boinc-client, er automatisch vanuit mogen gaan dat het, voor dat project, zinvol is als mensen het ding ook daadwerkelijk draaien?
Los daarvan, als ze het zelf voor 30 cent kunnen en het kost mij 100 cent, dan "boor ik ze 70 cent door hun neus" alleen maar als ik die 100 cent anders gedoneerd zou hebben. Wanneer heb jij voor het laatst cash gedoneerd aan fundamenteel wetenschappelijk onderzoek...?
om wat zaken te noemen het powergrid naar data centra is compleet anders dan naar woonwijken, en in woonwijken is het energie net dan ook niet ingericht op 100en bloinc clients. dan kijken we vervolgens naar de netwerk infra, adsl / cable / fiber netwreken dienen te worden geupgrade omdat niet iedereen meer kan waar hij/zij voor betaald namelijk internet toegang en youtube kijken...
Honderd computers trekken wat, enkele tientallen kilowatts? Dat is het equivalent van een paar wasmachines, daar gaat het hoogspanningsnet echt geen last van hebben. Over het netwerk hoef je je al helemaal geen zorgen te maken; die clients trekken een paar MB tot hooguit een paar honderd MB naar binnen en gaan dan een paar dagen rekenen; het resultaat dat vervolgens teruggestuurd wordt is hooguit dezelfde orde van grootte (maar kan ook (soms fors) kleiner zijn, dat hangt van het project af).
De netwerkbelasting van distributed computing is miniem; Boinc die YouTube "eruit drukt" is zoiets als iemand die bij een hardrock concert geluidsoverlast veroorzaakt door iets in het oor van zijn buurman te fluisteren: met drie nullen erachter nog steeds niet.
Als je een probleem hebt dat wel een hoge netwerkbelasting geeft, dan moet je het simpelweg niet met Boinc proberen op te lossen, dat is het verkeerde gereedschap voor de klus; in dat soort gevallen zul je een "gewone" supercomputer ertegenaan moeten gooien.
Zie het nu als een vrijwillige donatie dan.
Hoe het meer vervuilend is danje PC op idle aan laten staan zie ik nog niet.
Een uiterst inefficiënte donatie dan.. om ons het gevoel te geven dat we goed doen (waarbij we meer vervuilen dan nodig is voor het gestelde doel).

Ik ken natuurlijk jouw pc-gebruik niet maar hier is de processor geregeld idle als ik bijvoorbeeld op internet aan het bladeren ben.. en door die niet al te hard draaiende fans ook een stuk minder irritant overigens.. ik gebruik maar weinig applicaties die de processor dermate zwaar belasten dat die langere tijd volop bezig hoeft te zijn. En dus is het tussen de bedrijven door terugschakelen om energie te sparen minder vervuilend dan het systeem maar laten doorwerken.
Een uiterst inefficiënte donatie dan.. om ons het gevoel te geven dat we goed doen (waarbij we meer vervuilen dan nodig is voor het gestelde doel).
Niet perse... In een datacenter (of supercomputer) staat al die warmte-producerende apparatuur dicht op elkaar gefrot; daar moet actief gekoeld worden. Als ik me niet vergis is koeling een wezenlijke kostenpost voor datacentra (wat ook blijkt uit het concurreren op PUE).
Zolang je computer niet zoveel warmte produceert dat je de airco ervoor aan hoeft te zetten, kun je in feite stellen dat "een Boinc supercomputer" een PUE van 1.0 heeft. Van reguliere supercomputers kon ik zo snel even geen getallen vinden, maar voor datacentra lijkt 1.2 zo'n beetje het allerbeste wat op dit moment haalbaar is; dat geeft Boinc (minstens!) 20% speelruimte om, in het grote geheel, toch efficiënter te zijn dan een supercomputer.

Of ze dat ook halen kan ik je niet vertellen; ik wil alleen aanstippen dat jouw redenering te kort door de bocht is.

[Reactie gewijzigd door robvanwijk op 5 april 2015 22:09]

Was altijd al verschil in verbruik tussen idle en actief, ook bij cpu met vaste systeemklok, dat is al bij kleine 8bitters het geval. Kosten altijd extra stroom.

En met extra zuinige chips van nu zit er tussen laagste power state en maximale turbo mode veel minder verschil, heb net nieuwe 15w broawell gekocht, 15w is max. Ten tijden van de Pentium4 zat er meer verschil tussen idle en actief dan 15w.
Ten tijden van de Pentium4 zat er meer verschil tussen idle en actief dan 15w.
En dat is precies het moment waarop ik ben afgehaakt. Destijds draaide ik Seti @ Home op mijn laptop, die ik zakelijk gebruikte en dus tijdens kantooruren permanent aanstond. Toen ik een laptop met de eerste P4-M aanschafte merkte ik dat de fans enorm raasden zodra de client liep. Het bleek dat deze processor SpeedStep aan boord had waardoor de klok werd teruggeschroefd wanneer er niets te doen was. Hierdoor werd mij duidelijk dat de "idle cycles" doneren een effect hadden op het energieverbruik. En daar is op zich niets mis mee, alleen is dit een effect van het efficiënter (kunnen) worden van de processor en is het nu eenmaal zo dat voor dergelijke taken andere hardware beter geschikt (zuiniger) is. Nog los van het feit dat wij vele malen meer mogen betalen voor elektriciteit.
Om je vraag te beantwoorden, nee ik denk het niet achterhaald is. Juist dezer dagen is er meer vraag naar computing power dan ooit. Wetenschappers hebben lang niet altijd de mogelijk of budget om hiervoor te betalen. Projecten als BOINC geven wetenschappers de mogelijkheid dan toch iets dergelijks te doen en ons de mogelijkheid hier aan mee te helpen. Tegenwoordig heeft alles een sterke chip en je ziet dat ook dat BOINC-achtige projecten beschikbaar komen op mobiele platformen.

Tegenwoordig gaat het lang niet meer om spare cycles, sterker nog BOINC is zo geprogrammeerd dat het alle beschikbare rekenkracht van je systeem benut, als het niet in gebruik is dan.
Ik denk dat het energieverbruik erg afhankelijk is van het project, en hoe je het configureert. Afgelopen jaar heb ik folding@home gedraaid en die nam in light setting ongeveer 60% CPU tijd en een opgenomen vermogen (volgens CoreTemp) van 30W.
Nu heb ik atlas@home erop gezet en zo ingesteld dat meestal meer 1 WU tegelijk in bewerking is. De CPU (een i7 4770) is dan maar voor 10-20% in gebruik en het opgenomen vermogen is een paar Watt.
Als je een project hebt dat de processor 100% bezet en dan ook nog de GPU erbij pakt kan het wel hard gaan met het energieverbruik.
Er zal vandaag ook een live webcast zijn om 3.30pm CET: https://webcast.web.cern.ch/webcast/
De control displays die in CERN hangen kan je hier live bekijken. Dit zijn onder andere de beelden die je in de LHC "Central Control Center" kan zien, maar dan met een iets lagere refresh rate.

Nu nog 34 schermen vinden en m'n vrouw overtuigen ... :)

[Reactie gewijzigd door flux_w42 op 5 april 2015 16:49]

Nu maar hopen dat crt geen belemmering zal vormen op de energy bill ;)
Nu vraag ik me af hoe lang zo'n rondie duurt?
Nu vraag ik me af hoe lang zo'n rondie duurt?
Minuten lang op dit moment want ze openen de cirkel compartimenten één voor één :)
Maar als de protonen ongehinderd mogen doorrazen met bijna de lichtsnelheid:
Grof berekend, t= omtrek LHC (27km) / lichtsnelheid (300000 km/s) = 90 microseconde
(dat is voor de waarnemer, voor het proton tikt "de klok" ongeveer 7400 keer trager, dus duurt het voor het proton slechts 90/7400 = 12 nanoseconde)

[Reactie gewijzigd door blobber op 5 april 2015 14:50]

Ongeveer anderhalve maand, als eind mei pas de eerste botsingen verwacht worden :+
Hoe zullen we hier over 20 jaar op terugkijken... ;-)

Wel mooi spul!
Hoop dat er nieuwe inzichten mee gevonden worden.
Wat kunnen ze hiermee uitvinden?
Mijn vraag ook ja
Ik weet dat hij is gebruikt om het higgs deeltje te vinden dus met andere woorden om een theorie te bewijzen.
Maar wat kunnen/moeten we daarmee?
Want als het alleen maar is om theorieen te ondersteunen vind ik 30jaar bouwtijd en +-6miljard euro om te bouwen een beetje zonde.
Nu hebben we dus 6mld uit gegeven om een higgs deeltje te vinden wat alleen maar meer vragen//theorieen heeft gegeven maar we hebben er verder niks aan ?
Het is niet alleen dat er 6 miljard aan biljetjes verdampt zijn, met daarvoor in de plaats het zinnetje "het higgs boson is 125.09±0.21 GeV/c²".

Maar een middel-grote universiteit verbruikt in de hoeveelheid tijd die kost om de LHC te verzinnen, te bouwen en te gebruiken ook net zo veel. Voor dat geld zijn mensen bezig geweest om te verzinnen waar de gaten in ons begrip van de natuur zitten. Voor dat geld zijn mensen bezig geweest te verzinnen hoe je uit kan vinden welke van de favoriete theoretische ideeën nu kloppen. Er zijn mensen aan het werk geweest om meet-apparatuur zo nauwkeurig mogelijk te maken. Tijdens de werking van de LHC zijn allerlei bekende natuurkundige zaken getoetst en zo mogelijk de getallen nog nauwkeuriger bijgewerkt. Er zijn simulaties gemaakt en gedraaid om het gedrag van atomaire deeltjes beter te kunnen voorspellen. Er zijn computer netwerken en data-opslag gemaakt die de terrabytes per dag kunnen verwerken en doorrekenen. De LHC is daarnaast ook nog een groot en nauwkeurig bouwproject. In allerlei disciplines heeft dit ervaring opgeleverd.

[Reactie gewijzigd door Henk Poley op 5 april 2015 15:10]

Dit heet onderzoek, zonder onderzoek geen nieuwe ontdekkingen geen nieuwe technologie. De informatie die nu gevonden wordt is misschien nu nog niet in het dagelijks leven bruikbaar, maar zou over 30 jaar onmisbaar zijn in de technologie die dan ontwikkeld wordt.
Zonder dit soort onderzoeken hadden we nu geen electriciteit gehad. Vroeger is er ook iemand geweest die geld en tijd kreeg voor onderzoeken waar niemand ooit iets in zag, maar ik neem aan dat ik je nu niet hoef uit te leggen wat electriciteit voor ons heeft gedaan :)
Van Wikipedia...
Welke andere resultaten de LHC zal opleveren, valt moeilijk te voorspellen. Mogelijk leidt de LHC tot (nu nog onverwachte) ontdekkingen, met name met betrekking tot de werking van de zwaartekracht en het bestaan van mogelijke onzichtbare dimensies. Misschien kunnen er zelfs minuscule zwarte gaten mee gemaakt worden, die volgens de theorie van Stephen Hawking onmiddellijk weer zouden verdampen. Dan zouden verschillende andere kosmologische theorieën, zoals diverse varianten van de snaartheorie, getest kunnen worden.
Frapant dat mensen dergelijke vragen als offtopic en zelfs als ongewenst markeren. Het lijken mij toch natuurlijke vragen, die gewoon direct over het onderwerp van het nieuwsbericht gaan.
Omdat het eventuele nut van het onderzoek niets te maken heeft met hetgeen waar het hier over gaat, namelijk het opstarten van het apparaat.

Buiten dat, vragen naar het nut van fundamenteel wetenschappelijk onderzoek is wat mij betreft altijd een 0 voor offtopic waard.
Helemaal mee eens! Je kunt er niet mee eens zijn maar daar mag je het mod systeen niet voor gebruiken, wat hier maar al te vaak gebeurt!
Waarschijnlijk komt dit omdat vragen naar het maatschappelijk nut van wetenschappelijk onderzoek telkens opnieuw worden gesteld. Dat kun je terecht vinden maar deze discussie wordt wel vervelend op den duur.

[Reactie gewijzigd door torp op 5 april 2015 20:00]

Misschien een interessante documentaire voor degene die hier niet veel over weet maar toch geinteresseerd is. https://www.youtube.com/watch?v=XuHqtLw5EZc
Heel veel zaken uit Star Trek zijn later realiteit geworden. Zie bijv. de mobiele telefoon (Communnicator) en de Tablets (Pad's), enz. Hopelijk zal nog veel meer uit de Star Trek filosofie werkelijkheid worden. Krachtvelden bijvoorbeeld. Lijken me extreem handig. Of wat te denken van kunstmatige zwaartekracht? Of (droommodus aan) de Warp Engine? ;)
warp engine, zullen we eerst eens zien of we impuls motoren kunnen bouwen, want voorlopig lijkt dat er ook nog niet echt aan te gaan komen.
Bestaat al. Die impuls motoren zijn erg vergelijkbaar met de hedendaagse ionenmotors.

Zo een motor heeft misschien een erg lage acceleratie per gewichtseenheid, maar een batterij aan ionenmotors moet wel een groot schip kunnen aandrijven.

[Reactie gewijzigd door Mocro_Pimp® op 5 april 2015 16:29]

Klopt niet helemaal, impuls motoren zijn beter te vergelijken met een magneet aandrijving. Bij ionenmotoren worden deeltjes met hoge snelheid uitgestoten, waarbij actie = reactie. Bij impuls motoren worden geen deeltje uitgestoten.
Het blijft fictie, maaruhhm, bron?
Ik zie niet hoe een magneetaandrijving kan werken anders dan magneettreinen (op een magneetspoor dus, wat er in de ruimte niet is) of de magneten moeten een perpetuum mobile opstelling hebben die energie opwekken voor een andere systeem (een motor van soort X)
Bekijk dit eens: http://en.wikipedia.org/wiki/Alcubierre_drive

Warp is mogelijk. Alleen 2 dingen nodig: massa's veel energie en de ontdekking van exotische geschikte materialen :)

[Reactie gewijzigd door Relief2009 op 5 april 2015 20:38]

waarschijnlijk over hoeveel ze fout hadden toendertijd. ;)
Voor de mensen die bang zijn dat de LHC zwarte gaten veroorzaakt waardoor de aarde mocht vergaan... dan kun je deze site in te gaten houden: ;)

http://hasthelargehadroncolliderdestroyedtheworldyet.com/

(Bekijk ook de source even)

[Reactie gewijzigd door mad_mavrick op 5 april 2015 11:35]

Eigenlijk schandalig hoe de media heeft geprobeerd mensen bang te maken voor het vergaan van de aarde door dit project. Nu heeft de media hier sowieso behoefte aan (bangmakerij, dat is), maar het LHC project naar beneden willen halen? Een van de grootste wetenschappelijke projecten ooit, waarvan de uitkomsten extreem fascinerend zijn? Gewoon walgelijk |:(

Nog dwazer is hoe sommige mensen (*kuch*geloof*hoest*) hier intrapten, maar da's meer de kat het spek voorbinden. Blij dat het toch nog allemaal van de grond is gekomen.
Een van de grootste wetenschappelijke projecten ooit, waarvan de uitkomsten extreem fascinerend zijn?
Van de ene kant ben ik het met jee eens dat er in de media veel prutswerk is geleverd toen de LHC voor de eerste keer werd opgestart (elke redactie die dacht "we hebben compleet geen idee waar we het over hebben, we hebben werkelijk geen idee of we onzin praten, maar "eind van de wereld nabij!?" koppen is goed voor de oplage!" :r ). Van de andere kant ben ik het helemaal niet eens met je redenatie.
Er was een tijd (van 1942, toen het begon tot... 1962 misschien, toen de VS besloten naar de Maan te gaan?) dat "het grootste wetenschappelijke project ooit" het Manhattan Project was. Ook daarvan waren de uitkomsten "extreem fascinerend". :X
De media kon daar destijds geen vraagtekens bij zetten (behalve het grootste, was het ook zo ongeveer het meest geheime project ooit), maar "hou eens op met die bangmakerij, het is maar wetenschap" wil er bij mij echt niet in.

Ik ben geen kernfysicus of quantummechanica-expert, maar als de mensen die er wel verstand van hebben uitleggen waarom zij zich geen zorgen maken, waarom het (naar hun beste inschattingsvermogen) volkomen veilig is, dan kan ik de redenatie wel ongeveer volgen. Ergens kan ik me wel voorstellen dat het voor iemand die werkelijk nul verstand van wetenschap heeft, best een eng idee kan zijn. Of dat heel veel met geloof te maken heeft weet ik niet, ik zou eerder aan opleidingsniveau denken.
Ja, het zou prettig zijn als de media dat deel van de bevolking niet onnodig bang gaan zitten maken, maar ja, we hebben nou eenmaal persvrijheid en iedereen (die het kan betalen) mag een vodje papier uitbrengen, zelfs als de hele redactie gezamenlijk ongeveer het IQ van een vodje papier heeft.
Om misverstanden te voorkomen, nee, ik heb het niet over T.net; denk aan blaadjes met all-caps, fel-rode schreeuw-koppen op de voorkant, die het aanstaande vergaan van de planeet als tweede item hebben na de nieuwe liposuctie van een of andere "bekende" Nederlander waar je nooit van hebt gehoord.
Eens met wat je zegt!
Off topic: wij binden de kat op het spek. Voorbinden is wat anders...
Wat ik eigenlijk veel leuker vind, is dat mensen dachten dat het vloeibare helium in de LHC een 'bosenova' kon vormen. Dit is een explosie op kleine schaal die veel weg heeft van een supernova. Mensen van de CERN theory group hebben er zelfs een paper over geschreven: There is no explosion risk associated with superfluid Helium in the LHC cooling system.
Hahahaha, genieten die site :P:P
hahaha mooi zeg "nope" en de laserbunny is er ook nog niet ;)
sir, you made my day *flies awayy*
haha, "if the lhc actually destroys the earth & this page isn't yet updated
please email mike@frantic.org to receive a full refund
"
Eigenlijk is de source bar slecht. Ik kan geen enkele reden verzinnen waarom 'typeof worldHasEnded' plotseling niet meer 'undefined' zou zijn als de aarde in een zwart gat wordt gezogen.
Daar moet ik wel bij zeggen dat ik niet zou weten hoe je in javascript moet vaststellen of de aarde nog bestaat. Ik kom niet verder dan 'ping google' of een variant daarop, maar dat is bepaald niet waterdicht. Google kan ook om andere redenen down zijn.
Als de aarde niet bestaat kan dat javascriptje die var niet definen en is dus undefined.
Dat zou nog logisch zijn ja. Maar zo werkt het scriptje niet. De aarde is niet vergaan als woldHasEnded undefined is. Dus blijkbaar moet een onbekend mechanisme de var
zetten als de aarde wel vergaan is.
Ik dacht dat het andersom stond, dan klopt het inderdaad niet :P
Gemiste kans, daar had natuurlijk een geweldige 1 april grap ingezeten: "As of 13:37 this afternoon, the Earth has in fact been destroyed. Sorry!" :p
Goed nieuws, de bundels hebben een aantal rondjes gemaakt, maar dit zijn nog ruwe testrondjes.Nu moet alles nog ingeregeld en getweaked worden en gaat de energie in stapjes omhoog.Dus het duurt nog een paar maanden voordat het gevaarte maximum energie collisions gaat genereren :)
edit:
Alleen bundel 2 heeft het traject volledig doorlopen, op dit moment loopt bundel 1

edit:
En gelukt, ook bundel 1 heeft een succesvolle ronde gemaakt :)

[Reactie gewijzigd door blobber op 5 april 2015 12:28]

Dus we hebben nog even voordat de Aarde verdampt ;)
Maar alle gekheid op een stokje, ik hoop dat het zal leiden tot een hoop nieuw inzicht.
(gekheid mode weer aan) Een Replicator of Teleportatie lijkt me wel handig. Geen auto's meer nodig en iedereen heeft wat 'ie wil, kortom een samenleving naar Star Trek model waar geld en armoede niet bestaat. Lijkt me erg prettig zo'n samenleving ;)
Dat is het fascinerende inderdaad, je weet nooit wat dit gaat opleveren.In de eerste fase ging men gericht op zoek naar het Higgs boson, maar nu gaat men weliswaar het higgs mechanisme en parameters nog nauwkeuriger bepalen, maar duikt men ook in het grote onbekende.
Waar ik op hoop is vooral de ontdekking waar donkere materie uit bestaat en of supersymmetrie hiervoor verantwoordelijk is of iets anders :)
Maar dat kan best nog even op zich laten wachten, we hebben uiteindelijk ook meer dan 40 jaar op het Higgs boson moeten wachten.Ik hoop wel dat het iets minder lang duurt :D
Om de LHC voor te bereiden, moesten 18 van de 1232 supergeleidende magneten worden vervangen ten gevolge van slijtage
Als ze slijten, dan waren ze toch niet supergeleidend? Of bekijk ik het nu te simpel?
Eigenlijk weet het antwoord niet, maar ik doe een goede gok.

Als je een electrisch geladen deeltje wilt voorduwen / -trekken, dan zal je een magneetveld het voortbewegende deeltje moeten laten volgen. Daarvoor schakel je een magneet in en kort daarna weer uit, op volgorde. Magneten stoten elkaar af, of trekken elkaar aan. Als je met hun magneetveld gaat zitten spelen dan worden die magneten dus een beetje heen er weer gewrikt. Op de duur gaat je metaal daar van stuk. Vooral op die lage temperaturen zijn de meeste dingen erg bros. ... slijtage
In hoeverre komt de computerkracht van CERN nu in de buurt van de top 10 computers in de wereld? Je zou toch denken dat ze dit hier wel kunnen gebruiken.
Het is een deeltjesversneller.

De sporthal top500 kun je vinden op top500.org die lijst dateert alweer van november 2014, de volgende zal vast in juni uitkomen.

Je kunt de vraag beter omkeren. Als CERN fiks wat rekenkracht nodig heeft om iets na te rekenen, krijgen ze dan toegang tot de snelste supercomputers?

Een deeltjesversnellersproject met een totale kostprijs in de vele tientallen miljarden - enkel gebouwd om de wetenschap verder te helpen - krijgen ze dan even toegang tot een supercomputer op het grid terwijl zo'n top5 supercomputer qua prijs ver onder de halve miljard dollar zit?

Het is bijna een rhetorische vraag!

Wat denk je zelf?
Hoop maar in dat er loop der jaren bewijzen komen voor snaartheorie en de werking van zwaartekracht en andere dimensies, Prachtig om te zien,

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True