Onderzoekers simuleren heelal accurater met supercomputer

Onderzoekers van de Amerikaanse universiteiten van Californië en New Mexico hebben een supercomputer gebruikt om een simulatie van het universum te maken. De simulatie leverde het meest accurate model van het universum tot nog toe op.

De simulatie, uitgevoerd door het High-Performance Astrocomputing Center, of Hipacc, van de universiteit van Californië, moet inzicht geven in de vorming van het heelal sinds de oerknal. De Bolshoi Cosmological Simulation, zoals het project genoemd is, werd uitgevoerd door de Pleiades-supercomputer van het Nasa Ames Research Center. Pleiades beschikt over 23.424 processors, goed voor 111.872 cores en 186.880GB werkgeheugen, waarmee 1,09Pflops gehaald kunnen worden. De Bolshoi-simulatie vergde desondanks zes miljoen cpu-uren rekenwerk om de 8,6 miljard deeltjes, ieder representatief voor de massa van ongeveer 200 miljoen zonnen, te simuleren.

Met Pleiades werd een 'stukje' van het universum gesimuleerd. Een representatieve kubus met ribben van 1 miljard lichtjaar werd vanaf 24 miljoen jaar na de Big Bang gemodelleerd. Daarbij werd onder meer gekeken naar de distributie van zogeheten donkere materie, die een belangrijke rol speelt in de formatie van sterrenstelsels. Het universum bestaat voor het merendeel uit deze donkere materie en een beter begrip ervan leidt tot inzicht in het ontstaan van sterrenstelsels en andere grote structuren in het universum.

De Bolshoi Cosmological Simulation maakt gebruik van data die werd verzameld door de Wilkinson Microwave Anisotropy Probe, een langdurige meting van de kosmische achtergrondstraling. Een eerdere simulatie maakte gebruik van verouderde data van de Probe. Met de nieuwe data is een preciezere simulatie mogelijk, die zeer nauw bleek aan te sluiten bij geobserveerde metingen van het universum.

De onderzoekers publiceerden honderdtachtig driedimensionale 'snapshots' van het evoluerende stukje universum dat zij simuleerden. Daarmee kunnen onderzoekers hun theorieën over processen in het heelal toetsen. Naast de Bolshoi Cosmological Simulation lieten de onderzoekers Pleiades ook rekenen aan BigBolshoi of MultiDark, een vergelijkbare simulatie, maar op een selectie met een 64 maal zo groot volume. Pleiades rekent bovendien nog aan een derde simulatie, met een hogere resolutie, die miniBolshoi wordt genoemd.

Bolshoi-simulatie

Door Willem de Moor

Redacteur

03-10-2011 • 12:49

56

Lees meer

Onderzoekers simuleren schapenhart
Onderzoekers simuleren schapenhart Nieuws van 16 januari 2013

Reacties (56)

56
54
34
7
0
7
Wijzig sortering
Een volledige simulatie van het universum uitgevoerd binnen dat zelfde universum lijkt me logische gezien onmogelijk. Ik neem aan dat iedereen begrijpt waarom dit niet kan.
Maar dit zijn natuurlijk altijd leuke wetenschappelijke onderzoeken.
Later we hopen dat er nog iets nuttigs uit komt.
Als je het op het atoomniveau wil gaan berekenen wordt dat inderdaad lastig. Ookal kan je er aardig wat compressie op los laten, als je bedenkt dat bijna 100% van de ruimte gewoon leeg is.
Maar het simuleren van alle sterren, die een massa en aantrekkingskracht hebben, een 'geschatte' levensduur op basis van die 2, een locatie en een richting, zou mogelijk moeten zijn. Dit zijn gewoon nummertjes die je in een computer kan stoppen.
Ze hebben nu een kubus gepakt van 1 miljard lichtjaar ³ waarbij het gemiddelde van 200 miljoen zonmassa's (sterren) met bovengenoemde eigenschappen maal 200 miljoen als 'particle' gebruikt werd.
Verhoog je die particle resolutie met 200 miljoen, dan heb je al een simulatie die op de ster nauwkeurig is. In grote lijnen om te kijken hoe het heelal zich beweegt is dat genoeg. De aanwezigheid van een planeetje meer of minder zal daar geen merkbare invloed op hebben. Daarnaast moet je de 'kubus' vergroten tot een bol met een diameter van 13.7 miljard lichtjaar, zodat je ons gehele zichtbare universum mee pakt in de simulatie.
Als je wilt simuleren hoe 1 zonnestelsel zich ontwikkelt kan je dat beter per stuk doen, daar hoef je niet een simulatie van een volledig universum voor te maken.
Volgens mij kan je met de juiste vernuftigheid, compressie en rekenkracht tot een redelijke nauwkeurige simulatie van het heelal komen, alleen heb je er zo weinig aan. Je hebt dan zo ongelofelijk veel data dat je als waarnemer niet meer weet waar je naar kijkt. Allemaal sterretjes die een beetje ten opzichte van elkaar heen en weer schommelen met gigantische afstanden ertussen. De resolutie van dit supercomputer project is meer dan hoog genoeg om er van een afstandje mooi naar te kunnen kijken en te zien hoe clusters en melkwegstelsels bewegen.

Wat mij erg benieuwd is of uit deze simulaties af te leiden valt hoe groot ons heelal buiten ons zichtbare veld nou eigenlijk is.
''Wat mij erg benieuwd is of uit deze simulaties af te leiden valt hoe groot ons heelal buiten ons zichtbare veld nou eigenlijk is.''

ja... hoebedoel je dat. donkerematerie moet toch ergens eindigen?
of kom je dan met als met pacman (simpelvoorbeeld) de andere kant van het helehaal weer naar binnen
Wel, in feite zal het pacman-effect wel degelijk optreden.

Je kan het universum als gesloten geheel het beste begrijpen als een ballon die je opblaast. Teken wat stippen op je ballonvel, dat zijn de zonnen. Je blaast hem op, en op die manier speel je voor Big Bang. Je zal zien dat alle afstanden groter worden zonder dat je ergens een centrum of middelpunt hebt. Dat is de uitzetting.
Waar we nu naar op zoek zijn, is de 'dikte van het ballonvel', met name de hoeveelheid massa. is je ballonvel te dun (=te weinig massa), blazen we de boel kapot (zal minder spectaculair zijn in het echt universum). Heb je genoeg massa, zal je ballon het houden tot je buiten adem geraakt. Waarna je stopt met blazen om te ademen en je vel terug samentrekt. Allez, dit is nu wel heel simplistisch voorgesteld maar bon.

Maar bon, on topic: plaats een mier op je ballon en laat ze rondlopen. Die zal nergens een middelpunt vinden, die kan blijven rondlopen. En als ze lang genoeg rondloopt, komt ze gewoon uit op hetzelfde punt. Cool he 8-)

Los daarvan: hou er rekening mee dat het heelal héél snel uitzet. Wss moet je al sneller dan het licht reizen om ooit een volledig 'rondje rond de ballon' te kunnen maken.
Misschien dat door de simulatie uiteindelijk bepaald kan worden in hoeverre er invloeden (vanuit zwaartekracht en donkere materie of energie) zijn van buiten de 13.7 miljard jaar die wij kunnen zien, en als je kan berekenen waar alles vandaan komt en naar toe gaat is misschien te berekenen hoeveel materie er buiten het zichtbare deel zou moeten zijn.
Sommige wetenschappers zeggen 200x zo veel, anderen zeggen weer een triljoen keer zo veel. Ik ben in ieder geval enorm nieuwsgierig.
Niet om moeilijk te doen, maar ik begrijp niet waarom dat theoretisch niet kan. Praktisch zal het niet evident zijn en zal je iets meer power nodig hebben dan een Core i3. Dus leg me eens uit wat hier niet aan kan :Y)
Pak nu het schaakspel.
Stel dat je alle mogelijke schaak spelletjes die er ooit gespeeld kunnen worden wil opslaan in een database. Nu, dat gaat al niet. Voor alle mogelijke schaak posities 40 zetten diep heb je al 10^46 verschillende posities.

De game tree complexiteit is 10^123 !!!! Weet je hoe groot dat getal is ? Een 10 met 123 nullen erachter !
Het nummer van atomen in het zichtbare universum is geschat op rond de 10^81.

Hoe wil je ooit alle mogelijke posities waaruit ons universum kan bestaan berekenen van opslaan? Als er niet genoeg deeltjes zijn in ons universum om dat mee op te slaan of om mee te berekenen ?
En als je niks opslaat wat heb je dan aan je simulatie ? Je computer zal toch een geheugen moeten hebben en dit zal groter moeten zijn als het universum en dat is onmogelijk.

Ik had het niets voor niks over de volledige simulatie van ons universum. Al zijnde "een mogelijkheid om terug in de tijd te gaan door een computer te bouwen die ons universum exact na doet van begin tot eind"


Voor een wat leukere kijk moet je dit korte science fiction verhaal maar eens lezen.
Daar simuleren ze hun eigen universum en spoelen door tot ze in het heden zijn en dan komen ze er achter dat .... nu ja lees zelf maar

"I don't know, Timmy, being God is a big responsibility"

http://qntm.org/responsibility

En er is nog een reden waarom ik hoop dat er nooit een soort computer komt (dat ding noemen we dan al 1000 jaar geen computer meer, maar waarschijnlijk God, ooit als grapje begonnen en later ingeburgerd terwijl niemand meer weet wat God vroeger betekende)
die ons hele universum kan simuleren.

Alles is dan deterministisch. Wetenschappelijk bewezen dat er geen vrij wil is.
En misschien heb ik op dit moment niet de vrije wil om dit niet of wel te typen en zo meteen op versturen te duwen. Maar ik leef liever met de illusie dat ik die keuze wel heb.

[Reactie gewijzigd door Kain_niaK op 23 juli 2024 15:55]

Tenzij je daar een dimensie bijrekent, dan wordt het ineens mogelijk. Dit is echter allemaal zo ver weg dat het geen nut heeft om er over te speculeren. Zelfs als het wel kon, zou je je kunnen afvragen wat het nut is.
En als je iedere morgen gewoon in bed blijft hoef je ook niet te weten hoe laat de bus gaat. Om maar even een zijstraat te noemen.
Het universum bestaat voor het merendeel uit deze donkere materie en een beter begrip ervan leidt tot inzicht in het ontstaan van sterrenstelsels en andere grote structuren in het universum.
Dit is niet correct (voor zover ik tot op heden onderzoeken heb gezien). De huidige theorieen gaan er van uit dat dark energy (en dus niet dark matter) het meerendeel van het heelal is.

Wikipedia quote:
In physical cosmology, astronomy and celestial mechanics, dark energy is a hypothetical form of energy that permeates all of space and tends to increase the rate of expansion of the universe.[1] Dark energy is the most accepted theory to explain recent observations that the universe appears to be expanding at an accelerating rate. In the standard model of cosmology, dark energy currently accounts for 73% of the total mass-energy of the universe.[2]
Dat is ook wat mij als eerste opviel. Wat wel zo is, is dat het grootste deel van de materie donkere materie is. ~70% donkere energie, ~25% donkere materie, slechts ~5% zichtbare materie.
Ontzettend interessant onderzoek. Er klinkt in door dat men al begrijpt wat de natuurwetten zijn die bepalen hoe een helal zich ontwikkeld. Ik dacht dat nog heel veel onbekend en/of onbegrepen was? Hoe zit dat dan? Of is het op basis van een observatie en met een algoritme (zoals neurale netwerken) die de materie zelf niet kent, maar op basis van de observatie een inschatting maakt van toekomstige trents?

Edit:
quote: origineel artikel
"In one sense, you might think the initial results are a little boring, because they basically show that our standard cosmological model works," said Joel Primack, distinguished professor of physics at the University of California, Santa Cruz
Dus er is een standaard model gebruikt? Wist niet dat die er al is... Waarschijnlijk zijn de bekende factoren meegenomen in de simulatie en waren die voldoende om een simulatie te maken die al heel goed voldoet aan de oberservaties.

Overigens leuke verwijzing naar een theater. (Bolshoi is een theater in Moscow) Gelijk een filosofische verdieping in het onderzoek ;)

[Reactie gewijzigd door Kaw op 23 juli 2024 15:55]

Ja, dat dacht ik ook. Maar het gaat hier *denk ik* om een simulatie met een bepaalde willekeur omdat niet alles bekend is (stochastische simulatie). Een tweede simulatie van hetzelfde zou een iets ander beeld kunnen geven? (Ik gooi ook maar een balletje op, zeer zeker niet mijn area of expertise :P)

[Reactie gewijzigd door uNoTopia op 23 juli 2024 15:55]

Je bent misschien iets op het spoor met dat balletje opgooien.
Maar Donkere Materie word hier in het artikel aangehaald als een bewezen feit.

Terwijl de hele simulatie draait volgens de bekende feiten, zal er een afwijking zichtbaar zijn die een verschil laat zien tussen de aan zekerheid grenzende waarschijnlijkheid bewezen theorieën en wat er in het echt is gebeurd.
Hiermee kunnen ze dan een formule opstellen, rekenwerk uitvoeren en die invloeden aan Donkere Materie toeschrijven.

http://nl.wikipedia.org/wiki/Donkere_materie


Ikzelf ben eerlijk gezegd niet overtuigd van Donkere Materie.
Dezelfde bewegingen die ze in het heelal onverklaarbaar noemen zien we ook terug in, bijvoorbeeld, een sterrenstelsel en een wiel waarbij de buitenste rand sneller draait dan de binnenkant. Of de harde schijf, waarbij je meer data kunt lezen per seconde als die data zich in de binnenste rand bevindt.

Wat ik dus probeer te zeggen is, dat het zichtbare gedeelte van het heelal, misschien ook maar een stukje van een schijf is.

[Reactie gewijzigd door Yezpahr op 23 juli 2024 15:55]

Er is bewezen dat donkere materie bestaat, we weten echter nog niet de aard van die materie.

Het feit is dat Einstein reeds wist dat er iets tekort was maar toen wisten ze niet direct aan de hand van observaties wat er aan de hand was. Meer recent hebben ze kunnen zien dat er eigenlijk niets is alhoewel dat dit niets een massa heeft en zo zijn we dus bij Kwantum Fysica terechtgekomen.

[Reactie gewijzigd door Guru Evi op 23 juli 2024 15:55]

Kwantumfysica ja.
Dat is de manier die het moet uitleggen, maar om nou Donkere Materie erbij te pakken...

Ik vermoed dat Donkere Materie alleen suggestief bewijslast erbij krijgt, maar dat het uiteindelijk compleet verworpen en het verschijnsel een nieuw hoofdstukje word in Kwantumfysica of in het Standaard Model.

[Reactie gewijzigd door Yezpahr op 23 juli 2024 15:55]

Een wiel is massief, een harde schijf is massief. Een sterrenstelsel niet. Je zou verwachten dat naarmate je verder verwijderd raakt van het centrum, de omlooptijd van de materie toeneemt en dus steeds langzamer ronddraait. (wet van Kepler)

Jouw verklaring vindt aarde met donkere materie en engergie. Die zou kunnen zorgen voor deze rare metingen. Occam's Razor zou zeggen; zoek in het standaardmodel naar een antwoord.
Maar het standaardmodel en de donkere materie focussen op verschillende dingen: quantumeffecten en galactische effecten. Het verenigen van deze modellen is tot nog toe niet gelukt, dat hoeft ook nog niet, daar beide modellen nog lang niet af zijn (of ooit zullen zijn). Laat staan dat iets op galactische schaal opeens met een quantummechanisch effect wordt verklaard.

Want welk nieuwe deeltje wil je er dan bij slepen?
Het is een nieuw deeltje in het standaardmodel, of een nieuwe kracht op macroschaal. Die we allebei moeten onderzoeken.

Donkere materie doet het nog prima, daar is het een model voor. Net als alle natuurkunde.
http://hipacc.ucsc.edu/Bolshoi/Movies.html#bsim

daar kan je video's bekijken van hun resultaten ...

en je kan daar ook stukken zien van hoe dicht ze tegen de werkelijke resultaten zitten met hun berekeningen (hoe het is vs hoe ze het berekend hebben)
Erg mooie filmpjes, bedankt voor de link!
Op basis van waarnemingen kun je een model maken over wat donkere materie nou ongeveer doet.
Zoals ik al zei: een model, een model is een versimpeling van de werkelijkheid, en hoeft dus niet perse 100% correct te zijn.

Echter, door deze tests uit te voeren kan men wellicht een stuk beter beeld vormen over wat donkere materie nou eigenlijk doet/is :)

Ik verbaas me dat ze geen gebruik hebben gemaakt van BOINC om wellicht een nog grotere simulatie te maken :D
Ik verbaas me dat ze geen gebruik hebben gemaakt van BOINC om wellicht een nog grotere simulatie te maken :D
Gedistribueerde systemen zoals BOINC zijn erg geschikt als er vele kleine reken-taken zijn die onafhankelijk uitgevoerd kunnen worden. Daarnaast wordt ieder pakketje rekenwerk dat door een BOINC client is uitgevoerd door de server opnieuw verstuurd ter verificatie, wat extra vertraging oplevert. Dit rekenmodel is erg geschikt voor taken die heel goed in stukjes te hakken zijn en waarbij het niet uitmaakt op welke volgorde de stukjes uitgerekend worden. Bij SETI@Home waren er vele blokjes telescoop data om te analyzeren, maar de resultaten waren volledig onafhankelijk van de data in andere blokjes. Hierdoor was dit een geschikt onderzoek voor het BOINC systeem.

Een simulatie zoals die uit het artikel werkt op een heel andere manier. Er zijn vele miljoenen gesimuleerde deeltjes die in iedere tijdstap kunnen bewegen en van eigenschappen kunnen veranderen. Deze deeltjes "leven" echter niet in isolement, hun gedrag wordt direct beinvloed door andere deeltjes (via zwaartekracht of botsingen). Om te berekenen wat met deeltje X gebeurt, moet ik dus weten wat er gebeurt met deeltje Y (en al z'n collega-buur-deeltjes). Er is dus sterke een ruimtelijke afhankelijkheid, waardoor je het probleem niet makkelijk ruimtelijk kunt verdelen in kleine reken-taken voor aparte clients. Daarnaast heb je de resultaten van tijd-stap N nodig om tijd-stap N+1 te kunnen uitrekenen. De volgorde waarin de berekeningen gebeuren is dus erg belangrijk.

Een simulatie als deze is dus heel erg ongeschikt voor een BOINC-achtig systeem, het zou vele malen meer processor-kracht vereisen om dezelfde snelheid te behalen. Sterker nog, dergelijke simulaties doe je het liefst op zo min mogelijk processoren, om de communicatie tussen verschillende nodes te beperken. Echter is de rekenkracht van een enkele processor beperkt en is de enige manier om je rekenkracht op te schalen het simpelweg toevoegen van meer processoren. Maar daarbij moet wel rekening worden gehouden met de communicatie tussen de verschillende nodes. Die moet zo snel mogelijk zijn. Bovendien moet de software op een heel specifieke manier geschreven worden om optimaal om te kunnen gaan met de parallele configuratie.

[Reactie gewijzigd door Rannasha op 23 juli 2024 15:55]

waarschijnlijk is BOINC te traag (internet latency's enz.) om het efficient te maken.
Dit heeft ook al erg lang geduurd om uit te rekenen, dus met BOINC had het waarschijnlijk nog iets langer geduurd (is wel een aanname).
Hoe kom je daar bij? Wat BOINC doet is uw berekening in talloze kleinere delen opsplitsen, deze naar alle afzonderlijke devices doorsturen om de berekening te maken en vervolgens het resultaat terug te laten zenden door de clients. Latency maakt daarbij nog geen 0.00002% uit van de totale responsetijd. Als je naar één van de grootste BOINC projecten ooit kijkt (worldcommunitygrid) dan zie je dat een gemiddeld resultaat 5h:52m duurt. Een latency van pakweg 5 seconden (wat al traag is) op netwerkniveau is dus verwaarloosbaar. De totale cpu-time van een project als worldcommunitygrid: 1.749.981cpuh/day.

Door GRID computing zou men deze berekening bv. op +- 4 dagen hebben kunnen berekenen. Sommige BOINC projecten hebben meer dan 1 miljoen actieve clients. Een project als dit is dus uitermate geschikt voor distributed computing. Wellicht spelen hier meerdere factoren een rol waarom er niet voor GRID computing gekozen werd (schaalbaarheid, kostprijs?). Maar zeer zeker niet de latency.
Ik kan me inderdaad voorstellen dat schaalbaarheid een groot probleem is bij dit specifieke project...
Bij veel BOINC projecten is de opdracht die je krijgt niet afhankelijk van andere opdrachten. Bij een simulatie zoals deze zijn de objecten die je simuleert afhankelijk van andere objecten die wellicht niet in je opdracht zitten.

Aan de andere kant kun je ook alles opbreken in micro tijds eenheden, zodat je alleen een stukje hoeft te berekenen, maar wellicht is daar weel veel RAM voor nodig om effectief te zijn gezien de grootte van het model. :)

edit: Wat Species5618 zegt hieronder :p

[Reactie gewijzigd door wootah op 23 juli 2024 15:55]

waarschijnlijk is BOINC te traag (internet latency's enz.) om het efficient te maken.
Internet latency?

Bij BOINC is het zo dat je een pakketje download waar alle instructies in staan die je moet uitrekenen. Vaak nog geen 50MB.
Je rekent er een aantal uurtjes op (soms) en dan stuur je de resultaten als pakketje terug.
Zeer simpel... alsof je alle berekeningen live over het internet gaat versturen, dat zou idd traag zijn :P
we weten vrji goed wat de wetten doen.
waar we weten nog niet altijd HOE ze doen wat ze doen.
hoe werkt zwaartekracht is dus nog onbekend, ook al weten we precies wat de zwaartekracht doet.
Dat is ook niet helemaal waar, het licht er aan op welke schaal je kijkt. Want dit is op een hele grote schaal, waardoor de elektromagnetische, zwakke- en sterke nucleaire kracht in het niet vallen bij de zwaarte kracht, terwijl het tegenovergestelde geldt op hele kleine schaal.
Dus met deze simulatie hebben ze alleen getest of het huidige model op deze schaal werkt, dus de of we donkere materie begrijpen. Maar we zijn nog lang niet zo ver dat we alles op elke schaal met één model (theorie of everything) begrijpen.

Offtopic: stel je voor dat je een supercomputer zou hebben die het hele heelal zou moeten modelleren, dan zou die dus ook zichzelf moeten modelleren.
@kwindvd
ook offtopic:
Er werd al rekening gehouden met 8,6 miljard deeltjes, ieder met een massa van 200 miljoen zonnen.

Kijk, als ze dat nou konden verbeteren en alle (bekende) massa van bekende sterren ook simuleren met terugrekenen van brandstofverbruik en en gok van aantal super/nova's er geweest zijn en hoe groot, dàn komen we nog eens ergens :P .
De simulatie startte 'pas' bij een heelal dat al 24 miljoen jaar oud was. Voor dit tijd is er inderdaad teveel dat nog onbegrepen is om het goed te kunnen modelleren.

Ook daarna begrijpen we nog niet alles, bijvoorbeeld weten we niet waar donkere materie uit bestaat. Maar kennelijk laat dat zich toch prima modelleren, je hoeft dus niet helemaal te weten wat donkere materie is, het gedraagt zich verder toch netjes volgens de bekende natuurwetten.
Ik vermoed dat 'Bolshoi' niet zozeer op het theater slaat maar op de letterlijke betekenins van het woord in het Russisch: groot (of ook groots)!
zes miljoen cpu-uren rekenwerk om de 8,6 miljard deeltjes
en hoeveel is dat is gewone dagen?

En ik vroeg me af, hoe voeren ze die data in die superpc, met een csv? :+
2 dagen en een beetje lijkt me

6.000.000 / 111.872 / 24 = 2,23
Of 6.000.000 / 23.424 / 24 = 10,67 dagen als je niet de cores maar de cpus neemt.
Distributed computing my friend. En helemaal als ze GPU kunnen bijschakelen kan het hard gaan!

Heb het jaren hier bij DPC gedaan. Mijn energierekening werd echter iets te gortig dus ben ermee gestopt.
Zeer moeilijk onderwerp vind ik deze donkere materie, iets met zeer veel massa zodat het ons universum bijelkaar kan houden, maar toch onzichtbaar!

Zoals ze het uitlegde in "how the universe works" lijkt het op een soort van lijm die ervoor zorgt dat alle sterrenstelsels een beetje op hun plaats blijven.
Anoniem: 126717 @wouzke3 oktober 2011 13:19
Men is er ook nog niet over uit of het ook echt bestaat. Recentelijk stond er een stuk op de BBC site, maar ik kan het even niet vinden, wel dit afgeleide stuk.
En nu maar hopen dat de simulatiemodellen ook accuraat genoeg zijn.Het ontstaan van het heelal lijkt mij een vrij chaotisch proces, dus een iets andere begintoestand in je model kan al heel andere uitkomsten opleveren.
"De Bolshoi-simulatie vergde desondanks zes miljoen cpu-uren rekenwerk om de 8,6 miljard deeltjes, ieder representatief voor de massa van ongeveer 200 miljoen zonnen, te simuleren."

Dat is toch niet meer voor te stellen, 8.6 miljard deeltjes á 200 miljoen zonnen per stuk :D

Offtopic: Om één van die zonnen sterren moet haast wel een exoplaneet draaien met leven. E.T. kom er maar in.

@C.Hariri: Zo staat het in het artikel. Het gaat hier niet om sterren maar om de massa van ongeveer 200 miljoen zonnen AKA 200 miljoen keer de massa van onze zon. My bad.

[Reactie gewijzigd door uNoTopia op 23 juli 2024 15:55]

Er is maar 1 Zon (de ster waar de Aarde omheen draait). Er zijn echter wel meerdere sterren. Zoiets als dat je niet alle planeten 'Aardes' noemt. :P

[Reactie gewijzigd door C.Hariri op 23 juli 2024 15:55]

De Zon is genaamd Sol in de wetenschap, of De Zon in Nederland(s). Er zijn veel zonnen, 1 van die zonnen noemt men Sol (of De Zon), dat is de ster die je ziet als je overdag buiten staat. Het zijn allemaal sterren, zonnen zijn sterren waar planeten rond draaien.

[Reactie gewijzigd door Guru Evi op 23 juli 2024 15:55]

100% leeg ?
En anti materie dan ?
En zwarte materie dan ?
Wat dacht je van alle ontelbare elementaire deeltjes die door elke piep klein stukje ruimte schieten ? Zo leeg is de ruimte niet. De wetenschappers weten niet eens of "leegte" wel echt bestaat. Maar "leegte" is natuurlijk net zo moeilijk te bevatten als "puur massief"
Ja, maar als ik nu inzoom en blijf inzoomen waar kom ik dan op uit ?

Gekke mensheid. We snappen oneindig niet maar we komen ook in de problemen als iets eindig is. We kunnen niet nadenken over "niks" (niks is waar stenen over dromen) en alles is ook niet te bevatten.
Als we ooit bij de grens van ons universum (niet dat die dat heeft, maar stel dan) komen zal de eerste vraag meteen zijn: "Maar wat ligt daarachter?"

Maar voor het zelfde geld is ons universum zo'n rare geometrische constructie dat je eeuwig rechtdoor kunt vliegen en uiteindelijk terug op je begin positie terecht komt.

Gek universum, dat voor elke vraag die we oplossen ons 10 nieuwe in ons gezicht smijt zodat hoe meer we weten hoe mee we beseffen hoe gigantisch veel we nog niet weten.

Als we trouwens ooit een eigen universum simuleren (niet het onze, maar een nieuw dat we zelf ontworpen hebben) dan zal ik het zeker weten:

Wij zijn ook een simulatie. En onze doel is altijd geweest om ons te ontwikkelen tot we zelf ook een simulatie konden bouwen. En het doel van die simulatie is voor de wezens om zich ook te ontwikkelen tot zijn een eigen simulatie kunnen bouwen.
En zo verder tot in de eeuwigheid.

Tot we erachter komen dat de hoogste realiteit gelijk is aan de laagste realiteit.
En er een eeuwige oneindige loop bestaat van universa en dimensies die elkaar simuleren.
En nu mag je vragen: Kain, wat heb jij gerookt !

En ik zal zeggen; Da's goed spul wat ze daar hebben, op de bovenste verdieping.

En wie dat niet snapt moet maar "Welt am Draht" en de latere remake "13th floor" gaan kijken.
De films waar de matrix op gebaseerd zijn.

En dat komt allemaal uit een oud boek "Simulacron-3 " en raad eens wie dat geschreven heeft ? Precies mijn verre verre kleinzoon die over 1000 jaar geboren wordt ....

leuke denkpistes die oneindige eeuwige loops.
En dat allemaal door dat onze Grote Programmeur een goto over het hoofd zag ...

[Reactie gewijzigd door Kain_niaK op 23 juli 2024 15:55]

Het heelal is prachtig! http://www.youtube.com/watch?v=zmR3cqgoldU
Maar ook heel wreed... http://www.youtube.com/watch?v=2ENsPa6WX1E
Wel leuk om te horen dat ze steeds meer kunnen simuleren tegewoordig; van brein tot heelal. Hopelijk zijn ze een beetje CO2 neutraal.
En dit alles zou dan allemaal afkomstig zijn van samengeperste materie ter grote van een atoom, die dan ontploft is!
Funny part is: voor de big bang bestond er geen materie. Om massa te 'maken' uit energie heb je dat fameuze H Higgs Boson nodig waar ze zo hard naar op zoek zijn.
En grootte bestond ook al niet, er bestonden geen dimensies.
Ja, wetenschappers willen dat we dat geloven. Als je er over nadenkt is het volkomen bizzar. Maar ze willen wel dat we niet in telepathie geloven.

Op dit item kan niet meer gereageerd worden.