Onderzoekers maken meest geavanceerde simulatie van ontstaan heelal tot nu toe

Astrofysici van MIT, Harvard en een aantal Europese instellingen hebben in een computersimulatie gepoogd om het ontstaan van het universum kort na de oerknal in beeld te brengen. Het computermodel bestrijkt een periode van 13,8 miljard jaar.

Met het model, dat onder de vlag van het Illustris Project is gerealiseerd, hebben de onderzoekers in kaart gebracht hoe sterrenstelsels ontstaan en groeien. Het onderzoek, dat enkele jaren in beslag heeft genomen, moet meer inzicht verschaffen in de structuur van het universum. De simulatie beslaat een tijdspanne van miljarden jaren, vanaf 300.000 jaar na de oerknal tot nu.

De onderzoekers maakten gebruik van zogeheten hydrodynamische simulaties om de bewegingen van materie in ontwikkelende sterrenstelsels te berekenen. Voorheen werd die techniek, die zeer veel rekenkracht vergt, slechts op beperkte schaal toegepast. Met het Illustris Project maakten de onderzoekers gebruik van supercomputers met 8192 processorcores en 25 terabyte geheugen voor de simulaties. Dat stelde hen in staat om een universum met een 27 maal groter volume dan tot dusver te simuleren, met tienduizenden sterrenstelsels.

Het grotere volume en de nauwkeuriger simulatie van sterrenstelsels leverde de beste simulatie van het universum tot nu toe. Het computermodel moet inzicht geven in de manier waarop sterrenstelsels onder invloed van onder meer donkere energie, donkere materie en normale materie vormen. Zo wordt onder meer de theorie gestaafd dat donkere materie een web vormt waarlangs sterrenstelsels zich kunnen ontwikkelen.

Helaas!
De video die je probeert te bekijken is niet langer beschikbaar op Tweakers.net.

Door Dimitri Reijerman

Redacteur

08-05-2014 • 15:54

182

Reacties (182)

182
167
83
12
1
35
Wijzig sortering
Misschien een stomme vraag -ik heb geen idee waar ik over praat- maar ik ben toch nieuwsgierig naar aanleiding van deze zin in het artikel:
Het gesimuleerde en uitvouwende universum in het computermodel, dat 12 miljoen jaar na de oerknal start, heeft een doorsnede van bijna 350 miljoen lichtjaar.
Ik was in de veronderstelling dat materie niet sneller dan het licht kon gaan, waaruit ik zou kunnen concluderen dat het nooit meer dan 2x12=24 miljoen lichtjaar in doorsnee zou kunnen zijn. Kan iemand uitleggen waarom die expansie gemiddeld genomen met ruim 29 keer de lichtsnelheid is gegaan tijdens die 12 miljoen jaar?

Meen ook nog eens ergens gelezen te hebben dat de expansie van het universum alsmaar versnelt, hoe snel gaat het nu dan? :)
Het eerste beeld die je te zien krijgt start op 700.000.000 jaar (of 0,7 miljard jaar). Kijk maar even linksonder in beeld. Op 1:30 wordt ook gesproken over 'a cube with a side length of 35 million lightyears'.

De eerste milliseconden na de Big Bang groeide het prille heelal ook exponentieel. De huidige wetten van de fysica waren in die prille beginselen nog niet aan de orde.

[Reactie gewijzigd door dimitrimissinne op 23 juli 2024 04:24]

Natuurkundige wetten zijn abstracties van emperische waarnemingen en niet noodzakelijk universeel geldig. Veel van onze natuurkundige wetten zijn slechts geldig binnen bepaalde omstandigheden. Dat wil uiteraard niet zeggen dat ze zoveel miljard jaar geleden ongeldig waren, maar het kan wel zijn dat de omstandigheden anders waren waardoor de wet gewoon niet toepasbaar is.

En het is moeilijker wetten te formuleren voor omstandigheden die we moeilijk empirisch kunnen waarnemen (zijnde de situatie aan het begin van de oerknal).

TL;DR: De wetten waren niet ongeldig, maar niet noodzakelijk aan de orde.

[Reactie gewijzigd door seba op 23 juli 2024 04:24]

Onze natuurwetten/waardes zijn misschien anders maar zeggen dat wetten de eerste 700 miljoen jaar niet van toepassing zijn. Dat gaat er gewoon niet in.
Je heb te alle tijden rekening te houden met andere mogelijke krachten/wetten
En waarom gaat dat er niet in? Zelfs nu zijn in bepaalde situaties, zoals seba uitlegt, de huidige wetten niet toepasbaar. De kern van een zwart gat bijv. bestaat uit zoveel extreme krachten en fenomenen dat we met de huidige theoretische constructen onmogelijk kunnen voorspellen wat er precies gebeurt. (Correct me if I'm wrong.)

Waarom zouden er in het prille begin van het universum geen situatie kunnen zijn die onze theoretische pet te boven gaat? Je moet bedenken dat natuurkundige wetten niet te allen tijde gelden, en elke theorie zijn eigen veld van toepassing heeft. Kijk bijv. alleen al naar de 'onenigheid' tussen relativiteitstheorie en quantummechanica: http://io9.com/why-cant-e...anics-get-along-799561829

[Reactie gewijzigd door Revolvist op 23 juli 2024 04:24]

Het is veel te simpel om de big bang voor te stellen als een explosie op 1 plaats was. Het was niet iets alsof er een soort tennisbal ontplofte. De big bang was overal en niet ergens op een plekje in de ruimte.

Sterker nog, voor de big bang bestond er niets eens zoiets zoals ruimte. Ruimte en tijd zijn ontstaan gelijktijdig met de big bang.
Het is een gangbare theorie onder natuurkundigen dat natuurwetten die momenteel absoluut zijn, zoals zwaartekracht in de allereerste milliseconden inderdaad niet van toepassing waren.

Waarom? Simpel, voor zwaartekracht heb je massa nodig, in die eerste paar miliseconden was er alleen energie, pure energie, geen massa. Pas later is de energie omgezet naar materie (en dus massa). En in eerste instantie was dat materie en anti-materie (iets meer van de materie) die elkaar gingen opheffen. (nog meer boem).

Pas toen, was er zwaartekracht. Om een voorbeeld te noemen.

Vergis je niet dat al die natuurwetten gestoeld zijn op het universum wat er NU is, in de eerste paar seconden na de big bang, was dat er allemaal niet.
Toch even rechtzetten. Massa en energie zijn equivalent. Direct na de big bang was er massa en zwaartekracht.

"At this time, the Big Bang, all the matter in the universe, would have been on top of itself. The density would have been infinite. It would have been what is called, a singularity. At a singularity, all the laws of physics would have broken down."

http://www.hawking.org.uk/the-beginning-of-time.html

Zwaartekracht wordt beschreven door de algemene relativiteitstheorie, deze theorie geldt op macroschaal (planeten, sterrenstelsels etc.). Naast de relativiteitstheorie is er de quantummechanica welke vooral processen op zeer kleine schaal beschrijft (atomen, fotonen, quarks etc). Om een mathematisch model van direct na de big bang te construeren is er een theorie nodig waarin zowel de algemene relativiteitstheorie en de quantum mechanica verenigd zijn. Deze is er nog niet. Daarom wordt er gezegd dat de natuurwetten niet van toepassing waren. Ik zou dit willen nuanceren: De nu bekende natuurwetten waren niet van toepassing.

Zelfde geld voor zwarte gaten. De huidige natuurkunde kan niet de binnenkant van een zwart gat beschrijven.

edit: De huidige natuurwetten gelden vanaf 10^-49s. Dat is dus na 0.0000000000000000000000000000000000000000000000001s. Dit heeft niets te maken met de start van de simulatie op 700 miljoen jaar

[Reactie gewijzigd door HEY_DUDE op 23 juli 2024 04:24]

De huidige natuurkundige wetten kunnen geen voorspellingen doen over gebeurtenissen binnen een periode met de lengte van de planck tijd (ongeveer 10^-43s). Met de huidige natuurwetten kunnen we dus terug gaan tot maximaal 10^-43s na de Big Bang.
Waar is het bewijs hiervoor?

Je veronderstelt dat de big bang de eerste knal was. Da's toch vrij naief.
Zodra er een big bang was is er massa en dus gaan er meteen wetten in werking. Dat die wetten misschien andere zwaartekracht enz. hebben is zeer waarschijnlijk maar binnen een seconde van de ontploffing die al die massa zou hebben laten ontstaan is er dus al wat.
vergis je niet hoe relevant die eerste paar miniscule eenheden waren. Goed, we hebben het hier over 10-12 tot 10-6 na de big bang. Maar toen was alles fundamenteel anders dan nu. Maar nog altijd volkomen relevant voor alles wat er nu is.
Dus 700 miljoen jaar min een fractie van een seconde moet er dus gewoon rekening gehouden worden met wetten al zijn de waardes van de wetten onbekend.
Nee, zie mijn eerdere opmerking. Voor die wetten waren factoren nodig die er toen nog niet waren. Iets wat niet bestaat, kan ook geen invloed uitoefenen. (quantum mechanica / fysica daargelaten wellicht )
Nochtans is het waar wat hij zegt.
De natuurwetten zijn immers tegelijk ontstaan met het universum en beide hebben elkaar beïnvloed. Het is zelfs mogelijk dat dit nog steeds gebeurt, alleen zijn de verschillen nu zo miniem dat men in de praktijk hiervan (nog?) niets merkt.

Als men gaat rekenen, blijkt dat men zeer ver terug kan gaan in de tijd met de huidige natuurwetten, maar het laatste stuk (seconden?) klopt niet meer. Men vermoedt dat er mogelijk natuurwetten ontbreken, exotische deeltjes gevormd zijn waarvan we de eigenschappen niet kennen en/of dat sommige natuurconstanten toch niet zo constant zijn. Al deze drie mogelijkheden worden momenteel onderzocht.
Natuurwetten gelden ook nu niet overal omdat ze allemaal gebaseerd zijn op de kleinste deeltjes die wij ons voor kunnen stellen, protonen en elektronen. Men vermoedt echter het bestaan van veel kleinere deeltjes met heel andere eigenschappen. Deeltjes die op dezelfde tijd op meerdere plaatsen tegelijk kunnen zijn, of deeltjes die een 1 op 1 relatie hebben, met andere deeltjes op een andere plaats, ongeacht de ruimtelijke afstand, dus ook als er een miljoen lichtjaren tussen zit.

Niet echt dingen die binnen de natuurwetten vallen zoals wij die kennen dus.

[Reactie gewijzigd door Gepetto op 23 juli 2024 04:24]

Volledig binnen de natuurwetten die wij kennen. Protonen bestaan bewezen uit quarks. Zowel protonen als quarks kunnen op meerdere plaatsen tegelijk zijn. Dit wordt volledig beschreven door de quantummechanica.
Het feit dat de positie van die deeltjes wordt beinvloed door de waarneming, binnen welke natuurwet zou jij dit verschijnsel willen plaatsen?
http://en.wikipedia.org/wiki/Wave%E2%80%93particle_duality
Jouw voorstelling van deeltjes als puntdeeltjes is fout. Deeltjes kunnen worden beschreven door een golffunctie. Met deze golffunctie kun je de waarschijnlijkheid uit rekenen waar een deeltje zich bevind. Als jij een meting doet beinvloed je deze golffunctie en stort de golffunctie in elkaar. Je zal het deeltje dan slechts op één positie vinden.

http://en.wikipedia.org/wiki/Wave_function_collapse

Dit is allemaal mathematisch te beschrijven. De intepretatie ervan is veel lastiger en bevindt zich meer op filosofisch vlak. Zelf vind ik de veel werelden intepretatie het leukst.

http://en.wikipedia.org/wiki/Many-worlds_interpretation

[Reactie gewijzigd door HEY_DUDE op 23 juli 2024 04:24]

Anoniem: 457607 @computerjunky8 mei 2014 17:15
Je zegt dat met veels te veel overtuiging, ik denk dat het vooral de beperking in voorstellingsvermogen is die je dat doet zeggen. Je voert als bron aan een aardse observatie en op basis van die beleving meen je het universum te definieren. Tenzij je het beter weet dan wetenschappers?
Wie zegt dat de natuurwetten de eerste 700 miljoen jaar niet van toepassing waren? In het filmpje begint de simulatie gewoon op 700 miljoen jaar wat ik in mijn vorige post ook aanhaalde... 8)7

Om de tweede alinea van mijn post te begrijpen moet je maar eens een boek over de natuurwetten oid openslaan. Je zult er al vlug leren dat die eerste milliseconden vrij hectisch waren en zeer cruciaal voor het verdere verloop van het heelal zoals we het nu kennen. Waarom kreeg bvb materie de bovenhand en niet anti-materie? Interessant leesvoer! :)

[Reactie gewijzigd door dimitrimissinne op 23 juli 2024 04:24]

Einstein zegt inderdaad dat materie niet sneller dan de lichtsnelheid in vacuüm kan gaan en om deze snelheid te halen de benodigde energie oneidig zou zijn.

Maar er zijn een paar puntjes die je hier aan moet toevoegen. Licht is onderhevig aan zwaartekracht en is in feite dus ook materie.
Lichtsnelheid is eenheid die tot stand komt door snelheid en tijd te nemen. Tijd is variabel en niet vast. Zo moet men constant de tijd corrigeren in sattelieten omdat daar de tijd een fractie sneller gaat dan hier. Zonder correctie zou GPS waardeloos zijn.

Maar Einstein had toen ook nog een ander veel groter probleem, zwaartekracht is sneller dan licht. Newton wist dit ook maar geen van beide konden zwaartekracht uitleggen. Ze konden het beschrijven, in een natuurwet gooien en het berekenen maar niet verklaren. En dit heeft geleid tot de algemene relativiteitstheorie van Einstein. Dan hebben we het over kromming van de ruimte en over het befaamde ruimtetijd of beter gekend als spacetime fabric wat er op neerkomt dat tijd en ruimte in een soort van net in elkaar geweven zijn (google anders even een plaatje). En dan hebben we het ook meteen over de mogelijkheid om de ruimte te buigen wat het puur theoretisch gezien mogelijk maakt om een schortcut te nemen en dus materie sneller dan het licht te laten verplaatsen.

Overigens om een lang en complex verhaal kort te maken, de mens heeft nog maar het topje van de berg ontdekt. En hoe meer je begrijpt hoe meer je beseft dat je eigenlijk niets weet. Er zijn zeker nog natuurwetten die we niet kennen, waar we zelfs nog geen flauw besef van hebben dat ze er zijn. En dan zit je ook nog met een theorie dat net na de bingbang er andere natuurwetten waren dan nu. Het is namelijk niet ondenkbaar dat onder extreme toestand natuurwetten zich anders gaan gedragen.
Er wordt altijd aangenomen dat natuurconstanten constant zijn (daarom heten ze ook zo ;)) maar in hoeverre ze echt constant zijn is nog maar de vraag. Kleine veranderingen kunnen daarbij al enorme gevolgen hebben. De lichtsnelheid bijv. hoeft ook niet per se in het begin al zijn huidige waarde gehad te hebben.
Nee, dat is niet juist. Er wordt ontzettend veel onderzoek gedaan naar variatie van bepaalde natuurconstanten, omdat er geen wet omschrijft dat deze constant zouden moeten zijn.

De lichtsnelheid is echter wel constant gesteld op 299792458 m/s en zal dit voor altijd blijven. Dit kan omdat de lichtsnelheid geen dimensieloze constante is, maar gemeten wordt in meter per seconde en hier zit ook direct het probleem. Als je variatie zou meten van de lichtsnelheid, meer je dan variatie in de meter of in de seconde? En hoe exact kunnen we nou eigenlijk een meter bepalen zonder gebruik te maken van licht?

Door de opkomst van lasertechnologie, konden we van dit probleem afkomen door de meter opnieuw te definiëren als de afstand die licht in 1/299792458 seconde aflegt. Hierdoor verplaatsen we het probleem van variërende natuurconstanten naar constanten die wel goed te meten zijn, zoals de fijnstructuurconstante of de proton/electron massa verhouding.

Deze constanten zijn al uitvoerig bestudeerd op mogelijke variatie. Dit wordt zowel bestudeerd op kosmologische tijdschaal met behulp van telescopen als met zeer hoge precisie metingen in experimenten op aarde.

Met telescopen kan sterrenlicht van miljarden jaren oud bekeken worden en deze spectra's kunnen vergeleken worden met spectra's op aarde. Bepaalde verschuivingen in deze spectraallijnen duidt op variatie van natuurconstanten.

Daarnaast worden er ook experimenten op aarde gedaan met behulp van atoomklokken. Atoomklokken worden gebouwd rond een bepaald element welke de tijdsinformatie geeft. Elk element is echter met een andere gevoeligheid afhankelijk van variatie van een natuurconstante. Door twee klokken met elkaar te vergelijken, kan bijvoorbeeld gemeten worden of klokken van verschillende soorten van elkaar 'weglopen'. Ook dit zou duiden op variatie van natuurconstanten.

Tot dusver is er bij experimenten op aarde nog geen variatie gevonden, maar leggen ze steeds een bovengrens op waarbinnen nog wel een mogelijkheid bestaat waar variatie kan liggen. Voor bijvoorbeeld de proton/electron massaverhouding ligt de vastgestelde variatie op zo'n (-1.9 +/- 4.0)*10^-16 / year. Uit deze waarde kan alleen conclusie getrokken worden dat mogelijke variatie op een nog lager niveau ligt en dat het nulresultaat nog steeds binnen de meetonzekerheid ligt.
Ik had een buitengewoon intelligente reactie in gedachte, maar Sprankel wist het al
beter en simpeler te verwoorden:

[Reactie gewijzigd door Kalief op 23 juli 2024 04:24]

Het model is gemaakt in een kubus met zijden van 35 miljoen lichtjaar, als ik de video mag geloven. Waar Tweakers de 350 miljoen lichtjaar vandaan haalt, weet ik niet. De kubus zal 12 miljoen jaar na de oerknal nog niet volledig gevuld zijn, maar aangezien de video pas start bij 600 miljoen jaar (0,6 billion) heeft de materie al tijd genoeg gehad om de randen van de kubus te bereiken.
Op 1:30 wordt gesproken over 'a cube with a side length of 35 million lightyears'. Bij 4:45 wordt gesproken over 'full simulation volume: a cube with a side length of 350 million lightyears'.
Binnen de natuurwetten kan niets sneller dan het licht reizen in het universum. Maar dezelfde wetten staan toe dat het universum zelf sneller uit expanderen dan licht erin kan reizen. Technisch gezien reist het universum zelf namelijk niet.
Misschien een stomme vraag -ik heb geen idee waar ik over praat- maar ik ben toch nieuwsgierig naar aanleiding van deze zin in het artikel:


[...]


Ik was in de veronderstelling dat materie niet sneller dan het licht kon gaan, waaruit ik zou kunnen concluderen dat het nooit meer dan 2x12=24 miljoen lichtjaar in doorsnee zou kunnen zijn. Kan iemand uitleggen waarom die expansie gemiddeld genomen met ruim 29 keer de lichtsnelheid is gegaan tijdens die 12 miljoen jaar?

Meen ook nog eens ergens gelezen te hebben dat de expansie van het universum alsmaar versnelt, hoe snel gaat het nu dan? :)
Het filmpje heeft het over een doorsnee van 35 miljoen licht jaar.
Kan iemand mij uitleggen waarom het er zo asymmetrisch uitziet? Ik had gedacht, dat bij een big bang, dus 1 punt van oorsprong alles met vrijwel gelijke kracht in alle richtingen vliegt. En dat je dus een gelijke spreiding krijgt. Deze beelden laten een totaal ander beeld zien. Ik wist wel al dat het heelal niet helemaal symmetrisch was, maar dit lijkt wel als een extreme wirwar. Als ik dit zo zie, denk ik maar 1 ding: dit is niet zomaar een 'ontploffing'. Het lijkt wel alsof er in bepaalde richtingen meer weerstand is geweest, of misschien geven bepaalde reacties tussen deeltjes een bepaalde richting aan iets? Het lijkt er ook op dat er iets van 6 'dikke' slierten zijn vanuit het middelpunt, met meer geconcentreerde materie. Alsof er een aantal gaatjes in een tennisbal zijn geprikt, en daar waar de gaatjes zitten, is dus de minste weerstand en ontploft het meeste in die richting.
Heel vreemd, want ik zou denken, wanneer alles terug is gebracht tot het meest elementaire in zo een klein volume, dan moet je een volmaakt kleine 'bal' hebben die vervolgens geleidelijk verspreid uit elkaar knalt. Maar de oorsprong lijkt verre van 'volmaakt', want dan was het resultaat veel meer symmetrisch geweest.
Ik denk dus dat de big bang nog meer geheimen heeft dan wat we denken te weten.
Maar goed, als iemand licht hierover kan werpen, waardeer ik dat zeer.

[Reactie gewijzigd door enomiss op 23 juli 2024 04:24]

Inderdaad een mooie uitleg. Maar toch vraag je je dan af, waarom het niet perfect was.
Omdat de big bang maar een theorie is.

Waar is het bewijs dat het de enige knal is geweest?

TOEVALLIG is het het enige wat wij met onze beperkte visie kunnen berekenen :)
De eerste seconde van de big bang, logitaritmisch uitgesmeerd over een paar minuten, dat zou pas interessant zijn.

Want ik dat dat we ondertussen wel een goed begrip hadden van hoe gassen in het heelal zijn samengesmolten tot de sterrenstelsels die er nu hangen... Maar juist de eerste seconde van de big bang is interessant, waar daarin is bepaald waarom alles is zoals het nu is, en waarom dingen werken zoals ze werken.
Ik denk dat je daarvoor eerst een antwoord moet vinden op de vraag wat er tijdens de Big Bang is ontploft. Voor een stimulatie van een ontploffing lijkt me kennis van de eigenschappen van de stof in kwestie wel vereist.
Klopt, daarom is die eerste seconde juist zo interessant :)

Alles wat er na de eerste 1 miljard jaar is gebeurd, dat is nu nog steeds aan het gebeuren, dus natuurlijk hebben we daar meer kennis van. Maar die eerste seconde is cruciaal geweest.
Het is nog niet te verklaren wat daar de eerste seconde is gebeurt, onze natuurkunde wetten gaan nog niet zo ver.
Pas als ze daar reken modellen voor vinden dan kunnen ze een filmpje maken van het begin.
Anoniem: 455617 @NLsandman9 mei 2014 06:14
Het is nog niet te verklaren wat daar de eerste seconde is gebeurt, onze natuurkunde wetten gaan nog niet zo ver.
Pas als ze daar reken modellen voor vinden dan kunnen ze een filmpje maken van het begin.
Er zijn al wel degelijk modellen die dit proberen te omschrijven, zoals de verschillende string theorieën, M-theory, een aantal quantum gravity theorieën. Een van de problemen die deze wetenschappers hebben is dat er geen obeservaties in het huidige heelal zijn die iets hierover zeggen. Het vroege heelal was namenlijk niet doorzichtig voor licht. Aldus moet er een andere manier gevonden worden om de voorspellingen van zulke theorieën te onderbouwen. Daarvoor staat er in Geneve een leuk speelgoedje (LHC @ CERN).
Van de eerste seconde kent men de regels nog niet, dus dat kan men niet zinnig simuleren.
Deze simulatie is gedaan omdat er nog veel vraagtekens bij het verdere verloop zijn. (spreiding van donkere materie, verdeling van materie over de verschillende atoomsoorten, planeetvorming, botsingen tussen zonnestelsels en sterrenstelsels,...) De basisideeën en concepten heeft men, maar om een beter begrip te krijgen doet men dus deze simulaties.
Het gesimuleerde en uitvouwende universum in het computermodel, dat 12 miljoen jaar na de oerknal start, heeft een doorsnede van bijna 350 miljoen lichtjaar.
Volgens mij heeft het filmpje het over 35 miljoen lichtjaar. Desalniettemin blijft het een mooie prestatie en een indrukwekkende simulatie. Dit doet me denken aan een onderzoek / simulatie van het menselijk leven. Waarbij mogelijk bewezen zou kunnen worden dat het het leven zoals wij die kennen een simulatie is. Ik kan de bron helaas niet vinden.
In het bronartikel:
The model represents a cube-shaped piece of the universe that is 350 million light-years long on each side.
Het lijkt me onwaarschijnlijk dat MIT een fout zo groot als deze op hun website zouden plaatsen.
Op 1:30 in het filmpje hebben ze het over een lengte van 35 miljoen lichtjaar. Mogelijk bedoelen ze er iets anders mee en zit ik er naast. Maar het viel me gewoon op ;)
Gewoon even het filmpje verder bekijken, vanaf 4:33 wordt een simulatie gedaan met een kubus van 350 miljoen lichtjaar.
Bekijk het filmpje volledig. De tweede kubus heeft 350 miljoen lichtjaar als zijde.
Full simulation 4:45 .

[Reactie gewijzigd door David77 op 23 juli 2024 04:24]

Rond 4:40 hebben ze het in het filmpje over ".. 350 million lightyears..".
Nee, 5 miljard jaar na de oerknal heeft de simulatie kubus zijden van 35 miljoen lichthjaar (@1:30). Het volledige model heeft zijden van 350 miljoen lichtjaar (@4:44).

Zijn de zijden 12 miljoen jaar na de oerknal dan nog kleiner? Is het een dynamisch model. Of hebben ze twee modellen. 35x35x35 en 350x350x350?

Edit: @Tremere en anderen hierboven. ben weer eens veel te laat.

[Reactie gewijzigd door immetjes op 23 juli 2024 04:24]

Anoniem: 457607 8 mei 2014 16:00
"More than 100,000 lines of source code"

...alsof dat indrukwekkend is tegenwoordig :)
hangt ervan af, in de handen van een noob kan elk project makkelijk de 100.000 regels code aantikken. Een pro die een zijn eentje werkt kan ontzettend veel overhead (lees: onkunde) besparen en het in een fractie van een gemiddeld team doen.
Gemakkelijk? 100K regels code is veel voor een persoon, zelfs als je niet weet wat je doet. Hier een Java / JS project, twee+ jaar oud, ongeveer 8-12 mensen hebben er fulltime aan gewerkt, teller zit aan 30K applicatie code (plusminus).

Als je 100K regels code schrijft ben je of 10 jaar lang heel inefficient bezig, of ben je heel veel aan het kopieren / plakken en loop je op laatst vast door onderhoud en de weg kwijt raken. Sterker nog, volgens mij kan niemand 100K regels code zelf overzien.
Een goed (praktijk)voorbeeld van wat er aan onkunde ingezet wordt, is het kopieren van grote blokken (vrijwel) identieke code op meerdere plaatsen in een project. In plaats hiervan zou je beter kunnen refactoren en het gemeenschappelijke gedeelte in een aparte functie (bijv.) stoppen. Uiteraard gebeurt dit in de praktijk vaak genoeg niet (en soms ontkom je er niet aan).
ook hier zitten randvoorwaarden aan. code representeert functionaliteit. Zowel een vliegtuig als een fiets rijdt op wielen en zullen veel identieke code bevatten. Toch zou ik de software engineer die probeert de twee stukken code te verenigen op z'n flikker geven. de twee hebben niks met elkaar te maken en moeten daarom ook gescheiden blijven. ik heb mensen gezien die een software design kapot gemaakt hebben met al die refactor praktijken.
Vergelijking gaat mank, dit wordt veelvuldig gedaan en heet een physics engine ;)
ik weet wat een physics engine is; elke informatica student er wel eens eentje geschreven heeft.

de vergelijking was een mislukte poging om te illustreren dat hoewel 2 dingen conceptueel erg veel op elkaar kunnen lijken; dat het samennemen van deze twee dingen desastreuze gevolgen voor je software design kunnen hebben.
de vergelijking was een mislukte poging om te illustreren dat hoewel 2 dingen conceptueel erg veel op elkaar kunnen lijken; dat het samennemen van deze twee dingen desastreuze gevolgen voor je software design kunnen hebben.
Dit was dan ook niet direct waar ik op doelde. Ik heb het meer over de n00bs die hele brokken volledig identieke code vele malen kopieren over allerlei modules, source files, functies, etc, waar het gewoon een nette, korte, duidelijke functie zou kunnen zijn. Bijvoorbeeld (ik noem maar wat), de initialisatiecode voor een bepaald object niet in een default constructor zetten, of in een initialisatiefunctie van dat object, maar overal los kopieren en plakken. Wellicht met als enige verschil dat het object overal anders heet. Ik neem aan dat je het met me eens bent dat dit meestal niet de bedoeling is.
Epsix, we hebben het hier over astrofysici die het -universum- simuleren.

Als die niet in staat zijn correct te abstraheren en relativeren dan weet ik het ook niet meer.

Een vliegtuigwiel en een fiets wiel zijn fundamenteel zeer gelijk aan elkaar.
Ze tellen allebei miljarden aan moleculen en structuren maar de -kern- van wat een fiets/vliegtuig wiel is valt wel degelijk samen te vatten in een zeer compact setje regels.

Het onderscheid tussen een vliegtuigwiel en fietswiel moet je ook niet zoeken in de -code-, maar in de variabelen die je in die code voedt.

DAT is hoe je code hoort te schrijven, en gezien ik zelf overtuigd ben dat het gehele universum uit maximaal 3 (waarschijnlijk 1) verschillende daadwerkelijke 'algoritmen'/dualiteiten bestaat waar alle overige complexiteit uit voortvloeit door vermenigvuldiging/opsplitsing, zou het wel degelijk mogelijk moeten zijn om het GEHELE universum te simuleren met een ZEER compacte code-base.

Uiteraard is mijn opvatting van hoe het universum is en is ontstaan maar een theorie (in het kamp van (nihilistisch) determinisme), maar dat doet niet af aan het feit dat dit toch wel een belangrijk aspect van correct/schaalbaar programmeren is.

tl;dr: getallen, namen en andere 'waardes' horen -niet- in code thuis, niet in declaraties noch in vergelijkingen.

IK zou elke programmeur die ook maar één -harde- waarde in zijn programma code schrijft op zijn flikker geven.

[Reactie gewijzigd door Ayporos op 23 juli 2024 04:24]

IK zou elke programmeur die ook maar één -harde- waarde in zijn programma code schrijft op zijn flikker geven.
Yup, tot marketing tot de conclusie komt dat hun nieuwe idee niet werkt, en ze aan IT vragen om de aanpassing gisteren al live te brengen (waar IT dus nog nooit naar gevraagd werd). Nog nooit onder zo'n tijdsdruk gewerkt ?
ik zou het toch aan informatici overlaten hoe je code "hoort" te schrijven. Geef ze de scope van het project en ze zullen je vertellen wat wel de juiste en wat niet de juiste manier van aanpak is. Ik heb code van theoretisch natuurkundigen en scheikundigen gezien (als consultant voor scientific software, maar ook al veel eerder bij hobbyist huisgenoten tijdens de studie). Geniaal zijn in een exacte vak garandeert allerminst dat je ook fatsoenlijk software kunt ontwikkelen. Software design vereist meer creativiteit dan je op eerste gezicht zou vermoeden. En net zoals bij alles wat creativiteit vergt moet je met een flinke bak talent geboren zijn; of zoals alle andere stervelingen oefenen, oefenen, oefenen. Iedereen die geen da Vinci of Mozart heet en denkt dat hij wel ff wat software ontwikkeld omdat ze een PhD in astrofysica hebben en ooit eens een scriptje geschreven hebben van meer dan 10 A4tjes lang verkijkt zich er lelijk op.

Ik heb veel collega's van allerlei verschillende vakgebieden die allemaal in software ontwikkeling zitten, en er is maar 1 patroon: de beste software ontwikkelaars zijn de informatici. Met kop en schouders.

trouwens houd je verhaal totaal geen stand. Het hele universum simuleren is een paradox. Je bent genoodzaakt om met gesimplificeerde modellen te werken. En dat is nou precies wat software design inhoudt: modellen maken.

vasthouden aan principes zoals "geen constanten in mijn code" is verspilde energie en tevens incorrect. een constante in code wordt geheel anders gecompileerd dan een variabele. Als jij alle waardes van sommige software projecten variabel of instelbaar maakt kun je weer tegen geheel andere problemen aanlopen. software development vergt een pragmatische aanpak en inzicht in wat wel een juiste beslissing is en wat niet. Je kunt guidelines hebben, maar geen principes. Daarom draai ik die refactor apen ook altijd aan hun oor. Denk na of iets gerefactort moet worden.
vasthouden aan principes zoals "geen constanten in mijn code"
Ik vermoed dat hij eigenlijk literals bedoelde en op zich vind ik dat wel een goed uitgangspunt, hoewel 0 en 1 sowieso veel te vaak voorkomen om daar steeds constants voor te gaan maken. Maar als je literals als 17 of "Username: " in je code gebruikt dan kun je er eigenlijk donder op zeggen dat je die code in no-time kunt gaan aanpassen.
Ik doelde inderdaad op literals.. excuses mijn Nederlandse vertaling is wat roestig (gezien programmeren toch in het Engels gebeurt).
Overigens vind ik 0 en 1 (ik neem aan dat je doelt op gebruik als Boolean?) op zijn minst onwenselijk. Beetje fatsoenlijke taal gebruik je gewoon (Boolean.)True/False.

@Epsix
Refactoren is iets anders dan wat ik bedoel.
Twee stukken code samenvoegen is in der daad meestal onwenselijk. Ik doelde op het vanaf de grond af aan schaalbaar en uitbreidbaar programmeren zodat je niet hóeft te refactoren.
(I.E. eerst een struct/klasse voor het concept 'wiel' waar je vervolgens een instantie voor maakt genaamd fiets.wiel (bijvoorbeeld).
Wanneer je dan vervolgens een vliegtuigwiel nodig hebt hoef je alleen een instantie te maken van type vliegtuig.wiel.

@francisp
Ik ben zeer bekend met deadlines en ook met de (mag ik hopen) algemeen bekende fenomenen dat een 'baas' altijd benodigde tijd voor ontwikkeling onderschat alsmede een programmeur de neiging heeft om zijn benodigde ontwikkeltijd te onderschatten.

@Epsix
"oefenen, oefenen, oefenen" is valide advies voor iemand die code-klopper wilt worden, níet voor een informatici of een échte ontwikkelaar. Dat vereist, mijns inziens, toch echt een bepaalde aanleg en nieuwsgierigheid die je niet kunt aanleren.
Denk aan: Op je 6e je elektrisch bestuurbare auto uit elkaar schroeven omdat je wilt weten hoe hij werkt en veel het antwoord "omdat dat zo is" van volwassenen krijgen wanneer je (oprecht geïnteresseerd) ze doorvraagt hoe iets werkt of waarom iets is.

Verbanden zoeken, abstraheren, relativeren, nieuwsgierigheid, logisch aangelegd, wiskundig.. noem het maar op.

Om een vergelijking te leggen, je kunt iemand die toondoof is best aanleren piano te spelen en goed ook maar hij zal nooit een échte muzikant worden.
Kopiëren is soms de enige manier om code goed onderhoudbaar te houden. Een spaghetti van code die tegelijkertijd verschillende situaties probeert af te handelen maakt aanpassingen soms zeer moeilijk en foutgevoelig. Het nadeel is natuurlijk dat je bepaalde aanpassingen meerdere keren moet uitvoeren (wat ook weer een risico is)
Om mezelf even te quoten:
[...] (en soms ontkom je er niet aan).
Qua code ben ik uiteraard tegenstander van enorme bakken spaghetti, waar overigens ook voor geldt dat je er soms niet aan ontkomt. Maar wanneer het vermeden kan worden, beter vermijden. Net als met copy-paste code waar gewoon een functie voor gemaakt zou kunnen worden.
ik heb aan projecten met 10miljoen LOC gewerkt. Gegeven, het was een erg groot team, en ik werkte maar in een heel klein hoekje van het project. Maar het software product zelf was niet denderend speciaal. Het hangt er natuurlijk ook erg vanaf wat je doet. Als je Java doet ben je waarschijnlijk met wat point en click dingen bezig. Maar schrijf je je eigen codecs, of maak je een pipeline waar video feed real time geprocessed moet worden, dan kom je MAKKELIJK aan 100k LOC.

Maar ik denk eerlijk gezegd niet dat ze met 100k LOC gaan opscheppen als ze veel filtering doen, of met eigen formaten werken (wat ontzettend veel regels code oplevert). Waarschijnlijk hebben ze een heel elegant design gehanteerd en is het ze gelukt om op die manier alle natuurkundige modellen in elkaar te weven. Want geen enkele software engineer zou zonder die randvoorwaarde gaan opscheppen over het aantal regels code.
Het komt toch zeker voor; hier een Python-project (met veel JavaScript-modules), inmiddels is het project toch al wel 5+ jaar oud, maar alle code die ik nu meetel zijn ook zo'n 2 jaar oud, 3 mensen (toegegeven, beginnende programmeurs) die eraan werk(t)en en 150K regels code (volgens Ohloh). En daar zit eigenlijk maar weinig dubbele code in; het is aan de ene kant gewoon een behoorlijk uitgebreid, je zou zelfs kunnen zeggen, bloated programma en aan de andere kant neemt het modulesysteem wat we hebben ontworpen behoorlijk wat regels code per module in beslag, metadata en zo die in de code zit in plaats van in aparte bestanden, en er zijn veel modules; alles is een module, behalve de modulemanager. Dus ja, in de handen van 'een noob' kan zo'n project zeker de 100K regels code aantikken.
Ik denk dat ze met die 100K het wiskundig model bedoelen, en das heel wat anders dan 100lk voor een softwarepakketje.
Ik vermoedt dat voor elk sterrenstelsel, cluster en wat voor verschillende dingen je allemaal niet hebt in het universum aparte code geschreven is. Iets anders kan ik zo niet bedenken.

Ben dan ook maar een huis, tuin & keuken programmeur 8)7
En hoeveel daarvan is daadwerkelijk functionele code
Het is juist een compliment.

100.000 vind ik aan de lage kant, netjes dat het daarbinnen past.


Ik vraag me Eigenlijk af hoeveel Data ze gebruikt hebben.
Ja is goede vraag, an sich is 8k cores tegenwoordig niet zo bijzonder. Die heb ik thuis ook wel in wat Tesla's zitten.

Lijkt er sterk op dat de supercomputing sterk is veranderd bij M.I.T per 2012, ofschoon besloten per 2009. Aantal universiteiten doet samen nu zo lijkt 't.

http://en.wikipedia.org/w...formance_Computing_Center

Die vallen te vinden hier: http://www.mghpcc.org/

Maar welke supercomputers er staan is interessant om te weten. Fiks wat googlen kon ik dat niet mee vinden. Wat an sich gek is. Wel wat foto's.

In top500.org is het ook niet eenvoudig te vinden, maar kan zijn dat dit komt doordat verschillende universiteiten dit HPC center gebruiken.

De grants zie je wel wat online over. Als ik 't optel kom ik al publiekelijk op honderden miljoenen dollars aan grants uit, alles bij elkaar, dus er zal stevig wat moeten staan qua computing power.

Ze hebben ook aparte hoogspanningsleidingen zo lees ik van tegen de 120 kilovolt etc.

Dat leg je niet aan voor maar 1 megawatt.

Dus genoeg om tientallen megawatts te vreten.

SARA (Amsterdam) staat 184e op de top500 (decemberlijst 2013) met ongeveer 222 Tflop achieved bij stroomverbruik van ook iets in de 200+ kilowatt.
Je kunt het ook andersom zien. Slechts 100,000 regels code? Dat hebben ze mooi geschreven. :)
Ik neem aan dat ze hier en daar wel tegen een bestaande wetenschappelijke librarly linken, anders is die 100.000 inderdaad best wel indrukwekkend laag.
Misschien wel als je bedenkt dat er (nog) maar vier fundamentele krachten zijn.
Hoeveelheid code zegt niet alles. Veel code kan efficiënter werken dan alles in zo weinig mogelijk regels zien te proppen, afhankelijk van je hardware, compiler, ...

Een enkele regel met één complexe function call kan meer vergen dat enkele regels eenvoudige operaties die wat overbodige stappen van de comlexe variant overslaan.
Anoniem: 457607 @erikieperikie8 mei 2014 17:34
Dat weet ik, ik werk al 20 jaar in software ontwikkeling. Mijn punt was dat ze het brachten als een spectaculair gegeven, terwijl 100K niets voorsteld.
Yep, snap ik. Mijn reactie was in aanvulling op de jouwe.
Als ik denk aan de big bang, is het dan een bolvormige ontploffing?
En zo ja, waarom kunnen we dan niet het centrum aanwijzen en kunnen we de rand niet zien?
Omdat de rand te snel bij ons vandaan beweegt. Al zou je licht opvangen van de rand(dan moet daar wel licht zijn, maar daar gaan we nu even van uit) is de rand al heel veel verder.
Nee, de big bang was overal (of nergens) tegelijk. En het was geen ontploffing. Lastig uit te leggen eigenlijk. Het was energie dat in elkaar gedrukt zat in een singulariteit, maar ruimtetijd zat ook in die singulariteit opgevouwen.

Daarom is er geen centrum, en daarom beweegt ook niet alles vanuit 1 punt naar buiten toe. Integendeel, alles beweegt uit elkaar. Het enige centrale punt in het universum dat je *kunt* aanwijzen, dat ben je zelf. Jij bent het centrale punt van jouw obverseerbare universum ;)

Maar er is vast een astronoom hier ergens die het beter kan uitleggen.

[Reactie gewijzigd door _Thanatos_ op 23 juli 2024 04:24]

Dat is dan relatief, want andromeda beweegt weer naar ons toe las ik ergens.
klopt, maar dat is omdat de uitzetting van het heelal nu nog niet snel genoeg gaat. Als er beweging is, zal die beweging natuurlijk gewoon werken. Het is niet dat ALLES wegzweeft van ALLES.
Dat zijn leuke vragen :). Er is inderdaad wel een rand te zien, de rand van het observeerbare heelal http://en.wikipedia.org/wiki/Observable_universe. Dit is dus het heelal wat wij kunnen zien. Omdat licht een eindige snelheid heeft kijk je naar het verleden als je naar het heelal kijkt. Op een gegeven moment kijk je zover terug in de tijd dat je de big bang zou kunnen zien. Echter was er een periode na de big bang waarin het heelal niet doorzichtig was voor licht en daar kunnen wij dus niet door heen kijken. Dat is de rand van het universum dat wij met telescopen kunnen waarnemen.

Je zou denken dat er dan ook een middelpunt was, het punt van waaruit de big bang is ontstaan. Dit is veel lastiger te beantwoorden. Volgens de algemene relativiteits theorie bevind elke waarnemer zich in het middelpunt van het heelal. Als je dit losjes intepreteert zou je kunnen zeggen dat je zelf het middelpunt van het heelal bent. De algemene relativiteitstheorie zorgt ervoor dat iedereen zich in het middelpunt begeeft. Of te wel elk punt is van het heelal is het middelpunt. Nu is de definitie van een middelpunt zo dat er maar één kan zijn, daarom wordt in de astronomie gezegd dat er geen middelpunt is. Is allemaal een kwestie van intepretatie.
Gaaf zeg! Ik vraag me af wat dit allemaal kan betekenen voor het onderzoek naar deze events. Geweldig ook hoe dit tegenwoordig zo berekend kan worden.

Alleen een vraag voor mensen die er waarschijnlijk 20x meer verstand van hebben als ik.
Daarbij zijn de huidige kennis over donkere materie en energie meegenomen in het model.
betekend dit, dat op het moment dat er dus grote veranderingen in dit veld onstaan, dat de complete berekening opnieuw gedaan moet worden? Of kunnen ze bepaalde delen opnieuw laten doen? Lijkt me namelijk aardig in de kosten lopen om deze berekening weer opnieuw te laten doen.
Wat ik me vooral afvraag is hoe ze aan alle variabelen zijn gekomen. Stel je weet precies waar het universum op dit moment uit bestaat, dan zal je in de simulatie dus een begintpunt moeten hebben dat precies leidt tot het huidige universum. Hoe hebben ze dit vastgesteld? Je hoeft de samenstelling van een grote gaswolk (bijv.) maar even verkeerd te hebben, en een gedeelte van het universum zal er compleet anders uitzien dan het nu doet.

Edit: Eigenlijk is dit gewoon een meesterwerk van reverse engineering.

[Reactie gewijzigd door Revolvist op 23 juli 2024 04:24]

Omdat ze alleen een model met de Donkere Materie en Energie willen testen
De eerste reageert anders op zwaartekracht dan de ons bekende(zichtbare materie)
De laatste lijkt helemaal niet beinvloed te worden ( maar wel nodig voor het expansie-model )

[Reactie gewijzigd door postbus51 op 23 juli 2024 04:24]

Als er ergens veranderingen komen zal de simulatie opnieuw gedaan moeten worden ja. Echter zijn we tegen die tijd alweer een hele tijd verder, waardoor de computers sneller zijn, en de kans is heel groot dat juist door deze sim (en de analyse ervan) er andere inzichten komen, waardoor ie sowieso z'n tijd en geld waard geweest is. Daarnaast is dan lang niet alles meteen waardeloos, en zijn dit soort sims vaak juist een grote test van theorieën, om te kijken of de huidige theorie ook een beetje een levensvatbaar model geeft. Testen tegen de werkelijkheid is niet gruwelijk moeilijk hier :D
Interessant om dit te bewaren en over 50 of 100 jaar eens terug te kijken. En dan zien in hoeverre dit model stand heeft gehouden of inmiddels ingehaald zal zijn door nieuwe kennis.
Veel natuurkundige zaken bedacht door de oude Grieken, Egyptenaren maar ook latere mensen zoals Newton, Haley en Einstein staan vandaag nog steeds
Uhhhmm. Hate tot Burst your bubble, maar het onderzoek van Newton staat echt niet meer. Misschien nog handig voor de middelbare school, maar je GPS is dan op 100km nauwkeurig i.p.v. 10m.

Dat is ook gelijk ook het mooie van de wetenschap, als je beters bedenkt wat reproduceerbaar is, wordt het aangenomen. Het heeft veeeeeel minder last van dogma's
Dat werk zo volgens de theorie, en dat zou heel mooi zijn. Echter blijkt het zo dat reputatie een erg grote waarde heeft in deze wereld wat het soms in de weg zit. Neem het voorbeeld van koude fusie. Eind jaren tachtig is dit onderwerp aan de orde gekomen, met een wetenschapper die zei dit aan de praat te hebben gekregen. Niemand kon het herhalen (of het nou wel of niet echt was, weet natuurlijk niemand, maar waarschijnlijk was de man uit op aandacht).
Vandaag de dag denkt een wetenschapperl wel 3 keer na voordat hij zegt dat een bepaald onderzoek in dit veld veelbelovend of überhaupt iets waard is.
Daarnaast zijn er meerdere voorbeelden waarin een wetenschapper iets ontdekte maar dat niet gepubliceerd kreeg louter omdat het tegen de gevestigde orde in ging, of omdat de multinationals hun winst zagen verdampen mocht het licht krijgen.
Hier een heel mooi voorbeeld van wat jij bedoelt. Hoewel dit misschien niet heel wetenschappelijk is.

Overigens geldt in de wetenschap tegenwoordig de volgende regel:

Een theorie klopt net zolang totdat iemand het bewijs levert dat het niet klopt.

Er is heel lang doorgeborduurd op alles wat Newton had bedacht, maar uiteindelijk toonde Einstein aan dat hij het op sommige puntjes niet helemaal bij het rechte eind had.

[Reactie gewijzigd door Gepetto op 23 juli 2024 04:24]

Newton wetten gelden voor alles voor dat de elektromagnetische straling wetten een feit werden , zelfs veel betekent in de optica (huygens)
Noem dit leer en observeer , ga in de badkuip zitten en je weet wel
Newton heeft een start gegeven voor de moderne wetenschap waar later Maxwell en Hertz bv een nieuwe dimensie gaven
Herschel behoort ook tot deze groep en velen anderen later
Waarbij observatie en de redenereing en wiskundige modellen samen vielen
Later Planck aan wie heel veel te danken is , hier hield Newtons wetten op
Zonder hem had Einstein waarschijnlijk meer problemen ondervonden
En zo kan wel doorgaan
Maar Newtons wetten der klassieke mechanica staan als een rots (tot er een kracht op inwerkt _/-\o_ )
Binnen 50 jaar is deze simulatie al aardig achterhaald hoor. Men zit momenteel bijvoorbeeld nog steeds met een aantal zaken die men niet kan verklaren. Bijvoorbeeld een ster die veel te groot is en niet zou mogen bestaan volgens het model dat wij kennen. zwarte gaten, donkere materie enz. Veel van die zaken kunnen in de komende 50 jaar beter begrepen worden en dan is deze simulatie hopeloos verouderd. De mens zal nooit ten volle de het heelal begrijpen omdat er een punt is waar wij nooit zullen kunnen voorbij kijken.
Omdat ze alleen een model met de Donkere Materie en Energie willen testen
De eerste reageerd anders op zwaartekracht dan de ons bekende(zichtbare materie)
De laatste lijkt helemaal niet beinvloed te worden ( maar wel nodig voor het expansie-model )
Ik noemde dit al eerder
Stel je hebt 10 - 15 jaar observaties en data verzameld en bekeken , dit is een studie
(je kan toch moeilijk een appel uit de ruimte zien vallen)
Als dit model op deze kleine schaal klopt dan moet het in het komplete model van het heelal
(en ook het niet zichtbare de 'Donkere versies'
Zou je dit ook theoretisch verder zien in het door 'Ons' zichtbare heelal naar het 'Totale heelal'
(de zichtbare horizon en daar voorbij)
ontstaan van het universum kort na de oerknal in beeld te brengen. Het computermodel bestrijkt een periode van 13,8 miljard jaar
Alles is relatief...

Het is misschien kort in de termen waar het in dit artikel over gaat, maar ff realistisch: 13.800.000.000 jaar! 8)7
Ze bedoelen vanaf kort na de oerknal tot 13,8 miljard jaar na de oerknal.
Ik denk dat ze vanaf een paar miljoen jaar na de oerknal begonnen zijn, wat idd lang is vergeleken met een mensenleven, maar niet zo lang tov het geheel.
Als d'r weer een betere telescoop gebouwd wordt over paar jaar die stevig verder kan zien, dan wordt dat getal van 13.8 miljard vast weer bijgesteld :)
Als je een allesomvattende simulatie zou maken, zou deze dan ook de evolutie van de mens na kunnen bootsen? En wat zou je zien als je de simulatie 2 keer draait? Exact dezelfde evolutie of een andere?
Anoniem: 480243 @3raser8 mei 2014 18:19
Voorbeeld van een 'random' die nooit meegenomen kan worden! Gedrag van wezens met een zelfbewustzijn is te random om te simuleren, zeker niet door mensen!

Op dit item kan niet meer gereageerd worden.