NASA voegt James Webb-infrarooddata en röntgendata van Chandra-telescoop samen

De Amerikaanse ruimtevaartorganisatie NASA heeft vier van de eerste beelden van de James Webb-ruimtetelescoop samengevoegd met dezelfde beelden van röntgentelescoop Chandra. Daarmee is bewerkte infrarooddata gecombineerd met data uit het röntgendeel van het lichtspectrum.

Het betreft composieten van ruimteobjecten die de James Webb-telescoop eerder in beeld heeft gebracht en waar vervolgens de röntgendata van de Chandra X-ray Observatory in bepaalde, afwijkende kleuren overheen is gelegd. Omdat de röntgenstraling een kortere golflengte heeft dan het infrarode deel van het elektromagnetisch spectrum, zijn er weer andere dingen zichtbaar, met name heel energierijke processen.

James Webb en Chandra
Stephan’s Quintet of Hickson Compact Group 92. Hier zijn vijf stelsels te zien, waarvan de vier in een verticale strook aan de rechterkant in elkaar zullen opgaan door hun onderlinge zwaartekracht. In de nieuwe composiet is naast data van Chandra en James Webb ook data van de uit dienst genomen Spitzer-telescoop gebruikt.

Als basis voor de vier composietbeelden zijn enkele van de eerste gepubliceerde James Webb-foto's uit juli als basis genomen. Dat zijn Webb's First Deep Field met een veelvoud aan verre sterrenstelsels, de Carinanevel, een vijftal stelsels genaamd Stephan's Quintet en een later gepubliceerd James Webb-beeld van het ringvormige Karrenwielstelsel.

James Webb en Chandra
Het Karrenwielstelsel op zo'n 500 miljoen lichtjaar van de aarde.

De röntgendata van Chandra brengt bepaalde zaken in beeld die anders niet te zien waren, zoals een schokgolf bij Stephan's Quintet die gas opwarmt tot tientallen miljoen graden. In het beeld van het Karrenwielstelsel is de Chandra-data afkomstig van enorm heet gas, individuele ontplofte sterren en neutronensterren en zwarte gaten die materiaal uit de nabijgelegen sterren trekken.

James Webb en Chandra
Het cluster Smacs 0723 zoals het er 4,6 miljard jaar geleden uitzag en dat als een zwaartekrachtlens werkt.

In de Carinanevelfoto is ten opzichte van het James Webb-beeld bovenaan waarschijnlijk weer heel heet gas te zien, maar ook maakt de röntgendata jonge sterren veel helderder dan oude sterren, zodat de sterren beter te differentiëren zijn op basis van hun leeftijd.

James Webb en Chandra
De rand van een stervormende regio genaamd NGC 3324, onderdeel van de Carinanevel, op 7600 lichtjaar van de aarde.

Door Joris Jansen

Redacteur

05-10-2022 • 13:42

25

Lees meer

Reacties (25)

25
24
16
2
0
6
Wijzig sortering
Maar hoe accuraat is het?
Komen de foto's wel echt overeen als je daar bent?
Het is net zo echt als een CT scan van je lichaam. Nee, je lichaam is niet zwart wit van binnen. Ja, al je organen zitten er wel degelijk.
Nee, je ogen zijn niet gevoelig voor de golflengtes die worden geobserveerd met Webb en Chandra, dus zijn de afbeeldingen geconverteerd naar kleuren die je wel kan waarnemen. Om te zien hoe deze objecten er uit zien met je eigen ogen (als je dichterbij zou zijn en gevoeligere ogen had) kun je vaak het beste naar de Hubble afbeeldingen zoeken.
Klopt.

Ook Hubble’s foto’s zijn in narrowband getrokken en gemapt naar RGB volgens het SHO palette, en zijn dus ook “false-color”
this palette maps Sulphur-II to Red, Hydrogen-Alpha to Green and Oxygen-III to Blue
Nee, dit zijn false color composietfotos gemaakt van opnames door zwartwitcameras. Ze hadden elke kleur kunnen kiezen die ze wilden, al het licht dat je ziet op de foto's valt buiten het bereik van menselijke ogen.

De kleuren op deze foto zijn overigens net zo 'echt' als de kleuren in ons hoofd. Dat is ook maar een tamelijk willekeurige representatie van een heeeeel klein stukje van het electromagnetic spectrum. Puur omdat dit voor ons 't handigst bleek in de evolutie. Andere dieren zien weer andere delen van het licht en verwerken dat op hun eigen manier in hun hersens die hun helpt overleven.

Mensen hebben er nooit wat aan gehad om rontgenzicht te hebben.

Infrarood daarintegen was wel handig geweest.. ;)
het zijn bewerkte beelden, je zou eens kunnen google naar Judy Schmidt, zij neemt de raw images en bewerkt deze tot je die prachtige plaatjes krijgt.
veel van die data is gewoon toegankelijk voor iedereen

Leuke link voor mensen die het zelf willen proberen
https://www.space.com/jam...e-telescope-image-editing

[Reactie gewijzigd door Freakiebeakie op 23 juli 2024 13:34]

Misschien niet geheel on-topic, maar de spiegelsystemen in x-ray telescopen intrigeert me nogal, vooral omdat de deeltjes niet lijnrecht op de spiegels komen en weerkaatst worden, maar omdat ze vooral onder een hele flauwe hoek weerkaatsen. Een afbeelding van wat ik precies bedoel. :)
Is dat omdat de deeltjes anders door de spiegel gaan en door (een soort van) fresnel-effect alsnog opgevangen kunnen worden?
Het lastige van X-rays is dat ze vrijwel direct zouden worden opgenomen door een normale spiegel zoals je die hebt in je thuistelescoop of bijv. Hubble. De oplossing is door de X-rays onder een heel kleine hoek op de spiegels te laten vallen. Het bijzondere van X-rays is namelijk dat veel materialen voor deze golflengtes een brekingsindex hebben van minder dan 1* (maar wel heel dicht bij 1). Net zoals bij water krijg je totale reflectie als licht met een kleine hoek vanaf een medium met een hoge brekingsindex een ander medium met een lagere brekingsindex raakt (zie de Wet van Snellius). Een voorbeeld hiervan kun je zien via de volgende link:
https://media.sciencephot.../79/c0220379-800px-wm.jpg
Bij X-rays gebeurt dus precies hetzelfde, maar in dat geval vervang je het water met vacuum en de lucht met je spiegel. De X-rays worden dus niet opgenomen door de spiegel omdat ze volledig in het vacuum blijven.

* Voor degenen die zich afvragen hoe dit kan: de brekinsindex is formeel een complex getal waarvan het reële deel kleiner kan zijn dan 1.

[Reactie gewijzigd door Redbiertje op 23 juli 2024 13:34]

Dat is inderdaad omdat ze anders door de spiegel heen gaan.

Dat is hetzelfde probleem waarom het voor de makers van wafer steppers zo lastig is om licht van steeds kortere golflengte te focussen. Zij hebben niet alleen last van de fysische limieten van processoren die gemaakt worden, maar ook de manier van het maken is niet zonder grenzen.
Vraag me wel af hoe ze de kleuren kiezen voor ons. Nemen ze gewoon iets wat er mooi en inspirerend uitziet, zoals dat blauw of paars. Of is het een resultaat van een bepaalde conversie?
Ik vermoed dat ze het gewoon zelf kiezen namelijk
Volgens mij wordt het gemeten golflengtegebied geschaald naar zichtbaar gebied, zodat je wel nog iets kan zeggen over de onderlinge verhoudingen van golflengtes (rood langer dan groen langer dan blauw). Al zou een esthetische keuze me ook weinig verbazen
Zo werkt dat toch eigenlijk altijd met foto's? De RAW foto uit je camera ziet er doorgaans flets en koud uit. Dan ga je met helderheid, contrast, verzadiging en gamma schuiven om er een mooie foto van te maken. Dat is hetzelfde als wat hier gebeurt, alleen hier is het bereik van het spectrum veel groter. Maar geen enkele foto die je ziet, is onbewerkt.
De keuze wordt deels op basis van fysieke redenen en artistieke redenen gemaakt. Zo worden Röntgen afbeeldingen vaak in het blauw/paars weergegeven, omdat Röntgen aan de "blauwe" kant van het elektromagnetisch spectrum ligt. Aan de andere kant worden infrarood en radio vaak weergegeven met roodachtige kleuren, omdat ze juist aan de "rode" kant van het spectrum liggen. Op die manier houden ze het een beetje consistent en intuïtief. Of je nu gaat voor blauw of paars, or rood/oranje/roze is echter puur op basis van wat het leukst lijkt.
Launchpad Astronony heeft de afgelopen maand 2 interviews online gezet met de mensen van NASA die de images uit de ruwe data halen, inclusief welke data en tools ze precies gebruiken en hoe de keuzes worden gemaakt. Interessante kost, maar je moet er wel even voor gaan zitten:
https://www.youtube.com/watch?v=1QPJd2Fl6i4
https://www.youtube.com/watch?v=lLVqERtcdmw
Nee, de foto's zijn dan weliswaar interpretaties van data metingen, maar tegelijkertijd worden de kleuren wel bepaald door de daadwerkelijke spectrum analyses; die hebben, o.a. op basis van hun temperatuur vaste waarden en dus ook (min of meer) vaste kleuren.

Het zal hooguit een bepaald aantal procenten afwijken, maar er wordt ook op de site van de James Webb telescoop aangegeven dat dit is wat we zouden zien, als onze ogen infrarood zouden kunnen vertalen naar normale beelden, dus deze ingekleurde "impressies" komen daar dicht genoeg bij de realiteit en zijn als zodanig prima interpretaties van hoe het er daar daadwerkelijk uit zal zien.

[Reactie gewijzigd door ThanosReXXX op 23 juli 2024 13:34]

Precies dit! De verhoudingen zullen ongeveer gelijk zijn. En die afbeelding van de Carina-nevel (2 lichtjaar breed, picture that) is niet bepaald één rood vlak.

Feitelijk is élke digitale foto een vertaling van data naar iets dat het menselijk oog kan waarnemen. Zie het als een foto met een filter, bv. sepia. De kleurwaarden worden vertaald. Wij zien een kleurencombi die niet de werkelijkheid is. Maar wat we zien op die sepiafoto wordt wel degelijk beïnvloed door het oorspronkelijke gefotografeerde object, dat wij wél kunnen waarnemen (zij het op een andere manier dan de uiteindelijke foto's).

De foto's zijn dus tegelijkertijd echt en nep, of nep en echt.
met geinterpreteerde kleuren omdat onze ogen niet zoveel kunnen. Maar erg mooi, zoals dat karrewiel, verbazingwekkend.
Het is wel leuk om te weten dat niet alleen de James Webb (infrarood), maar ook het Chandra X-ray observatory (rontgen) zich buiten de aarde bevindt. De reden voor dat laatste is dat rontgenstraling niet of nauwelijks door de atmosfeer komt. Waar je met bv de smalbandfoto's van de Hubble-opnames nog een heel eind komt vanuit je eigen kikkerlandje (bv https://www.mauricetoet.nl/DeepSky/), zijn IR en X-ray opnames eigenlijk niet te doen vanuit de aarde.

Dat maakt deze composietfoto's wel heel bijzonder: multisource-data betrokken uit verschillende buitenaardse, met de raket omhoog geknalde waarnemingsstations. Toch wel een hoogstandje van menselijk vernuft.

En @Gravit0n : de lichtbundels komen vanaf de spiegel(s) min of meer parallel binnen. Dat is de reden voor correctielenzen (of correctiespiegels zoals hier): die hebben als taak de lichtbundels subtiel te breken (of anders af te kaatsen zoals hier) en daardoor op 1 punt samen te laten komen. De lenzen in onze ogen doen hetzelfde, en het resultaat is scherp zien. Door het in meerdere stapjes te doen, verloopt het proces gecontroleerder, krijg je minder veldkromming (optica is echt honds-ingewikkeld).

[Reactie gewijzigd door Znorkus op 23 juli 2024 13:34]

Prachtige plaatjes, maar allemaal "valse kleur" omdat we al die golflengtes nu eenmaal niet kunnen zien. Al die mooie plaatjes in sci-fi games en shows zijn dan ook grotendeels nep als ze dit als inspiratie gebruiken. Ik vraag me dan toch af of er ook stelsels zijn die er ook gewoon voor het menselijk oog prachtig uit zouden zien dankzij een natuurlijk voorkomende esthetische mix aan kleuren. Plaatjes van ons eigen zonnestelsel die wel in echte kleur zijn laten doorgaans weinig inspirerends zien (no offense, Mars).
We hebben het hier over de schaal van de Melkweg, niet ons zonnestelsel. Kijk maar naar boven, en je ziet wat wij daarvan met het blote oog kunnen zien. Bijna niets, want het is gewoon veel te weinig licht.
Ik bedoel natuurlijk ook niet "met het blote oog vanaf de aarde" (dat kan ik inderdaad zelf ook goed waarnemen :P) maar "met een oog dat de boel met dezelfde resolutie kan bekijken, maar de frequenties wel waarneemt als het menselijke oog". Tenzij je bedoelt dat er juist te weinig licht is specifiek met de frequenties die wij kunnen waarnemen (geen idee of dat echt zo is), maar dat heeft niets met schaal en afstand te maken.
paar layers in photoshop, blending mode en voila :+ blijf me verbazen over kwaliteit van die webb
Echt…modders hebben geen humor meer.
Zou zomaar kunnen….al is de kans op technologisch geavanceerde ‘beschavingen’* vrij klein

*durf ons daar niet toe te rekenen….

Op dit item kan niet meer gereageerd worden.