James Webb toont details in supernovarestant Cassiopeia A en ringen om Uranus

NASA, ESA en de Canadese ruimtevaartorganisatie CSA hebben een afbeelding van Cassiopeia A gepubliceerd, een supernovarestant. Ook is een foto getoond van planeet Uranus met duidelijk zichtbare ringen. Beide objecten zijn in beeld gebracht door de James Webb Space Telescope.

De afbeelding van Cassiopeia A is gemaakt met het Mid-Infrared Instrument van de James Webb Space Telescoop. In vergelijking met eerdere infraroodafbeeldingen zijn er volgens een onderzoeker veel meer details zichtbaar waar men nog niet eerder toegang toe had. De kleuren zijn het resultaat van infraroodlicht dat 'vertaald' is naar golflengten uit het zichtbare deel van het spectrum.

James Webb Cassiopeia A

Deze kleuren leiden volgens de ruimtevaartorganisaties tot een schat aan wetenschappelijke informatie. Zo is aan de buitenkant, met name links en aan de bovenkant, ogenschijnlijk rood en oranje materiaal zichtbaar wat veroorzaakt wordt door de uitstoot van warm stof. Dit is waar het uitgestoten materiaal van de ontplofte ster tegen het omringende gas en stof ramt. Meer aan de binnenkant zijn roze klompen en knopen zichtbaar; dit is materiaal van de ster dat licht is gaan uitstralen door een mix van stof gecombineerd met zware elementen als zuurstof, argon en neon. Het groene heeft een vorm en complexiteit die onverwacht is voor de wetenschappers en lastig is om te doorgronden. Ilse De Looze van de Universiteit Gent, een van de betrokken onderzoekers, zegt dat men nog bezig is om alle bronnen van de emissies te ontrafelen.

Cassiopeia A heeft het formaat van zo'n 10 lichtjaar en staat te boek als een supernovarestant dat zich op 11.000 lichtjaar van de aarde in het Cassiopeia-sterrenbeeld bevindt. Het is het resultaat van een ontploffing van een enorme ster waarvan het licht ons naar schatting zo'n 340 jaar geleden bereikte. Het is het jongste, bekende restant van een ontploffing van een zeer grote ster in ons sterrenstelsel. Cassiopeia A geeft wetenschappers de beste gelegenheid om te kijken naar de overblijfselen van een ontplofte ster en een soort autopsie van een ster uit te voeren om te begrijpen wat voor type ster er eerder aanwezig was en hoe deze is ontploft.

James Webb UranusJames Webb Uranus

De ruimtevaartorganisaties hebben ook een afbeelding van Uranus gepubliceerd waarop de lastig zichtbare ringen van de ijsplaneet zichtbaar zijn. De zwakke stofringen van de planeet zijn eerder alleen vastgelegd door het in 1986 langsvliegende Voyager 2-ruimtevaartuig en het met speciale apparatuur uitgeruste aardse William M. Keck-observatorium. De huidige afbeelding van James Webb is gemaakt met de voornaamste camera van de telescoop, de NIRCam. Het gaat om een infraroodafbeelding waarop data van twee filters op 1,4 en 3,0μm zijn gecombineerd, wat in respectievelijk blauw en oranje wordt getoond. Voyager 2 toonde een blauwgroene bal in golflengten in het zichtbare spectrum met weinig kenmerken; in vergelijking bevat de afbeelding van James Webb veel meer details. De telescoop maakte de afbeelding op 6 februari.

Door Joris Jansen

Redacteur

07-04-2023 • 20:59

106

Lees meer

Reacties (106)

106
99
51
4
0
29
Wijzig sortering
Waarom is die foto (van Cassiopeia A) gekanteld in het kader? Aangezien we niet echt een boven en onder hebben in de ruimte.

[Reactie gewijzigd door MischaBoender op 23 juli 2024 17:15]

Deze foto was duidelijker geweest waarom het gekanteld is:
https://webbtelescope.org...XWS38V1FZ2XK0XM?news=true
Uranus is gekanteld, dus wij/JWST ziet het zo.

De polen van Uranus liggen vanuit onze optiek op de evenaar. De planeet rolt dus als het ware rond de Zon heen.

Of dit de correcte uitleg is weet ik niet, maar meen zoiets al vaker gelezen en gehoord te hebben, als het over onze planeten in het zonnestelsel gaat.
Ik bedoelde eigenlijk die eerste foto, van Cassiopeia A.
Meestal proberen sterrenkundigen wel gewoon het plaatje zo te draaien zodat de bovenkant van de afbeelding overeenkomt met ons Noorden. Dat maakt het wel zo makkelijk om twee verschillende afbeeldingen van dezelfde bron te vergelijken.
Ja, dat klopt, maar...
Deze had wat mij betreft ook veel beter ca. 45 graden gedraaid kunnen worden, incl. eventueel het assenkruis/kompasje rechtsonder.
De orientatie van zo'n ster(renstelsel) is totaal onboeiend hoe dat tov. "ons" aardse noorden op een foto staat. Nu mis je gewoon alleen maar real estate en lijkt de foto juist extra gekunsteld.
Dat Uranus zo gekanteld staat klopt, en is ook wat beter voorstelbaar omdat dat binnen ons zonnestelsel is, waar uranus blijkbaar afwijkend gepositioneerd in een baan om dezelfde zon staat als de aarde.
Als het een supernovarestant betreft, had ik een zwart gat verwacht. Ervan uitgaande dat de ster minimaal 25x (of meer) de massa van onze zon heeft gehad voor de supernova.
Misschien is dat er ook, en ligt het ‘achter’ de wolken met supernova residu vanuit ons gezichtspunt.
Het zou een Type Ia supernova geweest kunnen zijn, daarin kan het voorkomen dat er geen kern of iets achterblijft.
Zou kunnen inderdaad, maar supernovarestant Cas A is een restant van het type IIb. Dat hoeft overigens nog niet te betekenen dat een supernova (welk type dan ook) een zwart gat vormt.

[Reactie gewijzigd door Hulleman op 23 juli 2024 17:15]

Ah oke, ik had zelf niet kunnen vinden wat voor een restant het was dus bedankt voor de opheldering.
Ja en wie verteld me nu dat dit niet met AI in elkaar is geknutseld?

Serieuze vraag!

Edit: voor de grappenmakers: ik probeer een discussie uit te lokken. Geen rare in deze tijd.

Edit2: en zo komen dankzij mijn vraag bronnen naar boven die wij dus nodig hebben om te kunnen verifiëren of iets wel authentiek is. Het is niet anders, want ik geloof niks meer op voorhand.

[Reactie gewijzigd door Yzord op 23 juli 2024 17:15]

Allereerst kun je bevestigen dat deze observaties daadwerkelijk door sterrenkundigen zijn aangevraagd en goedgekeurd: https://www.stsci.edu/jwst/phase2-public/1947.pdf

Die mensen hebben natuurlijk geen belang bij AI-gegenereerde afbeeldingen. Verder zou je over 1 jaar de observatie data zelf kunnen downloaden, bekijken en bevestigen of het overeenkomt met de afbeelding die nu gepresenteerd is. De data is namelijk 1 jaar alleen beschikbaar voor de auteurs, zodat ze even in vrede hun werk kunnen doen en publiceren.
Je wordt hier gedownmod en door sommigen belachelijk gemaakt, maar het is op zich natuurlijk geen rare vraag in deze tijd.

Het is ondertussen aangetoond dat AI-gegenereerde content niet (makkelijk) van echt te onderscheiden is.

Nou zal het in dit geval wel loslopen gezien de bronnen (ESA, CSA en NASA). Ik heb er persoonlijk vertrouwen in dat zij dat niet zomaar zullen doen in deze context (ze hebben wel wat beters te doen denk ik dan maar).

Aan de andere kant en oprechte vraag van mij:
Over het inkleuren van dit soort beelden. In het artikel staat aangegeven dat de kleuren een vertaling zijn van laagfrequent licht naar voor mensen zichtbaar licht.
Nou levert dat natuurlijk cosmetisch fantastische beelden op, maar voegt het echt wat toe voor de wetenschappers die die data kunnen analyseren? Of is dit echt puur voor de mooie plaatjes?
Over AI: fijn dat je aanstipt dat je de bronnen vertrouwt. Niet iedereen is daar zo slim in.
Persoonlijk vind ik het meteen een overdreven reactie. Ik denk dat we dat wat meer mogen doen over de typische berichten bij nu.nl, nos.nl, telegraaf.nl, etc.

Over de kleuren (ik ben een sterrenkundige, als we het hebben over bronnen :P) het volgende. In principe komen deze beelden binnen als "getallen", namelijk hoeveel electronen zijn er vrijgemaakt doordat er fotonen op de pixels gekomen zijn. In principe zijn dit "kleurloze" plaatjes. Vaak als ik ze los bekeek, deed ik dat in zwart-wit (lees: grijstinten). Wat je kunt doen, is meerdere beelden van verschillende "kanalen" (lees: filters) combineren. Daarvoor hebben we bij computers een vrij "normale" standaard, namelijk RGB. Je kunt dan voor elk van de R, G, of B zo'n "zwart-wit" beeld nemen en deze combineren. Daarin zit de vrijheid die je als wetenschapper hebt om het er zo uit te laten zien, zoals je dat zou willen. Uranus is als je deze met het blote oog zou beschouwen een blauwe planeet, dus is het best logisch om deze mid-infrarood beelden er blauw uit te laten zien, zodat het "overeenkomt" met het optische deel.
Dus het antwoord op de vraag "is het puur voor de mooie plaatjes?": deels waar, maar deels ook niet waar. Maar je kan er als wetenschapper ook snel iets uithalen, omdat we als mensen nu eenmaal gevoelig zijn voor kleurverschillen. Natuurlijk als wetenschapper moet je het dan wel kwantificeren!
Helemaal helder.
Bedankt voor het complete antwoord! Ook fijn dat je m’n vraag serieus nam. Dit soort vragen kunnen snel als ‘zeuren’ opgevat worden.
Want al zou het alleen maar voor het esthetische zijn, dan is dat natuurlijk ook wel wat waard voor de beelden richting het publiek. Een stukje PR is natuurlijk van belang voor iedere organisatie.

Nog over die AI gegenereerde informatie. Stel dat de ESA, CSA en NASA commerciële organisaties zouden zijn met een winstoogmerk (en al helemaal als ze op de beurzen zouden zitten), dan zou ik er een stuk meer sceptisch over zijn.

De meeste organisaties/individuen die AI “misbruiken” (dus te doen alsof het ‘echte informatie’ is (even bij gebrek aan een betere beschrijving van mijn kant af)) doen dit veelal voor ‘makkelijk’ financieel gewin, politieke statements of zaken als laster of ‘zieken’.

Nogmaals. Ik heb geen reden om te denken dat die betreffende ruimteorganisaties hier zich mee bezig houden. (( flauw genoeg zie ik de Russische of Chinese ruimteorganisaties daar wel voor aan, maar dat is puur op onderbuikgevoel. Ik heb er geen concreet bewijs voor ))
Het enige dat je nu moet controleren is of de beelden werkelijk van ESA, CSA of NASA vandaan komen. En als dat zo is, kun je ervan uit gaan dat het geen fake is. Ben ook blij met het antwoord van PrinsEdje80. Maakt veel duidelijk.
Mensen denken bij inkleuren dat er willekeurig een palet gekozen wordt, maar dat is normaliter niet het geval. De frequenties worden opgeschoven naar het voor ons zichtbare spectrum. De laagste worden dan rood en de hoogste blauw. Vergelijk het met HDR tone mapping.
Wat boeit het als AI is gebruikt? Jij gebruikt toch ook je hersenen?

Serieuze vraag!
AI is in werkelijkheid gewoon een marketing term voor software die gebruikt worden om verbanden te zoeken volgens bepaalde algoritmes. Daarmee kun je best wat bereiken als je het koppelt aan allerlei dingen. Maar het blijft een door mensen geschreven en gestuurd stuk software zonder enig bewustzijn wat bovendien continue door een team van mensen gecorrigeerd wordt om het wenselijke antwoorden te laten geven die dan zoveel mogelijk gebracht worden alsof het een echt mens betreft. Het heeft geen echte leer capaciteit behalve als jij de software verteld wat hij met de informatie moet doen en het heeft ook geen benul of de informatie die verwerkt wordt echt is en kan dat ook niet zomaar vast stellen.

Dus vergelijk het niet met een menselijk brein wat daar lijkt het niet op.
AI is een verzamelnaam voor alle software die middels een optimalisatie algoritme een model traint om een bepaalde taak uit te voeren. Het is geen marketing term, het is een paraplu term. Er valt heel veel onder, van beeldherkenning tot taalmodellen zoals ChatGPT. Wat jij zegt dat het een stuk software is wat door mensen geschreven en gecorrigeerd wordt is niet waar, alleen de model definitie en het optimalisatie algoritme wordt door mensen geschreven/beschreven. De computer update vervolgens de parameters van het model om een bepaalde taak steeds beter uit te voeren, dat noem je model trainen. Dat gaat op ruwweg dezelfde manier voor elke AI. In die zin lijkt het dus wel op het menselijk brein, want die past zich ook aan aan de omgeving om een situatie beter te begrijpen. James Webb zal ook AI gebruiken om de foto beter te kunnen interpeteren, daar doelde ik op met mijn opmerking. Verder lijkt AI inderdaad niet op het menselijk brein, al begrijpen we die ook steeds beter.

[Reactie gewijzigd door langestefan op 23 juli 2024 17:15]

En jij gelooft dat de computer(s) de parameters van het model geheel zelf updaten en op die manier beter worden. ? Droom maar fijn verder. Tuurlijk wordt de software langzamerhand iets beter maar als je weet hoe daar aan de achterkant aan gesleuteld wordt zou je het anders zien denk ik. En uiteraard kun je door nieuwe data en algoritmes te finetunen verbetering brengen maar perfect wordt het nooit. Of nou ja nooit is een groot woord maar ik denk dat we nog lang niet in het tijdperk zitten dat computers zelfstandig intelligent genoemd kunnen worden en dat is misschien maar beter ook.

En ook het menselijk brein begrijpen we nog lang niet.
Dat denk ik niet alleen, dat weet ik. Ik programmeer inmiddels al een paar jaar AI algoritmes. Het komt bij allerlei toepassingen in mijn vakgebied (elektrotechniek) van pas.
Hij vraagt hoe iemand kan weten dat dit geen genereerde plaatjes zijn maar daadwerkelijk door James' Web Space Telescope zijn geschoten.
NASA deelt het, dat is voldoende.
Nja strikt genomen zijn de kleuren 'ingevuld' door de astronomen. Het is niet alsof de ruimte en ontploffende sterren bestaan uit regenboogkotsende eenhoornglitterplaatjes...
Dat doet geen recht aan het plaatje. Zulke data op een goede manier visualiseren is een wetenschap op zichzelf.
Uiteraard. Maar het is een grafische invulling van straling die we eigenlijk niet kunnen zien. Die kleuren zijn dus al niet “echt”.
Maar wat is 'niet echt'? Is een infrarood foto van een wildcamera die dieren fotografeert 'niet echt'? De fotosensor in een camera is ook niet gevoelig voor hetzelfde spectrum als het menselijk oog, is het daarom ook 'niet echt'? Als je met een ruimte telescoop foto's maakt is het daarom ook niet echt? Waarom is 'echt' alleen wat het zeer beperkte menselijk oog kan zien?
Is een infrarood foto van een wildcamera die dieren fotografeert 'niet echt'? De fotosensor in een camera is ook niet gevoelig voor hetzelfde spectrum als het menselijk oog, is het daarom ook 'niet echt'?
Dat is precies het punt; het beeld waar je naar verwijst is ook slechts een 'grafische interpretatie' van het IR licht dat op de sensor valt en wat 'omgerekend' wordt naar waarden in het zichtbaar spectrum wat op een scherm met zichtbaar spectrum licht weergegeven wordt. Technisch gezien zou je IR licht ingevangen door een sensor weer kunnen geven door een 'scherm' dat IR licht uitstraalt. Dat zou 'dat wat werkelijk waargenomen wordt' "beter" vertalen, maar dan zie je met je menselijk oog nog niks.
Dat is toch precies wat ik zeg?
Ja en nee. Die "straling" komt in ons zonnestelsel (Sol) aan na 11.000 jaar onderweg te zijn geweest in een uitdijend heelal. Door die reis zijn de lichtgolven dusdanig uitgerekt dat ze ondertussen alleen nog zichtbaar zijn in het infrarood. Dat is nou juist precies de reden dat de JSW vooral een infrarood-kijker is, het hoofddoel is namelijk hele oude sterrenstelsels vast te leggen, zo dicht als mogelijk bij de oerknal. Dat licht is zo oud dat het nu alleen nog waarneembaar is als infrarood. Hele goeie kans dat dat ook al zo is bij bepaald licht van 11.000 jaar oud. Kortom, die mooie kleurtjes zouden ook wel eens in een bepaalde mate zichtbaar kunnen zijn geweest als je 11.000 jaar geleden op die specifieke plek had kunnen kijken. Door de waargenomen golven weer in te drukken zeg maar kun je de klok als het ware terugdraaien.
Ik kijk er eerder naar uit wanneer deze plaatjes uit smartphones gaan komen, als de AI van Samsung dit in een willekeurig night shot gaat herkennen zoals de maan…
De bron van de foto lijkt me betrouwbaar genoeg.

AI verandert niets wezenlijks aan deze situatie, zolang er al digitale foto's zijn is het mogelijk dit soort beelden te genereren; daar is echt geen AI voor nodig. Een beetje handige photoshopper/gimper knutselt zoiets in elkaar.

Zelfs met analoge foto's zou het mogelijk zijn dit soort beelden bij elkaar te fantaseren.
Vroeg je 3 jaar geleden ook wie je vertelt dat het niet door een persoon in elkaar is geknutseld?
Wie vertelt mij dat je geen bot bent?
Excuus het was een serieuze vraag en ik nam het niet serieus.

[Reactie gewijzigd door blobber op 23 juli 2024 17:15]

Ik denk dat over 1 jaar het internet / media er heel anders uitziet, en je niets meer kunt geloven wat je ziet.

Er is geen bewijs meer dat iets "waar"of "echt" is
Dat is er nooit geweest. Hoe kun jij aan jezelf bewijzen dat jij echt bent? In de basis ben je niets meer dan een bewustzijn dat gevoed wordt met informatie uit zintuigen. Hoe weet je zeker dat jij een fysieke mens in een fysieke wereld bent? Welk bewijs wil je daarvoor aanvoeren dat niet uit je zintuigen afkomstig is?

Net zo goed kun je een droom, hallucinatie of iets kunstmatig gegenereerd zijn.

Je moet er maar op vertrouwen dat alles wat jij om je heen waarneemt inderdaad ‘echt’ is.

Dat is waar het begint: met vertrouwen. De rest volgt vanzelf.
Dat is nu toch anders. Tot 3 jaar geleden kon je nog zeggen dat een video van bijvoobeeld een president die vertelde nog redelijk beoordelen op waarheid. Ook waren fakes in de minderheid omdat ze lastig te maken waren, en was de kans dat het de waarheid was groter.

Nu kan ieder 5 jarig kind een fake creeeren, en deze posten op ieder sociaal platvorm dat hij/zij maar wil.

De kans dat je nu een ongefaked bericht/foto/video tekenkomt wordt met de dag kleiner.
AI? was er niet laatst een foto van een plakje salami de wereld in gestuurd als foto van betelgeuze?
maar om je vraag te beantwoorden denk ik:

1) de bron, ie Nasa, ESA
2) de gevolgen voor deze organisaties als uitkomt dat ze de boel lopen te flessen..

Los hiervan is het voor elk wetenschappelijk resultaat van belang dat ie door meerdere partijen kan worden geverifieerd...voor dit soort megaprojecten (maar ook bv projecten van CERN) is dat niet altijd onmiddellijk mogelijk..een gezonde wetenschappelijke (maar niet paranoide) scepsis mag best..
Uiteindelijk denk ik dat de hele AI ontwikkeling erop uit gaat draaien dat we meer waarde gaan hechten aan bronnen. Dat we (lees: de verstandige meerderheid) random foto's en filmpjes op het internet niet zomaar meer voor waar aannemen zonder behoorlijke en herleidbare bronvermelding.

Dat doen we nu nog wel, en deden we ook al voor de komt van allerhande AI generators die een paar jaar geleden is begonnen.

Ik denk, of hoop, dat dat onder de streep positief is en mensen juist minder vatbaar maakt voor fake.
NASA, ESA en de Canadese ruimtevaartorganisatie CSA
En waarom zou er geen A.I. gebruikt zijn?
A.I. is een mooi hulpmiddel, je kunt het gebruiken en misbruiken.

Aangezien de populaire TV babbelprogramma's en -kranten niet anders dan over de misbruikkant van A.I. berichten, heeft A.I. nu al een negatief en crimineel imago gekregen, alsof je er alleen maar dat mee kunt doen.

Toen Ford de auto betaalbaar maakte, gingen Bonny en Clyde hem gebruiken voor bankovervallen. Dat wil nog niet zeggen, dat je er niet ook nuttige dingen mee kunt doen.
Als jij maanstenen ergens anders dan van de Maan kan halen, met dezelfde structuur en manier van uitharding zou het nog kunnen. Al dat hollywood geneuzel hoeft hier niet hé, dit is geen TikTok. :+
We kunnen nog niet eens fatsoenlijk toeslagen terugbetalen aan ouders die de dupe geworden zijn van prutswerk van de overheid. Denk je wérkelijk dat we wereldwijd een maanlanding van 50 jaar geleden kunnen faken en dat zolang vol kunnen houden?
Ockham's razor in actie.
Als je het hebt over dingen die volgens jou verdacht zijn dan zou je er goed aan doen om zelf eens te zien of er simpelweg bewijs is. Of denk je dat die spiegels die op de maan achter zijn gelaten en waar je tot vandaag nog een laser op kan schijnen om de reflectie te zien daar zelf heen zijn gevlogen?
Jouw vraag is geheel geldig. Een andere vraag die uit hetzelfde bakje komt: was de maanlanding echt, of nep en visueel nagemaakt (in een Hollywood-studio bijvoorbeeld)?

Serieuze vraag. Want hoe kan je dit controleren?
Door te kijken naar de retroreflectoren die op de maan zijn achtergebleven en nog steeds heel frequent gebruikt worden om de afstand en positie van de maan te bepalen.
dus dat maakt het op z'n minst verdacht.
Verdacht? Zijn we op Tweaker nu echt zover dat tweakers de maanlanding 'verdacht' vinden? En dat plaatjes van een sterrenstelsel 'niet verdacht' zijn en daarom wellicht echt?

De maan is simpel, we hebben er een reflector achtergelaten die door honderden mensen gebruikt is om de afstand tussen maan en aarde te berekenen. Het is volledig onzinnig om het werk van tienduizenden mensen in twijfel te trekken. De maanlandingen waren een waanzinnige uitdaging en een technologische prestatie die nog altijd fascinerend is. Lees "Shoot for the Moon: The Space Race and the Extraordinary Voyage of Apollo 11"
Omdat de Russen er anders toendertijd wel wat over hadden gezegd. Ze hebben ongetwijfeld met telescopen meegekeken. Tegenwoordig zouden ze waarschijnlijk glashard ontkennen, trouwens.
https://en.m.wikipedia.or...troreflectors_on_the_Moon

Er zit een aantal reflectoren op het maanoppervlak gelegd door de maanwandelaars. (3 van de 5 zijn door de Apollo-vluchten geplaatst)

Tevens zijn nog meer ‘spullen’ zichtbaar die op het maanoppervlak zijn achtergelaten, al hadden die natuurlijk ook op een afstandje er op gegooid kunnen zijn (niet sarcastisch bedoeld)
In sommige gevallen is het gewoon ook simpeler om daar echt geweest te zijn.

De stand van de zon moet kloppen, de stand van de aarde met de vorm van de wolken op dat tijdstip, etc. Iedereen moet zijn mond houden, ga maar door.
Iedereen weet dat Stanley Kubrick de maanlanding heeft gefaked. Maar niet in Hollywood. Hij eiste dat ze op lokatie filmden.
Je begrijp zelf de techniek niet. Samsung download geen foto's. Het is prima dat het je pet te boven gaat, maar je hoeft mensen die het wel snappen geen sukkels te noemen toch?
Uhm,

Ik heb het over het feit dat ze nu zelfs in die telefoons "sjoemel software" zitten te steken dat bijvoorbeeld als je een printout van de maan voor de telefoon houd (waar je dan specifiek een krater verwijderd) je neemt er een foto van, de telefoon herkent "de maan" en geeft je een zeer hoge resolutiefoto van de maan INCLUSIEF de vermiste krater, om te tonen kijk Wauw wat een super resolutie heeft die S23 zijn camera, alhoewel je dus iets krijgt , maar NIET een zelfgenomen foto.

vind je al genoeg bewijs van uit onafhankelijke tests en bewijs,

Ik begrijp die "sjoemel software" en "AI" techniek al te best, het is marketing zever om mensen (sukkels dus) te doen denken dat ze een smartphone met een super mega camera kopen, wat ze dus niet doen.
net zoals de mooie reclame filmpjes waar ze dan in het klein "gesimuleerde beelden" onder plaatsen, dus ze liegen niet en wettelijk zijn ze waarschijnlijk wel in orde.

Er gaat hier niet echt iets mijn pet te boven hoor :)
Dat is niet wat er gebeurt en het is geen sjoemel software. De camera herkent de maan en vult details in waarvan het weet dat ze er zijn. Dat jij je hand voor een krater houd veranderd daar niks aan. Het werkt zelfs nog met een gaussian blur, zolang de omtrek maar gevonden kan worden en de projectie gemaakt kan worden.
Dat blijft dan toch gewoon het feit dat de telefoon via AI/sjoemelsoftware zijn camera dus NIET toont waar je op die moment een foto van maakt ?

Dat is toch het laatste wat je wilt, dat je camera zelf zaken zit aan te vullen / aan te passen, zonder dat je dit wilt,

als je zelf een filter kiest of AI op zet of wat dan ook, ok, geen probleem,

maar dat dus die "sukkels" waar ik het over had dus denken dat hun camera SUPER hoge resolutie heeft, want kijk eens, hij ziet zelfs kraters die er niet zijn ?? en dan denken dat als ze van iets anders een foto nemen dezelfde hoge kwaliteit het resultaat gaat zijn, (niet dus, tenzij het een herkenbaar object is die de AI/sjoemel software zelf kan aanvullen)

Zeker het feit dat dit NIET zo geadverteerd wordt is toch 100% "sjoemelen"
We gaan volledig off-topic, want dit heeft niks meer met James Webb te maken.

Ik snap dat wat Samsung doet overkomt als 'sjoemelsoftware', maar dat is het niet. Het aangezicht van de maan veranderd niet, enkel de schaduwval. Als je dus de positie/oriëntatie van de camera en de tijd weet van wanneer een foto van de maan is genomen kun je dus exact weten hoe de maan er op dat moment uit ziet, de maan veranderd immers niet. Dus wat ze bij samsung hebben gedaan is de gemaakte foto aanvullen met die missende informatie middels (generatieve?) AI. Daarmee is de toepassing dus ook heel beperkt, het werkt alleen bij objecten die je herkent en die niet veranderen. Maar dat moet wel duidelijk gecommuniceerd worden, ik denk dat het daar mis is gegaan en die technische details zijn erg lastig om te begrijpen voor mensen die zich niet met AI bezig houden (ik wel).

Ik kan je overigens garanderen dat inmiddels iedere telefoon fabrikant gebruik maakt van 'AI' om de kwaliteit van foto's te verbeteren. Denk aan superresolutie, verwijderen van ruis, verbeteren van kleuren etc. Er gebeurt heel veel met een foto tussen de sensor en wat jij uiteindelijk ziet.

[Reactie gewijzigd door langestefan op 23 juli 2024 17:15]

En het bijzondere is dat de belichtingstijd voor Uranus slechts 12 minuten is (bron) op 2 filters. Meer onderzoek is nu gaande, ik ben heel benieuwd!
De parel van ons zonnestelsel!
Dat er maar 12 minuten nodig zijn geeft wel aan hoe enorm sterk Webb is. Webb kan licht opvangen dat meer dan 13 miljard lichtjaar ver weg is. Dan is Uranus met 159 lichtminuten iets dat erg dichtbij is en eigenlijk ook enorm fel.
And that for a place where the sun don’t shine.
Waarom is dat precies bijzonder?
Hoe langer je een foto belicht, hoe meer details je krijgt. Maar de Webb telescoop maakt deze foto met slechts een 'knipoog' om zoveel details te krijgen.

Een mooier voorbeeld vind je hier, dit is een foto die vandaag gepubliceerd werd: de beroemde Hubble Ultra Deep Field foto, en Hubble had bijna 12 dagen nodig om de foto te maken. Webb heeft er minder dan een dag voor nodig gehad, en er zijn nu al meer details zichtbaar.
Wat ik vooral interessant vind aan de foto van Uranus, dat ondanks de korte belichtingstijd er toch sterrenstelsels op de achtergrond zichtbaar zijn. Die hadden we met Hubble nooit gezien. Sowieso zijn heel veel Webb foto's vergeven van de sterrenstelsels, hetgeen de ruimte toch een stuk minder leeg doet aanvoelen. :-)
Gestoord ook hoe groot dat allemaal is en hoe dat eruit "ziet".
het "ziet" er zo uit omdat het allemaal is ingekleurd, omdat je anders helemaal niets ziet
Daarom ook tussen haakjes.
Wat moet ik opmaken uit dat kompas? Staan de ringen van uranus haaks op het planetarisch vlak?
Is er in het heelal een onder of boven?
We hebben een planetarisch vlak waarin alle planeten en manen (ongeveer) om de zon heen draaien. Daar zijn enkele uitzonderingen op, evenals de draairichting van venus om zn eigen as.

Het kompas is denk ik dat van uranus zelf. Dus de ringen draaien dan over de polen heen, wat niet heel logisch is (volgens mij)
Heh, Uranus een ijsplaneet? Verder wel heel mooie beelden die uit jwt komen!

[Reactie gewijzigd door Satkan op 23 juli 2024 17:15]

Ik geloof dat Uranus en Neptunus officieel geen gasreuzen meer zijn maar ijsplaneten omdat de zwaardere elementen in de atmosfeer zoals bij Jupiter en Saturnus door de lage temperatuur als neerslag naar beneden komen.
Oh, ik ga me wat moeten bijscholen! Bedankt om er even op in te gaan. :)
Wow, gewoon wow. Wat een beelden van Cassiopeia A.
science fiction is er niets bij...
Wat zijn we toch nietig…..
En wat een helden, al die wetenschappers en engineers die dit staaltje van top techniek hebben gemaakt.

[Reactie gewijzigd door divvid op 23 juli 2024 17:15]

Hopelijk kijken ze ook naar de oortwolk enz

Op dit item kan niet meer gereageerd worden.