Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 29 reacties

Astronomen hebben een nieuw type zichtbaarlichtcamera voor ruimtetelescopen ontwikkeld. Met de optica van de camera kunnen scherpere foto's gemaakt worden dan tot dusver mogelijk was, waarbij atmosferische storingen gecompenseerd worden.

De nieuwe cameratechniek werd ingebouwd in de Magellan-telescoop die in Chili staat. De telescoop is uitgerust met een objectief met een doorsnede van 6,5 meter. Met de telescoop konden voorheen vooral scherpe foto's in het infraroodbereik gemaakt worden; de atmosferische verstoring is bij die golflengte minder. Met de nieuwe techniek, die ontwikkeld werd door astronomen van diverse observatoria in Amerika en Italië, moeten echter ook met zichtbaar licht scherpere foto's gemaakt kunnen worden. De techniek, die Magellan Adaptive Optics heet, of afgekort MagAO, compenseert die atmosferische turbulentie.

De beelden worden gecompenseerd met het MagAO-systeem door middel van een extra spiegel. Die spiegel is ongeveer 1,6 millimeter dik en heeft een diameter van ongeveer 85 centimeter. De dunne spiegel is tien meter boven het primaire objectief opgesteld en wordt door middel van een magneetveld op zijn plaats gehouden en aangestuurd. Deze Adaptive Secondary Mirror kan op 585 punten vervormd worden om turbulentie te compenseren. De aansturing kan elk punt duizendmaal per seconde aanpassen, wat in een veel scherper beeld resulteert dan tot dusver mogelijk was. De onderzoekers stellen dat hun beelden een stuk scherper zijn dan de beelden die de Hubble-ruimtetelescoop maakt. Die telescoop, die wegens zijn positie vanzelfsprekend geen last van de atmosfeer heeft, gold als de heilige graal van scherpe foto's in het optische bereik.

Magellan-telescoop met MagAO

De eerste beelden met de aangepaste telescoop zijn al gemaakt, waarbij een binaire ster in zichtbaar licht werd gefotografeerd. Tot dusver was het niet mogelijk de twee afzonderlijke sterren te onderscheiden, maar met het MagAO-systeem lukt dat wel. De telescoop heeft een oplossend vermogen van 0,02 boogseconden, volgens de astronomen genoeg om een honkbalveld op de maan, of een muntje op honderdvijftig kilometer afstand te zien.

Moderatie-faq Wijzig weergave

Reacties (29)

Vraag me af of ze met raw bestanden werken die ze dan via hdr techniek tot 1 beeld samenvoegen waardoor het dynamisch bereik nog groter is. Bij een normale dslr camera geeft dat soms ook mooie beelden.
Je haalt hier een paar dingen door elkaar.

HDR geeft je de mogelijkheid om foto's te combineren om zo meer Dynamic Range op n plaatje dat voor het menselijk ook zichtbaar is af te beelden. In een telescoop heb je daar niets aan, het is namelijk pure post-processing.

RAW vs. JPG is een consumentenfeature. Bij het gebruik van een telescoop ga je echt je moeizaam genomen foto's comprimeren tot slechte-kwaliteit JPGs om ze daarna in de post-processing nog te hopen verbeteren.

Het gaat in dit artikel helemaal niet om post-processing, maar om optische verbeteringen, die aan het objectief, namelijk aan de combinatie lens+spiegel aangebracht worden.
HDR geeft je de mogelijkheid om foto's te combineren om zo meer Dynamic Range op n plaatje dat voor het menselijk ook zichtbaar is af te beelden
Nou ben je zelf ook wat dingen door elkaar aan het halen. Bij HDR-imaging worden er inderdaad meerdere foto's gemaakt met verschillende exposures, om zo een hoger contrastratio tussen donkere en lichtere delen te bewerkstelligen. HDR in z'n algemeenheid betekent dat je dergelijke grote contrastratio's kunt representeren, een staat los van de gebruikte techniek om aan die HDR content te komen.
"HDR" wordt in fotografie meestal juist gebruikt om het contrast samen te drukken. Schaduwen lichter maken en hoge lichten omlaag trekken -> lager globaal contrast.
En omdat te kunnen doen heb je dus een HDR representatie van de content nodig, anders heb je f een overexposed foto om de details in de schaduw te kunnen zien, f een underexposed foto om de details in het licht te kunnen zien. Bij echte HDR content is je schaalverdeling niet gelimiteerd in waardes tussen 0 en 1, maar gewoon in willekeurige intensiteiten.

Stel je hebt een bepaald onderwerp dat je wilt vastleggen. En we gaan even uit van een bepaalde eenheid (bijv. lumen, maar welke eenheid is eigenlijk niet zo interessant - ik noem het gewoon even "units") die de intensiteit van het licht dat op een pixel. In dat onderwerp is een schaduwgebied met details, varierend van 100 tot 500 units. Maar er schijnt ook een felle lamp, en het licht dat direct op de sensor valt heeft een intensiteit van 10.000 units. Verder doen we even de aanname dat de sensor oneindig precies is, het gaat er even puur om hoe je de foto opslaat.

Met een traditionele low dynamic range foto moet je alle waarden op de foto tussen 0 en 1 gaan vastleggen. Elke pixel gebruikt daarbij dezelfde schaalverdeling. Aangezien de maximale intensiteit 10.000 units bedraagt, kies je dat als 1. Dat betekent dat de details in het schaduwgebied tussen 0.01 en 0.05 vallen. Met 8 bits per component (waarden van 0 t/m 255) in de pixel zijn dat dus waarden tussen 2 en 12, wat echt veel te weinig is om al het detail er goed uit te laten komen.

Het alternatief is een andere exposure, waarbij de 1 voor 1.000 units staat. Het gebied in de schaduw valt nu mooi tussen de waarden 0.1 en 0.5, resp. gecodeerd als 25 en 128, maar het hele gebied rond de lamp is nu overexposed omdat alle intensiteiten groter dan 1.000 als 255 gecodeerd worden.

Het grote contrastverschil, ofwel dynamic range, vraagt om een veel nauwkeurigere representatie die zowel het verschil in hele lage als hele hoge intensiteiten kan weergeven. Dit is oa te bereiken met meer bits per component (16 bits en hoger) en/of door een logaritmische schaalverdeling (zoals met floating point waarden) toe te passen.

"HDR" saat niet voor wat je ermee kan of welke technieken er gebruikt worden. HDR betekent niets meer dan "groot contrastverschil tussen gebeiden met lage en die met hoge intensiteit". Het is ook niet alleen een term die gebruikt wordt in de fotografie - met computer graphics heb je hetzelfde verhaal. Met HDR rendering gebruik je gewoon meer bits per pixel in de tussenstap om een groter contrastratio te kunnen representeren. Uiteindelijk zul je (net als in de fotografie) een postprocessing stap moeten toepassen om dat de uiteindelijke weergave (monitor of printer) nou eenmaal niet zo'n groot contrastbereik heeft.

[Reactie gewijzigd door .oisyn op 23 augustus 2013 12:16]

Werk je met raw, bewaar je dezelfde foto met verschillende exposures, dus bij 0 -2 en +2 die kun je dan samenvoegen tot 1 foto.
Alternatief is verschillende jpg's samenvoegen tot 1.
Vroeg me dus af of ze daar ook met raw bestanden werken waardoor je dus de exposure kan wijzigen en deze foto's tot een hdr foto kan samenvoegen.
Werk je met raw, bewaar je dezelfde foto met verschillende exposures, dus bij 0 -2 en +2 die kun je dan samenvoegen tot 1 foto.
Alternatief is verschillende jpg's samenvoegen tot 1.
Vroeg me dus af of ze daar ook met raw bestanden werken waardoor je dus de exposure kan wijzigen en deze foto's tot een hdr foto kan samenvoegen.
HDRs worden meestal juist van meerdere raw foto's gemaakt. Het kan ook met een enkele raw, maar dan kun je er vl minder uit halen.
In de astronomie worden regelmatig verschillende beelden samengevoegd, denk bijv. aan Infrarood en Ultraviolet licht of om meer details (scherpte of licht) te verkrijgen door verschillende beelden te stacken (stapelen).

HDR is eigenlijk bedoelt om een groot bereik licht in n afbeelding te krijgen, zo veel mogelijk licht en zoveel mogelijk schaduw. Dit gebeurt dus regelmatig in de astronomie en ook met nog veel grotere of kleinere hoeveelheden licht samen te voegen dan in de fotografie wordt gebruikt.

Wat betreft raw bestanden, dat zijn dus beelden zonder image processing en dat is inderdaad ongeveer hetzelfde formaat zoals de beelden op telescopen worden gevangen.

Echter alle beelden die u van telescopen te zien krijgt in nieuwsberichten en documentaires zullen dus vrijwel altijd samengevoegd zijn uit meerdere afbeeldingen en ook bewerkt zijn met image processing.
njah bij hubble zijn de orginele bestanden , gewoon orgineel.
of je ze samenvoegd moet je zelf weten. maar dat doet hubble zelf niet

voorbeeld foto raw bestand van hubble
http://hla.stsci.edu/cgi-...2%20F606W%20(hlsp)%20APPP

weet niet zeker of die het doet.


op deze site vind je alle raw images van hubble
http://hla.stsci.edu/

je moet ze zelf gaan omzetten tot een plaatje, uit RGB
scherp stellen etc.

de daarvoor benodigde software kun je gratis op die site vinden.

dit doen ze zodat veel astronomen toegang hebben tot echte data van de sateliet.
dit geeft de mogelijkheid om moeilijk zichtbare pixel weer te kunnen geven in false color, zodat de boel wel zichtbaar wordt. bijv de gevolgen van de ejecta (jets) van een black hole kun je hier zichtbaarder mee maken.

ik denk dat ze het zo ook bij deze telescoop zouden doen.


hier kun je ook heel wat space data / tools vinden.
zowel Cassini als voyager en ga zo maar door.
allemaal orginele data,

http://pds-imaging.jpl.nasa.gov/volumes/
Wauw wat een verbetering als je deze foto bekijkt. Dit is de binaire ster( theta 1 Ori C) waar ze het in het artikel over hebben.
De afkorting MAO vonden ze niet zo handig? ;)

De Hubble beelden waren al fantastisch. Ben erg benieuwd wat ze met deze techniek weten te bereiken!
Groot verschil is wel dat Hubble in de ruimte hangt en hierdoor per definitie het begrip atmosferische turbulentie niet kent. Aan de andere kant heeft die telescoop wel weer een leesbril, maar toch denk ik dat Hubble mooie plaatjes kan schieten vanaf zijn locatie. Voorkomen is beter dan genezen denk ik dan.
Groot verschil is wel dat Hubble in de ruimte hangt en hierdoor per definitie het begrip atmosferische turbulentie niet kent. Aan de andere kant heeft die telescoop wel weer een leesbril, maar toch denk ik dat Hubble mooie plaatjes kan schieten vanaf zijn locatie. Voorkomen is beter dan genezen denk ik dan.
Die 'leesbril' was in 2002 al niet meer nodig omdat de originele instrumenten vervangen waren met nieuwe die zelf de optische correctie gekregen hadden. In 2009 is hij teruggehaald naar de aarde.

Verder is de atmosferische turbulentie niet de grootste beperking van telescopen op aarde, maar lichtvervuiling. Zelfs als er praktisch geen stadslicht is, geen wolken en een schone atmosfeer, dan gloeit de atmosfeer nog altijd een beetje: http://en.wikipedia.org/wiki/Airglow
Een ruimtetelescoop zoals Hubble heeft hier geen last van, maar het is veel moeilijker om een grote telescoop de ruimte in te krijgen. Hubble heeft een diameter van slechts 2,4m, terwijl er aardse telescopen van bijna 40m diameter in de planning staan. http://en.wikipedia.org/w...Extremely_Large_Telescope

[Reactie gewijzigd door Aham brahmasmi op 22 augustus 2013 16:59]

Even puur uit nieuwsgierigheid, als je die 0.02 boogseconden zou uitdrukken in 35mm equivalent (zoals je bij camera's doet), wat voor waarde zou je dan krijgen?
Ik heb even niet de tijd het met zekerheid uit te zoeken, maar volgens mij ~414.000.000mm. Voor 35mm film geeft een 50mm lens een kijkhoek van 46 graden. De kijkhoek is hier 0.02 boogseconden, dat is 0.02/3600 = 0.0000056 graden. Dat betekent een vergroting van 46/0.0000056 = 8.214.285x. En dat betekent dat je een lens van 50x8.214.285mm=~414.000.000mm nodig zou hebben.

Maar... eigenlijk stel je de verkeerde vraag. Dit is namelijk de vergroting die je nodig hebt om de ene ster in de ene hoek van je (35mm) film te krijgen en de andere ster in de andere hoek. Dat is hier niet het geval: als je de foto in de post van hood (hierboven) bekijkt zie je dat beide sterren zeg enkele tientallen 'pixels' uit elkaar liggen. Nou weet ik niet wat voor pixelgrootte ze daar hebben, maar 't is vast klein :)

De kracht is ook niet het zoomvermogen: dat had de telescoop sowieso al. Maar door atmosferische storingen 'beweegt' de projectie van de sterren de hele tijd over je detector heen. Daardoor krijg je een uitgesmeert beeld en kun je de sterren niet van elkaar scheiden. De MagAO compenseert dit door de spiegel die de ster op je detector projecteert te vervormen, waardoor de sterren steeds op dezelfde plek op je detector vallen. Ziedaar: een beter oplossend vermogen.
het gaat gewoon om onderscheidend vermogen. sensorformaat heeft daar weinig mee te doen.
het is iets optisch en zegt meer iets over een lens. je zou bijv kunnen kijken naar de nikon 85mm

[Reactie gewijzigd door mrc4nl op 22 augustus 2013 17:05]

als je de brandpuntsafstand bedoelt, dan denk ik dat het ongeveer 360674871 zal zijn..
(ik heb er niet veel kaas van gegeten, en het kan zijn dat ik de formule verkeerd gebruikt heb, maar na enkele controles kwam ik op dit antwoord..)
WolframAlpha gaf mij ook dit weetje:
"~~ 0.47 angular resolution of the Hubble Space Telescope at 500 nm"

[Reactie gewijzigd door efari op 22 augustus 2013 17:15]

Dat had die beste meneer Hubble niet kunnen dromen denk ik. Vooral omdat Edwin niet zulke beste foto's maakte, maar ze wel op de juiste manier interpreteerde.
Een dunne spiegel, magnetisch opgehangen, die de vorm op 585 punten, 1000 keer per seconde aanpast.

DAMN! Dat is indrukwekkend. Denk aan de eerste telescoop, een buis met lensje. En dan naar dit...

Speechless...
Ben benieuwd wanneer er een mogelijkheid is met een kennis naar de maan te gaan en vanaf aarde een foto gemaakt kan worden van jou op de maan! Technologie gaat zo hard vooruit :+
als we een scherpe foto kunnen maken van de maan krijgen bepaalde conspiracies het lastig krijgen ;)
Dat is nu al, die spiegels die door Armstrong geplaatst zijn worden nog steeds gebruikt om lasers te weerkaatsen. En niet alleen door overheden.

Dit project heeft lang geduurd! Ik kan me nog herinneren dat ik een artikel las dat het beschreef, jaren geleden. Was het project al bijna helemaal vergeten. En als ik dan de fotos zie die ze er mee maken wordt ik nogal blij. Daar kan Hubble een puntje aan zuigen, hoewel die natuurlijk ook andere golflengtes aankan.
Nu kan Apple weer nieuwe achtergronden kopen voor Mac OS.
hebben ze dit niet voor nodig, ze kunnen zelf wel een astrograaf veroorloven.
Correcties zijn niet misselijk zoals je in onderstaand artikel (inclusief voorbeelden) kunt lezen:

http://www.technology.org...os-ever-of-the-night-sky/
Ik was al verkocht toen ik "en wordt door middel van een magneetveld op zijn plaats gehouden" las.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True