Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 30 reacties

De Amerikaanse ruimtevaartorganisatie NASA gaat bij toekomstige missies waarschijnlijk lightfield-camera's gebruiken, waarbij medewerkers na het nemen van de foto de focus kunnen aanpassen. De camera's zouden ingezet gaan worden voor missies naar andere planeten.

De NASA-organisatie Jet Propulsion Laboratory, die onder meer verantwoordelijk is voor missies als die van de Curiosity-rover naar Mars, werkt met tools van Lytro aan camera's voor komende missies. Dat zegt Lytro, bekend van zijn lightfield-camera's, in een bericht over zijn Platform, waarmee de technologie achter zijn lightfield-camera's beschikbaar komt voor andere bedrijven en organisaties.

Met het gebruik van de lightfield-camera's wil NASA het vermoedelijk mogelijk maken om op afbeeldingen van onbemande rovers zaken te zien die oorspronkelijk niet in focus waren, om op die manier meer informatie uit de afbeeldingen te halen. Dankzij de lightfield-camera's kunnen gebruikers achteraf alle objecten, zowel dichtbij als veraf, in focus brengen.

Lytro zelf heeft al twee camera's uitgebracht op basis van de lightfield-technologie, maar wil nu geld verdienen door het Lytro Platform tegen betaling aan andere bedrijven aan te bieden.

Curiosity

Moderatie-faq Wijzig weergave

Reacties (30)

Toch eens in verdiepen. Ik begrijp de optische principes nog niet helemaal, i.t.t. normale camera's.
Hier op aarde kun je met een normale camera de focus bepalen, wanneer je hier niet tevreden mee bent kun je deze makkelijk en snel aanpassen.
Op mars kun je niet snel de focus aanpassen, dit kost tijd en geld.

Met deze techniek kan de focus achteraf op aarde worden bepaald waardoor je dus geen foutmarge in de focus hebt.
Je slaat de spijker op de kop! Als je tientallen seconden of zelfs minuten moet wachten tot het signaal op de gewenste planeet is, dan kan het inderdaad handig zijn als zaken wat minder gevoelig zijn voor onnauwkeurigheden.
Volgens mij is een signaal een kwartier onderweg naar mars. Dus als je je beeld na een kwartier vertraging binnenkrijgt moet je gaan focussen en een kwartier later zie je pas het resultaat.

http://blogs.esa.int/mex/...y-between-mars-and-earth/

[Reactie gewijzigd door DeBierVampier op 6 november 2014 22:56]

Je ziet pas na een half uur het resultaat. Het signaal dat je stuurt naar Mars moet er eerst nog heen en dan weer terug. ;)
+1 maar je kan niet zeggen dat het 30 minuten duurt voor je signaal terug hebt, want Mars en de Aarde staan niet vast op dezelfde afstand van elkaar, dan zal dat in een transmissie niet veel schelen, maar als je nu wat zou sturen, of over een half jaar kan daar veel verschil in zitten.
Light field / Plenoptic cameras lijken een beetje een insectenoog (maar is niet hetzelfde):
https://www.youtube.com/watch?v=lcwm4yaom4w

Nog leuker wordt het wanneer we dan ook een light field display zouden gebruiken:
https://www.youtube.com/watch?v=uwCwtBxZM7g
De optische principes worden goed uitgelegd in deze video, een Stanford University lecture:
http://www.youtube.com/watch?v=THzykL_BLLI

Waar het op neerkomt is dat je voor je detector een micro lens array neerzet. Elk lensje maakt een kleine afbeelding van een deel van het beeld op een groepje detector pixels. Op deze manier heb je hoek informatie beschikbaar dus je weet uit welke richting het licht gekomen is. Ten koste van spatiele resolutie want de spatiele resolutie wordt nu bepaald door het aantal micro lensjes wat je gebruikt. En de hoekresolutie weer door het aantal pixels per micro lensje.

Met deze informatie kun je hele leuke dingen doen. Het beeldvlak verschuiven (scherpstellen) maar ook het standpunt van de waarnemer (iets) veranderen. Dat laatste werkt goed voor objecten dichtbij, je kunt bij macro opnamen achteraf als het ware een beetje om het object heenlopen. Zie filmpje!
Mogelijk hebben de huidige camera's aan boord van die marslander Curiosity deze tekortkoming aan het licht gebracht, waardoor NASA tot een dergelijk besluit is gekomen.
Niet echt. De huidige camera's hebben een klein diafragma en is feitelijk alles scherp.
Mogelijk hebben de huidige camera's aan boord van die marslander Curiosity deze tekortkoming aan het licht gebracht, waardoor NASA tot een dergelijk besluit is gekomen.
Ze wisten op voorhand natuurlijk van die tekortkoming af, maar het is een heel lang, duur en lastig traject om apperaatuur gecertificeerd te krijgen voor spaceflight, het moet aan ongeloofelijk veel dingen voldoen. Zeker als het een enorm belangrijke functie krijgt. (wat wel opgaat voor de camera van een rover).

In zulke gevallen grijpen de ruimtevaart organisaties eerder naar oud, proven, dan naar hip, handig en nieuw met super boeiende features. Nieuw is ook vaak gevoeliger, en kan sneller stuk, en op de kostenposten voor zo'n missie ... neem je zo min mogelijk risico's. die raketten zijn al risicovol genoeg natuurlijk :)
nuttig NOT je kan beter gewoon een grotere sensor nemen en alles op high aperture schieten waardoor alles scherp is wat voor ruimte fotos veel interessanter is dan zeer lage resolutie camera's met variabele scherptediepte wat je tegenwoordig in een wip softwarematig kan doen.
nuttig NOT je kan beter gewoon een grotere sensor nemen en alles op high aperture schieten waardoor alles scherp is wat voor ruimte fotos veel interessanter is dan zeer lage resolutie camera's met variabele scherptediepte wat je tegenwoordig in een wip softwarematig kan doen.
Ik denk dat je een groot diafragmagetal en klein diafragma bedoelt?
In dat geval wordt de scherptediepte nog kleiner. Momenteel worden er f/8 en f/10 lenzen gebruikt. Als dit al niet groot genoeg is qua scherptediepte, wordt het op grotere sensoren nog erger. En indien je nog kleinere diafragma's wilt gaan gebruiken worden de foto's weer minder scherp door diffractie.
De Mastcams die nu worden gebruikt hebben een beeldsensor met een effectieve grootte van 11.8x8.9mm. Indien je dezelfde beeldhoek als de huidige 34mm en 100mm lenzen wilt hebben en de sensor 2x groter in de lengte en breedte wordt (ongeveer APS-H), krijg je een ook twee keer kleinere scherptediepte.

Als je een grotere sensor en een groot diafragma bedoelt, dan is je scherptediepte al helemaal flinterdun.

De foto's zien er nu al trouwens niet eens slecht uit. Komt ook door de grote pixel pitch van 7.5 μm. Ik ben zelf geen fan van lightfield camera's voor dit probleem vanwege de lage kwaliteit foto's op dit moment, maar indien ze een grotere scherptediepte willen bereiken zou ik niet meteen naar een grotere sensor grijpen.

En indien dit allemaal geen probleem is en je focus stacking wilt toepassen moet je er ook rekening mee houden dat het focussen van dichtbij naar oneindig tot 60 seconden kan duren zonder foto's tussendoor te maken. (En ik vind de Canon 85/1.2 USM al tergend traag)
Je weet niet waarover je het hebt. Een grote sensor is juist volkomen nutteloos bij een kleine diafragma opening... Dan kun je net zo goed met een kleine sensor doen. Grote sensors zijn alleen nuttig voor grote diafragma openingen.
Klopt ja. Des te groter de sensor, hoe groter het probleem om alles scherp te krijgen.
Ik hoef je me niet in te lezen... Ik werk in de optica, en ontwerp microscopen voor mijn beroep. Ik weet hoe het zaakje werkt.

Sensor grootte heeft opzichzelf helemaal geen invloed op de hoeveelheid licht die je opvangt. Een sensor in een fotocamera is geen zonnepaneel. Er zit een lens voor, en alléén de pupil van die lens bepaald hoeveel licht je op de sensor krijgt, en niets anders. En of je nu een grote of kleine sensor hebt, dat maakt niets uit. Betekent alleen dat die lens een andere brandpuntafstand krijgt, en daardoor een andere vergroting.
De enige invloed die de sensor heeft, is dat bij heel kleine sensors, het lastig wordt om een lens met een grote pupil (~= diafragma diameter) te maken. Dat is dus relevant voor grote diafragma's, maar niet voor kleine diafragma's.

http://gathering.tweakers...message/36480870#36480870
http://gathering.tweakers...message/36537311#36537311
grappig dat een full frame sensor met 20 megapixels dan MEER lichtgevoelig is dan eenzelfde crop 20 megapixel sensor.

zou me toch maar inlezen bijna iedereen is het namelijk met je oneens.
hoeveel licht er door de lens gaar is irrelevant het gaat om de LICHTGEVOELIGHEID van de sensor zelf dus al komt er exact hetzelfde licht door de sensor kan een groter pixels in een sensor MEER en betere data uit datzelfde licht halen.
Tja... Hetzelfde zeggen, en dan harder schreeuwen, maakt het niet plotseling waar. En dat het gros van de mensen, net als jij, geen verstand van optica hebben, betekent niet dat de optische wetenschap niet waar is.
In plaats van je kop in het zand te steken, zou je beter eens de uitvoerige uitleg in de links kunnen lezen. Dan zou je iets kunnen leren over wat er écht aan de hand is.

Hoeveel licht die door de lens gaat, is het enige dat belangrijk is. Een grote sensor is niet meer lichtgevoelig dan een kleine sensor. De uitleesruis is hetzelfde, en als er dezelfde hoeveelheid licht op valt, krijg je hetzelfde resultaat. Sterker, momenteel zijn de zeer kleine sensors zelfs een beetje gevoeliger dan de grote sensors. Dat komt omdat men bij de kleine sensors een back-illuminated sensor gebruikt, i.t.t. tot de grotere sensoren die front-illuminated zijn. Dat is duurder, maar je wint daardoor ongeveer 30% gevoeligheid. Bij grote sensors is het te kostbaar, maar bij zeer kleine sensors is het economisch haalbaar.

Als je lenzen met dezelfde pupil diameter, (en dus met dezelfde hoeveelheid opgevangen licht van je onderwerp!) voor een grote of kleine sensor zet, en de brandpuntafstand dusdanig kiest, dat de beelduitsnede gelijk is, dan zijn de ruis prestaties exact gelijk. Sterker, in het geval van bsi-sensors kan de kleine sensors zelfs enigzins in het voordeel zijn!
Met grote diafragma's, kan het lastig zijn een dergelijke lens te maken voor kleine sensors, omdat de brandpuntafstand kleiner is, maar voor kleine diafragma's is dat geen enkel probleem.

Om het in andere bewoordingen te zeggen. Bij dezelfde scherptediepte, en dezelfde beelduitsnede, is er geen verschil tussen de ruis van een systeem met een grote sensor of een kleine sensor. Iets dat in de bijgevoegd links niet alleen uitgelegd wordt, maar ook met voorbeeld foto's gedemonstreerd wordt.

Het enige voordeel van een grote sensor, is dat je er makkelijker lenzen met een grote pupil voor kunt maken. Bij foto's met groot diafragma, en dus kleine scherptediepte kan dat een beslissend voordeel zijn. Maar bij klein diafragma, met grote scherptediepte, levert het geen ruis voordeel op.

Lees de uitvoerige uitleg in de links, en wordt wijzer!
Dit is een goed staaltje techniek :P
Maar het is wel goed zodat als je iets verdachts ziet, je meer van kunt zien.
Goed idee NASA
iets interessants bedoel je ;)
Iets verdachts op Mars zal wel niet voorkomen, behalve als ze op zoek zijn naar criminelen :P
Iets interessants kan ook verdacht zijn ;)
Maar klopt bedoel inderdaad iets interessants :D
Altijd goed, minder mechanische onderdelen. De robot maakt maar één foto, die naar de aarde wordt verzonden, en dan kunnen ondezoekers op eigen houtje focussen. Dan hoeven er geen overbodige foto's te worden gemaakt. Bijkomen voordeel - minder mechanische onderdelen, minder spul wat kapot kan.
Lijkt meteen veel betere weg die Lytro inslaat. De manier waarop ze nu hun camera's verkopen gaat nooit succesvol worden. De consument zit voor een groot deel niet te wachten op een camera waarbij je achteraf moet gaan editen om er alles uit te halen. Ook zijn beide camera's die ze verkopen nou niet heel positief ontvangen, leuke gadget maar totaal geen concurrent voor de andere cameras op de markt.

Maar als leverancier voor andere bedierven zie ik dit wel groot worden. Uiteraard in de professionele wereld zoals NASA, maar ook dat ze wellicht een smartphone module maken, kun je lekker snel fotos maken en zorgt de software op de telefoon later wel voor een goede scherpstelling. Zolang je maar niet verwacht van je gebruikers dat ze iets moeten doen. Het moet gewoon werken.
Volgensmij heeft iemand bij Lytro een HTC M8 :D

Maar zonder meer is deze techonlogie zeker van toegevoegde waar voor de ruimte vaart
de techniek gaat dus de ruimte in, niet hun eigen camera's. zo'n bloktje lichtveld werkt niet helemaal fris in de ruimte lijkt me. :+

Stan Lebar zou dit niet hebben kunnen voorzien.

[Reactie gewijzigd door flippy.nl op 6 november 2014 15:38]

de techniek gaat dus de ruimte in, niet hun eigen camera's. zo'n bloktje lichtveld werkt niet helemaal fris in de ruimte lijkt me. :+
Ach dat zou nog wel eens mee kunnen vallen ook. NASA heeft ook al mini-sattelieten gelanceerd met daarin een Nexus 1.

nieuws: NASA voorziet mini-satellieten van Android Nexus-smartphones
De Lytro's hebben toch een vrij lage resolutie?
Lijkt het nou zo, of zijn de achterwielen op de voorgrond nu al in de soep gereden?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True