Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nieuwe cameratechniek laat fotograaf achteraf focussen

De Amerikaanse start-up Lytro belooft later dit jaar een camera op de markt te brengen waarbij het niet langer nodig zou zijn om de lens scherp te stellen. Bij de geschoten beelden kan de fotograaf achteraf het gewenste focuspunt kiezen.

Lytro heeft naar eigen zeggen een geheel nieuwe technologie voor fotografie ontwikkeld, waarmee light fields afgevangen kunnen worden. Terwijl bij traditionele sensors de richtingsinformatie van lichtbundels verloren gaat, wat een 2d-beeld oplevert, zou de door Lytro ontwikkelde microlens array dergelijke informatie in de vorm van vectordata kunnen afvangen.

De microlens array bestaat uit een reeks achter elkaar geplaatste lenzen die tussen de hoofdlens en de beeldsensor zijn geplaatst. Om de diepte-informatie te kunnen verwerken, kan met behulp van speciale algoritmen achteraf het precieze focuspunt in een foto worden bepaald. Daarbij kan de fotograaf zelf naar de gewenste compositie zoeken. Ook moet het mogelijk worden om de lichtsterkte aan te passen, terwijl foto's in combinatie met 3d-schermen ook in drie dimensies gedraaid en geroteerd kunnen worden.

http://www.lytro.com/pictures/lyt-26/embed?bgColor=0xffffff

Klik op het deel dat scherp moet worden getoond

Een van de belangrijkste voordelen van de nieuwe technologie is volgens de start-up dat er bij het maken van een foto niet langer scherpgesteld hoeft te worden. Hierdoor gaat er geen tijd meer verloren aan het handmatig scherpstellen of het wachten op de autofocus van een camera. Daarnaast zou de sensor door een hoge lichtgevoeligheid ook betere foto's kunnen maken in slechte lichtcondities.

Volgens Lytro zijn de bestanden die zijn nieuwe camera produceert, ondanks de extra beeldinformatie, niet substantieel groter dan bestaande grafische formaten. Dit zou deels komen doordat de camera, die nog niet publiekelijk is getoond, met krachtige beeldprocessors is uitgerust.

De eerste camera van Lytro die gebruikmaakt van de nieuwe beeldtechniek moet eind dit jaar op de markt kunnen komen. De start-up is opgericht nadat Ren Ng, de huidige ceo, in 2006 in zijn proefschrift de basistheorie van de gebruikte technologie beschreef. Met behulp van honderden camera's die aan supercomputers waren gekoppeld, wist hij vervolgens de juiste algoritmen te ontwikkelen en de juiste lenstechniek te bouwen. Met een geldinjectie van 50 miljoen dollar, afkomstig van durfkapitalisten, begon Ng aan de ontwikkeling van een camera voor de consumentenmarkt.

http://www.lytro.com/pictures/lyt-19/embed?bgColor=0xffffff

Door Dimitri Reijerman

Redacteur

22-06-2011 • 14:57

210 Linkedin Google+

Lees meer

Camerachip kan diepte 'zien' Nieuws van 21 februari 2008

Reacties (210)

Wijzig sortering
Wow, ziet er echt prachtig uit. Cool dat die prachtige demo's erbij zitten.

Al die nepseries als NCIS hebben al van die focus, en daar zat ik me echt aan te storen (van wit vlekje weten ze het op te schalen tot een letterlijk te lezen bonnetje). Die demo's zien er echter helemaal top uit! (hopen dat de camera's hetzelfde weten te bereiken)

Wat ik me wel gelijk afvraag; wat gaat dit kosten? Niet zozeer qua exclusivieteit, maar puur qua productie.
Wat ze bij al die nep NCIS series doen is heel ver inzoomen en dan resolutie verbeteren, ze verleggen de focus niet. Resolutie erbij verzinnen is iets wat we misschien in de toekomst kunnen (met 3GPix camera's ofzo), maar heeft niks met het verleggen van je focus te maken.
Resolutie erbij verzinnen is iets wat we misschien in de toekomst kunnen
Pixels bij een foto verzinnen zodat een wit vel papier plotseling letters krijgt is natuurlijk onmogelijk. Vandaag de dag, en ook in de toekomst.

Het kan dat we op een gegeven moment die herrinering uit ons hoofd kunnen halen zodat je als nog weet wat erop stond (gebeurd nu soms al onder hypnose).

Maar je kan niet gegevens uit een foto halen die gewoon simpelweg nooit zijn opgeslagen. Als het er niet is... is het er niet.

[Reactie gewijzigd door GateKeaper op 22 juni 2011 15:43]

De foto's die hier gepubliceerd staan zien er nog niet uit alsof ze zich qua resolutie kunnen meten met huidige cameratechnieken, maar dat neemt niet weg dat dit een ongelofelijk interessante ontwikkeling is die een evolutie in de camerawereld kan betekenen!
Helemaal mee eens :) ik verwacht dat het uiteindelijke product naast ontzettend duur te zijn een beter resultaat oplevert. bovenstaande met demo kun je natuurlijk geen krant of poster drukken.
Eindelijk scherpe fotos van mijn tussen het riet verstopte vogels! 8-)

Ik ben benieuwd of je het diafragma ook kunt wijzigen. Dat maakt nogal verschil in de sluitertijd.
Als dit goed werkt zou je gewoon alles wijd open kunnen schieten als je licht mist. Kleine dof is dan geen probleem meer :) Mooie ontwikkeling.
Hopelijk kunnen we zoiets straks ook gebruiken in Photoshop en dergelijken (en dan meer dergelijken) als selectie mechanisme, want het lijkt me zeer efficient. Zeker als je daarna nog wat handmatig kan retouchen.

EDIT: oh, blijkbaar heb je dus een aparte camera nodig. Zitten hier dan ook twee lenzen op?

[Reactie gewijzigd door Wolfos op 22 juni 2011 15:16]

een "microlens array" zelfs :)
Zou het niet mogelijk zijn om op deze manier de volledige foto scherp te stellen?

In het 2de voorbeeld zou zowel de voorste kat, de achterste kat als de zetel en dergelijke via enige rendering scherp getoond kunnen worden?

Net zoals beelden uit een animatiefilm of dergelijke zowel de objecten kortbij als veraf scherp worden weergegeven.
Aangezien je beide katten scherp kunt krijgen zou dit zeker mogelijk moeten zijn,
Indien niet direct met camera (-software) mogelijk, dan kun je het natuurlijk altijd achteraf "photo-shoppen" - Lijkt me wel een onrealistisch plaatje opleveren de scherpte diepte geeft vaak een accent en rust in een foto.
't Is gewoon een camera met grote scherptediepte die softwarematig op verschillende niveau's blur toepast... ;)
Met kinect zou dat al enigsinds kunnen. Al heeft deze geen grote scherptediepte. En voor stilstaande objecten kun je meerdere fotos op verschillende diepten combineren (voor bijv macrobeelden is dat interessant)
Zeer interessant! Ik ben benieuwd wat de grootte gaat worden van zo'n 'foto'

Ik vermoed dat er meerdere foto's worden genomen, en er met software bepaald wordt welk stukje van het beeld op welke afstand staat en hierdoor scherpgesteld wordt dan wel wazig gemaakt wordt.

[Reactie gewijzigd door Limaad op 22 juni 2011 15:03]

Zeer interessant! Ik ben benieuwd wat de grootte gaat worden van zo'n 'foto'

Ik vermoed dat er meerdere foto's worden genomen
Nee, er wordt van een matrix van microlenzen gebruikt die allemaal op een ander punt scherpgesteld zijn. Er wordt dus maar één foto gemaakt maar de sensor neemt meerdere beelden tegelijkertijd op. De verschillende focusdieptes zijn verspreid over de pixels.
Meerdere beelden opnemen is in mijn ogen gewoon meerdere foto's maken. Toch?
Ligt er aan hoe je het bekijkt, de foto blijft min of meer het zelfde. Op de focus na, dus het zou meer iets met pixel "scherpe" of iets dergelijks te maken hebben.

Ik weet het fijne ook niet, maar meerdere afbeeldingen lijkt me sterk.
Daar lijkt het wel op, sowieso zijn meerdere foto's die elk op elkaar lijken in een bepaald (door hun zelf gebouwd) formaat erg goed te comprimeren tot een niet veel groter geheel dan 1 foto. Er is voor de voorbeelden hier bovenin wel een extra laag nodig, die namelijk bepaalt welke van de foto's gebruikt gaat worden gebaseerd op waar je klikt. Zo'n laag kan ook bijzonder goed gecomprimeerd worden.
Volgens mij zit de techniek echter wel wat slimmer in elkaar dan dat :) Ik heb het idee dat er via algoritmes meer focuspunten gekozen kunnen worden dan het aantal lenzen in de array.
ik sluit me aan bij Tielenaar, er word wat ik uit het artikel begrijp 1 foto gemaakt, daarbij worden vector gegeven opgeslagen (zoals de huidige EXIF?) aan de hand van deze data kan een scherptepunt berekend worden
Lijkt imho iets op huidige RAW. Er wordt niet een kant en klaar afgewerkt plaatje opgelevert, maar Je krijgt een foto met extra data waar je een uiteindelijk product van kunt maken. (of zoiets).
Het is eerder met meerdere lenzen in 1 sluitertijd een opname maken op een onderverdeelde CCD. Waarna de software de verschillende CCD blokken van verschillende lenzen in 1 beeld verwerkt. Ofzo :P
Toch?
Nee, want het beeld is een composiet van de verschillende focusdieptes. Er wordt maar één opname gemaakt.
[...]


Nee, want het beeld is een composiet van de verschillende focusdieptes. Er wordt maar één opname gemaakt.
Strikt genomen wel (de sluiter gaat maar één keer open), maar vergelijk het bijvoorbeeld met de bullet-time opnames uit bijvoorbeeld The Matrix. Daar werden ook een honderdtal camera's gebruikt die allemaal gelijktijdig één opname maakten, maar er werd wel meer informatie vastgelegd dan je uit één opname zou kunnen halen.

Kwestie van niet multiplexen in tijd, maar multiplexen in het ruimte-domein. Als je dan die multiplexing omdraait (van tijd naar ruimte of van ruimte naar tijd) dan krijg je een ver-focus-bare foto of kun je de handel afspelen als een bullet-time effect.

Als je van tijd naar ruimte omdraait kun je bijvoorbeeld denken aan een filmstrip, waar normaal (in tijd) opeenvolgende beelden nu als een tegelpatroon worden weergegeven. :Y)
Nee, er wordt van een matrix van microlenzen gebruikt die allemaal op een ander punt scherpgesteld zijn.
Nee alle microlensjes zijn allemaal op oneindig gefocust.
Hierbij maak je gebruik van het gegeven dat die lensjes dus op enige afstand staan van de sensor en dus dat je "scherpe" beeld verdeeld zal worden over meerdere van die lensjes.
Hoe verder het focus-vlak verwijderd is, des te meer microlensjes delen van je scherpe object zullen bevatten.
Tot zover is het principe nogal simpel, maar de wiskunde die erachter zit om het terug te rekenen lijkt zo op het eerste gezicht absoluut niet triviaal.
[...]

Nee alle microlensjes zijn allemaal op oneindig gefocust.
Hierbij maak je gebruik van het gegeven dat die lensjes dus op enige afstand staan van de sensor en dus dat je "scherpe" beeld verdeeld zal worden over meerdere van die lensjes.
Hoe verder het focus-vlak verwijderd is, des te meer microlensjes delen van je scherpe object zullen bevatten.
Tot zover is het principe nogal simpel, maar de wiskunde die erachter zit om het terug te rekenen lijkt zo op het eerste gezicht absoluut niet triviaal.
Het verschil in scherpte komt eigenlijk doordat een CCD plat is. Als je een opname maakt door een (bolvormige) lens, dan is de opname eigenlijk pas overal perfect in focus als je ook op een bolvormig oppervlak projecteert. Je zou dan dus een bolle CCD nodig hebben, maar die wordt ontzettend duur om te maken.

Wat er gebeurt is dat de foto in het midden perfect in focus is, maar het gedeelte van de CCD aan de rand verder van de lens af zit. (Teken maar eens een bovenaanzicht en probeer het zelf uit met een passer.) Dat betekent dus ook dat de rand van de CCD net een beetje uit focus is.

Deze techniek maakt daar dus misbruik van door een hele serie 'mini-foto's' te maken en via de overeenkomst (korrelatie) hiertussen diepte-informatie eruit te halen, en dus de mogelijkheid om een foto tot op zekere hoogte opnieuw te focussen.
in het artikel staat niet substancieel groter als de huidige formaten. Waarschijnlijk dus verwaarloosbaar
Nee maar als ik naar de 2 voorbeelden kijk, vind ik de kwaliteit ook nog niet op het niveau van huidige camera's.
Dus ondanks dat ik het een waanzinnige ontwikkeling vind, staat het nog wel echt in de kinderschoenen.
Kijk naar de eerste digitale camera's, die foto's zijn qua scherpte ook niets vergeleken met de huidige, net onmat het toen nog in zijn kinderschoenen stond. Na verloop van tijd zal dit ook prachtige foto's opleveren :)
Ik weet dat het moeilijk is om in 4 minuten zo'n lap tekst te lezen, maar er staat overduidelijk dat ze gebruik maken van een microlens array. Ze maken dus niet meerdere foto's.
Ik weet dat het moeilijk is om in 4 minuten zo'n lap tekst te lezen, maar er staat overduidelijk dat ze gebruik maken van een microlens array. Ze maken dus niet meerdere foto's.
Niet achter elkaar. Ze maken wel meerdere foto's naast elkaar omdat elk deel van de CCD voor een andere microlens zit.

Als je het voor elkaar krijgt om 300 opeenvolgende foto's te maken die elk net een ander scherptepunt hebben kun je precies hetzelfde voor elkaar krijgen.

* Stoney3K zet zijn videocamera maar eens op 'record' en gaat aan het voorste ringetje draaien. :Y)
Op die manier kun je inderdaad hetzelfde bereiken, echter er zit dan altijd tijd tussen de foto's waarbij je camera of onderwerp kan verandern of de lichtconditie. Met de microlens array word het echt tegelijk gedaan en word de overdaad aan resolutie van tegenwoordig gebruikt om de focus achteraf terug te rekenen. De lens heeft een vast focus punt. Overigens kun je hier ook de depth of field naderhand mee aanpassen (terugberekenen).

De combinatie depth of field en verschillende focus geeft n2 mogelijkheden achteraf. als je dat op jouw methode wilt doen met 300 niveaus heb je dus gelijk 3002 = 90000 foto's nodig. Dat is alleen nog maar te doen met stilleven en kunstmatig licht. Om het nog maar niet te hebben over de enorme hoeveelheid opslag hiervoor nodig.
dan kun je toch ook alles scherp maken automatisch, dan hoeft je toch niet te kiezen?
Je wilt toch, als je een beetje foto's maakt, niet alles scherp?
Je wilt toch, als je een beetje foto's maakt, niet alles scherp?
Dat hangt er maar helemaal vanaf. Bij een landschapsfoto wil je vaak wel alles scherp, om maar wat te noemen.
Inderdaad. Het gaat erom dat je nu kan kiezen of je alles scherp wilt hebben of niet.
En kunnen kiezen is wel zo fijn!!!!
Inderdaad. Het gaat erom dat je nu kan kiezen of je alles scherp wilt hebben of niet.
En kunnen kiezen is wel zo fijn!!!!
Daarvoor heb je dus de focusring op je objectief (of de autofocus waarmee je het focuspunt kiest). ;)
Dat kan, maar dan ben je alle gevoel voor diepte kwijt.
Voor het gevoel van diepte speelt wel meer mee, compositie en licht is net zo belangrijk als (het ontbreken van) scherptediepte. Het is een bepaald effect, en het kan heel mooi werken. Maar het mooiste is gewoon dat het nu achteraf een keuze kan gaan worden voor een complete non-destructieve workflow. Enkel denk ik dat de resolutie nog erg zal tegenvallen, aangezien je deze exponentieel omlaag brengt voor deze luxe. Maar het is een schitterend begin, en als het eenmaal doorontwikkeld gaat worden naar hogere resoluties dan ben je als fotograaf in de 7e hemel!

Pfoew, vakkennis raakt compleet de wereld uit met zulke technieken :P Iedereen kan zo'n ding oppakken en superplaten schieten... je ziet dat al gebeuren met instap SLR's, die zijn ook zo eenvoudig te bedienen dat er weinig vakkennis voor nodig is om het te bedienen. Aan de ene kant juich ik de toegankelijkheid toe, maar de charme van het "meester worden van de machine" verdwijnt wel zo.
Nonsens. Zoals hierboven uitgelegd hangt het er maar helemaal vanaf. "DOF isolation" is geen vereiste om de suggestie van diepte in een foto te krijgen (maar ken wel helpen).

[Reactie gewijzigd door Aham brahmasmi op 22 juni 2011 22:10]

Er zijn natuurlijk ook foto's waarin je door onscherpte juist een bepaalde sfeer probeert te creeëren.
Zou er ook een speciale optie zijn voor video?
Dit lijkt me mogelijk daar video niets anders is als een sloot fotos achter elkaar.
Mits de "camera" snel genoeg is alle gegevens te verwerken?
Gezien de twee voorbeelden, zit dit er veel belovend uit.

Ik zou wel willen weten in hoeveel milliseconden ervoor nodig is om een foto te schieten. Zou best handig zijn als je snel een foto vast wilt leggen zonder dat je eerst tijd moet nemen om camera lens te focussen.
ik neem aan dat zoals bij conventionele foto's verschillende omstandigheden van invloed zijn op de sluitertijd (hoeveelheid licht en diafragma bijvoorbeeld) en daar ze beweren goed te zjin met weinig licht zou dat best gede prestaties kunnen opleveren lijkt me

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Tesla

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True