Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 210, views: 63.200 •

De Amerikaanse start-up Lytro belooft later dit jaar een camera op de markt te brengen waarbij het niet langer nodig zou zijn om de lens scherp te stellen. Bij de geschoten beelden kan de fotograaf achteraf het gewenste focuspunt kiezen.

Lytro heeft naar eigen zeggen een geheel nieuwe technologie voor fotografie ontwikkeld, waarmee light fields afgevangen kunnen worden. Terwijl bij traditionele sensors de richtingsinformatie van lichtbundels verloren gaat, wat een 2d-beeld oplevert, zou de door Lytro ontwikkelde microlens array dergelijke informatie in de vorm van vectordata kunnen afvangen.

De microlens array bestaat uit een reeks achter elkaar geplaatste lenzen die tussen de hoofdlens en de beeldsensor zijn geplaatst. Om de diepte-informatie te kunnen verwerken, kan met behulp van speciale algoritmen achteraf het precieze focuspunt in een foto worden bepaald. Daarbij kan de fotograaf zelf naar de gewenste compositie zoeken. Ook moet het mogelijk worden om de lichtsterkte aan te passen, terwijl foto's in combinatie met 3d-schermen ook in drie dimensies gedraaid en geroteerd kunnen worden.

Klik op het deel dat scherp moet worden getoond

Een van de belangrijkste voordelen van de nieuwe technologie is volgens de start-up dat er bij het maken van een foto niet langer scherpgesteld hoeft te worden. Hierdoor gaat er geen tijd meer verloren aan het handmatig scherpstellen of het wachten op de autofocus van een camera. Daarnaast zou de sensor door een hoge lichtgevoeligheid ook betere foto's kunnen maken in slechte lichtcondities.

Volgens Lytro zijn de bestanden die zijn nieuwe camera produceert, ondanks de extra beeldinformatie, niet substantieel groter dan bestaande grafische formaten. Dit zou deels komen doordat de camera, die nog niet publiekelijk is getoond, met krachtige beeldprocessors is uitgerust.

De eerste camera van Lytro die gebruikmaakt van de nieuwe beeldtechniek moet eind dit jaar op de markt kunnen komen. De start-up is opgericht nadat Ren Ng, de huidige ceo, in 2006 in zijn proefschrift de basistheorie van de gebruikte technologie beschreef. Met behulp van honderden camera's die aan supercomputers waren gekoppeld, wist hij vervolgens de juiste algoritmen te ontwikkelen en de juiste lenstechniek te bouwen. Met een geldinjectie van 50 miljoen dollar, afkomstig van durfkapitalisten, begon Ng aan de ontwikkeling van een camera voor de consumentenmarkt.

Reacties (210)

Reactiefilter:-12100205+1140+219+31
1 2 3 ... 8
Hoe wordt dit opgeslagen?
Nog niet geheel duidelijk, dit is de eerste keer dat Lytro enig inzicht geeft in zijn techniek. Vermoedelijk later dit jaar wordt er meer duidelijk.
Hier wordt al een klein beetje uitleg gegeven:
http://www.youtube.com/watch?v=jS7usnHmNZ0

Dus om dit nu echt nieuw te noemen...
edit: Of ik heb het mis en dit is een compleet andere techniek.

[Reactie gewijzigd door Keef op 22 juni 2011 16:16]

Eigenlijk is het een logische techniek, maar is volgens mij de kunst om er een gangbaar formaat van te maken en de fotografen over te halen (die hebben ook lange tijd vastgehouden aan analoge camera's).
Voor sommige shots gebruik ik nog steeds analoog, Met name zwart/wit, maar ook kleur komt er dan toch nog steeds een stuk beter uit. De imperfecties van het analoge (of kan ik het analoge artifacts noemen?) geheel maken het als je weet wat je doet gewoon mooier voor het oog. Misschien ligt het aan mij en zie ik alleen maar wat ik wil zien.

On-topic: voor mensen die gewoon plaatjes willen schieten is dit natuurlijk een geweldige uitkomst!

[Reactie gewijzigd door hottestbrain op 23 juni 2011 08:35]

Leve de analoge, geheel mechanische batterij-onafhankelijke camera.

Ik vind het ook veel fijner om daar mee te fotograferen.

Jammer is dat je niet gelijk op en schermpje kunt beoordelen of de foto gelukt is, en nog jammerder is dat je ze niet gelijk aan je omgeving kunt laten zien, kunt kopiëren enzovoorts.

Dat zijn nadelen die voor de meeste mensen zwaar tellen, maar met een analoge, mechanische camera heb je veel meer controle over je beeld en fotografeer je bewuster en als je bereid bent om daar in mee te gaan, worden je foto's veel mooier. (Voor kiekjes gaat dat trouwens niet op, die kun je best makkelijk en snel op de automaat maken).
wat ik wel mankeer aan de tweede foto is om bijvoorbeeld op de muur achter de katten te focussen... dat gaat blijkbaar niet ...

maw; de techniek is niet compleet .. (naar mijn visie dan toch)
Helemaal nieuw is dit niet. Op Stanford waren ze daar al in 2004/2005 mee bezig.
http://graphics.stanford.edu/papers/lfcamera/
En als je het paper bekeken had, dan had je gezien dat de CEO van Lytro als eerste auteur genoemd wordt.

De techniek is dus niet nieuw, maar het creëren van een versie die voor consumenten producten geschikt is, is datgene wat Lytro uniek maakt.
En als je het paper bekeken had,
Moet het nou altijd zou negatief hier?
Ja, omdat veel mensen niet eerst eens goed lezen...
De techniek is dus niet nieuw, maar het creëren van een versie die voor consumenten producten geschikt is, is datgene wat Lytro uniek maakt.
In 2005 bestond het bedrijf nog niet.
Founder of Lytro Ren Ng started Lytro in 2006 and has raised $50 million in funding.
Laat ik het zo stellen dat het idee van Light Focus meer ontwikkelt is dan toen in 2005 en geschikt lijkt te zijn voor consumenten camera's.
Dat is dus die gast waar het in het artikel over gaat!
Hoe het opgeslagen wordt lijkt met niet relevant. Als alle informatie maar aanwezig is.
Vergelijk het met de (exif-)data die van belang is voor RAW-verwerking waardoor later als voorbeeld de lens herkend wordt, waardoor eventuele vervorming in één klik weg is.
Ik vraag me af hoe het met het octrooi gaat uitpakken en of andere camerafabrikanten er gebruik van mogen gaan maken. Dat wordt pas interessant.
Hoe het wordt opgeslagen is WEL relevant, omdat iedereen natuurlijk wil weten of bestaande ongefocuste foto's alsnog gefocust kunnen worden. Met .jpg lijkt me dat onmogelijk.
Aangezien je er een specifieke set lenzen voor nodg hebt kan het alleen zijn voor nieuw te maken foto's met een camera die dit ondersteunt.
Als een foto met zo'n raster van tussenlensjes met een normale camera genomen zou worden, krijg je een foto waar je het beeld door al die lensjes los van elkaar ziet in de vorm van een raster. Met speciale software zal daar wel een normale foto uit te halen zijn. Dus ik denk dat als je camera verwisselbare lenzen heeft, deze techniek best toepasbaar is in bestaande camera's.
Maar dus niet op al bestaande foto's.
Nee, maar wel op al bestaande camera's ;)
Zoals hAl aangeeft en in het artikel staat:
Terwijl bij traditionele sensors de richtingsinformatie van lichtbundels verloren gaat, wat een 2d-beeld oplevert, zou de door Lytro ontwikkelde microlens array dergelijke informatie in de vorm van vectordata kunnen afvangen.

In Fotos die NIET genomen zijn met de microlens array is dus ook geen vectordata beschikbaar om een scherptepunt te berekenen.
je kunt nooit 'normale' ongefocuste fotos weer scherp maken.
Met conventionele sensors en RAW-formaten is het onmogelijk: Deze kunnen geen richtingsinformatie opnemen en opslaan.
Een pixel van een CCD vangt normaal het licht op van lichtbundels uit heel veel richtingen.

Het idee is dat je een microlensje vlak voor de CCD plaatst, dat lensje zorgt er voor voor dat lichtbundels met een verschillende richting op een andere CCD pixel terecht komen.

Dus je krijgt een foto waarbij er vierkantjes van pixels zijn die bij het zelfde lensje horen, en waarvan de pixel positie iets zegt over hoek van inval van de lichtstralen.

Op de computer kan je met behulp van de hoek van inval en de intensiteit (kleur / grijswaarde) uitrekenen wat er gebeurd als je er b.v. een lens voor plaatst.

http://graphics.stanford....amera/lfcamera-150dpi.pdf
Zeer interessant om te lezen.
Na het zien van wat foto's in de paper kun je dezelfde techniek ook terugzien in de eerste foto.
Als je focust op bijv. het verkeersbord valt op dat er een soort van rooster is als je inzoomt.

Jammer is wel dat de foto niet van super kwaliteit word op deze manier :/
Jammer is wel dat de foto niet van super kwaliteit word op deze manier :/
Dat is bij techniek meestal een kwestie van tijd tot daar een passende oplossing voor gevonden wordt.
Misschien gaat dit een nieuwe megapixel-oorlog veroorzaken, aangezien je een veel betere sensor nodig hebt voor deze techniek.
waardoor de ruiscompensatie ook nog wel aardige stappen te maken heeft.
Aan de andere kant kan je met deze techniek wel de laagste F waarde van je lens gebruiken, waardoor ruis wordt beperkt.
In de paper wordt ongeveer 150x meer pixels gebruikt dan microlensjes, maar ik vraag me af of je meer detail krijgt door meer sensor-pixels, of een nauwkeuriger focus. Ik vermoed het laatste.
Dus je zou zeggen dat je inderdaad voordeel zou kunnen hebben uit meer pixels op de sensor.
In het artikel gebruiken ze een 4000x4000 sensor en zetten daar een array van 296x296 microlensjes voor. Je maakt dus een 296x296 foto. Echter per pixel in de foto kan je het licht van ca 180 pixels op de sensor gebruiken. Niet alleen voor zeg diepte informatie, maar ook voor ruiscorrecties.

In het het artikel suggereert men ook dat ze een ander soort sensor in kunnen gaan zetten. 1 met veel meer maar kleinere pixels. Ten eerste krijg je veel meer licht omdat ze alles met een groot diafragma fotograferen. En ten tweede kunnen ze het licht van vele pixels bij elkaar optellen voor licht strekte informatie. Enige ruis in sommige pixels wordt dus uitgemiddeld.

Dit artikel is uit 2005. Ik vraag me dus af of ze ondertussen zo'n aangepast sensor hebben ontwikkeld en gebruiken in deze camera.
Je maakt dus een 296x296 foto.
Dat is niet helemaal waar.
Voor de delen die out-of-focus zijn, zal je inderdaad effectief een 296x296 foto maken, maar je hebt ook nog detail in de vlakjes van de microlensjes.
Dus de effectieve resolutie van de delen die in focus zijn, zullen in elk geval een hogere resolutie hebben dan die krap 300x300.
Yep, de techniek levert een trade-off op. Uit de dissertatie (http://www.lytro.com/renng-thesis.pdf) van de CEO van het bedrijf:

"This is the fundamental trade-off taken by the light Field approach to imaging. For a fixed
sensor resolution, collecting directional resolution results in lower resolution final images, with essentially as many pixels as microlenses."

Verkoop je huidige camera voorlopig nog maar even niet.
Krijg je zo verschillende waardes aan je pixels? Worden de foto's dan ook niet extreem veel groter? Alleen geschikt voor proffesionele fotografie dus?
(Eerste keer dat ik hier een score 3 zie)
Dat ligt eraan hoeveel "waardes per pixel" je gaat onthouden. Zitten er achter ieder microlensje 20 pixels, dan krijg je dus een 20 maal zo groot bestand. Vergelijk het met een 3D afbeelding.
Deze techniek werkt met een algoritme, waardoor je dus niet veel meer gegevens hoeft op te slaan dan gewoonlijk. Het algortime hoort bij de speciale lenzenserie die gebruikt is voor de opname. Via het algoritme komen daar dan de diepte gegevens weer uit naar voren. De afbeelding die de camera opslaat bestaat volgens mij uit de traditionele 2d weergave voor de kleuren en uit dieptegegevens. Ik schat dat aan dergelijk bestand maximaal drie keer groter is dan een 'normaal' bestand. De kracht zit in de gebruikte hardware die de dieptegegevens uitsplitst zodat het geregistreerd kan worden en in het algoritme wat deze dieptegevens weer kan gebruiken om toe te passen op het resultaat.

Slimme en leuke techniek. Ik vraag me alleen één ding af. Voor de sfeer kan onscherpte op foto's natuurlijk leuk zijn, maar in principe wil je toch vaak dat alles er gewoon scherp op staat? Nu ze de foto's zo precies kunnen aanpassen, kan je een afbeelding toch ook zo aanpassen dat alle delen scherp worden?
Dat zou dan ook kunnen ja, dat zou er alleen niet realistisch uitzien. Wij zien ook niet elke diepte scherp namelijk.
Maar wel het gedeelte waar we op focussen.
Dus als jij op een gedeelte van een foto focust, is het niet realistisch als dat gedeelte onscherp is.
Kijk bijvoorbeeld eens naar de linkerkat in het plaatje hierboven en focus op die kat.
Ook al focus jij op die kat, je ziet 'm onscherp.
Dat is niet realistisch.

Had de hele foto scherp geweest, dan had je de linkerkat scherp gezien, en de rechterkat niet omdat die zich buiten jouw focus bevindt.

Dat had wel realistisch geweest.

De hele foto scherp is dus prima realistisch voor jouw waarneming.
Ehm.. Hoe en waarop mijn ogen focussen bij het bekijken van een foto is in dat geval niet relevant. Relevant is waarop de lens gefocust was op het moment van het maken van de foto: dat gebied is scherp, andere delen minder scherp (tenzij je hyperfocust).

'Normale' foto's hebben dus gefocuste/scherpere delen en minder gefocuste/onscherpere delen en daar kun je hooguit in Photoshop nog een beetje mee spelen, maar de onscherpere delen kun je niet 'her-focussen'.

Met deze nieuwe techniek zou dat wel kunnen. Maar ook dan zul je alleen die delen van een foto scherp/gefocust zien die je scherp/gefocust hebt gemaakt, en niet puur door je eigen ogen te focussen.
Als je een eye-tracker op je monitor hebt staan wordt het pas echt interessant. Je kan dan precies het gedeelte waar je naar kijkt scherp maken, dat is pas realisme. Zeker als het ook nog met 3d gecombineerd wordt (wat me erg eenvoudig lijkt).

En al helemaal als het in films geïmplementeerd zou worden :)

Aan de andere kant heeft focussen in films en foto's ook weer een artistieke waarde, want je wordt als kijker gedwongen om de regisseur te volgen.

[Reactie gewijzigd door Pierz op 22 juni 2011 18:02]

Precies wat ik zat te denken, nadeel is dan echter dat maar 1 persoon naar het scherm kan kijken (of iedereen kan zien waar die ene persoon zijn blik op gefocussed is) :+
Dit zou dus 1 van de grote fouten van 3D films kunnen oplossen? Wat ik storend vind is als ik bij een 3D film geforceerd naar een bepaald punt moet kijken. De rest is wazig dus zorgt voor een zeer onaangenaam gevoel als je er naar probeert te kijken. Voor 1 persoon zou het dus mogelijk worden om zelf te kijken waar je wil en dat het dan daar op focust.

Dit lost wel het probleem dat je ogen zelf van focus willen veranderen niet op. Misschien is het mogelijk om dit systeem omgekeerd te gebruiken voor een nieuwe generatie 3D schermen: Je zou de lichtstralen exact kunnen reproduceren waardoor de diepte in de hoek van de lichtstralen zit, net zoals in de natuur.

Ben maar luidop aan het fantaseren, maar aangezien dat je licht gewoon mag omdraaien (in de meeste gevallen) kan dit ook een grote doorbraak betekenen in de weergave van beeld. Weer een stap verder in de zoektocht naar een manier om licht exact te kunnen reproduceren, as is, zonder op je camera instellingen nodig te hebben. RAW 2.0 :)
Dit lost wel het probleem dat je ogen zelf van focus willen veranderen niet op. Misschien is het mogelijk om dit systeem omgekeerd te gebruiken voor een nieuwe generatie 3D schermen: Je zou de lichtstralen exact kunnen reproduceren waardoor de diepte in de hoek van de lichtstralen zit, net zoals in de natuur.
Dat doen ze tot op zekere hoogte al met een Lenticulair display.Het verschil met deze microlens-array is alleen dat zoiets in één richting wordt gebruikt (er hoeven maar 2 beelden te worden gesplitst) in plaats van in heel veel richtingen zoals hier het geval is.

Wat zo'n microlens-array doet is feitelijk heel veel afzonderlijke foto's maken met elk een ander scherpstelpunt. En ja, dat is precies wat je wil hebben om een voorwerp (als voorwerp, niet als set van 2 beelden) in 3D te fotograferen ;)... en in principe moet dit ook voor 3D displays of projectoren mogelijk zijn. Het grote probleem is op dit moment nog dat de schaal niet effectief genoeg is: Niemand wil nog naar een televisie staren van 300 bij 300 pixels.

[Reactie gewijzigd door Stoney3K op 23 juni 2011 00:20]

En ja, dat is precies wat je wil hebben om een voorwerp (als voorwerp, niet als set van 2 beelden) in 3D te fotograferen ... en in principe moet dit ook voor 3D displays of projectoren mogelijk zijn. Het grote probleem is op dit moment nog dat de schaal niet effectief genoeg is: Niemand wil nog naar een televisie staren van 300 bij 300 pixels.
Dan ben ik heel benieuwd hoe je dat als 3D wilt projecteren.
Ten eerste moet je het ergens op projecteren, dus dan zit je alweer met 1 focusvlak.
Daarnaast zou je aan de projectorkant op meerdere niveau's vanaf de lens moeten gaan projecteren. Je kunt namelijk niet met alleen optica een onscherp beeld maken wat je out-of-focus voor de lens zet en dan verwachten dat het scherp wordt.
Terugrekenen kan wel, mits je ook maar de informatie hebt waardoor het out of focus is, zoals hier wordt getoond.
Goed verwoord! Is voor mij een inzicht momentje :-)
Ik schat dat aan dergelijk bestand maximaal drie keer groter is dan een 'normaal' bestand.
Ik "schat" dat je ongeveer net zoveel opslag hebt als wat je met een raw-opname hebt in een normale camera met hetzelfde aantal pixels.
Je kunt met deze techniek geen lossy compressie gebruiken, want dat krijg je ineens focus-problemen bij het terugrekenen. Dus je zal toch in een soort van RAW formaat moeten werken.
Het enige wat je extra op moet slaan is wat metainformatie omtrend de microlensjes.
De keuze om veel of weinig scherptediepte te gebruiken, ligt volledig bij de fotograaf. Dit is afhankelijk van zijn uiteindelijk doel. Als de fotograaf de bedoeling heeft om je 'alles' op een foto te laten zien, dan zal hij een klein diafragma gebruiken en alles scherp op de foto zetten. Je krijgt dan een foto waarop alles scherp is en je alles kunt bekijken. Als voorbeeld kan ik noemen Pieter Bruegel, weliswaar geen fotograaf maar het idee blijft hetzelfde, er is vanalles te zien dus bekijk maar wat je wil.
Het tegenovergestelde is echter vaker het geval, de fotograaf wilt dat jou opvalt wat hem op de moment ook opviel. Hij gebruikt een groter diafragma om een kleinere scherptediepte te creeeren (in Jip&Janneke taal: hij focust op een onderwerp en de omgeving ervoor en erachter wordt onscherp). Jou oog zal direct zien waarom hij de foto gemaakt heeft, bijvoorbeeld in een menigte een moeder met gewond kind op de arm. Dit is het doel van de fotograaf: de kijkers de wereld door zijn ogen laten zien.
Volgens Lytro zijn de bestanden die zijn nieuwe camera produceert, ondanks de extra beeldinformatie, niet substantieel groter dan bestaande grafische formaten.
"niet substantieel" is natuurlijk wel een vaag begrip :)
Interessante paper! Wat ik al dacht er zijn een aantal beperkingen:
- Diafragma in de test ligt rond the f/4. Kleiner en je krijgt vignetting, groter en de boel gaat overlappen (contrast gaat achteruit?)
- Resolutie, want er zijn 292x292 microlenzen beschikbaar, plus de kleine cirkels die het op de sensor projecteert hebben natuurlijk donkere ruimtes al een verlies oplevert.
Als je de f waarde verhoogt zullen de microlenzen op minder pixels projecteren (de cirkels die je noemt worden kleiner), waardoor je informatie verliest.
wat een leuke techniek is dit
Ja inderdaad, echt enorm cool :o hoe vaak ik nu wel niet heb dat iets net out of focus is (natuurfotografie met wind enzo), dat stel je hiermee gewoon bij.

Erg erg gaaf O+
Ik ben eigenlijk bang dat je moet 'kiezen' tussen de verschillende voorgedefinieerde vlakken en daardoor nooit precies zo scherp kan zijn als met écht scherpstellen: een array van microlenzen klinkt niet echt traploos. Een 'huis/tuin/vakantie-fotograaf' zal daar waarschijnlijk geen last van hebben: die ziet zijn/haar foto's toch zelden/nooit op 1:1.
Helemaal mee eens, al moet ik zeggen dat ik de techniek wel erg interessant vind klinken. Toch zie ik puur voor mijzelf niet zo heel veel toegevoegde waarde, aangezien ik niet echt scherpstelproblemen heb met mijn camera's.. En het betekent weer een hoop achteraf bewerken, waarschijnlijk mbv een computer. En daar ben ik ook niet echt een groot fan van. Geef mij toch maar 'conventioneel'.
Allicht niet traploos, maar met een goed interpolatie-algoritme moet je ver kunnen komen.
Nog niet aan gedacht, maar je hebt gelijk tenzij je met miniscuul verschil deze lenzen plaatst.
misschien dat ze de techniek zo uitbreiden dat je per microlens nog eens los kan scherpstellen.

Erg interessant verhaal dit. Zit dit verhaal serieus met open mond van verbazing te lezen.
ik ben geen expert op het gebied van lenzen, maar wellicht als de gebruikte algoritmen precies genoeg zijn kan achteraf een willekeurig scherpte punt berekend worden met behulp van de genomen metings punten van de lenzen array?
dus zoiets als: elke lens in de array levert een meetpunt; later kun je mbv de algoritme scherpte ook tussen deze punten bepalen/ berekenen
wellicht als de gebruikte algoritmen precies genoeg zijn kan achteraf een willekeurig scherpte punt berekend worden met behulp van de genomen metings punten van de lenzen array?
Niet helemaal willekeurig, maar met inachtneming van enige resolutie zou je wel heel veel focus-planes kunnen creeeren en daar naar terugrekenen.
Zo bij het eerste scannen van het artikel lijkt het erop dat de verhouding van aantal pixels op de sensor en het aantal microlensjes mede bepaalt hoe nauwkeurig je het focus-vlak kunt terugrekenen.
Als dat bijvoorbeeld 100 pixels per microlens is, zou het maar zo kunnen zijn dat je maar 10 discrete focus-vlakken kunt terugrekenen.
Maar je kunt natuurlijk ook wel vlakken mengen en zodoende ook een meer geleidelijke focus berekenen. Effectief doe je dat natuurlijk al doordat er geen discrete banen zijn van licht, maar dat dat een continue proces is.

Het leuke is natuurlijk dat je ook sneller zou kunnen focussen wanneer je maar genoeg rekenkracht hebt.
Bijvoorbeeld in meetsystemen waarbij het oversturen van een beeld lang duurt (ettelijke megapixels en USB-communicatie bijvoorbeeld) en rekenkracht semi-oneindig is. (videokaart bijvoorbeeld)
het.lijkt.me.wel.dat.dit.alleen.scherptediepte.'fouten'.bijstelt,.dus.als.iets.bewogen.is.kun
je.het.vermoedelijk.wel.vergeten.(sorry.spatie.stuk)
andere keybind voor spatie toewijzen?
Softwaretoetsenbord (on-screen keyboard) proberen, zit in je startmenu ergens tussen de accessories/bureauaccesoires als ik me niet vergis.
spatiebalk eruit halen met iets scherp (als je een ordinair PC toetsenbord hebt met van die hard plastieken knoppen) en eens met een pen proberen op die teut met een opening te duwen. Als dat werkt kan de spatie niet ver genoeg ingeduwd worden en kan je met wat knutselwerk het repareren, zo niet dan zit er niet veel anders op dan een nieuw toetsenbord te kopen of misschien ergens een key te remappen.
lol tnx mensen, maar ik heb gewoon maar even 10 euro aan een echte SWEEX gespendeerd :p
Zeer interessant! Ik ben benieuwd wat de grootte gaat worden van zo'n 'foto'

Ik vermoed dat er meerdere foto's worden genomen, en er met software bepaald wordt welk stukje van het beeld op welke afstand staat en hierdoor scherpgesteld wordt dan wel wazig gemaakt wordt.

[Reactie gewijzigd door Limaad op 22 juni 2011 15:03]

in het artikel staat niet substancieel groter als de huidige formaten. Waarschijnlijk dus verwaarloosbaar
Nee maar als ik naar de 2 voorbeelden kijk, vind ik de kwaliteit ook nog niet op het niveau van huidige camera's.
Dus ondanks dat ik het een waanzinnige ontwikkeling vind, staat het nog wel echt in de kinderschoenen.
Kijk naar de eerste digitale camera's, die foto's zijn qua scherpte ook niets vergeleken met de huidige, net onmat het toen nog in zijn kinderschoenen stond. Na verloop van tijd zal dit ook prachtige foto's opleveren :)
Ik weet dat het moeilijk is om in 4 minuten zo'n lap tekst te lezen, maar er staat overduidelijk dat ze gebruik maken van een microlens array. Ze maken dus niet meerdere foto's.
Ik weet dat het moeilijk is om in 4 minuten zo'n lap tekst te lezen, maar er staat overduidelijk dat ze gebruik maken van een microlens array. Ze maken dus niet meerdere foto's.
Niet achter elkaar. Ze maken wel meerdere foto's naast elkaar omdat elk deel van de CCD voor een andere microlens zit.

Als je het voor elkaar krijgt om 300 opeenvolgende foto's te maken die elk net een ander scherptepunt hebben kun je precies hetzelfde voor elkaar krijgen.

* Stoney3K zet zijn videocamera maar eens op 'record' en gaat aan het voorste ringetje draaien. :Y)
Op die manier kun je inderdaad hetzelfde bereiken, echter er zit dan altijd tijd tussen de foto's waarbij je camera of onderwerp kan verandern of de lichtconditie. Met de microlens array word het echt tegelijk gedaan en word de overdaad aan resolutie van tegenwoordig gebruikt om de focus achteraf terug te rekenen. De lens heeft een vast focus punt. Overigens kun je hier ook de depth of field naderhand mee aanpassen (terugberekenen).

De combinatie depth of field en verschillende focus geeft n2 mogelijkheden achteraf. als je dat op jouw methode wilt doen met 300 niveaus heb je dus gelijk 3002 = 90000 foto's nodig. Dat is alleen nog maar te doen met stilleven en kunstmatig licht. Om het nog maar niet te hebben over de enorme hoeveelheid opslag hiervoor nodig.
Zeer interessant! Ik ben benieuwd wat de grootte gaat worden van zo'n 'foto'

Ik vermoed dat er meerdere foto's worden genomen
Nee, er wordt van een matrix van microlenzen gebruikt die allemaal op een ander punt scherpgesteld zijn. Er wordt dus maar één foto gemaakt maar de sensor neemt meerdere beelden tegelijkertijd op. De verschillende focusdieptes zijn verspreid over de pixels.
Meerdere beelden opnemen is in mijn ogen gewoon meerdere foto's maken. Toch?
Ligt er aan hoe je het bekijkt, de foto blijft min of meer het zelfde. Op de focus na, dus het zou meer iets met pixel "scherpe" of iets dergelijks te maken hebben.

Ik weet het fijne ook niet, maar meerdere afbeeldingen lijkt me sterk.
Daar lijkt het wel op, sowieso zijn meerdere foto's die elk op elkaar lijken in een bepaald (door hun zelf gebouwd) formaat erg goed te comprimeren tot een niet veel groter geheel dan 1 foto. Er is voor de voorbeelden hier bovenin wel een extra laag nodig, die namelijk bepaalt welke van de foto's gebruikt gaat worden gebaseerd op waar je klikt. Zo'n laag kan ook bijzonder goed gecomprimeerd worden.
Volgens mij zit de techniek echter wel wat slimmer in elkaar dan dat :) Ik heb het idee dat er via algoritmes meer focuspunten gekozen kunnen worden dan het aantal lenzen in de array.
ik sluit me aan bij Tielenaar, er word wat ik uit het artikel begrijp 1 foto gemaakt, daarbij worden vector gegeven opgeslagen (zoals de huidige EXIF?) aan de hand van deze data kan een scherptepunt berekend worden
Lijkt imho iets op huidige RAW. Er wordt niet een kant en klaar afgewerkt plaatje opgelevert, maar Je krijgt een foto met extra data waar je een uiteindelijk product van kunt maken. (of zoiets).
Het is eerder met meerdere lenzen in 1 sluitertijd een opname maken op een onderverdeelde CCD. Waarna de software de verschillende CCD blokken van verschillende lenzen in 1 beeld verwerkt. Ofzo :P
Toch?
Nee, want het beeld is een composiet van de verschillende focusdieptes. Er wordt maar één opname gemaakt.
[...]


Nee, want het beeld is een composiet van de verschillende focusdieptes. Er wordt maar één opname gemaakt.
Strikt genomen wel (de sluiter gaat maar één keer open), maar vergelijk het bijvoorbeeld met de bullet-time opnames uit bijvoorbeeld The Matrix. Daar werden ook een honderdtal camera's gebruikt die allemaal gelijktijdig één opname maakten, maar er werd wel meer informatie vastgelegd dan je uit één opname zou kunnen halen.

Kwestie van niet multiplexen in tijd, maar multiplexen in het ruimte-domein. Als je dan die multiplexing omdraait (van tijd naar ruimte of van ruimte naar tijd) dan krijg je een ver-focus-bare foto of kun je de handel afspelen als een bullet-time effect.

Als je van tijd naar ruimte omdraait kun je bijvoorbeeld denken aan een filmstrip, waar normaal (in tijd) opeenvolgende beelden nu als een tegelpatroon worden weergegeven. :Y)
Nee, er wordt van een matrix van microlenzen gebruikt die allemaal op een ander punt scherpgesteld zijn.
Nee alle microlensjes zijn allemaal op oneindig gefocust.
Hierbij maak je gebruik van het gegeven dat die lensjes dus op enige afstand staan van de sensor en dus dat je "scherpe" beeld verdeeld zal worden over meerdere van die lensjes.
Hoe verder het focus-vlak verwijderd is, des te meer microlensjes delen van je scherpe object zullen bevatten.
Tot zover is het principe nogal simpel, maar de wiskunde die erachter zit om het terug te rekenen lijkt zo op het eerste gezicht absoluut niet triviaal.
[...]

Nee alle microlensjes zijn allemaal op oneindig gefocust.
Hierbij maak je gebruik van het gegeven dat die lensjes dus op enige afstand staan van de sensor en dus dat je "scherpe" beeld verdeeld zal worden over meerdere van die lensjes.
Hoe verder het focus-vlak verwijderd is, des te meer microlensjes delen van je scherpe object zullen bevatten.
Tot zover is het principe nogal simpel, maar de wiskunde die erachter zit om het terug te rekenen lijkt zo op het eerste gezicht absoluut niet triviaal.
Het verschil in scherpte komt eigenlijk doordat een CCD plat is. Als je een opname maakt door een (bolvormige) lens, dan is de opname eigenlijk pas overal perfect in focus als je ook op een bolvormig oppervlak projecteert. Je zou dan dus een bolle CCD nodig hebben, maar die wordt ontzettend duur om te maken.

Wat er gebeurt is dat de foto in het midden perfect in focus is, maar het gedeelte van de CCD aan de rand verder van de lens af zit. (Teken maar eens een bovenaanzicht en probeer het zelf uit met een passer.) Dat betekent dus ook dat de rand van de CCD net een beetje uit focus is.

Deze techniek maakt daar dus misbruik van door een hele serie 'mini-foto's' te maken en via de overeenkomst (korrelatie) hiertussen diepte-informatie eruit te halen, en dus de mogelijkheid om een foto tot op zekere hoogte opnieuw te focussen.
Het werkt echt heel goed! Je moet er maar komen, leuke innovatie!
De inspiratie is niet moeilijk, dit wordt al jaren in CSI achtige programma's getoond, de techniek is hier de uitdaging.
Het demootje werkt heel goed, maar dat kan iedereen maken natuurlijk ;)

Daarnaast is het demootje maar heel beperkt met 3 focus-levels per foto. En dat is natuurlijk niet heel zinvol in het echte leven.
Als je de eerste foto pakt zijn er wel meer dan 3 niveaus waarop de focus gelegd kan worden hoor.
  • Verkeersborden in de verte
  • Kalende kerel aan de linkerzijde
  • Blondine in het midden
  • Clownshoofd
Misschien nog wel wat meer, maar in elk geval 4. Sowieso is navigeren m.b.v. klikken niet erg praktisch in iets als dit. Ik had liever een slider gezien waarmee de focus verlegd kan worden. Het kan zijn dat er echt maar een beperkt aantal niveaus zijn, of dat dit voor demo doeleinden gewoon simpel gehouden is.

Je ziet echt de focus wat verschuiven tussen de verschillende punten. Maar het blijft natuurlijk afwachten; met geprepareerde foto's kan alles prachtig werken. Als de camera daadwerkelijk uitkomt, ben ik benieuwd naar reviewers en hun ervaringen.

Het idee is wel erg veelbelovend vind ik :)

[Reactie gewijzigd door Cloud op 22 juni 2011 15:24]

Misschien zijn de algoritmes te zwaar voor een slider en wordt de overgangs animatie gerenderd op het moment van klikken. Duurt bij mij ook even als ik klik.
Het is vast een proof of concept, maar aangezien je een overgang ziet, lijkt mij dat het mogelijk is dat er stappen tussen in te pakken zijn.
Als je de originele thesis leest dan is het aantal focus niveaus inderdaad beperkt maar instelbaar. Dit gaat wel ten alle tijden ten koste van de resoltie van de foto:
These observations suggest a flexible model for a generalized light field camera that can
be continuously varied between a conventional camera with high spatial resolution, and a
plenoptic camera with more moderate spatial resolution but greater refocusing power.
Dus hoe meer flexibiliteit je wilt in refocus naderhand hoe lager je resolutie. Volgens de thesis is de verhouding lineair. Dit betekent dus als je ipv op 4 niveaus naar 8 niveaus van focus wilt je resolutie halveert. Ze heeft het wel ergens over een factor 2 nog. Dus het kan ook dat de resolutie 2 keer zo hard omlaag gaat zelfs of dat refocussing niveaus 2 keer zo hard omhoog gaan, maar dit was me neit helemaal duidelijk.

Kwaliteit en mogelijkheden van deze camera hangt nog altijd sterk af van de onderliggende sensor en ik ben erg benieuwd wat er gebruikt word. Meer megapixels vertaald zich hier dus tot meer refocus niveaus. In de thesis word gemeld dat 250Mpixel al mogelijk zou moeten zijn maar dat die door traditionele lenzen altijd beperkt is gebleven. Toch ben ik bang ik dat ze een standaard sensor hebben gebruikt waarbij er dus niet bijzonder veel resolutie meer overblijft.
Bij die foto met die katten kan ik meer dan 3 focus levels uitmaken. Zowieso een stuk of 5, maar volgens mij nog wel meer.
De katten hebben er maar 3 (achtergrond/achterste kat, bank en voorste kat).

De andere heeft er inderdaad 4 (achtergrond/borden, mensen, meisje, clown).

Als je er echt 5 ziet bij die katten vind ik het knap.
Je kan bij de voorste kat bijvoorbeeld focussen op het oog of focussen op de haartjes aan de zijkant van de kop, je ziet dan een klein focus verschil op het oog en de haartjes
En hetzelfde geldt voor de bank, je ziet een verschil tussen focussen op de bovenkant en focussen middenin de rugleuning.
Op de voorste kat zitten er al 3 (klik maar eens op het oog en twee keer richting de rand van de wang, als je inzoomt is het makkelijker)

Ik ben benieuwd of je hier vervolgens ook automatisch hyperfocale foto's mee kan maken (van voor tot achter scherp), en of misschien dan zelfs de kwaliteit omhoog gaat omdat je informatie uit alle pixels/microlenzen gebruikt.
De katten hebben er 4.
Het oog van de voorste
Het bruinige nekvel van de voorste
De bank
De achterste kat
Er zijn geen lagen over elkaar want je kan op heel veel plekken in de diepte klikken en hij verplaatst zijn focus steeds een stukje.
Ik snap niet welk punt je nou probeert te maken. De demo is ter ondersteuning van wat ze onderzocht hebben, niet het bewijs. Het is daarom ook een beetje suf om het in twijfel te gaan trekken. Natuurlijk kan iedereen een dergelijke demo bouwen, maar dat boeit echt totaal niet. De demo laat gewoon zien wat ermee mogelijk is, of het nou gefaked is of niet.

[Reactie gewijzigd door .oisyn op 22 juni 2011 15:42]

Juist. De demo is ter illustratie, omdat het soms nogal moeilijk is om een abstract concept te bevatten zonder hulpmiddellen.
De foto's die hier gepubliceerd staan zien er nog niet uit alsof ze zich qua resolutie kunnen meten met huidige cameratechnieken, maar dat neemt niet weg dat dit een ongelofelijk interessante ontwikkeling is die een evolutie in de camerawereld kan betekenen!
Helemaal mee eens :) ik verwacht dat het uiteindelijke product naast ontzettend duur te zijn een beter resultaat oplevert. bovenstaande met demo kun je natuurlijk geen krant of poster drukken.
Erg leuk, alleen jammer dat 3d techniek nog zo duur is.
Misschien gaat dit wel voor een verandering zorgen! Je kan nu ook al een 12mp camera bij de mediamarkt voor 40 euro kopen.

[Reactie gewijzigd door Frozen op 22 juni 2011 15:02]

Alleen zegt het aantal pixels weer niets over de kwaliteit van de foto's. Dit bepaald enkel het formaat dat je krijgt.

Ik heb liever minder pixels en dan een foto moeten verschalen, dan een klote kwaliteit met veel pixels.
Ja en nee...de kwaliteit van een foto word door heel veel dingen bepaald, zoals onder meer het aantal 'pixels' dat je hebt om mee te werken.

Dom abstract voorbeeld, als je maar 80x60 pixels hebt heb ik toch liever een 800x600 pixels foto zelfs al is de lens minder goed ofzo.
Van een 80x60 pixels foto is tenslotte weinig te maken. Natuurlijk is voor een goede foto veel meer van belang zoals de kwaliteiten van de lens en de firmware van het toestel om maar ergens te beginnen aan de waslijst.
Zou er ook een speciale optie zijn voor video?
Dit lijkt me mogelijk daar video niets anders is als een sloot fotos achter elkaar.
Mits de "camera" snel genoeg is alle gegevens te verwerken?
dan kun je toch ook alles scherp maken automatisch, dan hoeft je toch niet te kiezen?
Je wilt toch, als je een beetje foto's maakt, niet alles scherp?
Je wilt toch, als je een beetje foto's maakt, niet alles scherp?
Dat hangt er maar helemaal vanaf. Bij een landschapsfoto wil je vaak wel alles scherp, om maar wat te noemen.
Inderdaad. Het gaat erom dat je nu kan kiezen of je alles scherp wilt hebben of niet.
En kunnen kiezen is wel zo fijn!!!!
Inderdaad. Het gaat erom dat je nu kan kiezen of je alles scherp wilt hebben of niet.
En kunnen kiezen is wel zo fijn!!!!
Daarvoor heb je dus de focusring op je objectief (of de autofocus waarmee je het focuspunt kiest). ;)
Dat kan, maar dan ben je alle gevoel voor diepte kwijt.
Voor het gevoel van diepte speelt wel meer mee, compositie en licht is net zo belangrijk als (het ontbreken van) scherptediepte. Het is een bepaald effect, en het kan heel mooi werken. Maar het mooiste is gewoon dat het nu achteraf een keuze kan gaan worden voor een complete non-destructieve workflow. Enkel denk ik dat de resolutie nog erg zal tegenvallen, aangezien je deze exponentieel omlaag brengt voor deze luxe. Maar het is een schitterend begin, en als het eenmaal doorontwikkeld gaat worden naar hogere resoluties dan ben je als fotograaf in de 7e hemel!

Pfoew, vakkennis raakt compleet de wereld uit met zulke technieken :P Iedereen kan zo'n ding oppakken en superplaten schieten... je ziet dat al gebeuren met instap SLR's, die zijn ook zo eenvoudig te bedienen dat er weinig vakkennis voor nodig is om het te bedienen. Aan de ene kant juich ik de toegankelijkheid toe, maar de charme van het "meester worden van de machine" verdwijnt wel zo.
Nonsens. Zoals hierboven uitgelegd hangt het er maar helemaal vanaf. "DOF isolation" is geen vereiste om de suggestie van diepte in een foto te krijgen (maar ken wel helpen).

[Reactie gewijzigd door Aham brahmasmi op 22 juni 2011 22:10]

Er zijn natuurlijk ook foto's waarin je door onscherpte juist een bepaalde sfeer probeert te creeëren.
Dit is gewoon geniaal.
Gezien de twee voorbeelden, zit dit er veel belovend uit.

Ik zou wel willen weten in hoeveel milliseconden ervoor nodig is om een foto te schieten. Zou best handig zijn als je snel een foto vast wilt leggen zonder dat je eerst tijd moet nemen om camera lens te focussen.
ik neem aan dat zoals bij conventionele foto's verschillende omstandigheden van invloed zijn op de sluitertijd (hoeveelheid licht en diafragma bijvoorbeeld) en daar ze beweren goed te zjin met weinig licht zou dat best gede prestaties kunnen opleveren lijkt me
1 2 3 ... 8

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBDesktops

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013