Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 210 reacties

De Amerikaanse start-up Lytro belooft later dit jaar een camera op de markt te brengen waarbij het niet langer nodig zou zijn om de lens scherp te stellen. Bij de geschoten beelden kan de fotograaf achteraf het gewenste focuspunt kiezen.

Lytro heeft naar eigen zeggen een geheel nieuwe technologie voor fotografie ontwikkeld, waarmee light fields afgevangen kunnen worden. Terwijl bij traditionele sensors de richtingsinformatie van lichtbundels verloren gaat, wat een 2d-beeld oplevert, zou de door Lytro ontwikkelde microlens array dergelijke informatie in de vorm van vectordata kunnen afvangen.

De microlens array bestaat uit een reeks achter elkaar geplaatste lenzen die tussen de hoofdlens en de beeldsensor zijn geplaatst. Om de diepte-informatie te kunnen verwerken, kan met behulp van speciale algoritmen achteraf het precieze focuspunt in een foto worden bepaald. Daarbij kan de fotograaf zelf naar de gewenste compositie zoeken. Ook moet het mogelijk worden om de lichtsterkte aan te passen, terwijl foto's in combinatie met 3d-schermen ook in drie dimensies gedraaid en geroteerd kunnen worden.

Klik op het deel dat scherp moet worden getoond

Een van de belangrijkste voordelen van de nieuwe technologie is volgens de start-up dat er bij het maken van een foto niet langer scherpgesteld hoeft te worden. Hierdoor gaat er geen tijd meer verloren aan het handmatig scherpstellen of het wachten op de autofocus van een camera. Daarnaast zou de sensor door een hoge lichtgevoeligheid ook betere foto's kunnen maken in slechte lichtcondities.

Volgens Lytro zijn de bestanden die zijn nieuwe camera produceert, ondanks de extra beeldinformatie, niet substantieel groter dan bestaande grafische formaten. Dit zou deels komen doordat de camera, die nog niet publiekelijk is getoond, met krachtige beeldprocessors is uitgerust.

De eerste camera van Lytro die gebruikmaakt van de nieuwe beeldtechniek moet eind dit jaar op de markt kunnen komen. De start-up is opgericht nadat Ren Ng, de huidige ceo, in 2006 in zijn proefschrift de basistheorie van de gebruikte technologie beschreef. Met behulp van honderden camera's die aan supercomputers waren gekoppeld, wist hij vervolgens de juiste algoritmen te ontwikkelen en de juiste lenstechniek te bouwen. Met een geldinjectie van 50 miljoen dollar, afkomstig van durfkapitalisten, begon Ng aan de ontwikkeling van een camera voor de consumentenmarkt.

Reacties (210)

Reactiefilter:-12100205+1140+219+31
Moderatie-faq Wijzig weergave
1 2 3 ... 8
Als je naar het tweede voorbeeldje kijkt, dan zie je dat de ruis van de dichtsbijzijnde kat ook geblurd wordt wanneer je de focus verder naar achter verlegt. Dat is iets wat je normaal niet zou krijgen.

Het lijkt er dus op dat er eerst gewoon een foto met grote scherptediepte (klein diafragma) wordt genomen en vervolgens de diepte in de foto wordt opgeslagen zodat er later een blureffect overheen gegooid kan worden. Leuk als je dat effect geweldig vindt, maar voor de rest niet echt zinnig.

Vaak vergroot je tenslotte de diafragma zodat je de sluitertijd kan verminderen bij bijvoorbeeld situaties in slecht licht.

Volgens mij zou je zoiets ook gewoon met een 3D camera met twee lenzen moeten kunnen doen. Foto schieten met een klein diafragma en vervolgens kan de software de verschillen zien tussen de linker en het rechterplaatje om de diepte op de verschillende plekken in te schatten.

@ Hieronder: ze hebben het over 'substantieel groter'. Ik kan me voorstellen dat ze één foto + een foto voor de diepte (kan prima in grijswaarden denk ik, eventueel lagere resolutie) niet 'substantieel groter' beschouwen. Het alternatief zou zijn om meerdere foto's op te slaan.

[Reactie gewijzigd door BarôZZa op 22 juni 2011 16:13]

Als dit de techniek zou zijn, dan zouden de bestandsgrootte van de foto's weldegelijk hoger worden. Hoe kleiner de scherptediepte, hoe sterker de jpeg-compressie.

Dit is overigens een raar stukje logica:
Volgens Lytro zijn de bestanden die zijn nieuwe camera produceert, ondanks de extra beeldinformatie, niet substantieel groter dan bestaande grafische formaten. Dit zou deels komen doordat de camera, die nog niet publiekelijk is getoond, met krachtige beeldprocessors is uitgerust.
Een pc heeft ook voldoende rekenkracht, maar daarmee lukt het niet om ineens een veel betere compressie te behalen. Het hangt meer van het compressie-algoritme af.
Misschien heeft de compressie te maken met snelheid in deze. het (de-) comprimeren van iets kost immers tijd / rekenkracht lijkt me?
De foto's in het artikel zijn slechts ter illustratie van het verhaal. Een aanpasbaar blur-effect op een foto met klein diafragma - waarschijnlijk ook nog flink ingezoomd - lijkt me dan vrij logisch. Het is immers maar een simpel scriptje op een site dat nooit de daadwerkelijke techniek kan demonstreren. Daarvoor zullen we toch echt een release van de techniek met de bijbehorende software moeten afwachten.
Ik heb 't iets verder uitgediept maar ben er nog niet helemaal uit.
Een aantal jaren geleden een soortgelijke techniek tegengekomen en was toen niet onder de indruk, dit werkte met een speciale lens die onscherp was, door een convolution filter werd dit weer verscherpt.
gevonden: http://groups.csail.mit.e...notes/25_LightField_6.pdf
Vanaf pagina 9 "Plenoptic camera refocusing" zijn de slides van Ren Ng (die deze start-up runt)

Dit is trouwens dezelfde techniek als uit het nieuws bericht, of is er echt iets wezenlijks anders aan deze cameratechniek?
Doet de nieuwe Eyesis camera van Elphel op basis van verschillende lichtlengtes en een initieel referentie patroon om de camera te calibreren.

http://blog.elphel.com/20...nd-lens-focus-adjustment/
http://blogs.elphel.com/2010/11/zoom-in-now-enhance/

Als je niet de achtergrond wilt lezen; je kunt dus op rood, groen of blauw focussen, en daar de rest van de beeld informatie op aanpassen.

[Reactie gewijzigd door Skinkie op 22 juni 2011 15:13]

Is een vervolg op dit nieuwsbericht: nieuws: Camerachip kan diepte 'zien' . De publicatie waarin staat wat de theorie erachter is heet "Light Field Photography with a Hand-Held Plenoptic Camera", inderdaad van o.a. meneer Ng.
Hoe wordt dit opgeslagen?
Een pixel van een CCD vangt normaal het licht op van lichtbundels uit heel veel richtingen.

Het idee is dat je een microlensje vlak voor de CCD plaatst, dat lensje zorgt er voor voor dat lichtbundels met een verschillende richting op een andere CCD pixel terecht komen.

Dus je krijgt een foto waarbij er vierkantjes van pixels zijn die bij het zelfde lensje horen, en waarvan de pixel positie iets zegt over hoek van inval van de lichtstralen.

Op de computer kan je met behulp van de hoek van inval en de intensiteit (kleur / grijswaarde) uitrekenen wat er gebeurd als je er b.v. een lens voor plaatst.

http://graphics.stanford....amera/lfcamera-150dpi.pdf
Zeer interessant om te lezen.
Na het zien van wat foto's in de paper kun je dezelfde techniek ook terugzien in de eerste foto.
Als je focust op bijv. het verkeersbord valt op dat er een soort van rooster is als je inzoomt.

Jammer is wel dat de foto niet van super kwaliteit word op deze manier :/
Yep, de techniek levert een trade-off op. Uit de dissertatie (http://www.lytro.com/renng-thesis.pdf) van de CEO van het bedrijf:

"This is the fundamental trade-off taken by the light Field approach to imaging. For a fixed
sensor resolution, collecting directional resolution results in lower resolution final images, with essentially as many pixels as microlenses."

Verkoop je huidige camera voorlopig nog maar even niet.
Misschien gaat dit een nieuwe megapixel-oorlog veroorzaken, aangezien je een veel betere sensor nodig hebt voor deze techniek.
In het artikel gebruiken ze een 4000x4000 sensor en zetten daar een array van 296x296 microlensjes voor. Je maakt dus een 296x296 foto. Echter per pixel in de foto kan je het licht van ca 180 pixels op de sensor gebruiken. Niet alleen voor zeg diepte informatie, maar ook voor ruiscorrecties.

In het het artikel suggereert men ook dat ze een ander soort sensor in kunnen gaan zetten. 1 met veel meer maar kleinere pixels. Ten eerste krijg je veel meer licht omdat ze alles met een groot diafragma fotograferen. En ten tweede kunnen ze het licht van vele pixels bij elkaar optellen voor licht strekte informatie. Enige ruis in sommige pixels wordt dus uitgemiddeld.

Dit artikel is uit 2005. Ik vraag me dus af of ze ondertussen zo'n aangepast sensor hebben ontwikkeld en gebruiken in deze camera.
Je maakt dus een 296x296 foto.
Dat is niet helemaal waar.
Voor de delen die out-of-focus zijn, zal je inderdaad effectief een 296x296 foto maken, maar je hebt ook nog detail in de vlakjes van de microlensjes.
Dus de effectieve resolutie van de delen die in focus zijn, zullen in elk geval een hogere resolutie hebben dan die krap 300x300.
waardoor de ruiscompensatie ook nog wel aardige stappen te maken heeft.
Aan de andere kant kan je met deze techniek wel de laagste F waarde van je lens gebruiken, waardoor ruis wordt beperkt.
In de paper wordt ongeveer 150x meer pixels gebruikt dan microlensjes, maar ik vraag me af of je meer detail krijgt door meer sensor-pixels, of een nauwkeuriger focus. Ik vermoed het laatste.
Dus je zou zeggen dat je inderdaad voordeel zou kunnen hebben uit meer pixels op de sensor.
Jammer is wel dat de foto niet van super kwaliteit word op deze manier :/
Dat is bij techniek meestal een kwestie van tijd tot daar een passende oplossing voor gevonden wordt.
Krijg je zo verschillende waardes aan je pixels? Worden de foto's dan ook niet extreem veel groter? Alleen geschikt voor proffesionele fotografie dus?
(Eerste keer dat ik hier een score 3 zie)
Dat ligt eraan hoeveel "waardes per pixel" je gaat onthouden. Zitten er achter ieder microlensje 20 pixels, dan krijg je dus een 20 maal zo groot bestand. Vergelijk het met een 3D afbeelding.
Deze techniek werkt met een algoritme, waardoor je dus niet veel meer gegevens hoeft op te slaan dan gewoonlijk. Het algortime hoort bij de speciale lenzenserie die gebruikt is voor de opname. Via het algoritme komen daar dan de diepte gegevens weer uit naar voren. De afbeelding die de camera opslaat bestaat volgens mij uit de traditionele 2d weergave voor de kleuren en uit dieptegegevens. Ik schat dat aan dergelijk bestand maximaal drie keer groter is dan een 'normaal' bestand. De kracht zit in de gebruikte hardware die de dieptegegevens uitsplitst zodat het geregistreerd kan worden en in het algoritme wat deze dieptegevens weer kan gebruiken om toe te passen op het resultaat.

Slimme en leuke techniek. Ik vraag me alleen één ding af. Voor de sfeer kan onscherpte op foto's natuurlijk leuk zijn, maar in principe wil je toch vaak dat alles er gewoon scherp op staat? Nu ze de foto's zo precies kunnen aanpassen, kan je een afbeelding toch ook zo aanpassen dat alle delen scherp worden?
Dat zou dan ook kunnen ja, dat zou er alleen niet realistisch uitzien. Wij zien ook niet elke diepte scherp namelijk.
Maar wel het gedeelte waar we op focussen.
Dus als jij op een gedeelte van een foto focust, is het niet realistisch als dat gedeelte onscherp is.
Kijk bijvoorbeeld eens naar de linkerkat in het plaatje hierboven en focus op die kat.
Ook al focus jij op die kat, je ziet 'm onscherp.
Dat is niet realistisch.

Had de hele foto scherp geweest, dan had je de linkerkat scherp gezien, en de rechterkat niet omdat die zich buiten jouw focus bevindt.

Dat had wel realistisch geweest.

De hele foto scherp is dus prima realistisch voor jouw waarneming.
Als je een eye-tracker op je monitor hebt staan wordt het pas echt interessant. Je kan dan precies het gedeelte waar je naar kijkt scherp maken, dat is pas realisme. Zeker als het ook nog met 3d gecombineerd wordt (wat me erg eenvoudig lijkt).

En al helemaal als het in films geïmplementeerd zou worden :)

Aan de andere kant heeft focussen in films en foto's ook weer een artistieke waarde, want je wordt als kijker gedwongen om de regisseur te volgen.

[Reactie gewijzigd door Pierz op 22 juni 2011 18:02]

Dit zou dus 1 van de grote fouten van 3D films kunnen oplossen? Wat ik storend vind is als ik bij een 3D film geforceerd naar een bepaald punt moet kijken. De rest is wazig dus zorgt voor een zeer onaangenaam gevoel als je er naar probeert te kijken. Voor 1 persoon zou het dus mogelijk worden om zelf te kijken waar je wil en dat het dan daar op focust.

Dit lost wel het probleem dat je ogen zelf van focus willen veranderen niet op. Misschien is het mogelijk om dit systeem omgekeerd te gebruiken voor een nieuwe generatie 3D schermen: Je zou de lichtstralen exact kunnen reproduceren waardoor de diepte in de hoek van de lichtstralen zit, net zoals in de natuur.

Ben maar luidop aan het fantaseren, maar aangezien dat je licht gewoon mag omdraaien (in de meeste gevallen) kan dit ook een grote doorbraak betekenen in de weergave van beeld. Weer een stap verder in de zoektocht naar een manier om licht exact te kunnen reproduceren, as is, zonder op je camera instellingen nodig te hebben. RAW 2.0 :)
Dit lost wel het probleem dat je ogen zelf van focus willen veranderen niet op. Misschien is het mogelijk om dit systeem omgekeerd te gebruiken voor een nieuwe generatie 3D schermen: Je zou de lichtstralen exact kunnen reproduceren waardoor de diepte in de hoek van de lichtstralen zit, net zoals in de natuur.
Dat doen ze tot op zekere hoogte al met een Lenticulair display.Het verschil met deze microlens-array is alleen dat zoiets in één richting wordt gebruikt (er hoeven maar 2 beelden te worden gesplitst) in plaats van in heel veel richtingen zoals hier het geval is.

Wat zo'n microlens-array doet is feitelijk heel veel afzonderlijke foto's maken met elk een ander scherpstelpunt. En ja, dat is precies wat je wil hebben om een voorwerp (als voorwerp, niet als set van 2 beelden) in 3D te fotograferen ;)... en in principe moet dit ook voor 3D displays of projectoren mogelijk zijn. Het grote probleem is op dit moment nog dat de schaal niet effectief genoeg is: Niemand wil nog naar een televisie staren van 300 bij 300 pixels.

[Reactie gewijzigd door Stoney3K op 23 juni 2011 00:20]

En ja, dat is precies wat je wil hebben om een voorwerp (als voorwerp, niet als set van 2 beelden) in 3D te fotograferen ... en in principe moet dit ook voor 3D displays of projectoren mogelijk zijn. Het grote probleem is op dit moment nog dat de schaal niet effectief genoeg is: Niemand wil nog naar een televisie staren van 300 bij 300 pixels.
Dan ben ik heel benieuwd hoe je dat als 3D wilt projecteren.
Ten eerste moet je het ergens op projecteren, dus dan zit je alweer met 1 focusvlak.
Daarnaast zou je aan de projectorkant op meerdere niveau's vanaf de lens moeten gaan projecteren. Je kunt namelijk niet met alleen optica een onscherp beeld maken wat je out-of-focus voor de lens zet en dan verwachten dat het scherp wordt.
Terugrekenen kan wel, mits je ook maar de informatie hebt waardoor het out of focus is, zoals hier wordt getoond.
Precies wat ik zat te denken, nadeel is dan echter dat maar 1 persoon naar het scherm kan kijken (of iedereen kan zien waar die ene persoon zijn blik op gefocussed is) :+
Ehm.. Hoe en waarop mijn ogen focussen bij het bekijken van een foto is in dat geval niet relevant. Relevant is waarop de lens gefocust was op het moment van het maken van de foto: dat gebied is scherp, andere delen minder scherp (tenzij je hyperfocust).

'Normale' foto's hebben dus gefocuste/scherpere delen en minder gefocuste/onscherpere delen en daar kun je hooguit in Photoshop nog een beetje mee spelen, maar de onscherpere delen kun je niet 'her-focussen'.

Met deze nieuwe techniek zou dat wel kunnen. Maar ook dan zul je alleen die delen van een foto scherp/gefocust zien die je scherp/gefocust hebt gemaakt, en niet puur door je eigen ogen te focussen.
Goed verwoord! Is voor mij een inzicht momentje :-)
Ik schat dat aan dergelijk bestand maximaal drie keer groter is dan een 'normaal' bestand.
Ik "schat" dat je ongeveer net zoveel opslag hebt als wat je met een raw-opname hebt in een normale camera met hetzelfde aantal pixels.
Je kunt met deze techniek geen lossy compressie gebruiken, want dat krijg je ineens focus-problemen bij het terugrekenen. Dus je zal toch in een soort van RAW formaat moeten werken.
Het enige wat je extra op moet slaan is wat metainformatie omtrend de microlensjes.
De keuze om veel of weinig scherptediepte te gebruiken, ligt volledig bij de fotograaf. Dit is afhankelijk van zijn uiteindelijk doel. Als de fotograaf de bedoeling heeft om je 'alles' op een foto te laten zien, dan zal hij een klein diafragma gebruiken en alles scherp op de foto zetten. Je krijgt dan een foto waarop alles scherp is en je alles kunt bekijken. Als voorbeeld kan ik noemen Pieter Bruegel, weliswaar geen fotograaf maar het idee blijft hetzelfde, er is vanalles te zien dus bekijk maar wat je wil.
Het tegenovergestelde is echter vaker het geval, de fotograaf wilt dat jou opvalt wat hem op de moment ook opviel. Hij gebruikt een groter diafragma om een kleinere scherptediepte te creeeren (in Jip&Janneke taal: hij focust op een onderwerp en de omgeving ervoor en erachter wordt onscherp). Jou oog zal direct zien waarom hij de foto gemaakt heeft, bijvoorbeeld in een menigte een moeder met gewond kind op de arm. Dit is het doel van de fotograaf: de kijkers de wereld door zijn ogen laten zien.
Volgens Lytro zijn de bestanden die zijn nieuwe camera produceert, ondanks de extra beeldinformatie, niet substantieel groter dan bestaande grafische formaten.
"niet substantieel" is natuurlijk wel een vaag begrip :)
Interessante paper! Wat ik al dacht er zijn een aantal beperkingen:
- Diafragma in de test ligt rond the f/4. Kleiner en je krijgt vignetting, groter en de boel gaat overlappen (contrast gaat achteruit?)
- Resolutie, want er zijn 292x292 microlenzen beschikbaar, plus de kleine cirkels die het op de sensor projecteert hebben natuurlijk donkere ruimtes al een verlies oplevert.
Als je de f waarde verhoogt zullen de microlenzen op minder pixels projecteren (de cirkels die je noemt worden kleiner), waardoor je informatie verliest.
Hoe het opgeslagen wordt lijkt met niet relevant. Als alle informatie maar aanwezig is.
Vergelijk het met de (exif-)data die van belang is voor RAW-verwerking waardoor later als voorbeeld de lens herkend wordt, waardoor eventuele vervorming in één klik weg is.
Ik vraag me af hoe het met het octrooi gaat uitpakken en of andere camerafabrikanten er gebruik van mogen gaan maken. Dat wordt pas interessant.
Hoe het wordt opgeslagen is WEL relevant, omdat iedereen natuurlijk wil weten of bestaande ongefocuste foto's alsnog gefocust kunnen worden. Met .jpg lijkt me dat onmogelijk.
Zoals hAl aangeeft en in het artikel staat:
Terwijl bij traditionele sensors de richtingsinformatie van lichtbundels verloren gaat, wat een 2d-beeld oplevert, zou de door Lytro ontwikkelde microlens array dergelijke informatie in de vorm van vectordata kunnen afvangen.

In Fotos die NIET genomen zijn met de microlens array is dus ook geen vectordata beschikbaar om een scherptepunt te berekenen.
Aangezien je er een specifieke set lenzen voor nodg hebt kan het alleen zijn voor nieuw te maken foto's met een camera die dit ondersteunt.
Als een foto met zo'n raster van tussenlensjes met een normale camera genomen zou worden, krijg je een foto waar je het beeld door al die lensjes los van elkaar ziet in de vorm van een raster. Met speciale software zal daar wel een normale foto uit te halen zijn. Dus ik denk dat als je camera verwisselbare lenzen heeft, deze techniek best toepasbaar is in bestaande camera's.
Maar dus niet op al bestaande foto's.
Nee, maar wel op al bestaande camera's ;)
je kunt nooit 'normale' ongefocuste fotos weer scherp maken.
Met conventionele sensors en RAW-formaten is het onmogelijk: Deze kunnen geen richtingsinformatie opnemen en opslaan.
Nog niet geheel duidelijk, dit is de eerste keer dat Lytro enig inzicht geeft in zijn techniek. Vermoedelijk later dit jaar wordt er meer duidelijk.
Helemaal nieuw is dit niet. Op Stanford waren ze daar al in 2004/2005 mee bezig.
http://graphics.stanford.edu/papers/lfcamera/
En als je het paper bekeken had, dan had je gezien dat de CEO van Lytro als eerste auteur genoemd wordt.

De techniek is dus niet nieuw, maar het creëren van een versie die voor consumenten producten geschikt is, is datgene wat Lytro uniek maakt.
De techniek is dus niet nieuw, maar het creëren van een versie die voor consumenten producten geschikt is, is datgene wat Lytro uniek maakt.
In 2005 bestond het bedrijf nog niet.
Founder of Lytro Ren Ng started Lytro in 2006 and has raised $50 million in funding.
Laat ik het zo stellen dat het idee van Light Focus meer ontwikkelt is dan toen in 2005 en geschikt lijkt te zijn voor consumenten camera's.
En als je het paper bekeken had,
Moet het nou altijd zou negatief hier?
Ja, omdat veel mensen niet eerst eens goed lezen...
Dat is dus die gast waar het in het artikel over gaat!
Hier wordt al een klein beetje uitleg gegeven:
http://www.youtube.com/watch?v=jS7usnHmNZ0

Dus om dit nu echt nieuw te noemen...
edit: Of ik heb het mis en dit is een compleet andere techniek.

[Reactie gewijzigd door Keef op 22 juni 2011 16:16]

Eigenlijk is het een logische techniek, maar is volgens mij de kunst om er een gangbaar formaat van te maken en de fotografen over te halen (die hebben ook lange tijd vastgehouden aan analoge camera's).
Voor sommige shots gebruik ik nog steeds analoog, Met name zwart/wit, maar ook kleur komt er dan toch nog steeds een stuk beter uit. De imperfecties van het analoge (of kan ik het analoge artifacts noemen?) geheel maken het als je weet wat je doet gewoon mooier voor het oog. Misschien ligt het aan mij en zie ik alleen maar wat ik wil zien.

On-topic: voor mensen die gewoon plaatjes willen schieten is dit natuurlijk een geweldige uitkomst!

[Reactie gewijzigd door hottestbrain op 23 juni 2011 08:35]

wat ik wel mankeer aan de tweede foto is om bijvoorbeeld op de muur achter de katten te focussen... dat gaat blijkbaar niet ...

maw; de techniek is niet compleet .. (naar mijn visie dan toch)
Leve de analoge, geheel mechanische batterij-onafhankelijke camera.

Ik vind het ook veel fijner om daar mee te fotograferen.

Jammer is dat je niet gelijk op en schermpje kunt beoordelen of de foto gelukt is, en nog jammerder is dat je ze niet gelijk aan je omgeving kunt laten zien, kunt kopiëren enzovoorts.

Dat zijn nadelen die voor de meeste mensen zwaar tellen, maar met een analoge, mechanische camera heb je veel meer controle over je beeld en fotografeer je bewuster en als je bereid bent om daar in mee te gaan, worden je foto's veel mooier. (Voor kiekjes gaat dat trouwens niet op, die kun je best makkelijk en snel op de automaat maken).
Dit druist zo tegen de feiten van hoe een lens werkt, zoals we hem tot nu toe kennen.

Ik zie de voorbeelden er van hierboven, maar ik snap het gewoonweg niet. Op welk vlak worden we hier nou bedonderd?
Je neemt aan dat een traditionele lens wordt gebruikt. Met een lens heb je te maken met vervormingen, brandpunten.

Maak het gewoonweg donderseenvoudig: als jij weet op welke afstand van een sensor welke kleur zich bevindt dan heb je geen lens nodig. Het probleem wat je krijgt is dat je sensor een vierkante centimeter groot is... en je "foto" dus ook. Bij het
"vergroten" van je foto moet er iets van anti-alliasing plaatsvinden. Dit is softwarematig en kan je dus achteraf "focussen".

Wat je dus eigenlijk moet toevoegen aan een "tradioneel" beeld is behalve kleur van de pixel ook de afstand van het materiaal tot de camera/sensor.
Een foto zonder diepte (alles scherp), gecombineerd met een 3D-weergave. Iets anders kan ik niet bedenken.

Uiteindelijk is het dus volledig afhankelijk van hoe nauwkeurig de 3D-weergave is en dat is volgens mij nog niet heel denderend vandaag de dag.
Er is helemaal geen 3D weergave. Voor een echte 3D weergave zul je twee foto's op verschillende afstanden moeten maken. Nu kun je niet om hoekjes kijken.

Wat hier gemeten wordt is de kleur van de fotonen en de richting waar ze vandaan komen. Een traditionele lens zorgt ervoor dat al het licht dat vanaf een bepaald punt is uitgezonden op dezelfde plek op de CCD terecht komt. Maar die bundel moet je focussen - als de bron niet op brandpuntafstand ligt dan wordt het een waas. Heb je geen lens, maar wel gegevens over waar het licht op de CCD valt en uit welke richting, dan kun je bepalen waar het licht vandaan kwam.
Maakt deze camera dan gewoon 100den fotos op verschillende focus binnen 1 ms? Zou niet weten hoe dit anders zou moeten werken...
Staat letterlijk in het artikel. (heel het artikel gaat er zelfs over). De camera onthoudt de lichtinformatie die hij binnenkrijgt en maakt dus eigenlijk een 3D foto. Je kan dan later scherpstellen omdat de camera weet hoe ver iets was.
Het werkt echt heel goed! Je moet er maar komen, leuke innovatie!
Het demootje werkt heel goed, maar dat kan iedereen maken natuurlijk ;)

Daarnaast is het demootje maar heel beperkt met 3 focus-levels per foto. En dat is natuurlijk niet heel zinvol in het echte leven.
Als je de eerste foto pakt zijn er wel meer dan 3 niveaus waarop de focus gelegd kan worden hoor.
  • Verkeersborden in de verte
  • Kalende kerel aan de linkerzijde
  • Blondine in het midden
  • Clownshoofd
Misschien nog wel wat meer, maar in elk geval 4. Sowieso is navigeren m.b.v. klikken niet erg praktisch in iets als dit. Ik had liever een slider gezien waarmee de focus verlegd kan worden. Het kan zijn dat er echt maar een beperkt aantal niveaus zijn, of dat dit voor demo doeleinden gewoon simpel gehouden is.

Je ziet echt de focus wat verschuiven tussen de verschillende punten. Maar het blijft natuurlijk afwachten; met geprepareerde foto's kan alles prachtig werken. Als de camera daadwerkelijk uitkomt, ben ik benieuwd naar reviewers en hun ervaringen.

Het idee is wel erg veelbelovend vind ik :)

[Reactie gewijzigd door Cloud op 22 juni 2011 15:24]

Als je de originele thesis leest dan is het aantal focus niveaus inderdaad beperkt maar instelbaar. Dit gaat wel ten alle tijden ten koste van de resoltie van de foto:
These observations suggest a flexible model for a generalized light field camera that can
be continuously varied between a conventional camera with high spatial resolution, and a
plenoptic camera with more moderate spatial resolution but greater refocusing power.
Dus hoe meer flexibiliteit je wilt in refocus naderhand hoe lager je resolutie. Volgens de thesis is de verhouding lineair. Dit betekent dus als je ipv op 4 niveaus naar 8 niveaus van focus wilt je resolutie halveert. Ze heeft het wel ergens over een factor 2 nog. Dus het kan ook dat de resolutie 2 keer zo hard omlaag gaat zelfs of dat refocussing niveaus 2 keer zo hard omhoog gaan, maar dit was me neit helemaal duidelijk.

Kwaliteit en mogelijkheden van deze camera hangt nog altijd sterk af van de onderliggende sensor en ik ben erg benieuwd wat er gebruikt word. Meer megapixels vertaald zich hier dus tot meer refocus niveaus. In de thesis word gemeld dat 250Mpixel al mogelijk zou moeten zijn maar dat die door traditionele lenzen altijd beperkt is gebleven. Toch ben ik bang ik dat ze een standaard sensor hebben gebruikt waarbij er dus niet bijzonder veel resolutie meer overblijft.
Misschien zijn de algoritmes te zwaar voor een slider en wordt de overgangs animatie gerenderd op het moment van klikken. Duurt bij mij ook even als ik klik.
Het is vast een proof of concept, maar aangezien je een overgang ziet, lijkt mij dat het mogelijk is dat er stappen tussen in te pakken zijn.
Bij die foto met die katten kan ik meer dan 3 focus levels uitmaken. Zowieso een stuk of 5, maar volgens mij nog wel meer.
De katten hebben er maar 3 (achtergrond/achterste kat, bank en voorste kat).

De andere heeft er inderdaad 4 (achtergrond/borden, mensen, meisje, clown).

Als je er echt 5 ziet bij die katten vind ik het knap.
Je kan bij de voorste kat bijvoorbeeld focussen op het oog of focussen op de haartjes aan de zijkant van de kop, je ziet dan een klein focus verschil op het oog en de haartjes
En hetzelfde geldt voor de bank, je ziet een verschil tussen focussen op de bovenkant en focussen middenin de rugleuning.
Op de voorste kat zitten er al 3 (klik maar eens op het oog en twee keer richting de rand van de wang, als je inzoomt is het makkelijker)

Ik ben benieuwd of je hier vervolgens ook automatisch hyperfocale foto's mee kan maken (van voor tot achter scherp), en of misschien dan zelfs de kwaliteit omhoog gaat omdat je informatie uit alle pixels/microlenzen gebruikt.
De katten hebben er 4.
Het oog van de voorste
Het bruinige nekvel van de voorste
De bank
De achterste kat
Er zijn geen lagen over elkaar want je kan op heel veel plekken in de diepte klikken en hij verplaatst zijn focus steeds een stukje.
Ik snap niet welk punt je nou probeert te maken. De demo is ter ondersteuning van wat ze onderzocht hebben, niet het bewijs. Het is daarom ook een beetje suf om het in twijfel te gaan trekken. Natuurlijk kan iedereen een dergelijke demo bouwen, maar dat boeit echt totaal niet. De demo laat gewoon zien wat ermee mogelijk is, of het nou gefaked is of niet.

[Reactie gewijzigd door .oisyn op 22 juni 2011 15:42]

Juist. De demo is ter illustratie, omdat het soms nogal moeilijk is om een abstract concept te bevatten zonder hulpmiddellen.
De inspiratie is niet moeilijk, dit wordt al jaren in CSI achtige programma's getoond, de techniek is hier de uitdaging.
Zal wel een bepaalde encryptie zijn die ze gebruiken om het niet `veel` groter op te slaan.

maar leuke, en mooie, handige techniek en hopen dat het ook enigzins betaalbaar is.
want hoevaak heb je niet een onscherpe of net niet foto
damn wat zal dit voor veel mensen een opluchting zijn :D
De algoritmen zullen wel in de camera "geprogrammeerd" staan en verder heb je alleen de vectordata nodig geloof ik. Als deze in simpele tekst wordt opgeslagen wal dat niet veel ruimte in beslag hoeven te nemen?!
Als deze in simpele tekst wordt opgeslagen wal dat niet veel ruimte in beslag hoeven te nemen?!
Ik mag hopen dat ze zo slim zijn geweest een binary formaat te kiezen (voor de vectordata); dat is vele malen efficiënter. In combinatie met compressie (en dus inderdaad niet encryptie!) kan 't dan wellicht nog kleiner.

Edit: Even met Wireshark gekeken; het zijn iig geen losse JPG's die geserveerd worden door de webserver maar bestanden met een .lfp extensie. Nu kan 't voor demonstratiedoeleinden wel één of ander formaatje zijn met daarin een JPG of 3, 4 ofzo embedded om zo verschillende focuspunten te representeren en ik weet dus niet of dit een "echt" (of misschien wel het "definitieve") bestandsformaat is of puur voor demonstratiedoeleinden. Maar ik tref er wel leesbare metadata in aan :Y) Daarin wordt o.a. een "lfptool" genoemd, maar daarop googlen levert (zo ver ik nu zie) nog niets zinnigs op en lijkt me dus iets wat nog niet vrijgegeven/uitgegeven is.

Edit2: En bij nader inzien zijn 't, volgens de metadata, inderdaad gewoon 4 "embedded" JPG's. Zie het imageArray element dat 4 JPG's bevat en gezien de lambda zijn 't vier verschillende dieptes. Afgaand op de imageRef in de metadata en dan verderop in het bestand op diezelfde values zoekend kom ik vier keer een JFIF tegen wat duidt op een JPEG header. Is me alleen nog niet duidelijk of 't bestand nog meer bevat (dus de vectordata) of, zoals ik vermoed, puur voor demonstratiedoeleinden bedoeld is.

Ik heb 't, in dit geval, over de "Wushu guru Rob Dull practices in Golden Gate Park" foto overigens.

[Reactie gewijzigd door RobIII op 22 juni 2011 17:46]

Ik vermoed dat je compressie bedoelt? :P
Erg leuk, alleen jammer dat 3d techniek nog zo duur is.
Misschien gaat dit wel voor een verandering zorgen! Je kan nu ook al een 12mp camera bij de mediamarkt voor 40 euro kopen.

[Reactie gewijzigd door Frozen op 22 juni 2011 15:02]

Alleen zegt het aantal pixels weer niets over de kwaliteit van de foto's. Dit bepaald enkel het formaat dat je krijgt.

Ik heb liever minder pixels en dan een foto moeten verschalen, dan een klote kwaliteit met veel pixels.
Ja en nee...de kwaliteit van een foto word door heel veel dingen bepaald, zoals onder meer het aantal 'pixels' dat je hebt om mee te werken.

Dom abstract voorbeeld, als je maar 80x60 pixels hebt heb ik toch liever een 800x600 pixels foto zelfs al is de lens minder goed ofzo.
Van een 80x60 pixels foto is tenslotte weinig te maken. Natuurlijk is voor een goede foto veel meer van belang zoals de kwaliteiten van de lens en de firmware van het toestel om maar ergens te beginnen aan de waslijst.
1 2 3 ... 8

Op dit item kan niet meer gereageerd worden.



Microsoft Windows 10 Home NL Apple iPhone 6s Star Wars: Battlefront (2015) Samsung Galaxy S6 Edge Apple Watch Project CARS Nest Learning Thermostat Besturingssystemen

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True