Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 18 reacties

Onderzoekers van de Johannes Kepler Universitšt in het Oostenrijkse Linz hebben het maken van panoramafoto's mogelijk gemaakt op een commercieel verkrijgbare lightfield-camera. De scherpstelling van de panoramafoto is naderhand te bepalen.

De methode om panoramafoto's te maken met behulp van een lightfieldcamera werkt in principe hetzelfde als bij conventionele camera's. Door de camera te draaien over een of twee assen worden verschillende opnames gemaakt die tot een grote panoramafoto worden verwerkt. In plaats van megapixels worden bij de lightfield-camera echter 'megarays' opgevangen.

De onderzoekers van de universiteit in Linz zijn er nu in geslaagd om met behulp van een commercieel verkrijgbare R11C-lightfield-camera van Raytrix diverse lightfield-opnames aaneen te smeden tot een panoramafoto, waarbij het mogelijk is om net als bij normale lightfield-opnames achteraf scherp te stellen.

De resulterende lightfield-panoramafoto bestaat uit in totaal 22 megapixels met een resolutie van 17.885 bij 1.275 pixels. Als camera wordt de R11C-lightfield-camera van het bedrijf Raytrix gebruikt. Deze heeft een 2d-resolutie van 3 megapixels. Vanwege de lightfield-technologie is het ook mogelijk om de panoramafoto's in anaglyph-3d weer te geven.

De gebruikte technologie heeft nog een aantal nadelen. Een en ander werkt alleen bij composities met diffuse lichtomstandigheden en de technologie kan nog niet overweg met lichtbrekingen en blikveldafhankelijke reflecties.

Moderatie-faq Wijzig weergave

Reacties (18)

Iemand die een link heeft naar de foto?

EDIT: zelf gevonden:
http://www.jku.at/cg/cont...focus_full_resolution.jpg (4.0 MB, far focus, full resolution)
http://www.jku.at/cg/cont...focus_full_resolution.jpg (2.1 MB, near focus, full resolution)
http://www.jku.at/cg/content/e48343/e154921/teaser.jpg (2.1 MB, teaser with close-ups, low resolution)

[Reactie gewijzigd door Zarnikon op 17 februari 2012 14:28]

Dat zie je in de video...
Levert goeie mogenlijkheden voor rendering, Als MAYA of MAX ooit overweg kunnen met lightfield als belichtingsstrategie kan dit renderen nog makkelijker en realistischer maken... VET!
Is dat niet gewoon raytracing dan? Dat wordt al jaren gebruikt.
Raytracing is een manier van renderen die een plaatje opbouwt daar de richting van licht te berekenen (kort door de bocht) http://en.wikipedia.org/wiki/Ray_tracing_(graphics) Dit doet ie vanuit het camera standpunt. Voor de belichting die raytracing nodig heeft kan je lichtmaps gebruiken om je lichtpuntjes te bepalen.
Nu kan ja gebruik maken van bv HDR panos voor een goeie belichting omdat die een groot dynamisch bereik hebben wat mooie reflecties geeft. Maar als de belichtingsmap zelf al metadata over de lichtrichting mee kan geven dan zou je nog betere belichtings data hebben voor je raytracing.

[Reactie gewijzigd door janjacobsv op 17 februari 2012 15:38]

ik zie niet precies hoe dit bij 3d rendering gaat helpen, tevens wordt dit principe al heel lang gebruikt. bv. door met je 2d plaat een z-depth kanaal uit te renderen kun je achteraf de plek en grootte van je "Depth of Field" bepalen. Dit is in veel situaties niet te onderscheiden van een echt gerenderde versie, maar veel sneller.

kijk bv. eens naar frischluft lenscare, daar kan ej erg goede resultaten mee behalen.
Werkt inderdaad erg fijn. Sinds after effects cs5 heb je standaard het effect lens blur geÔtegreerd zitten wat je ook z-depth laat gebruiken. Ideaal, en idd vele malen sneller dan het in je 3d software doen.

Hoop dat er in de toekomst ook videocameras komen die iets van een z-depth kanaal kunnen genereren, lijkt me echt ideaal voor post-production! Het zou niet heel moeilijk moeten zijn volgens mij, gewoon een sensor die diepte kan detecteren, aangezien tegenwoordig 3d in opkomst is zal dit toch niet heel moeilijk moeten zijn om te integreren?
erg leuk en aardig, maar tot dusver wordt ik niet bepaald warm van de kwaliteit van de afbeeldingen. de bokeh van een dslr met goede lens is in mijn optiek vele malen beter.
Ja dat zal idd. Maar met je DSLR kun je geen foto maken die je achteraf kan in en uit zoomen. (zonder meerdere foto's te maken)

Het revolutionaire hier is de stitching van de focal stacks. Dat camera's focal stacks met 1 shot kunnen maken + die focal stacks stitchen is wel uniek.

En omdat je een complete focal stack hebt kun je ook nog eens de bokeh achteraf veranderen door een andere slice van de stack te nemen en te combineren.

[Reactie gewijzigd door Rmg op 17 februari 2012 14:53]

volgens mij bedoel je focussen ipv. zoomen, maar verder heb je gelijk.

dit biedt wel perspectief, aangezien je het probleem van "lowres" wat nu het geval is bij alle lightfield camera's voor veel situaties (lees: zonder beweging) oplossen.
Dit zou daarnaast de (voor mij) doorslag kunnen zijn die 3D foto en video zo hard nodig heeft.

Als je dit effect combineert met oogbeweging registratie, kan je plaatjes maken die focussen op waar je werkelijk naar kijkt!

Het meest storende aan 3D films en foto's vind ik namelijk dat je het gevoel hebt zelf in kleine DoF scenes te kunnen focussen, wat dus niet werkt. Als de cameraman besloot dat de voorgrond scherp is, is de rest uit focus, terwijl de diepte illusie je het gevoel geeft dat je door je ogen te focussen alsnog scherp kunt gaan zien. Hoofdpijn dus.

3D waarbij je zelf kunt focussen zoals hier weergegeven is, zou een industrie veranderende ontwikkeling zijn!
Precies, dat in combinatie met tegengestelde autofocus in de 3D bril kan er voor zorgen dat je ogen echt denken te focussen.

Ik ben het er wel mee eens dat deze kwaliteit voor foto's niet echt meer naar hedendaagse standaarden zijn. Maar goed het is ook nog maar de eerste versie.
Maar voor de producent kan dit juist weer een nadeel zijn, immers kan de regisseur willen dat er op een bepaald iets gefocust wordt zodat je de details die in de film verwerkt zitten niet over het hoofd ziet.
Dan moet die regiseur maar niet beginnen aan het maken van een 3D film. 3D is alleen realistisch als je als kijker zelf kunt focussen waar je wilt en werkt dus alleen goed met een oneindige scherpte diepte (zoals nu eigenlijk alleen kan met tekenfilm/CGI). Als de regiseur alleen maar de aandacht weet te pakken door 1 stukje in focus te hebben en de rest niet dan moet hij terug naar regieschool.
Totale onzin.

Een lightfield camera werkt wel even anders dan een blur op een foto.
even beter zoeken op het net voordat jij onzin spamt goede fotoshoppers kunnen zulke realistische blur creeren dat het niet te onderschijden is....

en ja het werkt anders he laat je achteraf focussen ipv vooraf maar kost kwaliteit.... (FEIT).
dus een goede fotoshopper die mooie blur kan creeren kan van een DSLR foto op F8 een hogere kwaliteit foto maken dan een rete dure lightfield camera.

dit is niks meer dan een gadget voor luie mensen die niet kunnen en niet willen kunnen fotograferen en dus altijd een sub optimale foto zullen krijgen.
dat valt inderdaad hard op, het lijkt allemaal wat platjes, zelf lichte bokeh is al vaker scherper, deze lijkt zo dof.

[Reactie gewijzigd door jan van akkere op 17 februari 2012 14:43]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True