Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 96 reacties

Woensdag kondigde Apple de iPhone 7 en iPhone 7 Plus aan, waarbij het wederom veel aandacht legde op de camerakwaliteit van de telefoons. Dat is goed te begrijpen, dankzij grote sensoren en grote diafragma-openingen zit de kwaliteit van veel high-end-smartphones al op het niveau van een traditionele compactcamera. Daarbij zijn ook de videomogelijkheden de laatste jaren toegenomen, met 4k-kwaliteit en fraaie slowmotionmogelijkheden. Het is dus niet gek dat de smartphone in veel gevallen onze primaire camera is geworden: prima kwaliteit en altijd bij de hand. Daarmee is de camera een van de belangrijkste elementen van de smartphone geworden.

Er is alleen één front waarop hij nog tekortschiet: optische zoom. Er zijn enkele smartphones die optisch kunnen zoomen, zoals de Samsung Galaxy K zoom, en modellen met een opklikcamera, zoals de Moto Z Play, maar dat is het wel. Door de bewegende lenselementen in het objectief wordt zo'n product al snel relatief groot en zwaar. Huidige smartphones kunnen enkel digitaal zoomen; dit levert niet meer details op, maar gaat juist ten koste van de beeldkwaliteit.

iPhone 7 Plus

De oplossing lijkt te liggen in het simpelweg toevoegen van een tweede camera, zoals Apple nu heeft gedaan bij de iPhone 7 Plus, maar zoals we ook al eerder zagen bij verschillende Android-telefoons. Twee camera's maken echter meer zaken mogelijk dan enkel inzoomen zonder kwaliteitsverlies, zoals diepte meten, 3d-foto's en -video's maken, verschillende belichtingen samenvoegen, de beeldkwaliteit verbeteren en verschillende brandpuntsafstanden gebruiken. In dit artikel kijken we naar de recente geschiedenis van de dubbele camera, de technieken erachter en de mogelijke toepassingen.

Niet nieuw

Nieuw is het concept van de dubbele camera dus niet. Begin 2014 kwam HTC met de M8, die met twee camera's was uitgerust. De tweede camera werd niet gebruikt om beeld vast te leggen, maar om diepte te meten. Daarmee zou je achteraf kunnen scherpstellen, maar de implementatie was erg mager. Er werd simpelweg een blurfilter toegepast, waarmee het effect van beperkte scherptediepte nagebootst werd. De Honor 6 Plus gebruikte hetzelfde uitgangspunt, maar dan met twee identieke camera's en twee verschillende scherpstelpunten. Die implementatie bleek evenmin revolutionair.

De LG G5 en V20 zijn eveneens uitgerust met twee verschillende camera's. Het gaat in dit geval om twee verschillende brandpuntsafstanden: standaardgroothoek en supergroothoek. Je kunt dus niet inzoomen, maar wel schakelen tussen de twee. In bepaalde situaties kan dat van pas komen, al blijkt uit onze review dat de camera met supergroothoek een wat minder goede beeldkwaliteit aflevert.

De Nokia Pureview 808 en Lumia 1020 zijn uitgerust met slechts een enkele lens, maar Nokia had wel iets bedacht om te kunnen 'zoomen'. De sensor heeft een resolutie van maar liefst 41 megapixel. Deze resolutie wordt echter standaard als bronmateriaal gebruikt om foto's van 5 megapixel uit te destilleren, zodat je kunt zoomen zonder zichtbaar kwaliteitsverlies. Dit heet oversampling en werkt best goed, waarbij de negatieve aspecten van digitale zoom beperkt blijven.

Monochrome sensor

Huawei koos met de P9 voor een iets andere implementatie van de tweede camera, net zoals bij de Honor 8. Hier zijn de sensor, lensconstructie en resolutie identiek. Bij de tweede camera is het Bayer-kleurfilter weggelaten, waardoor de sensor monochrome foto's produceert. Een sensor bevat alleen lichtgevoelige diodes en is feitelijk kleurenblind. Door een kleurfilter te gebruiken, 'zien' de pixels ineens kleur, waarbij ze worden onderverdeeld in 50 procent groene, 25 procent blauwe en 25 procent rode pixels.

Door zo'n kleurfilter verlies je resolutie, want er worden vier pixels gebruikt om één kleur te produceren. Dit wordt deels gecompenseerd door interpolatie, oftewel het kunstmatig vergroten van de resolutie, maar dit heeft altijd een verlies van detail tot gevolg, circa de helft van de resolutie ten opzichte van een monochrome sensor. Vergeleken met een op Bayer gebaseerde sensor zou dat resulteren in gedetailleerdere beelden. Het kan ook de details in schaduwpartijen en hooglichten ten goede komen. Bovendien is kleurruis afwezig, luminantieruis overigens niet.

De claim van Huawei is dat de beelden van de twee sensoren worden samengesmolten tot een enkele afbeelding, die dan het beste van twee werelden combineert: kleurenfoto's met meer detail, dynamisch bereik en een hogere lichtopbrengst.

Het werkt het?

Huawei doet nogal mysterieus over hoe dit precies tot stand komt, maar technisch kan het op twee manieren. Met de simpelste methode worden de beelden niet samengevoegd, maar slim geanalyseerd. Het monochrome beeld wordt dan als uitgangspunt gebruikt om verschillen te detecteren tussen de monochrome en de kleurenfoto, bijvoorbeeld wat scherpte, details in schaduwen en ruis betreft. Die informatie wordt vervolgens gebruikt om bepaalde delen van de kleurenfoto te optimaliseren. Dergelijke technieken worden nu ook al toegepast om bijvoorbeeld ruis te verminderen, met multi-shot noise reduction, en dat is bijvoorbeeld voor astrofotografie zeer nuttig. Voor reguliere foto's valt het nut te betwijfelen, al is dat ook afhankelijk van de implementatie.

Het samenvoegen van het beeld van twee camera's tot één foto

Een andere methode komt neer op het samenvoegen van beelden door middel van blending. Dit is vergelijkbaar met de manier waarop hdr-foto's gemaakt worden. Drie of meer foto's met verschillende belichtingen worden dan samengevoegd tot één foto, die meer dynamisch bereik bevat en daardoor meer details in schaduwen en hooglichten toont. Bij hdr zijn de drie beelden redelijk gelijkwaardig aan elkaar, maar bij een monochrome en een kleurenfoto is dat niet het geval; het resultaat moet immers kleur blijven, dus de zwart-wittoon mag eigenlijk niet zichtbaar zijn in de foto. Met slimme algoritmen is dit mogelijk, maar een te voorzichtige methode heeft slechts een matig of geen effect.

De praktijk valt tegen

In theorie klinkt het misschien overtuigend, want een sensor zonder kleurfilter kan daadwerkelijk meer scherpte vastleggen; de Leica M Monochrom is daar een goed voorbeeld van. Toch zien we er vooralsnog in de praktijk weinig van terug. Tijdens onze review van de Huawei P9 bleken de twee camera's geen significant voordeel op te leveren. Van extra scherpte bleek niet tot nauwelijks sprake en ook de geclaimde extra lichtopbrengst, minder ruis of meer dynamisch bereik door de dubbele constructie zagen we niet terug in de praktijk. Sterker nog, de zwart-witfoto's lijken meer ruis te bevatten, wat doet vermoeden dat de kleurenfoto's meer bewerkt worden.

De dubbele camera van de Huawei P9De dubbele camera van de Huawei P9De dubbele camera van de Huawei P9

De monochrome foto lijkt niet significant meer details te tonen dan de kleurenfoto

Corephotonics en Linx

Twee bedrijven hebben in het recente verleden hard geroepen dat de combinatie van twee camera's daadwerkelijk tot betere beeldkwaliteit leidt. Corephotonics en Linx, beide toevallig Israëlische bedrijven, hebben in diverse demo's en white papers indrukwekkende resultaten laten zien. Start-up Linx specialiseert zich in modulaire cameramodules, oplopend tot vier stuks, waarbij monochrome en kleurensensoren kunnen worden gecombineerd, maar waarmee ook dieptemeting en verbeterde scherpstelling mogelijk zijn. Dit bedrijf werd begin 2015 overgenomen door Apple.

Het concept van Linx voor meerdere camera'sHet concept van Linx voor meerdere camera'sHet concept van Linx voor meerdere camera'sHet concept van Linx voor meerdere camera'sHet concept van Linx voor meerdere camera's

Concurrent Corephotonics claimt hetzelfde te kunnen, al beperkt men zich vooralsnog nog tot het gebruik van twee camera's. Het bedrijf is gespecialiseerd in beeldoptimalisatie door middel van computational photography. Net als Linx claimt Corephotonics betere, gedetailleerdere foto's mogelijk te maken, dankzij de toevoeging van een monochrome sensor, waarbij de beelden 'gefuseerd' worden.

Verschillende brandpuntsafstanden

Eén van de meer simpele, maar wel interessante toepassingen van twee camera's is natuurlijk het gebruik van verschillende brandpuntsafstanden. Zoals eerder beschreven past LG dit al toe, maar dan alleen met groothoek. Apple doet hetzelfde met de net aangekondigde iPhone 7 Plus, maar dan met een 28mm f/1.8 groothoek en een 56mm f/2.8 telelens. Voor foto's en video's kun je dan dus kiezen uit deze twee standen en dus feitelijk inzoomen - gelijk aan 2x optische zoom.

De beeldkwaliteit daarvan zal vele malen beter zijn dan bij digitale zoom, doordat het beeld niet kunstmatig wordt vergroot, maar er daadwerkelijk sprake is van een kleinere beeldhoek en dus meer details. Oftewel, een dergelijke implementatie zal de beeldkwaliteit van smartphones nog een stapje verhogen. Daarbij is een camera met langer brandpunt bijvoorbeeld geschikter voor het nemen van portretten, omdat gezichten minder vervormd worden dan bij een groothoeklens.

Computational Photography

Er is ook nog een tussenvariant denkbaar, waarbij computational photography wordt ingezet om het verschil tussen de twee brandpuntsafstanden te overbruggen. Dit is eveneens een specialisatie van Corephotonics, dat in het recente verleden al twee modules aankondigde met een equivalent bereik van respectievelijk 3 en 5x optische zoom.

Corephotonics Fusion

De fusiemethode van Corephotonics

Het bedrijf stelt dat dit als volgt werkt. De gebruiker kiest eerst een bepaalde brandpuntsafstand door op de reguliere manier te zoomen op het scherm. Als op de ontspanknop gedrukt wordt, produceert de camera eerst twee losse beelden op de twee verschillende brandpuntsafstanden. Vervolgens worden deze via een eigen 'fusion engine' samengevoegd tot een enkel beeld, dat daarna op de reguliere manier via de image signal processor wordt verwerkt.

Over hoe het fuseren van de twee brandpuntsafstanden exact werkt, doet het bedrijf geen concrete uitspraken. Het moet in principe ten koste gaan van de scherpte en het detail, maar Corephotonics stelt dat de effectieve resolutie gelijk of zelfs beter is dan het resultaat via mechanische optische zoom. Daar stellen we wat vraagtekens bij, want als je bijvoorbeeld een beeldhoek van 35mm wil laten zien op basis van een groothoek- en telelens, dan zou zou het beeld in het midden zeer gedetailleerd zijn door de details van de telefoto, maar daarbuiten beduidend minder scherp. Daarvoor wordt immers interpolatie van het groothoekbeeld gebruikt.

iPhone 7 Plus camera's

Dubbele camera in de iPhone 7 Plus

De iPhone 7 Plus is de eerste smartphone met zowel een groothoek- als een telelens en had het zoomprincipe dat CorePhotonics voorstelt dus kunnen toepassen. Apple heeft immers concurrent Linx overgenomen, dat eveneens gespecialiseerd is in computational photography. Toch lijkt Apple het niet te hebben aangedurfd om dit toe te passen, al dan niet doordat interne tests niet aan de eventuele verwachtingen voldeden. Hoewel Apple claimt dat de prestaties van digitale zoom nu vier keer zo goed zijn als voorheen, waardoor je nu tot 10x digitaal kunt inzoomen, is het onduidelijk in hoeverre daar vergelijkbare technologie voor is gebruikt. Apple gebruikt overigens wel computational photography om een kunstmatig scherptediepte-effect met bokéh te creëren, want dankzij de dubbele camera is dieptemeting mogelijk. Dit is iets dat we eerder gezien hebben in Android-smartphones.

Tot slot

Smartphones met dubbele camera's lijken nu echt aan een opmars bezig te zijn. Na HTC, LG, Huawei, Honor en nu Apple is het wachten op de modellen van andere fabrikanten, zoals Samsung en Sony. Kenichiro Toshida, de cfo van Sony, sprak onlangs de verwachting uit dat smartphones met twee camera's een grote opmars maken in 2017. Als de meerwaarde blijkt en de consument bereid is om hiervoor extra in de buidel te tasten, is wat we nu zien nog maar het begin. Want een smartphone met meer dan twee camera's is niet ondenkbaar, zeker niet als de verschillende implementaties, diepte, brandpuntsafstanden, beeldoptimalisatie en slimme zoom, worden gecombineerd.


Door Jeroen Horlings

- Reviewer

Jeroen werkt sinds 2014 bij Tweakers en is van veel markten thuis, maar verdiept zich voor Tweakers vooral in camera's. Op dat gebied is hij geen onbekende; hij test al meer dan tien jaar camera’s en heeft zijn kennis over het onderwerp in meer dan 20 boeken weten te vervatten. Voor Tweakers test hij de nieuwste fotocamera's zowel in het testlab als daarbuiten en publiceert daarover in woord en beeld.

Volg Jeroen op Twitter
Moderatie-faq Wijzig weergave

Reacties (96)

Er is alleen één front waarop hij nog tekortschiet: optische zoom. Er zijn enkele smartphones die optisch kunnen zoomen, zoals de Samsung Galaxy K zoom, en modellen met een opklikcamera, zoals de Moto Z Play,

Zenphone zoom van Asus mis ik, dat is namelijke een telefoon met een camera die optisch kan zoomen, maar fysiek niet gaat uitsteken.

Maar dat is nu nog maar 3x, hopelijk wordt dat in de toekomst verder verbeterd :D
De ZenFone 3 past inderdaad ook in het rijtje (dat bewust beknopt is gehouden).

De reden dat de lens bij deze smartphone niet uitsteekt is omdat men een intern zoomsysteem gebruikt. Voor optische zoom blijf je namelijk fysieke ruimte nodig hebben om de onderlinge afstand tussen lenselementen te vergroten, of dat nu aan de buiten of binnenkant is. Omdat dit binnenin gebeurt zie je het niet, maar het is alsnog best een omvangrijk systeem dat in relatieve zin best wat ruimte in beslag neemt. Het zal dus een uitdaging zijn om het zoombereik verder te vergroten, want dat vereist nog grotere smartphones en eventuele compromissen (zoals b.v. een kleinere accu).

Het concept van interne zoom is overigens niet nieuw; bij zogenaamde 'outdoor' compactcamera's (die water- en valbestendig zijn) wordt dit al langer toegepast. reviews: Vier robuuste outdoorcamera's getest
Het concept gaat toch al een stuk verder terug. Ik had in 2007 al de Casio Ex-V7. Die had 7x optische zoom met een interne lens array. Die was alleen niet schok bestendig. Een keer een kleine tik gehad en toen waren de lensen "out of alignment". Laten repareren en toen is hij toch nog een paar jaar goed meegegaan, ook op enkele wintersport vakanties ;-)
Ik vind het concept nog steeds het meest lijken op de Kodak v610. https://www.google.nl/sea...s&imgrc=A4IkVfYYeaKpbM%3A

Die heeft dus 10x optische zoom. Dit wordt bewerkstelligd door 2 lenzen die als ware ieder 5x zoomen. Ook het zoomen gebeurde intern en stak er dus niks uit.
Herinner je je de Minolta Dimage X nog? Dat was in 2002, ook al met interne optische zoom.

Op dit gebied is nog veel ontwikkeling mogelijk en zal ongetwijfeld nog een hoop veranderen, maar een camera in een telefoon blijft natuurlijk altijd een compromis van de beschikbare ruimte, het gewicht en de accuduur. Hoeveel we terug gaan zien in mainstream telefoons blijft de vraag.
Maar wat nou als je 2 camera's met interne zoom gaat combineren (en ze beiden een andere lens hebben). Dan moet toch een exponentiële zoom waarde mogelijk worden (ipv tot 2x zoom nu op de iPhone 7s).

Of is dat te simpel beredeneerd.
Ik had ooit een compactcamera van Ricoh. Die had een zoomlens die uitschoof. Om het zoombereik te vergroten was er een mini teleconverter, die vanaf een bepaalde zoomstand voor de sensor werd geplaatst.
Overigens hebben zoomlenzen altijd compromissen wat betreft beeldscherpte. Twee sensor chips zijn dus zo slecht niet.
Inderdaad zijn er al verschillende modellen met optische zoom en met dubbele lens. Had dit artikel niet beter op zijn plaats geweest toen dat nieuw was? Nu lijkt het toch weer allemaal om Apple te draaien, alhoewel het artikel eerlijk toegeeft dat het niks nieuws is.
optische zoom en met dubbele lens [..] niks nieuws
Precies, 10 jaar geleden zagen we dat al terug bij de opkomst van digitale camera's, zoals de Kodak V570, die gewoon bij de mediamarkt in de schappen lag.
Dat gebeurt juist heel vaak: Artikelen gaan dan over een obscuur, onbetaalbaar of niet verkrijgbaar product, demonstratiemodel, prototype, patent of white paper, maar de daadwerkelijke implentatie blijft uiterst vaag – en daarmee het artikel. (Dat is nu zelfs eigenlijk nog met hoe deze dubbele camera precies werkt.) Meestal hoor je er daarna nooit meer wat van. Bright (magazine) had daar met name een handje van. Ik vind het juist logischer om te wachten tot de techniek (echt) duidelijk is. Nu staat er alleen 'Over hoe het fuseren van de twee brandpuntsafstanden exact werkt, doet het bedrijf geen concrete uitspraken' en verder alleen speculatie binnen wat er technisch bekend en mogelijk is. Ik lees liever iets over toegepaste techniek dan wéér iets over wat ik misschien nooit in handen kan hebben.

[Reactie gewijzigd door breakers op 9 september 2016 10:30]

Puur alleen al het bokéh effect met portret fotografie. Oh dan moet je ff die stand pakken en dan gewoon een foto maken. Euhm. Okee? Normaal gesproken kost het best wel wat moeite om dat netjes te doen als je geen verstand hebt van camera's.

En zoals het artikel dus ook al aangeeft ontbrak het bij anderen juist aan de software implementatie.
Laten we gewoon een de reviews afwachten ipv nu al te stellen dat in dit geval Apple iets gefixt heeft dat bij anderen een probleem is.
Scherptediepte bedoel je... gewoon je diafragma zo groot mogelijk zetten (het F-getal zo klein mogelijk maken). Da's alles ;)

Dat is het verschil tussen foto's maken en kiekjes schieten, jongens en meisjes..
Scherptediepte bedoel je... gewoon je diafragma zo groot mogelijk zetten (het F-getal zo klein mogelijk maken). Da's alles ;)

Dat is het verschil tussen foto's maken en kiekjes schieten, jongens en meisjes..
Zo gaat dat met een spiegelreflex of systeemcamera met grote sensor. Maar niet met een telefoonformaat sensor. Daarmee heb je veel meer scherptediepte, dus minder bokeh. Dat Apple dit effect met twee sensoren en slimme software kan bereiken zonder dat het er nep uitziet is knap.
Ja precies. Met een telefoon maak je kiekjes, met een camera fotografeer je. En ik ben inderdaad benieuwd naar het resultaat van de iPhone 7+ maar toch haalt het t niet bij een DSLR met statief, goeie flitser, grote sensor en een flink stuk glaswerk..
Je bedoelt dat een amateur eeb berg glaswerk nodig heeft, maar een fotgraaf kan ook met een telefoon verdomd goede foto's maken.

Maar de amateur moet zijn investering van 7500+¤ goedpraten door vooral de rest van de wereld proberen te overtuigen.

De echte fotograaf weet dat compositie het altijd wint.
Dat is zo, compositie is alles. Maar technisch kun je nou eenmaal niet alles met een telefoon. Sterrencircels maken bijvoorbeeld. Scherptediepte kan als je 2 lenzen hebt maar dat zijn hele specifieke telefooncamera's en bovendien, met een kleine sensor heb je enorm veel ruis. Nabewerking is onontbeerlijk.

M'n vader is 25 jaar lang docent Fotografie geweest, ik denk dat ik wel iets opgestoken heb hoor ;) zelfs het 'stippen' van foto's deed hij aan de lopende band. En we hadden een eigen volledig ingerichte doka op zolder..
De telefoonboeren (zelfs incl. Apple) kunnen tegenwoordig niks echt spectaculairs meer verzinnen. Dit is puur gerommel in de marges om iets van 'innovatie' te verzinnen om zo weer nieuwe telefoons te verkopen. Maar zeg nou zelf... dubbele camera dat is toch geen selling point om een koper over de streep te trekken. Een iphone 5 voor 150 euri op mp of nexus 5 voor 100 euri op marktplaats voldoen nog prima.
Ik denk dat het net wel de sellingpoint is om een 7+ ipv een 7 te kopen. Niet om voor Apple te kiezen, zeker niet omdat de overweging voor OS veel belangrijker is. Er is nu eenmaal geen "HTC met iOS" en dat betekent dat Apple geen toestelconcurrentie heeft.
Dat is inderdaad ook mijn punt. Ik vind het best interessant gerommel in de marge, maar doe dan niet nu Apple ermee komt alsof het nu ineens interessant is geworden.
Precies. Alleen hoe doe je dat op een standaard point en shoot camera? Hoe doe je dat op je midrange dslr? Dat s dus precies wat ik bedoel. Het hoeft allemaal jiet moeilijk en dat is precies wat Apple hier laat zien. En ja je kan het niet zelf bijstellen qua hoeveel "blur" je wil hebben, maar dat is dan weer omdat je telefoon het allemaal zelf doet.
Mwah. Je diafragma kun je op zo'n beetje elke camera wel instellen als je 'm van de "A" (automatische stand) afhaalt hoor ;)

M'n Nikon 1 J-serie kan dat al, en da's nog echt geen midrange SLR. Even uit m'n hoofd is het de "P" stand als je een camera hebt die een "PASM" wieltje heeft. Of de "M" van manual, daar kan 't uiteraard ook maar moet je ook met de belichtingstijd rekening houden. Bij "P" doet ie dat nog zelf voor je.

Moet zeggen dat Apple dat erg fraai oplost inderdaad. Zoals het Apple betaamt. Het wérkt gewoon. Je kiest straks "Portrait" in je iPhone 7Plus en voila. Zelfs in real time gerendered, dat vind ik dan wel erg tof.
Het feit dat je gewoon nul kennis hoeft te hebben van camera's in het algemeen is voor mij persoonlijk wel een pluspunt. LG, Samsung en nog een aantal fabrikanten zijn erg goed in het leveren van 100.000 opties in de camera app waar Apple alleen het hoognodige heeft staan en de rest allemaal voor je regelt. In sommige gevallen zijn die opties erg handig, maar als je gewoon even een kiekje wil maken dan is het alleen maar irritant als je settings nog niet goed staan.
Precies, dát is dus het verschil tussen kiekjes maken en fotograferen zoals ik al zei :)

Apple doet dat heel erg goed. En daar is absoluut niks mis mee. Maar een hoop 'standaard'camera's kunnen óók gewoon met scherptediepte spelen.
Mwah. Je diafragma kun je op zo'n beetje elke camera wel instellen als je 'm van de "A" (automatische stand) afhaalt hoor ;)

Als je hem van de P stand haalt bedoel je? ;)
P programm/ auto
A stand for "Aperture"/dia fragma
S stands for shutter/sluitertijd
M stands for manual / hand.
Klinkt logischer inderdaad.. begon me al af te vragen waarom het "P" zou heten. Moet inderdaad "A" zijn.
De "A" is van aperture op mijn Panasonic camera... Daarmee stel je het diafragma in. ;)
Jaja, Aperture Science, ik weet 't ;) my bad..
De P(rogram) stand is de automatische stand. A(perture) wil je in dit geval juist gebruiken om het diafragma zelf in te stellen.

Maar dit is geen hogere wiskunde, wanneer je zo ver niet eens hebt gelezen over fotografie zou ik me over de compositie nog niet zo druk maken. Gewoon lekker klikken met je telefoon en dat kan met elk model tegenwoordig.
Even een idee: Zou het mogelijk zijn om met 2 groothoeklenzen op een smartphone, 1 aan de voorkant en 1 aan de achterkant, een (bijna) 360 video op te nemen?

Die huidige 360 camera's doen niet veel anders toch?
In theorie heb je gelijk. Maar dat zou dan denk ik wel uit de koker van een smartphone fabrikant zelf moeten komen.

Ik zie namelijk wel een paar praktische obstakels:
- Je moet beide camera's tegelijk kunnen laten draaien om op hetzelfde moment video meteriaal op te nemen. Huidige API's laten dat niet toe.
- de RAW-output van vergelijkbare techniek is dat je een rechthoekig zwart beeld hebt in verhouding 2:1 waarbinnen je twee cirkels ziet met de opgenomen content. Ik zie smartphone ontwikkelaars dat nog niet zomaar implementeren.
- Je moet extern 2 lesjes aanbrengen om de 'echte' groothoek te krijgen, namelijk dat elke lensje het beeld van boven tot beneden en links-rechts vastlegt.
- Beide lensjes moeten hyper-perfect geplaatst zijn omdat je de twee beelden daarna nog aan elkaar moet stitchen voor één sferisch beeld. Als je één van de lensje ook maar een klein tikkie anders hebt zitten dan zie je de beeldhouwen in de overgang van de ene naar de andere lens.
- vaak is de beeldhoek en kwaliteit van voor- en achtercamera anders, dat vergt dus zeer specifiek geslepen externe lensjes om die verschillen op te heffen.

Dus ja het is zeker wel te doen.

Als een fabrikant hier echt even voor gaat zitten en bijvoorbeeld een slide-over accessoire meelevert zodat de twee lensjes perfect de camera aan beide kanten van een bol-vorming lensje voorziet. :)
- Je moet beide camera's tegelijk kunnen laten draaien om op hetzelfde moment video meteriaal op te nemen. Huidige API's laten dat niet toe.
Ik heb toch al jaren een modus in mn camera app om de front en back camera te combineren dus lijkt me sterk dat het niet mogelijk is.

Zo kan je een foto's en video's maken van iets waar je zelf dus ook op staat :)

https://www.google.com/search?q=samsung+s4+camera+dual
Klinkt wel leuk, denk dat dat wel te doen moet zijn.
Dat is nu nog een flinke uitdaging, maar ik sluit niet uit dat dit ooit gaat gebeuren. Het probleem is dat zelfs de kleinste 180 graden lens van dit moment nog steeds vrij groot is (als je bedenkt dat hij aan twee kanten in een smartphone moet passen). Daar komt nog bij dat je meer dan 180 graden nodig hebt om goed te kunnen stitchen en om de dikte van de smartphone zelf te overbruggen. Zo'n lens is meestal vrij bol en zal dus uit moeten steken. Een beetje is niet erg, maar de huidige ontwerpen zijn nog wat te groot. Maar wie weet... ;-)
Dan zou je het eerder op de zijkant verwachten (dan hoeft de bolling niet uit te steken) dan aan de voor/achter kant, echter kan je dan weer geen goede 'normale' foto's maken.
Kijk... We hebben het nu over een oplossing om gebruik te kunnen maken van de camera's van de telefoon zelf, maar zoals we herkennen; het heeft nogal wat uitdagingen.

Er zijn al wel third-party accessoires die je meteen de functionaliteit bieden die je wilt. Insta360 heeft standalone camera's maar ook bijvoorbeeld de Insta360 Nano

Deze stop je gewoon in je lightning poort en heeft die twee lensjes en de hele rata-plan ingebouwd in dit ene hulpstuk.

Ik heb er onlangs wel eens naar gekeken en rond de ¤250 ongeveer. Voor deze prijs een prima resolutie van 3000x1500 pixels.
Telefoons zijn best dun maar ook met lenzen die (een paar mm) uitsteken ontbreekt er altijd een plakje. Dat krijg je niet in beeld omdat je telefoon er altijd voor zit. Aangezien lenzen altijd aan de rand zitten zal het aan een of twee zijden misschien lukken dit buiten beeld te houden maar aan de zijden waar de telefoon meer in de weg zit niet. Daar helpt geen stitchen aan. Aangezien de lensjes als het goed is precies op elkaars as staan maar omgekeerd, valt er ook niets te stitchen. Stitchen is alleen nodig / nuttig als foto's niet exact aansluiten.
Waar ik altijd benieuwd naar ben is hoe de kwaliteit in de (laten we het) N=1 situatie noemen. Er wordt zoveel softwarematig gedaan dat het af en toe mis moet gaan. Ik zie dat bijvoorbeeld al bij HDR foto's. Vaak kies ik voor de normale foto omdat er in de HDR-foto beweging te zien is of zware vervorming van een hoofd.
Apple blaast hoog van de toren met 100 miljoen berekeningen in de fotos en dus wordt er veel softwarematig bijgepoetst. Dat is leuk voor de redelijk stilstaande foto's die Apple laat zien, maar hoe is het in de praktijk als je een hike maakt of aan het strand mooie fotos wilt maken?
Een raw-foto is nooit mooi. Er is altijd bewerkt. En tel de berekeningen maar mee. Voor elke pixel moet je:
  • de-mosaic doen
  • helderste plekken in het beeld vinden
  • donkerste plekken in het beeld vinden
  • (een geblurde versie maken van het beeld (misschien wel 100 add/muls per pixel))
  • (de geblurde versie gebruiken om lokaal contrast te verhogen in het beeld)
  • verrekenen met 4 of 8 of 16 omliggende pixels voor de-noise
  • verrekenen met 4 of 8 of 16 omliggende pixels voor lokale sharpening
  • tooncurve maken en toepassen
De stappen tussen haakjes zijn optioneel voor normale raw-verwerking, maar er zijn 6 stappen waarvan elke stap toch wel 4 tot 34 bewerkingen kost. Dus 58 stappen per pixel keer 12 miljoen pixels. En dan ben je nog niet begonnen aan de JPEG compressie.
Maar ik dacht dap de presentatie het had over 100 miljard bewerkingen per pixel. Dat zou wel erg veel zijn. Maar de presentatie zat dan ook vol hyperbool als 'the best camera ever - in an iPhone'.
Ik zit niet zo in de foto termen en ik begrijp dat er al veel softwarematig gedaan wordt. Maar als ik mijn diafragma op mijn dSLR openzet heb ik optische scherpte-diepte. Apple gaat die softwarematig, achteraf toevoegen. Daar moet toch af en toe was misgaan in die berekeningen?
Ja dan krijg je ineens mislukte foto's.
Op mijn Samsung worden er twee foto's opgeslagen in 1 bestand. In de viewer kan je kiezen tussen voorgrond scherp of achtergrond scherp. En dat gaat ook wel eens mis. Gelukkig heb je dan de 'normale' foto's nog.
De Samsung gebruikt hiervoor 1 camera, ik denk door afwisselend op voor- en achtergrond scherm te stellen en de verschillen te zoeken.
De Google camera-app kan ook zo iets: je maakt een fot en beweegt de telefoon daarna omhoog. Door het veranderende perfectief kan de telefoon berekenen wat achtergrond is en wat geblurred moet worden.

Deze berekening kan nooit 'juist' zijn. In het Apple voorbeeld zag je dit met de highlights (lampjes) op de achtergrond. De felle puntjes van de lampjes overbelichten de sensor namelijk. Een elns had het licht eerst uitgesmeerd en daarna gefotografeerd, waardoor de sensor niet vastloopt.

Ook het goed omgaan met grassprieten is lastig. De sprietjes scherm, maar de achtergrond wel vaag. Inclusief stukken achtergrond die niet zichtbaar zijn op de foto ;)
dat kan.. maar het is toch ook vast wel uit te zetten lijkt me. Ik heb geen filmpje of demo of wat dan ook bekeken (zit blijkbaar onder een steen... or I don't care, 1 van de twee :)) maar het lijkt mij dat het een aparte 'foto mode' is en dat ie het niet botweg altijd gaat doen.
Ja het is een losse "portrait" modus.
De meeste bewerkingen zijn keihard nodig. Al die software (en hardware) trucs maskeren de beroerde optische prestaties van de sensor en lens. Hieronder noemt al iemand een lijstje bewerkingen, en het zijn er waarschijnlijk nog veel meer. Vergeet overigens de witbalans ook niet.

Zonder al deze zaken zou zowat iedere smartphone foto barsten van het ruis, slecht contrast hebben, een totaal verkeerde kleurstelling hebben, etc.
De berekeningen en correctie gaan vaak wel goed. Ik heb het meer over de exotische bewerkingen, zoals HDR en die softwarematige scherpte-diepte.
HDR kan inderdaad misgaan, je moet immers je telefoon stilhouden omdat er meerdere exposures gemaakt worden met dezelfde lens en sensor.

De scherptediepte truc, dat wordt even afwachten. De voorbeelden waren erg simpel met een persoon dichtbij en een relatief simpele achtergrond veraf. In een complexere situatie verwacht ik dat het misgaat. Ze noemen het niet voor niets "portrait mode" ,waarschijnlijk werkt het alleen goed op die manier.
Precies. Dat was mijn originele punt.
De berekeningen en correctie gaan vaak wel goed. Ik heb het meer over de exotische bewerkingen, zoals HDR en die softwarematige scherpte-diepte.
Softwarematige scherptediepte met 1 lens wordt lastig, dat is een truc die makkelijk verkeerd kan gaan. Maar met 2 sensoren heb je afstandsinformatie, waardoor het slagingspercentage enorm omhoog gaat.
De DoF blur bij de iPhone 7 plus werkt alleen met potret foto's in de potretstand en gezichten. Zo is het ook duidelijk gepresenteerd. Verwacht geen sportfoto's met mooie wazige, bokeh achtergrond.

Zoals Apple aangegeven heeft is dit de beste iPhone camera ooit, maar kun je je DSLR nog niet thuislaten.
Informatief artikel, dank!

Op die plaatjes van linx zie je meerdere kleine cams in één module, die normale grootte lijkt te zijn? Waarom passen ze dat niet toe ipv die dual-cams? Nog teveel kwaliteitsverlies nu...?
Wat Idunno_whynot zegt en dat lichtsterkte van de lensjes ook naar beneden moet. Immers de fysieke grootte van het diafragma is brandpuntsafstand / f-getal. Dan krijg je diameter van de opening van het diafragma, als de lens dus kleiner wordt, gaat het f-getal dus omhoog en moet je dat compenseren met langere sluitertijd en/of hogere iso, wat respectievelijk voor bewogen foto's en/of meer ruis op de foto's zorgt.
Als de module niet mag groeien, dan heb je dus niet mee sensor oppervlakte ter beschikking, dus je vangt niet meer fotonen, waardoor je netto weinig winst haalt in signaal/ruis verhouding.
De lens vangt het licht en projecteert dat op de sensor oppervlak.

Dus een grotere lensdoorsnee kan meer licht opvangen en dat op het zelfde sensoroppervlak projecteren.
Dus hoe groter het diafragma, hoe meer licht je vangt bij sensor van hetzelfde formaat.
Leuke onderwerp. Het is een goede voortuigang in technische aspecten maar het moet ook niet zijn dat we straks nog duurder uit zijn voor smartphone.

Ik maar denken dat ik het beste smartphone camera heb met de Galaxy S6 Edge Plus en dat is ook wel waar door Hardware.info als beste smartphone camera getest f/1.9 voor de camera.

Ben benieuwd wat iPhone 7 met f/1.8 gaat lerveren ten opzichte van High End Smartphones o.a. Samsung

Het klopt dat tegenwoordig alles met smartphone wordt gedaan. Ik neem zelf bijvoorbeeld nooit meer mijn losse digitale Samsung camcorder mee op vakantie alleen mijn smartphone.

Ik ben heel benieuwd hoe dit gaat aflopen in 2017 en of we naar meer lezen toe zullen gaan met bijvoorbeeld 4 lenzen

[Reactie gewijzigd door van der Berg op 8 september 2016 11:29]

Alles met de smartphone wordt gedaan...kon dat maar.

Als je (om maar eens iets te noemen) snel bewegende kinderen hebt, ben je blij met een goede camera in plaats van een smartphone met piepkleine sensor. Zeker in low light stelt een smartphone maar bitter weinig voor met lange sluitertijden en veel ruis. Het is maar hoe je je dierbare momenten vast wil leggen.
Ik vind de kwaliteit van de foto's van smartphone erg mooi vooral met mijn smartphone. Daarbij gebruik ik HDR on en automatisch filters en op de auto-stand op 16M 16:9. Na het nemen van de foto doe ik nog eens "automatisch correction" en dat zorg voor een nog betere plaatje.

Ik doe echt alles met mijn smartphone filmen - foto's maken - internetten - navigatie auto - muziek luisteren - speelfims en documentaires bekijken en bankieren en zelfs apps nog veel meer. Ben heel blij omdat je niet 2 of meer losse toestellen hoef te dragen. Vroeger had ik altijd een mobiel telefoon en een MP3 speler los en een losse camera bij me.
Want OH wat maken hedendaagse smartphones slechte foto's zeg... Je hebt die draken van foto's niet gezien die mijn grootouders (alle respect richting hen) gemaakt hebben met de camera's waarvan de rolletjes steeds op waren... ;)

Nee het is echt zo slecht nog niet, alleen moet je niet een telefoon met een brakke, haperende app kopen... iPhones hebben een heel snelle camera-app, dus mis je weinig shots. Ik heb echter een Android telefoon die soms weleens te lang wil denken. Mijn Lumia is ook retesnel wat dat betreft. Het hangt gewoon erg van het apparaat af, maar de foto's zijn beter dan de fotodrol camera's van vroeger! :+
De s7 heeft een f1.7 brandpunt :)
Ik denk dat de grootte van de pixels van de Iphone sensor de winnaar gaat beslissen :)
Waarschijnlijk gaat er ook een hoop kwaliteit verloren maar zou je niet een soort mechanisme kunnen maken (revolver-achtig) waarbij er gezoomd kan worden door er een ander voorzetlensje voor te zetten?

Ik begrijp dat het niet optimaal is (langzaam, niet traploos, kwaliteitsverlies). Maar je hebt geen hoogte nodig, alleen oppervlakte.
een voorzet lensje wat meer zoom geeft (dus een kleine telelens of teleconverter) zal altijd een beetje ruimte nodig hebben. Een beetje diepte nodig hebben zeg maar.

Wat jij zegt dat hij er voor kan schuiven betekent dat je normale lens ook nog in de telefoon moet zitten. Dus het standaard (Groothoek) lensje moet verder 'in' de camera om ruimte te maken voor de diepte van de teleconverter.

Ik zie het zo gebeuren dat het groothoek lensje dan niet goed 'om zich heen' kan kijken maar stukken van de behuizing gaat zien.

Snapje? Een groothoek lens zal altijd zo veel mogelijk 'flush' op de telefoonbody moeten zitten om de hoek te kunnen zien zonder dat iets zijn zicht belemmerd. Een tele-voorzet-lensje zal altijd (iets) dikker zijn.

Dus simpelweg 'ervoor schuiven' geïntegreerd in de body zal lastig worden (maar er zijn altijd creative oplossingen).

Het 'revolver' idee wat jij zegt bedoel je zeker de kamer waar de 6 kogels in zitten? Jij wil een soort 'rad' van lensjes _in_ de telefoonbody die zo 'voor' de sensor kunnen draaien :). Op zich niet verkeerd maar het zal wat kostbare ruimte in de body innemen. En qua lens 'design' (ahem) zal het z'n uitdagingen kennen, want elk lensje wat je dan ervoor kan draaien moet in de body passen _en_ dezelfde afstand tot de sensor hebben. Oftewel, elk lensje zal even diep moeten zijn. Dus er moeten lensjes komen van brandpuntafstand 4mm, 6mm, 8mm, 10mm die daadwerkelijk allemaal hetzelfde fysieke formaat hebben. Niet onmogelijk, maar ook niet heel simpel of gewenst (als ik naar DSLR lenzen kijk).
Dank je voor je reactie. Jammer dat ik je niet kan plussen.

Ik wist wel dat het een stuk moeilijker zou zijn dan ik dacht.
Het revolver-idee heb je juist geïnterpreteerd. Van die groothoek had ik zelf ook wel kunnen bedenken |:( . Maar ik zat eigenlijk alleen aan zoom te denken.

Je zou het nog half kunnen intergreren, zoals veel camera's nu ook 1 mm uitsteken, maar dan kun je beter voor volledig motorische zoom gaan denk ik.


idee ---> prullenbak :+
Ja, dat kan en dat bestaat ook al een tijdje. Er zijn allerlei voorzetlensjes beschikbaar (macro, fisheye, tele). Maar dat is inderdaad ook niet ideaal. Je moet ze apart meenemen en niet vergeten om ze op je smartphone te monteren wanneer dat nodig is. Er op laten zitten is niet handig, want dat zit niet fijn in je broekzak. Al met al is het leuk, maar niet erg praktisch.

Maar het grootste nadeel is nog wel het kwaliteitsverlies. Je zet glas op glas en verliest dus scherpte, licht en contrast. Een aparte lens, zoals die van de iPhone 7 Plus en LG G5/V20, is alleen al daarom veel beter. Maar dus ook praktischer.
Ja, maar ik bedoel dus niet los, maar geïntegreerd ín de telefoon.
Ah. :-) Ja, ook dat is een theoretische optie. Praktischer ook, al blijven de kwalitatieve bezwaren bestaan. Maar het zou mogelijk zijn om intern een extra lenselement mechanisch ervoor te schuiven. Het probleem blijft alleen dat dit ruimte kost, ook tussen de lenselementen zelf (die tele-opzetstukjes zijn ook vrij fors). Dat betekent dus een lens die verder uitsteekt of iets intern in de smartphone dat ervoor moet wijken.
Dan lijkt het mij al makkelijker om gewoon direct naar optische zoom te gaan ;)
Ik herinner mij dit artikel nog van enkele eeuwen geleden: nieuws: Philips ontwikkelt vloeibare lenzen voor digitale camera's
Ik neem aan dat dat niks is geworden?
Grappig dat de reacties wel heel erg positief waren :D
Wat ik nou niet snap is waarom dit soort technieken niet worden ingezet voor Virtual Reality video's. Beeldkwaliteit verbeteren is leuk, maar degene die echt optische zoom willen schakelen toch nog wel naar een compactcamera, deze zijn tegenwoordig ook niet meer zo groot/duur.

De combinatie van een dubbele lens op de smartphone in combinatie met een fish-eye lens volstaat om stereoscopische 180 graden virtual reality video op te nemen. Een smartphone is precies breed genoeg om te compenseren voor de afstand tussen je ogen, dus 1 camera tegen de bovenkant, 1 camera tegen de onderkant en je hebt een prima VR camera. Nadeel is wel dat gewone foto's ook in fish eye zijn, maar dat zou je kunnen oplossen door een klein schuifje te maken voor de lens waarbij je kunt wisselen tussen fish-eye en een normale lens. Dat lijkt mij nou een leuke onderscheidende feature, en wellicht is het ondanks de afstand van 6-7 cm tussen de lens ook nog mogelijk om ze samen te laten werken voor betere beeldkwaliteit bij normale foto's. Dan heb je het beste dan 2 werelden.
Ik vond de implementatie van de depth-of-field er wel zeer overtuigend uitzien in de voorbeelden die tijdens de Keynote werden getoond.

Ik verwacht wel dat in real life, één op de zoveel portretten een keer een verwerkingsfoutje laat zien of er kunstmatig uit komt te zien. Zeker als het geportretteerde hoofd niet helemaal los staat van de achtergrond. Dan kan het namelijk zijn dat elementen in de foto geblurd eruit komen, terwijl het scherp had moeten zijn.
Ik neem an dat Apple gewoon een filter gaat toepassen op de achtergrond. Zo lang je als gebruiker de mogelijkheid hebt om die terug ongedaan te maken zie ik alsnog geen proleem.
Als ik het goed begreep gebruiken ze de wide angle lens voor de achtergrond en houden ze die bewust onscherp, of blurren ze de totale output van die lens.

De 'tele' lens is dan gewoon voor het scherpe portret en dan blenden ze beide beelden samen tot één beeld.

It would make sense to me, want met een filtertje lijkt het mij veel lastiger om mooi en gelijkmatig rondom het contour van een hoofd te blurren.
Je en ze gebruiken die diepte meting techniek (waarschijnlijk) van Linx. Ik ben benieuwd naar de resultaten, maar we zullen het weten in een week.
Gaat denk ik nog iets langer duren dan een weekje. Het was tenslotte een sneak peak tijdens de presentatie. I gok dat het in iOS 10.1 terecht komt.
Ik vond die implementatie juist niet overtuigend. Toen hij de foto toonde als zijnde van een DSLR, vond ik er al iets niet aan kloppen. Het lijkt echt wel zoals je zelf zegt: achtergrond geblurred en voorgrond scherp, maar zo werkt DOF niet. Bij DOF is alles buiten de focus-afstand in principe al onscherp. Hoe verder iets van de focusafstand is, hoe onscherper.
Die relatie tussen afstand en onscherpte was er m.i. totaal niet op die foto. Ik ga er echter van uit dat ze dat nog wel kunnen fixen aangezien die feature blijkbaar sowieso nog niet klaar was voor release samen met de 7 Plus.
Lange tijd al niks meer gehoord mbt Liquid optical zoom lenzen, Samsung heeft hier in 2010 een patent voor aangevraagd en meerdere bedrijven waren hier mee bezig (ik denk dan dat de techniek ook niet de gewenste resultaten gaf (en/)of er technisch nog te veel obstakels zijn).
En dan nu ook graag de 3D camera terug (LG Optimus 3D, HTC), als we dan toch meerdere sensoren plaatsen. De 3D liefhebbers mogen toch ook hun smartphone hebben hoop ik?

Op dit moment ook erg blij met m'n LG G5, de groothoek camera geeft echt gave mogelijkheden. Paar weken geleden nog met zoontje in de Kuip, dan kan je echt mooie foto's maken vanaf de tribune met bv. het hele dak zichtbaar.

Kortom, 4 lenzen zie ik wel zitten.
Wat ik toch zelf heel graag eens zie is dat de sensors vierkant zijn (als ze dat niet al zijn) en op elke manier een landscape of portrait foto/video kunt maken. Dus ook als je hem rechtop houdt dat je gewoon een panorama kunt schieten.
Maar nog belangrijker, dat je het VVS (Verticaal Video Syndroom) elimineert. Standaard moet elke telefoon dan ingesteld staan op horizontaal, ongeacht de orientatie van de telefoon. Mensen filmen nou eenmaal snel verticale video omdat je de telefoon zo makkelijker vasthoudt (zonder op te vallen ook nog, als je snel iets wil vastleggen). Ik snap echt niet waarom dat nog niet is gebeurd.
Uiteraard met opties om dat uit te schakelen of te schakelen naar een andere orientatie. Zónder dat de ene richting meer pixels heeft dan de ander.
:) ik herken helemaal de VVS - verticale video syndroom... (Bij anderen!!)

Maar! Onlangs hoorde ik van een MOJO-conferentie (MOJO=MObile JOurnalism) dat daar mogelijk een kentering in zit aan te komen.

Persoonlijk 'gruwel' ik van het idee, maar to some extent it makes sense: Facebook content bijvoorbeeld wordt heel vaak op smartphone bekeken. En vaak rechtop. Er zijn dus al video's die 'rechtop' worden ge-edit en dus ook rechtop worden afgespeeld. In die gevallen moet je de opname dus toch echt gewoon 'rechtop' doen en niet je toestel kantelen.

Anyway... het is nog lang niet mainstream. Dus inderdaad voorlopig lekker in landscape blijven filmen!! :)

Small edit.. Dat ik vvs bij 'anderen' herken :)

[Reactie gewijzigd door Ikkehans op 9 september 2016 00:33]

Niet alleen in facebook, maar ook bijv. Dumpert. Als je het verticaal op je telefoon bekijkt krijg je ook volledig scherm als je een verticaal gefilmde video afspeelt. (kan me vergissen in waar het toegepast wordt). Maar op een pc is het niet fijn om naar te kijken. Vaak is het gezichtsveld ook maar beperkt en van lagere resolutie.

Toch wel fijn als daar gewoon zoiets simpels als wat ik omschrijf voor gedaan wordt. Dan is de cameralens maar iets duurder als ze de chip vierkant moeten maken (als het dat niet al is), maar draagt toch wel bij aan hoe producten horen te werken, ze moeten zich aanpassen aan de mens, niet andersom.

[Reactie gewijzigd door TJRef op 9 september 2016 00:57]

Zeker een interessante toepassing. Vanuit consumer camera perspectief zijn er nog een paar nadelen bij een vierkante sensor.

- Vierkante sensor is groter, dus totale camera groeit. Bij Apple camera's wordt ontworpen op minimaal camera volume, dus daar ligt dit erg gevoelig.
- Bovendien moeten er (meer) pixels uitgelezen worden - tenzij er een slim uitleesprincipe is, weet ik even niet - waarvan een deel niet wordt gebruikt, dus het verbruikt meer energie. Helpt ook niet mee bij Apple telefoons, waar de batterij qua grootte zeker niet leading is in de markt.

Anders geredeneerd, bij een 12MP camera, is sensor cropping dan nu al niet mogelijk om dit effect te bereiken?
Het zou makkelijk een softwarematige oplossing kunnen zijn ja, als je dat bedoelt. Maar dan verlies je volgens mij wel een stuk aan gezichtsveld. Maar ik denk dat nu op sensors die vierkanter zijn dan 16:9 sowieso al gecropt wordt.

Meer pixels uitlezen zou het probleem niet moeten zijn, er zijn telefoons met hogere aantal mp. En het vierkant maken van een sensor zal denk ik ook niet veel schelen qua grootte o.i.d. je hebt namelijk dezelfde breedte als hoogte (de lens is sowieso ook rond) en nu zijn veel smartphonecamera's in 4:3 verhouding, dat scheelt niet heel veel met vierkant.

In principe zou je dan ook al makkelijk een horizontale foto kunnen maken met je telefoon verticaal, met alle controls onder het preview beeld.
Maar ik weet niet of de lens zelf bijvoorbeeld netjes rond is, of dat deze op een bepaalde manier gebold is


Om te kunnen reageren moet je ingelogd zijn



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True