Door Jeroen Horlings

Redacteur

Smartphonecamera wordt steeds beter

Hoe ai en deep learning beelden perfectioneren

07-12-2019 • 06:00

167

Multipage-opmaak

Inleiding

Al enkele jaren fotograferen en filmen meer mensen met een smartphone dan met een 'echte' camera. Heel gek is dat niet, want er werden in het afgelopen jaar 1,5 miljard smartphones verkocht tegenover 20 miljoen compact-, systeem- en spiegelreflexcamera's. Het aantal camera's dat wordt verkocht, heeft een dieptepunt bereikt vergeleken met de meer dan 100 miljoen stuks die in de periode 2008 tot 2012 jaarlijks werden verkocht. Wat verkopen betreft ligt het niveau weer op dat van de jaren tachtig, ver voor de digitale revolutie.

Geeft de consument dan helemaal niets meer om onderscheidende eigenschappen als een grote sensor, een betere beeldkwaliteit, meer zoom, minder beeldruis, een mooie beperkte scherptediepte (bokeh) en verwisselbare lenzen? Jazeker wel, maar hoewel er kwalitatief nog steeds grote verschillen zijn, is het gat in de laatste jaren een stuk kleiner geworden. Dat komt slechts in beperkte mate door betere hardware. Weliswaar zijn processoren krachtiger geworden, lenzen lichtsterker en sensors wat groter. De afstand tot aps-c- en fullframecamera's is daarmee slechts beperkt ingelopen.

Nachtfoto

Tegenwoordig is het een koud kunstje om met een smartphone een nachtfoto uit de hand te maken (iPhone 11 Pro, 800 iso, 3 sec)

Veel groter kunnen de sensors en lenzen niet worden. Door hardwarematige en natuurkundige beperkingen, zoals de brandpuntsafstand en de lichtopbrengst, kunnen kleine smartphonesensors nooit opboksen tegen grote sensors en lenzen, maar steeds slimmer wordende software en kunstmatige intelligentie kunnen dit verschil deels overbruggen of op z'n minst verbloemen. Ze worden vandaag de dag al gebruikt in moderne smartphones.

Door in plaats van een enkele foto meer foto's te maken en deze samen te voegen, ontstaat een hoger dynamisch bereik. Door diepte te meten met verschillende camera's en kunstmatige onscherpte toe te voegen ontstaat een portretfoto die er (bijna) uitziet alsof hij met een professionele camera is gemaakt. En door donkere beelden met ruis te analyseren en luchten te herkennen, kan de ruis in egale delen worden weggewerkt, terwijl details in andere delen behouden blijven. In plaats van grotere sensors en lenzen gebruiken fabrikanten hard- en softwarematige trucs. Het resultaat is een foto die, zeker op het eerste gezicht, niet onderdoet voor die van een serieuze camera. Uiteraard zal een ervaren fotograaf verschillen opmerken, maar op een platform als Instagram is het verschil voor leken vaak amper zichtbaar.

Tegelijk is 'ai' intussen een beetje een buzzwoord geworden en claimt iedere fabrikant dat zijn producten kunstmatig intelligent en zelflerend zijn, wat natuurlijk lang niet altijd zo is. In dit artikel bekijken we wat smartphones zoal doen op dit vlak, hoe dat zich uit, wat de verschillen zijn en waar het in de nabije toekomst heengaat.

Met dank aan Balance voor het idee voor dit artikel en een deel van de uitwerking.

Ai, machinelearning en deep fusion

Omdat de fysieke mogelijkheden voor de grootte van sensor en lens nu eenmaal beperkt zijn bij smartphones, zullen ze nooit de beeldkwaliteit van een professionele camera kunnen halen. Ook niet als de lenzen nóg lichtsterker worden en de sensors groter. Een logisch gevolg is dus dat fabrikanten dit 'oplossen' met behulp van software.

HDR: Onderbelicht, normaal, overbelichtHDR: Onderbelicht, normaal, overbelichtHDR: Onderbelicht, normaal, overbelicht

Een klassieke hdr op basis van drie foto's: onderbelicht, normaal en overbelicht

Hdr, ai, en deep fusion

Voor zaken als het optimaliseren van de belichting werkt dat in de basis heel simpel. Al sinds enkele jaren gebruiken smartphones hdr, high dynamic range, om de belichting van foto's te optimaliseren. In plaats van een enkele foto worden er dan op de achtergrond bijvoorbeeld drie foto's gemaakt: bracketing. Eén foto is standaard belicht, een tweede overbelicht en een derde onderbelicht. Vervolgens worden die foto's samengevoegd met behulp van tonemapping, met een meer evenredige belichting als resultaat. Je ziet daardoor meer details in donkere delen en hebt minder snel last van uitgebeten objecten, zoals de zon.

Tegelijk gebeurt er nog meer, want drie foto's maken in plaats van één leidt ook tot verschillen en mogelijke beeldfouten. Denk aan een iets afwijkende uitsnede doordat uit de hand wordt gefotografeerd, maar ook aan bewegende objecten, zoals voetgangers, fietsers en auto's. Bij de eerste hdr-implementaties werden de drie foto's letterlijk samengevoegd. De afwijkende uitsnede werd gecorrigeerd, waarbij de beelden werden uitgelijnd door ze als het ware over elkaar heen te leggen. Er was wel kans op 'ghosting', oftewel bewegende elementen die er vaag uitzagen. Niet alleen bij verkeer, maar ook bijvoorbeeld door bewegende boomtakken. Tegenwoordig worden de beelden meestal slimmer samengevoegd door er een als basis te kiezen en daarin details van de andere beelden te verwerken.

Bovendien beperken high-end smartphones zich niet meer tot drie beelden, maar wordt er een hele reeks vastgelegd. Als we deep fusion van de Apple 11-serie als voorbeeld nemen, dan gebeurt er het volgende. Iedere keer als je op de ontspanknop drukt, worden er negen foto's gemaakt. Vier daarvan worden al doorlopend vastgelegd voordat je op de knop drukt en na de hoofdfoto worden nogmaals vier extra foto's gemaakt: in totaal dus negen stuks. Google Pixels en high-end Huawei-toestellen doen iets vergelijkbaars. Na het maken van de foto worden de beelden geanalyseerd, waarbij op pixelniveau de beste details worden geselecteerd. De scherpte wordt vervolgens geoptimaliseerd en de ruis wordt lokaal gereduceerd. Daarbij wordt rekening gehouden met egale segmenten en delen met veel detail. Egale delen, zoals luchten, zien er daardoor al snel strak uit, terwijl details in andere delen behouden blijven.

De 'nachtmodus' werkt op een vergelijkbare manier bij high-end smartphones. Als de camera detecteert dat het donker is en er langere sluitertijden dan normaal nodig zijn, wordt de nachtmodus geactiveerd. De eerste vier foto's worden dan gemaakt met vrij korte sluitertijden. Die beelden zijn vrij donker, maar bevriezen wel beweging en tonen de werkelijke kleuren doordat er geen ruisreductie wordt toegepast. Daarna maakt de camera een foto met een vrij lange sluitertijd om voldoende details vast te leggen. Vervolgens worden de beelden met de meeste details van de reeks korte sluitertijden samengevoegd. Door het samenvoegen van verschillende beelden ontstaat op zichzelf al een synthetische foto met een langere sluitertijd.

Deze methode is vergelijkbaar met 'stacking', waarbij bijvoorbeeld bij astrofotografie honderden foto's worden samengevoegd, waarbij uiteindelijk een foto met een extreem lange sluitertijd ontstaat, inclusief stersporen. Deze synthetische foto wordt vervolgens weer slim gecombineerd met de daadwerkelijke foto met lange sluitertijd, die bijvoorbeeld vooral voor luchten en lichten wordt gebruikt. Google doet sinds de Pixel 3 iets vergelijkbaars, maar dan op basis van vijftien foto's die na het indrukken van de ontspanknop worden vastgelegd. De Pixels detecteren ook beweging van objecten en kiezen in dat geval een kortere sluitertijd.

Astrofotografie stacking
Het idee om foto's samen te voegen om zo een langere sluitertijd te realiseren, lijkt wat op stacking zoals dat bij astrofotografie wordt toegepast

In het geval van Apples deep fusion worden de vers geschoten beelden in vier stappen geanalyseerd en bewerkt. In iedere stap wordt gekeken naar een bepaald detailniveau. Dat begint bij egale delen zoals de lucht of donkere schaduwpartijen, en in de laatste stap is aandacht voor delen met bijzonder veel detail, zoals gezichten, haar en bijvoorbeeld wollen truien. Ook kan selectief informatie worden gebruikt van de verschillende beelden, bijvoorbeeld scherpe details uit het ene beeld, en beeldinformatie over de kleuren en helderheid uit een ander. Deze slimme bewerking heeft ten opzichte van vroeger ten minste twee positieve effecten. Ten eerste wordt ruisreductie niet op de hele foto toegepast, waardoor over de hele linie details verdwijnen. Ten tweede zien foto's er door de lokale verscherping gedetailleerder uit dan je zou verwachten met de desbetreffende resolutie. In het geval van Apple werkt de nachtmodus overigens alleen in combinatie met de groothoeklens, ook in de telestand, waarbij dan simpelweg 2x digitaal wordt 'ingezoomd'.

Oversampling

Steeds meer smartphones worden voorzien van sensors met een enorm aantal megapixels: 48 tot 108. Dat begon allemaal met de Nokia 808 PureView in 2012 en de latere Lumia 1020. Het idee achter zo'n overdaad aan pixels is oversampling. De ruwe resolutie wordt niet voor het eindresultaat gebruikt, maar via pixelbinning teruggerekend naar een lagere resolutie. Smartphones met een 48-megapixelsensor, zoals de Xiaomi Mi A3, OnePlus 7 of Samsung A80, leveren uiteindelijk een 12-megapixelfoto af. Een factor vier verschil dus. Het is ook mogelijk om de volledige resolutie te gebruiken, maar de foto zal er minder goed uitzien dan de 12-megapixelvariant die optimaal is bewerkt. Het verkleinen van de resolutie door middel van pixelbinning resulteert namelijk in minder ruis en een betere belichting.

Exact dezelfde truc wordt toegepast bij de Isocell Bright HMX-sensor die in de Xiaomi Mi Note 10 te vinden is en medeontwikkeld werd door Samsung. De 108-megapixelresolutie levert een 27-megapixelfoto op. De methode verschilt overigens wel wat van het uitgangspunt dat Nokia destijds hanteerde. Weliswaar wordt er een, voor een smartphone, relatief grote sensor gebruikt, het gebruikte kleurenfilter is anders dan een traditioneel filter. Het 'quad-Bayer'-kleurenfilter gebruikt blokken van 2x2 pixels die dezelfde kleur licht opvangen, terwijl de blokken bij een traditioneel filter gespreid zijn (zie de afbeelding hieronder). Het voordeel van deze 'opstelling' is dat de sensor in één keer twee afzonderlijke foto's kan maken met verschillende belichtingen. Daardoor kan een hdr-foto worden gemaakt zonder deels bewogen delen. Het nadeel is dat de ruwe resolutie, 48 of 108 megapixel, minder details bevat dan je normaliter zou verwachten, eveneens door het afwijkende filter.

Quad-bayer versus een regulier kleurenfilter
Quad-Bayer (links) versus regulier kleurenfilter. Beeld: Sony

Machinelearning en onderwerpherkenning

Tot slot gebruiken smartphones steeds meer kunstmatige intelligentie in de cameramodus, waarbij wordt geprobeerd om het primaire onderwerp of de situatie te herkennen, en de instellingen en bewerkingen daarop af te stemmen. Op die manier kunnen zaken als de witbalans, scherpte, kleuren, textuur en ruis op het onderwerp of de situatie worden afgestemd. Een gezicht of wollige trui wordt bijvoorbeeld extra verscherpt, op egale luchten en schaduwpartijen wordt beduidend meer ruisreductie toegepast en in de nachtstand wordt voorkomen dat foto's te geel worden door kunstlicht. Doordat er verschillende foto's worden gemaakt, vaak op verschillende brandpuntsafstanden, is het zelfs mogelijk een uitsnede te maken als een persoon in de horizontale stand wordt gefotografeerd. In de portretmodus wordt kunstmatige achtergrondonscherpte toegevoegd op basis van diepte-informatie, wat behalve met personen ook steeds beter werkt met huisdieren en objecten.

Chip- en sensorontwikkelingen

Alle technieken op de vorige pagina hebben iets gemeen; ze verwerken veel meer data dan simpelweg het Bayer-grid uitlezen en comprimeren. Dit is mogelijk door ruim tien jaar ontwikkelingen in smartphoneprocessors. Het is deels te danken aan steeds kleinere productieprocedés, waardoor we nu over meer dan 10 miljard transistors in een smartphone-soc kunnen beschikken.

Maar de grootste revolutie heeft misschien wel plaatsgevonden in de manier waarop we die transistors inzetten. In tegenstelling tot bijvoorbeeld AMD’s Matisse-die, waarop elke transistor wordt ingezet om acht zo snel mogelijke Zen2 cpu-cores mogelijk te maken, zijn smartphone-soc's veel diverser. De naam zegt het ook al: system-on-a-chip, wat duidt op een compleet computersysteem in plaats van enkel een cpu. Naast twee of drie verschillende formaten cpu-kernen zijn er namelijk ook gpu's, isp's, dsp's en sinds kort ook npu's aanwezig, die respectievelijk worden ingezet om 3d-beelden, sensordata, audiodata en neurale data te bewerken. En hoewel deze niet allemaal in eerste instantie zijn ontwikkeld om foto’s en video’s mee te verbeteren, gaan fabrikanten ze daar wel voor gebruiken.

Sensorontwikkelingen

Enigszins onbekend is het feit dat beeldsensors net als processors op cmos-processen worden gemaakt. Hierdoor zou je misschien denken dat Moore’s law ook op sensors van toepassing is. Dat is helaas niet het geval. Waar processors primair uit transistors bestaan, is bij beeldsensors de fotogevoelige laag het grootste onderdeel en die heeft weinig baat bij de verbeterde proceseigenschappen. In de praktijk worden dus relatief oude processen ingezet voor de productie van camerasensors, omdat deze een stuk goedkoper zijn dan de splinternieuwe finfet-processen die de 14nm- en 10nm-nodes gebruiken, laat staan euv, of extreme ultraviolet lithography.

Dat moet ook wel, want een fullframesensor meet 36 bij 24 millimeter (864mm²) en zou daarmee onbetaalbaar zijn op een modern proces. Ter vergelijking: de Nvidia GV100 is 815mm² en de Intel XCC-die is 694mm². Volledig werkende chips van beide kosten meer dan 10.000 euro. Bovendien kun je bij een cpu of gpu nog een paar cores uitschakelen als er fouten in zitten, maar niemand accepteert een fotosensor met dode pixels. In de praktijk worden moderne sensors dus op 65nm- tot 28nm-nodes geproduceerd. Samsung heeft echter in oktober op IEDM 2019 een presentatie gegeven waarin het aangaf voor zijn high-end smartphonesensors met 100+ megapixels onderzoek te doen naar het gebruik van 14nm-finfet. Ook fd-soi wordt onderzocht voor zowel de sensors zelf als de 'logica' daarachter.

Deze procedés zijn belangrijk, want high-end sensors bestaan al lang niet meer uit slechts één chip. Tot een jaar of tien geleden hadden sensors niet echt een optimaal ontwerp doordat slechts een gedeelte van de beschikbare oppervlakte als fotogevoelig vlak werd ingericht en daarmee licht kon opvangen. De rest daaromheen was aansturende logica. Wel werden microlenzen gebruikt om zoveel mogelijk licht op de fotogevoelige laag te krijgen, maar dat lukte nooit helemaal. Op grote fullframesensors met tientallen vierkante micrometers oppervlakte per pixels was dat geen heel groot probleem, maar voor kleine smartphonesensors nam het een zeer significant deel van de toch al kleine sensoroppervlakte in beslag.

Sony introduceerde daarop een nieuwe reeks sensors onder de Exmor R-merknaam. Niet de voorkant van de chip, waar tot dan toe ook alle aansturende logica zit, maar de achterkant werd belicht. De fotogevoelige laag werd dus verplaatst naar de achterkant, lees: onderkant, van de chip. Dit werd een chip die we nu kennen als backside illuminated (bsi-) sensor en werd al snel de standaard voor kleine sensors dankzij de hogere lichtgevoeligheid en lagere ruis.

bsi cmos

Het verschil tussen een traditionele cmos-sensor en een bsi-cmos-sensor (beeld: Sony)

Meerdere beelden en dram

Een andere belangrijke ontwikkeling van de afgelopen jaren, die nu handig van pas komt voor het maken en verwerken van verschillende foto's voor een beter eindresultaat, is de integratie van dram-buffergeheugen in de sensor. De oorspronkelijke aanleiding bestond uit camera's als de Phantom v2640, die 12.500 frames per seconde in 1080p-resolutie kan vastleggen. De v2640 kan dit maar liefst 7,9 seconden lang, wat neerkomt op honderdduizend frames, waarvan het afspelen op 24fps meer dan een uur in beslag zou nemen. De truc om die gigantische hoeveelheid data te verwerken, is relatief simpel. De camera heeft 72 tot 288GB ram aan boord. De data wordt dus niet meteen verwerkt, opgepoetst of gecodeerd, maar in een gigantische rambuffer bewaard om vervolgens op een computer verder te worden behandeld.

Smartphonefabrikanten zagen een kans zich te onderscheiden met een ingebouwde slowmotionmodus en ontwikkelden een sensor die uit drie lagen bestond: een fotogevoelige bsi-sensor, een dram-die met werkgeheugen en een logic-die met alle structuren die nodig waren om de analoge data verwerkbaar te maken voor de soc. Dit heet ook wel stacked sensor en opnieuw was Sony de eerste fabrikant die hiermee kwam. Sindsdien bieden de meeste smartphones een fraaie slowmotionfunctie, waarbij het aantal frames per seconde bij de topmodellen oploopt tot 1000 of meer. Het voordeel van deze ontwikkeling was dat de dram-buffer voor slow motion voor meer doeleinden kan worden ingezet. Er kan gewoon een bepaalde hoeveelheid sensordata van willekeurige samenstelling in worden gegooid. De enige beperking is de uitleessnelheid van de sensor en die is vaak vele malen hoger dan wat de processor zelf aankan. Dat is precies wat al die hdr- en deepfusiontechnieken nodig hebben. Ze zijn allemaal gebaseerd op het combineren van beelden, soms van gelijke aard, maar soms ook met verschillende sluitertijden of isostanden.

Doorsnede van een stacked sensor
Doorsnede van een stacked sensor

Smartphone vs. traditionele camera

Compactcamera's zijn zo goed als uitgestorven en de voornaamste groei in de cameramarkt komt uit het high-end segment. Dslr's, maar vooral systeemcamera's, bieden extra's waar een smartphone technisch gezien niet aan kan tippen, zoals verwisselbare lenzen en een grote sensor. Daarmee zijn optische effecten mogelijk die met de kleine lens of lenzen van een smartphone simpelweg onmogelijk zijn. Hetzelfde geldt voor de grote sensor; deze biedt meer ruimte voor pixels en dus een beduidend hogere resolutie met meer scherpte en detail, een lager ruisniveau en een groter dynamisch bereik.

Simulatie via software

Een smartphone heeft echter een belangrijke troef: software. De optische effecten kunnen ook in software worden geëmuleerd. Het bekendste voorbeeld is kunstmatige achtergrondonscherpte in de portretstand. De meeste smartphones gebruiken hiervoor diepte-informatie van een tweede camera. De techniek zag het levenslicht in 2014 met de HTC M8, maar brak in 2016 definitief door toen smartphones steeds vaker meer dan één camera kregen. In het prille beginstadium was het effect nog wel van echt te onderscheiden, maar met iedere nieuwe camera-iteratie wordt het realistischer, met betere overgangen en met een realistisch ogend, gradueel verloop van de onscherpte naarmate de afstand toeneemt.

Ook andere lenseffecten kunnen via software worden nagemaakt. Denk bijvoorbeeld aan split focus diopter, levensechte bokeh en tilt-shift. In de Toy Story films werden dergelijke effecten softwarematig gecreëerd met behulp van virtuele lenzen. Voor Toy Story 4 werden Cooke-lenzen, inclusief hun imperfecties, nagebootst en vervolgens met behulp van raytracing toegepast. Datzelfde gebeurt in smartphones en games, al wordt daarvoor dan geen raytracing gebruikt, maar worden simpelweg de effecten nagebootst. Op die manier wordt het beperkte dynamisch bereik van de kleine sensor kunstmatig opgeschroefd. Door verschillende foto's te maken en de belichting samen te voegen, wordt in de portretmodus kunstmatige onscherpte toegevoegd en kun je op recente modellen in de nachtmodus gewoon uit de hand fotograferen met een lange sluitertijd.

Smartphones proberen natuurkundige kwaliteitsverschillen met 'echte' camera's dus via software te compenseren en niet zonder succes. Zelfs toen smartphones nog slechts een enkele lens hadden en dus niet, of althans niet echt, konden zoomen, fotografeerden consumenten al steeds vaker met hun telefoon, omdat die veel gemakkelijker mee te nemen en altijd bij de hand is. Een spiegelreflex- of systeemcamera bood een veel betere kwaliteit, maar dat was blijkbaar geen doorslaggevend argument.

Vervolgens zijn smartphones zich verder gaan ontwikkelen, waardoor de klassieke nadelen ten opzichte van reguliere camera's zijn afgenomen. Zo zijn de nieuwste smartphones voorzien van drie tot vijf lenzen met verschillende brandpuntsafstanden. Niet kunnen zoomen is daarmee verleden tijd, al kun je erover discussiëren of dit wel echte 'zoom' is. Dankzij de innovaties op sensor- en chipgebied is het nu mogelijk om enorme hoeveelheden megapixels op een kleine sensoroppervlakte te plaatsen zonder dat dit tot een enorme hoeveelheid elektronische ruis leidt. Door 48, 64 of 108 megapixels te gebruiken met quad-Bayer-filter op relatief grote sensors levert het opsplitsen van 1 naar 4 pixels geen extra ruis op als de resolutie wordt teruggerekend naar een lagere resolutie, zoals 12 of 27 megapixel. En door verschillende beelden te maken in plaats van een enkele foto en deze slim te combineren is het nu mogelijk om met enkele seconden uit de hand te fotograferen, iets wat tien jaar terug nog ondenkbaar was.

Er is nog een andere verklaring voor de flinke inhaalslag van smartphonecamera's in de afgelopen jaren. Dit jaar lijken er zo'n 15 miljoen camera's verkocht te gaan worden, tegenover 1,5 miljard smartphones in 2018. Dat betekent dat smartphonebedrijven inmiddels veel grotere r&d-afdelingen hebben dan de klassieke camerafabrikanten. Het is dus niet vreemd dat daar de meeste innovatie vandaan komt. Cameramakers hebben niet de schaal voor grote software- en elektronicateams zoals Apple en Google die hebben.

Echte camera's

Hoe zit het met de traditionele camera's? Ondanks de grote stappen bij smartphones blijft de kwaliteit van spiegelreflex- en systeemcamera's beter. Foto's zijn over het algemeen scherper en tonen meer details en minder ruis, voornamelijk dankzij de grote sensor. Bij dergelijke camera's zien we wel innovaties, zoals oogautofocus, maar zeker op het vlak van softwarematige beeldoptimalisatie gaat het veel langzamer dan bij smartphones. Bovendien zijn camerafabrikanten over het algemeen wat conservatief, zowel bij het doorvoeren van grote veranderingen als bij het optimaliseren van de gemaakte beelden. Daar zit een gedachte achter, want het uitgangspunt was tot nu toe altijd dat de gemaakte beelden er zo realistisch mogelijk uit moeten zien. Compactcamera's hadden er vroeger een handje van om de kleuren op te peppen en extra te verscherpen, zodat beelden uit de camera er goed uitzagen, maar bij spiegelreflex- en systeemcamera's was het uitgangspunt tot nu toe altijd dat foto's er zo puur mogelijk uit moesten zien.

Hierdoor wordt het verschil tussen de resultaten van smartphones en die van deze camera's steeds groter en moet je als camerabezitter steeds meer je best doen om dezelfde geoptimaliseerde resultaten te halen als met een smartphone. Voor gevorderde amateurs en professionals is dat geen probleem. Zij weten welk resultaat ze beogen en stellen de sluitertijd-, iso- en diafragmawaarde daarop af. En het liefst fotograferen ze in raw, waarmee niet alleen de best mogelijke beeldkwaliteit wordt opgeslagen, maar waarbij de bewerkingsruimte ook het grootst is. Voor minder ervaren fotografen wordt de lat steeds een stukje hoger gelegd. Een nachtfoto uit de hand maken is tegenwoordig met een smartphone een stukje gemakkelijker en sneller dan met een spiegelreflex, en op Instagram-niveau is het verschil soms amper zichtbaar. Toch werken camerafabrikanten ook aan het gebruik van kunstmatige intelligentie, voor de jpeg-beelden althans.

Sony camera AISony camera AI

Twee slides uit een Sony-presentatie over de rol van kunstmatige intelligentie in zijn camera's

Praktijkvoorbeelden

Standaard zijn in de cameramodus alle toeters en bellen geactiveerd. Enkele jaren geleden merkte je daar niet altijd wat van, maar tegenwoordig is het verschil soms letterlijk zo groot als tussen dag en nacht. Immers, zoals eerder in dit artikel beschreven, is het nu gebruikelijk dat de belichting wordt geoptimaliseerd. Donkere schaduwpartijen worden lichter gemaakt en overbelichting wordt voorkomen. Daar blijft het niet bij, want tegenwoordig is het ook niet gek als gezichten automatisch worden herkend en verscherpt, evenals andere delen met veel details. Met computational photography wordt geprobeerd om van een scène een rijkere representatie te maken.

Door dit soort ontwikkelingen wordt het verschil tussen een originele, niet-bewerkte foto en een geoptimaliseerde versie steeds groter. Sommige telefoons gaan zover met hdr en tonemapping dat foto's er compleet surrealistisch uitzien en eigenlijk een ander beeld tonen dan we met onze ogen zagen, zoals hieronder te zien is aan een oude testfoto in ai-modus van de Huawei P20 Pro. De tonemapping en kleurverzadiging zijn hierbij duidelijk doorgeschoten, al vinden sommige mensen dit mooi. Dat roept een beetje de vraag op in hoeverre foto's zo spectaculair mogelijk geoptimaliseerd moeten worden of juist moeten overeenkomen met wat onze ogen zagen.

De Huawei P20 gaat in de AI-modus wel erg ver voor het perfecte plaatjeDe Huawei P20 gaat in de AI-modus wel erg ver voor het perfecte plaatje

De Huawei P20 (rechts) ging in de ai-modus wel erg ver voor het perfecte plaatje

Zoals eerder beschreven worden er in de 'nachtmodus' verschillende foto's achter elkaar gemaakt, waarvan de smartphone de beste gebruikt en samenvoegt. Niet alleen toont het eindresultaat daardoor meer kleur en details, ook voorkomt het beweging, zoals in de onderstaande foto's te zien is. Omdat de nachtmodus zich niet gemakkelijk laat uitschakelen, is de eerste foto gemaakt in een andere app met automatische instellingen.

NachtmodusNachtmodus

Zonder nachtmodus (links) en met

Hieronder tonen we nog een aantal andere 'nachtfoto's', waarvan de bovenste drie uit de hand zijn gemaakt. Iets dergelijks was enkele jaren terug nog onmogelijk met een smartphone, doordat de sensor niet lichtgevoelig genoeg was en lange sluitertijden niet uit de hand konden worden gemaakt.

Voorbeelden nachtmodusVoorbeelden nachtmodusVoorbeelden nachtmodusVoorbeelden nachtmodusVoorbeelden nachtmodusVoorbeelden nachtmodus

Enkele voorbeelden van de nachtmodus. De bovenste drie foto's zijn uit de hand gemaakt.

We hebben gekeken of we verschil zagen met deep fusion aan en uit. Het testen daarvan is wat omslachtig, omdat je de optie 'Maak foto's buiten het kader' uit en aan moet zetten in de instellingen, wat via de camera-app niet mogelijk is. Ook werkt het in bepaalde modi niet, zoals in combinatie met smarthdr en de portretmodus. Er zit een duidelijk verschil in verscherping van baardhaar en gezichten en kleding met veel details. Het eindresultaat ziet er daardoor een stuk scherper uit.

Deep fusion
Deep fusionDeep fusion

Deep fusion aan (links) en uit

We zijn nog druk bezig met het testen van de Xiaomi Mi Note 10 met Samsungs 108-megapixelsensor, maar hieronder tonen we een uitsnede van een van de foto's en de twee originelen daaronder. In dit geval lijkt de tweede foto, met 108 megapixel, meer details te tonen dan de geoptimaliseerde versie links.

108 megapixel-vergelijking
108 megapixel-vergelijking108 megapixel-vergelijking

Twee foto's gemaakt met de Xiaomi Mi Note 10: de 27-megapixel- (links) en de 108-megapixelversie

Toekomst

De innovaties op de high-endsmartphonemarkt zullen snel doorsijpelen naar het midrangesegment en uiteindelijk ook naar de instappers. Dat is relatief eenvoudig doordat een aanzienlijk deel voortkomt uit softwareoptimalisaties. Wel is die software uiteraard gebaat bij, en deels afhankelijk van geoptimaliseerde en vlotte hardware. Het maken van opnamereeksen en het samenvoegen van foto's kost uiteraard de nodige rekenkracht. Tot slot helpen een relatief grote sensor, een slim kleurenfilter en een lichtsterke lens natuurlijk ook, hoewel die onderdelen zich meer evolutionair ontwikkelen en de grote doorbraken alweer even achter ons liggen. Sensors met extreem hoge resoluties en de quad-Bayer-kleurenfilters zijn wel een relatief nieuwe methode om betere beelden te produceren.

Toch zit de meeste ontwikkeling in de software en dat blijft vermoedelijk in de komende jaren ook zo. Voorlopig valt er nog genoeg te verbeteren en optimaliseren aan de softwarematige processen, zoals het slim samenvoegen van beelden. Los daarvan spelen machine- en deep learning en neurale netwerken een steeds grotere rol. Als de software 'weet' wat er gefotografeerd wordt, kunnen de instellingen vooraf en de beeldoptimalisaties achteraf daar beter op worden afgestemd.

Dat roept wel de discussie op hoever die optimalisaties in de toekomst gaan. Oftewel hoe belangrijk is een geslaagde foto en hoever mag de software daarvoor gaan? Stel dat een persoon die in het verleden veel gefotografeerd is, er in een groepsportret niet helemaal op staat, mag de software dan de bestaande dataset met vroegere foto's gebruiken om die persoon alsnog goed in beeld te brengen? Voor het doel van de groepsfoto, het tonen van alle personen, is dat wellicht wenselijk, maar de realiteit wordt wel aangepast. Hetzelfde geldt min of meer voor beautyfilters en realtime augmented reality zoals bij Snapchat, waarbij gezichten worden aangepast. Nu is het verschil nog duidelijk herkenbaar, maar als dit zo wordt geperfectioneerd dat het bijna niet meer van echt te onderscheiden is, is het de vraag of dat wel wenselijk is.

Het is meer een maatschappelijk dan een technisch vraagstuk, maar het zou wat ons betreft in ieder geval mogelijk moeten zijn om niet-realistische aanpassingen van de werkelijkheid uit te zetten. Of dat gaat gebeuren, is de vraag. Camerasoftware moet zo simpel mogelijk te bedienen zijn en wordt daarbij afgestemd op de leek zonder voorkennis van sluitertijden en diafragma's. In de nachtmodus is het bijvoorbeeld nu al lastig om telefoons te forceren tot het gebruik van lange sluitertijden. Bij Apple gaat de nachtmodus alleen aan als de telefoon denkt dat er weinig licht is en bij Android kiest de software zelf de sluitertijd op basis van hoe donker de omgeving is. Alleen in de pro-modus of met behulp van third-partyapps kun je zelf een sluitertijd kiezen, maar dan heb je weer geen beschikking over de geavanceerde beeldoptimalisatie van de smartphonefabrikant.

Al met al is duidelijk dat smartphonefabrikanten zich steeds meer op fotografie en video zijn gaan richten. Telefoons zijn natuurlijk al lang niet meer alleen om mee te bellen; we doen er van alles mee, waaronder beelden vastleggen. Vandaar dat de meeste moderne smartphones nu zijn uitgerust met meer dan één camera, waardoor je als het ware lenzen kunt wisselen: supergroothoek, normaal, tele, supertele en macro. Door verschillende foto's van een scène te maken en deze samen te voegen ontstaat een beter resultaat dan met een enkele foto. Dankzij toegenomen processorkracht, nieuwe sensors met meer pixels en alternatieve kleurenfilters, en in combinatie met slimmere software met kunstmatige intelligentie wordt dit in de komende jaren zonder twijfel nog geavanceerder.

Reacties (167)

167
165
107
6
0
48
Wijzig sortering
Tegenwoordig is het een koud kunstje om met een smartphone een nachtfoto uit de hand te maken (iPhone 11 Pro, 800 iso)

Nou, als ik die nachtfoto bekijk ziet hij eruit alsof het een olieverfschilderij is; totaal geen details meer. Ik begrijp dat dit een prima 15x10 afdruk wordt en voor een simpel point-and-shoot plaatje is het zeker goed, maar ik zou het zeker geen kunstje noemen.

De conclusie voor mij is dat telefooncamera's prima zijn voor mensen die er niet op uit gaan om foto's te maken. Bijvoorbeeld je gaat een dagje met de kids uit en je wil daar wat foto's van maken; het is een leuke bijzaak. Ga je bijvoorbeeld 's avonds op pad met het doel om mooie avondfoto's te maken van een stad, investeer dan in deze hobby.
Ik vermoed dat jij toe bent aan een andere monitor. En anders misschien een objectievere blik op de foto's. Je pakt uit het hele artikel de eerste foto en beoordeeld die op kwaliteit. Terwijl het punt van die eerste foto eigenlijk was: 's nachts uit de hand fotograferen levert prima foto's op. Er waren pakweg 5 jaar geleden nog maar weinig camera's (DSLR of smartphone) die een plaatje als dit uit de hand konden schieten. En het is inderdaad niet de meest inspirerende foto, maar je zwijgt over de andere foto's uit dit artikel. Die zijn van een hogere kwaliteit (artistiek en technisch) en ik durf te beweren dat er op dit moment ook nog maar weinig DSLR'en zijn waarmee je dit soort foto's uit de hand kan nemen.
En dat is de kern van het artikel: smartphone camera's komen erg dicht in de buurt van spiegelreflexen of systeemcamera's. Dit blijkt ook uit analyses van diverse foto-sites, waar het visueel niet opvalt dat het aandeel smartphone foto's gestaag toeneemt.

Verder vind ik je opmerkingen in de tweede paragraaf wel tekenend voor het vooroordeel waar je last van hebt. Je plaatst jezelf in het kamp van de "echte" fotografen, die neerkijken op het kiekjes-nemende plebs. Dan is het inderdaad erg moeilijk om de kwaliteit van foto's waarvan je al weet dat ze door een smartphone zijn genomen, op waarde te schatten.
Leuk, maar wat je zegt is echt enorme onzin. Ik schiet met 9 jaar oude Nikon D7000 en die loopt nog steeds rondjes om welke smartphone dan ook, laat staan dat je een full-frame hebt. Los uit de hand, met flitser, zonder flitser, met welke lens dan ook, het maakt niks uit. Elke foto is qua scherpte, dynamisch bereik etc gewoon stukken beter dan foto's die uit mobiele telefoons komen rollen. Het is ook volstrekt logisch dat een sensor ten grootte van een speldenpunt in een smartphone niet dezelfde foto's schiet als een dedicated device van 1000 euro met lenzen die net zoveel kosten als een losse smartphone.

Die eerste foto uit het artikel? Waardeloos, alles wat bewoog is een wazige streep geworden. Dat kan een artistieke keuze zijn, maar bij de nachtmodus op smartphones is dat altijd. Foto's van bewegende dingen (mensen, dieren, voertuigen) zijn onmogelijk in die stand.

Er is een reden waarom ik anderhalve kilo(van de 6-8 kilo aan totale bagage) aan cameraspullen meezeul in de bergen van Nepal of op safari in Afrika en dat is beeldkwaliteit.
Niet dat ik niet met een smartphone schiet. Het gemak is geweldig, ik kan de foto's snel online delen en voor Instagram is het prima. Kom ik echter terug van de reis en wil ik een fotoalbum maken waarbij ik de foto's op A4-formaat wil printen dan leggen ze het allemaal af en zijn ze simpelweg onbruikbaar.

Naast het feit dat je een DSLR/systeemcamera natuurlijk haalt voor de flexibiliteit. Weinig licht? Dan zet je een lichtgevoelige lens en/of flitser erop, op safari en wil je close ups van dieren hebben? Dan zet je de telelens erop. Luchten/water? Polarisatiefiltertje. Je kan foto's maken in situaties die simpelweg onmogelijk zijn met een smartphone.

Ik wou dat ik dat allemaal met een smartphone kon doen, dat scheelt me 25% van m'n bagage. Het heeft niks met neerkijken te maken, maar als ik de foto's van een mooie reis naast elkaar leg dan ben ik altijd nog blij dat ik m'n spiegelreflex heb meegenomen.

[Reactie gewijzigd door BarôZZa op 23 juli 2024 02:50]

Kennelijk zit je op je stokpaardje en galoppeer je graag over al mijn argumenten heen. Voor de duidelijkheid even terug naar de titel: "Smartphonecamera wordt steeds beter". Dat was de kern van het artikel en die staat nog steeds. Daar doet dedain voor de kiekjesfotograaf niets aan af.
Natuurlijk loop jij rondjes om de smartphone fotograaf heen met je D7000. Maar niet 's nachts. Want als je dan loopt, zijn je foto's naar de galemiezen. In die 6-8 kilo aan cameraspullen zit niet voor niets een statief.
Ik ben een enthousiaste amateurfotograaf, zojuist geupgrade naar een Canon 70D en een 18-135 STM. Ideale combinatie. Toen ik terugkwam van een mooie reis naar Azie heb ik ook een fotoboek gemaakt. Prachtige foto's. 20% ervan kwamen van mijn smartphone.... En niemand, ook mijn andere fotografen-vrienden niet, die het in de gaten had. En dat was een Samsung Galaxy S6....
Het is ook volstrekt logisch dat een sensor ten grootte van een speldenpunt in een smartphone niet dezelfde foto's schiet als een dedicated device van 1000 euro met lenzen die net zoveel kosten als een losse smartphone.
Dat is een aanname, die misschien wordt ingegeven door het feit dat jij heel veel geld en energie steekt in je hobby (net zoals ik overigens), maar het daarom erg lastig vindt om toe te geven dat wat jij produceert ook geproduceerd kan worden door Jan Lul met een smartphone.
Je kan foto's maken in situaties die simpelweg onmogelijk zijn met een smartphone.
Yep, helemaal waar en dat is ook de reden dat ik mijn DSLR overal mee naar toe sleep. Wat ook waar is: ik sleep mijn smartphone ook overal mee naar toe omdat ik met mijn smartphone foto's kan maken die ik met mijn DSLR niet kán maken. Op feestjes bijvoorbeeld, met slechte lichtomstandigheden. Of 's avonds in de stad :) Zo zie je maar weer: het is maar net welke situatie je in je vergelijking gebruikt.
maar als ik de foto's van een mooie reis naast elkaar leg dan ben ik altijd nog blij dat ik m'n spiegelreflex heb meegenomen.
En ik kan in deze zin "spiegelreflex" vervangen door "smartphone". Staan we weer quitte.

Misschien is de samenvatting van dit alles wel: in veel situaties is een DSLR (of systeemcamera) beter, in veel situaties is een smartphone beter. Dat lijkt mij een veel genuanceerdere uitspraak dan
De conclusie voor mij is dat telefooncamera's prima zijn voor mensen die er niet op uit gaan om foto's te maken. Bijvoorbeeld je gaat een dagje met de kids uit en je wil daar wat foto's van maken; het is een leuke bijzaak.
Natuurlijk loop jij rondjes om de smartphone fotograaf heen met je D7000. Maar niet 's nachts. Want als je dan loopt, zijn je foto's naar de galemiezen
Euh, juist bij slecht licht is waar de DSLR's het verschil maken. Grotere sensor, lichtgevoelige lenzen en fatsoenlijke flitsers. Bij een smartphone moet je een enorm lange sluitertijd hebben omdat het simpelweg lang duurt voordat er voldoende licht op het minuscule sensortje is gevallen. Het kleine ledje is natuurlijk ook geen partij vergeleken met een echte flitser.

Daardoor zie je bij alle praktijkvoorbeelden dat bewogen zaken één grote blur worden. Het is onmogelijk om die boot bijvoorbeeld scherp te krijgen. Je kan niet eens zien of het een motor of een scooter is bij die ene. Bij de iPhone 11 Max is elk gezicht een bruine vlek geworden waarbij je niet eens je eigen moeder zou kunnen herkennen.

Als je geen goede foto's bij slecht licht neemt met een spiegelreflex(dus feestjes en dergelijke), dan moet je echt je best doen. Misschien ben je met een kitlens aan het knallen in de auto-stand. Het ligt niet aan de camera in ieder geval. Daarom zie je op elk festival nog steeds fotografen met systeemcamera's of DSLR's rondlopen.

Een smartphone is letterlijk in geen enkele situatie qua kwaliteit beter. Het enige waar het vaak wint is gemak. Je hebt dat ding altijd op zak en deelt snel de foto's.

[Reactie gewijzigd door BarôZZa op 23 juli 2024 02:50]

Daardoor zie je bij alle praktijkvoorbeelden dat bewogen zaken één grote blur worden. Het is onmogelijk om die boot bijvoorbeeld scherp te krijgen.
Voor de duidelijkheid: dat was ook het doel he. ;) Lange sluitertijden = bewogen onderwerpen in de vorm van lichtsporen. Die boot moest dus juist bewogen worden vastgelegd. En dat kan zowel met een dslr/csc als smartphone (vanaf statief).

[Reactie gewijzigd door Yero op 23 juli 2024 02:50]

Dat zou wel een rare artistieke keuze zijn, het lijkt wel alsof die toeristenboot 200km/h gaat ;) .
In verreweg de meeste gevallen wil je een bewegend iets kunnen bevriezen. Zelfs met een DSLR + lichtgevoelige lens is dit al lastig zonder flits, dus bij een smartphone is dit helemaal een probleem en ik vermoed(weet vrijwel zeker) dat die foto's niet gemaakt konden worden waarbij de boot scherp was. Dan moet het onderbelicht zijn geweest.

Bij de andere foto zie je bijvoorbeeld de blurry motors/scooters. Daar is simpelweg niks aan te doen.
Een smartphone is letterlijk in geen enkele situatie qua kwaliteit beter.
Dat is waar het artikel over gaat: er zijn dus situaties waar je met een smartphone uit de hand kan fotograferen, terwijl je dat met een DSLR niet meer kan.
Nee, je kunt nu met een smartphone uit de hand schieten als het donker is.. met een goeie DSLR kon dat altijd al.

Ik ben altijd nog heel verbaasd als ik een foto neem met een DSLR en ik kijk.. dan denk ik altijd hun zo licht is het toch niet? De foto is geeft veel meer licht weer als ik zelf zie
Een 9 jaar oude Nikon D7000 was toen €750+ zonder een lens, primaire doel = foto's maken. Een iPhone 11 Pro begint bij €1100, primaire doel = bellen/apps. Inflatie maakt die €750 nu ~€860.

We zitten nu een mes van een mooi zwitsers zakmes te vergelijken met een goed keukenmes. Twee tools die beide kunnen snijden, maar wel iets andere doelen hebben en functionaliteit...

Ik heb 20+ jaar geleden 'geleerd' te fotograferen met een ouderwetse zwart/wit spiegelreflex camera waarbij we zelf de foto's moesten ontwikkelen. Leuk om te leren, maar het is nooit mijn hobby geworden. Ik ben, net zoals veel anderen, iemand die voor foto's gewoon point and click wil doen met dat zakmes wat ze toch al op zak hebben (smartphone). Daar ga ik echt geen €1100-€1600 voor uitgeven (iPhone 11 Pro), maar ook cheaper smartphones maken betere foto's voor mensen die het niet als hobby doen...

De meeste mensen die vroeger een camera kochten, kochten geen €1000 spiegelreflex kit, maar kochten een goedkoop doosje waar zo een lens uitschoof als je hem aanzette... De meeste kochten het dan en gebruikte het nooit omdat ze niet wisten hoe het werkte. Want vroeger was het ook point&click en dan als je terug thuis was na de vakantie een tas met fotorolletjes inleveren bij de drogist...

Je moet een verschil leggen tussen hobbyisten en gebruikers!
Ik heb ook een D7000 (en ik kan 5 minuten fietsen om deze foto te maken :+ ) maar ik weet zeker dat ik daarmee niet uit de hand een veel betere foto kan maken. Ook niet met snel glas (en met snel glas, krijg je weer minder scherptediepte en een heel ander beeld)

Met een statief lukt dat vast. Maar dat geld voor de telefoon ook. En uiteindelijk gaat hem in je gebruiksdoel: hoeveel foto's print je nu écht op heel groot formaat? Ik denk dat dat aantal vér onder de 1% is.

Ja een DSLR is beter. Maar je moet wel héél goed je best doen..en dat is het punt van dit artikel. Niemand zegt dat een smartphone betere foto's maakt. Maar het wordt wel steeds moeilijker om een smartphone te overtreffen.
Ik vermoed dat jij toe bent aan een andere monitor
Kan je dat dan ook gelijk zeggen tegede andere 3 miljard mensen dat we allemaal een 4K 10Bit HDR monitor moeten kopen, want bij mijn ouders thuis geven ze niks om het beeldscherm... dus wat is de meer waarde van zo'n ultra goede foto van een iPhone XR in de nacht?we schieten allemaal foto's wanneer we willen,maar we bekijken het maar één of twee x terug in je leven.bij mensen thuis staan albums vol met foto's, kasten vol waar nooit meer naar gekeken wordt.dus vertel mijn waarom dit interessant is? Soms is een herinnering in je hoofd nog mooier dan een foto zelf.

Het is gewoon allemaal marketing voor wie wat de beste heeft, bedrijven concurreren met elkaar, wat zou Apple het leuk vinden als ze de DSLR kapot wordt gemaakt en de smartphone fabrikanten alles voor zich zelf kunnen houden..waarom zouden we dit willen als consument?ja, leuk dat we in het donker betere foto kunnen maken, is dit geld waard? bedrijven drukken elkaar uit het leven en gunnen elkaar het licht in de ogen niet.

[Reactie gewijzigd door solozakdoekje op 23 juli 2024 02:50]

Ik vermoed dat je mijn post verkeerd geïnterpreteerd hebt. Of ik was niet duidelijk :) @michaelboon82 zag verschillen die ik niet zag en mijn opmerking over een nieuwe monitor waren sarcastisch bedoeld.

Jouw tweede paragraaf slaat werkelijk nergens op. In mijn universum wonen heel andere mensen: vooral veel mensen die foto's nemen leuk vinden. Ik ben lid van een fotoclub, één van de vele in mijn omgeving. Daarnaast ken ik ook een aantal enthousiaste amateurfotografen. En verder ken ik ook veel mensen die met hun smartphones echt mooie foto's maken en daar ook trots op zijn. Overal staan inderdaad fotoboeken, maar die staan in de boekenkast in de woonkamer, waar nog vaak even in wordt gekeken. Dus, geen idee in wat voor een omgeving jij opgegroeid bent, die van mij is anders. En wie van ons is "normaal"?

Los van wat jij of ik doen in onze vrij tijd, onze Instagram-generatie heeft de afgelopen jaren uitsluitend plezier gehad in het daglicht, want 's avonds of 's nachts konden ze geen mooie foto's nemen. Nu wel, dus ik zie alvast een enorm grote groep mensen die heel erg blij zullen zijn met deze nieuwe mogelijkheden.
Ik bedenk er gewoon nóg een groep bij: astrofotografen. Zoek voor de grap maar eens naar astrofotografie+Google Pixle. Allemaal blije mensen!
Daarnaast ken ik ook een aantal enthousiaste amateurfotografen. En verder ken ik ook veel mensen die met hun smartphones echt mooie foto's maken en daar ook trots op zijn. Overal staan inderdaad fotoboeken, maar die staan in de boekenkast in de woonkamer, waar nog vaak even in wordt gekeken. Dus, geen idee in wat voor een omgeving jij opgegroeid bent, die van mij is anders. En wie van ons is "normaal"?
De amateur fotograaf is nog geen procent van de totale markt. mensen die foto's maakt met smartphone, DSLR, digitale camera, studenten die foto op Instagram of Facebook plaatsen, of een oma die zijn foto maakt met een ipad en een wandelaar die in het bos snel even een fotootje maakt, etcetera etcetera.eerlijk deze mensen bekijken hun foto's maar een of twee keer.

dus de amateur fotograaf die op een cursus zit en zijn foto's thuis bekijkt is minder dan een procent, dit bevestigt mijn argument dat het helemaal geen reed toevoegt of we nu mooiere foto's maken omdat de meerderheid de foto's maar een of twee keer bekijkt, het voegt weinig toe voor die twee procent is dat fijn dat ze nu op hun fotografie cursus met een smartphone hun voordeel er uit hale en dat ze nu betere foto's ook kunnen maken snachts..

ik zeg nergens dat smartphone fotografie niet mooi is of wel...

[Reactie gewijzigd door solozakdoekje op 23 juli 2024 02:50]

Ik kijk films ook maar 1 keer. Laten we die hele industrie maar opdoeken dan.
Als maar 1 procent van de bevolking films of series zou kijken net zoals ik boven beschreven heb dan zou ik de film industrie opdoeken in zijn huidige staat.
Als wereldreiziger ben ik toch erg blij met de huidige ontwikkelingen van de camera op de smartphone markt. :)

Ik heb voor mijn wereldreis een Huawei P30 Pro aangeschaft. Waar ik zowel overdag en in de nacht (lange sluimerstand) naar mijn mening erg mooie foto's mee kan maken.

Het is al vaker gebeurd dat veel medereizigers na het zien van de door mij gemaakte foto's vragen of ik alle foto's van de activiteiten kan maken, soms ook mensen met een speigelrelex camera.

De markt is toch groter dan je probeert over te brengen.
Anoniem: 457607 @multikoe7 december 2019 14:15
"Terwijl het punt van die eerste foto eigenlijk was: 's nachts uit de hand fotograferen levert prima foto's op."

Maar dat is het nou net, die foto is niet prima, hij is rampzalig slecht.

"Er waren pakweg 5 jaar geleden nog maar weinig camera's (DSLR of smartphone) die een plaatje als dit uit de hand konden schieten."

Wat!?!? DSLRs en lenzen die dit kunnen vastleggen uit de hand bestaan al tientallen(!) jaren.

"En dat is de kern van het artikel: smartphone camera's komen erg dicht in de buurt van spiegelreflexen of systeemcamera's."

Lees: uitsluitend voor een heel beperkt bereik en met forse software optimalisaties die de werkelijkheid aanpassen. Dat is een minuscuul stukje van fotografie.
"Rampzalig"? Dat is sterk overdreven. Even afgezien van de beroerde artistieke waarde van het shot, is het technisch acceptabel. Er is geen bewegingsonscherpte, er is relatief weinig ruis. Het dynamisch bereik is niet opvallend groot, maar voldoende voor een nacht-opname. Dus jouw "dramatisch" komt helemaal voor je eigen rekening.
Wat!?!? DSLRs en lenzen die dit kunnen vastleggen uit de hand bestaan al tientallen(!) jaren.
Ben wel benieuwd of je daar voorbeelden van hebt. ISO-waardes hoger dan 1600 ISO waren tot voor kort al vrijwel onbruikbaar en bij die waardes geeft een f 2.0 lens al snel sluitersnelheden onder de 1/5 seconde. Dat ga je, zelfs met beeldstabilisatie, uit de hand niet redden.
Ik ben echt heel benieuwd naar nachtfoto's, uit de hand, met een camera van meer dan 5 jaar oud. Laat maar zien.
Lees: uitsluitend voor een heel beperkt bereik en met forse software optimalisaties die de werkelijkheid aanpassen. Dat is een minuscuul stukje van fotografie.
Miniscuul? Dat hangt volledig af hoe beperkt je definitie van fotografie is. 50% van alle foto's gepubliceerd op www.flickr.com komt van een smartphone. En dat was in 2017.... Je bent vrij om elke definitie van "fotografie" te gebruiken, maar als het aandeel "miniscuul" is, dan vermoed ik dat jouw definitie alleen poster-size publicatie in bushokjes betreft. Of omslagen van glossy weekbladen. Prima, maar zo kan ik ook wel een discussie proberen te winnen.
Anoniem: 457607 @multikoe8 december 2019 11:37
""Rampzalig"? Dat is sterk overdreven. Even afgezien van de beroerde artistieke waarde van het shot, is het technisch acceptabel."

Dat is wat anders dan goed. Ja, het is technisch acceptabel als kiekje. Er is geen ruis omdat er vrijwel geen detail is, die is met vingerverf weggesmeerd.

"Ben wel benieuwd of je daar voorbeelden van hebt. ISO-waardes hoger dan 1600 ISO waren tot voor kort al vrijwel onbruikbaar"

Dit is al vele jaren achterhaald. Je kunt al vele jaren prima wegkomen met ISO6400 en wat selectieve ruisonderdrukking.

"Miniscuul? Dat hangt volledig af hoe beperkt je definitie van fotografie is. 50% van alle foto's gepubliceerd op www.flickr.com komt van een smartphone"

Quantiteit zegt niets. Er worden dagelijks miljarden foto's gemaakt simpelweg omdat mensen dat ding in hun zak hebben, wat 10-15 jaar geleden niet zo was. Men zal het gebruiken om hun etentje te fotograferen, het bezoek aan de dierentuin, etc.

Daar is helemaal niets mis mee maar het is de discussie niet. De discussie is of het kwalitatief in de buurt kan komen bij een DSLR.
Anoniem: 457607 @D-Ed8 december 2019 11:37
Eentje, maar daarmee is het contact vreemd genoeg al een tijd geleden verbroken.
DSLR 5 jaar geleden?Welke jaar zijt gij begonnen?
Dat klopt. Als je de nachtfoto's van een smartphone op 100% bekijkt valt er van alles op aan te merken. Je ziet dan nog steeds dat het detail (zelfs met 108 megapixels) niet hetzelfde is als dat van een spiegelreflex- of systeemcamera en dat geldt ook voor het dynamisch bereik, (uitgebeten) hooglichten en andere zaken, zoals de scherptediepte. Dus nee, het zijn zeker geen kunstwerken op pixelniveau.

Wat natuurlijk wel knap en handig is, is dat je zo'n foto met moderne smartphones gewoon uit de hand kunt maken. Met lange sluitertijden. Met een spiegelreflex- of systeemcamera wordt dat lastig, tenzij je een Panasonic GH5 of Olympus OM-D E-M1 Mark II hebt, die beschikken over zeer goede stabilisatie. Met andere camera's wordt het lastig, zelfs met lichtsterke lens, om langer dan +- 1/3e seconde uit de hand te fotograferen. Als je ergens op kunt leunen of een statief bij je hebt, kan het natuurlijk wel.

Ik ben het met je eens: als je kwalitatief de best mogelijke foto's wilt maken, dan is een spiegelreflex- of systeemcamera met aps-c of fullframe-sensor de beste keus. En het is het zeker waard om daarin te investeren, ook als hobby (het is immers leuk om te leren en te groeien en bijvoorbeeld je eigen foto's aan de muur te hangen). Voor situaties die minder belangrijk zijn of waar je geen posters van zult maken is een smartphone prima. Het punt van dit artikel is dat er tot enkele jaren terug nog situaties waren waar je helemaal niets kon met je smartphone (nachtfotografie, binnenfoto's in een kroeg, portretten met beperkte scherptediepte), maar dat dit nu enorm verbeterd is dankzij betere hardware en software. Het zal niet op hetzelfde niveau uitkomen, maar de verschillen wordt wel steeds een beetje kleiner.
Waarom kan het niet met een normale systeemcamera? Ik heb niet anders gedaan. Gewoon onderbelicht schieten en daarna de brightness boosten voor een superieur resultaat dankzij het veel bredere dynamisch bereik van een grotere sensor, Het voorbeeld bij dit artikel is net een olieverf schilderij zo enorm zijn de details uitgesmeerd. De grond lijkt gewoon 1 egale kleur te zijn. De verschillen zijn altijd even groot gebleven. Waarbij moderne systeem cameras dan dit soort systemen overstijgen door bijvoorbeeld op 10 beelden per seconden met autofocus mes scherpe beelden te schieten met details om je vingers bij af te likken. Geavenceerde tracking, filmen op productie niveau etc.
Waarom kan het niet met een normale systeemcamera? Ik heb niet anders gedaan. Gewoon onderbelicht schieten en daarna de brightness boosten voor een superieur resultaat dankzij het veel bredere dynamisch bereik van een grotere sensor [..]
Dit is wat ik schreef:
Wat natuurlijk wel knap en handig is, is dat je zo'n foto met moderne smartphones gewoon uit de hand kunt maken. Met lange sluitertijden. Met een spiegelreflex- of systeemcamera wordt dat lastig, tenzij je een Panasonic GH5 of Olympus OM-D E-M1 Mark II hebt, die beschikken over zeer goede stabilisatie.
Maak maar eens een foto van meerdere seconden met je camera, uit de hand. Niet om de scene goed te belichten, maar juist om beweging te tonen - daarvoor zijn lange sluitertijden noodzakelijk.
Het is 1/4sec en niet "meerdere seconden", heb je de exif data van de foto wel bekeken? Daarnaast en flinke wide angle focal length, wat uit de hand schieten makkelijker maakt. Dit kan je met vrijwel elke gestabiliseerde wide angle lens.

Er is werkelijk waar niks speciaals aan de foto, niet op gebied van wat er wel of niet kan en al helemaal niet op gebied van kwaliteit.

Maar uiteindelijk gaat het daar niet eens om met hoe je op dit resultaat komt qua foto. Het is gewoon ondermaats in vergelijking met dedicated camera gear.

[Reactie gewijzigd door Sn0wblind op 23 juli 2024 02:50]

Het is 1/4sec en niet "meerdere seconden", heb je de exif data van de foto wel bekeken? Daarnaast en flinke wide angle focal length, wat uit de hand schieten makkelijker maakt. Dit kan je met vrijwel elke gestabiliseerde wide angle lens. [..]
Ja, ik heb de exif die bij de foto getoond wordt bekeken. En de foto zelf gemaakt - die duurde meerdere seconden. Dat is ook terug te zien in de metadata van de foto (Metapho-app). Er zijn tien foto's gemaakt van 1/4e sec - in totaal 2,67 sec.

De exif toont dus simpelweg de sluitertijd van een enkele foto. Dat is bij de meeste (zo niet alle) smartphones met nachtmodus zo, want dat is ook de feitelijke sluitertijd van een individueel frame.
Dat is dan geen foto van meerdere seconden maar een stacked foto.....

En dan is het resultaat nogsteeds niet qua scherpte en detail op niveau van 1 enkele met een degelijke camera.
En het eindresultaat lijkt ook meer op dat van een individueel frame. Zoals ik in een andere reactie schrijf: als dat een exposure van 3 seconden moet voorstellen, rijdt die grijze auto rechts veel te langzaam.

Wat de smartphone hier doet kunnen systeemcamera's en zelfs compactcamera's ook al jaren. Denk maar aan de Multishot Noise Reduction in Canon camera's die in ieder geval al sinds de 100D (2013) bestaat.
En deze foto van pg 5?
https://tweakers.net/i/qE...9ID-EE=/i/2003233672.jpeg

Heeft eveneens een sluitertijd van 0,4 sec in de exif staan, maar het zijn meerdere seconden. Het betreft een langzaam varende boot (ook te zien aan de mate van vervaging).
Maar die heb je dan weer niet handheld gemaakt, zoals je zelf schrijft: "De bovenste drie foto's zijn uit de hand gemaakt." De onderste drie dus niet. Dus daar is ook niks bijzonders aan. Met een systeemcamera op statief kan je dezelfde foto maken zonder onderbroken lichtsporen.
Dat klopt inderdaad, deze is vanaf statief gemaakt. Mijn punt was dat deze eveneens een sluitertijd van 0,4 sec aangeeft, maar dat het in werkelijkheid beduidend langer was.

Waarom is het nodig om constant een vergelijking met andere camera's te maken? Alsof het nodig is om te bewijzen dat die beter zijn. Dat is niet het punt van dit artikel. Die gaat specifiek over smartphones en de ontwikkeling om steeds betere foto's te maken, zoals in de nachtmodus - al dan niet meerdere seconden uit de hand. Sinds Google de nachtmodus introduceerde en Huawei de P30P (en later de iPhone 11-serie) is dat enorm verbeterd. Nee, uiteraard is het geen dslr/systeemcamera-kwaliteit, maar kan dat even worden losgelaten?.
Dat klopt inderdaad, deze is vanaf statief gemaakt. Mijn punt was dat deze eveneens een sluitertijd van 0,4 sec aangeeft, maar dat het in werkelijkheid beduidend langer was.
Dat zal dan wel. De EXIF staat niet in de foto, dus ik moet je op je woord geloven. Maar dat is niet zo interessant, want daar ging deze hele discussie niet over.

Deze discussie ging over fotografie met lange sluitertijd uit de hand. Die term gebruik je zelf in meerdere reacties in deze discussie. De foto's die je toont die wel uit de hand zijn genomen, hebben echter het resultaat van een korte sluitertijd, en de foto's met een effectief lange sluitertijd zijn niet uit de hand genomen. Dus jouw claim dat je met een smartphone foto's met lange sluitertijd uit de hand kan nemen, mist nog steeds onderbouwing.
Waarom is het nodig om constant een vergelijking met andere camera's te maken? Alsof het nodig is om te bewijzen dat die beter zijn. Dat is niet het punt van dit artikel.
Je hebt zelf een complete pagina aan die vergelijking gewijd. En in je reacties maak je die vergelijking zelf ook: "Met een spiegelreflex- of systeemcamera wordt dat lastig". En "Maak maar eens een foto van meerdere seconden met je camera, uit de hand." Als de claims die jij bij die vergelijkingen maakt dan ook nog eens niet kloppen, dan vraag je toch om zo'n discussie?
Die claim klopt wel. Maar goed, ik ga jou toch nooit overtuigen. Probeer het zelf maar eens.

Nog een poging dan, omdat jij het bent. Gemaakt in het pikkedonker (veel donkerder dan de foto laat zien): https://tweakers.net/i/FL...234664.jpeg?f=imagenormal
De foto is verder niet zo boeiend, maar het is wel een lange sluitertijd uit de hand.
Die claim klopt wel. Maar goed, ik ga jou toch nooit overtuigen.
Wel als je met goede argumenten komt. Je kan niet ontkennen dat de foto's die je tot nu toe hebt laten zien, je verhaal simpelweg niet ondersteunen. Je hebt nog geen foto met lange sluitertijd uit de hand laten zien, anders had je mij daar wel op gewezen in plaats van met dit kinderachtige antwoord te komen.
Probeer het zelf maar eens.
Prima. Stuur je de iPhone even op? Of moet ik €1100 uitgeven aan een discussie op Tweakers?
Nog een poging dan, omdat jij het bent. Gemaakt in het pikkedonker (veel donkerder dan de foto laat zien): https://tweakers.net/i/FL...234664.jpeg?f=imagenormal
De foto is verder niet zo boeiend, maar het is wel een lange sluitertijd uit de hand.
En een volkomen onbruikbaar resultaat. Dat redt mijn E-P5 uit 2013 ook nog wel. Op dit postzegelformaat is 'ie niet eens scherp, terwijl alle detail al is weggeblurd door een overijverige ruisreductie.

Maar inderdaad, uit de hand. Gefeliciteerd. Als je hier je punt mee moet maken, zijn we wel klaar.
Ik denk dat je de definitie van sluitertijd even moet gaan opzoeken. Het aantal foto's wat gemaakt wordt is hierbij irrelevant.

Dit is ook wel aan de foto's te zien want daar zit geen motion blur in van meerdere secondes.
Met een smartphone loop je keihard tegen hetzelfde probleem aan als je een sluitertijd van meerdere secondes gebruikt. Dat gaat je alleen lukken als je stabilisatie hebt die net zo stabiel is als je statief of dat je toch wat bewegings onscherpte voor lief neemt.

Dat betekent dus ook dat je vooral de stabilisatie aan het vergelijken bent en ook in moderne camera's kan je tegenwoordig prima stabilisatie vinden waar je bijv 1/8s kan gebruiken met een korte telelens (75mm). Met een groothoek lens kan je nog langere sluitertijden halen.

Qua beeld kwaliteit zal een camera het altijd beter doen. Logisch want er zit oa een veel grotere sensor in en ik zie smartphones dan ook nog niet zo snel bruikbare foto's maken met ISO 10000+, iets wat met fullframe wel kan.
Met een smartphone loop je keihard tegen hetzelfde probleem aan als je een sluitertijd van meerdere secondes gebruikt. Dat gaat je alleen lukken als je stabilisatie hebt die net zo stabiel is als je statief of dat je toch wat bewegings onscherpte voor lief neemt.

Dat betekent dus ook dat je vooral de stabilisatie aan het vergelijken bent en ook in moderne camera's kan je tegenwoordig prima stabilisatie vinden waar je bijv 1/8s kan gebruiken met een korte telelens (75mm). Met een groothoek lens kan je nog langere sluitertijden halen.

Qua beeld kwaliteit zal een camera het altijd beter doen. Logisch want er zit oa een veel grotere sensor in en ik zie smartphones dan ook nog niet zo snel bruikbare foto's maken met ISO 10000+, iets wat met fullframe wel kan.
Reageer je nu zonder het artikel te hebben gelezen? Met een moderne smartphone kun je zoals beschreven foto's met lange sluitertijden van meerdere seconden uit de hand maken. Soms tot wel 10 seconden lang, is mijn ervaring. Hoe dat kan zonder bewegingsonscherpte? Lees het artikel. 😉
Ik zie dus niet een sluitertijd van meerdere secondes. Heb jij het artikel wel gelezen?
Hij heeft het geschreven, ik zou toch ff beter proberen te lezen :+
De eerste foto heeft al een sluitertijd van 3 seconden :+
Dat is echt geen 3 seconden sluitertijd.

Waar jullie allebei de mist in gaan is het feit dat er meerdere foto's worden genomen waarbij het totaal 3 seconden duurt. De software voegt vervolgens al die foto's weer samen. Dit is echter absoluut niet hetzelfde als 3 seconden sluitertijd en daarbij kan je dit zelfde truukje ook met een camera uithalen.

Oftewel niks nieuws aan maar leuk dat ze dit automatisch voor je doen. Programma's als Photoshop doen dit natuurlijk al jaren.

[Reactie gewijzigd door Barsonax op 23 juli 2024 02:50]

Als dat 3 seconden moet voorstellen, dan rijdt die grijze auto rechts opvallend langzaam. Drie, hooguit vier kilometer per uur.
Incorrect, dat is dus juist waarom de smartphone camera heel snel verschillende foto’s maakt en die “aligned” dmv AI. Feature recognition en dan aligning.

Google heeft zelfs een patent waar de trilling van de hand zorgt dat je extra resolutie kan onttrekken, omdat de pixels elke frame net even anders binnen.

Kortom, nee dat probleem is opgelost bij smartphones, en de trilling wordt juist gebruikt als feature.
Maar dat is dus niet een sluitertijd van meerdere secondes.

Ik kan mijn camera ook in burst zetten en de foto's later samenvoegen maar dat geeft toch echt een ander effect dan een lange sluitertijd. Dit zie je ook in de foto's van het artikel want die zijn niet gemaakt met een sluitertijd van meerdere secondes.

Het enige wat de smartphone doet is dit in camera voor je doen. Zeker handig maar niks nieuws verder aan.
Met andere camera's wordt het lastig, zelfs met lichtsterke lens, om langer dan +- 1/3e seconde uit de hand te fotograferen.
Kleine kanttekening: het is natuurlijk de vraag of die 1/3e dan nodig is. Zo'n lange sluitertijd is inderdaad lastig uit de hand te halen, maar met een grotere sensor+lensopening kan je met een veel kortere sluitertijd evenveel licht vangen. Een moderne systeemcamera op ISO 6400 geeft een veel beter resultaat dan die iPhone 11 op ISO 800.
Hoewel je met de OMD E-M1.2 wel een van de betere (zo niet beste) voorbeelden geeft van goede stabilisatie, zijn er echt enorm veel prima systeemcamera's met stabilisatie die met veel gemak zulke foto's kunnen maken. En niet pas nu, dat kan al best een poosje. Wat @Arumes hieronder al zegt, ISO 800 op een telefoon is geen ISO 800 op een camera met grote sensor. 1/3e is voor niet bewegende onderwerpen echt niet meer zo lastig hoor, zeker niet met met een groothoeklens. Foto's van een paar sec. uit de hand lukt nog wel met een beetje aandacht.

Is het knap wat met smartphones kan tegenwoordig? Zeker! Maar we moeten niet doen alsof het op hetzelfde niveau is als systeemcamera's. De vraag is natuurlijk wel of de gemiddelde gebruiker die extra mogelijkheden en kwaliteit nodig heeft. Dat zal voor het overgrote deel waarschijnlijk niet zo zijn.

[Reactie gewijzigd door Sjekster op 23 juli 2024 02:50]

De meeste nachtfoto's lijken wel gemaakt op feestjes en andere uitgaansmomenten waar de korrelige look als charmant wordt beschouwd. Een enkeling begint met pixel peeping maar op de kleine schermen van smartphones en de lage resolutie van computerschermen valt het minder op.

Nachtfotografie is een vak apart waarbij de speling van licht en schaduw ook een rol heeft, maar als je de meeste nachtfoto's bekijkt is dat niet de bekommernis van de gemiddelde smartphone shooter. De flits levert meestal verschrikkelijke foto's op maar er zijn nog altijd mensen die het geforceerd aanzetten eens de nacht valt.
Tegenwoordig is het een koud kunstje om met een smartphone een nachtfoto uit de hand te maken (iPhone 11 Pro, 800 iso)

Nou, als ik die nachtfoto bekijk ziet hij eruit alsof het een olieverfschilderij is; totaal geen details meer.
Dat niet alleen, er mist ook heel veel detail in de donkere delen terwijl de lampen al wit uitgebeten zijn. Dynamisch bereik van die kleine sensors is nu eenmaal beperkt.
In vergelijking met de nachtfoto's van slechts een paar jaar geleden is het enorm verbeterd, dus ik snap wel waarom er bij staat dat het een koud kunstje is. Je maakt zonder problemen een nighshot die je nog eens kan laten zien.
Voor en na https://i2.wp.com/9to5mac.../6/2019/08/worst-best.jpg
Je wilt niet weten wat voor resultaten je krijgt als je alle instellingen handmatig instelt! Ik maak veel foto's met mijn Motorola Moto Z3 Play, als je de tijd hebt en je wilt een goede foto maken, dan is een goede telefoon meer dan voldoende.

Het is voornamelijk spelen met lichtgevoeligheid, als je een avond / nacht foto wilt maken, dan moet je handmatig de focus naar een lichtbron doen en vervolgens de ISO waarde (lichtgevoeligheid), omhoog zetten.
Ik heb zelf een aantal nachtfoto's die heel goed zijn uitgekomen. Bij één van de foto's heb ik ISO 133 en een belichtingsafwijking van -1.3, camera heeft een F stop van 1.7 en brandpuntsafstand is 4 mm en belichtingstijd is 1/100 sec.
Ik gebruik de flits zelden, gezien de flits niet altijd even goed naar voren komt en er meer gruis op de foto te zien is. Ik heb ook een andere foto gemaakt in de natuur, als je die foto zelf ziet dan zou je het niet geloven hoe goed een smartphone camera is :P

Een telefoon van €800,- een betere camera en sensor dan een telefoon van €200,- Echter heeft de foto vaak te maken met de instellingen. Een goede vriend van mij is een fotograaf en heeft een goede DLSR, echter toen hij mijn foto's zag, geloofde hij het niet dat het met de telefoon gemaakt was. Door te spelen met licht, sluitingstijd en lichtafwijking kom je er ver mee. Enigste minpunt van een telefooncamera, is dat niet elke telefoon OIS heeft. met OIS zouden de foto's zelfs nog beter gemaakt kunnen worden en heb je dus niet het probleem dat de foto's waziger er uit komen te zien.
Vaak zijn smartphone foto's wel goed voor normaal gebruik, echter met het inzoomen komen de problemen in zicht. Daarom wint de DLSR op sommige vlakken van de smartphone camera.
Alleen is het wel lastig om een goede DLSR uit te zoeken, daarom wordt er ook gezegd: ''de beste camera, zit in je broekzak''. ;)

Als ik kijk naar telefoons van 5 jaar terug en nu, dan zie ik dat telefoons flink vooruit zijn gegaan op camera gebied. Echter zou ik het willen zien dat fabrikanten wat meer opener zijn over welke camera, sensor en chip er gebruik gemaakt wordt. Vaak wordt er gebruik gemaakt van de Sony IMX sensoren, welke opzich een goede foto kunnen maken. Alleen mis je soms wel de scherpte die een DLSR wel heeft.
Oei wacht maar op de galaxy s11+ die zal echt beduidend beter worden... nou? Dramatisch beter worden dan de galaxy note10 series. De s11+ zal de grootste sensor en lens hebben van alle smartphones van 2020 hebben. De achterkant van de smartphone volgens de laatste lek is er een enorm gebied voor de camera gereserveerd. Met 108mp zul je pixelbinning mee kunnen doen om fotos van 27mp en zelfs 12mp te kunnen schieten voor beduidend betere kwaliteit nachtfoto's.

Ook zijn er geruchten voor een 10x optische zoom waarmee je uiteindelijk 100x digitaal mee kan zoomen. Je zal ook kunnen filmen in 4k en 120 fps! 8k 30 fps ook al. Dat is ook niet mis. Ze hebben de iphone 11 camera al vergeleken met enkele professionele camera's van duizenden€€€ Het gekke is dat de iphone 11 zich absoluut niet voor onder doet. Maar wat betreft de galaxy s11 zijn het nog maar geruchten en lekken en kijk uit naar de reviews ervan. Maar 1 ding staat vast, de toekomst is heel erg rooskleurig voor smartphone camera's.
Die test tussen een iPhone en een professionele camera, hoe is die uitgevoerd? Hebben ze het maximale van de iPhone al basis genomen en dat met de profi camera na gedaan? Of hebben ze van de profi camera alle registers open getrokken en dat met de iPhone na gedaan.
Ik weet namelijk 100% zeker dat er geen enkele telefooncamera kan tippen aan de mogelijkheden van en spiegelreflexcamera of systeemcamera.
Moet gelijk denken aan de Ziggo reclame met die meneer over supersnelle verbinding, de Technologie
Gaat heel snel en over 10 jaar is de smartphone gewoon een degelijke vervanger van de camera.
Ben ik deels met je eens. Maar mijn 70-300 lens zal nooit binnen een smartphone passen. En zo zijn er meer zaken die nooit gelijkwaardig zullen worden. Je moet er natuurlijk van uit gaan dat de camera's ook ontwikkelen. In 12 jaar (Canon 350D naar Canon 77D) is ook een wereld van verschil, die zitten ook niet stil.
Anoniem: 181786 @d1zzje7 december 2019 12:36
Dat is het voor veel mensen nu al.
Voor hobbyisten en professionals zal het echter geen vervanger worden. De camera is voor mij een stuk gereedschap wat fijn te bedienen en goed in te stellen moet zijn. De smartphone voldoet daar niet aan en zal daar nooit aan voldoen.

Daarnaast doe je de aanname dat de technologie in camera's stil blijft staan. Dat is natuurlijk niet zo.
Ik maak veel gebruik van zaken als live composite mode, focus bracketing/stacking en live time gebruik ik regelmatig op mijn camera. Ook camera's maken steeds meer gebruik van computertechnieken wat leuke opties oplevert en superieure kwaliteit tov de smartphone. Camerafabrikanten lopen nu nog wat achter met innovatie op dat gebied maar maken grote stappen.

En dan hebben we het nog niet over de verschillende objectieven wat simpelweg niet te benaderen is met een smartphone.

[Reactie gewijzigd door Anoniem: 181786 op 23 juli 2024 02:50]

Anoniem: 498327 @marcjo7 december 2019 13:04
Een smartphone is wel degelijk in sommige situaties in het voordeel t.o.v een full frame DSLR! Donkere situaties uit de losse hand wint de telefoon. Heb shootout 950XL (beter dan 11Pro) vs D850 gedaan, en de 950XL wint bij Glow lichtfestival. Hoe dat kan? Voor zelfde scherptediepte bij 28mm AIs(beste 28mm die er is voor Nikon) moet ik op F5.6 knippen. De 950 heeft zelfde scherpte bij F1.9. Dat is 3 stops winst. Dan heb ik nog OIS, dat shots tot 1/3s stabiel maakt. Bij de D850 moet ik 1/20 pakken, nog ongeveer 3 stops. De D850 moet dan op ISO 3200 waar de telefoon op ISO 50 kan schieten. Voordeel DSLR is dan compleet weg. Ook lijken groothoeklenzen op telefoon betere hoekscherpte en minder verrekening te hebben.

[Reactie gewijzigd door Anoniem: 498327 op 23 juli 2024 02:50]

Een smartphone is wel degelijk in sommige situaties in het voordeel t.o.v een full frame DSLR! Donkere situaties uit de losse hand wint de telefoon. Heb shootout 950XL (beter dan 11Pro) vs D850 gedaan, en de 950XL wint bij Glow lichtfestival. Hoe dat kan? Voor zelfde scherptediepte bij 28mm AIs(beste 28mm die er is voor Nikon) moet ik op F5.6 knippen. De 950 heeft zelfde scherpte bij F1.9. Dat is 3 stops winst.
Daar ga je al de mist in. Want die Nikon vangt op F/5.6 nog steeds 4x zoveel licht als de 950XL op F/1.9. Dat is dus 2 stops verlies voor de 950XL.
Dan heb ik nog OIS, dat shots tot 1/3s stabiel maakt. Bij de D850 moet ik 1/20 pakken, nog ongeveer 3 stops.
Dus je had zogenaamd de beste 28mm gepakt, maar zonder VR? Foutje van de fotograaf, niet van de camera. Met de 24-85 VR kitlens had je betere foto's gemaakt.

[Reactie gewijzigd door Arumes op 23 juli 2024 02:50]

Daar ga je al de mist in. Want die Nikon vangt op F/5.6 nog steeds 4x zoveel licht als de 950XL op F/1.9. Dat is dus 2 stops verlies voor de 950XL.
De Nikon vangt meer licht in totaal maar heeft ook een grotere sensor om te belichten. Qua belichting heb je dus niet 2 stops verlies voor de 950XL. Wel is het zo dat je met een grotere sensor wellicht een hogere ISO waarde kan kiezen zonder al te veel ruis of verlies van detail te krijgen.

De sensorgrootte heeft verder ook wel invloed op de hoeveelheid scherptediepte bij een gelijkblijvend diafragma.
[...]

De Nikon vangt meer licht in totaal maar heeft ook een grotere sensor om te belichten.
Dat maakt niet uit. Een grote sensor heeft niet meer licht nodig dan een kleine sensor. Een 35mm-camera op F/5.6 vangt 4x zo veel licht als een 1/2,4"-camera op F/1.9. En dat is directe winst voor de beeldkwaliteit.
Qua belichting heb je dus niet 2 stops verlies voor de 950XL.
Dus wel.
Wel is het zo dat je met een grotere sensor wellicht een hogere ISO waarde kan kiezen zonder al te veel ruis of verlies van detail te krijgen.
En hoe komt dat? Precies. Je spreekt de eerste zin van je reactie zelf dus ook tegen.
Ik spreek mezelf niet tegen. Bij gelijke sluitertijd en iso waarde zal een foto genomen met groter diafragma meer belicht zijn dan met een kleiner, onafhankelijk van de sensorgrootte. Deze discussie gaat enkel over de rol van het diafragma in de belichting, niet over de kwaliteit van de sensor zelf.

Lees ook eens dit artikel op Dpreview. Ik citeer even een relevant stukje:
This means that, a Four Thirds camera with a 50mm f/2 lens at ISO100 should produce a JPEG of the same brightness as a Full frame camera with a 100mm f/2 lens at ISO100 and, set to the same F-number and shutter speed, even though its smaller sensor means it is receiving 1/4 as much total light.
Ik zeg ook niet dat de smartphone in dit geval de beste tool is maar op het gebied van belichting mag je het f getal niet zomaar omrekenen in relatie tot de sensorgrootte zoals je dat wel met de hoeveelheid scherptediepte doet.
Ik spreek mezelf niet tegen. Bij gelijke sluitertijd en iso waarde zal een foto genomen met groter diafragma meer belicht zijn dan met een kleiner, onafhankelijk van de sensorgrootte.
Dan heb je het artikel waar je naar linkt dus niet begrepen. Lees het nog een paar keer goed. Ik kan het echt niet veel simpeler maken dan dit: bij de Nikon komt op F5.6 vier keer zoveel licht naar binnen als bij de iPhone op F/1.9. Dat is vier keer zoveel singaal waar de camera mee kan werken. Dat levert een betere singaal/ruisverhouding op. Als jij nu denkt dat dat voordeel op magische wijze verdwijnt door de grotere sensor, kan ik je niet helpen.
Goh ja we hebben het over hetzelfde maar interpreteren het anders. Als ik de belichting van mijn camera instel dan selecteer ik een combinatie van een sluitertijd, f getal en iso waarde om tot een bepaalde belichting te komen. Als die drie gelijk ingesteld zijn dan is de foto hetzelfde belicht onafhankelijk van de sensorgrootte. De manier waarop je het eerder uitlegt laat uitschijnen dat je bij een kleinere sensor een lager f getal moet kiezen om tot dezelfde belichting te komen en dat is niet waar.

Ik begrijp echter wat je bedoelt maar de manier waarop je het uitlegt komt voor mij verwarrend over.
Jij vergelijkt software trickery met gewoon echte fotos. Geen enkele smartphone camera sensor op dit moment kan de details in het donker vast leggen wat een degelijke DSLR sensor doet. Bij verre niet en dat kan ook niet. Er zijn gewoon natuurwetten. Grotere sensor vangt meer licht. Maak een onderbelichte foto met een dslr in raw en push dan het bereik in lightroom en je doet dan precies wat een smartphone camera ook doet. Maar dan 10x beter. Alle smartphone fotos bij weingi licht worden een pixel soep zonder enige vorm van details.
Weer iemand die diafragma niet begrijpt. Het is een relatief getal.
Sterker nog, het diafragmagetal doet er niet toe. Ik heb gekeken naar zelfde scherptediepte, sluitertijd en dan ruisniveaus vergeleken. Klopt dat ik VR lens kon pakken, maar die is minder dan smartphonelens.
Ik denk dat de grens ligt waar de oppervlakte-structuur van een optische chip de nauwkeurigheid van die van lenzen en spiegels overtreft. De weg van het licht door het toestel en de mechanische configuratie kunnen softwarematig nagebootst worden. Als de input maar zuiver en consequent is.

Het zal overigens nog wel lang duren. Lenzen worden ook met computers nauwkeurig gemaakt...

[Reactie gewijzigd door blorf op 23 juli 2024 02:50]

Anoniem: 181786 @marcjo7 december 2019 11:41
Nav een uitspraak van Tony Northrup heeft Peter Forsgård de Apple iPhone 11 Pro getest tegenover de Olympus E-M5 MKIII.

Het 16 minuten durende filmpje is hier te zien;
https://www.youtube.com/watch?v=OrFP9o1z0s4

Tony Northrup en enkele anderen doen alles voor aandacht en brengen dus dit soort onzinnige statements zonder ruimte voor discussie of nuance. Het is jammer dat ze een grote aanhang hebben. Dat zie je ook terug op DPR. De kwaliteit holt achteruit en de reactievelden lijken inmiddels meer op slagvelden vol trollen dan een plek waar mensen hun hobby/werk bespreken.
Ik heb een nieuwe iphone 11. Die maakt best heel aardige kiekjes. De 11 + zal misschien nog iets beter zijn.

Maar het is en blijft geen vergelijk met een goede systeem camera.

Ik ben best blij met de camera op de iphone 11 maar het blijft een klein sensortje met ditto klein lensje die weinig licht vangt.
Goh ja, niet helemaal on topic, maar wat ik me dan afvraag waarom kan je als DSLR fabrikant geen vette(re) processors/chips in een camera steken? Je hebt al het voordeel van een grotere schaal, veel grotere sensor, meer glas, meer ruimte t.o.v een smartphone, gooi er dan ook nog eens de software van een smartphone bovenop. Dan heb je toch het beste van 2 werelden? Ik zou dat persoonlijk wel added value vinden. Ik heb Magic Lantern geinstalleerd op mijn Canon, juist omdat er leuke functies op zitten die af-fabriek niet komen of zitten op camera's die ik met mijn budget pas over 10 jaar kan kopen.

Of wordt smartphone-software al toegepast op higher segment DSLR/systeem camera's? Ik ben amateur fotograaf en fotografeer (vrolijk) met een oude EOS 5d MKII. Ik ben zeker niet mee met de laatste ontwikkelingen in DSLR-land.
Zo dra Android er op komt dan maken ze heel hun eigen markt kapot.
Neen, Android liever niet, ook geen iDSLR of whatever. Gewoon de intelligentie die je met smartphone camera's, hebt gecombineerd met de betere hardware.

In zo'n camera zou ik het ook volledig optioneel houden. Heb je graag de manuele controle als vanouds, sure thing, de "M-stand", werkt nog steeds zoals die al 30 jaar werkt.
Nee, een DSLR mist de tweede sensor voor de dieptebepaling. Dit is essentiele info voor een aantal effecten.

Het idee is natuurlijk dat een DSLR (of mirrorless) dit ook niet nodig heeft, omdat dit optisch kan zonder kunstmatige toevoegingen.

Andere effecten kun je natuurlijk bij post processing in bv lightroom doen. Het belangrijkste is dat de meeste hobbyisten en pro's zelf de controle willen hebben over de foto, wat het ook minder interessant maakt voor de fabrikant (non issue voor de doelgroep). Voor hobbyisten (iig voor mij) is juist het tijd nemen en experimenteren wat het een hobby maakt.

Ontwikkelingen die je wel ziet, bij Sony bv, is AI inzetten voor object/eye-tracking. Een hulpmiddel om een bewegend object nog beter en scherper op de gevoelige plaat te krijgen. Zeker voor sport of natuur (wild) fotografen een handige feature die de foto zelf niet bewerkt, maar wel beter antwoord geeft op de vraag van de fotograaf: volg dat object/persoon/dier.

Uiteindelijk blijft ook de persoon achter de camera belangrijk. Je kan nog zo duur spul hebben, zonder creativiteit en kennis van he gear komt er nog steeds een "saaie" foto uit de camera.

[Reactie gewijzigd door GENETX op 23 juli 2024 02:50]

Prima artikel Jeroen! Zelfs de amateur fotograaf heeft weer wat opgestoken! Voor mij geldt dat ik het beste kies van 2 werelden. Voor dagelijks gebruik de smartphone (waarbij ik snel ga upgraden van een iPhone 6s naar een 11 pro) en voor hobbymatig gebruik mijn spiegelreflexcamera en high-end point-and-shoot camera.

Voor de (verre) toekomst blijft voor mij de vraag of ik mijn spiegelreflex camera met 5 lenzen met een totale waarde van ongeveer een kleine middenklasse auto niet uiteindelijk ga verkopen, omdat de voordelen van deze set niet meer gaan opwegen tegen de steeds betere smartphones in de toekomst.
Dan zou ik maar snel zijn, want nu is het nog wat waard! Anders is het echt achterhaald. Hier is alles er al uit, hebben nu een 11. Ja Spiegelreflex is mooier, maar alleen als je een foto extreem opblaast en een miniscuul beetje bij gewone afdrukgrote. Het is hetzelfde als super-audio cd's, ja het is beter, zeker voor de audiofiel, maar wat zijn je eisen. De kwaliteit van de apple camera's zijn inmiddels voldoende voor mij.
Een voorbeeld. Mijn 100-400 lens op mijn crop camera DSLR geeft zo'n goed scherp ingezoomd resultaat (b.v. voor fotografie van dieren). Dat kan never-nooit vervangen worden door de smartphone camera.
Waarom zou je met een opzet-lens voor je smartphone niet hetzelfde resultaat kunnen behalen?
Met een smartphone zul je onderwerpen veraf nooit zo dichtbij kunnen halen als met b.v. een 100-400 lens. Het resultaat (qua scherpte en resolutie) is echt dag en nacht verschil.
Zei ik niet "opzet-lens"?
Er zijn heel veel clip-on lenssetjes te koop voor je smartphone, ook tele lenzen. Waarom zou dat niet werken?
Anoniem: 457607 @multikoe7 december 2019 14:24
Dit kun je niet menen. Een lichtsterke 400mm is een paar kilo spatzuiver glas, en jij denkt dat een clipje hetzelfde doet?
Als jij denkt dat een paar kilo glas extra het verschil maakt, dan is het misschien leuk om het volgende artikel eens te lezen:
https://petapixel.com/201...-pro-to-canon-5d-mark-iv/

En als het aantal kilo glas het verschil niet maakt in daglicht, waarom zou dat bij een telelens dan anders zijn?
Anoniem: 457607 @multikoe8 december 2019 11:39
Lees je eigen bron? We hebben het over 400mm, niet een portretsituatie.
Mijn punt is dat gewicht en hoeveelheid glas er niet toe doen. Als je een standaard DSLR nu al kunt vergelijken met een smartphone onder normale lichtomstandigheden dan kun je niet langer volhouden dat de hoeveelheid glas de belangrijkste factor is.
Mijn punt is dat gewicht en hoeveelheid glas er niet toe doen. Als je een standaard DSLR nu al kunt vergelijken met een smartphone onder normale lichtomstandigheden
Dat is dus nog steeds niet het geval. Wil je die discussie nou echt twee keer in één thread gaan voeren?
Dat is dus nog steeds niet het geval
Dat bestrijd ik dus, zeker als je het niet wil uitsplitsen naar scenario's.
Wil je die discussie nou echt twee keer in één thread gaan voeren?
Ik geloof dat dit punt door verschillende mensen wel meer dan twee keer in deze draad wordt opgebracht :)
Heb je dat artikel zelf wel gelezen? Er wordt duidelijk geschreven dat er WEL een zichtbaar verschil is. En dat is nog zonder opzetlens die de kwaliteit degradeert.
Grappig hoe onze vooroordelen verschillende stukken tekst uit het artikel onthouden. Ja natuurlijk was er verschil, dat ontken ik ook niet. Maar ik las:
Still, Jamie was pleasantly surprised with the results. “I think that this could be the future of where cameras are heading,” he tells us. “Despite being fun tech on a smartphone, you can actually fool someone into thinking that some of these photos were taken on a pro-level camera. I don’t think we’re far off from seeing computational photography becoming mainstream.”
Daaruit haal ik mijn voornaamste standpunt: dat smartphones op dit moment in veel gevallen vergelijkbare of soms zelfs betere resultaten opleveren dan DSLRs.
Dus: de hoeveelheid glas doet er niet toe. En opzetlenzen zijn nu misschien nog niet van echt goede kwaliteit maar ook daar geldt: voor heel veel toepassingen leveren ze acceptabele, vergelijkbare resultaten op.
"Some" is niet veel, maar weinig, enkele, een paar. Dat de smartphone betere foto's maakt staat helemaal niet in dat citaat.
"Some" <> "Someone".
Dat smartphones betere resultaten halen dan DSLRs staat inderdaad niet in dat artikel, maar je kunt het destilleren uit het Tweakers-artikel. Er zijn niet zo heel veel DSLR's waarmee je 's nachts uit de hand in de stad kan fotograferen. Er zijn smartphones die dat wel kunnen.
"Some" <> "Someone".
En waar maak je uit op dat ik dat onderscheid niet ken? Waar slaat dit op?
Dat smartphones betere resultaten halen dan DSLRs staat inderdaad niet in dat artikel,
Mar je schrijft zelf dat je het uit dat artikel haalt: "Daaruit haal ik mijn voornaamste standpunt: dat smartphones op dit moment in veel gevallen vergelijkbare of soms zelfs betere resultaten opleveren dan DSLRs."
Er zijn niet zo heel veel DSLR's waarmee je 's nachts uit de hand in de stad kan fotograferen. Er zijn smartphones die dat wel kunnen.
Er zijn niet zo heel veel smartphones waarmee je 's nachts uit de hand in de stad kan fotograferen. Er zijn systeemcamera's die dat wel kunnen.

Oftewel: in beide richtingen een non-argument.
Excuses, niet goed gelezen. Ik dacht dat je refereerde aan "someone" in hetzelfde citaat. Zo zie je maar weer dat ik ook selectief lees...

Ik sta nog steeds achter mijn standpunt dat smartphones in bepaalde scenario's betere resultaten opleveren dan DSLR's. Het artikel waar ik naar link onderbouwd dat niet direct, maar maakt wel dat ik me zekerder voel om die stelling te blijven ondersteunen.

En dat laatste: de algemene teneur van de reacties hier is dat smartphones nog niet op het niveau staan van DSLR's. Dat de nachtfoto's van smartphones bagger zijn. Dat kilo's apparatuur het nooit (kunnen) afleggen tegen een smartphone met z'n ieniewiene lensje. Als we even uit de details blijven, dan kun je die stelling niet volhouden.
Ik sta nog steeds achter mijn standpunt dat smartphones in bepaalde scenario's betere resultaten opleveren dan DSLR's.
Dan kan je vast wel een voorbeeldscenario geven.
En dat laatste: de algemene teneur van de reacties hier is dat smartphones nog niet op het niveau staan van DSLR's. Dat de nachtfoto's van smartphones bagger zijn. Dat kilo's apparatuur het nooit (kunnen) afleggen tegen een smartphone met z'n ieniewiene lensje. Als we even uit de details blijven, dan kun je die stelling niet volhouden.
Ik lees hier drie stellingen. De eerste stelling klopt gewoon: smartphones zitten nog niet op het niveau van systeemcamera's (merk ook even op dat jij hier stelselmatig onterecht "DSLR's" schrijft). De tweede is subjectief, want wat voor de één goed genoeg is, is voor de ander bagger. De derde stelling bevat "nooit" en is daardoor al tricky, en dus kan je inderdaad stellen dat dat lastig vol te houden is.
Eerst even over DSLR's en systeemcamera's. Daar zit voor deze discussie niet zo'n verschil tussen, het gaat om de sensor en de lenzen, niet om de spiegel. En DSLR heeft minder letters. Ik blijf dus gewoon DSLR schrijven.

Dan de scenario's. ik geef toe, dat viel tegen. Ik kon wel wat bedenken, maar allemaal erg ver gezocht. Na wat ongemakkelijk op mijn stoel heen en weer geschoven te hebben moet ik toegeven dat "betere" misschien vervangen moet worden door "vergelijkbare". Maar dan heeft verdere discussie hier geen zin want die wordt elders ook al gevoerd.
Er zijn geen opzet lenzen die zo veel kunnen vergroten. Heb je enig idee wat 400mm (640 op een crop camera) voor vergroting betekent? Is niet mogelijk, en al helemaal niet met behoud van resolutie en scherpte.
En toch, ik heb mensen op safari heel creatief foto's zien maken met een smartphone en een verrekijker :p .

Uiteraard, de kwaliteit viel in het niet bij mijn sony a6000 + sigma 150-600 (lens, waar ga je met die camera heen?)
Het enige wat de smartphone vervangt zijn compact-camera's en DLRS/systeem-camera's die sinds aankoop door hun gebruiker vastgeroest zitten aan hun vrij matige maar bovenal inspiratieloze kit-lens.

Hoewel we eindelijk zo ver zijn dat met een smartphone-camera, het qua scherpte, ruis en dynamisch bereik wel snor zit, blijven het foto's van niveautje compact-camera met slechts een dikke laag post-processing eroverheen.

We zijn nog wel een paar jaar (decennia?) verder voordat de "computational photography" zonder fake-bokeh-artifacts überhaupt in de buurt kan komen van de antieke lenzen die je voor een paar tientjes van een rommelmarkt kan scoren zoals de Meyer-Optic Oreston, de welbekende Helios, of zelfs een standaard F/1.4 "nifty-fifty". Laat staan het moderne lens-geweld, of zodra er flitsers aan te pas moeten komen.

[Reactie gewijzigd door SirNobax op 23 juli 2024 02:50]

blind tests hebben aangetoond dat het verschil niet hoorbaar is tussen super audio cd's en gewone. Gelukkig is het verschil tussen de beste camera nu, de mi note 10, volgens Dxomark en een telefoon van 3 jaar geleden wel erg groot.
Verschil is er zeker alleen voor mij niet meer het meezeulen van alle objectieven waard. Voor we kinderen hadden, had ik nog tijd voor fotografie, nu wil ik die tijd daar niet meer aan kwijt zijn. Daarnaast ben ik spiegelreflex camera moe geworden, overal waar je komt: van dierentuin tot de Veluwe, overal vliegen de objectieven met bodys om de oren, mij heeft het vooral rust gegeven om niet meer alles vast te willen in perfectie. Geniet van het moment zonder een plaatje te schieten! (Dus ook niet meer alles met de smartphone)
Zo is het zeker. Ik moest vroeger ook het allerbeste hebben. Heeft me in totaal een vermogen gekost. Daar niet meer in meegaan scheelt me een hoop geld dus. Daarnaast is het ook nog eens zo dat je oren en ogen duidelijk achteruit gaan, wat de vraag oproept of je het verschil in kwaliteit nog wel kunt zien en horen. Er niet meer extreem mee bezig zijn zorgt er vervolgens voor dat je inderdaad meer in het moment zit.

Moet wel zeggen dat ik genoten heb destijds van die drang naar perfectie. Het gaat om het proces, niet om het resultaat kan ik nu concluderen. Vroeger dacht ik precies andersom. Mooi hoe een mens zich ontwikkelt.

Heb me ook bedacht dat over 10 jaar alle foto's die we nu maken er inferieur uitzien (ik maak foto's voor mezelf, niet om te delen). Dus dan maakt het niet zoveel uit of je als camera een 100 haalt op dxomark of een 121. Vergelijk het met VHS en S-VHS vroeger. Die laatste was veruit superieur en je investeerde er fors in. Nu zien beide beelden er als shit uit op een HD TV. Maakt me een stuk ontspannender, dit gegeven.

[Reactie gewijzigd door P. vd Loo op 23 juli 2024 02:50]

Moet wel zeggen dat ik genoten heb destijds van die drang naar perfectie. Het gaat om het proces, niet om het resultaat kan ik nu concluderen. Vroeger dacht ik precies andersom. Mooi hoe een mens zich ontwikkelt.
Erg herkenbaar! Had ik ook. Vroeger altijd de mooiste videokaarten in mijn pc-tje, terwijl er nu al twee generaties oud in hangt. Terugkijkend vanuit de toekomst zal inderdaad de kwaliteit bagger zijn in vergelijking met wat er dan is!
Ik vraag me af of smartphonecamera's binnen 10 jaar mirrorless/dslr camera's met telelens kunnen vervangen. Voor de meeste foto's ( met goede belichting of weinig beweging, en de standaard lens) heb je inderdaad geen losse camera meer nodig, maar voor bijvoorbeeld actiefoto's of dierenfotografie is het verschil nog gigantisch. De Huawai Mate 30 pro, met de hoogste score bij dxo, mist bij 125mm al veel scherpte en detail. Als ik dat vergelijk met m'n 11 jaar oude 1000D, volgens dxo toen al bagger, op 320mm (ff equivalent) en een bewegend object duurt het nog even voordat we alles met smartphones kunnen fotograferen.
We hebben gekeken of we verschil zagen met deep fusion aan en uit. Het testen daarvan is wat omslachtig, omdat je de optie 'Maak foto's buiten het kader' uit en aan moet zetten in de instellingen, wat via de camera-app niet mogelijk is. Ook werkt het in bepaalde modi niet, zoals in combinatie met smarthdr en de portretmodus. Er zit een duidelijk verschil in verscherping van baardhaar en gezichten en kleding met veel details. Het eindresultaat ziet er daardoor een stuk scherper uit.
'deep fusion' is natuurlijk weer een prachtige Apple marketingterm. Dus dan is het kijken of het echt magic is, of weer eens onzin.

Ik heb dezelfde foto gepakt en er een good ol' unsharp mask overheen gedaan. De onderste twee foto's zijn dus met een unsharp mask. De foto zonder 'deep fusion' met unsharp mask(rechtsonder) ziet er in mijn ogen praktisch precies hetzelfde uit als de 'deep fusion' versie (linksboven):

https://tweakers.net/ext/...Zzy/full.jpg?nohitcount=1
Ben niet ingevoerd in het technisch jargon. Ik begrijp het niet precies. Wat bedoel je nu precies te zeggen? Dat je met een filter hetzelfde effect kan bereiken? En dat Deep Fusion een Apple marketing term is en geen echte "magie".
[...] 'deep fusion' is natuurlijk weer een prachtige Apple marketingterm. Dus dan is het kijken of het echt magic is, of weer eens onzin.

Ik heb dezelfde foto gepakt en er een good ol' unsharp mask overheen gedaan. De onderste twee foto's zijn dus met een unsharp mask. De foto zonder 'deep fusion' met unsharp mask(rechtsonder) ziet er in mijn ogen praktisch precies hetzelfde uit als de 'deep fusion' versie (linksboven):

https://tweakers.net/ext/...Zzy/full.jpg?nohitcount=1
Zeker, een foto achteraf verscherpen kan iedereen. Je mist echter het punt. Niet de gehele foto wordt verscherpt, maar slechts een deel ervan. Namelijk het gezicht en de trui - de achtergrond niet of nauwelijks. Dat kan ook met unsharpmask, maar dat is wel aanzienlijk meer werk omdat je dan eerst handmatig die delen moet selecteren. Daar gaat pagina 2 over.
Hmm ik weet niet of ik hier blij van word.
Een foto hoort de “werkelijkheid” weer te geven, niet een door AI in mekaar geknutseld beeld.
Is dat niet precies waar de AI gedeeltelijk voor zorgt? Het eerste voorbeeld van nachtmodus in het artikel toont een volledig onbruikbare bewogen foto versus een mooi scherp beeld van dezelfde scene. Iets daaronder zie ik een foto van iemand bij wie zijn baard duidelijk waarneembaar scherper is met dank aan 'deep fusion'. IMHO wordt de AI dus niet alleen ingezet om de werkelijk mooier te maken (gebeurt natuurlijk ook met portrait mode e.d.), maar ook om de werkelijkheid beter te kunnen benaderen ondanks tekortkomingen in de hardware. Dat kan ik alleen maar toejuichen.
Mijn mening wordt ook aangehaald in het artikel, dus van't zo'n bizar andere planeet blijk ik dan toch weer niet afkomstig.

"Hierdoor wordt het verschil tussen de resultaten van smartphones en die van deze camera's steeds groter en moet je als camerabezitter steeds meer je best doen om dezelfde geoptimaliseerde resultaten te halen als met een smartphone. Voor gevorderde amateurs en professionals is dat geen probleem. Zij weten welk resultaat ze beogen en stellen de sluitertijd-, iso- en diafragmawaarde daarop af. En het liefst fotograferen ze in raw, waarmee niet alleen de best mogelijke beeldkwaliteit wordt opgeslagen, maar waarbij de bewerkingsruimte ook het grootst is. Voor minder ervaren fotografen wordt de lat steeds een stukje hoger gelegd. Een nachtfoto uit de hand maken is tegenwoordig met een smartphone een stukje gemakkelijker en sneller dan met een spiegelreflex, en op Instagram-niveau is het verschil soms amper zichtbaar. Toch werken camerafabrikanten ook aan het gebruik van kunstmatige intelligentie, voor de jpeg-beelden althans."
Een foto geeft zelden de werkelijkheid weer, je kiest tenslotte je uitsnede het onderwerp en de compositie. Elke foto is op zijn best een deel van de werkelijkheid waarin je je bevind.

Een foto is een interpretatie van een deel werkelijkheid, niet de weergave ervan
Ik wil eigenlijk niet weer oude koeien uit de sloot halen, maar dit argument is onbruikbaar. Echt onbruikbaar. Elke foto is een bewerkte weergave van de werkelijkheid. Lenzen, film-emulsies, ontwikkelmethodes in de Doka, afdruktechnieken en zelfs de uiteindelijke fysieke presentatie zorgden er allemaal voor dat wat je op papier zag, helemaal niet overeen hoefde te komen met de werkelijkheid.
Moderne digitale fotografie doet daar een paar flinke scheppen bovenop, maar er is niet een enkel omslagpunt waaronder een foto de werkelijkheid weergeeft en waarboven niet meer. Dat omslagpunt is afhankelijk van je persoonlijke definitie.
Op het moment dat je probeert te definieren wat "werkelijkheid" in een foto is, belandt je in een doolhof waar je niet meer uitkomt. Het heeft dus geen zin.
Voor mij is werkelijkheid wat ik op dat moment door mijn zoeker kon zien.
Dus als iets niet scherp is wil ik niet dat een toestel voor mij gaat bepalen dat het wel scherp moet.
Als iemands gelaatstrekken moeilijk waarneemaar zijn, dan wil ik niet dat dit geinterprteerd word door AI. Op dat moment geeft de computer een interpretatie aan de werkelijkheid..
OK, daar gaan we (ik had je gewaarschuwd):
wat jij door je zoeker ziet is niet wat jouw oog ziet als je je hoofd achter de camera vandaan haalt.
Wat een lens onscherp ziet is in werkelijkheid niet onscherp. Zeker met een lens met een erg groot diafragma. Als jij dus zegt: ik wil bepalen wat scherp wordt, dan geef je al toe dat je de mogelijkheid hebt het beeld te manipuleren en feitelijk ben je dan dus bezig de werkelijkheid te manipuleren.
Volgens mij wil je het express niet begrijpen.

Als ik door de zoeker zie en het is onscherp, dan wil ik dat beeld en niet een AI die nadat ik heb afgedrukt al aan post-processing doet. Dan laat je de AI het beeld bepalen, niet jouw creativiteit.
Ik begrijp je prima, ik wil alleen het begrip "werkelijkheid" uit de discussie hebben. Wat jij door de zoeker ziet is niet de werkelijkheid want de door jouw gebruikte lens (of, als je het ingewikkelder wil maken: plus eventuele filters) bepaalt wat jij ziet. Het wordt nog erger als je een elektronische zoeker hebt en geen optische.
Maar laten we verder gaan: waar het jou namelijk om gaat is dat jij het manipuleren van het beeld zelf wil beheersen en niet wil overlaten aan een AI. Toch? Als dat zo is, is het dan OK als je de AI het werk laat doen, gebaseerd op instellingen die jij aangeeft? Uitleg: je vindt het kennelijk OK om de scherpte te kunnen bepalen door aan de scherpstelring te draaien of het diafragma van in te stellen. Maar als je op je smartphone een draaischijf ziet waarmee je kunt bepalen wat er in de foto scherp of onscherp wordt, is het dan wel OK? Voor de duidelijkheid: het beeld waar de camera gebruik van maakt is door het kleine lensje van voor tot achter scherp. De software bepaalt wat er onscherp wordt en wat niet en daar is AI voor nodig. Maar als die AI kan bepalen wat scherp en onscherp wordt, dan kan ik die AI ook vertellen wat ik wel en niet scherp wil hebben.
Is het eindresultaat dan niet exact hetzelfde?: een foto waar het onderwerp scherp is en de rest niet (of andersom, afhankelijk van hoe creatief je wil zijn).
Mooi overzicht!

Ik ben nog opzoek naar desktop applicaties (voor Mac) of evt iPad apps die hetzelfde kunnen voor gewone foto’s. Vaak gaan filters en andere bewerkingen daar ‘domweg’ over de hele foto, in plaats van op een slimme manier.
Voor zover ik weet doet affinity photo bijvoorbeeld bij stacking of HDR geen lokale optimalisaties (maar proberen ze traditioneel foto’s over elkaar heen te liggen)
Goede vraag. Ik durf niet met zekerheid te stellen dat er software bestaat die dezelfde slimme bewerkingen doet, met nadruk op lokale bewerking in plaats van de gehele foto ineens. Misschien dat anderen dat weten? Aurora HDR (van Skylum) claimt dit wel min of meer, maar ik weet niet zeker of AI als buzzword gebruikt of daadwerkelijk slim ingezet wordt.

Het grote verschil is ook dat een smartphone de instellingen van de foto's dus ook op de bewerkingen afstemt, zoals bijvoorbeeld vier foto's met korte sluitertijd en vier foto's met een lange (afhankelijk van de scene). Dat is voor een universeel softwarepakket een stuk lastiger.
Klopt en ik denk dat telefoons die dingen ook nog eens direct op de rauwe data doen. Bij de software pakketten die ik ken moet je eerst ontwikkelen voordat je stacking of HDR doet

Neemt niet weg dat het wel zou moeten kunnen :)

Aurora gebruikt voor zover ik de marketing snap de ml voor het bepalen van filter instellingen (doe dus op de hele foto worden toegepast)

Ben benieuwd naar reacties van anderen!
Bedankt voor het interessante artikel.

Opmerking: de foto in de kerk is genomen met de Ultra Wide lens van de 11 Pro. Deze lens ondersteund standaard geen nacht modus. Hebben jullie dit via een andere app voor elkaar gekregen of staat de foto er per abuis tussen?
Goed punt en knap gespot. Dit is bij nader inzien inderdaad geen nachtfoto maar een smart-hdr. Ik had nog wat andere foto's van die kerk waarbij het donker genoeg was voor de nachtmodus. Maar met de ultra wide is dat inderdaad (helaas) geen optie. Helaas kun je achteraf in de exif niet zien of de nachtmodus actief was.
Er is een app in de App Store “Metapho” en daarmee kan je zien als een foto Deep Fusion heeft of Nachtmodus.
Zelf ook een systeemcamera's plus dito lenzen in het bezit. Uiteindelijk gaat het erom wat @no_way_today hierboven al schrijft, wat zijn de eisen voor de foto. Voor Instagram, foto's bekijken op je telefoon heb je geen high end camera nodig. Uitvergrote afdrukken en fotoalbums weer meer. Telefoons zijn gewoon makkelijker en goed genoeg voor de meeste mensen. Ik roep echt niet dat dat voor mij ook een keer gebeurt.

Overigens is de keuze van je lens en uitsnede die je maakt al een vervorming van de werkelijkheid. Daar kan software nog een schepje bovenop doen.
Daarnaast zijn kleuren een keuze, probleem bij telefoons is denk ik dat die keuze te beperkt is.
Zelf ook een systeemcamera's plus dito lenzen in het bezit. Uiteindelijk gaat het erom wat @no_way_today hierboven al schrijft, wat zijn de eisen voor de foto. Voor Instagram, foto's bekijken op je telefoon heb je geen high end camera nodig. Uitvergrote afdrukken en fotoalbums weer meer.
Daarmee suggereer je dat de voordelen alleen zichtbaar zijn op groot formaat. Je vergeet dat een camerasysteem niet alleen betere kwailteit levert, maar ook veel veelzijdiger is. Probeer met je iPhone 11 maar eens een mooie wildlifefoto op Instagram te zetten. Ga lekker met een smartphone langs een voetbalveld of atletiekbaan zitten. Wedden dat je het kwaliteitsverschil ook op een telefoonscherm ziet? Of regel even een mooie portretfoto waarbij je meerdere flitsers tegelijk aan moet sturen. Dan zal je merken dat dat hele Instagram/grote afdruk-verhaal er helemaal niet toe doet.
Over jullie test met deep fusion: kan je DF krijgen in portrait mode?
Goed punt! Mijn aanname was van wel, maar blijkbaar niet. 8)7 Gelukkig heb ik dezelfde reeks met diverse instellingen en variaties gemaakt, waaronder met en zonder portretmodus. Ik heb alles dus nog een keer nagelopen en de versie zonder portretmodus toont inderdaad een aanmerkelijk groter verschil. Die dus net alsnog toegevoegd! ☺

P.S. Metapho is nu ook geïnstalleerd

Op dit item kan niet meer gereageerd worden.