Inleiding
Het begrip 'fotografie' is langzaam aan het veranderen, want wat is nog een pure foto? Is de fotograaf de maker of de camera? In principe natuurlijk de fotograaf, maar of dat over tien jaar nog zo is, is de vraag. Die ontwikkeling begon al met de introductie van de digitale fotografie. Moest je met een analoog filmrolletje twee dagen wachten voordat je je foto's kon zien, met een digitale camera zie je direct het resultaat. Het gevolg is dat het percentage mislukte foto's in elk geval in potentie is afgenomen. Je kunt immers meteen zien of de belichting niet klopt en of een foto onscherp is. Ook het gebruik van raw, optische beeldstabilisatie en in-camera-bewerking dragen bij aan een geslaagde foto.
/i/2000574711.jpeg?f=imagenormal)
Dat laatste, fotobewerking in de camera, wordt steeds belangrijker. Fabrikanten werken lensfouten als vertekeningen en vignettering steeds vaker softwarematig weg, waardoor die niet of nauwelijks zijn terug te zien in de jpegs. In de raws zijn ze natuurlijk nog steeds zichtbaar, maar ook software als Lightroom en Photoshop is inmiddels standaard voorzien van lensprofielen waarmee oneffenheden worden gecorrigeerd. Tegelijkertijd zijn er steeds slimmere ruisreductiealgoritmen ontwikkeld. Ruis wordt niet meer integraal weggewerkt, maar lokaal aangepakt. Gebieden met veel contrast, zoals felle lampen in het donker, worden met rust gelaten, zodat ze niet inboeten aan scherpte en detail. Donkere delen, waarin ruis het meest zichtbaar is, worden daarentegen flink verzacht en kleurruis valt hier weg doordat de kleurverzadiging wordt teruggeschroefd.
Dezelfde trend is te zien bij smartphones. Sterker nog, doordat er tegenwoordig meer foto's met een smartphone worden gemaakt dan met een reguliere camera, wordt deze categorie steeds belangrijker. Smartphones beschikken bovendien over veel rekenkracht, dankzij processors met meer dan één rekenkern en hoge klokfrequenties. Die rekenkracht kan gebruikt worden om lensfouten te corrigeren, foto's te verfraaien en een flink aantal foto's in burst te maken om vervolgens de beste te selecteren. Daarnaast is het gebruik van hdr tegenwoordig vrijwel standaard en wordt het vaak automatisch toegepast.
Er staat echter nog meer te gebeuren op foto- en videogebied. Wat doen camera's vandaag de dag om het optimale plaatje te presenteren en welke ontwikkelingen zijn er voor de nabije toekomst te verwachten?
Computational photography
We fotograferen niet meer op basis van fotochemische film, maar digitaal dankzij een lichtgevoelige sensor. Los van alle voordelen die dit biedt, is aan de wijze van fotograferen eigenlijk weinig veranderd. We fotograferen nog steeds volgens het klassieke camera obscura-principe uit 1839, waarbij een lens en een fotogevoelige detector, de sensor, samen het beeld vormen. Sinds het digitale tijdperk is daar wel een processor aan toegevoegd, maar deze speelt tot nu toe geen rol bij de totstandkoming van het beeld. De bewerking van het beeld volgt pas na de sensor.
Dat kan ook anders. Er zou bijvoorbeeld andere optiek gebruikt kunnen worden, waarbij een driedimensionaal lichtveld wordt opgevangen in plaats van een plat beeld. De processor zou een veel prominentere rol kunnen krijgen, die veel meer bepalend is voor het eindresultaat. De gedachte hierachter is tweeledig; een traditionele foto toont slechts een 2d-weergave en dus maar een deel van de werkelijkheid, en het beeld van een foto rolt zelden perfect uit de camera. Door niet één foto te maken, maar meer, met verschillende instellingen, is sprake van uiteenlopende perspectieven die je kunt gebruiken om tot één samengestelde plaat te komen. Daarbij kan ook de resolutie van een foto kunstmatig verhoogd worden. Hasselblad doet dit momenteel al met de H5D, waarbij een foto met een resolutie van 200 megapixel kan worden geproduceerd op basis van een 50-megapixelsensor.

Meer dan één foto maken volgens de multishot-methode leidt tot een hogere resolutie
Bij computational photography is het de intentie om een potentieel rijkere representatie te maken van een bepaalde scène. Bijvoorbeeld door de eerder genoemde opties, maar ook door kunstmatige optimalisatie van het beeld door middel van rekenkracht. Op dit moment wordt de rekenkracht van een processor amper ten volle benut. Een gemaakte foto wordt verscherpt, voorzien van meer contrast en kleurverzadiging, en ruis wordt gereduceerd. Dat is het wel, terwijl het met de huidige technologie mogelijk is om veel meer te doen dan dat.
Wat daarvoor nodig is, is een slim algoritme, dat herkent wat er gefotografeerd wordt en analyseert in hoeverre de foto goed is. In het geval van tekst zou een een specifiek verscherpingsalgoritme ertoe kunnen leiden dat aanvankelijk onscherpe tekst toch leesbaar wordt. Van een onderbelichte foto zou de belichting achteraf kunnen worden bijgesteld, zodat er in ieder geval iets te zien is, en bij een te lichte foto vice versa.
Het bedrijf Almalence is al actief bezig met dit concept en heeft ook een app uitgebracht, Supersensor genaamd. Het verkoopt zijn software ook aan smartphonefabrikanten en claimt een verbeterd dynamisch bereik, betere ruisreductie-algoritmes voor slechte lichtomstandigheden, het zichtbaar maken van details in schaduwen en hooglichten, en het corrigeren van verkeerde belichtingen.

Een smartphone zit vol met allerlei sensoren die het algemene gebruik van het apparaat ten goede komen. In camera's wordt daar nog maar zeer beperkt gebruik van gemaakt. Wifi, nfc, bluetooth, gps, een gyroscoop en een accelerometer zitten in vrijwel iedere telefoon, maar lang niet altijd in camera's. Eigenlijk is dat zonde, want al die snufjes kunnen camera's helpen om 'intelligenter' te worden en beter in te spelen op de omstandigheden.
Camera's zouden veel meer kunnen doen met locatiebepaling en tijd. Ze zouden onderwerpen concreet kunnen herkennen, zoals een zonsondergang of een bepaald gebouw en daar in de automatische stand de optimale instellingen op afstemmen. Ook zouden ze de gebruiker er bijvoorbeeld op kunnen wijzen dat de zon bijna ondergaat en een suggestie kunnen geven voor het beste standpunt. De Hyperlapse-app van Instagram, momenteel alleen beschikbaar voor iOS, is een goed praktijkvoorbeeld van computational photography. De app gebruikt de gyroscoop van een smartphone in combinatie met digitale stabilisatie, waarbij de randen van het beeld worden opgeofferd om een scène vloeiend te maken. Daardoor kan probleemloos uit de hand gefilmd worden.

De mate waarin kunstmatige intelligentie wordt toegepast valt nog wel te verbeteren. In de automatische stand bijvoorbeeld kijkt een camera puur naar de beschikbare hoeveelheid licht. Is die te laag, dan gaat hij flitsen. Dat is vreemd, aangezien diezelfde camera dankzij de autofocus weet hoe ver weg het onderwerp van de camera verwijderd is. Fotografeer je vanaf de tribune een voetbalwedstrijd, dan heeft flitsen weinig zin, want een flitser heeft doorgaans een bereik van slechts enkele meters.
Beeldoptimalisatie en hdr
Er worden momenteel wel wat stappen gemaakt als het gaat om beeldoptimalisatie. Ruis wordt op een slimme manier gereduceerd, waarbij de contrastrijke delen anders worden behandeld dan de donkere. Verscherping, contrast en kleurverzadiging worden opgepept, waardoor je bijvoorbeeld smartphonefoto's zonder nabewerking direct online kunt plaatsen. Sommige camera's maken indien gewenst zelf een uitsnede, bijvoorbeeld als in de horizontale stand een persoon wordt gefotografeerd; de gezichtsherkenning herkent het portret. Bij contrastrijk beeld wordt automatisch de hdr-stand ingeschakeld, waardoor de belichting een stuk beter wordt. Dit is voor fotografie interessant, maar in principe ook voor video.
Het gebruik van hdr is een zeer effectieve methode om details in donkere schaduwpartijen en felle hooglichten optimaal te tonen in een foto. Met een enkele opname is dit niet mogelijk, dus worden er drie of meer foto's gemaakt met verschillende belichtingstijden - normaal, onderbelicht en overbelicht - waarvan het resultaat wordt samengevoegd. Het dynamisch bereik van de sensor is minder groot dan dat van het menselijk oog, maar door het gebruik van hdr wordt dit voor een groot deel gecompenseerd.
Links de normale foto, rechts een hdr-versie op basis van drie verschillende belichtingen
De bovenstaande twee foto's tonen een praktijkvoorbeeld. De zon zorgt voor wat tegenlicht, wat leidt tot een groot contrast tussen lichte en donkere delen. Dat gaat vooral ten koste van de donkere delen, die niet belicht worden door de zon, zoals de grafstenen. Je oog is redelijk in staat om details in donkere en lichte delen te zien, maar een camera kan dat niet. Een foto met standaardbelichting, bijvoorbeeld in de automatische stand, levert een contrastloos plaatje op; schaduwen zijn zwart, de lucht is wit. Als je overbelicht, worden de kerk en de grafstenen goed zichtbaar, maar wordt de lucht een felle gloed. Als je onderbelicht vice versa. Een hdr-opname op basis van verschillende belichtingen biedt uitkomst. Alle details zijn nu goed zichtbaar.

Het verschil tussen het mensenlijk oog en camera’s (afbeelding: Ricoh)
In het donker worden onze pupillen groter, waardoor we bij slecht licht beter kunnen zien, maar fel licht doet dan wel pijn aan onze ogen. Een sensor heeft een kleiner dynamisch bereik, oftewel een camera ziet minder kleurgradaties tussen pikzwart en helderwit. Een camera met een grote sensor heeft gemiddeld circa 12 stops dynamisch bereik, terwijl het menselijk oog dankzij de pupil in staat is om 12 tot 24 stops waar te nemen. Dankzij het gebruik van hdr weet een camera dit verschil aardig te compenseren.
Bij het maken van een hdr-foto worden verschillende foto's met verschillende belichtingen samengevoegd in één bestand met een groter dynamisch bereik. Een dergelijk 32bit-bestand bevat meer kleurtinten en dynamisch bereik dan de meeste monitoren kunnen weergeven, waardoor het beeld eerst moet worden omgezet in een reguliere foto met behulp van tone mapping. Maar een al te agressieve vorm van tone mapping oogt al snel surrealistisch en komt daardoor niet meer overeen met de werkelijke scène.
Sensortechniek en zoom
Sensor met variabele pixels
Op sensorgebied zijn er eveneens allerlei nieuwe ontwikkelingen gaande. Een interessant patent van Sony, dat eind 2014 in de openbaarheid kwam, toont een sensor met een variabele lichtgevoeligheid per pixel. Het patent toont twee soorten pixels, voor korte en voor lange belichting. Dat impliceert dat een bepaalde sluitertijd of iso-waarde niet meer voor de hele sensor hoeft te gelden, maar per pixel kan variëren. Zeg maar een soort hdr-opname, maar dan in een enkele foto. Het samenvoegen van drie of meer opnamen is dan dus niet meer nodig.

Een dergelijk sensorontwerp kan betekenen dat de belichting of de gevoeligheid van de pixels wordt afgestemd op de opname. Voor een deel van de opname met fel licht zou daardoor een kortere belichting of lagere iso-waarde kunnen worden gebruikt dan voor een donker deel. Dat zou het dynamisch bereik ten goede komen, doordat de opname optimaal is afgestemd.
Eigenlijk is dat best een logische benadering. Het lijkt logischer dan de huidige methode, waarbij alle pixels op de sensor dezelfde lichtgevoeligheid of belichting hebben. Een variabele belichting of lichtgevoeligheid stelt wel strenge eisen aan het sensorontwerp, waaronder het kunnen aansturen van individuele pixels. Bovendien kan het tot ongewenste neveneffecten leiden, zoals interferentie van het signaal van de verschillende pixels.

Voor een dergelijk sensorontwerp is er keuze uit twee uitgangspunten: individuele belichting of individuele lichtgevoeligheid. In het eerste geval varieert de sluitertijd per pixel, wat een elektronische sluiter vereist. Doordat de lengte van de opname verschilt, werkt dit niet of slecht bij bewegende objecten, zoals verkeer of een propeller, net zoals rolling shutter. Je kunt ook uitgaan van een variabele lichtgevoeligheid. De sluitertijd blijft dan gelijk, maar de iso-waarde varieert per pixel. Je zou de lichtgevoeligheid standaard bij iso 3200 kunnen laten beginnen en laten afnemen naarmate er meer licht beschikbaar is. Dit voorkomt te lange sluitertijden, maar werkt ruis in de hand.

Oversampling
Een veelbelovende techniek, vooral voor smartphones, is oversampling. De bekendste praktijkvoorbeelden zijn de Nokia 808 PureView en Lumia 1020. De sensoren tellen 41 megapixels waarop oversampling oftewel pixel binning wordt toegepast. Hierbij wordt de informatie uit een stuk of acht pixels gebruikt om de juiste tint voor een enkele 'superpixel' te bepalen. Dit resulteert in 5-megapixelfoto's die er daardoor veel beter uitzien dan native 5-megapixelfoto's, waarbij elke sensorpixel één pixel op de foto produceert. Ook kleurruis wordt hierdoor gereduceerd.
Een dergelijke grote resolutie kan daardoor ook worden gebruikt voor digitale zoom. Normaal gesproken gaat digitale zoom ten koste van de beeldkwaliteit, omdat het niet meer detail oplevert. Als je daarentegen een 41-megapixelbestand tot je beschikking hebt en daar een 5-megapixelfoto van maakt, hou je voldoende ruimte over om te 'zoomen'.
/i/2000573983.jpeg?f=imagenormal)
Tot nu toe hebben andere smartphonefabrikanten het voorbeeld van Nokia nog niet gevolgd, maar het ligt wel voor de hand dat dit ooit gaat gebeuren. Omdat een smartphone dun moet zijn, is er erg weinig ruimte voor de optiek. De bewegende lenselementen die nodig zijn voor optische zoom zijn daardoor een serieus struikelblok. De methode die Nokia, nu Microsoft, in zijn Lumia-smartphones gebruikt, is een creatief alternatief. Het vereist overigens wel een grotere sensor dan normaal, omdat veel pixeldiodes op een klein oppervlak leiden tot crosstalk, oftewel interferentie, van het signaal door nabijgelegen pixels. Dat leidt weer tot meer ruis, hoewel het verkleinen van de resolutie dit deels compenseert.
Zoomen met twee lenzen
Er zijn nog andere methoden om zoom in een smartphonecamera te realiseren. Een daarvan is een methode van Corephotonics die werkt op basis van twee verschillende lenzen: een groothoeklens en een lichte telelens. Deze twee camera's maken op hetzelfde moment een foto en leggen dan twee verschillende perspectieven vast. Op basis van deze twee beelden is het door middel van computational photography mogelijk om te zoomen zonder optische elementen.

De eerste foto hieronder toont het effect van 3x digitale zoom in klassieke vorm. De tweede foto zou het resultaat zijn van dual image zoom van Corephotonics. De derde foto toont een prototype met twee verschillende lenzen en sensoren.
Achteraf scherpstellen
Lichtveldfotografie, waarmee je achteraf kunt scherpstellen, wordt gezien als een revolutionaire manier van fotograferen. Lytro is de bekendste fabrikant van lichtveldcamera's, oftewel plenoptische camera's. In tegenstelling tot conventionele digitale camera's kunnen ze het driedimensionale lichtveld van een scène opnemen. Dat wil zeggen dat de beeldsensor niet alleen de positie en richting van een lichtstraal vastlegt, maar ook de intensiteit voor elk van die variabelen. Dit wordt gerealiseerd door een raster van microlenzen in de lens en voor de beeldsensor te plaatsen, waarbij het sensoroppervlak als het ware wordt onderverdeeld in verschillende vlakken die ieder hun eigen informatie vastleggen. In feite worden er dus verschillende beelden tegelijkertijd vastgelegd in een enkele foto, wat verklaart waarom de resolutie een stuk lager is.

Een voorbeeld van een grid van lensjes die verschillende scherpstelvlakken vastleggen (foto: Adobe)
Met die beeldfragmenten kunnen tussenliggende beelden worden gecreëerd, zodat ze vloeiend in elkaar kunnen overlopen. Vervolgens kan op die manier een driedimensionale simulatie worden gecreëerd, waarbij alles in het beeld in focus is, oftewel maximale scherptediepte. Tegelijk is het dus mogelijk om voor beperkte scherptediepte te kiezen, waarbij het scherpstelpunt achteraf kan worden gekozen door op het onderwerp te klikken. Doordat de camera over diepte-informatie beschikt, 'weet' hij welk onderwerp je bedoelt als je erop klikt en kan hij vervolgens de juiste scherptediepte-informatie tonen.
Bij een conventionele camera vangt de sensor al het licht in één keer op en met dat ene beeld moet je het vervolgens doen; er valt niets meer aan te wijzigen. Bij een lichtveldcamera worden verschillende lichtstralen opgevangen en dus verschillende beelden van dezelfde scène, met ieder een eigen scherptediepte. De informatie uit een scène moet op diverse beeldpunten worden afgebeeld, zodat de informatie over de richting van de invallende straal gebruikt kan worden.
Dynamisch perspectief
Omdat het licht uit verschillende hoeken komt en dus door de microlenzen steeds net iets anders via de sensor wordt opgeslagen, zijn verschillende perspectieven van dezelfde foto beschikbaar. De linkerkant van de lens 'ziet' het beeld immers net iets anders dan de rechterkant, oftewel het beeld is niet twee-, maar driedimensionaal. Daardoor is het mogelijk om met één enkele lens een 3d-foto te produceren of om het perspectief van de foto een klein beetje te verplaatsen, zodat voorgrond en achtergrond ten opzichte van elkaar verschuiven.
Foto's embedden
Omdat Lytro-foto's met speciale software online worden geplaatst, oftewel embed, kun je niet alleen zelf met je foto's 'spelen', maar ook iedereen die ze online bekijkt. Dat geldt zowel voor het verplaatsen van het perspectief als het achteraf scherpstellen. Vanwege deze interactieve mogelijkheden spreekt Lytro zelf over 'levende foto's'. Uiteraard is het ook mogelijk om de gemaakte beelden om te zetten in een statische foto. Je kunt dan zelf een scherpstelpunt kiezen en de scherptediepte bepalen.
Vergelijking met andere methoden
Zoals gezegd was Lytro de eerste, maar is het tegenwoordig niet meer de enige met camera's waarmee je achteraf kunt scherpstellen. Voor Nokia Lumia-toestellen is er de Refocus-app waarmee dat kan en de HTC One M8 heeft een speciale dieptecamera om achteraf scherp te kunnen stellen. Voor iOS zijn er eveneens apps waarmee dat kan, maar de gebruikte methoden zijn allemaal grotendeels softwarematig.
De Nokia Refocus-app en veel andere apps maken simpelweg een reeks foto's waarbij telkens op een ander punt wordt scherpgesteld, zodat je achteraf de juiste kunt kiezen, zonder dat er daadwerkelijk diepte-informatie beschikbaar is. De HTC One M8 beschikt wel over diepte-informatie, maar manipuleert op basis daarvan het beeld door delen van de foto onscherp te maken. Geen van beide methoden werkt vlekkeloos; apps maken verschillende foto's achter elkaar en hebben daar merkbaar tijd voor nodig. De Lytro-camera legt in één keer alle beeldinformatie vast en alleen die methode is dus geschikt voor actiefoto's.
Min of meer vergelijkbaar met de softwarematige methode is focus stacking. Deze techniek wordt vooral bij macrofotografie gebruikt, met als doel het scherptegebied groter te maken dan in één opname mogelijk is. Bij macrofotografie zit je doorgaans dicht op het onderwerp, bijvoorbeeld een bloem of insect, waardoor de scherptediepte beperkt is. Je kunt die vergroten door meer opnamen te maken, het scherptegebied telkens handmatig op te schuiven en de lagen van de foto's samen te voegen, bijvoorbeeld in Photoshop.
Lytro Illum
Vergeleken met de eerste Lytro-camera is de Illum totaal anders vormgegeven. De oorspronkelijke Lytro was een langwerpige, rechthoekige camera, die er onconventioneel uitzag. Hoewel hij zich redelijk liet bedienen met een knop aan de bovenzijde en een klein aanraakgevoelig 1,5"-lcd-scherm, hield hij minder prettig vast dan een traditionele camera. En hoewel de camera over 8 of 16GB opslagcapaciteit beschikte, was de prijs fors, zeker als je bedenkt dat de resolutie slechts 1024x1024 pixels bedroeg.
De Lytro Illum heeft nu de vorm van een traditionele camera. Hoewel de body futuristisch oogt, is het eigenlijk een soort bridgecamera met vast zoomobjectief. De sensor heeft een resolutie van 40 'megarays', zoals Lytro dat noemt, wat neerkomt op 4 megapixels. Dat is nog steeds erg weinig ten opzichte van de huidige generatie camera's, maar wel vier keer zoveel als de originele Lytro. Dat geldt evengoed voor de sensor, die circa vier keer zo groot is. Gebruikte men eerst nog een 1/3"-sensor, wat formaat betreft vergelijkbaar met de sensor van een mobiele-telefooncamera, nu gaat het om een 1"-sensor met een onderliggende resolutie van 40 megapixel.
De zoomlens heeft een bereik van 30-250mm, wat neerkomt op 8x optische zoom. Dat is mooi, al komt de groothoekzijde er karig vanaf. Het objectief biedt een lichtsterkte van f/2.0 over het hele bereik en fotografeert ook op volle lensopening. Volgens Lytro is men dankzij de lichtveldtechnologie beter in staat om aberratiecorrectie softwarematig toe te passen, waardoor er minder lenselementen noodzakelijk waren.
Is dit de toekomst?
Lichtveldtechnologie is veelbelovend, maar tot nu toe vooral op papier. Het achteraf kunnen scherpstellen en de andere unieke eigenschappen van een lichtveldcamera zijn slechts in een beperkt aantal situaties handig en voor de gewone consument niet essentieel. Tel daarbij op dat camera's als de Lytro's vrij duur zijn, zeker als je kijkt naar de foto's die dat uiteindelijk oplevert. Met goedkopere camera's maak je kwalitatief betere foto's, mits ze scherp zijn natuurlijk. Als de huidige knelpunten, zoals de beperkte resolutie en hoge prijs, zijn opgelost, zou het best een interessante toevoeging aan de fotografie van de toekomst kunnen zijn.
Video
Is video de toekomst van de fotografie? Het klinkt misschien vreemd, maar het zou zomaar kunnen. Sinds dslr's en systeemcamera's ook uitstekend kunnen filmen, is deze tak van sport steeds populairder geworden. Niet alleen onder professionals, voor wie dergelijke camera's relatief goedkoop zijn, maar evenzeer voor amateurfotografen, die met hun camera net zo goed met scherptediepte kunnen spelen als met professionele modellen kan. Op internet worden bewegend beeld en geluid steeds belangrijker, ten koste van statische tekst en foto's.

8k-video
De grootste 'bedreiging' voor fotografie komt misschien wel van 8k-video. Hoewel er wat content betreft nog een lange weg te gaan is, wordt er met 4k momenteel flink aan de weg getimmerd. De tv's zijn er en het aantal fotocamera's, smartphones en actiecamera's dat in 4k kan opnemen, stijgt snel.
Hoewel de stap van full hd naar 4k minder groot lijkt dan die van sd naar hd, is die fotografisch gezien best flink. Een hdtv gebruikt een resolutie van slechts 2 megapixel. Dat is een fotoresolutie die vijftien jaar geleden nog normaal was, maar nu niets meer voorstelt. Zelfs consumentencamera's werken tegenwoordig met 16 tot 24 megapixel. Met de stap naar 4k springen we van 2 naar 8 megapixel en dat is aanzienlijk. Niet alleen voor films en tv is een 4k-tv interessant, maar daarnaast voor het bekijken van foto's, omdat je beduidend meer details ziet en de beleving daardoor meer voelbaar wordt. Een dergelijke resolutie maakt het tegelijk makkelijker om stills te maken, oftewel een beeld uit een video op te slaan als een foto. Waar een 2-megapixelfoto prima bruikbaar is voor Facebook, is een 8-megapixelfoto geschikt voor afdrukken op posterformaat.
Stills
Met 8k, de logische opvolger van 4k, springen we van 8 naar 32 megapixels en dat is een resolutie die op dit moment beduidend hoger ligt dan die van fotocamera's. Slechts twee fullframe camera's, de Nikon D810 en de Sony A7R, hebben een hogere resolutie, van 36 megapixels, al ligt het voor de hand dat dit in de komende tijd verder zal toenemen.
De vraag is of je over enkele jaren niet beter kunt gaan filmen dan fotograferen. Denk bijvoorbeeld aan het vastleggen van snelle actie. Met een video in 8k-resolutie en 30 beelden per seconde heb je meer kans om een bepaald fragment vast te leggen dan met een camera die 10 tot 15 foto's per seconde kan maken. Dat geldt nog sterker als je in een iets lagere resolutie filmt met 60, 120 of 240fps. Momenteel moeten we voor slow motion nog omschakelen naar 720p-hd, maar met de alsmaar toenemende rekenkracht ligt het voor de hand dat we dat straks in full hd en 4k kunnen doen.
/i/2000574710.png?f=imagenormal)
Coverfoto's gemaakt met een videocamera
Videobedrijf Red heeft al een camera die in 6k kan opnemen, de Red Epic Dragon. Daaruit kun je stills destilleren met een resolutie van 19 megapixel, wat ook voor een fotocamera alleszins acceptabel is. Red benadrukt dan ook, natuurlijk niet zonder eigen belang, dat een dergelijke camera voor fotografiedoeleinden eveneens interessant zou zijn. Sterker nog, op de site van Red pronken allemaal covers, van onder andere Vogue, Elle en Time, die met een Red videocamera gemaakt zijn. Dankzij led-lampen is er voldoende licht te realiseren in studio's en video stelt de fotograaf in staat exact het juiste moment te pakken.

Misschien is video de toekomst, maar gespecialiseerde fotografie blijft bestaan
Gespecialiseerde fotografie
Zelfs als het destilleren van stills uit 4k- en 8k-video gebruikelijk wordt, blijft pure fotografie bestaan. Bij actiefotografie zijn veel foto's per seconde en korte sluitertijden niet altijd noodzakelijk, maar kan het juist mooi zijn om beweging te tonen, zoals het meetrekken van een motorrijder. En er zal altijd behoefte blijven aan foto's met een zeer hoge resolutie, zelfs meer dan die 32 megapixels van 8k-video.
Dat video in de toekomst meer wordt ingezet voor fotografische doeleinden lijkt echter onvermijdelijk. Stel je bent fotojournalist en je wacht op een bepaalde actie, zoals een politicus die naar buiten komt, en je moet kiezen: filmen met 30fps in 8k of losse foto's maken, wat biedt dan de grootste trefkans? Video, want daarmee kun je nauwkeurig de juiste expressie of het juiste moment pakken en het frame opslaan als een 32-megapixelfoto.
Uiteraard komt het gebruik van video met een aantal nieuwe uitdagingen, waardoor fotografie niet plotsklaps zal verdwijnen. Allereerst is video echt een andere discipline en vergt het een andere manier van werken. In plaats van een statisch shot voor een enkele foto beweeg je bij video van het ene naar het andere punt. Tijdens het filmen moet je anticiperen op het veranderlijke licht en bewegende onderwerpen, wat best een uitdaging kan zijn. Scherpstellen gebeurt in de professionele wereld grotendeels handmatig in plaats van via autofocus, wat een serieuze uitdaging is als je dit niet gewend bent, en uiteraard blijft het een vereiste dat het onderwerp scherp wordt vastgelegd. Liever een enkele scherpe plaat dan 30 beelden per seconde die niet helemaal scherp zijn.
Tot slot
Waar gaat het technisch gezien heen met fotografie? Er is niemand die het zeker weet, maar zoals we hebben gezien zijn er diverse veelbelovende technieken die in de nabije toekomst kunnen worden ingezet. Zo is er computational photography, waarbij rekenkracht helpt om het resultaat van een foto te verbeteren, meer kunstmatige intelligentie, zodat camera's de omgevingsfactoren beter begrijpen en daarop kunnen anticiperen, en slim gebruik van hdr bij lastige lichtomstandigheden.
Over hdr gesproken, als die sensor met individueel aan te sturen pixels er echt komt, kan een hdr-opname dus al met een enkele foto worden gemaakt. Als smartphonefabrikanten dan nog eens vaart zetten achter alternatieven voor optische zoom, zoals Nokia's PureView-concept of het idee van Corephotonics om twee verschillende lenzen te gebruiken, zou dat een andere flinke stap kunnen zijn. Stills halen uit 4k video is voor covers al realiteit als we Red moeten geloven, al lijkt 8k-video nog ver weg. En of Lytro's lichtveldtechniek in de nabije toekomst volwassen wordt, is nog maar de vraag.
Dat de term fotografie aan verandering onderhevig is, is een feit en dat roept nog heel andere discussies op. Is een door de camera geoptimaliseerd beeld met gebruik van computational photography nog wel een echte foto? Je hoeft dan immers nog amper moeite te doen om een mooie foto te maken. Dankzij de toenemende rekenkracht en slimme software zou een camera een verkeerde belichting of een scheve horizon automatisch kunnen herstellen. En als je dankzij lichtveldfotografie niet meer hoeft scherp te stellen en niet meer exact het juiste moment hoeft te pakken doordat je met 120fps plaatjes in 4k schiet, kun je dan nog wel spreken van enig vakmanschap?
Toch zien we de toekomst wat dat betreft zonder vrees tegemoet. Dezelfde vragen werden immers ooit gesteld over autofocus, auto-iso en digitale fotografie in het algemeen, zaken die tegenwoordig door iedereen worden gebruikt. Gelukkig is fotografie zo breed en creatief, dat er altijd manieren blijven om je te onderscheiden.