De innovaties op de high-endsmartphonemarkt zullen snel doorsijpelen naar het midrangesegment en uiteindelijk ook naar de instappers. Dat is relatief eenvoudig doordat een aanzienlijk deel voortkomt uit softwareoptimalisaties. Wel is die software uiteraard gebaat bij, en deels afhankelijk van geoptimaliseerde en vlotte hardware. Het maken van opnamereeksen en het samenvoegen van foto's kost uiteraard de nodige rekenkracht. Tot slot helpen een relatief grote sensor, een slim kleurenfilter en een lichtsterke lens natuurlijk ook, hoewel die onderdelen zich meer evolutionair ontwikkelen en de grote doorbraken alweer even achter ons liggen. Sensors met extreem hoge resoluties en de quad-Bayer-kleurenfilters zijn wel een relatief nieuwe methode om betere beelden te produceren.
Toch zit de meeste ontwikkeling in de software en dat blijft vermoedelijk in de komende jaren ook zo. Voorlopig valt er nog genoeg te verbeteren en optimaliseren aan de softwarematige processen, zoals het slim samenvoegen van beelden. Los daarvan spelen machine- en deep learning en neurale netwerken een steeds grotere rol. Als de software 'weet' wat er gefotografeerd wordt, kunnen de instellingen vooraf en de beeldoptimalisaties achteraf daar beter op worden afgestemd.
Dat roept wel de discussie op hoever die optimalisaties in de toekomst gaan. Oftewel hoe belangrijk is een geslaagde foto en hoever mag de software daarvoor gaan? Stel dat een persoon die in het verleden veel gefotografeerd is, er in een groepsportret niet helemaal op staat, mag de software dan de bestaande dataset met vroegere foto's gebruiken om die persoon alsnog goed in beeld te brengen? Voor het doel van de groepsfoto, het tonen van alle personen, is dat wellicht wenselijk, maar de realiteit wordt wel aangepast. Hetzelfde geldt min of meer voor beautyfilters en realtime augmented reality zoals bij Snapchat, waarbij gezichten worden aangepast. Nu is het verschil nog duidelijk herkenbaar, maar als dit zo wordt geperfectioneerd dat het bijna niet meer van echt te onderscheiden is, is het de vraag of dat wel wenselijk is.
Het is meer een maatschappelijk dan een technisch vraagstuk, maar het zou wat ons betreft in ieder geval mogelijk moeten zijn om niet-realistische aanpassingen van de werkelijkheid uit te zetten. Of dat gaat gebeuren, is de vraag. Camerasoftware moet zo simpel mogelijk te bedienen zijn en wordt daarbij afgestemd op de leek zonder voorkennis van sluitertijden en diafragma's. In de nachtmodus is het bijvoorbeeld nu al lastig om telefoons te forceren tot het gebruik van lange sluitertijden. Bij Apple gaat de nachtmodus alleen aan als de telefoon denkt dat er weinig licht is en bij Android kiest de software zelf de sluitertijd op basis van hoe donker de omgeving is. Alleen in de pro-modus of met behulp van third-partyapps kun je zelf een sluitertijd kiezen, maar dan heb je weer geen beschikking over de geavanceerde beeldoptimalisatie van de smartphonefabrikant.
Al met al is duidelijk dat smartphonefabrikanten zich steeds meer op fotografie en video zijn gaan richten. Telefoons zijn natuurlijk al lang niet meer alleen om mee te bellen; we doen er van alles mee, waaronder beelden vastleggen. Vandaar dat de meeste moderne smartphones nu zijn uitgerust met meer dan één camera, waardoor je als het ware lenzen kunt wisselen: supergroothoek, normaal, tele, supertele en macro. Door verschillende foto's van een scène te maken en deze samen te voegen ontstaat een beter resultaat dan met een enkele foto. Dankzij toegenomen processorkracht, nieuwe sensors met meer pixels en alternatieve kleurenfilters, en in combinatie met slimmere software met kunstmatige intelligentie wordt dit in de komende jaren zonder twijfel nog geavanceerder.