Apple zou een laser aan de achterkant van een van de volgende iPhones willen zetten om de autofocus te verbeteren en om de telefoon afstanden tot objecten te laten meten. Dergelijke sensoren zitten al langer in andere telefoons, maar die combineren niet beide functies.
Door de tijd te berekenen tussen het zenden van de laserstraal en het opvangen van de reflectie, kan de telefoon de afstand tot een object schatten. Een laser gebruiken voor autofocus gebeurt al enkele jaren in telefoons. Dat begon met de LG G3 uit 2014. De Lenovo Phab 2 Pro met Google Tango gebruikt een laser voor augmented reality.
De technologie die Apple wil gebruiken, komt van het bedrijf Lumentum, zo schreef de site Fast Company al in februari. De iPhone-maker koopt de module met laser en ontvanger van LG, STMicro, AMS of Foxconn. Apple zou de orders voor de modules hebben geplaatst in juni en dat zou laat zijn voor de komende iPhone.
Apple maakt augmented reality belangrijk in iOS 11. Alle iOS-devices met een Apple A9- of A10-soc, zoals de iPhone 6s, iPhone 7 en iPad Pro-modellen, ondersteunen ARkit. Dat is een toolkit voor ontwikkelaars om apps te maken voor ar. Met augmented reality kunnen apps objecten over het camerabeeld heen leggen. Als die objecten in het beeld op een tafel liggen, moeten ze blijven liggen als de gebruiker de telefoon beweegt.
Er gaan al langer geruchten over een 3d-camera voor de iPhone 8, maar die zit vermoedelijk aan de voorkant en vervangt wellicht de vingerafdrukscanner voor het snel ontgrendelen van de komende, dure iPhone.
Volgens sterke geruchten komen er drie iPhones aan. Twee zijn de opvolgers van de huidige iPhone 7 en 7 Plus en de laatste is een iPhone 8, iPhone X of iPhone Pro met een randloos scherm, een nieuw ontwerp en vermoedelijk een hogere prijs.
Terugkijken: videoreview over Google Tango, augmented reality op Android-telefoons