Digitimes meldde eerder deze week dat Android-fabrikanten kijken naar de mogelijkheid om dTOF-sensors in hun telefoons te zetten: direct time-of-flight sensors. De goed ingevoerde smartphonenerd zal denken: huh? Zet Samsung sinds twee jaar niet af en toe tof-sensors op hun telefoons? En dat is ook zo. Maar dat zijn ándere tof-sensors dan die Digitimes hier bedoelt.
Een nieuw soort sensor in een telefoon - dat vinden we natuurlijk altijd reuze interessant. En dus is het hoog tijd om dieper in deze ontwikkeling te duiken: wat zijn tof-sensors, welke vormen zijn er en wat kunnen we ermee?
Tof-sensors meten de afstand tot objecten in beeld door time-of-flight, letterlijk vliegtijd. Dat gebeurt in de basis door een infraroodsignaal uit te sturen en op te vangen. Door signalen in veel verschillende richtingen uit te zenden en dat vaak te doen, kan software met die informatie een 3d-beeld opbouwen van de omgeving. Vervolgens is dat 3d-beeld weer te gebruiken voor andere toepassingen.
Tof-sensors zijn nu in gebruik voor twee zaken: het helpen van een reguliere camera door bijvoorbeeld in het donker te focussen en voor augmented reality, het plaatsen van virtuele objecten in het camerabeeld van de echte wereld.
Indirecte tof-sensors
De berekening van diepte is mogelijk, doordat er een constante is: de lichtsnelheid. Die is bijna 300.000 kilometer per seconde en dus doet een infraroodsignaal er 330 picoseconden over om een meter ver te komen - en uiteraard 330 picoseconden om weer terug te komen. Dat is vrij kort: een miljard picoseconden staat gelijk aan een milliseconde.
Het vereist dat tof-sensors tijd ongelofelijk nauwkeurig kunnen berekenen, maar dan heb je ook wat: duurt een signaal er 1320 picoseconden over om terug te komen? Dan is het object twee meter ver weg. Nu is 1320 picoseconden een ongelofelijke kleine hoeveelheid tijd.
Er zijn twee manieren om de metingen te verrichten. De tof-sensor die in gebruik is bij Android-telefoons tot nu toe is de indirecte tof-sensor, of iTOF. Die zit onder meer in de Oppo RX17 Pro, Honor View 20 van Huawei, Samsung Galaxy S10 5G, Note 10+ en S20-telefoons.
Die tof-sensors gebruiken een techniek die faseverschuiving meet. Dat gebeurt door een cmos-sensor met pixels van rond 10 micron groot - veel grotere pixels met een veel lagere resolutie dan gewone camera's - te gebruiken met twee condensators. Een kloksignaal genereert een blokgolf en stuurt zo een lichtbron aan, een infraroodzender. De condensatoren ontvangen met dezelfde frequentie het kloksignaal als de lichtbron. Licht van de infraroodzender reflecteert op een object en bereikt daarna de pixel, en wordt als lading in de condensator opgeslagen. Het verschil in ladingen van de condensatoren komt overeen met de verschuiving in fase van de blokgolf, door de afstand die het licht heeft afgelegd van lichtbron naar het object en terug.
De directe tof-sensor
De andere manier is de directe tof-sensor, dTOF. Dat is wat Apple LiDAR noemt in zijn iPad Pro en iPhone 12 Pro. Het werkt met een sensor van Sony met een SPAD-array. Dat lijkt op een traditionele cmos-sensor, maar kan een enkele foton waarnemen.
De Apple-apparaten hebben een laser verdeeld over een grid van 9x64 pixels - een vertical cavity surface-emitting lasers of VCSEL - en elk punt op de grid correspondeert met een pixel op de SPAD-array; de hardware bepaalt aan de hand van hoe lang de straal onderweg is geweest hoe ver een object van de camera verwijderd is. Daarom heet het direct - het leidt de time-of-flight niet af aan iets anders, maar het meet die direct.
Het voordeel van een directe tof-sensor is dat er minder software achteraf nodig is: de interpretatie van de input is minder moeilijk. De hardware maken bleek dan wél weer lastiger, want de iPad Pro van vorig jaar was het eerste consumentenproduct met zo'n directe tof-sensor aan boord.
:strip_exif()/i/2004093174.jpeg?f=imagearticlefull)
Diepte meten op andere manieren
:strip_exif()/i/2003142852.jpeg?f=imagemedium)
Er zijn meer manieren om diepte te meten met een camera dan time-of-flight. Neem nu 3d-gezichtsherkenning, bekend geworden van Apples Face ID op de iPhone X en nieuwer. Dat is geen time-of-flight, maar werkt met structured light: een VCSEL projecteert 30.000 puntjes en een camera kijkt hoe de reflectie van die puntjes terugkomen. Aan de hand van de vervorming kan de software berekenen wat de vorm is van het oppervlak. Dat gebruikt Apple bij Face ID om de vorm van gezichtskenmerken in kaart te brengen en te gebruiken voor authenticatie.
Die techniek leunt meer op software dan tof-sensors. Immers, de software interpreteert het beeld, maar de inschatting van diepte is niet meer dan een inschatting, geen meting. Met de interpretatie van het beeld komt er een 3d-vorm van het gezicht in beeld. Als die matcht met de opgeslagen vorm van het gezicht, dan ontgrendelt de telefoon. De 3d-gezichtsherkenning van andere merken, nog maar beperkt in gebruik, werken net zo.
Een oudere vorm van 3d waarnemen met 2d-camera's is stereobeeld: een camerasysteem gebruikt dan twee camera's en bekijkt in hoeverre een object is verschoven ten opzichte van de achtergrond om de afstand te bepalen. Dit is een veel grovere methode, maar werkt natuurlijk wel.
Dat kan natuurlijk met een secundaire camera die wel in gebruik is, zoals een camera met telelens. Veel goedkopere telefoons gebruiken een aparte, kleine en goedkope sensor daarvoor, iets dat vaak als 'dieptesensor' op de specsheet verschijnt. Ook kan het met een enkele camera: de software gebruikt dan de handbewegingen van gebruikers om meerdere beelden op te slaan en te vergelijken.
Portretmodus op de Poco F2 Pro, voorzien van kleine 'gewone' camera als dieptesensor
Toepassingen van diepte
Het is tekenend voor de tijdsgeest dat het idee van dieptemetingen op smartphones begon met 3D in 2011, met de LG Optimus 3D en HTC Evo 3D. Die konden 3d-beeldmateriaal opnemen dat je terug kon zien op het stereoscopische 3d-scherm van die apparaten. De 3d-telefoons verdwenen samen met de rest van de 3d-hype al snel naar de graftombe van gimmicks.
Maar HTC kwam in 2014 met een nieuwe vorm: de One M8 beschikte over Duo Camera. Naast de primaire camera heeft de telefoon een monochrome 2-megapixelsensor om diepte op te slaan. HTC gebruikt die voor diverse functies, zoals het verleggen van de focus achteraf en het kunnen selecteren van objecten in een foto om bijvoorbeeld apart bewerkingen op te doen met kleur of contrast. Ook maakt dit het kopiëren en plakken van objecten en personen uit de ene foto mogelijk, om ze in een andere foto te zetten.
Dat werkte allemaal wel, maar net niet helemaal lekker, zo bleek uit de review. De volgende stap zette Huawei, een grote vernieuwer op smartphonecameragebied van de afgelopen jaren. Die gebruikte het om bij het nemen van de foto al het 'diafragma' te wijzigen in de Honor 6 Plus.
Apple bedacht met de iPhone 7 Plus de functie die wellicht het bekendste is geworden: de portretmodus, om achter objecten of mensen de achtergrond te vervagen, zoals een dslr zou doen. Die functie verscheen daarna op vrijwel elke andere smartphone.
Vorig jaar kwam Apple ook met een toepassing voor de tof-sensor van de iPhone 12 Pro: autofocus in het donker. Door de informatie van de tof-sensor te gebruiken, stellen de camera's scherp in het donker. Omdat het werkt met infrarood, is dat niet zichtbaar met het blote oog. Dit is natuurlijk geen nieuw idee: laser-autofocus werkt precies zo en zit sinds de LG G3 uit 2013 op sommige telefoons.
Dat maakt natuurlijk ook portretfoto's in het donker mogelijk: de tof-sensor kan daarbij de info verzamelen over welk gedeelte van de foto een object of persoon in de voorgrond is, terwijl de primaire camera de daadwerkelijke foto neemt.
Andere toepassingen zijn uiteraard het domein van augmented reality. Een tof-sensor kan de omgeving scannen en vervolgens kan de software die scan gebruiken om virtuele elementen daaroverheen te leggen. Onder meer TikTok en Snapchat gebruiken dat. In het eerste TikTok-effect dat gebruik maakt van de tof-sensor is te zien dat confetti voor en achter de persoon langs gaat en op de grond en op de bank blijven liggen.
Google en Apple maken augmented reality mogelijk met en ARCore en ARKit en doen dat al jaren. Behalve leuke video-effecten op sociale media zijn de daadwerkelijke nuttige toepassingen nog gering. Natuurlijk zijn er apps om zaken op te meten, meubels virtueel in je kamer te zetten en om spelletjes te spelen, maar veel verder dan dat is het ecosysteem nog niet ontwikkeld.
Effect op TikTok dat gebruik maakt van tof-sensor iPhone 12 Pro
Tot slot
Tof-sensors vormen een toffe techniek die nog op zoek is naar een probleem om op te lossen. Focussen in het donker? Kon al. Betere augmented reality? Dat is vooralsnog interessant voor een relatief kleine groep mensen.
De plaatsing van de tof-sensor in de iPad Pro en de iPhone 12 Pro zorgt wel voor vernieuwde aandacht voor de scanner. Samsung zette hem bijvoorbeeld wel op de Galaxy S20 Ultra, niet op de nieuwere Note 20 Ultra - maar als Apple iets doet, gaat elke Android-fabrikant ernaar kijken.
Bovendien heeft Apple een nieuwe variant van een tof-sensor gebruikt: een directe time-of-flightsensor. De benodigde componenten zijn dus in massaproductie en komen vermoedelijk snel ook voor andere bedrijven beschikbaar.
Maar niet alles dat Apple introduceert blijft ook plakken: 3D Touch heeft het niet gehaald en ook Face ID kan op weinig navolging rekenen, ook al houdt Apple er nog altijd aan vast. De komende jaren zijn een soort open sollicitatie: toffe hardware zoekt nuttige toepassing waar veel mensen wat aan hebben. Wie biedt?