Apple heeft een patent gekregen op een methode om een computer te besturen via gebaren die een gebruiker maakt in de lucht. Daarvoor is een 3d-sensor nodig aan de voorkant van de computer. Het TrueDepth-camerasysteem van de iPhone X zou die rol kunnen vervullen.
De ontwikkelaars die het patent voor Apple aanvroegen, werkten voorheen bij PrimeSense, het bedrijf dat de Kinect ontwikkelde en dat in 2013 door Apple is overgenomen. Daardoor is het logisch dat zij het TrueDepth-camerasysteem in gedachten hadden bij het ontwikkelen van de in het patent beschreven techniek, schrijft PatentlyApple.
Het patent Three dimensional user interface session control using depth sensors omschrijft de besturing van een computer door ervoor te zitten en met de hand bewegingen te maken. Daarbij is eerst een 'focus gesture' nodig, waardoor de computer weet dat de gebruiker de interface wil bedienen en niet bijvoorbeeld gebaren maakt in een gesprek met iemand. Apple denkt daarbij aan een zwaaibeweging of een beweging waarbij de gebruiker de hand in de richting van de computer beweegt.
Het TrueDepth-camerasysteem van de iPhone X kan het gezicht waarnemen in 3d doordat een dotprojector tienduizenden puntjes met infraroodlicht projecteert, terwijl een infraroodcamera die puntjes weer kan uitlezen. Zo'n systeem zou ook geschikt zijn voor deze interface.
Het is onbekend of Apple plannen heeft de techniek te gaan toepassen in zijn desktopcomputers of laptops. Het bedrijf uit Cupertino doet jaarlijks vele patentaanvragen, waarvan er veel nooit als gebruikte techniek terugkomen in producten. Enkele jaren geleden kwam er wel een add-on uit voor het besturen van pc's met dergelijke bewegingen, de Leap Motion. Onder meer HP zette dat in laptops, maar het is nooit uitgegroeid tot een veelgebruikte functie.