De Amerikaanse kunstenaar en hacker Zach Lieberman heeft een applicatie met Apples ARKit ontwikkeld om zijn stem audiovisueel op te nemen en weer te geven via augmented reality. Zo is de audio terug te bekijken en te beluisteren op de plek waar deze is opgenomen.
In een video op Instagram demonstreert Lieberman zijn werk. Te zien is dat zijn iPhone een spoor van golfvormen creëert op basis van geluiden en zinnen die hij maakt, op de plek waar hij zijn stem gebruikt. Vervolgens is de opname opnieuw te beluisteren, ook achterwaarts, door met de iPhone het spoor opnieuw te volgen.
De New Yorkse kunstenaar, ontwikkelaar en hacker, onder andere betrokken bij de School For Poetic Computation, gebruikt Apples framework voor ar, ARKit, in combinatie met OpenFrameworks voor de demonstratie. OpenFrameworks is een C++-library die hij zelf mede is gestart. Op de Instagram-pagina van Lieberman staan nog meer experimentele ar-video's.