Google heeft een machinelearningexperiment online gezet met de naam Move Mirror. Met behulp van een webcam kan het systeem bewegingen van gebruikers zien en die nabootsen met plaatjes uit een database. Het resultaat is op te slaan als een gifje.
Google zet voor zijn Move Mirror een machinelearningmodel in dat bewegingen van de gebruiker voor de webcam detecteert en die vergelijkt met houdingen van personen in afbeeldingen in een database. Voor het experiment is gebruikgemaakt van PoseNet, een model dat mensen en hun belangrijkste gewrichten in foto's en video's kan herkennen.
Move Mirror maakt gebruik van ruim 80.000 afbeeldingen en werkt met Tensorflow.js, waarmee machinelearningmodellen in de browser uitgevoerd kunnen worden. De webcambeelden worden alleen lokaal verwerkt door het algoritme en niet naar een server gestuurd of opgeslagen.
Medewerkers van Google Creative Lab hebben een uitgebreide blogpost op Medium gezet met uitleg over het experiment. Een doel van het experiment is om te laten zien dat dergelijke technieken voor iedereen met een computer en webcam toegankelijk zijn.