Wetenschappers bij Google hebben een algoritme ontwikkeld dat vloeiende videobeelden kan maken van de losse foto's in Google Street View. In een demo-video laten de wetenschappers zien hoe de 24fps-beelden er uiteindelijk uitzien en op welke Street View-foto's ze gebaseerd zijn.
Het algoritme van Google heeft een simpel principe. De wetenschappers nemen een reeks Street View-beelden, verwijderen een frame, en laten vervolgens hun algoritme dat frame reconstrueren. Daarna laten ze het algoritme het gereconstrueerde frame vergelijken met het originele frame, waaruit het algoritme lering kan trekken. Zo wordt van een beeldenreeks van ongeveer 2fps een reeks van 25fps gemaakt.
De wetenschappers van Google hebben 100.000 fotoseries uit Google Street View moeten gebruiken om het algoritme, genaamd DeepStereo, scherp genoeg te krijgen dat het om kan gaan met zaken als gebrekkige zichtvelden door obstakels. "Uiteindelijk krijg je resultaten die moeilijk te onderscheiden zijn van de originele beelden", vertelt Google-onderzoeker John Flynn aan MIT Technology Review.
Voorlopig zullen gebruikers nog niet van een videoversie van Street View gebruik maken. Op dit moment kost het zo'n 12 minuten om één frame in elkaar te laten zetten door het algoritme. Het team van Google is dan ook nog bezig met het verder optimaliseren van het algoritme. Van het werk tot nu toe heeft Flynn ook een verslag geschreven en gepubliceerd.