Wetenschappers van MIT, Microsoft en Adobe hebben een manier ontwikkeld om geluid te achterhalen uit een videofragment zonder audio. Zij gebruiken daarvoor een algoritme dat kijkt naar bewegingen van objecten, geïnduceerd door geluidsgolven.
Het algoritme kan aan de hand van vibraties van een object dat op beeld is vastgelegd, audio reconstrueren. Die bewegingen ontstaan door geluidsgolven en zijn, afhankelijk van het geluid, eenvoudig of lastiger waar te nemen. Omdat het hierbij soms om bewegingen van een tiende van een micrometer ging, gebruikten de onderzoekers in de meeste gevallen camera's die beelden tot 6.000fps konden schieten.
Met het algoritme waren de wetenschappers in staat om het geluid uit een kamer te achterhalen, terwijl de videocamera buiten achter geluiddicht glas stond. Zij analyseerden daarvoor de bewegingen van een zak met chips die op het beeld zichtbaar waren. In andere experimenten wisten de onderzoekers het geluid op te vangen door enkel naar de bewegingen van aluminiumfolie, gras, water en een plant te kijken, zo meldde MIT News maandag.
Hoewel bij de meeste experimenten een hogesnelheidscamera werd gebruikt, kregen de wetenschappers het ook voor elkaar om met een reguliere filmcamera met 60fps geluid te achterhalen. In dit geval was het geluid minder duidelijk, maar was het wel mogelijk om te achterhalen of iemand iets zei. Afhankelijk van de akoestiek van de ruimte kon er zelfs iets worden gezegd over de identiteit van de spreker, zeggen de onderzoekers.
Doordat naar de reconstructie van audio in stille videobeelden weinig onderzoek is gedaan, zijn de precieze gevolgen van deze methode nog niet bekend. Volgens één wetenschapper is het hiermee mogelijk om materialen beter op geluid af te stemmen, omdat het algoritme nauwkeurigere inzichten biedt. Een ander zegt dat het met deze methode ook mogelijk is om later misdaden op te lossen die nooit op beeld zijn vastgelegd. Zo kan bijvoorbeeld aan de hand van de bewegingen van een zak chips worden achterhaald of een vermeende moordenaar op dat moment in de ruimte was.
MIT, Microsoft en Adobe presenteren de uiteindelijke resultaten van het onderzoek in een gezamenlijk paper. Ook zullen ze hun onderzoeksresultaten binnenkort presenteren op de Siggraph-conferentie.