Onderzoekers van het Massachusetts Institute of Technology hebben een algoritme ontwikkeld dat in veel gevallen automatisch de reflecties uit foto's kan filteren die genomen zijn door een raam. Vaak zijn objecten, zoals de fotograaf zelf, zichtbaar in foto's genomen door een raam.
Het algoritme zal door de onderzoekers in juni op de Computer Vision en Pattern Recognition-conferentie gepresenteerd worden aan het publiek. De werking berust op het feit dat foto's die door een raam met dubbel glas genomen worden, over het algemeen twee vrijwel identieke reflecties weergeven die net een stukje uit elkaar liggen. Een van de onderzoekers, YiChang Shih, legt op de site van MIT uit dat bij dubbele beglazing sprake is van een weerkaatsing van het beeld via zowel het binnenste als het buitenste raam. Hetzelfde effect treedt op bij ramen van dik enkel glas.
Het systeem functioneert alleen bij dubbele reflectie, anders is het vooralsnog vrijwel onoplosbaar doordat het algoritme een vergelijking maakt tussen twee verschillende, maar verder gelijkende afbeeldingen in een raam. Shih geeft als voorbeeld: "Als A + B gelijk is aan C, hoe kun je dan A en B terugkrijgen uit een enkele C? Dat is wiskundig uitdagend. Dan hebben we gewoon niet genoeg selectiecriteria om een conclusie te trekken."
De tweede reflectie is dus nodig, waarbij de waarde van A hetzelfde moet zijn als de waarde van B voor een pixel die op eenzelfde afstand staat in een bepaalde richting. Als dat selectiecriterium toegevoegd wordt, is het een stuk makkelijker om A, B en C van D los te weken.
Toch bestaat niet de volledige oplossing uit het vergelijken van pixels op deze manier. Daarvoor haalden de onderzoekers nog een onderzoeksgroep van stal. Deze groep gaat ervan uit dat een beeld dat door een raam gefotografeerd is, een bepaalde statistische regelmaat bezit, net zoals zogenaamde 'natuurlijke' foto's. Het idee is daarbij dat op pixelniveau abrupte overgangen binnen natuurlijke en door de mens gebouwde omgevingen vreemd zijn en dat als een overgang plaatsvindt, ze langs duidelijke grenzen lopen. Dat betekent dat wanneer een cluster pixels een deel van een blauw en een rood object omvat, alles aan de ene kant blauwachtig is en aan de andere zijde roodachtig. Toch werkte die benadering niet heel goed.
Er bleek tijdens het onderzoek wel iets te zitten in de pixel-benadering, maar daarvoor moest het algoritme wel het een en ander leren. Daarvoor gebruikten de onderzoekers een techniek ontwikkeld op de Hebrew University of Jerusalem. Door statistiek los te laten op blokjes pixels van acht bij acht in 50.000 proefplaatjes kon de correlatie tussen de pixels berekend worden en zo een goed resultaat verkregen worden.
Shih hoopt dat als het algoritme verder verbeterd wordt, het op den duur een plekje kan krijgen in normale fotosoftware en, wellicht veel belangrijker, om robots beter te laten 'zien' in ruimtes met veel glas.