Amazon kondigt StyleSnaps aan, een feature in de Amazon-app waarmee gebruikers een gemaakte foto kunnen laten scannen, waarna kunstmatige intelligentie op basis daarvan suggesties geeft met links naar Amazon-producten die op het gefotografeerde kledingstuk lijken.
Met StyleSnap kunnen gebruikers een screenshot of een zelfgemaakte foto selecteren en deze door de tool laten scannen. Nadat de foto op een aantal punten is gescand, wat ongeveer een of een paar seconden in beslag neemt, worden vergelijkbare items uit de Amazon-webshop getoond die wat het uiterlijk betreft overeenkomen met het kledingstuk van de foto.
Amazon stelt dat het bouwen van deze feature geen eenvoudige opgave was, mede omdat gemaakte foto's volgens het bedrijf onvoorspelbaar kunnen zijn doordat de perspectieven, poses en locaties heel gevarieerd kunnen zijn. Om toch de gefotografeerde kledingstukken te kunnen identificeren heeft Amazon computer vision en deep learning toegepast, om bijvoorbeeld de items te kunnen classificeren in categorieën zoals 'flanellen shirts' of een bepaalde soort jurk.
Om het toegepaste neurale netwerk een groot aantal klassen te laten identificeren zijn er meerdere lagen gebruikt. Zo worden bij de eerste lagen vooral de hoeken en kleuren geïdentificeerd, terwijl het netwerk bij de middelste lagen patronen als spijkerstof of gebloemde kleding herkent. Nadat het algoritme door alle lagen heen is, zou het in staat moeten zijn om vrij accuraat de pasvorm en de maat uit het kledingstuk van de afbeelding te identificeren.
Volgens Amazon wordt daarbij het vanishing gradient problem omzeild. Daarbij gaat het om de situatie waarbij het signaal van de trainingsdata van het neurale netwerk te ver wordt uitgesmeerd over de verschillende lagen, waardoor er effectief geen sprake meer kan zijn van identificeren. Naar eigen zeggen heeft Amazon om dit probleem op te lossen residual networks ingezet; daarmee worden er als het ware snelkoppelingen toegepast om het trainingssignaal bepaalde lagen in het netwerk te laten overslaan.
Dat zou het netwerk helpen om basisaspecten eerst te leren, waarna het zich vervolgens op complexere aspecten kan richten. Daarmee zou het netwerk nieuwe concepten kunnen leren, maar tegelijkertijd ook zaken onthouden die het in het verleden heeft geleerd. Volgens Amazon is dat laatste cruciaal voor StyleSnap, omdat het gaat om het effectief verwerken van grote datavolumes
Vooralsnog werkt de toevoeging alleen op het Amerikaanse gedeelte van de app. Eerder bracht Amazon ook de Echo Look uit, een speaker annex kledingstijl-adviseur. Stylesnap lijkt overigens een doorontwikkeling van de al langer in de Amazon-app aanwezige 'search with camera'-functie. Daarbij kan er direct een foto vanuit de app worden genomen van een willekeurig product, waarna er op dezelfde manier suggesties van Amazon-producten worden getoond.