Samsung heeft met behulp van kunstmatige intelligentie een systeem ontworpen waarmee op basis van afbeeldingen animaties zijn te maken. Zo kan bijvoorbeeld een persoon worden geanimeerd op basis van kenmerken die uit foto's worden gehaald.
De software is gemaakt door een ontwikkelcentrum van Samsung in Moskou, in samenwerking met het Skolkovo Institute of Science and Technology. De makers hebben een wetenschappelijke paper online gezet op Arxiv, maar in een video leggen zij nog eens kort uit hoe het systeem werkt. Er worden drie neurale netwerken gemaakt die op basis van enkele afbeeldingen, of frames uit video's, een model kunnen bouwen waarmee beelden kunnen worden geanimeerd. Het systeem is met afbeeldingen van verscheidene mensen getest, zoals in de video wordt gedemonstreerd.
In een voorbeeld laten de makers zien hoe op basis van slechts acht frames een animatie gemaakt kan worden van een persoon. Daarvoor zet een van de neurale netwerken de gebruikte frames om in vectors waarmee animaties gemaakt kunnen worden. Een ander neuraal netwerk kijkt naar gezichtskenmerken in de te analyseren beelden, terwijl het derde netwerk kijkt naar het 'realisme' en de pose van de geanimeerde persoon.
Het is overigens ook mogelijk om met slechts één frame een geanimeerd model te bouwen, al wijzen de makers erop dat meer beelden een animatie opleveren die realistischer is. Daarnaast werkt de software ook in beperkte mate met schilderijen; zo slaagden de ontwikkelaars erin om bewegende beelden van de Mona Lisa te genereren.
Traditioneel wordt er voor het maken van animaties een 3d-model gebouwd van het te animeren beeld. Dat is bij deze software dus niet nodig: de AI van Samsung haalt zelf de relevante informatie uit afbeeldingen en gebruikt deze om animaties te bouwen. Er is meer software die op basis van kunstmatige intelligentie animaties bouwt; dergelijke software wordt onder meer ingezet voor het maken van zogenaamde deepfakes.