Adobe animeert foto's voor slideshows met parallaxeffect

Adobe heeft MovingStills gepresenteerd, een methode om foto's te animeren op een manier waardoor het lijkt alsof het een video is met een camera die beweegt. Een algoritme schat de diepte in foto's, om zo een parallaxeffect op een juiste manier in te voegen.

Met MovingStills kunnen gebruikers hele albums in één keer voorzien van animaties op foto's, wat ze bijvoorbeeld geschikt maakt voor gebruik in slideshows, blijkt uit de demonstratie die Adobe online heeft gezet en voor het eerst liet zien op zijn eigen Max-conferentie.

De software analyseert het beeld en probeert daaruit informatie te halen over de afstand van objecten tot de camera, waarna daar bij het animeren rekening mee wordt gehouden door objecten dichterbij te bewegen ten opzichte van de achtergrond. Het is bovendien mogelijk om de animatie aan te passen, door het begin- en eindframe te kiezen om zo 'dichterbij' te komen of juist een shot te nemen dat verder weg van het object beweegt.

Adobe legt niet tot in detail uit hoe de technologie werkt. MovingStills moet op een later moment in Creative Cloud beschikbaar komen. In welke vorm en wanneer dat gebeurt, is vooralsnog onduidelijk.

Door Arnoud Wokke

Redacteur Tweakers

18-10-2018 • 14:37

51

Reacties (51)

Sorteer op:

Weergave:

Wow dat ziet er best indrukwekkend uit.
Maar het zit vol met artifacten. Als ze je eenmaal op beginnen te vallen dan zie je ze overal.

Ik denk dat het leuk is voor korte shots zoals in een screensaver. T liefst van een beetje afstand.
Ja de gaten in de rug van de stoel waren niet transparant bijvoorbeeld. Als het algoritme daadwerkelijk objecten in kaart brengt en deze kan onderscheiden van de achtergrond (ook waar die is onderbroken door die objecten) dan zijn we weer veel verder.

Stel je eens voor: De volgende stap is wat ik omschrijf; maar een stap daarna zou zelfs water (zoals die zee shot) kunnen gaan animeren, evenals bladeren van bomen die licht bewegen.

Het mooie hiervan is dat je snel foto's kan laten zien in een collage, waar iedere foto 1000ms of korter te zien is, maar wel met een snelle animatie die diepte suggereert. Te kort om gebreken te zien, maar lang genoeg om er net wat meer kracht aan toe te voegen :)
Misschien dat ze in een latere versie het mogelijk maken om objecten te 'masken' waardoor de foto beter rendered. En als ze slim zijn laten ze de AI er van leren hoe objecten eruit zien.
Ik vind meneer zijn fotoalbum wat statisch...
Er komt geen gezicht in voor ;)
Als je denkt dat je met het toepassen van een effectje graphic ontwerper of video editor bent, dan heb je het mis.
Dit effect neemt enorm veel werk uit handen, maar dat betekent nog niet dat je na het toepassen al gelijk klaar bent. Natuurlijk moet je dan nog wat oneffenheden eruit gaan poetsen. Zo ga je bijvoorbeeld ook te werk met de content aware (fill) tool in Photoshop. Eerst effect toepassen en daarna afwerken.
Inderdaad. Die dame in de groene jas verdwijnt haar kraag.
En waar gebruik je zoiets nou voor? Die lelijke wazige stukken die er bij "bedacht" worden, brengen mij niet echt tot de verleiding om dit in een professioneel iets te verwerken eigenlijk.

Presentatie is overigens ook erg Amerikaans, knakker die zich als een enthousiast tiener meisje gedraagt...not my style.
Professionals doen dat zelf en zijn niet afhankelijk van een one-button algoritme. Dit is uiteraard voor huis-tuin-keuken gebruik. Ze willen graag een grotere en jongere doelgroep aanboren. Een trend die al jaren zichtbaar is bij Adobe dankzij de cloud, versimpeling van software, mobiele applicaties en dit soort gimmicks.

Dus ja, dit zie je terug in de presentaties, stijl en communicatie. Professioneel heb je er niet veel aan, maar voor de hobbyist of amateur zijn dit leuke ontwikkelingen. Overigens kan de professionele sector hier profijt van hebben doordat er nieuwe tools ( binnen o.a. photoshop/lightroom ) ontwikkeld kunnen worden dankzij dit algoritme.

Algoritmes zullen het nog lang niet winnen van handwerk ( zoals uitknippen/clonen van pixels ), maar het maakt het wel een stuk toegankelijker.
Waarom zou een professional er niet gebruik van maken als het tijd en moeite scheelt en de klant (of meer dan de helft van de klanten) het verschil niet ziet tussen het "handwerk"-resultaat en "one-button-algorithm"-resultaat?
Omdat sommige professionals nog trots zijn op hun vak ;)

Zo te zien zal ik dit voorlopig nog met de hand doen

[Reactie gewijzigd door damnengineer op 22 juli 2024 17:28]

Als het tijd scheelt én goed is? ja.. echter is het met veel van deze 'one-button wonders' toch nét niet. Net zoals het wegwerken van objecten uit foto's, dit gaat zelden goed met het algoritme ( content-aware fill ) wat hiervoor gemaakt is. Of de magic wand, of healing patch etc.

Als de foto niet perfect is, dan zie je veel oneffenheden en/of delen van de foto die geblurred/warped worden. Uiteindelijk ging het dan sneller als je het met de hand had gedaan. Een beetje professional levert geen sub-par werk op.
Ik ben benieuwd of ze zo ook foto time lapses kunnen omzetten naar een 'vloeiende' film.
kijk. Dat is de toepassing die ik zocht.

Google earth doet iets dergelijks, maar een stuk ruwer, met de streetview foto's.
Ik zie het wel eens voorkomen in documentaires op national geographic channel.. Een docu over de 2e wereldoorlog waar ze foto's van laten zien met dit effect. Zo lijkt het meer te leven. Ik vind het een erg mooi effect.
Interessante techniek! Leuk voor je digitale foto-album of om je home-video op te leuken met dit soort kiekjes. Ik neem tenminste aan dat dit ook te exporteren is naar je video-editor. Indrukwekkend hoe de schijn van diepte wordt gewekt en hoe de applicatie de diepte kan interpreteren. Ik ben benieuwd ook naar foto's waarbij het fout gaat.. :)
Als je kijkt naar het voorbeeld van die rots en het water dan gaat er al een klein dingetje fout, namelijk de reflectie in het water die verschuift. In werkelijkheid zal de reflectie in het water altijd verticaal blijven, ongeacht je standpunt.
Maar dit is niet iets van diepte die verkeerd wordt ingeschat, meer een wet van natuur die niet gevolgd wordt door dit voorbeeld. Ben inderdaad ook wel benieuwd naar foto's waarbij de diepte van bepaalde objecten niet goed ingeschat wordt. Zie: 2:49
Kijk nog maar eens goed, er gaat nog wel meer fout :)

Maar de basis is wel goed. Ik neem aan dat er wel een 'pro' versie komt waarin je op een Elastic Reality-achtige manier gebiedjes kunt selecteren, dat zou een hoop blur en gemiste dieptegebieden kunnen voorkomen, al met al heb je m.i. dan een tool waarmee je een stuk sneller ook echt goede resultaten kunt krijgen.
Ik ben benieuwd ook naar foto's waarbij het fout gaat.. :)
Tip: Er zijn voor je smartphone best veel parallax foto apps. FF installeren en je kan alvast een voorproefje nemen. :)
Dit is inderdaad wel heel tof!

Zal het eenzelfde techniek gebruiken als Nvidia een paar maanden terug liet zien, om ontbrekende delen van een foto te kunnen invullen door middel van AI?

https://news.developer.nv...s-with-realistic-results/
Eerst word de diepte in het plaatje geschat. Dit word gedaan met een techniek zoals DORN.
Daarna worden ontbrekende delen van een plaatje ingevuld met een techniek zoals die van Nvidia.
En tot slot krijg je een plaatje met een 3d-effect.

Het schatten van de diepte kan ook met twee camera's naast elkaar, dan meet je het verschil tussen de twee foto's en krijg je een veel preciezer resultaat. Dit word vooral gebruikt voor het verkrijgen van een wazige achtergrond op telefoons met twee camera's.
Ziet er niet slecht uit. Doet me denken aan hoe ik ooit een week bezig ben geweest met het uitsnijden van foto's en vervolgens de achtergronden weer terug te schilderen om zodoende mooie parallax effecten te creëren.
Er waren nog wel een paar leuke sneak peeks dit jaar, maar wilde deze wel gelijk zelf proberen. Maar dus erg twijfelachtig of en wanneer we dit dus terug gaan zien. Zijn nog wel wat leuke sneak peeks van de afgelopen jaren die ik graag al had terug gezien. Al laat dit wel allemaal de mogelijkheden zien van Adobe Sensei (ai van Adobe), wat bijvoorbeeld bijdraagt aan het wel beschikbare content aware fill voor video, wat dan wel weer in een eerdere sneak peek te zien was. Leuke ontwikkelingen, al blijft de meerdere keren undo in Photoshop wel een hoogte punt.
Dit is natuurlijk alleen leuk voor subtiele animaties voor je foto's. Je moet geen verdere wonderen verwachten. Maar wat ze laten zien, is natuurlijk al wel heel indrukwekkend.
Dit komt mij bekend voor. Is dit een techniek die ze van een ander bedrijf overkochten...?
De techniek is parallax effect, dat bestaat al jaren, dus zal best bedrijf geweest eerder zijn.
Het effect is parallax, echter het algoritme is het indrukwekkende stukje hier. Parallax is niet zo bijzonder, dit zorgde ervoor dat bijv. 2D platformer games 'levend' aanvoelde, echter een foto/still ( met slechts één laag ) converten naar parallax? Damn..

Dit soort 3D truukjes waren voorheen alleen mogelijk met meerdere foto's vanuit meerdere hoeken of serieus knip/plak/edit werk.
Bij enkele foto's was dit met de hand al jaren aardig goed te doen, de kunst is nu enkel de 'AI' die blijkbaar 'layers' kan herkennen en daar z'n dingetje mee kan doen.

Maar net als alle andere 'AI' features die Adobe heeft laten zien, je moet de 'perfecte' foto hebben om het te laten werken, bij minder of afwijkende foto's werkt het al een aanzienlijk stuk minder (zoals slowmotion-fill, tekst/translate, OCR, etc).

Zoals je in die voorbeelden ziet, het zijn vrij 'generieke' foto's, vormen herkennen, kleur ervan bepalen, soort bepalen (clouddata genoeg om 'dingen' te herkennen), vervolgens zooitje samenvoegen, algoritme op elke layer en klaar. Het effect is ook niet zo bijzonder als je dit vergelijkt wat iemand 5 jaar geleden al kon in Photoshop, zoals deze:
https://www.youtube.com/watch?v=ZVrYyX3bHI8
Resultaat bij 4:40.
Kortom, dat zei ik dus al:
"Dit soort 3D truukjes waren voorheen alleen mogelijk met meerdere foto's vanuit meerdere hoeken of serieus knip/plak/edit werk."

Het nieuwe/innovatieve stukje is het algoritme, het effect was niks nieuws binnen de animatie wereld ( Walt Disney kwam er in 1933 al mee ). Het was alleen niet eenvoudig (lees: snel) te realiseren.

Of het nut heeft? Wellicht.. ligt aan de implementatie. Google heeft ook een aardig algoritme gebouwd voor portret mode op de Google Pixel. Ja, het had nog zijn flaws, maar het kon prima concurreren met dual-cam phones. Zo zie ik dit stukje software ook relevant zijn voor smartphone gebruik.
Oooh ik miste je 'of', (meerdere foto's 'en' knip/plak/edit), las deze als 'en', excuus :)
Dat verandert de context wel enigszins ja :P Excuus aanvaard ;)
Misschien onderschat ik het big time maar volgens mij is puur op basis van pixels diepte aardig in te schatten als de foto kwalitatief goed genoeg is. Wellicht dat meta data in de foto nog wat extra hints kan geven. Als je eenmaal weet wat de voorste laag is, is de rest vrij makkelijk...

Maar misschien denk ik te simpel.
Zo denken wij mensen, maar ga de computer maar leren wat op een vlakke plaat elementen zijn die in 'de verte' staan.
De techniek is parallax effect, dat bestaat al jaren, dus zal best bedrijf geweest eerder zijn.
Al jaren? Al eeuwen :p

Ik speelde in de jaren '70 van de vorige eeuw al games waar het parallax effect in zat.

https://youtu.be/IhgEJyZRLaU?t=76

Niet zo smooth als nu, maar de sprite in de achtergrond wordt iets sneller verplaatst dan de voorgrond, waardoor je een 3d-achtig effect krijgt (ook wel coulissen perspectief genoemd in de traditionele fotografie).
Ik verwacht toch als je het zelf gaat toepassen wellicht enige artefacten gaat zien op je eigen scherm, wat je hier in zo'n klein filmpje niet ziet. Er moeten beperkingen aan zitten.
Wanneer de artifact bugs eruit zijn is het heel tof. Scheelt enorm veel photoshop werk :*)
Juist meer photoshopwerk, minder voor de persoon die het moet maken :+

Op dit item kan niet meer gereageerd worden.