Meta kondigt AI-tool aan die tekst omzet in bewegende beelden

Meta heeft Make-A-Video aangekondigd, een AI-tool waarmee tekst omgezet kan worden in bewegend beeld. Volgens Meta leert het AI-model hoe de wereld eruitziet door onderschriften van afbeeldingen te analyseren en videobeelden te bekijken waar geen tekst bij hoort.

Op de website van de Make-A-Video is te zien hoe de AI-tool video’s kan genereren als er tekst wordt ingevoerd. De tool kan daarnaast met bestaande afbeeldingen overweg om er een bewegende video van te maken en slaagt er volgens Meta ook in om variaties te maken van video’s die geüpload worden door gebruikers.

Meta heeft filters ontwikkeld die moeten voorkomen dat de tool schadelijke video’s genereert. Het bedrijf zal ook een watermerk aan elke video toevoegen om gebruikers duidelijk te maken dat het om een video gaat die door kunstmatige intelligentie is gemaakt. De onderzoekers willen de AI-tool in de toekomst beschikbaar stellen aan het brede publiek, maar voorlopig zit het project nog in een testfase. Onderzoekers die willen deelnemen aan het project, kunnen zich via Meta aanmelden.

De onderzoekers van Meta hebben hun onderzoek gedeeld door middel van een paper. Het project is volgens de introductie open source. In de paper is te lezen hoe ze het AI-model via de Make-A-Video-tool verder willen trainen. Zo willen ze het achterliggende AI-model aanleren hoe de wereld eruitziet aan de hand van bewegende beelden die niet door de onderzoekers zijn aangeleverd. Via de tool kunnen ze ook heel wat tijd winnen en het scala aan visuele interpretaties van het AI-model in actie blijven zien.

Meta Make-A-Video
Een voorbeeld van Meta's Make-A-Video-tool. Klik voor een gifje. Bron: Meta

Door Jay Stout

Redacteur

29-09-2022 • 16:57

16

Lees meer

Reacties (16)

16
15
9
1
0
5
Wijzig sortering
Dit is een video variant van Dall-E?

Bizar om te zien hoe snel deze ontwikkeling gaat. Het is echt niet normaal indrukwekkend wat deze tools kunnen genereren.

10 jaar geleden konden we nauwelijks herkennen of er een persoon op een foto stond en nu hebben we vrij beschikbare modellen die text-to-image en nu text-to-video genereren! Bizar!
Tegenwoordig zijn er al tools die video's genereren voor productpresentaties (alternatief/alternatief 2), foto's genereren van simpele brouwsels die je neefje/nichtje van 3 gemaakt heeft in MS Paint.

Wil je toch nog een beetje 't gevoel hebben dat je in een tool à la Premiere/After Effects werkt, kijk dan eens naar Runway, of bekijk anders eens hun video van de TTV-feature waarvoor je op de wachtlijst kunt...
Gaat heel snel inderdaad. Dall-E is zelfs op zijn vlak achterhaald door Google's AI, al geven ze die niet vrij. En Stable Diffusion is naar mijn mening ook beter (en geen verboden woorden)
Echt he, ik ben al een week vanalles aan het difusseren... :Y)
En wat schiet de wereld er mee op als zoiets gesloten en Facebook specifiek is?
Vast wel iets voor het aanzienlijke deel van de wereldbevolking die gebruik maak van Facebook / - Meta-diensten. Of het nuttig is is weer een andere discussie .
Lijkt me ideaal om nog meer rotzooi te fabriceren voor YT e.d. (vooral die fake news kanalen met gegenereerde filmpjes .... zucht)

//edit: recentelijk mooie page voor gezien, met text to speech presentator en voice-over voor beelden gegenereerd op basis van keywords, maar krijg m niet gevonden. History leeg :X.

[Reactie gewijzigd door himlims_ op 22 juli 2024 15:12]

Onvermijdelijk. Als Meta dit niet maakt komt er wel een andere partij mee.
Anoniem: 1617016 @himlims_29 september 2022 17:07
Klopt, maar ook een positieve kant, dat amateurs zoals ikzelf dan ook muziekvideos kunnen maken!
En uiteraard om data te vergaren, laten we dat vooral niet vergeten.
Dat is precies wat we nodig hebben. Hoe sneller mensen leren dat je letterelijk niets op het internet kunt vertrouwen, hoe beter.

Pogingen om de gebruiker "te beschermen" zijn nooit waterdicht en wekken alleen maar een gevoel van schijnveiligheid op.
Zou mooi zijn als er AI software komt die via WebAssembly op je eigen computer draait.
Dan hoef je niets lokaal te installeren maar enkel een website bezoeken en kan je gebruik maken van je eigen krachtige videokaart ipv in de rij te staan zoals bij MidJourney
Bij veel AI-projecten hebben mensen de code al in Docker-images gegoten die je in principe zo lokaal kunt draaien.

Ik gebruik zelf een lokale versie van Dall-e Mini (craiyin.com) om 'kunstwerken' te genereren die ik in een verloren hoekje op mijn digitale e-ink kalender laat zien.

[Reactie gewijzigd door Skit3000 op 22 juli 2024 15:12]

Ja ik moest ook gelijk aan DALL E2 denken.Wie heeft de meeste data om AI algoritmes te voeden? Of er echt iets leuks en creatiefs (nee dit is -nog?- niet creatief !)
Wordt weer computertijd kopen bij een supercomputer. (Wij hadden -vroegah- toch SARA in Amsterdam om zware berekeningen te laten doen?)
Binnenkort ns kijken, DALL vond ik wel interessant...
Weet iemand of er soort gelijken ai-projecten waarbij de output audio/muziek is?

Op dit item kan niet meer gereageerd worden.