Tencent biedt deepfakes als service aan op basis van 3 minuten beeldmateriaal

Tencent Cloud runt momenteel een pilot waarbij klanten deepfakes kunnen bestellen op basis van door hen ingezonden beeldmateriaal. Daarvoor gebruikt het Chinese bedrijf een eigen deep-learningplatform bestaande uit tien AI-algoritmes. Een deepfake kost omgerekend zo'n 131 euro.

Klanten moeten zo'n drie minuten aan beeldmateriaal en tenminste 100 gesproken zinnen aanleveren, waarna het algoritme van Tencent binnen 24 uur een deepfakevideo levert, zo bevestigt The Register. Men kan kiezen uit het weergeven van de deepfakepersoon vanaf de heupen of volledig in beeld. Ook zouden er opties zijn om de achtergrond van de video en de toon van het filmpje te veranderen. Klanten kunnen kiezen uit meerdere algemene stijlpresets, waaronder 3D-beelden die realistisch of cartoonesk zijn, of 2D-deepfakes met een realistische of cartooneske stijl.

De stemmen van de deepfakes zouden met Tencents eigen algoritmes zo realistisch mogelijk moeten klinken. Zo zou het timbre van de nagemaakte persoon dankzij deep-learningmodellen en vocoders op basis van neurale netwerken minder gemakkelijk te onderscheiden moeten zijn van echte stemmen. Veel spraakmodellen genereren momenteel vrij mechanisch klinkende stemmen. Er is daarentegen geen voorbeeld beschikbaar van wat Tencent als realistisch bestempelt.

Het is niet duidelijk of Tencent de deepfakeservice op den duur breder gaat uitrollen. Zover bekend is er vooralsnog geen officiële aankondiging van de service te vinden. Ook is niet duidelijk wat voor eventuele beperkingen het Chinese bedrijf hanteert wat betreft de inhoud van deepfakes en of iedereen zonder toezicht en eventueel ongevraagd beelden van een ander persoon kan laten genereren.

Tencent deepfake
Afbeelding via Tencent / Jiemian

Door Yannick Spinner

Redacteur

28-04-2023 • 16:57

75

Reacties (75)

Sorteer op:

Weergave:

Dus je betaalt 131 euro voor een deepfake van jezelf omdat je denkt dat je dan een mooie video terug krijgt, en ondertussen heeft Tencent een model gemaakt uit jouw beeldmateriaal dat ze later voor allerlei dingen kunnen gebruiken waar je zelf geen weet van hebt.
Nu je dit zo zegt moest ik gelijk denken aan de kwaadaardigheid die mensen bezitten om AI in te zetten voor oplichting.

Hier een kort stukje als voorbeeld daarvan.
https://youtube.com/shorts/6RvJXFQFuyU?feature=share
En hier waarschuw ik al zo lang voor, leer je kind een codewoord dat ALLEEN gebruikt wordt in zulke situaties. Wij gebruiken het al lange tijd op het werk (bij email) dat er een zeker woord/zin moet worden gezegd om te weten of het bericht legitiem is.

Het is simpele logica dat kwaadaardige (of minder goede) goede bedoelingen hier gebruik van gaan maken, waar misschien Tencent er ook nog ergens 'wat code inbakt' zodat het gecontrolleerd kan worden dat het nep is (watermerk), maar dan is het kwestie van tijd tot ze zonder ook beschikbaar zijn.
Dus als een AI getraind wordt op jullie gehackte e-mail staat dat woord er altijd in en gebruikt de AI dat dadelijk ook en gaat het hele kantoor er automatisch vanuit dat het een legitieme mail is?
Waar precies wil je hem op trainen? Hetzelfde woord? Je, ik, kan, hoor, met, door, bij, noem het maar op.
Ik ga weinig toelichten hoe die van ons is, maar het is geen principe van 'het konijn heeft het hok verlaten'. En het is geen 'alomvattende' protectie, het is 1 van de vele stappen die in het proces zitten, het als 2FA wed je niet alles op 1 paard ;)
Dus je waarschuwt iedereen met kinderen om codewoorden/zinnen te gebruiken om de identiteit te bevestigen.

Ik ben al blij dat men collega’s (en die hebben ook kinderen) een gat kunnen boren op de voorziene plaats. Laat staan een onfeilbare manier vinden om te controleren of het bericht van hun kinderen legit is.

[Reactie gewijzigd door BlaDeKke op 22 juli 2024 14:13]

Het codewoord is: pappa dit is mijn nieuwe telefoonnummer.
Hahaha die had ik ook ontvangen van mijn dochter van3
en iedere werknemer weet dat -> social engineering en het is alsnog op straat
Enkel voor de mensen in bepaalde functie, dan vraag ik me nog af hoe je dit wil 'social engineren'? Doe jezelf voor als een collega, 'oh wat was ons woordtje ook alweer?' gaat niet echt werken.
Aan de hand van wat je schreef ben ik gaan nadenken hoe je de door anderen geopperde problemen kunt omzeilen en daarvoor heb ik er al een paar bedacht. Ik neem aan dat jullie ook enkele beveiligingen hebben ingebouwd. Voor mailtjes werkt zoiets, maar voor dat filmpje van @adje123 denk ik dat zoiets niet opgaat. Dat filmpje gaat uit van paniek en op zo'n moment moet je kind nog weten wat dat codewoord is. Dit gaat dus alleen op als er geen paniek is.
Maar dat geldt dan dus ook alleen voor mails tussen die personen in die bepaalde functies neem ik aan? Want alleen die weten wat het woord/zinnetje is toch?
Misschien hebben ze een monthly meeting waarbij de codenaam veranderd.

Bijvoorbeeld voor de maand mei "hallöchen" en dan in juni "doei" uiteraard zonder het internet want afluisteren doen we niet aan.
Je kunt als codewoord "Winnie de Poeh" gebruiken. Dat zal bij ieder Chinees bedrijf meteen weggecensureerd worden . }>
Waarom?

Edit: het is een oprechte vraag. Waarom zou "Winnie de Poeh" bij ieder Chinees bedrijf meteen weggecensureerd worden?

[Reactie gewijzigd door rud op 22 juli 2024 14:13]

Xi werd vergeleken met Winnie de poeh en dat werd gebruikt in memes etc en dat vond hij niet leuk dus nu wordt elke verwijzing naar de beer zowat gecensureerd
Was het alweer vergeten, maar daar leeft het waarschijnlijk nog.
Waarom?
Edit: het is een oprechte vraag.
Als ik niet onderweg geweest was, zou ik jou vraag al beantwoord hebben, maar andere tweakers hebben dat al gedaan. Inderdaad vindt Xi het niet leuk om met Winnie de Poeh vergeleken te worden, en daar reageert hij nogal heftig op. Kun je nagaan hoe hij op 'ergere' dingen reageert.

Kom er maar in om te downmodden, Chinese trollen... :+
Hier zou je toch ook PGP if GPG voor in kunnen zetten door iedereen zijn email te laten signen met hun eigen prive sleutel?

Veel cliënts zoals Thunderbird hebben deze functionaliteit zodat je automatisch kan zien of de email wel echt van de juiste persoon komt. Je slaat dan hun publieke sleutel op in je adresboek. Deze kunnen ze je zelfs veilig emailen de eerste keer.

[Reactie gewijzigd door rjd22 op 22 juli 2024 14:13]

Door rjd22:
Je slaat dan hun publieke sleutel op in je adresboek. Deze kunnen ze je zelfs veilig emailen de eerste keer.
Wel sneu als het "de eerste keer" gaat om iemand die zich voordoet als.

Als je niet via een ander kanaal checkt of een public key van iemand is, heb je slechts het probleem "of een e-mailadres van iemand is" verplaatst naar "of een public key van iemand is".

Het klopt of het is schijnveiligheid.
Laten we niet overdrijven. Ik neem aan dat je de eerste keer even mondeling overlegt dat je de sleutels met elkaar deelt.

Als de sleutel fout is kom je hier heel snel achter. Natuurlijk is het beter om de key via een ander kanaal te delen. Maar voor de eerste keer in overleg met elkaar de public key via email te delen is niet per se meteen onveilig. Dan moet de dader maar net weten op welk moment je de keys met elkaar deelt en hoe.

[Reactie gewijzigd door rjd22 op 22 juli 2024 14:13]

Hoe ziet dat er in de praktijk uit dan op het werk in de praktijk?

Een codewoord met je kinderen afspreken kan wel handig zijn ja. Ook om ze ergens uit een vervelende situatie weg te krijgen.
Klinkt goed, zo'n codewoord. Stel dat het echt is, je kind is natuurlijk totaal in paniek en overkomen van angst en weer daardoor het codewoord niet meer of vergeet het te gebruiken: Jij hangt de telefoon op en gaat verder met waar je mee bezig was, want dit is nep.
Virtual kidnapping, ik zag er een maand geleden al een filmpje over van Thio Joe. Dit was te doen met 3 seconden voice wat b.v. uit een voicemail te halen is.
Verkeerde comment.

[Reactie gewijzigd door The Realone op 22 juli 2024 14:13]

Ik denk dat je een beetje in de war bent qua comment ;-)
Hier een kort stukje als voorbeeld daarvan.
Persoonlijk zie ik dit als echte Amerikaanse bangmakerij / clickbait.

Ik kan mij echt niet voorstellen een crimineel een ontvoering in scene zet terwijl je mensen echt op een veel eenvoudigere manier kan oplichten. Weet je wel hoeveel (politie) aandacht je dan trekt? Dat terwijl je ook gewoon om geld 'kan vragen' via een AI stem.

Echt Amerikaans, het advies is zeker om je kinderen wapens mee te geven....

Aha, ik zie het al:
https://en.wikipedia.org/wiki/Candace_Owens

On several occasions Owens has claimed that the effects of white supremacy and white nationalism are exaggerated, especially when compared to other issues facing Black Americans.[9] She has expressed anti-lockdown views[10] and anti-vaccination opinions during the COVID-19 pandemic.[11] Owens has been criticized for promoting conspiracy theories,[12][13] mostly through her social media profiles and television and media appearances.

Dit is dus echt Donald Trump niveau. Graag geen nepnieuws verspreiden, maak je alleen maar mensen paranoïde mee. En check je bubbel, blijkbaar denkt het Youtube algoritme dat je dit 'intressant' vind om een reden.
Okay wat je moet weten van wikipedia:
1) Buitengewoon handig als je non-politieke dingen wilt weten, zoals wie wanneer de kruiskopschroef bedacht.
2) Extreem pro-establishment/NATO/etc als het om politiek gaat. "Philip Cross vs Halloway" is een aardige zoekterm. Een negatieve beoordeling van Wikipedia betekent voor mij dat iemand oprecht is.
Wat denk je dat ze doen met al het materiaal dat je intypt/invoert in ChatGPT en andere zogenaamde Ai tools?
Niet veel anders dan wat je nu al in Google e.d. invoert. Een digitale lap tekst is natuurlijk een stuk lastiger te herleiden naar een individu en een stuk minder krachtig dan de stem.
Waarom zou je in godsnaam een deepfake van jezelf bestellen?
Streamers zodat ze 24/7 online kunnen zijn en mensen ze geld sturen voor interacties.
Er worden miljarden verdiend met onze naïviteit. We hebben jarenlang bedrijven geld kunnen laten verdienen met onze gegevens, wat nu heeft geleid tot een situatie waarin die bedrijven deze technieken hebben fijngeslepen. Behalve dat een bepaalde hoeveelheid gegevens nu meer geld op kan leveren, wordt er ook steeds meer verzameld (op het zieke af, zoals hier).

Dit is jarenlang onder de radar kunnen blijven, denk bijvoorbeeld ook aan hoeveel er verdiend wordt met Android. Oracle heeft ooit geopenbaard dat Google tot 2016 22 miljard dollar heeft verdiend aan Android (op een omzet van 31 miljard, wat betekent dat er zeventig procent winst werd gemaakt). Google openbaart dit bewust niet, omdat je anders als klant tot de conclusie zou kunnen komen: waarom moet je zoveel data van mij verzamelen, daar zoveel winst mee maken, maar ons geen fatsoenlijk updatebeleid geven? Apple kan het ook, maar die heeft de hardware in eigen beheer. Dat zou ... appels met peren vergelijken zijn. Maar Jolla doet het al wél jaren goed, zonder eigen hardware. Die bieden jarenlang updates aan. En vergeet niet dat Jolla/Sailfish niet je gegevens probeert te verzamelen en ook geen reclame heeft.

Ik ben jarenlang misleid door een detacheringsbureau, waardoor ik na verloop zo'n 30~40% inkomsten misliep. Het duurde lang voordat ik er achter kwam hoe de vork in de steel zat, de vakbond bevestigde mijn vermoeden maar er was een regel dat je binnen het jaar bezwaar moest maken en niet achteraf. Dat heeft me dus letterlijk (tien?)duizenden euro's gekost.

Onze gegevens zijn goud waard voor anderen en daardoor onze vijand. Niet alleen in financiële zin, maar ook onze eigen overheid lijkt een haast onbeperkte honger naar onze gegevens te hebben. En nee, dat is niet om ons te bevoordelen. Kijk maar naar SyRI en de toeslagenaffaire. En het stopt niet.

Maar goed, niet dat het veel uitmaakt. In de politiek is er geen aandacht voor deze problematiek. Alleen de piratenpartij heeft nog enigszins een gezond standpunt ten opzichte van de omgang met onze gegevens. Maar ja ... ik denk dat de term piraat niet heel positief of volwassen klinkt. Ik kan het me niet voorstellen als we in Nederland een premier zouden hebben van ... de piratenpartij ...
Er staat 'door hen ingezonden materiaal'. Dus je kan ook een video van Donald Trump aanleveren.

Niet dat je deepfakes nodig hebt om Trump rare dingen te laten zeggen :+

[Reactie gewijzigd door beany op 22 juli 2024 14:13]

Waste of money!

Tenzij je een voorspelbaar resultaat wilt hebben...
Een deepfake van jezelf is inderdaad zonde van het geld, Dan kan je goedkoper even zelf een opname maken. Een deepfake van een ander kan best handig zijn. Bijvoorbeeld van je baas die je een loonsverhoging toezegt.
Een voorspelbaar resultaat is helemaal niet slecht. Je weet dan in elk geval waarvoor je betaald.
Het wordt wel leuk als je straks jezelf kan laten vervangen in een Teams meeting door je deepfake…
Daar stond toevallig een artikel over in de Wall street journal gisteren; I Cloned Myself With AI. She Fooled My Bank and My Family.

Verderop in dat artikel gaat ze iets verder en test AI (Synthesia) ook op een teams (edit: google meet) meeting, ook omdat de test met haar bank die een voice recognition hanteerde al werkte. De bank dacht dat ze echt was.

Haar collega’s hadden tot dusverre wel door dat de AI niet Joanna zelf was maar de resultaten beschreef ze wel als ‘eerie’. Ik weet niet zeker of de link ook voor iedereen werkt, ben betalend abonnee.

https://www.wsj.com/artic...k=integratedwebview_share

[Reactie gewijzigd door GugPanub op 22 juli 2024 14:13]

Ik heb het ook gezien. Maar vond de titel wel een beetje overdreven.
Ze liet alleen de eerste zin uitspreken door de AI. Daarna moest ze zelf het gesprek verder voeren.
Tiktokers verdienen beter dan ik.

Dus ja, hebben het geld ervoor.
Trump zegt zelf al genoeg rare dingen....
Uh-huh, en zijn alle techgiganten niet al 8-12 jaar in een public beta met het testen van "leuke filters" en "authentificatie" die eigenlijk gewoon nieuwe methodes verfijnen voor tracking, biometrics, en behaviometrics? Je krijgt in China überhaupt bijna geen toegang tot een internet verbinding meer tenzij je gezicht herkent wordt.
Enige verschil is dat je nu ook bij Tencent kan betalen met iets anders dan je data voor het eindproduct. (Twee keer in de zak gezet dus. 8)7 )

[Reactie gewijzigd door Mijiru op 22 juli 2024 14:13]

Een soort DaaS dus, Deepfake-as-a-Service?

Hmm, ik weet niet of dit nou een wenselijke ontwikkeling is? De 2D-versies, ok, die zijn duidelijk. Maar met name de 3D-versie zoals beschreven in het artikel vind ik erg dubieus.

Tuurlijk, leuk dat het technisch kan, en deepfakes zijn soms best indrukwekkend goed.

Maar je kunt ze helaas vaak ook niet onderscheiden van échte mensen. Op deze manier wordt het verspreiden van desinformatie, en meer algemeen, misleiden van mensen wel héél erg makkelijk gemaakt...

Daarnaast, hoe gaat Tencent bepalen dat je wel een video (en teksten) van jezelf aanlevert, en het niet gebruikt om een bekend persoon na te doen? Want ze zullen daar echt niet alle bekende personen uit Nederland kennen, of uit andere landen, behalve de meest publieke personen wellicht..

[Reactie gewijzigd door wildhagen op 22 juli 2024 14:13]

In bepaalde aspecten wordt straks "aanwezigheid-authenticatie" (uitgebreide vorm van 2FA?) of iets in dergelijke richting nog echt een feitelijk iets. Publieke personen zullen met gemak straks zoiets wel echt nodig hebben zo.

Je gaat richting een gouden kooi op deze manier, lijkt mij.
Maar het zal eerst ontarmt worden als 'vette feature' waar veelvuldig gebruik van zal worden gemaakt, promo hier, leuk filmpje daar, de leuke dingen beginnen tot de 'slechte' mensen genoeg verzameld hebben om zelf aan de gang te gaan.

Nu is het Tencent, en die zal z'n verificatie misschien prima op orde hebben, maar uiteindelijk krijgen we ook de 'andere partijen', die al eerder deden met de deepfake 'tapes'.

Hopelijk alleen blijft er een 'collectieve controle' van zulke filmpjes, maar het collectief op dit moment is eigenlijk net zo verdeeld dat er best groepen baat hebben bij filmpjes die desinformatie of laster rondgooien.
Ik ben er geen fan van, maar misschien juist goed dat deepfakes toegankelijker gaan worden. Als zoiets zo gemakkelijk is dat je het overal tegen komt, zijn meer mensen zich er ook bewust van dat zoiets bestaat.

Maar had het liefst gezien dat het niet bestond.
Of creeer je dan niet een samenleving waarin echt alles automatisch gewantrouwd dient te worden, want de kans is groot dat het een goede deepfake is?
Een corona-toespraak van Rutte live hacken en vervangen voor een deepfake stream zoals in de films komt snel dichterbij...
Of een samenleving waarin we leren om digitale informatie (audio, video, text) goed te signeren en verifieren. (en dit voor de eindgebruikers zo makkelijk/automatisch mogelijk maken en tegelijk de veiligheid fatsoenlijk weten te waarborgen)

Alleen Mark Rutte zou een audio/video opname of livestream moeten kunnen signeren als Mark Rutte, en mijn device (of ik deze functionaliteit nou zelf bouw, of een open source/third party oplossing gebruik) zou dit moeten kunnen herkennen als legitiem.

Het is mooi dat dit dit zo lang goed is gegaan, maar vroeg of laat zat dit er aan te komen.

[Reactie gewijzigd door RPS13 op 22 juli 2024 14:13]

Ach... Troost je... ;)
Het leven en de wereld, of tenminste toch datgene wat men daarvan online zet, is toch al fake :P
Ik dacht nog niet lang geleden te lezen dat de EU wetten wil invoeren tegen deepfakes (in bepaalde situaties?), en Tencent biedt het gewoon al aan als een service.

Interessante tegenstelling.
Nee dat ging niet om een verbod, maar om een gedragscode. Het is dus niet verboden. Zie nieuws: 'Europese Commissie sommeert techbedrijven harder op te treden tegen ...

Wel zijn individuele bedrijven/landen bezig met een (deel)verbod op hun platform op deepfakes:

- nieuws: TikTok verbiedt deepfakes van privépersonen en wil labels bij andere ...
- nieuws: China verbiedt nepnieuws dat gemaakt is met virtual reality en deepfakes

Ook het Nederlandse OM heeft zijn zorgen uitgesproken: nieuws: Openbaar Ministerie uit zijn zorgen over vorderende ontwikkeling deep...
En hoe wordt gewaarborgt dat diegene die het materiaal aanlevert ook de toestemming heeft van diegene in het materiaal?
Ondanks de vele negativiteit zie ik hier ook goede mogelijkheden. Je levert één keer videobeelden aan, daarna kun je diverse presentaties of instructiefilmpjes maken met dezelfde persoon door alleen andere tekst aan te leveren.

Enige aandachtspunt is dan als de oorspronkelijke persoon niet meer in dienst is en zich beroept op het niet meer maken van nieuw beeldmateriaal met deze persoon.
Dit gaat de wereld zeker een betere plek maken. Dat deed Tencent sowieso al. Ze hebben massa controle in china. Dat terwijl de oprichter niks meer te zeggen heeft.
Ik vind de afbeeldingen links en rechts er beiden best best fake uitzien om eerlijk te zijn.
goed voorbeeld dus, aangezien 1 van beiden echt is :+
Alsof er nog niet genoeg fake is op ons wereld wijde web
Daar zaten we nou net op te wachten 🥱🥱🥱
In haast een karikatuur van zichzelf evolueren de chinezen de kunst van het kopiëren verder, en maken ze van zelfs de directe actie een waar verdienmodel.

Op dit item kan niet meer gereageerd worden.