Meta-platforms gaan AI-gegenereerde media vanaf mei voorzien van labels

Meta gaat AI-gegenereerde content vanaf mei voorzien van een Made with AI-label. De techgigant zei in februari al dat dergelijke labels eraan komen, maar meldde toen nog niet wanneer dat zou gebeuren. Het bedrijf past ook zijn moderatiebeleid rondom gemanipuleerde media aan.

Het beleid van Meta gaat vanaf mei gelden voor Facebook, Instagram en Threads, zo schrijft de techgigant op vrijdag in een blogpost. Het bedrijf gaat vanaf dan 'afbeeldingen, video's en audio' voorzien van een Made with AI-label. Gebruikers kunnen bij het uploaden content zelf aangeven of ze gebruik hebben gemaakt van AI. Meta zegt ook zelfstandig 'indicatoren' van AI-content te kunnen opmerken met een detectiesysteem op basis van 'industriestandaarden', hoewel het bedrijf daar verder weinig concrete details over geeft.

Meta kondigde in februari al aan dat het door AI-gegenereerde afbeeldingen later dit jaar van een label zou gaan voorzien. Het bedrijf had het toen ook al over video's en audio. De techgigant zei toen nog niet precies wanneer het zou beginnen met het labelen van AI-content. Meta zegt nu dus dat dit vanaf mei gaat gebeuren. Het bedrijf voorziet content dat is gegenereerd met Meta's eigen AI-tools al langer van een label, maar dat gaat ook gelden voor content die is gegenereerd door andere diensten. Meta zei in februari al samen te werken met andere AI-bedrijven aan technische standaarden voor het identificeren van AI-content.

De techgigant voert verder wijzigingen door in zijn beleid rondom gemanipuleerde media. Meta doet dat na feedback van zijn Oversight Board. Meta's oude beleid stamt uit 2020 en was alleen van toepassing op deepfakes die mensen woorden in de mond leggen. Het beleid bood daarom onvoldoende dekking voor het brede scala aan gemanipuleerde media en AI-content dat tegenwoordig wordt verspreid, concludeerde de Meta-toezichthouder. Een voorbeeld daarvan was een gemanipuleerde video van de Amerikaanse president Joe Biden. Die suggereerde onterecht dat hij zich ongepast had gedragen, maar was technisch gezien niet verboden onder het oude beleid.

Het nieuwe beleid gaat daarom gelden voor meer soorten content. Daarnaast wordt content die 'een hoog risico' voor misleiding vormt, voorzien van een extra prominent label met context. Verder wordt AI-gegenereerde content vanaf juli niet langer automatisch verwijderd als die geen inbreuk maakt op de overige voorwaarden van Meta. Content wordt vanaf dan alleen verwijderd in de 'meest risicovolle omstandigheden'.

Meta AI-labels
Bron: Meta

Door Daan van Monsjou

Nieuwsredacteur

05-04-2024 • 20:24

17

Lees meer

Reacties (17)

Sorteer op:

Weergave:

Ik vraag mij echt af of ze een dermate goed algoritme hebben om betrouwbaar zelf dat label toe te kennen. Indien dat niet zo is, gaat dit juist ten onrechte mensen laten denken dat iets echt is.
AuteurAverageNL Nieuwsredacteur @jpfx5 april 2024 20:44
Ze delen inderdaad erg weinig concrete details over dat systeem. Ze hadden het eerder wel over een detectiesysteem op basis van 'industriestandaarden' en zeiden daar samen aan te werken met andere AI-bedrijven. Dat laatste heb ik nog wat verder verduidelijkt in het stuk, specifiek met twee extra zinnetjes in de tweede en derde alinea's :)
Even zoeken op internet laat zien dat er 'standaard tags' aan de metadata van images toegevoegd wordt bij t genereren van deze images door AI.
En ja dat is gevoelig voor manipulatie en ja niet iedereen doet dit.
Maar volgens mij is dat precies wat Meta nu zegt: ze gebruiken bestaande standaarden, gaan kijken wat er aan te verbeteren is. Maar, nog belangrijker: ze geven 'waarde' aan deze metadata door er daadwerkelijk wat mee te doen.
Ik lees hierin dat marktwerking aan het pushen is op identificatie. Dus dit is nog maar t begin.

Er zijn trouwens prima watermark systemen specifiek voor film en images die je kan gebruiken die erg lastig te herkennen zijn en te verwijderen zijn. Deze coderen patronen in de image data, gebruikmakend van t feit dat veel images compressie hebben en wij als mens 'het plaatje in het geheel bekijken' en daardoor niet deze aanpassingen zien.
T zou mij trouwens niets verbazen als dit al door partijen gedaan wordt by the way.

[Reactie gewijzigd door Xorgye op 25 juli 2024 19:51]

"Hé AI, genereer beeld X, maar zorg dat deze niet als AI kan orden gedetecteerd". Je hebt er maar één nodig die dat "geleerd" heeft ;)
De exif data van een met AI gegenereerd beeld gaat met de gemiddelde foto editor zelfs bij croppen en opnieuw opslaan al verloren, die standaard tags (die meestal bestaan uit de prompt, seed etc) zijn ook met 1 klik te verwijderen.

Deze meldingen zijn vooral bedoeld voor kwaadwillenden die de boel flink willen misleiden, en die mensen doen ook echt wel dat ene stapje meer om de standaard ‘tells’ te verwijderen ;)
Of andersom. Dat jou gezicht als AI wordt gezien. Voor altijd en je komt nooit meer van dat label af.
Achterlijk systeem natuurlijk, je moet niet vertrouwen op Meta of de uploader om een label te plaatsen. Je moet vereisen dat een rechtspersoon of natuurlijke persoon haar/zijn cryptografisch verifieerbare digitale handtekening ingebed in de content plaatst, ongeacht of dit gegenereerd is of niet.

Dan kan iedereen zelf bepalen of de bron wel/niet vertrouwd wordt.
Dan moet je de hele chain van hardware die foto neemt, software die foto bewerkt (en welke bewerkingen sta je dan nog toe?), en website die foto toont aanpassen. Dat is vrijwel niet te doen en niet hoe mensen internet gebruiken en foto's delen.
En praktisch onmogelijk om achteraf te implementeren, hoe moet dit met alle media die al reeds op het internet staat?
Gebruikers kunnen bij het uploaden content zelf aangeven of ze gebruik hebben gemaakt van AI. Meta zegt ook zelfstandig 'indicatoren' van AI-content te kunnen opmerken met een detectiesysteem, hoewel het bedrijf daar geen verdere details over geeft.

Lijkt me dan toch wel redelijk kansloos. En nog gevaarlijker als gebruikers dan denken dat alles zonder een label dus een waarheid is..................
Idd, niet bij stil gestaan. Maar er is kans dat mensen beelden zien zonder label ze automatisch denken 'het is echt' misschien omgekeerde doen?

Authentieke beelden een label geven. Lijkt mij beter.
Wat moet ik daar onder verstaan? Als ik een YouTube filmpje van een kwartier heb en er zit 15 seconden AI in, is het dan labelwaardig? En wat betreft de reclames die ik tussendoor krijg te zien? Komt daar ook zo'n label bij?
Nu zal het nog redelijk makkelijk zijn, om AI te detecteren, maar binnen een paar jaar zal dat onmogelijk zijn. Zelfs al zou er soort van watermerk in AI verwerkt zitten, dan is dat altijd wel te omzeilen.
Krab krab, schiet dit nou het doel nu niet totaal voorbij van waarvoor AI eigenlijk bedoeld was/is namelijk dingen te automatiseren. Media word dan dus met behulp van AI gemaakt, vervolgens moet er een label bij geplaatst worden. Daarnaast dan een detectiesysteem en tja dan denk ik zelf van waarom niet weer gewoon op de oude manier.

Vind het allemaal maar steeds gecompliceerder worden met dat hele AI gezeur.
Welke “oude manier” bedoel je dan?

Ik denk dat we het eens zijn dat het niet markeren van media alszijnde ‘niet echt’ tot veel problemen kan leiden. Mensen kunnen verhalen of geschreven teksten al duizenden jaren niet goed doorzien/duiden; de laatste 15 jaar in de vorm van “maar het stond op Facebook”. We moeten daarom niet verwachten dat mensen dat, zonder hulp, met audiofragmenten of videobeelden wel gaan kunnen.
Zeiden ze ook van de eerste industriële machines.
Ik ben niet tegen automatisering en gebruik van techniek, maar soms schiet men gewoon het doel totaal voorbij. Zoals dit voorbeeld dat door dan toepassing van AI er veel meer extra handelingen nodig zijn. En evenzogoed geberude dit ook met industriele machines dat men tegen bottlenecks op liep.

Op dit item kan niet meer gereageerd worden.