Cloudflare implementeert Adobe's authenticatiesysteem voor afbeeldingen

Cloudflare heeft ondersteuning toegevoegd voor Adobe's Content Credentials-systeem, waarmee de authenticiteit van online afbeeldingen kan worden geverifieerd. De functie is per direct beschikbaar voor alle gebruikers van het Cloudflare-netwerk.

Gebruikers kunnen de functie gebruiken door een nieuwe optie genaamd Preserve Content Credentials aan te vinken. Het systeem maakt gebruik van metadatatags die informatie bevatten over de eigenaar, publicatiegeschiedenis en eventuele bewerkingen van afbeeldingen. Gebruikers kunnen deze informatie verifiëren via een webtool van Adobe of de bijbehorende Chrome-extensie.

De technologie is gebaseerd op de opensource standaarden van de Coalition for Content Provenance and Authenticity. Met de integratie sluit Cloudflare zich aan bij het Content Authenticity Initiative, een door Adobe opgericht samenwerkingsverband waarvan onder meer Microsoft, Nvidia, Getty Images en diverse nieuwsorganisaties deel uitmaken. De implementatie door Cloudflare betekent een significante uitbreiding van het bereik van Content Credentials. Zo’n twintig procent van het internetverkeer verloopt via het Cloudflare-netwerk.

Door Andrei Stiru

Redacteur

04-02-2025 • 16:07

32

Reacties (32)

32
32
22
5
0
9
Wijzig sortering
Content Credentials worden gebruikt om aan te tonen of een afbeelding gemaakt is met AI of niet.
Tools kunnen metadata toevoegen aan afbeeldingen om aan te geven wanneer en hoe een afbeelding bewerkt is.

Meer informatie: https://contentcredentials.org/
Content Credentials worden gebruikt om aan te tonen of een afbeelding gemaakt is met AI of niet.
AI krijgt nu de meeste aandacht vanwege de hype, maar wel of geen AI is in principe maar een klein onderdeel van wat dit doet. Dit lost in theorie een probleem op dat ook al voor de komst van AI bestond, maar dat nu meer onder de aandacht is gekomen: als je een afbeelding tegenkomt, bijvoorbeeld op sociale media, hoe weet je dan of die afbeelding uit een betrouwbare bron komt (zoals een journalistiek medium waar je vertrouwen in hebt) en of die afbeelding in de tussentijd nog bewerkt is.
Deepfakes. Voice cloning. Synthetic media. It’s hard to tell what’s accurate and authentic these days.
Creators can choose to attach Content Credentials to their content, which might include things like whether AI was used or not. Voila! This information is added to the edit history of the content—creating a permanent record that can be confirmed.
Ik zie absoluut niet in hoe dit misbruik tegengaat.

[Reactie gewijzigd door armageddon_2k1 op 4 februari 2025 16:43]

Er zijn verschillende manieren dat dit misleiding / nep-afbeeldingen tegen gaat. Deze Chain of Trust kan vergelijkbaar met hoe andere certificaat systemen worden ingezet. Denk bijvoorbeeld aan het signeren van binaries; een OS vendor kan dat certificaat intrekken als blijkt dat iets malware is.

Het komt er op neer dat er altijd een papertrail is waarmee we kunnen zien waar een afbeelding vandaan komt, en welk pad aan veranderingen er worden gemaakt (denk aan een git-log waarbij elke commit signed is). Vervolgens kun je allerlei (geautomatiseerde) tools er op los laten om die chain te verifying en eventueel delen van die chain als onbetrouwbaar te markeren.
Ik snap het voordeel, maar ik vind het toch wel komisch dat dit principe jaren geleden al eerder is uitgevoerd binnen de Red Hat Linux-fork van Noord-Korea. Maar dan niet per se als handtekening van echtheid, maar als log van wie allemaal een bepaalde foto in handen heeft gehad.

Tot nu toe zijn computers nog niet goed genoeg gebleken om dit soort dingen veilig te doen op grote schaal. De theorie is solide, maar zelfs bij dingen als secure boot zijn er sleutels gelekt, implementaties defect, en sleutels relatief eenvoudig te extraheren. Je moet hele sterke signatures hebben in iedere stap van het proces om deze techniek te gebruiken als betrouwbaar watermerk, en dat is inclusief bereidheid van partijen als Adobe om gebruikers te vertellen dat hun computer geen foto's als geverifieerd meer kan markeren zodra er een sleutel lekt. Plus iedere afbeeldingsbewerker moet zichzelf vol stouwen met DRM, anders kun je gewoon in memory een geverifieerde afbeelding vervangen door een eigen plaatje naar keuze en photoshop het ding laten verifiëren.

Ik denk niet dat er een nuttige train of trust gaat zijn voor afbeeldingen. Triviaal in theorie, onmogelijk in de praktijk.
Dit is niet om je afbeeldingen tegen diefstal of misbruik te beveiligen maar om mensen te laten verifiëren dat een afbeelding ongewijzigd van jou komt.
Het probleem is dat het bewijs dat de afbeelding van jou komt zo sterk is als de geheime sleutels in je camera + photoshop/computer. Als ergens halverwege dat pad een lek zit, kan men in jouw naam foto's gaan maken.

In theorie is de geheime sleutel van jouw apparaat wellicht nog uniek en geheim, maar het gaat ook weer niet om een iemand specifiek (dan zou PGP niet goed werken); het gaat erop dat fotografen van een nieuwssite een foto op de site kunnen zetten en je kan controleren dat deze niet bewerkt is. Ik weet niet welke fotografen er allemaal voor de NOS of Reuters werken, maar het watermerk van Nikon zou ervoor moeten zorgen dat de foto in elk geval geen AI is. Als de belichting met Lightroom is aangepast, moet Lightroom de foto van een handtekening voorzien die precies zegt wat er allemaal is aangepast. Samen kunnen die eigenschappen dan worden geverifieerd.

En als iemand een Canon-sleutel (of Lightroom-sleutel, of Photoshop-sleutel) kan stelen, kan die eenvoudig een plaatje in mspaint maken en er een Canon-labeltje aan hangen. Voor iemand die de afbeelding verifieert is het een echte foto gemaakt door een echte Canon-camera van een perfect wit vlak met een blauw gezichtje.

Wil je dit principe tot het einde doorvoeren, dan moet iedere keer als Lightroom gehackt is alle Lightroom-afbeeldingen intrekken, iedere keer als iemand een Canon-camera dumpt alle Canon-camera's van dat model ingetrokken worden, en iedere keer als Cloudflare gehackt wordt alle Cloudflare-handtekeningen ingetrokken worden. Zo worden van het ene op het andere moment miljoenen foto's onbetrouwbaar gemarkeerd (want iedere "lightroom"-foto kan ineens arbitraire wijzigingen bevatten), maar weet je wel zeker dat toekomstige foto's geen namaak zijn. Dat is waar eerdere pogingen betreffende beveiliging gefaald hebben, en waar ik van betwijfel dat het nu wel goed zal gaan.
In theorie zorgt het ervoor dat er geen onzekerheid kan bestaan over de herkomst van een afbeelding.

In de praktijk reageren mensen natuurlijk direct vanuit hun onderbuik als ze een afbeelding zien waar ze boos van worden, zeker als die aansluit bij hun bestaande wereldbeeld, zonder aandacht te besteden aan eventuele Content Credentials.
Het is niet theoretisch, deze techniek passen we al lange tijd in de praktijk toe in SSL en andere certificate signing ketens. Private key cryptography is ook zeker niet een nieuw concept. En wanneer een afbeelding niet een (geldig) signatuur heeft kunnen we deze behandelen op dezelfde manier dat we het doen met HTTP zonder S—je kunt het vertrouwen, op eigen risico.
In de praktijk reageren mensen natuurlijk direct vanuit hun onderbuik als ze een afbeelding zien waar ze boos van worden, zeker als die aansluit bij hun bestaande wereldbeeld
Is dit wel zo? Ik denk dat de praktijk een stuk genuanceerder is. In bepaalde gevallen is het voor mensen niet relevant wat de herkomst van een afbeelding is, maar dat is iets anders dan of ze het eens zijn met de boodschap er van.

Daar komt bij dat de weergave en uitwerken van Content Credentials liggen bij bedrijven die de afbeeldingen serven; op social media kan er een label bij van wat de herkomst is, bijvoorbeeld. Het publiek kan de afbeelding zelf dan ook cryptografisch op herkomst controleren, waar vermoedelijk tools voor komen (of al zijn) omdat makkelijk te maken.
Exact dit, een Adobe jasje met een prijsje.
Voor commerciële behoeftes waaruit je hier in elke post kan lezen, veel inzet kost om te begrijpen wel behoeften er zijn.

We kennen allemaal stok of stock afbeeldingen en we snappen allemaal dat een foto op X met een zak zout bekeken wordt.

Maar goed, er is een markt voor..
Dit heeft niets met NFT te maken denk ik. Maar het vliegt wel met hetzelfde smaakje over mij heen.
Ok, en wat doet dit nou precies? Het is me niet helemaal duidelijk. Gaat het om het detecteren van AI? Van inbreukmakend materiaal? Van gefotoshopte foto's?
Het gaat natuurlijk om het beschermen van de kinderen! ;)

In deze tijd is iedereen bezig met het detecteren van fake-news en AI dus dat lijkt me het doel. Ik vrees echter dat dit basis wordt om af te dwingen dat alle plaatjes een commerciele licentie hebben.

Ik ben fundamenteel tegen deze techniek omdat die gebaseerd is op client attestation. Client Attestation betekent dat de leverancier van je OS en applicaties controleren dat je apparaat niet is aangepast. Klinkt goed tot je beseft dat je uit je eigen apparaat gegooid wordt als je aanpassingen wil doen.

Daarnaast maakt deze techniek gebruik van gepersonaliseerde watermerken. Dat betekent dat alles traceerbaar wordt en je niet meer anoniem foto's kan maken als je de overheid niet vertrouwt. Gezien het aantal dictators op deze wereld moeten we niet meewerken aan dat soort techniek.
Het zorgt er in theorie voor dat het proces van creatie, publicatie en latere bewerkingen transparant te herleiden is, zodat je kan nagaan of een foto bewerkt is.
Download save as en daarna resize en uploaden ben je die info toch allang al weer kwijt ?
Metainformatie kan inderdaad prima verwijderd worden, hoewel er hier waarschijnlijk ook een onzichtbaar watermerk wordt ingezet die lastiger te verwijderen is. Die zijn bestand tegen verandering van formaat of uitsnede van de afbeelding, en ook tegen best veel andere bewerkingen.

Hoe het precies werkt weet ik niet, maar misschien blijkt het nog best lastig om deze authenticatie te verwijderen. Het probleem lijkt mij eerder dat bepaalde AI-tools dit waarborg juist niet zullen willen plaatsen. De minder nette aanbieders van AI-tools gaan het niet implementeren want er is veel vraag naar niet-herleidbare afbeeldingen voor minder leuke doeleinden (misinformatie, deepfakes e.d.). Dus al die zaken kunnen alsnog doorgang vinden, en wij zullen als internetters niet snel kunnen nagaan wat er echt is en wat niet.

Het lijkt eerder bedoeld voor legitieme content-makers en AI-tools om enige waarborg te geven van de herkomst van afbeeldingen. Wat dat precies oplevert is me niet duidelijk. Het lijkt mij eerder bescherming van hun eigen belangen dan het bieden van duidelijkheid aan eindgebruikers. Want dat laatste zal volgens mij hooguit beperkt slagen, en lang niet volledig.

[Reactie gewijzigd door geert1 op 4 februari 2025 16:53]

Ja en dan heb je dat certificaat ook niet. Doel is hier om te laten zien welke foto's wél echt geschoten zijn.
Je kunt dan ook gaan redeneren dat als die informatie ontbreekt er mee gerommeld is. Bij fysieke producten hebben we al heel lang labels e.d. om de echtheid aan te tonen. Als zo'n label ontbreekt weet je dat er iets niet klopt.
Nee dit zal niks tegenhouden, maar je kan nu wel als developer of als content-eigenaar aantonen dat je ethisch en verantwoord met je content omgaat door alleen geverifieerde afbeeldingen te gebruiken.
Dank voor de verheldering. Al begrijp ik nog niet helemaal waarom je dit als network/hosting toko als CloudFlare dit zou implementeren?
Ze geven nu al plaatjes door, dus die worden gecached / geresized on the fly - ik vermoed dat ze vroeger alle overbodige headers er af stripten voor de efficiency en dat ze deze nu met rust laten?
Omdat ze dan kunnen zeggen dat hun omgeving vrij is van illegale of onechte zaken. De volgende stap zou kunnen zijn dat je browser plaatjes van andere websites weigert als fake.
Moeten we dit toejuichen? Adobe die ineens vecht voor de rechten van creators? Sorry, waar in de tijdslijn zijn we een ander universum ingegaan? Is dit niet hetzelfde bedrijf die nog geen jaar geleden alle rechten van alle content dat via hun software is gemaakt, heeft toegeëigend om zo hun AI modellen te trainen en de content kon gebruiken voor hun eigen marketing doeleinden?
Dit is veel breder dan alleen Adobe. Leica is dit aan het toevoegen aan hun camera's, Sony heeft volgens mij ook al camera's met dit ingebouwd (of komen er nog mee). En op termijn gaan waarschijnlijk alle grote fabrikanten hieraan meedoen.

Het is in theorie een goede manier om aan te geven wat er precies met de foto is gebeurd, vanaf het moment van maken totdat je het ziet als gebruiker. Dat kan vertrouwen geven dat een foto daadwerkelijk van een bepaalde fotograaf is.
Nee, de theorie erachter juich ik van harte toe, begrijp me niet verkeerd, ik denk dat een 'ledger' van alle mutaties en bewerkingen en wie wat gedaan heeft, zeker een toevoeging kan zijn. Het verbaast mij alleen enorm dat Adobe er mee op de proppen komt. Laten we eerlijk zijn, Adobe staat niet bekend om z'n onbaatzuchtige initiatieven en voortvarendheid in openheid.

Daarom verbaast het mij dat zij de eerste zijn die dit uitrollen en ben ik heel benieuwd hoe/wat en wanneer wij hier voor gaan betalen.
Adobe maakt producten voor professionele beeldmakers, dus zij leveren iets waar hun klanten iets aan hebben. Dat staat los van hoe Adobe werkt.
Moeten we dit toejuichen? Adobe die ineens vecht voor de rechten van creators? Sorry, waar in de tijdslijn zijn we een ander universum ingegaan? Is dit niet hetzelfde bedrijf die nog geen jaar geleden alle rechten van alle content dat via hun software is gemaakt, heeft toegeëigend om zo hun AI modellen te trainen en de content kon gebruiken voor hun eigen marketing doeleinden?
Je denkt toch niet dat ze dit doen als ze er niet aan kunnen verdienen? Het zou wel eens kunnen uitlopen in een "belasting" op iedere afbeelding op internet.
Ze doen dit omdat hun klanten dit willen hebben. Als Adobe dit niet doet en anderen wel gaan professionals naar andere leveranciers waarmee ze hun werk wel kunnen beveiligen. Je hoeft niet direct overal vreselijke dingen achter te zoeken. Ik neem dat jij op je werk ook dingen levert die klanten nodig hebben en waardoor er geld verdient wordt.
Ik weet niet hoe Adobe's Content Credentials-systeem werkt, maar in theorie zou Cloudflare natuurlijk al vrij makkelijk kunnen achterhalen wat het eerste domein was dat een afbeelding online heeft gedeeld (aangezien een groot percentage van het internet door hun servers stroomt).
Ik lees in sommige comments: "maar wat als je die metadata stript?"
Dan zou je ook nog kunnen kijken naar ISO standaard ISCC (International Standard Content Code): https://iscc.codes/
Dit is een soort hash, maar die is opgebouwd met hashes op verschillende onderdelen, dus niet alleen een traditionele hash, maar ook een content hash (die dus voor een jpg->png conversie hetzelfde resultaat oplevert), een metadata hash, en zelfs een semantic hash (work-in-progress geloof ik). Die kan je dus niet van een plaatje verwijderen omdat je hem gewoon opnieuw kan berekenen Daarmee zou je dus kunnen zoeken naar gerelateerde hashes, en daarmee kunnen laten zien of iets bewerkt is of niet.

(Achtergrond: Wij willen gaan dit toepassen voor identificatie van wetenschappelijke microscopie beelden)
Mogen ze dan ook wel eens een kant tekening zetten bij muziek waarbij de hulp van computers is gebruikt.
Wie autotune gebruikt zou eigenlijk een verplichte waarschuwing voor moeten komen dat degene niet zo kan zingen zonder hulp van een computer.
Gebruikers kunnen deze informatie verifiëren via een webtool van Adobe of de bijbehorende Chrome-extensie.
Leven we al in een post-firefox society?
Dubbel

[Reactie gewijzigd door 84hannes op 5 februari 2025 08:01]

Op dit item kan niet meer gereageerd worden.