Adobe-machinelearningmodel moet bepaalde soorten aangepaste foto's detecteren

Adobe, bekend van producten als Photoshop, heeft kunstmatige-intelligentieonderzoek gepresenteerd waarmee het bepaalde soorten gemanipuleerde afbeeldingen wil detecteren. Daarmee claimt het bedrijf te willen bijdragen aan vertrouwen in digitale media.

Adobe schrijft op basis van eerder gepubliceerd onderzoek dat zijn machinelearningmodel drie soorten aanpassingen moet kunnen detecteren. Ten eerste is dat splicing, waarbij elementen uit twee afbeeldingen worden gecombineerd. De tweede techniek is copy-move, wat betekent dat een element uit dezelfde afbeelding wordt verplaatst of gekopieerd. Ten slotte moet ook het verwijderen en later weer invullen van elementen uit een afbeelding vast te stellen zijn.

adobe-ml

Het paper van Adobe claimt dat het combineren van twee inputstreams, bestaande uit een rgb-stream en een noise-stream, betere resultaten oplevert dan andere methodes om gemanipuleerde afbeeldingen te analyseren. Aan de hand van de rgb-stream is bijvoorbeeld vast te stellen of er sprake is van ongebruikelijk hoog contrast aan de randen van een object in een afbeelding. De tweede stream is dan weer nuttig om vast te stellen of een bepaald element afkomstig is uit een andere afbeelding.

Het bedrijf zegt tegen The Verge dat zijn onderzoek nog in de kinderschoenen staat. Het voegt daaraan toe dat het 'een rol wil spelen bij de ontwikkeling van technologie die ondersteuning biedt bij het bijhouden en verifiëren van de authenticiteit van digitale media'. Het is daarom onduidelijk of het onderzoek duidt op een Adobe-product in deze richting. Tot nu toe heeft het bedrijf nog geen dergelijk product uitgebracht naast zijn beeldbewerkingssoftware. Tweakers schreef een artikel over de maakbaarheid van beeld en geluid.

adobe-ml1

Door Sander van Voorst

Nieuwsredacteur

22-06-2018 • 21:16

22

Reacties (22)

22
22
17
3
0
4
Wijzig sortering
Afgaande op de afbeelding, is het resultaat heel indrukwekkend. Ik vraag me wel af of een detectie niet enorm bemoeilijkt kan worden door de aangepaste afbeelding van nieuwe ruis te voorzien.
Nieuwe ruis? Dat zou enkel werken als de originele laag ruis eerst weggehaald zou kunnen worden, want nieuwe ruis zou gewoon voor extra veel ruis op de ruimtes met ruis zorgen waardoor de nieuwe stukken, zonder ruis, nog steeds minder ruis hebben. (Probeer het woord ruis eens vaker in een zin te gebruiken :p)

En omdat ik het met ruis niet deftig uitgelegd kreeg: Bekijk het met kleuren, als je blauw toevoegt aan een rood vlak met een witte cirkel in, gaat dat rood vlak paars worden waardoor de witte cirkel, nu blauw, nog steeds opvalt.

[Reactie gewijzigd door Putwater op 26 juli 2024 02:18]

Zou je niet - door bijvoorbeeld bovenstaande software / methode van Adobe te gebruiken - de nieuwe wijzigingen kunnen identificeren en deze dan maskeren met eenzelfde soort ruis als gevonden kan worden in het origineel? In dat geval is de nieuwe ruis dus lokaal en komt deze tot op zekere hoogte overeen met het origineel: dat zou detectie kunnen bemoeilijken.
Bingo.
Je haalt je aangepaste image door deze detector heen. Ziet waar je sporen hebt achter gelaten, en blijft daarop itereren tot Dit programma ze niet meer vindt, en daarmee ook lastiger te vinden voor anderen.
Dan blijf je een afbeelding dus net zolang aanpassen totdat een algoritme niet meer kan zien dat er in gerommeld is. Het is de vraag of het menselijk oog dan nog steeds een natuurlijke afbeelding ziet.
Die iteraties zouden best kunnen leiden tot een zwart vlak.
Je kijkt natuurlijk naar beide, want terwijl je het aan het aanpassen bent zie je wat het doet,

En je kan er natuurlijk ook een GAN van maken, wen netwerk welke een slechte photoshop neemt en het beter maakt, en probeert de detector te verslaan, (generative adverserial networks)

Uiteindelijk als je het automatisch kan detecteden dan kan je iets met die informatie doen.

Als ze het veiliger willen maken laten ze niet zien waar en wat er anders is. Dan is het een zwarte doos welke je probeert te foppen. Iets lastiger dus, maar zelfs dan nog
Anoniem: 455617 @Xirt23 juni 2018 05:38
Heerlijk ingewikkeld, maar wie weet is zoiets mogelijk.

Ik neem aan dat de ruis niet alleen op amplitude maar ook op frequentie word geanalyseerd. Ik verwacht dat je de amplitude van de ruis relatief makkelijk kunt veranderen. Hoe dat voor de frequentie zit weet ik niet.
Misschien wel, maar dan mis je ook het punt van photoshoppen natuurlijk.

Als ik een plaatje maak van mijn hoofd op het lichaam van Chris Hemsworth kan het nog zijn dat mensen daar in trappen. Hallo Tinder! Jammer alleen dat de AI van Adobe me betrapt ;(

Als ik nou vreselijk veel ruis moet toevoegen om de AI van Adobe te foppen, geef ik ook meteen weg dat er met het plaatje is geknoeid, want dit is zichtbaar voor gewone users.
Ik vermoed dat Adobe dit resultaat kan gebruiken om hun fotobewerkingssoftware te verbeteren, door belichtingen en rand overgangen te verbeteren richting wat wij als nog natuurlijker.

Ik zie dat we al lang bezig zijn met dit onderwerp (uit 2008):
nieuws: MIT ontwikkelt software om fotovervalsingen te herkennen:
https://www.technologyrev...fying-manipulated-images/
http://www.ists.dartmouth.edu/library/315.pdf
Je zou deze software als een service online kunnen aanbieden aan andere platformen.
Hmm ik zou nou juist zeggen dat een mens dit er wellicht ook wel uit zou kunnen halen, als hij goed gaat kijken.

Bij de eerste ziet de belichting van de zonnebloem er heel anders uit dan de achtergrond. En inderdaad zien de randen er ook typisch gefotosjopt uit.

Bij de tweede foto gaat het erom dat precies dezelfde meeuw twee keer in beeld is, maar dan verkleind. Ook dat is met het blote oog wel te zien, als je ernaar op zoek bent.

In de derde foto zie je inderdaad vreemde vormen in de zwarte tegel. Als je er niet op let valt het niet op, maar het is wel duidelijk te zien.

Dus ik denk dat het een mooi instrument kan zijn om automatisch manipulaties op te sporen! Alleen kan het voorlopig misschien nog niet meer dan een oplettend mens (liefst met een beetje ervaring met Photoshop).
Alleen kan het voorlopig misschien nog niet meer dan een oplettend mens (liefst met een beetje ervaring met Photoshop).
Als ik deze AI en een oplettende Photoshop gebruik allebei een eigen kantoor geef, zal de AI toch 'meer' afbeeldingen kunnen controleren verwacht ik ;)
Wel sneller wellicht ja! Maar hij is nog niet echt slimmer dan een mens, pfiew.
Nu wachten op de eerste software die die tool zo gebruikt om een fake automatisch te verbeteren 8)7 .
Adverserial networks heten die. Het ene neurale netwerk traint de andere.
Dat kan werken, maar denk er aan dat dit soort netwerken op zoek zijn naar de regels van de oorspronkelijke AI, en niet de regels van "wat is een goede photoshop?".

Het zou dus best kunnen dat een adverserial network besluit om alle randen pimpelpaars te maken omdat de AI van Adobe dan denkt dat het plaatje origineel is. Maar iedereen kan zien dat de foto is gewijzigd.
het is maar een kwestie van tijd vooraleer men ook de onzichtbare parameters van een afbeelding gaat aanpassen om dit te maskeren. Als AI het kan detecteren, kan het het ook verhullen.
Op deze site kun je heel gedetailleerd lezen over de detectie van beeldmanipulatie: http://fotoforensics.com/
"This picture looks shooped. I can tell from some of the pixels and having seen quite a few shoops in my time." - Adobe, 2019
Voor wat staat "Rol" in "Rol Pooling Layer"?

Edit
Lol het is niet rol maar roi... Region of intrest

[Reactie gewijzigd door Clemens123 op 26 juli 2024 02:18]

Ground-truth. Dat klinkt al vet. Maar ik vind die onderste image apart, je hebt er duidelijk geen noise map voor nodig om te zien wat tampered is. En dat doet het weer lijken alsof je een noise map vast wel kunt foppen door het veel meer gelijk te trekken in je edit... Dat moet in ieder geval toch niet moeilijk zijn voor een doorgewinterde Photoshop'er die rekening houdt met noise.

[Reactie gewijzigd door Bitmaster op 26 juli 2024 02:18]

Makkelijk op te lossen: maak een screenshot van een bewerkte foto! En het uitknippen en dan het als een bestand opslaan! Dan kan een software je niet vertellen of het een bewerkte foto is.
Knullige bewerkte foto misschien wel, want het valt wel op.

Mogelijk komt er in de toekomst een AI die elke pixels kan analyseren of het bewerkte pixel is, dan kan AI vertellen dat het screenshot van een bewerkte foto is.

Op dit item kan niet meer gereageerd worden.