Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Adobe toont preview van software om fotomanipulatie van gezichten te detecteren

Adobe toont een sneak peek van ProjectAboutFace, software die manipulatie van gezichten kan detecteren en ongedaan kan maken. De techniek werkt met een algoritme dat is getraind op het herkennen van bewerkingen met de Face-Aware Liquify-tool.

De softwaretool is gebaseerd op onderzoek van wetenschappers van de Berkeley-universiteit en Adobe Research. De software kijkt specifiek of pixels zijn uitgerekt of zijn gecomprimeerd. Die bewerkingen zijn het resultaat van het Face-Aware Liquify-filter. Die tool zit in Photoshop en wordt in de praktijk ook veel gebruikt in bijvoorbeeld modefotografie, om gezichten aan te passen.

Volgens Adobe kan de software bewerkingen herkennen die met het blote oog niet te zien zijn. De tool geeft met een percentage aan hoe groot de kans is dat er manipulatie heeft plaatsgevonden en met een heatmap wordt weergegeven waar er aanpassingen zijn gemaakt. Er is ook een undo-functie, die poogt om de gemaakte bewerkingen ongedaan te maken.

In de demonstratie die Adobe gaf tijdens zijn MAX-evenement, werkt dat overtuigend. De onderzoekers merken op hun eigen site op dat er wel verschillende beperkingen zijn. Zo is de tool specifiek getraind op het herkennen van manipulatie met het Liquify-filter. Andere bewerkingen worden waarschijnlijk niet gedetecteerd.

Of en wanneer de functionaliteit beschikbaar komt, is nog niet duidelijk. Adobe gaf de demonstratie als onderdeel van een groot aantal sneak peeks van nieuwe functies en mogelijkheden waar het bedrijf aan werkt. Dergelijke functies vinden in de toekomst wellicht hun weg naar de Adobe-software.

De wetenschappelijke onderzoekers die de software hebben gemaakt, hebben eerder dit jaar al een video online gezet met meer uitleg over de techniek. De werking wordt beschreven in de paper Detecting Photoshopped Faces by Scripting Photoshop.

Door Julian Huijbregts

Nieuwsredacteur

07-11-2019 • 09:30

35 Linkedin Google+

Reacties (35)

Wijzig sortering
En daar gaat de arms race :/ Ik weet niet of dit de ontwikkeling is die we hiervoor willen, ik zou liever zien dat er manieren komen om afkomst te bevestigen, in plaats van elkaar pushen tot de overtreffende trap.

That said, fijn om te zien dat in ieder geval deze kant op wordt ontwikkeld.
"ik zou liever zien dat er manieren komen om afkomst te bevestigen"

Houd de announcements in de gaten want Adobe komt een dezer dagen met iets dergelijks.
"En daar gaat de arms race :/ Ik weet niet of dit de ontwikkeling is die we hiervoor willen, ik zou liever zien dat er manieren komen om afkomst te bevestigen, in plaats van elkaar pushen tot de overtreffende trap.

That said, fijn om te zien dat in ieder geval deze kant op wordt ontwikkeld."


huh? Ilusion 100

[Reactie gewijzigd door swoutr op 7 november 2019 13:47]

Ik zou liever de ontwikkeling op een andere manier zien, maar ik vind het in ieder geval fijn dat er ontwikkeling is (i.t.t. geen enkele ontwikkeling).
Dat is maar de vraag. Als er een proofing tool komt, dan wordt dit het perfecte instrument om fakes te testen. Komen ze door de test, dan gaat iedereen er in geloven.

Het lost niets op. Het is beter als mensen zouden beseffen dat video's niet langer te vertrouwen zijn, getest of niet. Daarbij is het ook nog zo dat Adobe geen erg ethisch bedrijf is en bovendien een Amerikaans bedrijf is. Het is heel wel mogelijk dat ze willen (of moeten) samenwerken met geheime diensten. Die willen overal een backdoor in voor zichzelf. Zo zullen ze tegen Abobe zeggen, geef ons een manier waarop we kunnen faken voor het nationale belang. Open source zullen ze het niet maken.

Hoe los je deze zaken dan wel op?

Heel simpel. Er zijn tal van zaken die de overheid niet kan voorkomen. Zo kan de overheid geen moord, geweld, beroving of oplichting voorkomen. Ze kan die zaken wel in de hand houden door ze te bestraffen en vervolgen en veilige omgevingen te bieden.

Wat er naar mijn mening al lang had moeten gebeuren is dat de overheid een veilig internet in het leven had geroepen. Op dat internet kun je niet anoniem opereren, maar de overheid controleert de indentiteit en houdt toezicht. Zo een alternatief internet zal vanzelf populair worden omdat mensen veilig willen kunnen uitwisselen. Criminelen zullen het mijden omdat het link voor ze is. Op inbreuk in dit internet zet je draconische straffen zodat criminelen zich wel twee keer bedenken. Je houdt het ook vrij van buitenlandse infiltratie.

Mensen die geen overheidstoezicht willen kunnen dan op het gewone internet opereren. Daar zijn ze anoniem maar ook op eigen risico. Daar kan dan zoveel fake troep verspreid worden als mensen maar willen, maar de gewone burger komt er dan niet mee in aanraking en daardoor blijft de impact laag. Op het veilige internet is de verspreider gemakkelijk te traceren, en doordat er minder troep is loopt het ook eerder in de gaten.

De overheid moet mensen niet zo ver willen inkapselen dat ze geen privacy meer over hebben, maar toestaan om dingen voor haar verborgen te houden. Maar ze moet mensen ook de gelegenheid bieden om veilig te kunnen bewegen.

Zo is de samenleving toch? Wie de onderwereld in wil duiken doet dat op eigen risico maar moet zich niet te veel van de bescherming van de overheid daar voorstellen. Maar in de bovenwereld moet de overheid wel de veiligheid bewaren.

Waarom doen wij dat niet? Omdat onze machthebbers geen lokaal internet willen maar een globaal internet. Ze willen alles globaliseren. Dat is in het voordeel van groot-kapitalisten met hun corporaties en multinationals, Daardoor kan de nationale overheid de veiligheid van zijn eigen bevolking niet meer waarborgen. Het is juist een uitnodiging geworden aan grensoverschrijdende criminaliteit.

Nou dan zetten ze maar een eigen veilig gescheiden internet op voor internationale transacties. Maar houd op de belangen van de bevolking steeds op te offeren aan de hebzucht van een kliek. Overheid neem eens een keer echt je verantwoordelijkheid en houdt op met leuterpraatjes. Een informatie maatschappij vereist een veel veiligere basis dat wat er nu in elkaar geprutst is, door alles maar aan de markt over te laten.

[Reactie gewijzigd door Elefant op 7 november 2019 16:13]

Ik ben vooral bang dat dit eerder een benchmark wordt voor fotomanipulatie... Developers van filters gaan nu aan de slag om hun filter te verbeteren, net zolang tot deze tool er niet meer in trapt. En dat wordt het begin van een kat & muis spelletje.

Aangezien deze tool nu al dingen ziet die mensen niet opvallen, zal het in de toekomst misschien wel echt niet meer te detecteren zijn of een foto gemanipuleerd is.
Sterker nog, het bestaan van zo'n automatische detectie-tool is tegewoordig voldoende om filters te maken die niet door die tool gedetecteerd worden. Dat is precies hoe Deep Fake beelden gemaakt worden. De technologie is hetzelfde, Generative Adverserial Networks. (Generative=maakt beelden/geluiden/etc, Adverserial=bedoeld om een ander netwerk te misleiden). We weten inmiddels goed hoe we Neurale Netwerken kunnen trainen, en een neuraal netwerk trainen om een detectie-tool te verslaan is standaard.
De software lijkt verrassend goed te werken. Wel prettig dat zo iets bestaat zodat je er achter kan komen of iets aangepast is of niet. Zo veel foto's worden tegenwoordig even aangepast met wat filters. Vooral die op social media. In sommige gevallen is het niet erg. Maar kan me voorstellen dat het in bepaalde gevallen wel wenselijk is om er achter te komen of er mee geknoeid is. Bv gezichten verwisselen.

[Reactie gewijzigd door Astennu op 7 november 2019 09:37]

noem eens voorbeelden wanneer je dit gaat gebruiken? ik vraag mij dat namelijk nooit af..
Fake news?

Veel échte foto's worden in andere contexten gebruikt zodat het fake news wordt.. dat is nog wel te achterhalen met wat speurwerk. Maar gemanipuleerde foto's wordt lastiger. Dus het is goed om die foto's ook te kunnen herkennen met software. Ik vind dit een goed begin in ieder geval.
Alleen is dat niet iets dat iedere, of zelfs veel, Adobe gebruikers nodig hebben. Daarnaast is daar een extra vraag aan gekoppeld of Adobe wel het juiste commerciële Amerikaans bedrijf is om die verantwoordelijk op zich te nemen...
Je ziet wat er kan gebeuren met die zogenaamde 'deep fake' video's. Je kan er iemands reputatie flink mee schaden.
Als je dit soort troep er uit kan filteren is dat alleen maar goed.

Overigens wel bizar dat Adobe software levert waarmee je foto's kunt manipuleren, en nu dus ook software om dit te detecteren :+
Dit gaat overigens niet om "deep fake" manipulatie, maar expliciet om Photoshop. Dat zie je ook aan het tweede filmpje, "flow prediction". De tekst zelf heetf het ook over gecomprimeerde en uitgerekte pixels. Het betreft hier beeldbewerkingen waarbij delen van een foto worden gerekt, bijvoorbeeld om iemand slanker of langer te laten lijken. Op gezichten is dat "rekken" blijkbaar redelijk detecteerbaar.
Je kan lijkt me alleen maar vaststellen dat een bepaalde filter gebruikt is in Adobe Photoshop, dat is wat anders dan een algemene detectie van fotomanipulatie.
Volgens mij niet alleen photoshop maar van elke foto edition tool.
Niet volgens de onderzoekers:

"De onderzoekers merken op hun eigen site op dat er wel verschillende beperkingen zijn. Zo is de tool specifiek getraind op het herkennen van manipulatie met het Liquify-filter. Andere bewerkingen worden waarschijnlijk niet gedetecteerd."
Volgens mij is het gewoon fotomanipulatiesoftware. Niet direct bedoeld om manipulaties van derden op te sporen maar die van jezelf... Ze beweren in feite dat hun software boven bestaande technieken staat.

[Reactie gewijzigd door blorf op 7 november 2019 09:40]

Heb jet artikel/video wel gelezen/bekeken? Het is juist bedoeld om manipulaties te ontdekken. Machine learning kan dit wel/ in ieder geval sneller dan mensen. Zeker als je heel veel foto's snel wil beoordelen/controleren op manipulatie.

[Reactie gewijzigd door litebyte op 7 november 2019 09:49]

Software om manipulaties te ontdekken en alsnog te camoufleren...
Iedereen die niet deze Adobe(r) programmatuur gebruikt heeft bij jou geen schijn van kans. :+

[Reactie gewijzigd door blorf op 7 november 2019 09:54]

Daar kan je het natuurlijk ook voor inzetten....voor verbetering.
Vraag me overigens af hoe deze software werkt als foto's niet zijn bewerkt met Adobe algorithms (Photoshop), of het dan ook zo makkelijk/snel ontdekt wordt.

iig goed om je RAW bestanden te bewaren...dan heb je altijd een (sort of) alibi. :)
Is dat wel zo? Hoe zou men in een .jpg op kunnen sporen welke manipulaties men in Photoshop heeft gedaan? Als dit het geval zou zijn dan zouden de bestanden ook veel groter worden en is er ook helemaal niets interessants aan de software.

Toch wel vreemd dat een software bedrijf wat groot is geworden met foto manipulatiesoftware zich dan ook weer richt op het herkennen van fotomanipulatie... Op deze manier houden ze zichzelf wel lekker aan het werk.
> Hoe zou men in een .jpg op kunnen sporen welke manipulaties men in Photoshop heeft gedaan?

Uit het tweakers bericht: de software kijkt specifiek of pixels zijn uitgerekt of zijn gecomprimeerd.
Ja dat begrijp ik, volgens mij snap je mijn reactie niet.

Het maakt niet uit met welke foto manipulatiesoftware men dat gedaan heeft, want een .jpg slaat dit soort zaken niet op. Blorf heeft nu zijn reactie aangepast maar, hij ging er van uit dat het alleen met Photoshop of Adobe producten mogelijk was.
Hiermee heb je dolle pret op Instagram en Snapchat foto's :+
Deze technologie is slechts een prototype /demo en staat nog in de kinderschoenen. Adobe zei dat het van plan is om er aan te blijven werken en de AI te blijven ontwikkelen, zodat het op elke afbeelding gaat werken, ongeacht wat er is gebruikt om deze te wijzigen.
Leuk algoritme, maar heel makkelijk te omzeilen. Dat geven ze zelf ook al aan; aanpassingen aan verzadiging/contrast, opslaan in een andere resolutie en JPEG compressie hebben een negatieve invloed op detectie. Bepaalde aanpassingen zoals airbrushen maken het helemaal onmogelijk om op deze manier manipulatie te detecteren.
Leuk, maar dit is natuurlijk ook een prima tool om betere nep foto's te maken...
Wel ironisch, Adobe brengt een ont-photoshop tool uit.
Dit is dus vooral toegespitst op fotomanipulatie die met Adobe Photoshop zelf wordt uitgevoerd. Ik ben benieuwd of fotobewerkingssoftware die anders werkt of die speciaal gemaakt is om fotomanipulatie te verhullen ook met deze software ontdekt kan worden.
Twitter,Facebook,Youtube,Instagram zouden dit bij uploaden moeten inbouwen, en dan een melding geven met de resultaten. En ook natuurlijk hun Advertising Platforms.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Smartphones

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True