Google stelt tool die delen van video's kan blurren beschikbaar als open source

Google heeft een machinelearningtool waarmee gebruikers delen van een video of afbeelding kunnen vervagen, als open source beschikbaar gesteld. Met de tool kan de identiteit van mensen worden beschermd, stelt het bedrijf.

De tool heet Magritte en is beschikbaar via GitHub. De machinelearningtool kan objecten in video's en afbeeldingen detecteren, zonder dat hier een krachtige computer voor nodig is. Herkent de tool een object dat vervaagd moet worden, dan doet Magritte dit automatisch. Voorbeelden van objecten zijn volgens Google kentekens en tatoeages.

Google zegt dat de code voornamelijk handig is voor videojournalisten die de privacy van betrokkenen beter willen waarborgen. De tool zou sneller kunnen vervagen dan wanneer men dit handmatig zou moeten doen, met alsnog een hoge nauwkeurigheid, claimt Google. Magritte zou ook handig zijn voor ontwikkelaars en onderzoekers die data willen analyseren zonder dat ze daarbij worden blootgesteld aan privacygevoelige informatie.

Het bedrijf zegt verder zijn Fully Homomorphic Encryption Transpiler te hebben verbeterd, een techniek die het bedrijf een jaar geleden heeft uitgebracht. Met fhe kunnen ontwikkelaars werken met versleutelde data zonder dat ze toegang hebben tot privacygevoelige gegevens in die versleutelde data. Google zegt die transpiler het afgelopen jaar te hebben verbeterd; de circuit size is nu 50 procent kleiner, waardoor de transpiler sneller werkt. Fhe zou volgens Google handig zijn voor bijvoorbeeld financiële dienstverleners, de gezondheidszorg en overheden, waar op een veilige manier met versleutelde data moet worden gewerkt.

Door Hayte Hugo

Redacteur

23-12-2022 • 14:23

31

Reacties (31)

31
30
14
0
0
11
Wijzig sortering
Ik zit elke keer te denken, waar zit het verdienmodel? Al deze extra’s zonder kosten? Lijkt bijna te mooi om waar te zijn. Waar is de catch?
Ik denk dat dit aan de ene kant is gedaan om zo 'schone' data te krijgen op bijvoorbeeld youtube. Met deze tool kun je dus zorgen dat je site niet aansprakelijk is voor eventuele claims waardoor in het beste geval de video verwijderd moet worden waardoor er misschien wat reclameinkomsten verdwijnen en in het slechtste geval je een boete krijgt. Alles wat verder genoemd wordt is denk ik een mooie bijkomstigheid.
Wat zou impliceren dat dit achteraf gedaan zou worden? Want anders zou de content wel van te voren worden geblurred. Ik denk niet dat er heel veel 'content makers' blij zouden zijn als ze ineens random in hun video blurs zien verschijnen.

Het zou nog wel kunnen helpen tegen het demonitizen van materiaal omdat 'het algoritme' vind dat je ergens ongepaste content plaatst. Net zoals nu al het geluid van een bepaald deel van de video wordt weggehaald als copyrighted muziek op de achtergrond hebt draaien. Dan kan de rest van de video wel blijven staan. Maar goed, dan verdien je er als content maker niks mee, maar behoudt youtube wel eventuele reclame-inkomsten van het filmpje...
Google stelt regelmatig tools beschikbaar die in house ontwikkeld zijn. Het is relatief makkelijk om de code openbaar te gooien en erg goedkope positieve marketing. Iets wat Google wel kan gebruiken.
Aangezien ze dit bijv voor Google Maps en YouTube gebruiken is deze in-house development vast al lang gecovered door "we, the product". Nu ze het opensourcen kunnen ze eventueel nog gebruik maken van een community die mee kijkt, test en toevoegingen doet.
Het verdienmodel zit 'm in hetzelfde als al het andere van Google: data vergaren (soms met wat FOSS zodat ze goodwill creëren). Hiermee kunnen ze om dingen als portretrecht heen werken. Bijvoorbeeld Google Street View van mijn huis bestaat, ook als ik de hele dag voor m'n huis zit en m'n auto met kenteken er naast heb staan. Dan blurren ze m'n gezicht en het kenteken van m'n auto, de rest staat er gekleurd op.

En waarschijnlijk zal Google publieke data die deze technieken gebruiken ook weer indexeren in Google Images en Google search.

Het is hetzelfde als ze een tool zouden publiceren om auteursrechten in muziek op te sporen, of het blokkeren van .torrent bestanden die verwijzen naar materiaal dat inbreuk maakt op auteursrecht. Daardoor ontstaat ook meer schone data; en dat is in het voordeel van het data vergarende Google.
De kosten zijn al gemaakt om het te maken. Het aanbieden aan de community zorgt voor feedback (waardevol), aantrekkingskracht voor nieuwe werknemers (recruitment is duur), en goodwill in de community (reclame is duur).
Als de persoon van te voren video's blurt en ze dan op youtube video's upload, dan scheelt dat uiteindelijk weer voor het team dat achter Youtube zit. En zo ook de socials, etc..
Informatie. Lekker makkelijk toch als je mensen zelf deze data kan laten minen door dit soort tools te open sourcen. Geen zin om de broncode door te spitten, maar er zal vast genoeg contact zijn met servers van Google.
Als je "geen zin" hebt je aanname op juistheid te controleren, wat is dan het punt van het uitspreken van die aanname?
Het feit dat veel tweakers vaak roepen dat gratis niet bestaat. ;)
Er werken daar gewoon gepassioneerde ontwikkelaars die het leuk vinden om mooie producten beschikbaar te stellen. En Google is een top werkgever op die manier.
Is meestal voor 'recruitment', om te laten lijken dat je kans kunt maken op een leuk project terwijl je eigenlijk aan ad-tech moet werken omdat je in je leuke project geen kans meer maakt op promotie.
als een dienst voor jouw gratis is ben jij het product. jij bent het verdienmodel.
Wat begrijp je niet aan open source en beschikbaar via Github? Hoe zou Google het precies moeten cancellen als jij de code al in huis hebt?
In hoeverre zou je dit soort blurring weer ongedaan kunnen maken? Als het hele internet deze tool gebruikt en hij wordt gereverse engineered is t feest natuurlijk..
Blurring zorgt voor informatieverlies, dat is niet te herstellen. Wat wel eventueel kan is met de mindere informatie een redelijke gok doen van wat het voorheen was, maar het zal nooit hetzelfde zijn.
Dat kan alleen met AI en tenzij het origineel ook ergens beschikbaar is zal dat altijd een eigen invulling zijn van die AI, en dus niet de waarheid. Als het originaal ook beschikbaar is is omdraaien geen probleem meer natuurlijk :-)

Foto of video die is geblurd kan nooit worden "ontblurd" om het echte, originele beeld terug te halen.
Niet helemaal waar, bijvoorbeeld voor text blur bestaat een algoritme die probeert om de uiteindelijke blur te matchen en dan gewoon alle opties probeert. Oftewel als je algoritme te simpel is kan het zeker wel, zolang er geen data verwijderd wordt en er iets unieks uitkomt kan je het in theorie terughalen.
Daar zullen ze bij Google wel over nagedacht moeten hebben lijkt me?

Ligt verder ook aan hoe je blurred. Als je er vlakken van maakt met dezelfde pixels kan je wel een schatting maken, maar gaat ook veel info verloren
Als het echt cruciaal is, zet je er pikzwart vak op zodat er niets meer zichtbaar is. (En dan wel juist opslaan zodat die laag er niet gewoon weer afgehaald kan worden.)
Blurren zal altijd nog wat informatie bevatten en soms kan er nog voldoende sterk gegokt worden wat er oorspronkelijk onder zat. Voor tekst bestaat er al zulke AI die het vrij goed kan.
Goed dat het niet alleen gezichten kan blurren, maar ook objecten, zodat je ook de rest van het lichaam kan blurren. Dit is bijv. handig in China, waar de overheid technologie gebruikt om mensen met maskers en mondkapjes op, toch nog te kunnen herkennen op basis van lichaamsvorm en manier van lopen.
Wat een negatieve reacties weer. Google draagt, net als Microsoft overigens, veel bij aan de open source community. Dat is echt niet altijd (meestal niet zelfs) om data te vergaren of om niets vermoedende consumenten tot product te maken. Zowel Google als MS maken zelf veelvuldig gebruik van open source en dit is hun manier om terug te betalen/ te investeren. Dat is hoe open source werkt. Je neemt wat en je geeft wat. Uiteindelijk profiteert iedereen hiervan. Ik zou zeggen, verdiep je eens in open source en er zal een wereld voor je open gaan.

Maar goed, ik zal het wel mis hebben. Ik ben vast al twintig jaar het product van Linus Torvalts, die bakken met geld aan mij verdient ;-)
Tja, MS draait veel van haar Backend ook op Linux
Lijkt me een vrij handige tool, zal besparen op de tijd die nodig is om dit handmatig te doen. Ik vraag me af of dit iets is wat alleen achteraf mogelijk is, of dat dit ook "live" gedaan kan worden.

Volgende stuk begrijp ik niet helemaal:
Magritte zou ook handig zijn voor ontwikkelaars en onderzoekers die data willen analyseren zonder dat ze daarbij worden blootgesteld aan privacygevoelige informatie.
Wat voor privacy gevoelige informatie moet ik hier bij bedenken?

EDIT: heb even verder gekeken, blijkbaar gaat het om gezichten. Ik zie dit op zich nog niet als gevoelige gegeven, maar in combinatie met andere gegevens is dit natuurlijk een ander verhaal.

[Reactie gewijzigd door asdfqwerty op 22 juli 2024 14:30]

Misschien heeft de auteur van dit artikel het verward met algemene FHE, want daar schrijft Google het volgende over:
A deeper look at the technology

With FHE, encrypted data can travel across the Internet to a server, where it can be processed without being decrypted. Google’s transpiler will enable developers to write code for any type of basic computation such as simple string processing or math, and run it on encrypted data. The transpiler will transform that code into a version that can run on encrypted data. This then allows developers to create new programming applications that don’t need unencrypted data. FHE can also be used to train machine learning models on sensitive data in a private manner.

For example, imagine you’re building an application for people with diabetes. This app might collect sensitive information from its users, and you need a way to keep this data private and protected while also sharing it with medical experts to learn valuable insights that could lead to important medical advancements. With Google’s transpiler for FHE, you can encrypt the data you collect and share it with medical experts who, in turn, can analyze the data without decrypting it - providing helpful information to the medical community, all while ensuring that no one can access the data’s underlying information.

In the next 10 years, FHE could even help researchers find associations between specific gene mutations by analyzing genetic information across thousands of encrypted samples and testing different hypotheses to identify the genes most strongly associated with the diseases they’re studying.
Dat past wel precies bij de beschrijving die jij noemt. Magritte is specifiek voor video blurring.
Weet iemand een makkelijke offline tool voor handmatige blurring als je dit maar een paar keer per jaar doet?
Eigenlijk wel een handige tool want dat is wel iets wat ik mis bij Adobe Premiere Pro, of dat ik het misschien nog niet gevonden heb. Vooral nu met AVG moet je erg oppassen als je iets in het openbaar filmt voor een officiele instantie en het openbaar maakt. Handmatig blurren is best wel een hele klus waardoor er best wel video's uiteindelijk niet naar buiten gebracht zijn vanwege teveel werk.
Ik wacht wel even tot iemand een mooie GUI en Windows app maakt hiervoor :-)
Maar voor de rest lijkt me dit zeer handig dus!
Waarom implementeren ze dit niet gewoon direct in YouTube Studio?

Op dit item kan niet meer gereageerd worden.