McAfee introduceert technologie om deepfakes te detecteren

Securitybedrijf McAfee kondigt Deepfake Audio Detection aan. De technologie is bedoeld voor consumenten om zich te kunnen beschermen tegen cybercriminaliteit via door AI gegenereerde audio. De technologie maakt gebruik van diverse detectiemodellen.

Deepfake Audio Detection maakt gebruik van contextuele, gedragsmatige en categorische detectiemodellen om te achterhalen of de audio in een video authentiek is of waarschijnlijk door AI is gegeneerd. De technologie van McAfee, die onderdeel uitmaakt van zijn Project Mockingbird, moet ervoor zorgen dat consumenten beschermd worden tegen deepfakes. Volgens McAfee moet de technologie een nauwkeurigheid bieden van meer dan 90 procent.

Volgens McAfee kan de tool worden ingezet om scams op basis van met AI gegenereerde audio te herkennen. Criminelen klonen met AI onder meer het stemgeluid van familieleden en vragen slachtoffers zo om geld over te maken. Het antivirusbedrijf spreekt ook over zogeheten 'cheapfakes', waarbij criminelen met AI de video's van nieuwslezers of bekende mensen manipuleren, bijvoorbeeld door andere woorden uit iemands mond te laten komen.

Door Sabine Schults

Redacteur

08-01-2024 • 17:48

27

Submitter: wildhagen

Reacties (27)

27
24
16
0
0
6
Wijzig sortering
En het kat-en-muis spel is begonnen! (was het natuurlijk al)

Zie het iedergeval al gebeuren dat de deepfake technologie deze technologie gaat bestuderen om zichzelf te verbeteren, waarna de detectie weer verbeterd zal moeten worden en we in een eindeloze cirkel terecht komen.
Dat is uiteraard altijd een risico, maar wat is het alternatief? Niets doen en, als verlenging daarvan, de deep fakes maar hun gang laten gaan is ook geen optie, gezien de potentiele impact ervan.

Deepfakes kunnen namelijk best wel schade aanrichten, zowel qua veiligheid (denk aan mensen die even 'eigen rechter' komen spelen bij iemand die slachtoffer van een deepfake was), maar ook mentaal/psychologisch of qua werk/carriere, zoals nog niet zo lang geleden werd aangetoond via: nieuws: OM eist taakstraf voor verdachte die deepfakeporno van NPO-presentatr...

En daarnaast kan er met dit soort zaken makelijk fake news en desinformatie verspreid worden, waarbij het dan geloofwaardig overkomt, omdat het zogenaamd van een betrouwbaar/bekend iemand komt (die dus deepfaked is). Dat kan op zijn beurt ook weer allerlei maatschappelijke problemen opleveren als mensen in dat fake news/desinformatie gaan geloven.

Dan is dit soort initiatieven denk ik weliswaar niet ideaal, maar wel het minste van twee kwaden.

[Reactie gewijzigd door wildhagen op 23 juli 2024 14:06]

Er is inderdaad niet direct een alternatief, om het zo te zeggen: pandora's box is geopend en we kunnen niet meer terug. Maar daardoor vraag ik me wel heel erg af hoe dit er over 10 of 20 jaar uit gaat zien.
Het alternatief is inderdaad niets doen. Het tijdperk van beeld en geluid voor belangrijke zaken is voorbij. Je kan niets meer vertrouwen. Als je wilt dat niemand meer in deepfakes gelooft, moet je het juist niet tegenhouden. Want dan blijven sommigen erin geloven omdat er altijd een kans is dat het echt is. Dat tijdperk is helaas voorbij.
Ik denk dat McAfee al hard bezig is om naast Audio manipulatie ook beeld manipulatie te herkennen. Ik vraag mij af hoe dit geïmplementeerd moet worden. Kleindochter belt en heeft (weer) een te lange maand. Komt er dan in beeld: Dit is niet je kleindochter, dit is niet je kleindochter! :) Ben benieuwd hoe dit eruit gaat zien.
En het kat-en-muis spel is begonnen! (was het natuurlijk al)

Zie het iedergeval al gebeuren dat de deepfake technologie deze technologie gaat bestuderen om zichzelf te verbeteren, waarna de detectie weer verbeterd zal moeten worden en we in een eindeloze cirkel terecht komen.
Grappig genoeg trainen die AIs vaak met adversarial networks zoals GANs, dus die cirkel is al precies hoe ze zelf trainen :) Een netwerk maakt een fake en de andere probeert ze op te sporen, zodat de fake maker leert hoe het beter te doen.
IDD is exact hetzelfde met die Re-Captia's

eerst konden Robots/programs die niet oplossen maar nu wel, waardoor ze semi-AI images gebruiken, die je bijna niet meer kan herkennen. waardoor zelfs een niet-oplettend persoon die niet meer kan oplossen. omdat de wolk eruit zag als een hond bij het aanklikken van honden.
Een "nauwkeurigheid van 90%" zegt niks trouwens, false positives, false negatives? Een fp is niet zo erg meestal, een fn erg vervelend
Waarom vind je een FP niet zo erg en een FN wel? Zie je het al voor je dat jij je moeder belt, in tranen vanuit het ziekenhuis en aan haar kant hoort ze: let op, wij zijn 90% zeker dat dit niet uw zoon is, wij raden u aan de verbinding te verbreken… daar gingen je laatste woorden….

In beide gevallen, afhankelijk van het scenario, is niets dan ‘100%’ zeketheid ideaal toch?

Voor voice hebben wij trouwens een ‘code bijnaam’ voor elkaar, laten we zeggen ‘poekie’ wat we anders echt nooit naar elkaar zouden zeggen die we bij ellende kunnen gebruiken. Klinkt wat extreem maar in deze tijd eigenlijk zo vreemd nog niet en een mooie manier voor identificatie/echtheid
Waarom vind je een FP niet zo erg en een FN wel?
[...]
In beide gevallen, afhankelijk van het scenario, is niets dan ‘100%’ zekerheid ideaal toch?
Natuurlijk, met dat laatste statement zal iedereen (met goede bedoelingen) het eens zijn. Alleen is een 100% zekerheid best lastig te bereiken, en zul je realistisch er altijd wel een paar keer naast zitten.

In die gevallen ben ik het eens met @Zoijar dat een false positive minder erg is dan een false negatieve.
False positive: in jouw voorbeeld kun je de moeder het bericht geven: "wij zijn 90% zeker dat dit niet uw zoon is, wij raden u aan de verbinding te verbreken en via een ander communicatiemiddel te verifiëren of die het echt is. Moeder pakt haar vaste telefoon, toetst het telefoonnummer van dochterlief in en weet heel snel of het een deepfake was of niet.
False negative: in jouw voorbeeld doet de virus/deepfakescanner niets. Moeder maakt vol vertrouwen het geld over voor de levensreddende medicijnen (want groen vinkje bij deepfake-bescherming) en komt er pas veel later achter dat ze is opgelicht.

Een goede implementatie, dwz van een controle van een bedrijf dat zich bewust is dat-ie fouten kan maken, roept bij een melding op tot nader onderzoek. Een overoptimistische implementatie vanuit de gedachte 'ik weet het zeker genoeg' maakt meer stuk dan je lief is.
Daar heb je zeker een punt, je kan de false positive zelf nog verifieren :-) (kan geen rating geven dus bij deze mijn waardering voo de inzicht)
Voor voice hebben wij trouwens een ‘code bijnaam’ voor elkaar, laten we zeggen ‘poekie’
"What's the dogs name?"
"Max"
"How's Wolfie"?
"Wolfie is fine!"

https://www.youtube.com/watch?v=uaWw5wuBPs4

[Reactie gewijzigd door merethan op 23 juli 2024 14:06]

Had niet verwacht dat iemand zou weten waardoor we op dat idee kwamen! Maar inderdaad, we dachten toen hey zo iets moeten we ook doen :-)
Voor voice hebben wij trouwens een ‘code bijnaam’ voor elkaar, laten we zeggen ‘poekie’ wat we anders echt nooit naar elkaar zouden zeggen die we bij ellende kunnen gebruiken.
Best een goed idee. Of een herinnering ophalen.
Echte herinneringen moet je dus niet doen, je moet iets hebben wat je normaal echt niet gebruikt of juist echt nooit hebt gedaan. Alles wat echt is zoals de bijnaam tussen partners en/of dingen die je hebt gedaan zijn publiekelijk te vinden als je op socialmedia zit bijvoorbeeld....
Ik begrijp wat je bedoelt, maar ik zit niet op socialmedia en bijvoorbeeld de heel intieme dingen zet niemand erop: Je hebt weleens grapjes die je alleen met die persoon deelt en alleen die persoon begrijpt. Maar het is gevaarlijker dan een code, helemaal mee eens.
Dit is natuurlijk een kat en muisspel. Nu is deep fake nog te herkennen, maar ook deze modellen worden steeds beter en dan herken je het steeds moeilijker.
Sterker nog je kan ze trainen op de ‘detectie punten’ en die sterker maken.
Idd kat en muis spel, maar goed dat het ontwikkeld word.
Benieuwd wanneer Norton hiermee gaat komen of hebben ze dit al of zoiets?
Fijn dat ze het mogelijk maken te detecteten en daarmee mogelijk misbruik zoals benoemd kan worden tegen gegaan. Echter vraag ik me af of het helpt bij fake-nieuws, de velen die dit soort nieuws geloven zullen ongetwijfeld stellen dat de label dat het fake is in werkelijkheid het neppe onderdeel is van het geheel (trumpisten to name one)

[Reactie gewijzigd door ultimasnake op 23 juli 2024 14:06]

Criminelen klonen met AI onder meer het stemgeluid van familieleden en vragen slachtoffers zo om geld over te maken.
Ik ga er vanuit dat dan voice berichten via b.v. Whatsapp bedoeld worden waarin ik dus al niet zomaar op in zou gaan. Dan zou ik eerst zelf met dat familielid gaan bellen om dan e.e.a. te bespreken en daarna dan persoonlijk langs gaan. Plus ja, neem aan dat je dan toch ook een bankrek.nr. nodig hebt en ik nooit zomaar op een vreemd bankrek.nr. iets zou gaan storten.

Tja, jammer dat juist McAfee hiermee komt wat ik op zich al een grote ergernis vind vooral bij nieuwe laptops. Dus ze hadden beter een tool kunnen ontwikkelen waarmee ze zichzelf automatisch verwijderen van een laptop.
Gewoon een simpel vraag stellen aan deepfaker vragen....
"Ben je echt?"
"Ja"
"Doei!"
Klaar en simpel :P
Dat zou wel 100% in plaats van 90% procent geven.
Dit zouden de social networks moeten implementeren, bijvoorbeeld voor berichten op FB, Whatsapp of Youtube.
En welk probleem zou dit dan moeten oplossen, bijvoorbeeld hier op Tweakers?

Voor een FB zie ik mogelijkheden om bijvoorbeeld een video of ander bericht van "mijn zoon" te markeren als een deepfake zodat ik niet ga denken dat hij het echt is. En dat hij niet toevallig een nieuwe telefoon heeft en dat ik nu even snel een paar honderd USD voor een of andere vage factuur moet betalen. Zelfde als met foto's en videos van allerlei modellen die worden gebruikt voor romance scams.

Op dit item kan niet meer gereageerd worden.