Microsofts AI-model Vall-E kan stemgeluid imiteren met sample van drie seconden

Microsoft toont een nieuw AI-model, genaamd Vall-E. Dit text-to-speechmodel kan volgens de techgigant gesproken zinnen in vrijwel ieder stemgeluid genereren na een sample van drie seconden gehoord te hebben. Het AI-model kan daarbij ook intonatie en emotie nabootsen.

Vall-E maakt gebruik van een taalmodel en is getraind met 60.000 uur aan Engelstalige spraakopnames, schrijven onderzoekers in een researchpaper. De tool kan volgens de makers een stemgeluid nadoen na een sample van drie seconden gehoord te hebben. Daarmee kan de tool vervolgens via een geschreven prompt audioclips produceren met de stem uit de input.

Het Vall-E-model is uitgeprobeerd door studenten van Cornell University, die een website met verschillende demo's publiceerden. Op deze webpagina zijn verschillende echte spraakopnames te horen, die zijn gebruikt als sample voor Vall-E. Bij iedere sample worden een of meer synthetische spraakopname gepubliceerd die door Vall-E zijn gegenereerd. De kwaliteit daarvan varieert; enkele opnames klinken overtuigend, terwijl bij andere opnames duidelijk is te horen dat deze door software zijn gegenereerd.

Onderzoekers stellen dat Vall-E in veel gevallen beter presteert dan huidige text-to-speech-modellen. De onderzoekers schrijven echter ook dat het AI-model op dit moment nog verschillende problemen heeft. Het kan bijvoorbeeld gebeuren dat bepaalde woorden uit het tekstprompt onduidelijk worden uitgesproken, volledig worden gemist of juist dubbel voorkomen in de output. Daarbij heeft het model momenteel nog moeite met het nadoen van bepaalde stemmen, vooral stemmen met een accent.

Dergelijke AI-modellen zijn verder omstreden, aangezien ze ook gebruikt kunnen worden om zonder toestemming iemands stemgeluid te imiteren. De onderzoekers erkennen in hun researchpaper dat het AI-model misbruikt kan worden. Ze stellen dat het mogelijk is om een detectiemodel te ontwikkelen dat kan herkennen of een geluidsfragment door Vall-E is gegenereerd.

Op dit moment is Vall-E nog niet openbaar beschikbaar. Microsoft heeft wel een Vall-E-repository op GitHub gezet, maar deze bevat momenteel alleen nog een beperkt readme-bestand. De techgigant zegt niet of en wanneer het tts-model breed beschikbaar komt.

Microsoft Vall-E
De pipeline van Vall-E: een tekstprompt en een audiosample van 3 seconden worden aan een taalmodel gevoed en vervolgens gebruikt om synthetische spraakopnames te genereren

Door Daan van Monsjou

Nieuwsredacteur

09-01-2023 • 21:13

110

Submitter: Muncher

Reacties (110)

110
110
63
3
0
36
Wijzig sortering
Waar in eerste instantie vanuit de wetenschap en nieuwsgierigheid dit enorm interessant is, en ik er ook echt heel enthousiast van werd, begint het inmiddels wat te rommelen. Ik merk dat bijvoorbeeld ChatGPT (chat.openai.com) en DALL-E inmiddels veel worden gebruikt. Ik zie al verschillende linkedin-posts voorbij komen die ChatGPT 'bullchatter' text hebben. Het is ook gewoon erg makkelijk om ChatGPT in te zetten als 'eerste goede opzet' voor elk artikel, playlist, blogpost, release notes, nieuwsbrief, whitepaper, etc. etc. Filosofisch gezien heb ik er wel een probleem mee dat ik met mijn menselijke brein en gelimiteerde tijd hier op aard binnenkort het merendeel gewoon AI gegenereerde (pseudo interessante) posts zit te consumeren. Ik merk dat ik dit schuurt en dat ik er wat van begin te vinden.
ChatGPT: Schrijf een reactie op de discussie op Tweakers.net over Vall-E waar de eerste reactie is: “Waar in eerste instantie…..”

Antwoord ChatGPT:
Het is inderdaad interessant om te zien hoe AI-systemen zoals ChatGPT en DALL-E worden gebruikt en hoe ze de manier waarop we informatie consumeren kunnen beïnvloeden. Aan de andere kant kan het ook handig zijn om deze systemen te gebruiken als hulpmiddel bij het genereren van content of het maken van beslissingen. Het is echter wel belangrijk om te blijven nadenken over hoe we deze systemen gebruiken en hoe we ervoor zorgen dat ze ethisch verantwoord worden ingezet. Het is ook goed om te beseffen dat AI-gegenereerde content nooit helemaal hetzelfde zal zijn als content gecreëerd door mensen, en dat er altijd een menselijke invalshoek nodig is om de wereld te begrijpen.
ik vind het een beetje lezen als een eindeloze mening van een computer. wie heeft dat nodig ?
Je hebt op zich gelijk, maar er is meer dan dit.
Beetje off-topic, sorry. De output van ChatGTP kan erg variëren, van 'oké' tot 'ontzettend indrukwekkend'. Als je je afvraagt waarom mensen zo enthousiast zijn, of waarom we dit in de toekomst zouden kunnen gebruiken, dan werkt een voorbeeld misschien het beste.

Ik heb net een (stomme) javascript vraag gesteld:
I have troubles with my javascript code, it is not running efficiently. Please improve this

> [...new Array(1000)].forEach((i, j) => { if (j < 5) console.log(j ) } )
Het antwoord is, wat mij betreft, zeer indrukwekkend. De code wordt begrepen, en er worden 3 manieren gegeven om het te verbeteren, met een begrijpelijke uitleg.

Er is nog een lange weg te gaan, maar de mogelijkheden zijn nu al toepasbaar. GitHub's Copilot gebruikt dezelfde* techniek, en wordt al tegen betaling aangeboden. Op z'n minst is het alsof je aan Rubber duck debugging doet, met een heel slim eendje. En dat is dan slechts één enkele insteek :)

Of je ChatGTP moet gebruiken om Tweakers comments te schrijven is natuurlijk een andere vraag ;)

edit:
Voor het serieuzere werk: Lees hier hoe code-challenges opgelost worden door AI

[Reactie gewijzigd door svane op 22 juli 2024 14:31]

De oplossing op jouw javascript vraag die dan wordt gevonden is toch eigenlijk juist slecht? :?
Dat de antwoorden redelijke hints zijn is juist maar de oplossing zelf is matig.

De loop zou toch geen eindwaarde van 1000 moeten hebben? Want nu worden telkens 2 evaluaties gedaan; grenswaarde 1000 en if-conditie 5.
Het ligt er net aan hoe je 't ziet. Aangezien deze code compleet nutteloos is, zou de beste optimalisatie zijn om zoiets te doen:
console.log(0)
console.log(1)
console.log(2)
console.log(3)
console.log(4)
Qua performance is de code van chatGTP in mijn benchmark wel merkbaar sneller (+- 10%).

Het grote verschil is dat de originele code 1000 loops doet (waarvan er 995 nutteloos zijn). De code van ChatGTP doet dit maar 5 keer. Natuurlijk valt er nog meer te verbeteren, maar mijn initiële insteek was om te kijken of ChatGTP de nutteloze loops eruit kon halen. :)
Maar precies dat; ChatGTP kan dan wel nutteloze loops eruit halen maar snapt dus nog steeds niet wat wordt gedaan. Als we de logische aanname maken dan zowel de array grootte (1000) als de grenswaarde (5), waardes zijn die elders vandaan komen, dan is jouw voorstel van uitschrijven al niet meer mogelijk - wat wij als mens ook wel begrijpen omdat vragen vaak worden gesteld met daarin 'bijvoorbeeld'.
Maar feitelijk geef jij dus een veel simpelere oplossing die misschien niet elegant is maar wel veel sneller.
En de oplossing:
for (let j = 0; j < 5; j++) {
console.log(j);
}

is toch ook beter dan?

En dan hebben we dus een matige oplossing te pakken. Nu ken je stellen: de AI zal leren dat het beter kan maar pas nadat iemand anders (een mens?) een andere oplossing heeft bedacht.
Of je ChatGTP moet gebruiken om Tweakers comments te schrijven is natuurlijk een andere vraag ;)
ik vind de reactie van chatGTP anders behoorlijk zinnig, het is misschien een beetje een 13 in een dozijn mening, maar het geeft toch een vrij aardige mate van diepgang waar je vervolgens op door kunt discussiëren. bij wijze van spreken zou ik best een een stunt willen zien waarbij tweakers.net at random een account maakt en daarmee op alle artikelen de reactie van chatGTP post. om dan na 2 weken de modscores te vergelijken met 100 random geselecteerde tweakers

dat zou echt een heel leuke variant zijn op de turing test denk ik.
Wat je hier op tweakers doet is bijna niet anders eindeloze meningen van mensen, die vaker meer een bias hebben tegen bepaalde onderwerpen ipv een AI. Waarschijnlijk is het antwoord van de AI dus veel neutraler en beter dan het antwoord van de mens.
Een AI is zo biased als zijn trainingsmodel. Dat is in het verleden vaak genoeg gebleken. Ik ben benieuwd hoe we gaan zorgen dat een AI neutraal blijft (als dat is wat we willen), vooral als de grootte en complexiteit van de trainingsdata toeneemt.
Soms heb je wat body nodig voor je tekst en dan is het wel handig.

Maar als je een specifiek verhaal nodug hebt, is het niet lastig een degelijk inhoudelijk verhaal te krijgen zolang je maar niet verwacht dat er menselijke redenaties in zitten. Dat is waar het mis gaat. Het is feitelijk een opsomming van zaken die al te vinden zijn die vervolgens op een natuurlijke manier aan elkaar gehecht worden, wat je aan inhoudelijke teksten uit ChatGPT krijgt.
Het antwoord van de AI is in ieder geval rationeler. En dat zie je als een "eindeloze mening" ? Terwijl ik juist een menselijke mening veel eindelozer vind.
Omdat wanneer het een menselijke mening betreft, je juist het risico loopt eindeloos door te discussiëren. Vaak vanwege het ontbreken van kennis of een karakter dat niet open staat voor verandering van mening.
Tja rationeel is niet altijd het beste antwoord. Of "hoe lossen we de hongersnood het snelste op" een wel heel verkeerde oplossing zou kunnen bieden en het zijn doel voorbij schiet... 8)7
Ik denk dat tekst van chatgpt van een watermerk of kenmerk moet worden voorzien of zelfs verplicht worden. Alleen weet ik nog niet zo goed hoe dit vorm moet krijgen want tekst is zo gekopieerd

En hoe zit dat met plagiaat. normaal als een auteur iets geschreven heeft, is het zijn eigendom en alle verwijzingen moeten doorgelinkt worden met bron vermelding.

En hoe zit dat met betaald krijgen door een werkgever als jij het werk door chatgpt laat doen. heb je dan nog wel recht op een vergoeding, of kun je dan nog betaald krijgen voor de aantal web-views / bezoekers op een pagina.

[Reactie gewijzigd door trezzy op 22 juli 2024 14:31]

simpel gezegd, auteursrecht vervalt niet zomaar omdat de tekst niet door een mens is gemaakt. wat zou er immers gebeuren als 1000 mensen aan de text mee-werken moet je dan voor iedere publicatie 1000x goedkeuring ontvangen? Om die reden kunnen bedrijven (en andere rechtspersonen zoals stichtingen, verenigingen etc) ook auteursrecht bezitten.
Dan maakt het dus niet meer uit of het door 1 mensen, 10 mensen 10.000.000 mensen of een computer is geschreven.

De belangrijkere vraag is deze: hoe is de data om chatGTP te trainen verkregen. als dat onder fair use tbv de wetenschap is gebeurd, lijkt het me prima dat onderwerpen (personen) die in deze datahonger zijn terechtgekomen daar verder gewoon zonder enige vergoeding bij weg blijven, maar zodat het doel vn wetenschap inneens veranders in keihard geldverdienen, zie ik dat toch anders.

De vraag is dan al snel hoe kun je rechtmatig zoveel data inzetten voor het leveren van een dienst zonder de onderwerpen doorvoor redelijk te vergoeden. Of moeten we dit zien ter verbetering van de mensheid en vallen alle uitspraken van chatGTP dus in het publieke domein.

En dan je laatste vraag: hoe zit dat met betaald krijgen, waar wil jij eigenlijk voor worden betaald... voor het feit dat je mooie blauwe ogen hebt, of voor het werk dat je doet, of voor het feit dat het bedrijf waarde heeft aan jouw bijdrage.

Als je alleen betaald krijgt voor je aanwezigheid, dan zou het niet moeten maken of je nu vuilnisman of TOP ITér bent of toilet medewerker. dan krijgt iedereen voortaan minimumloon.

Als je alleen betaald krijgt voor het werk dat je doet, dan verdient een vuinisman, of een bouwvakker of een rioolschoonmaker letterlijk 100x meer dan de gemiddelde Tweaker die lekker op z'n luie gat websites zit te programmeren. want zwaarder werk is immers meer energie en dus meer loon.

Ik denk dan ook dat heel veel mensen op tweakers (die wat hoger zijn opgeleid gok ik), blij zullen zijn dat niet het werk, maar het resultaat lonend is. dat maakt dat hoe moeilijker het werk, en hoe meer winst er mee te behalen valt, hoe hoger de beloning zal zijn. in dat kader maakt het dus helemaal geen zak uit of je het zelf typt of door chatGTP laat uitspuwen, zolang het resultaat maar relevant, en winstgevend is. en dat betekend in ieder geval dat je als mens nog steeds de eindredactie in handen hebt en de feiten moet controleren.

[Reactie gewijzigd door i-chat op 22 juli 2024 14:31]

Om output die simpel te maken is te beschermen, is toch de oplossing "meer regelgeving" niet echt verstandig...

Het idee van copyright is misschien niet verkeerd maar aangezien juist deze AI gebaseerd is op het delen van informatie (wat daaruit put deze z'n 'kennis') is het proberen te beperken van de informatie die via de AI wordt vrijgegeven toch een beetje tegenstrijdig?

Bron vermelding is nooit verkeerd maar houdt ook een keer op. Als we stellen dat de aarde rond is dan hoeven we in veel discussies hier geen bron bij te vermelden.
Leuk bedacht, echter kan ChatGPT niks met data van na 2021 :+
Maar ook niet met te oude data, dan begint ie ook te sputteren.
Ja blijft goed dit… ;)
Ik denk dat dat wel meevalt, we zitten nog steeds in de neerwaartse trend waarin zinvolle tekst (journalistiek) achter een paywall komt en controversiëel ingestoken tekst (clickbait) steeds meer gangbaar voor het publiek zonder abonnement wordt. Het eerste is nagenoeg altijd met de hand geschreven, of dat laatste met de hand is geschreven of door een AI is niet echt een noemenswaardig verschil - het blijft prut.

[Reactie gewijzigd door nst6ldr op 22 juli 2024 14:31]

Het ernstige hiervan is dat kwalitatieve kennis en tekst hierdoor weer achter een paywall verdwijnt en dus in feite een 'luxe' artikel wordt wat Jan Alleman niet kan of wil betalen, en enkel door de (hogere) middenklasse en daarboven geconsumeerd zal worden.
Ja, je kunt als Jan Modaal ook gewoon een abonnement nemen op een (online) kwaliteitskrant, maar Jan Modaal vindt dat vrees ik in veel gevallen niet het geld waard gezien die toch niet van plan is om meer dan 10% van de artikelen te lezen.. en dus in feite 90% van dat betaalde abonnementsgeld als weggegooid beschouwd.

Nieuws op TV heb je al lang weinig meer aan, want dat is allemaal reclame gedreven en dus onderhevig aan het clickbait effect waar oogballen de meetstaf zijn.. en laat nieuws op TV nou nét dé manier zijn hoe de meeste Jan Modaaltjes hun nieuws consumeren.

Ernstige zaak dit, bepleit zelf ook al jaren voor een algehele afschaffing van reclame. Ben je in één klap van al die clickbait af.

[Reactie gewijzigd door Ayporos op 22 juli 2024 14:31]

Ik denk dat je de zaken daarmee achterstevoren interpreteert. Men dacht met consument onvriendelijke praktijken als tracking en gepersonaliseerde reclame makkelijk geld op te kunnen strijken, echter geldt dit voor bijna alle kranten. Wat je merkt is dat Jan Alleman dan een voorkeur heeft voor clickbait. Goede content kan het nooit winnen van clickbait in een milieu van hypercommerce, daarom gaat het achter een paywall. Jan Alleman is slachtoffer van zijn eigen morbide fascinatie.
Maar ook aan het effect van clickbait komt een eind. Ons eigen neurale netwerk leert ook bij.

Bijv. als je nu een mailtje ontvangt met "U heeft X gewonnen in de loterij" dan is je eerste reactie al niet meer 'jippie' + [Click] maar [Delete].

Daarom neemt de interesse af voor bronnen die vooral clickbait leveren.
Ik denk dat de kwaliteit van AI vrij snel hoger kan zijn dan menselijke teksten omdat ze on the fly op jouw niveau kunnen worden gegenereerd:
- sentiment
- lengte van artikel
- hoe technisch het uitgelegd is

Het web wordt dynamisch en journalistiek wordt vooral onderzoek en fact checking databases opstellen i.p.v. de werkelijke teksten uitschrijven volgens mij.
De AI haalt de informatie van het internet.

Garbage in = Garbage uit.

Zeker als alle goede content achter een paywall zit, zal ChatGT en consorten enkel kunnen quoten uit de 'garbage'..

Het begon met Facebook, nu komen de ChatGT en consorten erbij: Je zal gaan zien dat de hogere opgeleiden met meer inkomen hun informatie van hele andere plekken (onafhankelijker?!) zullen halen, en Jan Modaal volgt de AI...

Over 10 jaar: 2e kamer bestormd door mensen die ChatGT als hun orakel zien?!
Welke kwaliteitskrant is er dan in NL, eentje die niet over elk artikel haar eigen politieke saus legt? Eentje die nieuws vanuit meerdere perspectieven brengt, en het aan de lezer over laat zijn eigen mening te vormen? Vroeger was dat voor mij het NRC, maar dit is ook al slachtoffer geworden van de woke saus.
en wat is dan precies het 'woke' sausje in jouw beleving,

noem eens drie artikelen van de afgelopen week waarin je dat duidelijk naar voren ziet komen... want zoals ik het nu interpreteer is het vooral.. zwarte piet is gewoon zwart, negers naar hun eigen land, homo's zijn vieze beesten en vrouwen moeten netjes op de knietjes bij de deur op hun heer en meester wachten, eten gekookt en klaar voor al zijn lusten en zijn lasten.

Misschien is dat soort holbewoner-gedoe ook gewoon een beetje achterhaald geraakt inmiddels.

offtopic:
disclaimer voor de modjes: dit is natuurlijk een overdrijving om mijn punt zo duidelijk mogelijk te maken, dus geen persoonlijke aanval op @JAHRASTAFARI
Heb zo geen concrete voorbeelden, maar ze zijn ook daar doorgeschoten - naar mijn mening - in denken vanuit identiteitspolitiek, een overdreven aandacht voor de identiteit van groepen en dat sommige generiek slachtoffer of onderdrukker zijn. Dus als je ... bent, dan ben je ....

Maar even terug: welke NL kwaliteitskrant kun je me aanraden?
bepleit zelf ook al jaren voor een algehele afschaffing van reclame. Ben je in één klap van al die clickbait af.
Idd. Reclame is vanwege de financiele impuls die zowel de leverancier van het produkt alswel de publiceerder van de reclame altijd onbetrouwbaar. En om reclame effectief te laten zijn is clickbait een veel gekozen oplossing (waarbij clickbait dan sensatie is met heel beperkt waarheidsgehalte).
Ik denk dat dat wel meevalt, we zitten nog steeds in de neerwaartse trend waarin zinvolle tekst (journalistiek) achter een paywall komt
Omdat dat nu eenmaal op de een of andere manier betaald moet worden.....
Anoniem: 454358 @Jochem10 januari 2023 00:01
Het is allemaal onderdeel van de 'race to the bottom'
Niemand wil nog ergens voor betalen, alles moet het liefst gratis, en dan is dit het eindstation.
Zoals hier op tweakers, vrijwel niemand wil voor Plus betalen -Moi inclus- maar verwacht wel aaa content. Dat gaat gewoon niet. Over een paar jaar bestaan veel sites uit 'hey, AI, maak iets leuks van dit persbericht' content omdat het gewoon niet meer uitkan.
Maar op dit moment bestaan ook al heel veel sites die niets meer doen dan copy paste van een nieuwsbericht, dus als de AI er iets van maakt wat op de doelgroep is afgestemd gaan we er schijnbaar op vooruit.
Niet alleen kan deze technologie ingezet worden om mensen om de tuin te leiden zoals jij aanhaalt, er zijn ook puur kwaadaardige acties die hiermee erg makkelijk gemaakt kunnen worden waar mensen van op hun hoede moeten zijn.

Het eerste wat me bij dit bericht opkwam was het concept van deepfakes, maar dan met geluid in plaats van beeldmateriaal. Geen idee of dit onder dezelfde noemer valt, maar het achterliggende principe is hetzelfde. Het is hiermee extreem eenvoudig voor kwaadaardigen om zich voor te doen als anderen, met verscheidene gevolgen.

Denk aan sociale zaken als 'eenvoudige' ruzies maar ook exploitaties als toegang verschaffen tot systemen die voorheen de stem als authenticatiefactor gebruikten. (Sowieso niet slim om dat als enige factor te gebruiken, maar dat terzijde.)

Telefonische phishing is nog zo'n voorbeeld. Met een AI-gebaseerde stemvervormer kan je je voordoen als een werknemer of werkgever en daarmee anderen instrueren om iets te doen waar jij normaal geen recht op hebt. "Hee Rob, met mij. Ik kan niet inloggen met mijn admin account. Kan je mij een tijdelijk account aanmaken? Kan pas vanavond bij mijn email om de boel te resetten." Misschien niet het meest realistische voorbeeld, maargoed ik phish dan ook niet zo vaak dus weet ik veel. :p
Het probleem met deze systemen is nog (tot zover), dat ze erg goed zijn in copy paste. Soms kunnen ze patronen goed herkennen, maar soms blijven ze daar angstig aan vast klammen waaruit duidelijk is dat het getrainde AI netwerk letterlijk geen idee heeft wat het doet. Sommige antwoorden zijn indrukwekkend of overtuigend, maar ik kom ook ontzettend veel rommel tegen waarin ik denk dat het nog wel even duurt voordat ze echt toegevoegde waarde kunnen hebben. Zo'n chatbot kan je een leuke opzet geven voor je manuscript, maar je ook heel goed op het verkeerde been zetten.

Daarbij kan je afvragen of de tijd en invulling als mens er misschien anders uit gaat zien. Heel vroeger werkten we zolang we konden (ofwel meer dan 40u/week) omdat we weinig tot geen machines hadden. Sinds de industriele revolutie en met name ook digitalisering zijn we steeds efficienter gaan werken. Het voelt in zekere zin minderwaardig dat een AI misschien wel het gros van onze taken kan overnemen; ook de geschoolde beroepen zoals ingenieur of software ontwikkelaar. Daarintegen zou het de volgende logische stap kunnen zijn naar een verlicht mensenleven.

Niettemin vrees ik wel beetje wat een AI gaat doen als die "ergens iets kan vinden", en met name als die er acher komt dat die veel slimmer is dan een gemiddeld mens (of wellicht dat we op dit moment nu al zijn, afhankelijk hoe je "slim" meet). Waarom zou die daar naar luisteren of voor werken? Ik vind daarin pratende of interactieve AI's eigenlijk ook een beetje eng.. ik ben in de tijd opgegroeid dat je machines uit elkaar kon halen, zien hoe ze werken, en vooral niet dat ze tegen je beginnen te praten (of als ze dat simuleerden, dat ze dan gewoon Welkom123.mp4 en WindowsXPShutdown.mp4 afspeelden bij opstarten en afsluiten). De tijd gaat het ons leren hoe dit er verder uit gaat zien.

[Reactie gewijzigd door Hans1990 op 22 juli 2024 14:31]

Heel vroeger werkten we zolang we konden (ofwel meer dan 40u/week) omdat we weinig tot geen machines hadden.
Wat noem je heel vroeger? Middeleeuwen? Men werkte toen zo'n ~1600 uur per jaar tegenover onze 2000+ met onze 40 urige weken. Die 40urige werkweek is er pas sinds die machines.

[Reactie gewijzigd door batjes op 22 juli 2024 14:31]

2000 uur is wel veel, dan zou je nooit vakantie nemen. Uitgaande van 38u/wk en 48weken , is ~1824 uur. Maar gemiddeld zijn we al stuk lager vanwege parttimers e.d.

Het verloop van werk weken is zeker niet monotoon geweest. Maar ook genoeg perioden dat er over de 1800 uur per jaar werd gewerkt. Daar boven op komt nog dat hoog intensief seizoensgebonden werk (bijvoorbeeld 80 uur in 1 week) slopender is dan elke week een duurzaam aantal uren werken (bijvoorbeeld 32 of 40). Je ziet dat seizoensgebonden werk nog maar terug in enkele sectoren terug, waar nog maar relatief nog maar weinig mensen werken.
Tip voor mensen die, net als ik, niet weten wat "bullchatter" is: ga het niet Googlen tenzij je van de herenliefde bent.
Maar ben je erachter wat het betekend? Ik weet het nog steeds niet :?
Nou de resultaten die ik tegenkwam waren sites of apps voor gay dating, dus heb de speurtocht voortijdig beëindigd.
Ik denk trouwens dat @Jochem een soort "bullshit" bedoeld, stukken tekst gegenereerd door AI die je vervolgens in je posts zet om zo meer aandacht of likes te krijgen.

[Reactie gewijzigd door Roy23 op 22 juli 2024 14:31]

een "bullshitter" in chatvorm.
En dan begin ik te vermoeden dat je post door ChatGPT is gemaakt... ;)
Het is inderdaad interessant om te zien hoe language models zoals ChatGPT en DALL-E worden gebruikt, maar het is ook begrijpelijk dat je bezorgd bent over de mogelijkheid dat we steeds meer consumeren wat door AI gegenereerd is. Het is belangrijk om ons bewust te zijn van de impact van deze technologie en ervoor te zorgen dat we het op een verantwoorde manier gebruiken. Dit betekent bijvoorbeeld dat we ons afvragen of het gebruik van ChatGPT of DALL-E in een bepaald geval de juiste keuze is en of het een menselijke inspanning vervangt die nuttig zou kunnen zijn. Het is ook belangrijk om ons ervan bewust te zijn dat deze technologie nog steeds beperkingen heeft en dat het belangrijk is om de menselijke elementen van creativiteit, kritisch denken en empatie te behouden en te waarderen.

(Reactie gegenereerd met OpenAI)
Zie mijn reactie hierboven. ChatGPT heeft voor jou dus min of meer dezelfde tekst gegenereerd.
Uiteraard zal de strekking hetzelfde zijn. Het model genereert geen mening, het interpreteert een stuk text, distilleert een vraag en een onderwerp en compileert op basis van beschikbare bronnen of geleerde informatie een response.
Mij lijkt het fantastisch om na 3 seconden antwoord te kunnen geven op Indiase 'Microsoft' medewerkers op basis van hun eigen stem.
Alles wat met AI is gegenereerd zou een label moeten hebben
of alles wat niet met AI gegenereerd is zou een label moeten hebben?
Krantenartikelen geschreven door AI, mooie plaatjes gegenereerd door AI, filmscripts films, etc etc. Imho zou het netjes zijn als mensen daar altijd bij vermelden dat het om een AI gaat en niet een mens.

Een beetje hetzelfde idee als dat influencers bij hun post moeten aangeven als het gesponsord is..
Anoniem: 450173 @Jochem10 januari 2023 06:19
Interessant. Misschien verklaart deze insteek waarom forum stemmers, klimaat ontkenners en anti vaxxers steevast bots genoemd worden.
Ik begrijp je volledig. Je wil niet constant AI gegenereerde teksten lezen. Je wil lezen wat ik of mijn buurman schrijft.

Misschien moet er in de toekomst duidelijke markeringen komen waaruit je in één oogopslag kan zien dat het AI tekst is of geschreven door mens. Het eerste kan je dan meteen skippen.
Of het tweede kun je meteen skippen. Je herkent een mens aan biased antwoorden, de AI is neutraler qua standpunt en evenwichtiger.
@Jochem zie daar https://gptzero.me/ deze app kan zien of het door ChatGPT is geschreven of niet.
Tja, mijn eerste instantie (en dan heb ik het over jaren geleden) was ook technische interesse en opwinding, maar al vrij snel maakte dat plaats voor het onderkennen van gevaren. Alle in eerste instantie positieve ontwikkelingen op allerlei vlakken blijken wanneer ze populair worden flinke problemen te veroozaken, en dat zal voor dit soort AI technologie echt niet anders zijn.

Natuurlijk zullen de makers wijzen op hoe het op een goede manier ingezet kan worden; en die use-cases zijn er ook absoluut. Maar het probleem is de tijdspanne tussen beschikbaar komen en goed kunnen gebruiken; in die tussenliggende periode gaat er veel misbruik van gemaakt worden, en zal er (veel) schade ontstaan.

Ik heb het een paar weken geleden aan een kennis van me uitgelegd die in het onderwijs zit en niet zo heel veel kaas van ICT gegeten heeft. Vergelijk het met de uittrekselboeken zoals ze "in mijn tijd" (lees: 40 jaar geleden) populair waren. Als je de boeken van je literatuurlijst gelezen had, waren die uittrekselboeken ideaal om voor een toets nog "even" alles op te halen. Maar het misbruik bestond er uit dat leerlingen de boeken niet lazen, maar alleen de uittreksels. Leraren moesten dus hun manier van toetsen aanpassen, en in de tussentijd konden er leerlingen doorheen glippen die de boeken niet gelezen hadden. De techniek (uittreksels) was prima, maar dus ook te misbruiken.

Probleem met de huidige tijd is dat de periode waarin misbruik te maken is steeds langer wordt. Kijk naar Internet: begin jaren 90 de mogelijkheid om "kennis en informatie naar de massa te brengen" en iedereen een eigen mening te laten vormen omdat alle informatie beschikbaar was van achter je beeldscherm. Het gevolg: geen eigen meningen maar groepsgedrag, geen zoeken naar alle informatie, maar selectief zoeken naar bevestiging van eigen mening, geen gezamelijk netwerk maar het uiteendrijven en tegen elkaar opzetten van groepen.

Ik ben ook heel erg angstig voor de negatieve gevolgen van een ChatGPT of een DALL-E/VALL-E. Meer polarisatie, minder zelf nadenken en al met al een veel minder prettige wereld.
Is dat geen te kortzichtige conservatieve kijk op de wereld? Jumping to (populistische) conclusions?

Alles wat je nu ziet rondgaan van AI komt van eerste generatie AI. Vaak nog in beta. Jij mag dat nu bullshit noemen maar ooit gaat AI u beter van woord dienen dan een expert. En dat moment gaat er sneller zijn dan je denkt.

Veel mensen willen geloven niet in AI. Ze ontkennen zelfs dat er vooruitgang is.

Je gaat er in uw betoog ook vanuit dat AI niet kan verbeteren of evolueren naar iets wat uw brein wel leuk en interessant zal vinden.

Uw redenering is wat mij betreft een kortzichtige populistische klaagzang voor iets onbekend. Mits wat meer inzicht zou je tot een andere constructievere conclusie komen en

Ik wil zeker niet gezegd hebben dat AI ongevaarlijk is. In tegendeel. We kunnen beter onze klaagzang energie focussen op de echte problematiek van AI.

[Reactie gewijzigd door Coolstart op 22 juli 2024 14:31]

Mooi onderzoek. En ik was de laatste jaren ook redelijk terughoudend met AI en de ontwikkelingen en had zo mijn twijfels of het wel op gang zou komen. Maar het volgt ondertussen toch wel behoorlijk de tijdslijn zoals in het boek The Singularity Is Near van Ray Kurzweil wordt beschreven. Ik ben zeker geen AI-expert, maar sinds ik de AI GPT3 gebruik verbaas ik me over hoe goed dat werkt. Zeker, het is niet waterdicht, maar met de juiste vragen werkt het verdomd goed al.

Deze TTS-techniek vind ik daar ook weer zo een voorbeeld van. Doet me ook een beetje denken aan de website Fake You. Die doen een beetje hetzelfde principe, maar dan nog op basis van langer ingesproken teksten, die zijn gemaakt op basis van bijv. fragmenten uit films van acteurs of interviews op YouTube. Maar dat klinkt ook al erg goed.

Ik volg het YouTube-kanaal Two minute papers en daar lijken de papers over AI-achtige onderwerpen ook elkaar steeds sneller op te volgen. De ene na de andere techniek lijkt steeds sneller verfijnd te worden. Exponentieel is misschien een groot woord nog, maar het valt me wel op.

Terugkomend op een eventuele singulariteit, 'echte' AI die zichzelf dusdanig heeft ontwikkeld zodat je op het punt komt dat wij het niet meer begrijpen is nog ver weg, maar ik ben echt benieuwd of de voorspellingen van Kurzweil uit gaan komen. Zijn idee was rond 2035 2045 de singulariteit volgens mij. Hij zit er ook wel naast, maar statistisch scoort hij best goed met zijn voorspellingen.

En los daarvan, AI neemt momenteel zo een grote vlucht. Persoonlijk denk ik dat mensen het nog als speeltje zien en nog niet doorhebben wat dit gaat betekenen en impact het gaat hebben. Worden echt spannende jaren, qua AI-regelgeving, effect op samenleving, beroepsgroepen, inzet van AI als assistent, welke kennis moet je zelf nog hebben of kunnen we niet meer zonder AI? De omgang met informatie die AI ons levert enz. Persoonlijk denk ik dat als de AI-singulariteitsvoorspellingen uitkomen, het nog wel eens de redding van de planeet kan zijn mits het goed wordt ingezet.

[Reactie gewijzigd door Tjeerd op 22 juli 2024 14:31]

Persoonlijk denk ik dat als de AI-singulariteitsvoorspellingen uitkomen, het nog wel eens de redding van de planeet kan zijn mits het goed wordt ingezet.
Persoonlijk denk ik dat als je een onpartijdig echt AI gaat vragen om de planeet te redden, het eerste wat er gaat gebeuren het uitroeien van de mensheid gaat zijn. Snelste en meest efficiente weg om het grootste probleem te verhelpen.

[Reactie gewijzigd door R4gnax op 22 juli 2024 14:31]

[...]

Persoonlijk denk ik dat als je een onpartijdig echt AI gaat vragen om de planeet te redden, het eerste wat er gaat gebeuren het uitroeien van de mensheid gaat zijn.
Een onpartijdige 'echte' AI zal rustig achterover leunen en wachten totdat de mensheid zichzelf uitroeit. De planeet heeft veel erger overleeft.
Volgens mij is de huidige vorm van AI gemodeleerd naar de maatstaven van de Mens. Het is dus nu nog een soort van kleuter of pas geboren baby ofzo, en wat er daarna komt is afwachten. Als je niet oplet, cre:eer je zomaar misschien een nieuwe apex-predator. En dan hebben wij, softe wezens, een enorm probleem.

Als leek op dit vlak weet ik serieus niet of je dit moet willen laten gebeuren. Zelfs de hotemetoten op de TU/e kunnen me niet geruststellen, want die doen niet aan ethiek en dat soort randzaken.

Als ik uit mijn raam kijk, zie ik altijd iemand met een skatebord voorbij scheuren. Een paar jaar geleden had die persoon op het skatebord altijd een grote koffer in de hand. Later werd dit een rugzak en tegenwoordig heeft ie helemaal geen balast meer om hard rond te scheuren. Dit heeft natuurlijk niks met ai te maken, maar ik krijg er toch de kriebels van. Het gaat allemaal wel erg snel tegenwoordig.
De planeet redden... Wij slopen de planeet niet als mensheid, we moeten eens niet zo verwaand doen.

Met of zonder ons, moeder aarde tuft wel door. We hebben niet de technologische mogelijkheid om onze planeet daadwerkelijk om zeep te helpen.

Het gaat puur en alleen om het beschermen van de huidige status quo als mensheid omdat ruim 40% van de bevolking <100km van de kust woont en een stijgende zeespiegel een enorme puinbende zal veroorzaken. Toen Doggerland begon te verzuipen en verdween, heeft dit destijds een volksverhuizing teweeg gebracht die chaos en opschuivende mensen hebben veroorzaakt tot ver in het midden-oosten en dat was 8000 jaar geleden!
Anoniem: 450173 @Tjeerd10 januari 2023 06:31
Exponentieel is misschien een groot woord nog, maar het valt me wel op.
Imagine what this will do, two papers down the line.

[Reactie gewijzigd door Anoniem: 450173 op 22 juli 2024 14:31]

Nu maar eens spraakfragmenten van vrienden gaan verzamelen, zodat ik wat telefoontjes kan plegen om op hun kosten abonnementjes af te sluiten. Wel goed dat de researchers dat inzien, hoop dat er iets meer tijd wordt besteed aan veiligheid/privacy met Vall-E.
Nu maar eens spraakfragmenten van vrienden gaan verzamelen, zodat ik wat telefoontjes kan plegen om op hun kosten abonnementjes af te sluiten.
Dit kan je nu toch ook al doen? Met je eigen stem? Of sterker nog; online (je hebt blijkbaar hun gegevens al)
Tja, dit kan ook gewoon zonder de stem van iemand te imiteren als je zijn of haar geboortedatum en dergelijke weet. Sim-swapping, wat toch geregeld voorkomt is een goed voorbeeld van hoe dit soort misleiding succes heeft.
Maar desalniettemin geef ik je zeker gelijk dat met imitatie van een stem er potentieel veel nieuwe mogelijkheden bij komen.
Waarom zou je dat niet met je eigen stem kunnen?
Alsof bedrijven weten hoe hun klanten klinken. Ik heb ook vaak genoeg gebeld voor familie en vrienden naar bedrijven en dan mezelf gewoon geïntroduceerd als 1 van hun om het één of ander geregeld te krijgen.

"Goedendag met batjes, ik bel voor <bla>"
"Oh sorry we kunnen u niet helpen, daar hebben we de accounthouder zelf voor nodig"
"Oh oke"
*Klik*
"Goedendag u spreekt met <bla>"
"Hallo meneer, wat kunnen we voor u betekenen"
Het belangrijkste waar ik me over verbaas, is niet zozeer de technologie zelf, maar de verbazing die er algemeen over heerst.

Want het is niet dat AI nu ineens spontaan uit de lucht komt vallen. Er wordt al decennia-lang onderzoek gedaan en steeds meer toegewerkt richting effectieve toepassing van AI. Extrapoleer een aantal lijnen - van de progressie in hardware, in type AI-modellen, in beschikbare trainingsdata, in beschikbare budgetten - en was duidelijk dat de opkomst van AI dusdanig in een stroomversnelling zat, dat het een dezer jaren een grote impact op de samenleving zou gaan krijgen.

Maar zoals klimaatsveranderingen veelal werden genegeerd omdat ze nog niet rechtstreeks voelbaar waren, zo dringt het besef meestal pas door als er indrukwekkende demonstraties zijn.

Extrapoleer het vanaf nu nog eens verder. Waar kom je dan terecht?

Voorlopig nog niet bij de 'singulariteit'. Wel bij een toename van verwarring en wantrouwen. Wat kun je nog voor 'waar' aannemen? De steeds verdere afhankelijkheid van digitale communicatie-kanalen botst enorm met het groeiende wantrouwen erin. Daarmee dreigt de lijm in samenleving los te laten. Maar vrijwel niemand die zich daar druk om lijkt te maken of mee bezig houdt - en oplossingen probeert te bedenken. Juist dat baart mij zorgen.
Ik heb dit ook. Tegelijkertijd is het ook weer mooi om dit te zien gebeuren, in our lifetime. Dat wantrouwen heb ik vooral voor de toekomst van m’n kinderen. Maar zij groeien ermee op.
Er is zo’n weetje dat zegt dat je tot je 19de alles ervaart alsof het er altijd was. Daarna tot je 30ste zie je de vooruitgang en kan je ook mee. Na je 40ste begin je het niet meer bij te benen. Misschien hebben Tweakers een streepje voor, jaar of 10 }> .

Als die exponentiële goeie zichtbaar gaat worden voor iedereen dan ben je het zo kwijt.
Wat kun je nog voor 'waar' aannemen?
Face-to-face en dat was het wel zo ongeveer.

Contracten met handtekening? Vergeet het maar. Dat sneuvelt binnenkort ook. Deep learning model wat de stroken kan herkennen en ze daarna kan leren schrijven als mens. Ouderwetse goed gecalibreerde pen plotter en: Veel plezier, niet van echt meer te onderscheiden. Zelfs niet voor de beste specialist.

Wat rest dan nog? Certificate-based ondertekenen? Moet je wel heel veel vertrouwen in het systeem van trusted third parties wilt hebben, als je dat als ultieme wettelijk geldende waarheid op wilt gaan voeren.

We gaan nog interessante tijden tegemoet, de komende twee decennia.

[Reactie gewijzigd door R4gnax op 22 juli 2024 14:31]

Handtekeningen hebben nog een ander probleem; te veel mensen schrijven niet meer genoeg om een consistent handschrift te hebben. En dus hebben die ook geen consistente handtekening meer.
Het gevaar van Vall-e zit ’m in misbruik. Een radio-interview met een gerespecteerde politicus die rare dingen gaat zeggen waar iedereen achteraan gaat rennen. Goebbels had het zeker misbruikt…
Denk dat dat niet zo makkelijk gaat als dat het toen zou zijn, omdat iedereen wel enigszins op de hoogte is van deep fakes tech. Je kunt Rutte dus niet ineens antisemitische opmerkingen laten maken en dat dat dan aangenomen wordt.

Zal eerder resulteren in dat als je al een hekel hebt aan iemand, dat dat dan wordt versterkt, en als je iemand (te) hoog hebt zitten, je negatieve berichtgeving als fake negeert. Verdere vertroebeling van de waarheid en versterken van de bubbels dus wellicht.
je onderschat echt het vermogen van mensen. Bijna niemand buiten het tweakers wereldje weet wat deep-fakes zijn. (vraag je buurvrouw van 35, die achter de kassa bij de super zit maar)

Uiteraard zal het een stuk subtieler gaan dan ineens allerlei hele duidelijke onzin. Het zal eerder gebruikt worden om iemand ongeloofwaardig te maken
Zo de ai technology gaat ineens heel hard. Chatgpt en dall-e zijn al erg goed.
Als je geïnteresseerd bent in AI moet je deze gast eens volgen: https://youtube.com/@DrAlanDThompson

AI gaat echt heel hard al even. Maar nu wordt het ineens bruikbaar overal.

3 maanden geleden op conferentie geweest waar hij was. Waar hij een super interessante intro geeft in AI en de ontwikkeling daarvan. Daarbij geeft hij al aan, over 6 maanden is de wereld van AI al heel veel verder. En zie ChatGPT is er ondertussen. Ben benieuwd waar we over weer 3 maanden staan...

https://youtu.be/D3tTsoX02d8
Zo de ai technology gaat ineens heel hard. Chatgpt en dall-e zijn al erg goed.
Als je AI AI laat maken kan het hard gaan. Skynet komt eraan. ;)
Ze stellen dat het mogelijk is om een detectiemodel te ontwikkelen die kan herkennen of een geluidsfragment door Vall-E is gegenereerd.
Ik maak me het meeste zorgen over misbruik. Het is een eerste stap dat zo’n modellen zichzelf kunnen detecteren maar zodra AI breed toegankelijk is kan iedereen deep fakes de wereld insturen.

Ik hoop dat we via blockchain technologie elk mediabestand kunnen voorzien van een source of handtekening zodat socialmedia de oorsprong kan tonen. Media zonder oorsprong zouden kunnen worden beperkt in bereik of gekenmerkt met een label dat de oorsprong onbekend is en dat het mogelijk door AI gegenereerd.
Iedereen kan zijn eigen blockchain opzetten, en dat volpleuren met onzin. Onzin erin, is onzin eruit.

Een digitale handtekening (zoals certificaten voor bestanden of websites) is het enige wat hier zinvol voor is.
Je verloor me met onzin over de blockchain. Een “oplossing” die een probleem zoekt.
1) er bestaat al techniek om digitale handtekeningen te zetten
2) een van je eigen artikelen geeft aan dat het wellicht in de toekomst kan helpen, maar lang niet voldoet
3) de grootste schade van deepfakes is al gedaan op het moment dat iemand aan komt kakken met “bewijs” dat het nep is.

Overigens kunnen deep fakes van materiaal worden gemaakt die beide losstaan van een chain en geen digitale handtekening heeft. Wat valt daar precies te verifiëren? Als ik Brad Pitt’s kop op mijn eigen vers geschoten video plaats, wat ga je dan precies aantonen?
Ik denk dat je de blockchain niet 100% begrijpt. Blockchain is gewoon een uitgebreide digitale handtekening.

En nee ik kan niet voorkomen dat iemand tegen mij een leugen verteld of een deep fake toont.

Blockchain + digitale handtekening technologie kan in de praktijk wel degelijk helpen bij het bestrijden van deepfakes op een aantal manieren:

1. Verifiëerbare oorsprong: Door gebruik te maken van een blockchain om de creatie, distributie en eigendom van digitale media bij te houden, is het mogelijk om een verifiëerbare oorsprongstrail te creëren voor een stuk inhoud.

Dit kan helpen bij het bevestigen of een video of afbeelding authentiek is en niet is gemanipuleerd.
Digitale handtekeningen: Blockchain technologie kan gebruikt worden om digitale handtekeningen te maken voor digitale media, die kunnen worden gebruikt om de authenticiteit van een stuk inhoud te verifiëren.

Deze digitale handtekeningen kunnen worden gemaakt met behulp van cryptografie en kunnen worden geverifieerd met behulp van de blockchain om te garanderen dat de inhoud niet is gemanipuleerd.

2.Gedecentraliseerde opslag: Door gebruik te maken van een gedecentraliseerde opslagoplossing die is gebouwd op een blockchain, is het mogelijk om een tamper-proof en censorship-resistente opslag van digitale media te creëren. Dit kan helpen om te waarborgen dat kopieën van originele inhoud beschikbaar zijn en kunnen worden gebruikt om de authenticiteit van deepfake inhoud te verifiëren.

3. Opbouwen van een gemeenschapsgedreven datavalidatie platform: Met de hulp van een online community kan men een platform opbouwen waar mensen media kunnen uploaden voor validatie. Door gebruik te maken van de blockchain, kan een gemeenschapsgedreven en transparante datavalidatieproces worden geïmplementeerd, wat kan helpen om verdachte of gemanipuleerde inhoud te markeren.

Kortweg: hoewel blockchain technologie nuttig kan zijn bij het vechten tegen deepfakes, is het belangrijk om op te merken dat het geen stand-alone oplossing is en moet onderdeel uitmaken van een bredere strategie die samenwerking vereist tussen verschillende industrieën, overheidsinstellingen en maatschappelijke organisaties.
Voor uitgebreide digitale handtekeningen hebben we geen blockchain nodig.
Het kan toch niet zo zijn dat ik de enige ben die de naam: Vall-E wel heel erg vind lijken op Wall-E, de protagonist in een vermakelijke film over hoe lam/lui en afhankelijk de mensheid is geworden door alles maar te automatiseren...

Het enige wat Wall-E beter doet/deed in de film...zonder een enkel woord te spreken toch een heel geanimeerd verhaal te vertellen.

Als Microsoft dat soort AI voor elkaar zou krijgen, dan zou ik echt onder de indruk zijn. Vall-E is misschien wel een leuk stuk techniek, maar kans is erg groot dat het dom gehouden word, want rechtszaken over ongeoorloofd stemgebruik zijn te langdradig en duur (voor wat het oplevert).

ChatGPT is van deze twee AI's de meest winstmakende, dus leuk dat Vall-E er is, maar ik verwacht dat het erg snel behandeld zal worden als het spreekwoordelijke roodharige stiefkind.
De naam is een variatie op de AI image generator Dall-E, waarvan de naam weer gebaseerd is op een samenvoeging van Wall-E en (Salvador) Dalí. De V zal wel voor Voice staan ofzo?
Dit is een belangrijk onderdeel om de “Universal Translater” te kunnen bouwen. In (bijna) real time zal de andere partij jou horen spreken in een andere, vreemde taal. Mogelijk zelfs “geoptimaliseerd” aan de persoon met wie je spreekt, denk aan iemands kennisniveau, dialect, etc. Hoe lang zal het duren voordat ik op deze manier probleemloos kan spreken met iemand in China zonder dat we beiden de taal te hoeven leren?

En… kunnen we dan wel vertrouwen op deze techniek? Wordt onze communicatie continu gemonitord? Of gemanipuleerd?
dit is zeker een mooie toepassing. Google Translate komt al een heel eind in schrift. Eigenlijk zou je dan ook gelijk de vertaalde spraak ook terug moeten vertalen om zeker te zijn dat het correcte wordt gezegd. (denk aan het verwarrende Nederlandse 'Biljoen'() vs het Engelse 'Billion'.
Zijn er meer die dit best eng / gevaarlijk vinden? Een sample van 3 seconden is bijna niks. Zelfs een spam beller die je opneemt kan nog een 3 seconden opnemen als je opneemt met een "Hallo met wie".

Hoe kun je jezelf überhaupt tegen misbruik hiervan wapenen?
Ja en nee ;). Er zal steeds minder tegen misbruik te doen zijn. Aan de andere kant zal misbruik ook steeds meer voorkomen waardoor mensen steeds minder zullen aannemen dat een stem ook echt de jouwe is omdat mensen die als zodanig herkennen. Zelfde geldt voor visuele deepfakes etc.

Daarnaast kan een mens het verschil straks wellicht niet meer horen / zien, maar dedicated software kan dat (zeer waarschijnlijk) wel. Ik kan me zomaar voorstellen dat over een paar jaar je telefoon je waarschuwt voor inkomende (audio) deepfakes, net zoals je mailprogramma je nu waarschuwt voor spam.

Op dit item kan niet meer gereageerd worden.