Amazon Alexa kan stem mens imiteren op basis van een minuut audio

Amazon werkt aan een functie voor zijn digitale assistent Alexa om de stem van een mens te imiteren met een minuut audio van die persoon. Daarvoor hebben computersystemen nu doorgaans veel meer audio nodig.

De functie moet het mogelijk maken om Alexa de stem te laten aannemen van overleden dierbaren, meldt Amazon op zijn eigen re:MARS-conferentie in de Amerikaanse stad Las Vegas. Het is onduidelijk of en wanneer de functie daadwerkelijk in Alexa zal zitten; Amazon zei daar niets over tijdens zijn presentatie woensdag.

De functie werkt niet als text-to-speech voor de stem van de overleden dierbare zelf, maar een algemene text-to-speech, waarna de software de algemene stem probeert om te zetten met een 'personal speech filter' en een vocoder naar iets dat lijkt op de gewenste stem. Om de omzetting te maken, is een minuut audio van de gewenste stem genoeg. Hoe Alexa daaraan komt, noemde het bedrijf niet.

Amazon sprak ook niet over de ethische kant van het systeem. Zo zouden kwaadwillenden een goede imitatie van een stem kunnen inzetten voor frauduleuze doeleinden per telefoon of deepfakes. Amazon heeft verder geen toelichting gegeven op de functie.

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Arnoud Wokke

Redacteur

23-06-2022 • 07:22

87 Linkedin

Reacties (87)

Wijzig sortering
Leuk, maar de gevolgen van een dergelijke techniek zijn best groot en divers.

In het filmpje wordt gesproken over een 'companionship role' die Alexa (of een soortgelijk apparaat) in kan nemen, maar dat kan en mag nooit de bedoeling zijn - naar mijn mening; mensen kunnen niet op eenzelfde manier de menselijke interactie aangaan met een apparaat .

Als voorbeeld spreekt men over een dierbaar persoon die niet meer onder ons is, maar die toch dankzij de techniek weer dichtbij kan zijn; dat is niet zomaar iets. En dan? Als gebruikers niet goed worden begeleid of als hier vanuit de ontwikkelaar niet goed op wordt toegezien creëer je in het ergste geval een 'emotionele afhankelijkheid': de gebruiker weet niet goed gebruik te maken van de techniek, maakt (onbedoeld) misbruik en wordt afhankelijk van de techniek. En wat als die techniek dan faalt en oma / je partner / je kind dan opeens niet meer te horen is? Phoe ... een kwestbare doelgroep die Amazon hiermee als voorbeeld stelt.

Ik moet meteen denken aan 'Her' en de vraag die ik mij dan stel is: 'Willen we dit wel?' :s
Reageer
Ik het echt relevant of we dit wel willen? En dan bedoel ik, jij en andere tweakers. Als een individu hier steun aan kan ondervinden en de risico's accepteert. Wie ben jij of zijn wij om daar iets van te vinden. Rubberen stoeptegels neerleggen moeten we echt eens mee ophouden. Laat iedereen voor zichzelf bepalen of ze er gebruik van willen maken of niet.
Reageer
Dit gaat alleen over de zeer vergezochte toepassing die Amazon er met de haren bijgesleept heeft. Verder kan ik geen goede toepassingen bedenken. Net als deepfakes is dit een pad dat we niet moeten gaan.

Bovendien, wat betreft deze toepassing, jij als klant die het audiosample heeft aangeleverd weet dat dit een deepfake is. Verder is er niemand, naaste familie of wie dan ook die weet dat dit gesproken woord een fake is. Mogelijkheden tot misbruik te over. Voorbeeldje:
Hierbij herroep ik mijn testament, ik laat al mijn aardse goederen na aan neef Piet omdat hij mij zo goed geholpen heeft.
Reageer
"en de risico's accepteert". Een zeer groot gedeelte van de potentiele gebruikers zal niet weten welke risico's er zijn. Dat is vaak het probleem met dit soort vernieuwende dingen. Het is leuk en cool en weet ik niet allemaal, maar de risico's worden niet zo duidelijk voor het voetlicht gebracht. Dus er hoeven niet overal rubberen stoeptegels te komen, maar daar waar de kans op letsel het grootst is, kan het best wel een goed idee zijn. In de speeltuin bijvoorbeeld. Die in de echte wereld en op bepaalde plekken in de digitale speeltuin.
Reageer
Zeer groot gedeelte? Waar baseer jij dat op?
Ik vind het wel schrijnend dat bij een innovatie weer direct wordt gekeken naar waarom het niet kan, in plaats van waarom het wel kan. Kijk hoe je deze technologie wel in kan zetten naar behoefte van de klant. Want die is er echt wel. Amazon is een voorbeeld van een productorganisatie waarbij, als er geen klantvraag zou zijn, ze hier echt geen tijd in gaan steken.

edit: en eigenlijk is de rubberenstoeptegel vergelijking niet eens juist. In feite wil jij de speeltuin dicht gooien omdat er potentieel wel eens een kind kan vallen.

[Reactie gewijzigd door DeBers op 23 juni 2022 09:43]

Reageer
Laten we stellen dat niemand het precies weet, misschien dat mensen er inderdaad emotioneel afhankelijk van worden, misschien niet. Ik weet niet wat het juiste antwoord is. Het is een interessante ontwikkeling maar ik denk dat niemand zal ontkennen dat hier zeker risico's aan kleven. Zoals al werd geopperd men wordt misschien emotioneel afhankelijk maar misbruik is natuurlijk ook een goede mogelijkheid. Stel je voor dat je deze techniek kunt gebruiken om jezelf voor te doen voor iemand anders, om bijvoorbeeld per telefoon een betaling te authoriseren. Dit soort misbruik komt nu al voor per e-mail maar dit is natuurlijk weer een stapje verder.

Daarnaast mag je je ook afvragen zoals werd aangegeven wie ontwikkeld dit en wat is hier de instelling. Tech bedrijven laten zelden zich zien van hun beste kant, wellicht zie ik dit te pessimistisch in maar dat dit soort ontwikkelingen gebeuren door Amazon is toch wel iets waar je kanttekens bij mag zetten.

Overigens verbaast het me tegelijkertijd niet, Amazon is toch wel een voorloper als het op dit soort ontwikkelingen aankomt met Alexa, de hoeveelheid data waar zij mee werken is ongekend.
Reageer
Je blijft een beetje hangen in de nogal zeer vergezochte toepassing die Amazon noemt bij deze techniek.

Maar ik kan eerlijk gezegd geen gewenste of moreel verantwoorde toepassing van deze techniek bedenken. De kansen op misbruik door kwaadwillenden lijken me meer dan levensgroot.

En wat betreft het gebruik dat Amazon hier noemt, denk je dat Amazon geheel belangeloos (rouw)therapie gaat aanbieden? Of dat je door je overleden opa/oma/vader/moeder bestookt gaat worden met reclameaanbiedingen? Of dat jij namens de overledene een boodschap stuurt naar de rest van de familie, iets als 'hierbij herroep ik mijn testament en laat alles na aan neef Piet'

[Reactie gewijzigd door avlt op 23 juni 2022 10:35]

Reageer
Als het nou mijn eigen stem was, dan kan ik me veel eerder mogelijkheden tot plegen van fraude voorstellen, maar ik zou niet weten hoe een crimineel bijvoorbeeld de stem van mijn overleden oma zou kunnen misbruiken voor zijn eigen doeleinden, dus ik ben dan wel benieuwd naar welke potentiële beren jij daar op de weg ziet.

Ik zie het vooralsnog gewoon als een leuke toevoeging, een gimmick, die wat meer persoonlijkheid toevoegt aan je digitale assistent, meer niet. En als mensen daar dan ook nog eventueel troost uit putten, dan lijkt mij dat alleen maar mooi.

[Reactie gewijzigd door ThanosReXXX op 23 juni 2022 11:15]

Reageer
Die crimineel kan de stem van jouw overleden oma gebruiken voor van alles en nog wat; met name naar mensen/instanties die niet weten dat jouw oma overleden is.
Reageer
Mijn oma is al zo lang geleden overleden, dat er letterlijk geen enkele instantie meer is die voor de gek gehouden zou kunnen worden dat zij nog leeft, dus die vlieger gaat helaas niet op.

Zoals gezegd: ik kan me geen enkele situatie bedenken, wat dus even voor de duidelijkheid inhoudt, dat ik alle mogelijke scenario's allang overwogen heb, en daar komt volgens mij niets uit, maar omdat ik ook maar een mens ben en misschien iets over het hoofd heb gezien, besloot ik het toch even in de groep te gooien... ;)
Reageer
Hetzelfde geldt voor jullie. Jullie blijven vooral hangen in waarom dit niet kan. In plaats van hoe je dit wel mogelijk zou kunnen maken. Deepfake is er ook al. Ga je niet tegenhouden. Boitcoins zijn er ook al, terwijl dit een platform is voor criminelen om geld rond te schuiven.
Begrijp mij goed. Ik zie de nadelen echt wel en de risico's. Het gaat mij echter niet om de inhoud, maar de vorm van de reacties. Moeten we dit willen is mijn inziens totaal geen relevante vraag, want je hebt niets te willen. Elk individu heeft aparte behoeften. Hoe kunnen we het mogelijk maken dat deze innovatie wel kan en we die paar individuen kunnen servicen. Overboord met de nee en azijn cultuur en denken in mogelijkheden.
Reageer
Noem jij dan eens een toepassing die we wel zouden willen?
Reageer
Het is niet aan ons om toepassingen te verzinnen. Wij zijn de experts niet. Laat dat bij de branches zelf liggen.
Denk je dat jij kan bedenken hoe je dit kan toepassen in de zorg bijvoorbeeld? Denk je dat jij kennis hebt van de processen en behoeften van patiënten daar?

[Reactie gewijzigd door DeBers op 23 juni 2022 11:59]

Reageer
Ik zou dit willen. Vind het leuk als Alexa spreekt in een stem die ik ken, of een stem van een overleden familielid. Iedere gebruiker heeft andere wensen en eisen. Zoals DeBers al zegt, het gaat in de reakties gek genoeg vooral om waarom je dit niet zou willen. Dat is helaas vaak de eerste reaktie van mensen op innovatie. Waarom zou je een routeplanner willen als je al een stratenboek hebt? Waarom een telefoon van glas ipv. Nokia met knopjes? Waarom 4G etc.
Reageer
Typisch inderdaad, hoe mensen altijd geneigd zijn om meteen maar een hele meute beren op de weg te zien (of misschien plaatsen ze die er zelf wel op) in plaats van in mogelijkheden te denken. Maar ja, negatief denken is de weg van de minste weerstand, hè? ;)

[Reactie gewijzigd door ThanosReXXX op 23 juni 2022 11:18]

Reageer
Rubber stoeptegels? Dit kan zelfs misbruikt worden in strafzaken om bewijs te planten bij onschuldige mensen. Hoe kan een rechter dan nog een "opgenomen/afgeluisterd telefoongesprek" als bewijs gebruiken? Je bent onschuldig tot het tegendeel bewezen wordt. Dat impliceert, dat als jij als verdachte een scenario kan bedenken, dan iemand anders de misdaad geplaagd zou kunnen hebben, dat je onschuldig bent. Nou deze technologie icm deepfake zorgen ervoor dat filmpjes straks geen bewijslast meer zijn... Die kant gaan we toch op, dus alleen maar goed om ons hier op voor te bereiden.

Ik snap je punt wel, bij nieuwe techniek wordt vaak eerst naar de beren gekeken. Vaak is dat onnodig belemmerend en in sommige gevallen zoals deze is dat juist goed. Als je een beetje minder goed van vertrouwen naar deze technologie kijkt, dan zie je genoeg potentie tot misbruik. Lijkt mij heel handig en verstandig voordat deze techniek op de markt komt, om hier alvast over na te denken. Zodat we de grootste risico's alvast kunnen mitigeren.
Reageer
Dan zijn we het toch eens?
Reageer
Ja als je het zo bedoelt wel idd ;)
Reageer
Ik het echt relevant of we dit wel willen? En dan bedoel ik, jij en andere tweakers. Als een individu hier steun aan kan ondervinden en de risico's accepteert. Wie ben jij of zijn wij om daar iets van te vinden. Rubberen stoeptegels neerleggen moeten we echt eens mee ophouden. Laat iedereen voor zichzelf bepalen of ze er gebruik van willen maken of niet.
Risico's accepteren? Ik denk dat je compleet voorbij gaat aan de vele, vele manieren waarop deze techniek op een verkeerde manier kan worden ingezet. Vraag maar eens aan de erven van Alfred Nobel.
Reageer
Gebruik en misbruik liggen in dit geval heel dicht bij elkaar.
Reageer
Dit is echt niet leuk meer.
Dit is van dezelfde categorie als deepfakes, ik kan me voor deze techniek geen goede, cq moreel of ethisch verantwoorde toepassing bedenken.

De toepassing die Amazon noemt is uitermate vergezocht en zou in de handen van een verantwoordingsvolle therapeut al bedenkelijk zijn, laat staan in handen van een megalomane geldmachine die uitsluitend het eigen gewin voor ogen heeft en daarbij zichzelf geen ethische of morele grenzen oplegt (zie b.v. de berichten over behandeling van eigen werknemers of verkopers op hun platform).
Reageer
Ik denk dat in therapie, mits begeleiding van een psycholoog, dit ongelooglijk veel potentiëel heeft bij rouw en trauma's. De meeste technieken die in de psychologie gebruikt worden zijn een vorm van exposure. Hierbij wordt de cliënt begeleid blootgesteld aan zijn angsten, trauma's, verleden om hier gecontroleerd mee om te leren gaan.

Om een voorbeeld te geven: Iemand heel dicht bij plots zien overlijden in een wreed ongeval. Het potentiëel om dit beter te verwerken en afscheid te nemen is prachtig.

Voor de rest ben ik het wel met je eens. Ik denk dat deze techniek nooit ontwikkeld zou worden als dit de enige doelgroep zou zijn en stel me héél veel vragen over andere mogelijke toepassingen.
Reageer
Ik denk het tegenovergesteld, wat zou de overledene nog moeten zeggen tegen jou, zodat je trauma minder zwaar wordt? Wetende dat wat diegene zegt niet echt is. Veroorzaakt dit niet juist alleen maar extra verwarring en meer ontkenning?

Als het echt zou helpen, ben ik voor. Maar leidt het juist niet af van de verwerking/acceptatie die juist plaats moet vinden?
Reageer
Ik denk dat er een groot verschil is tussen mensen die door een normaal rouw-proces moeten en mensen die een trauma (PTSS) er aan over houden. De impact op hun leven is heel groot en behandeling cruciaal om terug op een goede manier in de maatschapij mee te draaien.

Er worden verschillende technieken gebruikt om deze trauma's te verwerken (zoals de recent heel veel gebruikte EMDR techniek), maar even goed imaginaire rescripting, waarbij gebeurtenissen opnieuw worden afgespeeld en veranderd in het kader om de patient te helpen. Ik zie dit eerder in deze context.

Naar mijn mening is dat "wat de persoon zegt niet echt is", minder relevant dan het feit dat iemand met met een trauma beter geholpen wordt en terug goed in het leven kan staan.

Het spreekt voor zich dat het de psycholoog moet zijn die de antwoorden moet bepalen en dat de therapie moet afgestemd zijn op de cliënt. Slechte therapie zal in het algemeen niet leiden tot een verbetering van de cliënt, gelijk welk middel daarvoor gebruikt wordt.
Reageer
Nu is Amazon niet echt een bedrijf dat in traumaverwerking en traumazorg doet. Dus waarschijnlijk gaan ze tegen betaling nieuwe trauma's aanbieden.
Reageer
Wellicht voor mensen die hun stem kwijt zijn geraakt, denk aan Hawkings.

Maar verder, nee, onwenselijk.
Reageer
Die emotionele afhankelijkheid is waar Amazon waarschijnlijk naar op zoek is. Die heeft er dusver totaal geen problemen mee gehad om ethische vraagstukken en moreel besef aan de kant te schuiven voor financieel gewin.

Of we het willen is niet relevant.

De redenen stapelen zich op waarom ik weiger iets bij of van Amazon af te nemen.
Reageer
En wat als die techniek dan faalt en oma / je partner / je kind dan opeens niet meer te horen is?
Na twee maanden: "Sorry, oma's stem is alleen beschikbaar voor Amazon Prime abonnees."
Reageer
Inderdaad! Ik stoor me echt aan de woordkeuzes van Amazon. Je kan allerlei filosofische beschouwingen houden, maar ik vind het zeer suspect als men het heeft over een ‘companion relationship’, terwijl we het hebben over een apparaat zonder gevoel gemaakt en beheerd door een op winst gerichte (large) corporate waarmee het apparaat continu data zal uitwisselen. Nu is er niet per se iets mis met corporates, maar blijft wel belangrijk om een bepaalde emotionele en functionele afstand te bewaken tot dit soort zaken.
Reageer
Ik moet meteen denken aan 'Her' en de vraag die ik mij dan stel is: 'Willen we dit wel?' :s
"Willen we dit wel?" Is tegelijkertijd een relevante en irrelevante vraag.
Het is een gegeven dat wat goed is voor de maatschappij, niet per se door de industrie wordt bedacht.
Het is maar al te duidelijk (en steeds meer) wat de impact is op burgers van het verzamelen van gegevens.
Als hoogtepunten hebben we de toeslagenaffaire en de onthullingen rondom PRISM, maar ook de vele lekken die er al zijn geweest, zelfs waarbij blootfoto's werden gepubliceerd, tot kleinere lekken.

Toch verzamelt de industrie onverminderd door. En overheden ook. Is er lering getrokken uit de toeslagenaffaire? Nee. Rutte negeert de intentie van de wet van openbaarheid bestuur door gegevens bewust te verwijderen en de afwikkeling van de toeslagenaffaire vlot ook niet. En veiligheidsdiensten willen alleen maar meer gegevens verzamelen.

Maar denk ook aan de game-industrie en DRM, pay2win constructies, lootboxes, buggy releases.
Het weglaten van de 3,5mm aansluiting, monopolie-achtige situaties uitbuiten (commissies in appstores, reparatieprotocol van Apple), het (al dan niet bewust) negeren/downplayen van milieuverontreiniging, oplichting in benchmark d.m.v. max clocks, de lijst is haast oneindig. En vergeet ook de zogenoemde genocide niet tegen de Oeigoeren in China.

Allemaal zaken waar we als mens niks aan hebben, die puur en alleen de commercie dienen.
En het mooiste van alles is, we zijn naïef genoeg om geen actie te ondernemen.
Ik denk dat het aantal mensen die gedacht heeft: ik gebruik/koop niks meer van Facebook, Google, Apple, Volkswagen, Samsung, Electronic Arts of (rechtstreeks) vanuit China minder dan 1% is.

Daarom is het tegelijkertijd een hele relevante vraag: moeten we dit wel willen? En in het geval van nee, blijven we dan collectief incompetent, of zijn we bereid ons koopgedrag aan te passen?
Reageer
Als een 'apparaat' ook een bewustzijn heeft, kunnen die interacties zeker wel plaatsvinden, al zal dat altijd ongelijk zijn; dat 'apparaat' is vanaf het moment dat het een bewustzijn heeft, ontelbare malen intelligenter dan de slimste mens. Mensen zijn ook emotioneel afhankelijk van andere mensen, dat zal met apparaten met een bewustzijn niet anders zijn.
Je kan je wel afvragen of "we" dit wel willen, maar het komt er.
Reageer
Bekijk de serie op Netflix "Black Mirror" eens aflevering "Be Right Back". Dan zie je wat de mogelijkheden van deze technologie zijn en waar het toe zou kunnen leiden. Of het goed of slecht is wil ik geen oordeel over geven.
Reageer
Ik zou mij rot schrikken wanneer ik opeens de stem zou horen van een overleden dierbare en dat absoluut dan ook nooit willen. Maar daarbij moet je dan ook nog maar toevallig een stemopname van diegene hebben van dan min 1 minuut. Vind het in elk geval maar een beetje luguber en zou dan liever de stem van een levend iemand gebruiken.
Reageer
Los van eventueel misbruik... Zijn er mensen die dat willen? Alexa laten klinken als een overleden familielid of zo? Lijkt mij echt super creepy...
Reageer
Hah! Lijkt op deze aflevering: Black Mirror S2E1 Be Right Back
Reageer
Ik dacht precies hetzelfde! Enge ontwikkeling imho…
Reageer
Amazon sprak ook niet over de ethische kant van het systeem
Natuurlijk niet. Amazon interesseert dat niet. En hun klanten ook niet.
Reageer
Denk je nu werkelijk dat anazon de enige is die daaraan werkt? Think again, als amazon er niet mee komt, komt er wel 1 of anders startup mee. Het is gewoon hetzelfde als deepfake, je kunt het niet tegengaan want men wil het.
Reageer
Amazon heeft geen ethisch bewustzijn of in ieder geval nemen ze niet hun verantwoordelijkheid.

Over hun klanten zou/kan ik niet oordelen.
Reageer
De handel en wandel van Amazon en Bezos zijn genoegzaam bekend. Als je daar dan toch klant blijft zegt dat iets over je moraal.
Reageer
vind ik wat kort door de bocht. Zeker in de huidige tijden kan ik het consumenten niet kwalijk nemen dat ze voor simpelweg de goedkoopste aanbieder van goederen kiezen
Reageer
Wat een onzin opmerking....
Pure merkenhaat

[Reactie gewijzigd door pOZORjED op 23 juni 2022 08:16]

Reageer
En terecht. Waarom zou je in hemelsnaam je hele hebben en houden toevertrouwen aan een bedrijf dat als énige verdienmodel advertenties en verkopen van troep gemaakt door de laagste bieder heeft ... ???

Van Google kun je gemakkelijk hetzelfde zeggen; advertentieboer pür sang. Echter, die hebben nog daadwerkelijke *nuttige* toepassingen gebouwd; Youtube, Maps, een zoekengine die toch best wel fatsoenlijk werkt. Natuurlijk verkopen die ook alleen maar advertentieruimte maar geven er tenminste nog wat voor terug.

[Reactie gewijzigd door DigitalExorcist op 23 juni 2022 08:50]

Reageer
Maar bepaald niet gratis. Amazon is uitsluitend geinteresseerd in zoveel mogelijk geld binnenharken, maakt niet uit hoe.

Google b.v. retourneert heel wat, b.v. financiele en ontwikkelingssteun aan heel veel opensource projecten. Amazon juist niet, AWS gebruikt heel veel opensource bibliotheken en b.v. Linux, maar je moet niet denken dat Amazon daar financieel ook maar een cent aan bijdraagt.
Reageer
Nja. Vooruit. De enige uitzondering.
Reageer
Het is een constatering. Ik koop al zeker 10 jaar geen producten bij Amazon meer omdat ik me niet kan vinden in het onethische handelen van dat bedrijf. De bijzonder smerige en onethische praktijken van Amazon stoten mij tegen het hoofd.

Overigens maak ik wel soort van gebruik van Amazon helaas, omdat veel websites op AWS draaien.

Ik koop ook al een hele tijd niets meer bij Bol. Lang niet zo erg als Amazon, maar sinds ze werken met 3 party sellers en hun slechte support bij problemen, met ik ook Bol. Ik geef liever iets meer uit dan bij Amazon of Bol te kopen. En zoveel scheelt dat vaak ook weer niet. Ik heb het er graag voor over omdat ik weet dat het in het algemeen gaat naar een bedrijf dat beter omgaat met klanten en werknemers.

[Reactie gewijzigd door KoffieAnanas op 23 juni 2022 09:33]

Reageer
Bol.com is een fijne zoekmachine als je verkopers van bepaalde producten zoekt om ze dan op hun eigen (2e/3e) webshop te kopen.
Reageer
Over een x aantal jaren kan je een misdrijf plegen terwijl je dat helemaal niet hebt gedaan. Zo makkelijk allemaal met dit soort dingen. Gelukkig is Microsoft een stapje terug gegaan. laten we hopen dat de rest ook snel volgt. Enge ontwikkeling dit.
Reageer
Dat zal in dit geval wel loslopen. Ik kan zo gauw geen voorbeeld bedenken waar "het klonk als jouw stem" voldoende en overtuigend bewijs in een rechtszaak zou zijn.

Wanneer Alexa ook DNA kan gaan klonen, dan wordt het link.
Reageer
Ik kan zo gauw geen voorbeeld bedenken waar "het klonk als jouw stem" voldoende en overtuigend bewijs in een rechtszaak zou zijn.
Het hoeft ook niet het énige bewijs te zijn, het kan alsnog als ondersteunend bewijs een rol spelen. Zeker wel iets om niet al te makkelijk over te denken, 'het zal wel loslopen' is precies hoe wel wel in dat soort situaties terecht komen.
Reageer
Natuurlijk kan het niet als ondersteunend bewijs dienen wanneer algemeen bekend is dat Alexa ieders stem kan imiteren.
Reageer
Iets met manipulatie en afpersing? Er zullen goede doeleinden voor zijn, maar zie hier meer het negatieve dan positieve in.
Reageer
Het wordt boeven zo wel erg makkelijk gemaakt.
Reageer
Wat denk je van het enorme risico op pest gedrag op scholen.
stuk audio van een ander kind opvangen alexa iets anders laten zeggen en dat laten zeggen tegen een ander kind....
Reageer
Gisteren was er veel kritiek op de stopzetting van verschillende AI services door Microsoft.
Maar als ik dan dit lees, dan verkies ik toch de aanpak van Microsoft.
Reageer
Als Amazon dit kan, kunnen andere bedrijven dit ook. Of zitten er tegenaan.
Reageer
China wil voor 2030 leider zijn in kunstmatige intelligentie. Dit is niet te stoppen.
Reageer
"Wolfie's fine, honey, Wolfie's just fine. Where are you?"
Reageer
Apart hoe men bij dit soort aankondigingen door grote bedrijven altijd direct naar de potentiële negatieve mogelijkheden en lugubere zaken kijkt. Als mensen kwaad willen, dan vinden ze altijd wel een manier om dit kwaad uit te voeren en aangezien deze techniek niet nieuw is had dat al veel eerder gekund.

Het imiteren van een stem door Alexa is hoewel technisch leuk eigenlijk niet zo bijzonder aangezien de techniek al even bestaat en ook toegepast wordt. Zie bijvoorbeeld hier of hier

[Reactie gewijzigd door Slaiter op 23 juni 2022 08:40]

Reageer
Het verschil zit in de enorme beschikbaarheid op het moment dat een partij als amazon het in de markt zet.
Markt penetratie door grofgeweld (geld/macht).
Reageer


Om te kunnen reageren moet je ingelogd zijn


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee