Google vraagt alle Assistent-gebruikers nieuwe toestemming beluisteren opnames

Google gaat het beluisteren van Assistent-opnames door mensen hervatten, maar alle gebruikers moeten daar eerst toestemming voor geven. Ook gebruikers die in het verleden de optie aan hebben gezet moeten opnieuw toestemming geven.

Bij het instellen van Google Assistent hebben gebruikers de keuze om Voice & Audio Activity aan te zetten. In het Nederlands heet die optie Spraak- en audioactiviteit. Dat was al een bestaande optie, maar Google gaat hierbij duidelijker aangeven dat het mogelijk is dat er mensen meeluisteren naar opnames als die optie aanstaat.

Google kondigt maandag aan dat alle Assistent-gebruikers 'de mogelijkheid krijgen' om de VAA-settings opnieuw te bekijken voordat het bedrijf weer begint met het beluisteren van opnames. Als een gebruiker geen keuze maakt, wordt het beluisteren door mensen op dat account niet hervat, ook niet als de VAA-instelling al eerder is geactiveerd. Of en hoe Google gebruikers actief gaat vragen om opnieuw toestemming te geven voor VAA is niet duidelijk. Tweakers heeft Google om een reactie gevraagd.

Het aanzetten van de functie zorgt volgens Google voor betere stemherkenning en verbetering van de dienst in het algemeen, doordat er korte geluidssamples door taalexperts worden beluisterd 'om meer te leren over talen en accenten'.

Google geeft toe dat het bedrijf tekort is geschoten in de communicatie over het gebruik van spraakdata met de Assistent en wil dat met de nieuwe vraag voor toestemming verbeteren. Ook belooft Google de privacy van gebruikers beter te beschermen bij het beluisteren van opnames en de zoekgigant zegt sneller opnames te zullen verwijderen nadat ze geanalyseerd zijn.

Verder krijgt Google Assistent 'binnenkort' een instelling waarmee de gevoeligheid voor keywords als 'Hey Google' en 'Ok Google' ingesteld kan worden. Dat moet gebruikers meer controle geven om onbedoelde activatie van de Assistent te voorkomen.

In juli kwam naar buiten dat mensen die in dienst van Google meeluisteren met Assistent-opnames in staat waren om Nederlanders te identificeren. Daar ontstond ophef over, maar ook bleek dat veel mensen niet doorhadden dat er door mensen naar Assistent-opnames werd geluisterd, hoewel dit wel in de voorwaarden staat. Begin augustus kondigde Google aan tijdelijk te stoppen met het beluisteren van de opnames en beloofde het bedrijf verduidelijking.

Door Julian Huijbregts

Nieuwsredacteur

23-09-2019 • 13:43

42

Submitter: Yeebo

Reacties (42)

42
41
14
2
0
22
Wijzig sortering
Google geeft toe dat het bedrijf tekort is geschoten in de communicatie over het gebruik van spraakdata met de Assistent en wil dat met de nieuwe vraag voor toestemming verbeteren.
Grappig typisch voor grote bedrijven ze schenden eerst gewoon privacy, pas na druk door media en waakhonden veranderen ze dan. Slap excuus ze zijn tekortgeschoten in hun communicatie. Nee dit hebben ze gewoon bewust gedaan. Het is een patroon bij google, facebook en anderen.
Maar zo lang onze waakhonden niet doen, de politiek staat te kijken blijven deze bedrijven gewoon doorgaan.
Grappig typisch voor grote bedrijven ze schenden eerst gewoon privacy,
Niet in dit geval he? Alle gebruikers hadden al toestemming gegeven, er was niets illegaals of zelfs maar schimmig. Googlen bashing mag dan populair zijn op tweakers maar je opmerking bij DIT nieuwsbericht is gewoon onjuist.
Is het zo dat gebruikers echt toestemming gegeven hebben ?
Ze hebben geen toestemming gegeven dat deze gesprekken door 3den geanalyseerd mochten worden.
Noch hebben ze toestemming gegeven dat gesprekken (per ongeluk) opgenomen worden.

Google heeft een aardig track record van privacy schending, zelf wat boetes van de EU. Dus laten we nu niet doen alsof google nu zo een mooi bedrijf is dat het op privacy gebied het beste met ons voor heeft. Het enige wat google wil is data om daarmee geld te verdienen. Data en vooral advertenties is nog steeds de bron van inkomsten voor google.
Is het zo dat gebruikers echt toestemming gegeven hebben ?
Ze hebben geen toestemming gegeven dat deze gesprekken door 3den geanalyseerd mochten worden.
Noch hebben ze toestemming gegeven dat gesprekken (per ongeluk) opgenomen worden.
Je stelt zelf een vraag dus je weet zelf ook niet het antwoord. Op je google account en in de algemene voorwaarden is wel degelijk iets te vinden over het delen van deze informatie en verwerking van je opdrachten enzenzenz (toch ? :P) De vraag is wat je een derde noemt.. Zoals ik hierboven aangeeft kan volgens mij een ander bedrijf in contract worden genomen en daardoor als onderdeel van dat bedrijf gelden gedurende het contract. (en daardoor NIET als 3de partij worden gezien)
Google heeft een aardig track record van privacy schending, zelf wat boetes van de EU. Dus laten we nu niet doen alsof google nu zo een mooi bedrijf is dat het op privacy gebied het beste met ons voor heeft. Het enige wat google wil is data om daarmee geld te verdienen. Data en vooral advertenties is nog steeds de bron van inkomsten voor google.
Dacht dat de meeste boetes van de eu werden uitgedeeld voor mededinging zaken en "oneerlijke" concurrentie op hun eigen platform.
Dat google geld verdient op basis van de (zeer) gerichte advertenties door de verzamelde data is niet zon probleem vind ik zelf. De data zelf verkopen ze niet. Ze stellen alleen aan de verzamelde gegevens, persoonlijke profielen op die als onderdeel van een categorie aangeboden worden aan adverteerders. De adverteerders kunnen dus enkel aangeven binnen welke "categorie" ze GERICHT willen adverteren. De waarde zit hem voor Google (en de adverteerders) in het "GERICHTE" wat uit de data komt die wordt binnen geharkt.

Ik ga niet zeggen dat Google een lievertje is maar zo zijn er veel andere advertentienetwerken en profiel bouwers die via o.a cookies enorm veel data van je vergaren. En dáár heb je zelf geen zicht op. Kijk voor de lol maar eens bij de geavanceerde instellingen van de cookies van NU.nl.
Precies, en nu is het zaak deze "toestemming" zo misleidend mogelijk te formuleren, zodat niemand het begrijpt en gewoon lekker o JA ramt.
Google schend niet de privacy in dit geval, maar het bedrijf wat met het analyseren bezig was.
Het had alleen veel opener moeten zijn na de release dat het afluisteren van geanonimiseerde audio opname noodzakelijk was voor het verbeteren van de herkenning.

Maargoed, ieder zo zijn ding en zijn begrip.
Google mag deze fragmenten waar herleidbare persoonlijke data in te horen is helemaal niet ter beschikking stellen voor analyse aan 3den. Apple zoekt om die reden ook mensen intern niet extern.

Probleem is dat de data dus niet geanonimiseerd is als het langere fragmenten zijn, zoals te zien en te horen in bijv reportage op Belgische tv. Je zou pas kunnen zeggen geanonimiseerd als de fragmenten maar paar sec zijn en verdeel worden over verschillende externe medewerkers, ook daar was geen sprake van.
Het is natuurlijk ook eenvoudiger en sneller om 1 een fragment van 1 minuut te analyseren dan 12 van 5 sec. Tijd is geld en google denkt in geld niet in privacy.
Google mag deze fragmenten waar herleidbare persoonlijke data in te horen is helemaal niet ter beschikking stellen voor analyse aan 3den. Apple zoekt om die reden ook mensen intern niet extern.

Probleem is dat de data dus niet geanonimiseerd is als het langere fragmenten zijn, zoals te zien en te horen in bijv reportage op Belgische tv. Je zou pas kunnen zeggen geanonimiseerd als de fragmenten maar paar sec zijn en verdeel worden over verschillende externe medewerkers, ook daar was geen sprake van.
Het is natuurlijk ook eenvoudiger en sneller om 1 een fragment van 1 minuut te analyseren dan 12 van 5 sec. Tijd is geld en google denkt in geld niet in privacy.
Apple heeft ook een lange tijd een extern bedrijf gehad wat hun audio beluisterde voor Siri. ;)
Geen idee hoe dit juridisch zit wat betreft de privacy. De bedrijven kunnen het met veel regels en contracten natuurlijk zo stellen dat zon bedrijf dan "onder" b.v Google werkt en daardoor de beschikking kan krijgen over geanonimiseerde gegevens zonder de regels te overtreden. Ik weet alleen niet of ze rekening hebben gehouden dat in de INHOUD van de opnames persoonlijke gegevens zouden zitten.

Nog denk ik dat je binnen de wettelijke kaders je een contract partij deze gegevens mag geven. Dat er dan iemand van dat bedrijf denkt een "scoop" te hebben en dit gaat lekken omdat er toevallig een opname bij zat die te herleiden was, dat kan je nergens mee voorkomen.

Ik ken de keuze niet, of het geld de reden was, of dat het gespecialiseerd werk is voor stem analisten of iets dergelijks. Als het geld is waarom heeft Apple het dan ook gedaan ?
Extern is extern. Als een bedrijf eigendom is en binnen de groep valt kun je het als intern zien. Anonieme data mag je misschien delen, probleem is en blijft audio fragmenten die te lang zijn kunnen persoonlijke data bevatten. Die data mag je gewoon niet delen met een 3de.
Bedrijfsleven op dat niveau is zelden zo zwart-wit als de gewone consument denkt.
Kan ik dan ook de Spraak-functionaliteit van Google assistent blijven gebruiken terwijl ik niet wil dat mijn Spraak- en audioactiviteit word opgenomen?

Dat is me nog niet duidelijk in de Google-instellingen en dacht dat ik gelezen had dat er een opt-out zou komen voor de opnames.
Ja, ik heb verschillende Google Homes en ook Assistant op mijn telefoon, en spraakbediening werkt prima met die optie uit. Je opnames zijn alleen niet meer online te beluisteren, niet door jezelf, maar dus ook niet meer door de echte mensen bij Google.

Als toevoeging op @rwa66 hieronder: Het is niet zo dat wanneer wanneer de Google Assistant mijn commando van bijvoorbeeld "zet het licht uit" niet begrijpt, dit naar een echte persoon gaat, die daar dan naar luistert, en alsnog het commando om de lichten uit te zetten triggert.
De niet begrepen commando's worden beluisterd om de analyseren waarom het fout ging, en dit in de toekomst wel door de AI-assistant succesvol af te laten handelen.

[Reactie gewijzigd door TheFes op 23 juli 2024 07:55]

Recent bouwde ik aan een cloudless spraakherkennings product, en ik moet zeggen: dat werkt echt super goed.

Wat me daardoor opviel in de discussie rondom deze assistenten is hoeveel journalisten klakkeloos overnamen dat de opnames "nodig zijn om de diensten te verbeteren". Deze video van Bright bijvoorbeeld.

Als je Engels of Nederlands spreekt en voornamelijk dingen roept als "zet het licht uit' of "start een timer", dan zijn de systemen echt wel goed genoeg. Als je daar 10.000 opnames van hebt, dan voegen extra opnames niet meer heel veel toe.

Maar de vraag "wanneer hebben we genoeg opnames" kwam in de discussies eigenlijk nooit naar voren. Google en Amazon zullen natuurlijk nooit toegeven dat ze "genoeg data hebben". Maar er waren bar weinig journalisten die dat narratief kritisch bevroegen.

Ik schreef er recent een blogpost over, met onder andere de oproep om al deze spraak verzameling "opt-in" te maken. Dan krijgen de partijen als Google en Amazon nog altijd meer dan voldoende data binnen om de rand gevallen te verbeteren, maar wordt de privacy van de meeste mensen beter beschermd.

Dat dit nu ook echt gebeurt is heel erg fijn.
Ik snap niet dat je dit zelf niet kan doen. Je zou bijvoorbeeld na een niet goed verwerkte spraakopdracht de mogelijkheid moeten krijgen om de uitkomst in te voeren. Dat scheelt Google het inhuren van analysten en het schenden van privacy. Er zijn zoveel goede platformen door een community ontwikkeld dat een community de nauwkeurigheid van een digitale assistent echt wel zelf zou kunnen verbeteren.
Ja, de Google Assistent werkt ook wanneer je Spraak- en Audioactiviteit hebt uitgeschakeld.

Let op dat er geen opt-out is voor Spraak- en Audioactiviteit – het is opt-in.
Dat denk ik niet. Zoals ik het lees zullen je (onbegrepen) opnames niet meer worden doorgezet naar de Googlemedewerkers.
Verder krijgt Google Assistent 'binnenkort' een instelling waarmee de gevoeligheid voor keywords als 'Hey Google' en 'Ok Google' ingesteld kan worden. Dat moet gebruikers meer controle geven om onbedoelde activatie van de Assistent te voorkomen.
Dit vind ik wel een fijne optie, aangezien mijn Home mini af en toe dingen van de tv (soms terecht, stomme Ben-Reclame) oppikt als "hey google" en dan de tv een paar seconden mute.
Wat ik veel liever heb is dat ik mijn eigen "trigger" out of the box in kan stellen. Dat hele "Hey Google" en/of "Ok Google" blijft onnatuurlijk aanvoelen. Daarnaast heb je van die leuke youtubers die dit ook gaan zitten roepen. Er leuk als je smart switches hebt en zo'n tuber zegt " Hey Google turn everything off".

Begrijp me niet verkeerd: ik vind het allemaal erg leuk werken, maar ik wil gewoon zeggen "Computer zet licht aan" (Star Trek fan) of als dat te triggergevoelig is een eigen verzonnen woord. Waarom dit zonder omslachtigheid niet te realiseren is snap ik niet.

Daarnaast mag het geheel ook wel iets slimmer worden. "Hey Google zet licht aan" gevolgd door "Hey Google zet bureau aan" gevolgd door "Hey Google zet stopcontact TV aan" is nu niet erg slim. Het woordje plus herkennen als extra commando is al een stuk vriendelijker "Hey Google zet licht aan plus zet bureau aan plus zet stopcontact TV aan" maakt het geheel al een stuk gebruiksvriendelijker.
Daarnaast mag het geheel ook wel iets slimmer worden. "Hey Google zet licht aan" gevolgd door "Hey Google zet bureau aan" gevolgd door "Hey Google zet stopcontact TV aan" is nu niet erg slim. Het woordje plus herkennen als extra commando is al een stuk vriendelijker "Hey Google zet licht aan plus zet bureau aan plus zet stopcontact TV aan" maakt het geheel al een stuk gebruiksvriendelijker.
Als ik hier zeg "zet woonkamer en keuken aan" dan gaan beide aan. Dus dit werkt al gewoon
Ik vind het woord "plus" ook niet erg natuurlijk aanvoelen.
Dat muten is irritant maar kun je ook uitzetten he ;)
Klopt maar het allerliefst laat ik hem aan zodat hij de tv mute als ik wel daadwerkelijk "hey google" roep
Hahaha, ik mute juist mijn TV handmatig, zodat mijn google reageert op de BEN reclame. Liggen hier weer in een deuk als mama dan toevallig op haar mobiel zit. Soort van interactieve TV 2.0 :p
Ja idd.. ik heb ook hetzelfde probleem.
Dan gaat de TV op mute en dan zie ik dat de home hub met iets bezig is. En dat zijn echt hele vage dingen waar ik niet van weet waarom die getriggerd word. En het is meestal/altijd als ik ook TV zit te kijken.
Het zijn ook niet de (twee) reclames waar de trigger zin wordt gezegd.

Echt vaag..
Snap er niks van dat ze dat niet anders doen. Bij Dragon Naturally Speaking moest je bijvoorbeeld eerst een hele lap tekst oplezen en vervolgens kijken of hetgeen wat de computer dacht te horen ook klopte. Zo kon de computer aan jouw specifieke stem wennen. Je kon dus ook de computer leren te luisteren naar jouw stem. Koste je een half uurtje, en daarna werkte het als een malle.

Nu is het van, ga maar praten, 3/4 snapt het ding toch niet ( Google assistent bij mij in ieder geval) en Google probeer er wel wat van te maken.

En ik ben geen Barry Kripke van The Big Bang Theory
https://www.youtube.com/watch?v=Mqnc22tMaKQ

[Reactie gewijzigd door Verwijderd op 23 juli 2024 07:55]

Wat is er ooit gebeurd met die 'opensource' versie van de digitale assistent?

Denk alweer jaartje of 3 geleden, die draaide 100% lokaal en haalde enkel nieuwe algoritme op voor spraakherkenning.

Zelfs als jij toestemming aan/uit zet, net als Alexa of anderen, het blijft niet 'thuis' maar gaat ook gewoon de cloud in.
Het speech recognition deel van MyCroft draait niet self-hosted/lokaal.
Wat is er ooit gebeurd met die 'opensource' versie van de digitale assistent? Denk alweer jaartje of 3 geleden, die draaide 100% lokaal en haalde enkel nieuwe algoritme op voor spraakherkenning.
"Hallo assistent, wat is het weer morgen?'
'Geen idee...."
Snips.ai verwerkt spraak 100% lokaal, bijvoorbeeld op een raspberry pi. Enkel de training van de agent gebeurt online, daarna wordt dat getrainde ML-model offline gebruikt. Er is ook ondersteuning voor zogenaamde satellites, "dommere" microfoon/luidsprekers die hotword detectie doen en dan de ingesproken commando's doorsturen naar je centrale pi. Op dit moment zijn er wat problemen met rasbian buster, maar zodra t daarop goed werkt wil ik wat pi zeros en een pi 3b inzetten om oa de Phillips hue verlichting te bedienen. Je kan er voor zover ik weet ook je volledig eigen modules voor programmeren.

[Reactie gewijzigd door bertware op 23 juli 2024 07:55]

Snips.ai werkt 100% lokaal, bijvoorbeeld op een raspberry pi.

(...)

Enkel de training van de agent gebeurt online, daarna wordt dat getrainde ML-model offline gebruikt.
Does not compute.

En inderdaad, offline trainen kan niet met Snips.ai. Vanuit een privacy perspectief en vanuit duurzaamheid (snips.ai offline = geen training meer) is dit hierom geen volledig zelfstandige oplossing.

Het is nog steeds wachten op de eerste volledige self-hosted oplossing. MyCroft was hier ooit aan begonnen (GitHub), maar tot nu toe is er nog geen significant resultaat daaruit voortgekomen.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 07:55]

Heb t even aangepast zodat het duidelijker is. Ik weet niet of het haalbaar is om zo'n agents lokaal te trainen, in termen van benodigde datasets (opslag) en rekenkracht (cpu/ram). Online trainen en dan lokaal gebruiken lijkt mij wel een goed compromis, gezien de training/het model niet echt gevoelig is (enigste wat je eruit kan afleiden is welke "smart" producten je gebruikt, configuratie is voor zover ik weet ook nog altijd lokaal)
gezien de training/het model niet echt gevoelig is
Stemopnames en karakteristieken van stemmen zijn potentieel gevoelig. Zeker nu kunstmatige stemmen gebaseerd op echte stemmen steeds beter worden.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 07:55]

De data die doorgestuurd wordt bevat je eigen stem niet. Ik heb in ieder geval al een agent gemaakt die ik gewoon kon downloaden zonder iets persoonlijks (zoals stem, locatie, configuratie, ... ) op te geven. Het model zelf bevat parameters voor stemherkenning gebaseerd op meerdere stemmen, weet zelf niet waar doe vandaan komen (Mozilla Common voice, andere datasets?), Maar die parameters kan je dacht ik niet terug herleiden naar 1 stem.
Mogelijk bedoel je https://jasperproject.github.io/

Dat is helaas hardstikke dood.
maar alle gebruikers moeten daar eerst toestemming voor geven.
Anders werkt het niet ?
Het woord "alle" hoort denk ik niet in deze zin.
Verder krijgt Google Assistent 'binnenkort' een instelling waarmee de gevoeligheid voor keywords als 'Hey Google' en 'Ok Google' ingesteld kan worden. Dat moet gebruikers meer controle geven om onbedoelde activatie van de Assistent te voorkomen.
Ik heb het idee dat ze hier al behoorlijk mee hebben geëxperimenteerd. En dan met name in het minder gevoelig maken. Sinds ongeveer een maandje ofzo valt het me gewoon op dat ik echt redelijk luid en duidelijk "hey google" moet zeggen. Voorheen kon het zelfs worden geactiveerd als je aan het bellen was, diegene op de speaker zette en dan die "hey google" laten zeggen :)

Eigenlijk.. wil ik het wel weer zo gevoelig hebben als het was. Mss niet voor iedereen handig, maar werkte voor mij heerlijk.
Blij dat je dit zegt, is mij ook al opgevallen.
Toestemming gegeven en je vraagt je Google Assistent..."hoe kan ik Trump vermoorden?"
en word je zeker na een paar dagen door de politie gearresteerd?

Nee dank je wel :P
Meteen maar even uitgezet… Niet dat ik zulke spannende dingen zeg, maar het gaat om het idee.
Hierbij trouwens de uitleg hoe je het uit moet zetten.

https://support.google.co....Platform%3DAndroid&hl=nl
Ik zou zo graag zien dat de Google Assistant alleen op mijn stem reageert. Dus andere mensen in mijn ruimte die "Hey Google" beginnen automatisch negeert. Dat lijkt nu nog steeds niet te kunnen :(
Dan ben je ook af van het "gedoe" van reclames die acties triggeren etc..

wat vinden anderen?

Op dit item kan niet meer gereageerd worden.