Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

'Medewerkers moesten naar 1000 Siri-opnames per dag luisteren'

Door Apple ingehuurde medewerkers die zich bezighielden met de verbetering van Siri moesten per dienst naar ongeveer 1000 opnames luisteren. Apple is inmiddels met de praktijk gestopt, waardoor mogelijk honderden tijdelijke krachten hun baan hebben verloren.

Dat meldt Irish Examiner op basis van een gesprek met een voormalig werknemer van GlobeTech, dat zijn hoofdkantoor heeft in het Ierse Cork en door Apple is ingehuurd voor het beluisteren en verbeteren van Siri. Volgens de bron was de verwachting dat werknemers die betrokken waren bij het project naar ongeveer 1000 opnames per dag moesten luisteren. Elk fragment moest daarbij beoordeeld worden.

Alhoewel Apple inmiddels met het beluisteren van Siri-gesprekken is gestopt, gaf het bedrijf eerder deze maand aan dat slechts naar een klein deel van de interacties met de spraakassistent werd geluisterd. Mocht het verhaal van de bron van de Irish Examiner kloppen, dan werden er dagelijks desondanks een groot aantal opnames beluisterd. Waarschijnlijk waren er namelijk honderden werknemers betrokken bij het project, waardoor er dagelijks honderdduizenden gesprekken zouden zijn beluisterd. Daarvan zouden de meesten overigens van Engelstalige gebruikers worden beluisterd, alhoewel bekend is dat ook Nederlandse gesprekken zijn geanalyseerd.

Inmiddels hebben veel grote techbedrijven, waaronder Google, Amazon, Facebook en Microsoft, toegegeven dat zij met hun spraakdiensten soms gesprekken beluisteren om de kwaliteit van de dienst te kunnen verbeteren. Bij Apple kwam eind vorige maand naar buiten dat er werknemers zijn ingehuurd om Siri-gesprekken te beluisteren. Daarbij gaven werknemers aan soms vertrouwelijke gesprekken te horen.

Door Bauke Schievink

Admin Mobile / Nieuwsposter

25-08-2019 • 10:26

323 Linkedin Google+

Reacties (323)

Wijzig sortering
Maar even. Dit is toch niet meer dan logisch dat dit gebeurd? Zo een algoritme moet getraind worden. Iemand moet die data invoeren. Zo een systeem wordt niet uit zichzelf slimmer/beter. Ik snap niet zo goed dat mensen hier verbaasd over doen.

[Reactie gewijzigd door ro8in op 25 augustus 2019 10:31]

Zoals al eerder gezegd, dan nemen ze 100.000 man in dienst die tegen dat systeem gaan praten. Of een miljoen.

Of zeg keihard tegen mensen dat ze kunnen kiezen om geen gebruik van de service kunnen maken als ze niet afgeluisterd willen worden.
Ze luisteren toch alleen naar de commando’s als je Siri inschakelt.
Ze luisteren niet naar gesprekken
In theorie ja. In de praktijk blijken uit recente onthullingen toch regelmatig delen van gesprekken opgenomen te worden, bijv. omdat het apparaat onterecht denkt "Hey Siri" gehoord te hebben.
Delen van gesprekken die opgenomen zijn en actief afluisteren is IMO toch iets totaal anders.

Bij de gesprekken die opgenomen zijn zal een medewerker aanvinken dat het Siri ten onrechte iets opgenomen heeft, waardoor "Hey Siri" in de toekomst nauwkeurig werkt en er dus minder onterechte opnames zullen zijn.

Bij afluisteren zal er ook daadwerkelijk iets gedaan worden met de opnames die onterecht opgenomen zijn.
Dat snap ik. Ik maak dat onderscheid echter niet.

Of er nu iets mee gedaan wordt of niet, feit blijft dat vreemden gesprekken horen waarvan de spreker dacht dat die privé waren. Waarschijnlijk doen ze er niks mee, maar dat weet je niet.
Weet jij dat zeker? Als er toevallig een gesprek gaande is over bedrijfsaankopen of iets dergelijke kan dit gebruikt worden.
Iedereen kan de voorwaarden toch lezen?
HumancentiPad hahaha...oh oh oh here’s comes a big one....bbbbrrrrrrfffffffffffffff :X
Of gewoon kunnen kiezen voor "nee" en dan toch gebruik kunnen maken van de services.. Nog beter.
Er zijn altijd mensen die ja klikken omdat ze het zelf niet erg vinden en uit die mensen halen ze hun info.Zijn er zat!
Je kunt toch ook en paar honderd mensen inhuren die al die commando's in"leren" i.p.v. je klanten afluisteren? Je zult genoeg variatie in stemmen/accenten moeten hebben, maar dan maken we daar toch een nieuwe "tak van sport" van. ;)
Ze hebben nu miljoenen mensen die een veelvoud van deze commando's in een nog breder aantal situaties gebruiken. Van in de auto tot aan onder een waterval. Eer dat je zulke data verzameld heb dat je er iets mee kunt ben je dan jaren en jaren verder.

Als je tegen een voice assistent praat moet je gewoon bewust zijn van het feit dat dit gecontroleerd kan worden om te kijken of de reactie goed was ja of nee. Als je dat niet begrijpt ben je in mijn mening een beetje onnozel / Wereld vreemd.
Dit kost voor een bedrijf geld en de data die ze nu hebben gekregen is gratis. Dus dit gaat hem niet worden ben ik bang..

Wat ik eerder zei: kunnen kiezen voor "nee" in de voorwaarden en dan toch gebruik kunnen maken van de services.. Nog beter.
Er zijn altijd mensen die ja klikken omdat ze het zelf niet erg vinden al hun data vergaard en opgeslagen wordt en uit die mensen halen ze hun info.Zijn er zat!

Of weet Apple dat de grootste aantal van de mensen die een Apple product hebben dan juist kiezen voor nee? Als dit zo is dan weet Apple zelf ook dat ze verkeerd bezig zijn ;) Heel veel mensen zitten gewoon niet meer op dit soort praktijken te wachten.

Afluisteren niet. (in welke vorm dan ook)
Cookies niet (die je moet accepteren)

[Reactie gewijzigd door Audione0 op 26 augustus 2019 21:27]

En hoe denk je toestemming te vragen aan de gesprekspartners die ook worden opgenomen?
Ik snap je vraag niet helemaal? Welke gesprekspartners bedoel je precies?
Meestal als iemand een gesprek heeft, doet hij dat niet alleen. Siri neemt gesprekken op - met je vrouw, je vriend, of je moeder, of wie dan ook. Hoe vraagt Apple hen om toestemming voor het afluisteren van dat gesprek?
Dat is een goeie, maar ik zou zeggen als ik "niet" met de voorwaarden akkoord ga (het is mijn smartphone) dan hebben mijn moeder, mijn vrouw daar niets over te zeggen.

Het wordt indd een ander verhaal als ik met de voorwaarden akkoord ga en de mensen om mij heen willen eigenlijk niet dat siri dit opneemt en opslaat om de server van apple.

Een mooie casus!
Misschien dat het probleem is dat Apple er meer open over had moeten zijn dat ze dit deden en in welke mate? Ze hadden dit tenslotte ook heel anders aan kunnen pakken door vrijwilligers te vragen met een opt-in optie of er zelfs voor te betalen.
Dat gebeurt dan ook. Bij het activeren van Siri (zowel bij set-up van het device als bij het activeren in de instellingen) op al je devices wordt uitdrukkelijk gemeld wat er verzonden wordt aan Apple, zelfs als je reeds eerder akkoord bent gegaan met de voorwaarden.

Screenshots
De lengte van volledige Siri privacyvoorwaarden zijn ongeveer 2x de tekst die je momenteel ziet. Het excuus van een ellenlange legal text die gepresenteerd wordt gaat hier ook niet op imo.

Ik begrijp de verontwaardiging ook niet.

[Reactie gewijzigd door bn326160 op 25 augustus 2019 10:55]

Prima, dus ze melden dat er data naar Apple gestuurd wordt. Maar niet wat er vervolgens mee gedaan wordt. Ik zie in je screenshot in ieder geval niet staan dat er mensen naar je gesprekken kunnen luisteren. Enkel dat je "request processed" wordt, wat van alles kan betekenen.
Op de iPhone, tenminste in iOS 13, wordt het net anders en veel beter uitgelegd. Op mijn iPad met iOS 12 en macOS Mojave krijg ik inderdaad een stuk tekst als @bn326160.
By using Siri or Dictation, you agree and consent to Apple’s and its subsidiaries’ and agents’ transmission, collection, maintenance, processing and use of this information, including your voice input data and Siri Data, to provide and improve Siri and dictation functionality in Apple products and services.
Schermschotje

Ook hier is de tekst niet bepaald lang en makkelijk te lezen en te begrijpen voor iemand die niet technisch is.

EDIT: Toch maar eens de macOS/iOS 12 versie opnieuw gelezen. Hier staat wel degelijk dit in:
At all times, information received by Apple from your use of Siri or Dictation will be treated in accordance with Apple’s Privacy Policy, which can be found at www.apple.com/uk/privacy. This includes your voice input and User Data to provide and improve Siri, Dictation, and dictation functionality in other Apple products and services.

[Reactie gewijzigd door NanoSector op 25 augustus 2019 13:59]

En toch staat ook daar helemaal niets in over de mogelijkheid dat medewerkers van Apple jouw gesprekken kunnen beluisteren en analyseren. Dat vind ik toch wel een belangrijk gemis. De meeste mensen zullen er toch vanuit gaan dat dat verbeteren een automatisch proces is waar geen mens bij komt kijken.
Er staat in dat Apple jouw stemdata mag gebruiken voor het beter maken van Siri. Dat is ook precies wat er gebeurd.
Wat er staat is: we gebruiken je data, maar zeggen je niet wat we ermee doen want dat is niet belangrijk voor u. Het enige wat u hoeft te weten is dat het onze dienst verbetert.

Daarmee geef je Apple in feite een vrijbrief om, tot op zekere hoogte, met je data te doen wat ze maar willen zolang het de dienst in hun ogen maar verbetert.
Lees nog eens de stukjes die ik aan haal, daar gaan ze zeker wel specifieker in op wat er mee gebeurt dan dat je het voor laat komen.
als je per ongeluk heb doorgeklikt hoe moet je dan ongedaan maken?
De data die al geanalyseerd is kan niet meer verwijderd worden denk ik, maar als je Siri weer uit zet krijg je middels een popup de melding dat er gegevens van de Apple servers worden verwijderd.

"Per ongeluk" of zonder te kijken doorklikken is overigens geen excuus waardoor de voorwaarden en privacy policy niet geldig zijn. Je bent akkoord gegaan door de feature aan te zetten.

EDIT: Zelfs hier heeft de privacy tekst een stukje voor (macOS Mojave versie):
You may choose to turn off Siri or Dictation at any time. To turn off Siri, open System Preferences on your Mac, click Siri, and untick the Enable Siri box. To turn off Dictation, open System Preferences, click Keyboard, click Dictation, and click the Dictation radio button off. If you turn off both Siri and Dictation, Apple will delete your User Data, as well as your recent voice input data. Older voice input data that has been disassociated from you may be retained for a period of time to generally improve Siri, Dictation, and dictation functionality in other Apple products and services. This voice input data may include audio files and transcripts of what you said, related diagnostic data, such as hardware and operating system specifications and performance statistics, and the approximate location of your device at the time the request was made.

[Reactie gewijzigd door NanoSector op 25 augustus 2019 15:57]

Bovendien kun je een GDPR verzoek aan Apple richten om jouw individuele gegevens te verwijderen.

Wat natuurlijk niet meer kan is jouw aandeel in Siri verwijderen. Je kunt een AI niet "ont-trainen".
"Per ongeluk" of zonder te kijken doorklikken is overigens geen excuus waardoor de voorwaarden en privacy policy niet geldig zijn. Je bent akkoord gegaan door de feature aan te zetten.

EDIT: Zelfs hier heeft de privacy tekst een stukje voor (macOS Mojave versie):


[...]
tis niet dat ze niet geldig zijn maar hoe wil ff weten hoe je moet 'reversen' als je per abuis hebt doorgeklikt
Als je de feature onmiddellijk weer uitschakelt zonder Siri te gebruiken wordt er eigenlijk geen data verzonden.

Verder wordt als ik me niet vergis geanalyseerde data slechts 6 maanden bijgehouden, of dat was toch ooit de verklaring voor waarom Siri zo veel slechter werkte dan bijvoorbeeld Google's Assistant
Fair enough, een leek zal mogelijks niet beseffen dat AI getraind moet worden.
AI Is nooit uitgeleerd, ze blijven gewoon afluisteren.
'Tot en met 80% korting!'

m.a.w. Vanaf 0 tot 80%.

Even door de dagelijkse commerciele truukjes prikken dus.

[Reactie gewijzigd door Marctraider op 25 augustus 2019 14:09]

'to process requests' kan ook door computers zijn. Ik zie geen 'real human beings will listen to recordings'
We will process your...
dit betekend alleen verwerken, hoe dit gedaan wordt zal nooit worden vermeld.
Ik heb zelf geen Siri (of Apple for that matter) en kan het dus niet controleren, maar geeft dit scherm ook de mogelijkheid om het beluisteren door medewerkers uit te schakelen? Met andere woorden: is er een opt-out (beter nog zou opt-in zijn, maar ik ga er niet vanuit dat het dat is).

Naast het feit wat anderen al aangaven (dat het niet heel duidelijk is dat het om mensen gaat die naar je kunnen luisteren), vind ik ook dat je hiervoor minimaal zou moeten kunnen uitschrijven. Als je er verplicht mee akkoord moet gaan om het product te kunnen gebruiken, vind ik dat je reëel gezien geen echte keus hebt.
Echter staat daar niet dat het door mensen wordt beluisterd. En dat is een beetje het probleem. Ellenlang of niet, het is een probleem als bepaalde dingen niet letterlijk worden genoemd. Voor een tweakert is het vaak wel logisch dat het ook beluisterd moet worden door mensen, maar voor een gemiddelde consument niet.
Niet open, mij lijkt het dat een opt-in het meest logische en nette had moeten zijn.
ze werken net met een opt-in. Het feit dat er geen opt-out is is het probleem.
Er is zeker wel een opt-out: Siri niet aanzetten, want dan geef je ook geen toestemming. :)
En dan is het dus geen echte keus. Het is een verplichting als je het product wil gebruiken.
De keus hierin is dus of je het product wil gebruiken en daarmee ook je gegevens laat analyseren, of je gebruikt het product niet en je gegevens worden dan ook niet geanalyseerd.

Je kan in de supermarkt toch ook niet kiezen om niet gefilmd te worden voor beveiligingsdoeleinden als je wel daar je boodschappen wil doen?
ik heb betaald voor een product ... Siri maakt integraal deel uit van IOS.
Opt-out zou dus perfect moeten kunnen zonder dat de functie "gecrippled" wordt.
ZE kunnen jhet systeem ook trainen op een totaal andere manier.
bv door de opnames aan de helpdesk te alaten analyseren. Daar krijg je netjes op de mogelijkheid , dat het gesprek niet opgenomen wordt. Of tegen betaling teksten laten inlezen door bedrijven, of hun eigen werknemers .....

mogelijkheden genoeg , alleen wat moeilijker dan nietsvermoedende klanten" gebruiken"

Al het bovenstaande geldt net zo goed voor Microsoft, Google , Amazon ...


Het filmen in de supermarkt, is onderhevig een strenge wetten die door een democratisch systeem tot stand kwamen. Geheel niet te verggelijken met de "voorwaarden" van een bedrijf

[Reactie gewijzigd door klakkie.57th op 25 augustus 2019 16:37]

Als je het typisch Amerikaans wil opvatten en doen alsof we hier een juridisch onderscheid moeten maken: nee, je hebt niet betaald voor een product met een integraal onderdeel. Je hebt betaald voor een fysiek product met daarbij een licentie en gebruiksrecht van een dienst. Die dienst wel of niet gebruiken staat jou vrij, het product is nog steeds van jou en werkt met of zonder Siri net zo goed. Dat staat op de gesealde verpakking, in de bijgevoegde voorwaarden die gewoon in de EU geldig zijn, en in de software als je het apparaat opstart.

Je kan nu wel gaan doen alsof het allemaal boe en bah is en je moet krijgen wat je wil om dat dat goed bij jouw wereldbeeld past, maar het is helaas toch net wat anders in de echte wereld. Niet dat dat dat automatisch voor iedereen even leuk is, maar dat maakt nog niet dat je opeens kan stellen dat een bedrijf verplicht is een dienst aan jou te bieden op jouw voorwaarden.
Zo'n voorwaarden moeten wel nog altijd voldoen aan Europese regelgeving. En meestal zijn deze voorwaarden nogal "ruim" opgevat naar Europese normen en waarden en is het niet altijd zeker dat ze een rechterlijke toets doorstaan.
En totdat er een rechtszaak is kan je er beter van uit gaan dat het wel geldig is. Iedereen en z'n moeder komt op tweakers de jurist uithangen, maar totdat er daadwerkelijk wat gedaan wordt is het op z'n best lauwe stemmingmakerij.
En dat product is afhankelijk van data wat naar Apple gestuurd wordt, dus opt-out kan niet zonder de functie te "cripplen". Als je de gebruiker de keuze geeft om niks te laten opnemen en beluisteren, zal Siri dus niet meer kunnen bestaan, want dan antwoordt iedereen "nee". Beter is om het gewoon duidelijk te maken dat het gebeurt, en als je het er niet mee eens bent, dan gebruik je het niet.
Ik vind het leuk dat je het woord nietsvermoedend gebruikt. Want op zich heb je daar gelijk dat de meeste mensen niet vermoeden dat hun data op deze manier wordt gebruikt en dus vinden ze het wel welletjes, als ze Siri maar kunnen gebruiken. Maar dit zijn dan ook de mensen die het stukje privacy niet hebben doorgelezen.

Daar staat dus tegenover dat Apple (Microsoft geloof ik ook) wel degelijk een waarschuwing recht in je gezicht gooit, waar gezegd wordt dat ze data doorsluizen naar hun servers. Wil je weten wat voor data, dan mag je een langer stukje tekst lezen waarin dat haarfijn wordt uitgelegd.

Wat betreft het laten uitzetten van deze data-collectie... Het is nu eenmaal Apple's product, en zij stellen dat je het niet mag gebruiken als je ze niet wil helpen met het verbeteren van dat product. Ben je het niet eens met de voorwaarden die ze opstellen, dan gebruik je het niet en zoek je naar een alternatief dat je beter bevalt.

Mijn boodschappen vergelijking doelde meer op dat je het product (de supermarkt) niet kan gebruiken zonder dat je akkoord gaat met hun voorwaarden (de camera's). De politieke afwegingen hierbij ben ik niet bekend mee en zijn ook geen onderdeel van mijn vergelijking.

[Reactie gewijzigd door NanoSector op 25 augustus 2019 17:05]

Microsoft en Google ook inderdaad. Dat ze mij gebruiken om het producten te verbeteren en geld te verdienen lijkt mij logisch, vooral in het geval van Google gaat voor niets de zon op natuurlijk.

Als je niet op een bijna dwingende manier traningsdata verzamelt voor spraak herkenning, kan je volgens mij meteen stoppen met je spraakherkenning. Als je niet mag leren van hoe men spreekt, gaan 894327984326 mensen klagen op fora etc, maar je hebt geen enkel voorbeeld van het probleem en je kunt het probleem onmogelijk reproduceren.

Volledig logisch dus. En als men er problemen mee heeft, moet je het niet gebruiken, vrij simpel. Kun je beter een mens inhuren die belooft dat ie het niet doorvertelt.
Een beetje een extreme respons, vind je zelf niet?

Helemaal aangezien er alternatieven zijn, op iOS, van de andere bedrijven. Google Assitant en Amazon Alexa kan je gewoon uit de App Store plukken.

Dat is misschien niet even handig als dat je gewoon op de home knop kan drukken voor Siri, maar de alternatieven heb je wel. De keuze is aan de eindgebruiker.
Al die alternatieven doen aan hetzelfde afluisteren. M.a.w. dan is er dus geen alternatief.

Alle drie moeten gewoonweg duidelijk een opt-in maken en bij die opt-in duidelijk zeggen wat er aan de hand is.

En de wet moet dit opleggen. En als één van de drie dit niet wil doen, dan moet die oprotten uit de EU. Weigeren ze alle drie dan is dat even goed. Want dan staat er een EU alternatief op dat dezelfde dienst zal leveren aan EU burgers. En dan verliezen de drie hun marktaandeel doordat zo'n 500 miljoen gemiddeld erg welvarende EU burgers geen klant meer bij hun zijn.

Alleen is de voorwaarde om hier in de EU een kraampje te MOGEN hebben, dat je de wet van hier, van de EU, volgt. En NIET de wet van de VS. Maar WEL onze wet. Die van de EU. Geen andere wet. Die van ons. De wetten die hier van toepassing zijn. Die wetten.
De opt-in is dus om de voice assistant te gebruiken. Ben je het hier niet mee eens, dan mag je de voice assistant ook niet gebruiken. Simpel.

Als de fabrikant dan persé wil dat je voice data gebruikt wordt om de diensten te verbeteren en ook netjes vermeldt dat dat gebeurt, dan kun je daar vooralsnog niks tegenin brengen.

Ik ben het met je eens dat een opt-in mooi zou staan, maar ik vind het zeker geen vereiste. Als Apple dit netjes vermeldt, of wie dan ook, en je de functie ook netjes uit laat schakelen, dikke prima.
Ik ben tenminste blij dat ik dit soort dingen nog uit kan zetten, het is namelijk geen cruciaal onderdeel van mijn telefoon, dan maar geen stemassistent; pak dan liever een bedrijf als Microsoft aan met hun geforceerde telemetrie op Windows, want Windows hebben velen echt persé nodig voor hun werk of studie oid.

Ik zie ook niet hoe zo'n wet er uit moet zien zonder dat je er iemand functioneel mee belemmert.
Geforceerde opt-ins voor telemetriedata? Dan krijg je straks het gezanik dat Siri weer achter blijft lopen op de concurrentie, of dat ondersteuning voor een nieuwe feature in het Nederlands lang duurt bij stemassistent X, omdat niemand zijn/haar data wil doorsturen.
Het niet mogen afluisteren van opgenomen spraakclips? Oké, maar hoe gaan we dan de services verbeteren?

Wat dat betreft ben ik het met @johnkeates eens: "Iedereen en z'n moeder komt op tweakers de jurist uithangen, maar totdat er daadwerkelijk wat gedaan wordt is het op z'n best lauwe stemmingmakerij."
En dat bedoel ik niet persoonlijk, maar je bent echt niet de enige die alleen maar roept dat er wetten voor moeten komen.

Edit: beetje raar dat ik hierover gedownmod wordt, wat is hier ongepast of een aanval aan?

[Reactie gewijzigd door NanoSector op 26 augustus 2019 00:21]

Hoho. Apple heeft miljarden op de bank. Die kunnen prima Siri trainen van die centen zonder dat er ook maar iemand privacy hoeft in te leveren.
Niks houdt ze tegen om zelf een sloot mensen in te huren die de hele dag tegen Siri aan zitten te kletsen he.
Maar dat is toch totaal niet realistisch? Het is handiger voor ze als ze data hebben van mensen die in verschillende soorten ruis, of met verschillende accenten, of wat dan ook, Siri proberen te gebruiken, in plaats van dat ze zelf die situaties gaan simuleren.
Maar je kunt er wel voor kiezen om boodschappen te doen zonder klantenkaart/bonuskaart die je gegevens analyseert.
Klopt, maar Apple trekt je stemgegevens toch los van het account waarop Siri gebruikt wordt voordat ze het gaan analyseren. Wat dat betreft is het niets anders dan dat jouw gezicht op de camerabeelden staat.
kleine nuance, Apple en de andere zeggen dat ze dat doen, maar jij als klant hebt geen enkele manier om dit te controleren..
Klopt, maar als ze zelf zoiets opstellen en het blijkt later door middel van een audit of weet ik veel wat de andere opties zijn dat Apple hier niet aan voldoet, dan is de wereld te klein en kan Apple denk ik gaan opdoeken.

Apple heeft zich zo sterk laten voordoen wat betreft privacy dat ze denk ik een groot deel van de klanten verliezen als later blijkt dat dit schijn was. Dus ze hebben echt wel motief om dit ook in stand te houden.
Ik denk dat de verontwaardiging groot is door: https://9to5mac.com/2019/...vacy-billboard-vegas-ces/

Dan voel je je best genaaid als je erachter komt dat Apple gewoon hetzelfde doet als zijn concurrenten, met externe krachten niet eens mensen binnen het bedrijf. Is niet alleen een "data breach" maar ook een van vertrouwen.

Mensen mogen wel meer onderzoek doen naar hoe bepaalde zaken werken. Dan zouden ze niet zo snel en verbaasd raken ("mainstream gebruikers")
Gewoon niet next, next, agree, agree, next klikken. Apple was er zeer duidelijk over, als je dat gemist had dan heb je écht de introductie niet eens gelezen lol. Kan je Apple niet boos op aankijken imho en ook geen vertrouwensbreuk noemen.

Fijn dat ze nu met een opt-out komen hoor, al was die er in principe al door de functie niet aan te zetten of weer uit te schakelen.
Daar staat inderdaad in dat o.a. gesproken tekst doorgestuurd wordt. Maar waar de meesten over vallen, is dat daar ook mensen naar luisteren en niet alleen een grote doos silicium.
Machinaal verwerken is één, door mensen laten verwerken is voor menig toch een brug te ver.
Ik vind het nog erger dat het niet eens anoniem gebeurt. Bij twijfelgevallen moesten de medewerkers de gegevens van de desbetreffende klant opzoeken. Het feit dat ze dat überhaupt is al erg, laat staan dat het ook daadwerkelijk gebeurt.
Nou met duizenden gesprekken per persoon en een fatsoenlijke NDA geloof ik er helemaal niets van dat dit ook maar 10 minuten blijft hangen. Met een werkdag van 8 uur = 480 minuten heb je welgeteld 28,8 seconden per opname. Met de geldende 2x 10 minuten koffie plus de sanitaire stops tussendoor zelfs nog minder.
Nou met duizenden gesprekken per persoon en een fatsoenlijke NDA geloof ik er helemaal niets van dat dit ook maar 10 minuten blijft hangen. Met een werkdag van 8 uur = 480 minuten heb je welgeteld 28,8 seconden per opname. Met de geldende 2x 10 minuten koffie plus de sanitaire stops tussendoor zelfs nog minder.
Dan denk ik dat je het menselijk brein onderschat.
Ik zit in de telefonische dienstverlening, en onthoudt ook niet alle gesprekken die ik voer ( tussen de 100 en 200 per dag )
Maar van de afgelopen 13 jaar zijn er verschillende blijven hangen, waarvan ik nog redelijkerwijze de inhoud, context en datum kan opnoemen.
Basic dagelijkse berichten die we doorgeven niet, maar specifieke gevallen, zoals incidenten of 'rare gesprekken' zitten er wel in.

* ik herinner mijzelf nog de gewoontes van vaste gasten uit de tijd dat ik in de horeca zat.
Lopen we door de stad / dorp en wijzen mijn vrouw en ik elkaar iemand aan ( we hebben veel samen gewerkt ) "kijk dat is 2 citroenthee met een extra rietsuikertje"
Maar dat is dus binnen de NDA ook helemaal best.

Er zullen altijd randgevallen tussenzitten die je wel onthoud, uiteraard.

Kijk het is niet dat die mensen de hele dag je leven door zitten te spitten ofzo. Alleen binnen de dienst waar jij gebruik van maakt worden er bepaalde dingen geanalyseerd. Net als dat jij met je vrouw bepaalde vaste gasten eruit kan vissen.
Niemand leest die lappen tekst, de bedrijven weten dat zelf ook wel en geen rechter die in die flauwekul meegaat.
Je kunt van Apple veel vinden maar in dit geval dumpen ze geen lange teksten naar de gebruiker.. Het is een standaard next next finish I want it NOW!!! actie van gebruikers...
Het kan natuurlijk zijn dat Andros een ander idee heeft over lappen tekst, veel jongeren vinden twee paragrafen al veel. Zie vaak er hier commentaar gegeven word dat overduidelijk alleen op de kop van het nieuws gegeven is.

Rechters echter niet en die teksten zijn geheel geldig zolang ze geen wetten overtreden. Het is ronduit eng dat Andros zich duidelijk niet gedwongen voelt deze overeenkomsten serieus te nemen. Hij leest ze niet en gaat blijkbaar gewoon akkoord. Door die houding zitten we nu met een privacy probleem.
Het gaat niet over lappen teksten. Het gaat over korte stukken tekst meestal begeleid van een afbeelding zodat het voor de gebruiker niet te missen is en duidelijk te verstaan. De lappen tekst zijn zo kort gemaakt dat het zelfs voor mensen die snel snel next klikken de essentie van de tekst meekrijgen.
Het is inderdaad bij Apple een extra hekel punt omdat ze heel stoer doen met privacy en het echt als marketingmiddel gebruiken, terwijl ze regelmatig door de mand vallen. Het lijkt erop dat een groot aantal afdelingen binnen Apple de memo niet hebben gehad.

Bij Microsoft is het allang bekend dat je info over windows 10 en cortanagebruik door kunt sturen voor analyse/verbetering en staat dit behoorlijk duidelijk in de voorwaarden. Microsoft pretendeert ook niet dat ze het niet doen. Zelfde gaat op voor Google. Dus ik vind de houding en situatie met betrekking tot Apple een heel stuk vervelender, juist omdat ze zo hard roepen dat ze beter zijn dan de rest en dat simpelweg vaak gelogen blijkt.
Apple is niet enkel stoer over privacy ze zijn ook het sterkste op het vlak van privacy. Apple gebruikt die data om het product te verbeteren en niet om er derden beter mee te maken. Apple liegt ook niet over privacy. Het staat allemaal duidelijk vermeld als je je toestel activeert en niet ergens verborgen in een EULA
Er wordt nu gedaan alsof Google en Amazon het ook niet gebruiken om het product te verbeteren. En bij Google staat het ook wanneer je deze features activeert.

Ik blijf mij nog steeds verbazen dat men niet ziet dat ze allemaal exact hetzelfde doen. En voor de duidelijkheid, bij Google kan je makkelijk scrollen naar het onderwerp waar je iets over wilt weten in hun EULA. https://policies.google.com/terms?hl=en-US
Dat Apple er plaatjes bij doet betekent opeens niet dat ze beter zijn en niks verbergen, want hé dat kan Google ook : https://policies.google.com/privacy?hl=en-US
Google en Amazon hebben dan ook businessmodels die aansluiten op meer doen met die informatie dan het product verbeteren zoals bvb advertenties.
Apple is niet enkel stoer over privacy ze zijn ook het sterkste op het vlak van privacy. Apple gebruikt die data om het product te verbeteren en niet om er derden beter mee te maken. Apple liegt ook niet over privacy. Het staat allemaal duidelijk vermeld als je je toestel activeert en niet ergens verborgen in een EULA
Apple deelt wel degelijk info met derden

Bron:

Edit: ze laten in ieder geval toe dat apps op hun platform deze gegevens doorsluizen

[Reactie gewijzigd door xj900s op 25 augustus 2019 12:01]

Zoals je zelf dus ook al opmerkte was je onzin aan het vertellen en deelt Apple geen info met derden. De apps die je installeert daar ben je zelf verantwoordelijk voor maar ook daar is Apple veel strenger dan de concurrentie.
Apple heeft geen advertentieplatform meer. Hebben ze wel gehad in de vorm van iAds, maar daar is enkele jaren geleden de stekker uitgetrokken, omdat ze:
1. Niet konden concurreren met aanbieders als google omdat ze minder informatie van gebruikers verzamelden.
2. Ze dus niet wilden dat men het idee had dat gebruikersgegevens gebruikt werden om extra inkomsten te genereren.

Apple distantieert zich expliciet van de admarkt.
Stop eens met onzin te vertellen. Apple is geen advertentieboer. Apple levert geen advertentiediensten
Ze zijn wel degelijk nog een advertentie boer, alleen op een ander/kleiner vlak. Maar dit vlak gaan ze wel uitbreiden
Lees de tekst: Apple already sells some ads based on search terms in the App Store, which led to $1 billion in revenue last year.

Dit is natuurlijk duidelijk anders dan wat bv Google of Facebook doen, maar ze zitten wel degelijk in de advertenties, one way or another.
Er is toch echt een 3de partij betrokken die hier geld aan verdiend en er dus beter van word (naja werd). Hoe kan je dan nog beweren van niet als dat nou net onderdeel is van het probleem.

Apple is voor zover ik weet ook juist degene die het uitbesteedt en dus een 3de partij laat profiteren. Staat ook wel ergbhaaks op de bilboards die ze plaatsten dat wat je op je iphone doet daar ook blijft, dat is dus duidelijk onwaar en ze hebben daar zelf een hand in.

Raar dat je doet of Apple in eerlijkheid uit blinkt...

[Reactie gewijzigd door watercoolertje op 26 augustus 2019 08:00]

terwijl ze regelmatig door de mand vallen.
Regelmatig? Dat vraagt on voorbeelden.
Ach kom. :P
nieuws: Microsoft zet in privacystatement dat mensen audio Skype Translator l...
nieuws: Medewerkers Microsoft luisteren naar Xbox-audio sinds 2014
En ze luisteren ook Skype gesprekken af. Niets “duidelijk over”, Microsoft was het ergst van allemaal. ;) Sowieso is het de afgelopen jaren raar gegaan met Microsoft en privacy, zo kan je intussen uberhaupt geen opt-outs meer doen van info delen met ze en is het al een aantal keer voorgekomen dat updates zonder toestemming telemetry weer inschakelen.

Apple is er al jaren kraakhelder over, van door de mand vallen is duidelijk geenszins sprake. :) Idem voor Google inderdaad, die hadden het ook netjes vermeld.

[Reactie gewijzigd door WhatsappHack op 26 augustus 2019 02:31]

Logisch wel, maar niet iets dat je je realiseert.

Dat ze in een koekjesfabriek boter gebruiken is logisch, maar toch staat het op de verpakking...

Apple zou dit opt-in moeten maken en er bijvoorbeeld een kleine vergoeding (extra iCloud storage of een klein bedrag iTunes-tegoed) tegenover zetten. Zal je zien dat het razend populair zal zijn.
Het staat op de verpakking, omdat de lobby van de koekjesfabriek minder is dan die van de techbedrijven. De lobby van de wijnindustrie is beter, vandaar dat er geen volledige ingrediëntenlijst op een wijnetiket staata.
Dat van die boter snap ik wel, want je kunt ook koekjes maken zonder boter (zijn genoeg merken die dat tegenwoordig ook doen). Wat ik niet logisch vindt zijn van die verpakkingen die overbodige dingen plaatsen. "Dit product kan sporen van noten bevatten" op een zak noten bijv.
Exact dit. En het lekt alleen omdat een of andere random journalist een keer geïnfiltreerd is en bekend heeft gemaakt dat dit gebeurd. De data zélf is nog steeds veilig binnen Apple, Google, Amazon of waar dan ook opgeslagen. Er liggen geen gesprekken 'op straat'. Beter beveiligd met de functionaliteit die 'we' willen is er niet.
De functionaliteit die men wil is dat siri de persoonlijke geluiden verwerkt en dat het op de telefoon blijft. What happens on your phone stays on your phone is ook hoe het is verkocht. Apple maakt er juridisch van dat ze de geluiden ook voor andere doeleinden willen gebruiken en op andere manieren wil verwerken. Dat een mens de geluiden hoort en siri er mogelijk beter van kan worden is niet hoe apple het verkoopt en ook niet wat gebruikers als product willen. Anders had apple wel gewoon de slogan gebruikt: we listen to our customers and to many more.

Het kan wel degelijk beter beveiligd: de geluiden alleen doorsturen als het voor de personen om wie het gaat duidelijk is dat Apple die specifieke geluiden nader wil analyseren. Dus niet algemeen een keer ja of nee of per opt-out. En dat dan ook per keer duidelijk is om welke geluiden het gaat, weet wat de status van het verwerken is en het ook per opname kan intrekken na toestemming. Laat Apple anders maar aantonen dat het op de manier moet zoals ze nu doen als hun product goed genoeg is voor de markt.
Maar even. Dit is toch niet meer dan logisch dat dit gebeurd?
Ik zie de logica er niet goed van in...
Zo een algoritme moet getraind worden.
Er is geen enkele reden waarom dat niet zou kunnen met data die door medewerkers van apple wordt gegenereerd. Het is voor apple uiteraard veel makkelijker en goedkoper om de data van de gebruikers hiervoor te gebruiken, maar dat is geen argument.
reden van uitbesteding: omdat de medewerkers van apple niet alle talen en dialecten spreken.
Daar gaat het helemaal niet over. Ze mogen uitbesteden maar er is geen reden om de gesprekken van de gebruikers op te nemen en te laten beluisteren. Diegenen die dat moeten beluisteren kunnen ook data genereren.
Zo een algoritme moet getraind worden op honderden duizenden voice recordings per dag. Met verschillende intonaties, accenten, stem geluiden en zelfs handicaps. Dat maak je niet even met 10 of 20 medewerkers.
We hebben het hier over techbedrijven ...dit Algoritme kan ook getrained worden met input van telefoon gesprekken van de helpdesk.
Er komt genoeg data binnen bij de helpdesken om algoritme te trainen. Daar zou dan ook verder niemand verbaasd over zijn, omdat er al word gemeld dat gesprekken worden opgenomen. Het punt dat deze bedrijven kiezen om data te vergaren via een open mic bij de mensen in de woonkamer is gewoon ziek,
En hoe weet je dan of Siri reageert op een zin die niet voor hem/haar bedoeld is?

Het is echt onzin om gewoon maar te zeggen dat een telefoongesprek met een helpdesk medewerker alle data in zou houden die Apple nodig heeft om Siri te verbeteren.

Als ik aan Siri vraag waar A'dam ligt en Siri geeft aan waar R'dam ligt, hoe wil je dat ooit met een Helpdesk gesprek verhelpen?

Je hebt hiervoor het commando van de gebruiker nodig, de foute reactie van Siri en een reactie van de gebruiker die nogmaals zo'n commando geeft of aangeeft dat het fout is/"Nee" roept of whatever.
Misschien draait het allemaal om woord/spraak herkenning.
Het algoritme moet de gebruikte woorden kunnen herkennen.
Ik begrijp dat er verschil in dialecten en toonhoogte bestaat...en we met verschillende talen werken.

Maar het doel van het algoritm is het herkennen van de woorden ... en daar uit de juiste handeling te verrichten.

Het testen van woord herkenning kan absoluut beginnen uit het analizeren van helpdesk gesprekken ect.. Dit zijn techbedrijven, voor hun is het niet moeilijk om het algoritm te koppelen aan de helpdesk telefoon gesprekken, om deze via het algoritm te laten uit typen, hoeft een medewerker de help desk telefoon gesprek vervolgens maar terug af te luisteren en te controleren met de opgeslagen text van het algoritm. Zo zien ze precies wat er wel en niet juist word opgevangen door het systeem. Kom me niet aanzetten dat deze data alleen bruikbaar is als het word opgenomen in de woonkamer van hun klanten.... wil je persee het commando SIRI doe dit of CORTANA zoek dat trainen ... dan huur je lekker wat uitzend krachten in. Het is een feit dat deze bedrijven er jaren lang over hebben gelogen, en een schande dat sommige nu pas stoppen of aan komen zetten met een opt out functie.

Als je vervolgens leest dat sommige medewerkers de gesproken adres gegevens moesten opzoeken .... dan moet je je misschien gaan afvragen .... wat dit met het verbeteren van de zoekfunctie/ algoritm te maken heeft. ....NIETS!!!

[Reactie gewijzigd door powah33 op 25 augustus 2019 13:58]

Kom me niet aanzetten dat deze data alleen bruikbaar is als het word opgenomen in de woonkamer van hun klanten....
Als je zo zwart-wit reageert en dingen suggereert die ik helmaal niet zeg, dan is de discussie wat mij betreft gauw afgelopen. Zak er dan lekker in.

En doe niet alsof het enige is dat de software hoeft te doen "Hé Siri" is of een los woord begrijpen. Dat is gewoon dikke onzin. Siri interpreteert data en reageert. Hoe moet Siri ooit gaan leren dat er iets fout is als er geen terugkoppeling is? Als jij een woordenboek Nederlands- Chinees hebt, spreek jij opeens Chinees, je kunt immers de woorden vertalen?

Denk ook eens aan woorden met een dubbele betekenis, zoals bank:
1) Bankbedrijf 2) Bankgebouw 3) Bergplaats voor geld 4) Bestand 5) Betaalde dienst 6) Betalingswijze 7) Bewaarplaats voor geld 8) Boekhoudkundige term 9) Canapé 10) Casino 11) Deel van een kerk 12) Deel van een roeiboot 13) Deel van een school 14) Deel van londen 15) Door stroming gevormde verhevenheid in ondiepe zeeën 16) Draaibank 17) Financiee... enz. enz.

Bedrijven hebben niet gelogen, Apple niet in ieder geval, want het wordt je gewoon duidelijk gemaakt dat een deel van de gesprekken naar Apple wordt gestuurd. Waar men nu over valt is dat er mensen naar luisteren, terwijl men heeft aangenomen dat het een computer zou zijn.
"qoute"Hoe moet Siri ooit gaan leren dat er iets fout is als er geen terugkoppeling is|/qoute"

Door mensen te vragen of ze mee wilden werken met een poll (terugkoppeling) een keer per maand ofzo ... en daar dan een beloning voor terug te geven in een gratis dienst of gratis film of whatever je kan bedenken.
Door SIRI te laten vragen of dit juist was uitgevoerd, en/of dit bedoeld werd... ...zo simpel kan het zijn. IPV de open mic gewoon door te laten draaien en alles op te nemen.

Het begint allemaal sterk te lijken op profileren wat de bedrijven doen.
Jou data en info is en word geld waard.
En hoe kan je daarmee de herkenning trainen als je enkel de stem zelf hebt, maar er dus ALTIJD handmatig gecheckt moet worden wat er gezegd is. Bij het luisteren naar commando-matige systemen a la Siri, Google Assistant/Home kan je veel meer geautomatiseerd afvangen of het commando klopte. Als men constateert dat een gebruiker nog 3 x hetzelfde achter elkaar vraagt aan een assistant, kan je bijvoorbeeld veronderstellen dat de initiële output van de assistent niet klopte. Als je alleen maar helpdesk-babbeltjes hebt, heb je wellicht gesproken data, maar je kan helemaal niet iets afvangen, omdat er geen directe commando's in zitten. Je zult dan domweg alle data moeten analyseren, veel tijdrovender en duurder.
Als die redenatie zou kloppen, moet je je misschien afvragen waarom het andere tech bedrijf, SKYPE gesprekken gebruikte, aangezien daar normaal geen comando's uitgesproken worden.

"Zo zouden onder meer vertrouwelijke medische gesprekken, criminele activiteiten en mensen die seks met elkaar hebben te horen zijn."
BRON: nieuws: 'Apple-medewerkers horen vertrouwelijke gesprekken via Siri'

Lijkt me sterk dat mensen die de liefde bedrijven ondertussen hun SIRI of CORTANA raadplegen of het gaat regenen.
Als die redenatie zou kloppen, moet je je misschien afvragen waarom het andere tech bedrijf, SKYPE gesprekken gebruikte, aangezien daar normaal geen comando's uitgesproken worden.

"Zo zouden onder meer vertrouwelijke medische gesprekken, criminele activiteiten en mensen die seks met elkaar hebben te horen zijn."
BRON: nieuws: 'Apple-medewerkers horen vertrouwelijke gesprekken via Siri'

Lijkt me sterk dat mensen die de liefde bedrijven ondertussen hun SIRI of CORTANA raadplegen of het gaat regenen.
Moet je eens een multimedia podcast gaan luisteren.
Elke keer als de presentator "serie" zegt, slaat de boel op hol
Mijn telefoon gaat soms onverwacht brabbelen omdat er 'iets' gezegd is wat ook meer enigszins lijkt op "siri"

Zo raar is het dan niet als de telefoon reageert in een conversatie, ik zou liever zien dat er ipv een hardcoded woord een eigen gekozen gebruikt kan worden.
Heel logisch dus dat juist dit soort dingen geanalyseerd worden. Blijkbaar sprong Siri perongeluk aan. Beter dat ze het fixen, dan dat je perongeluk iets zegt, dat siri denkt dat het hele gesprek naar een kennis gemailed moet worden. Dan liever bij een anonieme medewerker van apple.
Apple heeft genoeg geld in kas om er enkele duizenden mensen op te zetten.
Ik vind het werkelijk onthutsend dat er zovelen op deze site - waar mensen voor het minste doorslaan als er ergens nog maar een zweem van mogelijkheid tot inbreuk van de privacy wordt verondersteld - geen probleem hebben met wat hier gebeurd.
Juist door dit soort massale toegang tot trainingsdata zijn we tot een niveau gekomen dat je niet hele boeken hoeft voor te lezen voordat het "systeem" je ook maar een klein beetje begrijpt, zoals 15 jaar geleden nog gemeengoed was. Ik word juist horendol van de eeuwige privacy-troefkaart die bij elke scheet weer wordt opgestoken. Alsof de, veelal, commando-matige zinnen interessant zijn om uren naar te luisteren (waarbij je elke paar seconden, een compleet ander iemand hebt).
De reden van de opname is simpel: je kan die dingen niet in realtime laten beluisteren. Dàt zou pas creepy zijn. Ik ben er ook zeker van dat ze geen grote opnames beluisteren. In NLP werkt men altijd met "tokens" en "segmenten": woorden, woordgroepen en zinnen.
Gegenereerde data wordt ook gebruikt, maar dat is veel minder nuttig.
Dat vindt jij, als technisch geïnformeerd persoon, maar ik vind deze ophef heel goed. Het maakt namelijk duidelijk dat de tech bedrijven al jaren dingen doen zonder dat de gewone gebruiker dat weet, en blijkbaar terwijl de gewone gebruiker als die hoort wat er gebeurt dat duidelijk niet OK vindt.

Er is een enorm probleem met heldere informatie en expliciete concent in de tech wereld, en ook de "wij houden van privacy dus daarom moet je 1000€ voor onze iPhone betalen" jongens van Apple maken zich er constant schuldig aan. Ik zou zelfs zeggen dat ze een van de ergste gevallen zijn: iTunes heeft al zo'n 20 jaar een zo goed als onleesbare eula die aan honderden miljoenen mensen opgedrongen wordt.
Maar even. Dit is toch niet meer dan logisch dat dit gebeurd?
Is alles dat logisch is wenselijk/toegestaan?
Het kan best op een andere manier. Je krijgt toch te zien wat het algoritme meent te horen. Dat moet je dan kunnen bewerken en het algoritme zo verbeteren.
Ben er zelf niet zo verbaast over, maar bv mijn n00b zus zou dat wel zijn.

Het had iig in een Opt-in/out pop-up naar voren kunnen komen op het moment je er gebruik van gaat maken, een vergelijkbare waarschuwing als wanneer je een helpdesk belt en gezegd word dat ze je gesprek voor trainingsdoeleinden kunnen gebruiken.

Daarnaast hebben de grote 5, genoeg eigen personeel die ze voor dat doel (betaalt) kunnen gebruiken.
  • Amazon 613.000
  • Microsoft; 150.000
  • Apple: 130.000
  • Goole: 88.000
  • Facebook: 40.000
Het gaat er niet echt wat ze hebben gedaan, maar hoe ze het deden, en ik ben het gedeeltelijk met de (imho beetje naïeve oproer) eens na de recente (voornamelijke Facebook) schandalen dat ze beter hadden moeten weten.

Mensen zijn het zat dat hun data te pas en onpas wordt mis/ge-bruikt door de grote 5.
Wanneer ze mij alleen “het Siri” horen roepen, prima. Want regelmatig reageert Siri ook op geluiden uit films.
Want ze zijn hier zo open over geweest? Het is niet meer dan logisch dat hier ophef over is. Een algoritme kan ook getraind worden door de honderdduizenden medewerkers die bij de grote tech-bedrijven werken en als ze er een opt-in van hadden gemaakt zou je onder de talloze miljoenen gebruikers gemakkelijk honderdduizenden vrijwilligers hebben die het allemaal best vinden.

Dat is het kwalijke in deze en als deze tech-bedrijven ook nog eens contracten en contacten hebben met geheime diensten en het leger dan lijkt het steeds meer op een feature om "willekeurig" wat gesprekken af te luisteren.
Nu moet je eens even bij die cijfers stilstaan. 1000 opnames per dag en honderden werknemers. Dat betekend dat je al snel over het miljoen spraakcommandos per week analyseert. Dat is geen kleine set meer. Daarnaast mag het aan de ene kant niet verbazen maar worden mensen aan de andere kant er ook niet voor gewaarschuwd en krijgen ze op de meeste platformen zelfs geen optie voor een opt-out Hoewel ik persoonlijk voorstander ben van een opt-in.
Omdat mensen met iPhones dachten dat Apple dit niet deed, ze dachten dat dat alleen op Android smartphones gebeurde.
Het is logisch, maar het moet wel duidelijk zijn voor de gebruiker dat dit gebeurt lijkt me.
Dus omdat mensen de techniek niet snappen, moeten er dus 100en mensen ontslagen worden. Ik vind het juist prima dat Iemand van Google af en toe dingen transcribed als mijn google home het niet helemaal snapt. (Mischien ligt dat aan mijn dialect). Waardoor in de toekomst dit juist veel beter gaat.

Mensen verwachten dat dit soort tech maar meteen vlekkeloos werkt. Ze zijn niets voor niks al ruim 30 jaar bezig met spraakherkenning.

Wat is er zo erg als mensen mijn stem horen? Ik zeg niets dat geheim moet blijven, en dan nog. Wat heeft die persoon aan de andere kant eraan? We klagen toch ook niet dat mensen van de bank de mogelijkheid hebben om mijn bankgegevens in te zien?
los van de oplossing: als siri zou werken tussen de eigenaar en apple zou je nog kunnen stellen wat is er erg aan. Maar het systeem is ontworpen om ongeacht welk geluid er nader onderzoek door een medewerker kan plaatsvinden. En met miljoenen van deze apparaten in kantoren, (semi)openbare ruimtes en meer plaatsen waar afluisteren of opname niet zomaar verwerkt mag worden door een bedrijf als Apple is er niet veel grond om te stellen dat Apple hier zorgvuldig omgaat met de privacy van derden.
Als je bij een bedrijf werkt waar bepaalde gesprekken niet door anderen gehoord mag worden:
Telefoon buiten de kamer of Siri/Google/Alexa/etc uitzetten.

Dat zou een beleid in het bedrijf moeten zijn. En medewerkers zelf zouden ook hun verantwoording moeten nemen.

Zelfde voor persoonlijke gesprekken.
En wat is je standpunt richting Apple/Google/Amazon etc over het verzamelen van opnames die niet van hun klanten zijn? Dat zijn tenslotte de bedrijven die de opnames bewaren en hun eigen gewin voorop stellen ten kosten van de rechten van anderen.
Waarom zouden we dat eigenlijk zelf niet kunnen?

Waarom kunnen wij zelf niet kiezen om mee te helpen met onze spraakopdrachten en Siri's antwoorden daarop te beoordelen?

Als je weet dat Siri beter gaat werken als je de tijd neemt om af en toe wat te beoordelen zie ik niet waarom mensen dit niet zouden doen.
Totdat je tijdens het ‘s zondagse bedrijven der coïtus ineens een “Hey Siri” achtige kreun maakt en je hele sessie naar Apple opgestuurd wordt (hij stopt tenslotte pas met opnemen als je stopt met geluid maken).

“21 resultaten gevonden voor ‘nee niet daar in Pascal!’” O+

[Reactie gewijzigd door BikkelZ op 25 augustus 2019 11:49]

Siri stopt na een paar seconden als het geen tekst krijgt als input. (En soms irritant genoeg ook als je nog niet eens uitgepraat bent.) Dus of jouw hele sessie is maar een paar seconden :P of siri luistert het onmogelijk geheel af. En dan is ook nog maar de vraag wie van de duizenden Pascal’s het om gaat. ;) Tenzij je de hele tijd met je voor en achternaam wordt aangesproken tijdens de daad, maare... Naja, ieder z’n ding I guess. :P
Panisch zeg. Het is niet dat ze naast de audio fragmenten je huis- of IP adres meesturen. Non-tracability. Ik ben het met Pascal eens, momenteel hebben we dit nodig om techniek beter af te stemmen!
Een Hey Siri achtige kruin maakt. Ik zou dan toch gaan twijfelen als m'n partner dat doet.
Siri springt bij mij te pas en te onpas aan, daar is geen kreun voor nodig...
Gelukkig heb ik geen Iphone, en Hey Google als safeword is weer iets anders :+
"Wat is er zo erg als mensen mijn stem horen?"

Dit kun je niet menen. Je hebt geen prive leven?
Psst, maar je hebt ook altijd een microfoon in je broekzak, Dus iedereen kan je stem horen ;) (En daar maakt niemand zich druk om schijnbaar)

Om de service te verbeteren, heb ik geen probleem dat mensen korte commando's kunnen horen. Heeft niets met een privè leven te maken.

En dan nog, kleine kans dat iemand in Ierland of waar dan ook mijn stem zal herkennen, "Hey die Pascal boekt wel erg vaak een vliegticket zeg!", serieus wie boeit dat daar nou. Vooral als ze duizenden commando's per dag moeten transcriben boeit het niemand daar wat.
Vast bekend met het broekzak elken phenomeen. Hoe goed versta jij dan mensen? Ik niet.
"Psst, maar je hebt ook altijd een microfoon in je broekzak, Dus iedereen kan je stem horen"

Echt waar, joh? Iedereen? Vertel....
Inderdaad je telefoon is veel gevaarlijker als het om privacy gaat. Ze kunnen je niet alleen afluisteren maar ook volgen. Dus zo’n smart speaker maakt dan ook niet meer uit 🤭
Wie zegt dat die microfoon altijd luistert? Ik heb Google assistent altijd uitstaan, gebruik het nooit. En ik geef ook geen apps onnodig toegang tot de microfoon. Tenzij aangetoond wordt dat de microfoon wel constant gebruikt wordt blijf ik gewoon een smartphone gebruiken.
Mensen verwachten dat dit soort tech maar meteen vlekkeloos werkt. Ze zijn niets voor niks al ruim 30 jaar bezig met spraakherkenning.
Maak daar gerust 'bijna 70' van. De dertig jaar is de periode waarin dat van enigszins bruikbare tot zeer bruikbare algemene spraakherkenningssoftware op de markt heeft geleid. https://sonix.ai/history-of-speech-recognition
Prima, maar dan moeten ze het niet brengen dat hun stemherkenningsalgoritmes al slim genoeg zijn ervoor.

Dat zijn ze dus absoluut niet, waardoor er opgenomen gesprekken door mensen beluisterd moeten worden om die algoritmes te verbeteren.

Dat heeft geeneen topman tijden hun product presentatie waarin ze deze "coole feature" demonstreren.
Dus omdat honderden Mesen mogelijks hun baan verliezen moeten we maar toestaan dat ze onze privacy schenden?

En dat jij niets zegt dat vertrouwelijk is wim niet zeggen dat het niet gebeurd, soms zelfs per ongeluk.
Ho eens? Die optie om afgeluisterd te kunnen worden is toch echt opt-in. Daarna lopen balken dat er opnames van je stem richting een server gaan en in een ML trainingsmodel gebruikt worden... surprisedpikachu
Heeft niks met Privacy schenden te maken, heeft meer te maken met het trainen van het model, Siri kan soms inderdaad per ongeluk aangaan, bijvoorbeeld als je al begint met "Serieus" (Lijkt erg op Siri). Juist daarom wordt er ook kort meegeluisterd om zulke dingen te voorkomen/verbeteren. Tevens worden niet hele gesprekken opgeslagen, Siri gaat een paar seconden aan zodra het is getriggered.

Die data is gewoon nodig, vooral als je werkt met verschillende talen en daarin weer verschillende dialecten. Spraakherkenning is gewoon erg lastig voor systemen.
Vervelende dat zowel iPhones als mede Macs en HomePod net als de Google en Alexa varianten wel de hele dag mee luisteren.

Hoe zou de Siri anders kunnen opmerken dat ze geroepen wordt??

Technisch gezien kan de fabrikant altijd mee luisteren net zoals naar hele gesprekken die worden gehouden.

Anderzijds vind ik dat er soort opt IN/out moet zijn om hieraan mee te werken. Ook om de klanten niet achterdochtig te maken. Zelf zou ik er momenteel niet heel veel problemen mee hebben als ze zo de dienst kunnen verbeteren. Misschien over een tijdje juist wel.
Bron? Klinkt cool maar ik was in de veronderstelling dat er een zeer basale spraakherkenning software intern in zat die alleen getraind was om hey Google/Siri termen te herkennen en meer niet hoeft te kunnen.
Dit was dus een versimpelde uitleg van een microfoon. Er zit een microfoon in, dat is hoe het werkt
Ja maar zo simpel is het niet. Een vrouwenstem zou sowieso een compleet ander voltage opleveren dan een mannenstem.
Tegenwoordig werken we niet meer met analoge geluidsfragmenten. Zelfs als je dit dan zou doen, zou je met 2 keer het uitspreken van een activatie zin dus 2 keer een andere voltage krijgen.
Mensen kiezen er zelf voor hun data met Apple/Google/Amazon te delen door zo'n apparaat in de huiskamer te zetten. Als je zo bezorgd bent om je privacy moet je dat gewoon niet doen. Ik heb een Alexa speaker thuis just omdat ik er geen probleem mee heb dat er een 0.1% kans is dat een mens een geanonimiseerd geluidsfragment van mij hoort met mijn alexa aanroep. Maar als je dat inderdaad een te grote schending van je privacy vindt, dan zijn dit soort apparaten gewoon niet voor jou.

Maar om consistent te zijn moet je dan natuurlijk ook geen smartphone of facebook gebruiken. Daarmee lek je immers veel meer privacygevoelige informatie dan met zo'n home assistent.

[Reactie gewijzigd door -GSF-JohnDoe op 26 augustus 2019 11:37]

Misschien moet Google jouw in dienst nemen?

Je hebt blijkbaar een accent/dialect dat regelmatig niet wordt herkend. Als je jou dan in dienst nemen kunnen ze jou 30 boeken laten inlezen, en je thuis alles laten opnemen. Samen met je familie natuurlijk, overal, 24/7
Bepaalde gesprekken voer je (meestal vanwege de inhoud) privé. Dan wil je niet dat andere mensen mee luisteren, ook als je die mensen niet kent.

Over je opmerking over banken, ja bepaalde medewerkers kunnen zien wat er op je rekening gebeurd, en nee het is niet de bedoeling dat je dat zomaar doet (dit mag bijvoorbeeld alleen als een klant er om vraagt of als het nodig is om de taak als financiële instelling te vervullen). Even snuffelen, of bijvoorbeeld checken waar een klant zijn verzekeringen heeft lopen om een mooi aanbod te doen, is bij wet verboden.
> Dan wil je niet dat andere mensen mee luisteren, ook als je die mensen niet kent.

Dan zet je de home assistent toch even op 'doof' (dat kan namelijk).

Ik vind het nogal krom dat blijkbaar het standpunt is "ik wil een home assistant die naar mij luistert, maar wel alleen wanneer ik dat wil, maar ik wil ook niet dat mijn informatie gebruikt wordt om de luister-code te verbeteren zodat aan mijn wens voldaan kan worden". Het is geen magie, zo'n apparaat weet ook alleen maar dat jij wil dat het naar je luistert door spraakherkenning, en net zoals mensen wel eens dingen verkeerd horen geldt dat ook voor deze assistants. Dat kan verbeterd worden, maar niet zonder training op geluidsfragmenten uit de echte wereld.

Als je absoluut geen data wil delen met amazon/google/apple, zet dat vooral geen home assistant van die bedrijven in je huiskamer. Niemand dwingt je daartoe. Als je af en toe zeker wil zijn dat het niet meeluistert, zet het dan gewoon even op 'doof'.

[Reactie gewijzigd door -GSF-JohnDoe op 26 augustus 2019 11:44]

Een apparaat mag rustig mee luisteren met gesprekken om zijn of haar naam op te vangen, maakt mij niets uit, het is maar een apparaat. Als datzelfde apparaat het gesprek opneemt en ongevraagd doorstuurt naar een medewerker, dan ben ik daar zeker niet blij mee. Mooi die doof functie. Maar als ik dat eerst moet inschakelen om vrijuit te kunnen praten in mijn eigen woonkamer, dan komt dat ding er niet in bij mij.
Wat is er zo erg als mensen mijn stem horen?
Je stem horen is niet zo erg, maar als je gevoelige gesprekken hebt moet je niet willen dat anderen gezellig mee kunnen luisteren. Om deze reden zet ik dat soort assistenten altijd gelijk uit, het gaat ze niks aan waar ik over praat. Als ik het wil gebruiken open ik het zelf wel. Zo'n smart speaker zou ook alleen maar moeten luisteren als je het juiste commando hebt gezegd (dus gewoon lokaal luisteren naar iets als "OK Google", en dan pas de online stem herkenning service gaan gebruiken).
Elk gesprek moest daarbij beoordeeld worden.
Dat is natuurlijk een hele misleidende manier van formuleren. Als je drie geluidsfragmenten per minuut moet beluisteren en uitschrijven is ieder fragment een paar seconden lang. Je hebt geen tijd om naar 'een gesprek' te luisteren, hooguit één of twee woorden.

Er wordt gedaan alsof Microsoft/Apple/Google/Amazon gewoon gezellig even een half uurtje meeluisteren bij wat er in huis gebeurt, en zoals nu blijkt kan dat eenvoudigweg niet. Niet als je duizend woorden per dag moet beluisteren, vertalen en uitschrijven.
Jij doet alsof je precies weet hoe het in z'n werk gaat allemaal? Kun je dat bewijzen dat er "duizend woorden uitgeschreven en vertaald" moeten worden? Ik zou het wel eens willen zien. De ophef gaat vooral over dat "beluisteren". In de media heb ik nog nergens wat gelezen over dat uitschrijven en vertalen. Dat een zinnetje "I'm going to get some coffee" nog door mensen moet uitgeschreven (en vertaald) worden is onzin, de spraaktechnologie is al lang zo ver gevorderd dat een AI dat niet meer hoeft te leren, die snapt dat al lang.

Ik durf wedden dat die medewerkers nog wel wat andere instructies hebben meegekregen bij het "beluisteren" van die fragmenten.
de spraaktechnologie is al lang zo ver gevorderd dat een AI dat niet meer hoeft te leren, die snapt dat al lang.
Als iedereen exact hetzelfde zou spreken in exact dezelfde omstandigheden, sure. Dat doen ze echter niet, hell, mensen verstaan elkaar regelmatig al niet terwijl ze hun hele leven al dezelfde taal spreken (dialect, spraakgebrek, etc.).

Ik vergelijk het even met OCR, waarbij je het pakket netjes heb getrained om boek X correct te herkennen, zit je weer met issues bij boek Y waarbij het font net iets anders is gebruikt en de r en n net iets dichter bij elkaar staan, waardoor de software doodleuk weer leest "m" ipv. "rn". Andere fonts, afstanden, type papier, nieuwe woorden, etc.

Wellicht dat dat ding 99,99% van de tijd het correct interpreteert, die 0,01% is toch veel op miljarden verzoeken. En de enige reden dat het nu in een zo vergevorderd stadium zit is dat men het controleert en verbeterd, dat kan natuurlijk ook anders dan hoe het nu gaat. Ze kunnen het bv. netjes vragen ipv. gebruik dienst met alles en we controleren of gebruik de dienst geheel niet. Ze kunnen ook mensen met verschillende stemmen/dialecten/gebreken inhuren om de systemen het aan te leren...

En als dat systeem zo perfect zou zijn hoefde Apple helemaal niemand in te huren, ze konden gewoon alle tekst doorzoeken op speciefieke woorden of zinnen. Net zoals de VS en een aantal bondgenoten al doen sinds 1971 via ECHELON. De verwachting is dat spraak herkenning binnen covert staatsorganisaties al veel verder gevorderd is dan binnen commerciële organisaties zoals Apple, Google en Facebook. Puur omdat dergelijke organisaties er veel meer budget voor hadden en niet werden gebonden door dingen als privacy regels (laat staan van andere landen). En mochten commerciële organisaties op bepaalde vlakken de inlichtingendiensten vooruit streven, dan zou dat linksom of rechtsom toch wel bij die organisaties terechtkomen...

@Mr777 Wellicht ben je het equivalent van een Belgische country bumpkin, maar loop eens Amsterdam of Rotterdam in, sure je hoort wel eens wat op TV of radio, maar wat daar uit verschillende monden spuit is veel meer dan wat je op TV/radio hoort. Daarnaast is nog eens de vraag of ze het geluidsmateriaal zonder licentie mogen gebruiken op de manier die jij voorstelt.

[Reactie gewijzigd door Cergorach op 25 augustus 2019 13:22]

[...]
De verwachting is dat spraak herkenning binnen covert staatsorganisaties al veel verder gevorderd is dan binnen commerciële organisaties zoals Apple, Google en Facebook. Puur omdat dergelijke organisaties er veel meer budget voor hadden
Nope. De budgetten bij Google en Facebook zijn echt veel hoger. AI is voor hun simpelweg core business. Je ziet het ook aan de grote namen. Yann Lecun bijvoorbeeld, van de Convolutionele Neurale Netwerken en Drop-Out Training werkt nu bij Facebook.
De budgetten bij Google en Facebook zijn echt veel hoger.
Wellicht nu, maar dat is puur gebaseerd of iets winstgevend kan zijn, niet of het nodig is voor de 'veiligheid'. In 2013 was het budget van NSA+CIA ~$26 miljard. Aan bv. Echelon wordt al gewerkt 45+ jaar door vijf verschillende staten Google en Facebook bestonden toen nog lang nog niet. Siri is pas in 2011 gereleased en is een spinoff van SRI International voice recognition technology, welke weer gefund werd door DARP (militair onderzoek). Google en Facebook zijn zelfs nog later gestart met voice recognition dan Apple. En een Google mag dan nu een hoop meer omzet hebben dan het budget van de NSA+CIA, het verschil is dat ze er pas een paar jaar actief mee bezig zijn (en dat waarschijnlijk dergelijke bevindingen doodleuk de NSA+CIA binnenstromen). Echelon was al telefoon gesprekken aan het afluisteren voordat er mobiele telefoons waren, laat staan smartphones.

Daarnaast is een Google/Apple/Facebook een stuk beperkter in wat ze kunnen doen, dit komt nu al naar buiten. Als ze constant willekeurige telefoon gesprekken waren gaan afluisteren dan was er allang iemand eerder aan die klepel gaan hangen. We hebben natuurlijk ook klepelhangers vanuit de veiligheidsdiensten, maar die worden veel meer gescreend en gecontroleerd dan een Google/Appel medewerker...
Hoe hoog zijn de budgetten dan? Zijn die van de inlichtingendiensten überhaupt bekend?
Ik (zelf een programmeur) ben het allemaal eens met je. Dat het nog niet op punt staat. Dat mensen moeten meeluisteren om correcties aan te brengen. Dat AI moet getrained worden. Jadi jada.

Maar zo werd het niet verkocht. Het werd verkocht als een feilloos product, en wanneer er privacy vragen waren werd er steeds gezegd: U denkt toch niet dat er meegeluisterd wordt? Nee hoor. Algoritmes doen dat. Algoritmes! Ja ja. Algoritmes!

Computers kunnen denken tegenwoordig. Wist je dat nog niet? En we moeten ook bang zijn van hun intelligentie. Want Algoritmes! jonges jonges toch. En privacy dat is geen enkele issue want algoritmes en AI en slimme computers. Ja ja. Jongens jongens toch.

Blijkt dat nu allemaal kwatsch te zijn en blijkt nu dat er honderden, nee, duizenden mensen, duizenden gesprekken hebben afgeluisterd om dat zogenaamd algoritme te trainen. En dat het dus helemaal nog niet op punt staat. En dat de gebruikers maar wat wijs gemaakt zijn wat betreft die privacy.

Voor ons techneuten geen enkel verassing. Maar duidelijk voor de gewone consument wel.

Het is ook DIE miscommunicatie die er voor zal zorgen dat ons vakgebied zwaar gereguleerd zal gaan worden. En ook volledig terecht trouwens.

Want die hipsters die constant de grote woordenschat bovenhalen om de AI algorithmes een naam te geven: die blijken gewoon constant onnozele onzin uit te kramen. Iets wat ik als programmeur met > 15 jaar ervaring kan beamen.
Volgens mij snap jij niet helemaal waar deze audio fragmenten vandaan komen? Het gaat er hier om dat Siri alle mensen overal kan begrijpen en deze fragmenten komen dus ook van wat er tegen siri is gezegd. Niemand praat het zelfde en daar moet siri dus mee om kunnen gaan. Ook heb je meestal last van achtergrondsgeluid denk aan een tv die aanstaad, iemand die verderop staat te praten of wanneer je in de auto zit. Siri moet dit ook kunnen onderscheiden.
Jij doet alsof je precies weet hoe het in z'n werk gaat allemaal?
Wat denk je dat ze daar doen? AI (Alexa, Cortana, Siri of Google) luisteren wat je wilt. Als ze daar niet uitkomen wordt jouw vraag bewaard en op een later tijdstip door een mens beluisterd. Apple geeft ieder woord uit de tekststroom een herkenningspercentage ("60% zeker dat het 'coffee' was") en de woorden met een te lage score worden aan deze mensen gegeven. Die moeten luisteren en uitschrijven wat volgens hun het woord was. Dat wordt gebruikt om de AI te trainen.

Dat is zo ongeveer een van meest fundamentele basisprincipes van tekstherkenning met een neuraal netwerk. Trainen, trainen, trainen.
Je wekt telkens de suggestie dat er slechts naar losse woorden geluisterd zou worden. Vaak zijn woorden slechts te plaatsen in een context en daarvoor heb je meer nodig dan een los woord, Met name daar gaat AI de mist in. Het is dus veel waarschijnlijker dat men zinnen moet beluisteren.
Buiten het beluisteren van , wat mij nog veel meer boeit is wat gebeurd er daarna mee , als er al miljoenen siri opnames zijn om te beluisteren ( Apple revealed that Siri stores a user's data for up to two years ) wat doet siri dan nog meer met deze opnames die dan ook weer 18 maanden blijven opgeslagen.
Gebruiken op feestjes.
Dat uitschrijven zie ik ook nergens terug, maar de redenering klopt ruwweg.
1000 opnames per dag komt met een 8-urige werkdag op twee fragmenten per minuut. Dat kunnen nooit erg lange fragmenten zijn.
Ze zouden idd kort moeten zijn, echter tv docu België laatst liet voorbeelden van minuten lange gesprekken zien.
Uit het artikel:
Daarbij gaven werknemers aan soms vertrouwelijke gesprekken te horen.
Soms wel dus.
Zo'n gesprek moet lang genoeg zijn om daaruit af te leiden dat het vertrouwelijk is. Dus het zijn bijv. niet altijd fragmenten van 2 of 3 woorden.
Als je even het originele artikel had gelezen staat er

Staff then transcribed and ‘graded’ these recordings based on a number of different factors.

Transscribe. dus uitgeschreven worden.
Als je puur naar de techniek kijkt, dan zul je zien dat text-to-speech of speech-to-text omwille van de omvang altijd opgebroken wordt in stukken. Anders duurt het te lang om alles te vertalen van het 1 naar het ander. Het lijkt me inderdaad sterk dat er minutenlang durende gesprekken zijn verzonden.
In de media heb ik nog nergens wat gelezen over dat uitschrijven en vertalen. Dat een zinnetje "I'm going to get some coffee" nog door mensen moet uitgeschreven (en vertaald) worden is onzin, de spraaktechnologie is al lang zo ver gevorderd dat een AI dat niet meer hoeft te leren, die snapt dat al lang.
Ik denk dat je de stand van de techniek wat overschat, zeker onder wat meer uitdagende omstandigheden (achtergrond geluiden, meerdere stemmen door elkaar, niet netjes rustig uitgesproken etc. etc.). Om ook daar in verbeteringen voor elkaar te krijgen hebben ze geannoteerde data daarvan nodig. Kortom om te stellen dat het al perfect werkt in alle omstandigheden en verder ontwikkelen niet nodig is, is nogal kort door de bocht.

Niettemin zou dit ook weer een opt-in moeten zijn, al zouden de Apples, Googles, Microsofts en Amazon's dan nu ook waarschijnlijk niet zijn waar we nu zijn door het gebrek aan deelnemers.

Als je dan toch actief en bewust zou willen bijdragen dan is misschien mozilla's commonvoice nog een idee. Een poging om ook voor opensource software een dataset van de grond te krijgen om voice recognition modellen mee te kunnen trainen.
[...]

Niettemin zou dit ook weer een opt-in moeten zijn, al zouden de Apples, Googles, Microsofts en Amazon's dan nu ook waarschijnlijk niet zijn waar we nu zijn door het gebrek aan deelnemers.
Het is een opt-in. Lees je überhaupt wel eens wat er op het scherm staat voordat je op 'I ACCEPT' klikt? Daar staat het toch echt tussen:
When you use Siri or Dictation, the things you say will be recorded and sent to Apple in order to convert what you say into text and to process your requests. Your device will also send Apple other information, such as your first name and nickname; the names, nicknames, and relationship with you (e.g., “my dad”) of your address book contacts; and song names in your collection (collectively, your “User Data”). All of this data is used to help Siri and Dictation understand you better and recognize what you say. It is not linked to other data that Apple may have from your use of other Apple services. By using Siri or Dictation, you agree and consent to Apple’s and its subsidiaries’ and agents’ transmission, collection, maintenance, processing, and use of this information, including your voice input and User Data, to provide and improve Siri, Dictation, and dictation functionality in other Apple products and services.
Dat is helemaal geen opt-in, of toch niet zoals in de GDPR wordt geïnterpreteerd.
Je hebt de keuze de dienst te gebruiken met het doorsturen van de data of de dienst niet te gebruiken. Er is geen enkele reden waarom je de dienst niet zou kunnen gebruiken zonder dat je gesprekken worden beluisterd.
Toch wel. Dit is AI die technisch alleen mogelijk is met behulp van supervised learning - dus op door mensen geannoteerde data. Dan is er nog steeds consent nodig, maar Apple heeft geen juridisch probleem.
Dan wordt het tijd dat we de EU wetten aanpassen zodat Apple voortaan duidelijk wel een juridisch probleem heeft.
Goed punt, ik bedoelde een meer evidente opt-in.
Over het algemeen is alles wat grote bedrijven doen wel dichtgetimmerd door de afdeling "legal".
Echter is het meestal ook dusdanig verstopt tussen een hoop andere legal dat de meeste mensen het niet lezen.
Misschien zou het beter zijn om al het consumentenrecht weer op de helling te zetten zodat mensen meer gedwongen en getraind worden in het lezen dan wel gewoon niet accepteren als het te veel geblaat is, van alle voorwaarden.

Valt me in deze nog mee dat ze een redelijk specifiek doel aangeven waarvoor ze je data gaan gebruiken (zal formeel tegenwoordig ook wel moeten voor NL/EU wetgeving).

[Reactie gewijzigd door gekkie op 25 augustus 2019 11:27]

Dit is geen opt-in, maar een "door je strot druk actie" om je stem opnames te kunnen gebruiken omdat je anders helemaal geen gebruik kan maken van de service.
Dit is niet echt opt-in. Ja het gebruik van Siri is dan opt-in, maar dat wat je zegt wordt beluisterd door mensen is niet opt-in. Het is niet erg dat de data bij Apple wordt verwerkt, want dat is nog lastig te doen op de telefoon zelf. Maar dat mensen het beluisteren is niet duidelijk in de voorwaarden.
Maakt iemand toevallig gebruik van Transcribe software?
Ik ben wel benieuwd hoe goed zo'n Sonix ofzo daadwerkelijk is.

Jammer dat ze "Tot 95%" gebruiken bij de vergelijking, en niet een duidelijk getal.

Misschien eind van de dag maar eens iets uploaden.
"Om onze spraaktechnologie te verbeteren" is alleen maar het zoethoudertje. Wat de grote jongens echt aan het doen zijn is een wereldwijd afluistersysteem bouwen, niet meer en niet minder dan dat.
Je hebt met ze mee geluisterd in de boardroom of niet ? :+ |:(
Ik durf te wedden dat jij niet echt goed mee bent met de stand van technologie. "AI hoeft dat niet te leren" 😂
Vriend van me deed dit werk voor Siri. 1000 gesprekken per dag klopt wel. De gesprekken worden beluisterd en op het scherm staat de tekst die Siri van de opname maakt. Als de tekst niet klopt met het gesprokene, moet dat gecorrigeerd worden. Zo “leert” Siri beter te interpreteren.

Soms zijn het een paar woorden, soms een langer gesprek.

Voor zover ik weet was die absoluut anoniem en puur voor machine learning. Ik vind de ophef dan ook wat overdreven allemaal.
Ik vind het ook wat overdreven (de wijze waarop het nu in het nieuws wordt gezet that is).

Wel ben ik van mening dat bedrijven te vaag blijven over hoe het in zijn werk gaat. Vanaf het begin is bekend dat gesprekken en gesproken opdrachten voor verbeteringsdoeleinden gebruikt kunnen worden alleen is dat in mijn ogen niet genoeg.

Bedrijven moeten openheid geven in de wijze waarop zij dit doen en vooral, hoe het wordt gedaan. Openheid van zaken zorgt voor begrip, ook geeft openheid een beter beeld van waar gebruikers 'ja' tegen zeggen. Ik ben er ook niet happig op wanneer een bedrijf zegt mijn gegevens voor bepaalde doeleinden te gebruiken. Als ditzelfde bedrijf aantoont dat zij deze gegevens volledig geanonimiseerd verwerken dan wordt het alweer een ander verhaal.

Telefoongesprekken die worden opgenomen t.b.v. trainingsdoeleinden (ik heb het over callcenters) worden vaak niet eens geanonimiseerd. 2Contact bijvoorbeeld, in de korte tijd dat ik daar werkte heb ik vele opgenomen gesprekken gehoord (tijdens trainingen) waarin niets was geanonimiseerd. Adresgegevens, klantnummers en zelfs rekeningnummers kwamen doodleuk hoorbaar voorbij zonder dat dit voor de training noodzakelijk was.

Datzelfde callcenter (en zo werkt dit bij andere callcentra ook) gebruikt telefoongesprekken wanneer een agent buiten zijn/haar boekje was gegaan. Het betreffende gesprek werd dan tussen supervisor en medewerker beluisterd om aan te geven waar de fout is gemaakt en daarop wordt dan een waarschuwing of sanctie op gegeven. In dit laatste geval is het zelfs wenselijk dat er niets uit het gesprek wordt geknipt, voor de gesprekken die in trainingen worden gebruikt wel.

Over het algemeen geldt dat er sprake moet zijn van doelbinding, is dat er niet dan moeten alle irrelevante gegevens eruit worden geknipt. Als er wel sprake is van doelbinding dan is dat niet direct nodig (bepaalde gegevens heb je als bedrijf echt nodig voor de verwerking ervan).

Voor het uitluisteren van gesprekken (zoals Apple, Google en Microsoft bijvoorbeeld) kan het best zo zijn dat er sprake is van doelbinding. Het probleem is echter dat wij als consument dit niet weten en daarom zullen deze bedrijven volledige openheid van zaken moeten geven (zij verwerken onze gegevens en dus moeten zij ons vertellen wat zij ermee doen zonder onduidelijkheden).
Volgens mij heb ik op andere sites gelezen dat ze niet alles hoefden uit te schrijven. Na het beluisteren van een fragment gaf de software aan wat de spraakherkenningssoftware van Apple/Google/Microsoft/Amazon ervan had gemaakt, en of dat overeenkwam, eventueel met meerdere alternatieven.
Als het helemaal niet klopte moest de medewerker aangeven wat de juiste tekst zou moeten zijn.
In docu op belgische tv over google kwamen ander meer dan fragmenten voorbij, gewoon hele gesprekken paar minuten.
In docu op belgische tv over google kwamen ander meer dan fragmenten voorbij, gewoon hele gesprekken paar minuten.
Want dat maakt toch betere TV dan duizenden en duizenden paar woorden commando's... Je moet informatie nooit zien als 'fact', zeker niet in populaire media, bekijk altijd de achterliggende opdrachtgever en maker. En zelfs dan zal het nooit 100% zonder kleuring zijn.

@bbob1970 Het afdoen als 'fakenews' is ook weer de andere extreem, er zijn meerdere issues:
#1: Het moet populaire TV zijn, zodat veel mensen het kijken, anders kom je niet op de TV met je docu. Dat zorgt voor wat we op het internet 'clickbait' noemen, Tweakers.net heeft er ook een handje van. Je heb dat natuurlijk in extreme en minder extreme mate, maar iedereen die op de TV wil komen zal er aan moeten geloven.
#2: Documakers zelf of de mensen die het financieren hebben vaak eigen (vaak extreme) views op de onderwerpen die ze behandelen, daardoor zijn ze heel gemotiveerd. Dit zorgt vaak echter niet voor gebalanceerde meningen over wat men laat zien. Een documaker tegen softdrugs zal eerder de Hells Angels behandelen dan een doorsnee coffee shop in de Warmoesstraat.

Zonder te weten wie de docu heeft gemaakt en wie het uitzend is moeilijk te zeggen naar welke kant dat helt.

[Reactie gewijzigd door Cergorach op 25 augustus 2019 14:51]

Gelukkig kunnen we de tech bedrijven vertrouwen op hun goed gedrag 8)7

Ach de inhoud van die docu sprak voor zich met genoeg voorbeelden, maar het zal allemaal wel weer fake nieuws zijn, populair woord tegenwoordig.
Volgens mij was het zo dat ze alleen moesten luisteren of “Hey Siri” correct werd geïnterpreteerd. Dus echt geen gesprekken luisteren.
Idd, iets wat godsonmogelijk is.
Maar de opnames zelf zijn waarschijnlijk wel langer dan die paar seconden.
En wat gebeurd of wat gebeurde er daarna mee?
Wat een rare behoefte om dit soort verwerpelijke (en hopelijk illegale) praktijken te verdedigen. Jarenlang hebben Apple en Google gelogen dat ze opnames meeluisteren. Dat doen ze dus wel en op zeer grote schaal. Het vertrouwen is geschaad en ik weet niet of de huidige marktleiders het vertrouwen ooit weer kunnen herstellen. Het is jammer dat je momenteel geen smartphones kunt gebruiken als je wil dat je burgerrechten worden gerespecteerd.
Toen ik Siri aanzette ben ik door Apple gewaarschuwd dat dat inhoudt dat een deel van wat ik zeg door Apple beluisterd kan worden voor verbeteringen aan Siri. Voor zover ik weet heeft iedereen die Siri gebruikt diezelfde waarschuwing gehad. Dat ze 'm niet gelezen hebben of dat ze zelf iets verzinnen is niet een probleem waar ik mee zit.
Jarenlang hebben Apple en Google gelogen
Dat leugen heb je helemaal zelf verzonnen. Niet mijn probleem.
Had je ook de keus om niet te laten beluisteren?

Hebben anderen die binnen gehoorsafstand zijn ook toestemming gegeven? Dat vind ik een veel groter probleem.
Heb je bronnen waar ze erover hebben gelogen? Ik denk het niet, want ze hebben er niet over gelogen, het staat zelfs in de voorwaarden. Het staat er niet letterlijk dat het door mensen wordt beluisterd, maar wel dat opnames gebruikt kunnen worden.
Meeluisteren wordt gezien/gevoeld als inbreuk op je privacy. Dat dit dan gebeurd bij een fabrikant die privacy als belangrijk argument gebruikt voor de verkoop van z’n producten maakt het nog groter/erger.
Dat het nodig is om spraak assistenten beter te maken zal best kloppen maar wees daar dan duidelijk in bij de verkoop van je product en niet achteraf.
Als die gesproken tekst niet herleidbaar is tot een individu, hoe kan het dan een inbreuk zijn op de privacy? Schending van privacy is toch per definitie niet anoniem?
De gesprekken bleken dus wel herleidbaar te zijn.
"qoute"Bovendien moeten de medewerkers bij twijfelgevallen adressen en locaties die mensen opnoemen via internet opzoeken. VRT heeft individuele gebruikers geïdentificeerd aan de hand van opnames en ze de opnames laten horen"/qoute"

BRON: nieuws: Mensen die meeluisteren met Google Assistent kunnen Nederlanders iden...
De gesprekken waren herleidbaar bij Google. Dat wil niet noodzakelijk zeggen dat dat bij de anderen zo was, al is het aannemelijk om dat aan te nemen.

Als de opnames van Siri verkapt werden doorgestuurd, dus 5 woorden per opname bijvoorbeeld, en verschillende medewerkers die woorden moesten uitschrijven, dan is het al heel moeilijk om veel te herleiden. Dan heb je hoogstens een stuk van een adres, of een medische aandoening, die je aan niks of niemand kan linken. Bijvoorbeeld:
Medewerker 1: "He siri, stuur een bericht"
Medewerker 2: "naar 061234567 met de tekst"
Medewerker 3: "Ik woon in de bergstraat"
Medewerker 4: "nummer 17 in dorpnaam"
Medewerker 5: "je mag daar de kattenfilmcollectie"
Medewerker 6: "komen ophalen om 16 uur"

Niemand zal ook maar wat kunnen herleiden, op een telefoonnummer, straatnaam, huisnummer, op te halen goed of tijdstip na, maar die dingen individueel zijn niet herleidbaar naar het feit dat ik een pornocollectie kattenfilmcollectie ga verkopen en waar ik woon (want degene die het gesprek beluistert weet niet wie "ik" ben). Degene die mijn straatnaam hoort hoort niet dat ik films ga verkopen, etc.

Als Google dat heel gesprek als 1 opname aan een medewerker laat beluisteren, is dat heel erg herleidbaar, maar dat kan je dus slim oplossen.

Edit: op die manier kom je ook veel makkelijker aan 1000 opnames per dag overigens, want als je dat hele commando moet uittypen ben je vast langer bezig dan telkens 5 woorden. Indien je 8 uur per dag werkt heb je 480 minuten ofwel 28,8 seconden per spraakopdracht (dat is beluisteren voor context en dan uitschrijven). Dat zijn dan vast niet echt heel lange opnames. Als ik bovenstaande uitspreek duurt dat op normaal "tegen een digitale assistent sprekend tempo" al 15 seconden, en heb ik het nog niet uitgeschreven, op "bewaren" geklikt en volgende fragment ingeladen.

[Reactie gewijzigd door bramvandeperre op 25 augustus 2019 15:59]

Denk niet dat het zo werkt, want vaak is context belangrijk. Als Siri het slecht verstaat zal de persoon ook wel een bijzondere uitspraak hebben, dan moet je sommige woorden herkennen door het uit de context te vissen.

Dat het door een medewerker wordt beluisterd is in jouw geval nog tot daar aan toe, dat het in je profiel komt lijkt mij veel vervelender en dat Siri met de suggestie van Kattenporno komt, op een moment dat niet uit komt ;).
Dat ligt eraan. Dat jij als user x1237yy321 aangeduid wordt binnen die applicatie maakt jou anoniem. Maar als je in het gesprek dat opgenomen is (per ongeluk, omdat Siri denk dat jij haar/hem aanroept) dat "Jantje Smit uit Volendam wel een érg gezellige avond gehad heeft met André Junior" is dat níet anoniem meer.
Het gaat niet alleen om anonimiteit, maar ook om wat er gezegd wordt. Als vertrouwelijke informatie daardoor bij Apple binnen komt (bijvoorbeeld iets over een aandelenmarkt), dan is dat ook een ernstig probleem.
Je weet van te voren niet wat er in een gesprek besproken wordt. Derhalve kan je niet garanderen dat het niet te herleiden valt.
Maar gesprekken kunnen wel herleid aar zijn. Dat de username niet zichtbaar is wil nog niet zeggen dat de context van de opname het niet mogelijk maakt.
Daarom geef ik ook aan dat het zo gevoeld/gezien wordt. Als fabrikant zul je er zelf voor moeten zorgen dat men begrijpt wat je doet.
Tegenwoordig is bijna “alles” privacy gevoelig. Dat moet je als fabrikant die privacy hoog in het vaandel heeft staan begrijpen en naar acteren.
Dat dit dan gebeurd bij een fabrikant die privacy als belangrijk argument gebruikt voor de verkoop van z’n producten maakt het nog groter/erger.
Precies privacy is meer een PR gepraat wanneer ze het tegen Google kunnen gebruiken.
Apple weet donders goed dat ze dat ook kunnen zeggen want ze hebben geen service die op reclame berust.
Anders laat ze maar een YouTube concurrent maken zonder reclame nou succes..
Dan heeft Apple ook maar weinig gemaakt. TouchID is gekocht, FaceID is gekocht, etc. Je kan niet zeggen dat bedrijven iets gekocht hebben als het uiteindelijke eind product zo verschillend is met de initiele werking.
Youtube bestond al en verschilt echt niet zoveel van YouTube vandaag dus ik kan echt wel zeggen dat ze het gekocht hebben.
Sorry maar dat is gewoon onzin, Youtube voor 2006 kan je echt niet vergelijken met wat het nu is. Ja je kan videos uploaden/bekijken/commentaar leveren, maar dat was het wel zo'n beetje.

[Reactie gewijzigd door RebelwaClue op 26 augustus 2019 10:45]

en wat is dan het verschil met nu? behalve monetization is er echt niet veel verschil met het originele Youtube.
Los van ondersteuning van diverse video formaten (zoals 360 videos), is juist het monetization verhaal een belangrijke reden dat YT zo gegroeid is. Het aantal vloggers is enorm toegenomen, kennen we meer YT celebs dan ooit. De huisgemaakte videos kwamen pas in opmars na Google's overname, geholpen met tools als Youtube creator studio. En live-streaming/chats en auto captions waren er ook niet in de goeie oude tijd.

Daarbij is ook het zoekgedeelte stukken verbeterd, dus de integratie met Google's search algoritmes is een hele belangrijke stap geweest.

Heel slim was het ook om samenwerkingsverbanden aan te gaan met grote TV netwerken, zodat YT al snel een bron van trailers, highlights werd. Maar ook zogenaamde channels, zoals de channel van WSJ.

Dus nee, het YT van nu kan je echt niet vergelijken met het YT van 2005/2006
youtube van destijds dus dat geëvolueerd is zoals alle technologie. :O
Klopt en drie maal raden wie die technologie geevolueerd heeft, je raadt het al Google.
Sure, zonder google zou Youtube nooit iets geworden, net zoals instagram pas een ding werd toen Facebook het kocht :O
Los van het feit dat je dat nooit kan bewijzen/ontkennen (kan nu ook zeggen dat zonder Apple de smartphone er precies zou uitzien als nu), het ging er om dat YT van toen absoluut niet hetzelfde is als YT nu. Zoals YT nu is, komt wel degelijk grotendeels door Google en dit staat los van het feit dat een ander bedrijf dit misschien ook had kunnen bewerkstelligen.

Instagram had 80 miljoen gebruikers toen FB het overnam, inmiddels zitten ze op 800 miljoen :X
Toch was Youtube, Instagram, Whatsapp al een ding toen ze het kochten. Dat gebruikersaantallen nu hoger liggen of een dienst meer features heeft dan vroeger is toch gewoon de meest logische zaak? Dat was zonder Google, facebook ook zo geweest. Nee de smartphone vandaag had er helemaal niet zo uitgezien zonder Apple. Of weet je niet meer hoe Google de toekomst van de smartphone zag. Een geheugensteuntje
Natuurlijk was het al een ding toen ze gekocht zijn, vooral in Instagram en Whatsapp geval. Maar neemt niet weg dat vooral in Google's verhaal YouTube uitgroeide tot wat het nu is. En dat is wel degelijk te danken aan Google. Wederom ging het niet om hoe groot YouTube is (toen en nu) maar wat Google er aan gedaan heeft om het te maken wat het nu is en dat daar zo'n groot verschil in zit. Dat er nieuwe features komen is een logische zaak, maar nieuwe features die ook daadwerkelijk aanslaan is een andere zaak. Een ander bedrijf had verkeerde keuzes kunnen maken en het platform had kunnen doodbloeden, net als vele andere sociale platformen over de jaren heen.

En dit kan je niet weten want er was misschien wel een ander bedrijf gekomen wat het goede voorbeeld had getoond (ik zei namelijk niet dat het Google zou zijn geweest). Maar was meer om aan te tonen dat whatifs lariekoek zijn, net zoals jouw lariekoek whatif YT niet was overgenomen door Google, was YT hetzelfde als nu geweest in features & numbers.
Je kan dat wel weten. De telefoonmarkt was verzadigd (of dat zei toch elke speler toen) en niemand zou ooit met een telefoon zonder fysiek toetsenbord willen werken (of dat zei toch elke speler toen). Je hebt een bedrijf als Apple daar voor nodig. Met wat geluk zouden misschien vandaag de eerste volledige touchscreen hebben of misschien binnen 20 jaar. Maar we zouden vandaag niet met de smartphones rondlopen die we vandaag hebben.
Zonder Apple hadden we op precies hetzelfde moment de eerste volledige touchscreen telefoon als dat we die nu hebben. Dat was HTC in 2003 als ik me niet vergis.
Apple heeft het concept gekopieerd en verbeterd (wat ze vrijwel altijd doen). Dit hebben ze zo goed gedaan dat je laatste regel klopt, maar de aanloop daarnaartoe klopt niet helemaal.
jij weet totaal niet waar je over praat dat is duidelijk. HTC was net de eerste android kopie van de iPhone.
Je zult onderstaande mogelijk niet direct aannemen want ik weet totaal niet waar ik over praat volgens jou. Ik vind het ook een rare reactie overigens, het klopt namelijk wat ik aangeef.

Android bestond niet in 2003. iPhone bestond niet in 2003. De Qtek 1010 bestond toen wel. HTC was dus zo'n 4 jaar eerder dan Apple met een touch-only telefoon.

Zonder HTC had je nu niet de iPhone gehad zoals we 'em nu kennen. Apple heeft heel goed gekeken naar hoe het design beter kon, en ze keken destijds met name de HTC m7. Daar heb je een groot deel van het huidige design van de iPhone aan te danken.

Op FaceID na kan ik even geen innovatie van Apple bedenken waar ze pionier in waren. Ze zijn er vast, maar niet veel. Het zijn vaak bestaande ideeën die ze beter uitvoeren dan de oorspronkelijke pionier, en daar kan ik er legio van opnoemen.
Wat een grap! Ga jij echt die ondingen als de originele iPhone voorstellen. je weet dus echt niet waar je over spreekt want dan gaan we toch even dezelfde weg op en vertellen we gewoon dat dee Qtek is afgekeken van de Newton :O

Moest de Qtek echt de voorloper zijn geweest van de iPhone dan had Apple geen smartphone kunnen creëren in 2006 omdat iedereen toch al een smartphone had.
Ik stel de QTek 1010 niet als originele iPhones voor, nooit gedaan.

Jouw stelling was "Met wat geluk zouden we misschien vandaag de eerste volledige touchscreen hebben of misschien binnen 20 jaar." Daar reageerde ik op omdat die stelling onjuist is, en ik geef dan aan dat HTC eerder was. Dit klopt gewoon, maar vervolgens begin jij er dingen bij te slepen die ik nooit gezegd heb. Sterker nog, je gaat in de aanval met 'je weet totaal niet waar je over praat' terwijl ik feiten aandraag.

Als je feiten wilt ontkennen om je lievelingsmerk te promoten moet je dat zeker doen. Je komt dan alleen niet zo slim over. Ook totale onzin-stellingen als 'dan had Apple geen smartphone kunnen creëren in 2006' helpt niet echt als je wilt dat men je serieus neemt.
Je zei dat Apple het gekopieerd had en verbeterd had wat gewoon onzin is omdat Apple al lang daarvoor de Newton had. Daarom praat je onzin, omdat je onzin verteld.
Ik zei inderdaad dat Apple het concept van full touch telefoon gekopieerd en verbeterd heeft. Ze hebben het niet bedacht, het concept bestond al. We hebben Apple daar dus niet voor nodig gehad, ik kan er niks anders van maken. Wat de Newton daarmee te maken heeft ontgaat me volledig, dat is geen telefoon. Om het nog leuker te maken voor je: de Newton was geen origineel idee van Apple. Ze hebben het concept afgekeken van Psion en vervolgens verbeterd (net zoals bij de iPhone, toevallig!).

Dit is wat Apple doet en deed. Weinig eigen innovaties, veel leentjebuur. Als je dat ontzettend goed doet is er niks mis wat mij betreft, en Apple doet dit nu eenmaal ontzettend goed. Origineel of innoverend zijn ze maar in zeer beperkte mate.

Overigens is mijn 'onzin' gewoon te controleren met je favoriete zoekmachine. Het mooie is dat die verschillende zoekmachines met dezelfde bevestigingen komen. Je hebt er een aantal, waarvan Google, Bing en DuckDuckGo wat bekende zijn. Gebruik ze eens, misschien kom je dan slimmer over. Ze werken ook op Safari.
Je zou wat slimmer overkomen moest je zo'n onzin niet vertellen. Zonder Apple zaten we nu nog steeds met verschillende vormen omdat de telefoonmakers het ideale model nooit zouden gevonden hebben. Apple heeft het ideale model gecreëerd en daar is elke smartphone vandaag op gebaseerd.

Je mag je nog in zoveel bochten wringen als je wil maar je weet zelf donders goed genoeg dat ik gelijk heb waarom vertel je dan die onzin?
Bedankt dat je me eindelijk gelijk geeft, sportief van je. Wel raar dat je vindt dat ik onzin vertel, terwijl je nu mijn beweringen bevestigd met deze reactie. Maar goed, fijn dat er toch nog wat redelijkheid in je zit.
Zonder Apple zaten we nu nog steeds met verschillende vormen omdat de telefoonmakers het ideale model nooit zouden gevonden hebben. Apple heeft het ideale model gecreëerd en daar is elke smartphone vandaag op gebaseerd.
Dat zeg ik dus, Apple ziet een concept en vervolgens voert Apple dat concept beter uit dan de concurrentie. Dat is nu eenmaal wat ze doen. Fijn dat we het dan uiteindelijk toch eens zijn.
Wel jammer dat je het onderwerp voortdurend veranderd. Mijn reactie ging over de stelling of we zonder Apple nu een full touch telefoon zouden hebben. HTC was daar de eerste mee, dus we hebben Apple er niet voor nodig gehad. Hetzelfde geldt voor aluminium unibody, ook een primeur van HTC.

Aangezien je zo sportief bent geweest om mij gelijk te geven, kom ik jou ook wel tegemoet.
Je hebt gewoon gelijk met je laatste reactie over Apple. Door Apple hebben we nu inderdaad de smartphone zoals we die kennen. Van de andere kant was dit nooit onderwerp van discussie, want dat heb ik je in m'n eerste reactie op jou ook al aangegeven.
Huh? wat een rare wending? Ik geef je nergens gelijk om dan te besluiten dat wat ik al heel de tijd zeg klopt? Heb je je eigen raad gevolgd en Duck duck go gebruikt om tot de constatatie te komen dat je al heel de tijd onzin aan het vertellen was?

Niks geste, ik wist al dat ik gelijk had, jij nu blijkbaar ook. :P
Ik begon en besluit inderdaad met dat ik je op dat punt gelijk heb gegeven, het is tenslotte zo. Apple heeft nu eenmaal de markt veranderd, maar niet omdat ze de eerste full touch telefoon hadden en daar reageerde ik op. Als ik de rest van de discussie wegfilter, houd ik dit over:
Telefoon: QTek 1010, full touch (2003)
Telefoon: iPhone, full touch (2007)

Vervolgens gaf ik aan dat Apple voornamelijk kopieert en verbetert. Ik zie dat als iets goeds, jij blijkbaar niet en daar is het gezeik mee begonnen. Omdat ik het wel gehad heb met de discussie, sluit ik graag af met een quote van een bekend persoon.

"Picasso had a saying, 'Good artists copy, great artists steal.' We have always been shameless about stealing great ideas.", Steve Jobs, https://www.youtube.com/watch?v=CW0DUg63lqU

Succes verder met je gelijk!
dude, je moet mij Apple niet leren kennen of Steve Jobs. Dus kom asjeblieft niet af met quotes die al duizenden keren zijn verteld over Steve Jobs. Misschien dacht je dat ik jong was ofzo want ik snap echt niet wat je daar probeerde. Zoals je al zei klopt wat ik al heel de tijd zei waarom dan nog wat komen proberen met Qtek, Psion, .. ik heb smartphones gehad voor de iPhone bestond. Ik ben zelfs zo oud dat ik nog een PSION heb gehad. Ik weet waar ik over spreek, maar ik ben blij dat je dat ondertussen ook begrepen hebt.
Hoe weet jij dat Apple geen profielen van gebruikers aanmaakt dan?
Omdat je kan opvragen wat Apple van je weet. GDPR remember? :O
Ja als je ervan uit gaat dat ze eerlijk zijn in wat ze over je weten _/-\o_
Tja aan jouw dan om te bewijzen dat ze liegen.
En dat is nu net het probleem, dat kunnen we niet
Jawel hoor. Als je een gegrond vermoeden hebt dat ze niet alle data eerlijk aanleveren onder hun AVG-verplichtingen, dan kan je een klacht indienen bij de Autoriteit Persoonsgegevens.
Dit soort van werk wordt, alleen al omwille van de kosten, enkel uitgevoerd wanneer de machine weet dat het iets niet verstaan heeft. Naar alle waarschijnlijkheid worden enkel onduidelijke fragmenten die vaker voorkomen en die op elkaar lijken, uit de massa aan opnames gehaald. Ook dat gebeurt door een algoritme. De bron van de opnames is irrelevant en wordt ook niet opgeslagen of doorgegeven; Om NLP machines te laten leren, is dat niet nutting. Wel zal dit soort van opnames getagged worden met labels als dialect, vulgaire taal, leenwoord, named entity, vermoedelijke bron van de ruis...

M.i. heeft dit ook niets met privacy te maken, maar met machines laten leren van mensen. Vreemd dat bedrijven die dit soort van diensten aanbieden, dit niet uitleggen. Ze zouden dit nu kunnen doen, om de controverse te duiden, of bij de gebruiksovereenkomst (die niemand leest).
Dat deden ze dus al, de ophef begon omdat heel soms die dingen per ongeluk triggeren en dan een paar seconden opnemen van wat ze dan ook horen. De kans dat daar toevallig herleidbare gegevens tussenzitten bleek overigens nihil.
Ik zie hier heel veel aannames. Waarom zouden enkel zeer onduidelijke fragmented aangedragen worden? Zelfs in een zin die verstaan werd kunnen moeilijk begrepen woorden zitten die toch correct geraden werden maar ter controle worden aangeboden. Daarnaast is context belangrijk en zal je dus altijd de volledige opname moeten horen.


En spraakcommandos kunnen wel degelijk tot een persoon terug te brengen zijn. Dat heeft VRT aangetoond toen zij opnames van Google Assistent te pakken kregen.
Zodra opgenomen geluiden van mensen worden verwerkt door anderen valt privacy niet simpel weg te laten. Ook niet als het andere doel nobel lijkt voor de klant. Siri staat bij miljoenen apparaten aan, kan willekeurig opnemen omdat het niet strikt is in onderscheiden van commandos en andere geluiden, waardoor er informatie bij Apple komt waar het geen recht op lijkt te hebben. Apple heeft niets te maken met fragmenten van anderen, ook niet voor het verbeteren van siri. Die geluiden van niet-klanten, bedrijfsgesprekken van derden etc gaan meer dan over siri verbeteren. Het is grensoverschreidend voor privacy en bedrijfsrecht van derden.
Op andere sites klagen veel gebruikers dat er ook gesprekken tussen zaten waar geen 'Hey Siri' aan vooraf ging. Tsja, ook om die false positives te voorkomen is controle nodig, ik kan er niks anders van maken.
Zonder de controle houd je dus verhoudingsgewijs meer onterechte triggers waardoor er eigenlijk teveel spraak naar Apple wordt gestuurd, terwijl dit mèt die controle mogelijk minder zou zijn.

Het is maar hoe je het bekijkt, maar ik zie die controle niet als een slecht iets.
En hoe kunnen gebruikers dan weten welke van hun gesprekken werden beluisterd en welke niet? Als je beweert dat gebruikers er over klagen zou je toch al moeten doorhebben dat je een broodje aap verhaal aan het lezen bent?
Niks broodje aap, zo'n apparaat heeft geen onderscheid tussen terechte en onterechte triggers; voor zo'n apparaat/programma zijn het allemaal terechte triggers. Tuurlijk kun je niet weten of JOUW audio daarbij zit, maar dat dit soort gesprekken erbij zitten is een feit.
Als je zegt dat op andere sites gebruikers klagen dat er ook andere gesprekken tussen zaten dan weet je dat het een broodje aap verhaal is. Gebruikers weten niet welke fragmenten worden door gestuurd. Het is dus puur speculatie.
Bij Google kun je alles wat is opgenomen terug luisteren (en verwijderen)
En staat daar dan bij vermeld welke werden beluisterd door Google en welke niet?
AVG zou daar op van toepassing moeten zijn, probeer het met een Wob-verzoek?
Google bestuurd niet, geen overheid.
Ik gebruik geen Google diensten
WOB is van toepassing op de overheid, niet op het bedrijfsleven. Je kan gewoon onder de AVG een kopie van je gegevens opvragen, komt geen WOB aan te pas.
Lijkt me sterk dat je alsnog te horen krijgt of er iemand naar je opname heeft geluisterd - en belangrijker nog - welke opname dat dan was.
Lijkt mij ook gezien die dingen compleet geanonimiseerd worden en na analyse er weer uitgeknikkerd worden, plus in de meeste gevallen zal het überhaupt niet herleidbaar zijn - al helemaal de false positives.
Ik zou niet weten waarom siri van mij als passant die in de buurt van siri is dan geluiden zou moeten doorspelen naar een Apple medewerker, zonder inbreng van mijn kant.

Het slechte aan de controle is niet dat Apple het product wil verbeteren, het is het punt dat de personen om wie de geluiden geen controle hebben dat en wanneer een bedrijf het gebruikt zonder dat je er als persoon weet van heeft. En om het alvast voor te zijn, ook niet bij kansberekeningen of het om toevallige passanten gaat, familie of vrienden die het konden weten als de eigenaar ervoor had gewaarschuwd etc.
Dat is iets dat ik al eerder heb gemeld, als je er toevallig bent op gehoorsafstand kunnen jouw gesprekken ook worden gehoord, en ik heb geen toestemming KUNNEN geven.
Het is zeer onwaarschijnlijk dat die nodig is zowel op openbare weg en publieke ruimte alsmede bij andere mensen thuis. Het kan bijvoorbeeld ook gebeuren dat je buurman (of een wildvreemde voorbijganger) een gesprek van je overhoort (omdat je raam openstaat bijvoorbeeld) en gezien dat OW is kan ie ‘t in principe zelfs opnemen ook met een slim excuus. Het kan ook gebeuren dat een buurman net een filmpje van z’n spelende kind maakt en toevallig vangt die camera dingen op die jij in je achtertuin bespreekt. Dat zij zo en de buurman hoeft jou echt niet om toestemming te komen vragen alvoren z’n eigen kroost te mogen filmen. Wil je dat niet dan moet je maar zorgen dat je privégesprekken niet zo makkelijk te overhoren zijn. Daarnaast is er een stukje redelijk- en billijkheid. De kans dat jij opgenomen wordt én dat dit werkelijk verstaanbaar is voor ‘t toestel (moet je wel heel erg dichtbij zijn of luid spreken en niet overstemd worden door de werkelijke spreker) je toevallig nét iets zegt dat jou kan identificeren én toevallig daarna ook nog een gevoelig gegeven uitspreekt die toevallig nog opgenomen woedt én dat wordt dan ook toevallig ook nog eens beluisterd én ipv daarna weer weggegooid doet de medewerker er toevallig iets anders mee is zo extreem bizar klein dat het onzin zou zijn om daar werkelijk rekening mee te gaan houden really. Je kan ook doorslaan zegmaar en dan wordt ‘t al snel simpelweg onredelijk en quite frankly: problemen maken van een non-issue waar je zelfs waarschijnlijk niet eens ooit mee te maken krijgt tenzij je ‘t zelf expres zou proberen op te zoeken - maar dan zal een rechter dat waarschijnlijk al zien als vorm van consent.

En dan nog de situatie waarbij dit hele opeenstapeling van toevalligheidjes op een plek gebeurt die wél jou privédomein is. Dan is dat de verantwoordelijkheid van de eigenaar van het apparaat en kan daarnaast ook van jou worden verwacht mensen te waarschuwen dat de mobieltjes uit moeten bij jou thuis. Het bedrijf zelf hoeft de toestemming niet van jou te krijgen.

[Reactie gewijzigd door WhatsappHack op 26 augustus 2019 03:01]

Ik heb al in een eerdere thread gezet dat mensen die bij mij in huis komen de telefoon uit moeten zetten. Hier dus om. Mensen vinden het waarschijnlijk overdreven, maar in mijn huis wil ik die rommel niet.
Er zijn meer dan een miljard iOS devices actief dan is 1000 per shift over een paar honderd medewerkers toch nog steeds een fractie van de gesprekken. Ik denk dat ik dagelijks al aan zo'n 50 interacties met Siri kom en daar reken ik dan niet de keren bij dat mijn Apple Watch denkt dat ik iets wil vragen.

[Reactie gewijzigd door monojack op 25 augustus 2019 11:05]

En hoeveel spreken er tegen Siri? Meer dan een miljard devices actief lijkt me trouwens ook sterk overdreven. Daarnaast kom je al snel op miljoenen beluisterde berichten per week. Kans is dus heel groot dat de meeste gebruikers al eens gepasseerd zijn.
Apple Now Has 1.3 Billion Active Devices Worldwide (in 2018)

Op de meeste zal Siri geactiveerd zijn dus hoeveel er tegen praten doet er niet toe wanneer er ook false positives voor "Hey Siri" worden beluisterd.
Op zich nog steeds niets vreemds (AI leert op basis van de “werkelijkheid”), behalve dat Apple het nodig vond dit jaar bij CES de andere techbedrijven de maat te nemen: [url="https://https://www.engadget.com/2019/01/05/apple-ces-2019-privacy-advertising/"]Engadget[/url].

Hoe serieus neem je je gebruikers dan?
Het gevaar is dat teveel gebruikers er blind intrappen. Je zou juist wat kritischer moeten zijn richting commerciele partijen zoals Apple. Zeker met zo'n dik marketingbudget en de niet al te schone geschiedenis.
Niet al te schone geschiedenis? Ik denk dat Apple zowat de schoonste track record heeft van alle grote tech bedrijven.
Hahaha welke geschiedenis?? Als er één bedrijf is dat zich hard maakt voor je privacy is het Apple wel...
Ik heb ruim vijf jaar geleden op Mechanical Turk klussen voorbij zien komen waarin je de machinale transcriptie van gesproken tekst moest controleren en verbeteren. In het bijgaand verhaaltje werd verteld dat het voor een opdrachtgever was die automatische ondertiteling ontwikkelde.
Als dat project goed is afgelopen en aan Siri of Cortana gehangen wordt, kun je met voldoende rekenkracht miljoenen gesprekken per dag uitschrijven. Als ik vandaag YouTube filmpjes met automatische ondertitels in het Engels bekijk, lijkt me dat project nog niet af. En als de software wél in staat is gesproken tekst foutloos in geschreven tekst te veranderen, lijkt dat me voor spionage en totalitaire regimes zinloos. Die software heeft dan geen letters nodig om 'overtreders' of ópvallend woordgebruik' te filteren.
Er waren zo veel manieren waarop ze data konden verzamelen van gebruikers op een iets explicietere manier. Als je iets zegt wat niet goed verstaan wordt en je kunt wat fout gaat specifiek inzenden voor verbetering (met een knop) dan zouden veel mensen dat doen.

Iedere gebruiker van Siri wil beter begrepen worden.

[Reactie gewijzigd door BikkelZ op 25 augustus 2019 11:38]

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 iPhone

'14 '15 '16 '17 2018

Tweakers vormt samen met Tweakers Elect, Hardware Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True