Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Bèta iOS 12 maakt live meeluisteren met iPhone-microfoon via AirPods mogelijk

Apple geeft zijn draadloze AirPod-oortjes een functie om live mee te luisteren met het geluid dat de microfoons van de verbonden iPhone opvangen. Zo kunnen mensen met hoorproblemen AirPods gebruiken om bijvoorbeeld in een druk restaurant een gesprekspartner te verstaan.

De Live Listen-functie zit in de bèta van iOS 12, schrijft Techcrunch. Hij is te activeren door AirPods te koppelen en door het item 'Horen' aan het Bedieningspaneel toe te voegen. Daarna is het mogelijk om Live Luisteren aan te zetten door op de knop in het Bedieningspaneel te drukken.

De functie Live Luisteren zit al enkele jaren in iOS voor hoortoestellen met een Made For iPhone-keurmerk. Die hebben aparte instellingen in het menu voor Toegankelijkheid waar gebruikers Live Luisteren kunnen aanzetten. Met de functie kunnen gebruikers de telefoon even verderop leggen en zo een gesprekspartner of bijvoorbeeld college volgen, waar dat anders niet mogelijk was geweest.

Apple heeft de functie bevestigd, maar zegt niet waarom het nu in AirPods komt te zitten. AirPods gelden niet als hoortoestellen, waardoor het de indruk wekt dat gebruikers de functie vooral kunnen inzetten om anderen af te luisteren door de telefoon in de buurt neer te leggen.

Dat kan werken, want hoewel Live Luisteren bij een ontgrendelde iPhone een opvallende rode balk bovenin beeld laat zien, is dat niet zo op het lockscreen. Daardoor is, in elk geval in deze eerste bèta van iOS 12, niet te zien dat de functie aanstaat. Live Luisteren werkt prima en met relatief weinig vertraging, zo blijkt uit een korte test van Tweakers.

Apple kondigde de functie niet aan tijdens de keynote over iOS 12 op zijn ontwikkelaarsconferentie WWDC en sprak er ook niet over op de website van de nieuwe versie van het besturingssysteem. Tweakers publiceerde dinsdag een preview van iOS 12.

Terugkijken: de iOS 12-videopreview van Tweakers

Door Arnoud Wokke

Redacteur mobile

06-06-2018 • 11:22

71 Linkedin Google+

Reacties (71)

Wijzig sortering
Hm. Maakt het heel gemakkelijk om mee af te luisteren ook, natuurlijk.
Dat is nu met elke recorder ook al het geval; even weglopen terwijl je je telefoon of laptop laat liggen/staan en je zou alles kunnen opnemen wat er in de buurt gebeurt. (Vaak aan gedacht, nooit ge(mis)bruikt.)
Het belangrijkste verschil is dat het live is, en dat je op een door jou gewenst moment weer bij kunt vallen.
Als je je iPhone onder iemand zijn mond schuift wel ja
Of ergens verstopt onder een stoel.
Niet heel veel moeilijker om jezelf te bellen met een 2e telefoon en die dan verstoppen onder een stoel.

E-mail maakt het ook voor criminelen makkelijker te communiceren, wil niet zeggen dat het daarom maar moeten laten.

[Reactie gewijzigd door ApexAlpha op 6 juni 2018 11:29]

Of aan de oplader legt in de slaapkamer :z
Bewustwording van privacy is geen onzinnig klagen. Ik vind het juist goed als mensen bij elk stukje nieuwe tech zelf nadenken wat voor privacy gevolgen het heeft. In dit geval zie ik ook niet echt een probleem dat wordt gecreëerd wat eerst niet kon.
Desalniettemin, laten we het nadenken over privacy niet gaan bestempelen als "klagen om het klagen".
Bewustwording van privacy is geen onzinnig klagen. Ik vind het juist goed als mensen bij elk stukje nieuwe tech zelf nadenken wat voor privacy gevolgen het heeft. In dit geval zie ik ook niet echt een probleem dat wordt gecreëerd wat eerst niet kon.
Desalniettemin, laten we het nadenken over privacy niet gaan bestempelen als "klagen om het klagen".
Er is een verschil tussen "Nadenken over privacy" en "klagen om het klagen" maar ik zie hier op T.net toch wel veel van dat tweede gebeuren. Het gebeurt hier te vaak dat mensen zonder echt goede onderbouwing gaan lopen gillen dat de privacy in het geding komt. Resultaat is dat het argument verwatert en mensen die er toch al minder in geïntresseerd waren het nu voornamelijk irritant vinden als er weer een privacy evangelist langskomt.

Laat ik vooropstellen dat privacy inderdaad een belangrijk goed is. Juist daarom moeten we oppassen dat mensen het niet gaan misbruiken om makkelijk een paar +1's te scoren door ergens te gaan roepen "JA MAAR PRIVACY!" zonder dat er een onderbouwing achter zit.
Ben benieuwd naar de latency
Zal net zoals muziek zijn vanaf je iPhone niet merkbaar dus voor een mens de vertraging.
Das maar de vraag, moet eerst nog gesampled worden, is dus anders dan met muziek.
Daarbij is voor muziek de vertraging lastig vast te stellen.
Bij een telefoongesprek wordt er ook audio gesampeld. Daar hebben de meeste mensen ook geen probleem met de vertraging.
Maar er zit wel degelijk een flinke vertraging in een telefoongesprek (bel maar eens met twee telefoons bij elkaar in de buurt). Wanneer je deels de originele stem hoort en deels de versterkte stem via deze functie kan ik mij voorstellen dat het eerder averechts werkt.
Dat komt vooral doordat de audio stream vaak een serieuze afstand aflegt: van lokale zendmast, naar een datacenter, naar het datacenter van de andere provider, terug naar de locale zendmast, naar de ontvangende telefoon. Processing in de telefoon lijkt mij heel beperkt.
Ja exact, muziek afspelen en een telefoon gesprek zijn beiden vergelijkingen waarbij er wel degelijk nog extra taken of taken minder gebeurt. Nu is het inderdaad eerst de audio sampelen, verwerken, doorsturen naar de AirPods die het verwerken en weer door sturen naar de speakerts.
En dat is dus niet per se waar. Bij muziek is kwaliteit een vereiste waar dit bij spraak niet het geval is. “Package loss” bij telefoongesprekken is jammer maar wordt genegeerd en men probeert de stream gewoon door te bouwen. Bij muziek is dat niet het geval en zal het pakketje nog een keer worden verstuurd. Zolang de buffer groot genoeg is en volume en play/pauze op het ontvangende apparaat geregeld wordt merk je er vrij weinig van.

Ik merk echter wel dat ik met airpods vaak .5 tot 1 seconde moet wachten voor bijvoorbeeld een video starten. Ook het skippen van een nummer levert iets vertraging op zodat de initiele buffer opgebouwd kan worden.

Met live listen zal dit waarschijnlijk net zo gaan.
Maar wanneer je slecht horend bent (de doelgroep voor deze functionaliteit, lijkt mij) zal je daar geen last van hebben denk ik. Ik heb liever dat ik iets kan horen met wellicht wat latency dan dat je je gezelschap niet kan verstaan. Maar goed, ik ben geen slechthorende dus of dat een redelijke mindset is weet ik niet.

Daarnaast hoeft het signaal met die functie niet via masten te worden verstuurd maar gaat het direct van de microfoon naar de audio verwerking en naar de airpods.

Ik verwacht dat de latency niet zo'n probleem zal zijn.

[Reactie gewijzigd door TheHeavySoldier op 6 juni 2018 14:25]

Niet merkbaar is relatief, als je muziek 15ms trager hoort dan dat het afgespeeld wordt boeit het weinig omdat het 1 weg verkeer is zonder referentie.

Als je echter bijvoorbeeld een gesprek voert met elke keer een beetje vertraging krijg je irritante pauzes in het gesprek. En als je een instrument bespeeld en deze met een vertraging terughoort klopt je referentie niet meer en ga je vrij snel uit de maat spelen.

https://stephencoyle.net/airpods/ - Dit artikel gaat wat meer in op de latency die noemenswaardig lijkt te zijn. Voor het opnemen en monitoren van instrumenten heb je bij voorkeur < 7ms vertraging.
Wat mij opvalt is dat de latency tussen m'n iPhone X en AirPods per app verschilt. YouTube app? Ronduit irritant. Netflix app? Niks aan de hand.
Youtube app: google devs die zo min mogelijk iOS api's proberen te gebruiken.
Netflix app: Gewoon normale AVFoundation
Jij impliceert dat je als dev daar invloed op hebt, kun je dat onderbouwen?
Je kan gewoon een eigen implementatie ontwikkelen, je hoeft niet persé de API's van iOS t gebruiken. Zo is het ook met videospelers. Je kan de native videospeler pakken uit AVFoundation, of zelf een videospeler ontwikkelen zoals YouTube dat doet (daardoor kan je met dubbeltap op zijkanten van het scherm 15 sec. skippen, terwijl het bij andere apps knopjes zijn in de navigatie balk middels de native API)
Eigen implentatie van wat?

Ik kan me niet voorstellen dat Apple je direct toegang geeft tot de airpods.
Video en geluid moeten gesynct worden. Speel je de tracks apart af zonder de apple video player te gebruiken dan gaat het fout met airpods. Gebruik je geen AVAssets kunnen de airpods ook niet van te voren de data streams binnen krijgen om de latency zo veel mogelijk te minimaliseren. Het gaat hier niet perse om directe toegang; meer om gewoon om API's heen te werken om whatever reason zodat apple dus geen software-matige preventie kan inbouwen om latency te voorkomen. De latency op die krengen is best hoog, soms als ze even niet helemaal lekker werken kan het zelfs 5 seconden duren voordat het volume hoger gaat, wat daar precies de issue is weet ik niet. Misschien probleem in signaal sterkte / alles in sync houden.

[Reactie gewijzigd door jabwd op 6 juni 2018 13:01]

Voor dat skippen hoef je geen eigen speler te maken. Dat kunnen gewoon "overlay" controls zijn. Welke je bijvoorbeeld self positioneert en een transparant achtergrondje geeft. Je kan ook de standaard controls van AVFoundation achterwege laten.

Misschien hebben ze een eigen speler, dat weet ik zo niet. Maar voor bovenstaand redenen hoeft het niet.

[Reactie gewijzigd door ZpAz op 6 juni 2018 16:20]

Jazeker. Je zag dat op een gegeven moment ook bij Facebook. Die app was mega groot. Waarom? Omdat Facebook de frameworks van Apple links laat liggen en zijn eigen ontwikkeld en dus mee stuurt in de ipa.
Google is precies zo'n bedrijf. Gebruiken volgens mij vrij weinig van frameworks van Apple en vooral hun eigen spul.
Klopt, zelfs voor praktisch alle Google, en dus YouTube, gerelateerde producten zijn er van Google zelf frameworks die heel veel faciliteren. Dit zal ongetwijfeld ook in hun eigen proprietary apps het geval zijn.
heb het getest, iPhone 6s en AirPods. is er een kleine vertraging. als je hem hard zet en je je zelf niet meer hoort, maar alleen via de AirPods heb je er last van, maar het luisteren naar iemand anders is prima te doen
Thanks (ik mis wel ergens "geen" in die zin denk ik :))
Getest, jezelf horen praten terwijl je je telefoon vast hebt lijkt een drama, als je iemand anders hoort praten die verder weg staat en jezelf de iPhone nog vast hebt is het al prima werkbaar. Als je de iPhone aan de andere kant van een lange tafel legt werkt het goed (zeker als je het volume van je airpods iets harder hebt dan het geluid binnenkomt)
Als de afstand tussen de spreker en telefoon veel kleiner is dan de afstand spreker luisteraar zou het wel eens negatief kunnen worden.
Geen heel goed voorbeeld , het college.
In een collegezaal is eigenlijk altijd wel een ringleiding en een goed luidspreker systeem aanwezig. Hierbij wordt enkel het signaal van de microfoon in de ruimte versterkt weergegeven op het hoortoestel. Via de zogenaamde t stand. Het grootste nadeel van deze iOS oplossing is dat deze ook het achtergrond geluid versterkt. Wel goed dat ze er überhaupt mee bezig zijn.
Je weet natuurlijk niet of er ook een filter toegepast wordt om bepaalde spraakfrequenties te versterken en andere frequenties juist te verminderen.
Gezien de snelheid van de processor moet dat kunnen.
Dat klopt, maar spraak/geroezemoes zorgt natuurlijk ook al voor veel achtergrondsgeluid. Ik bedoel eigenlijk alleen te zeggen dat er voor professionele omgevingen en daar schaar ik een collegezaal ook onder, betere oplossingen zijn. Zij het via een ringleiding, infraroodsysteem of WiFi. Bijvoorbeeld audio everywhere. (Streamen van microfoon/ audio naar een app over het lokale wifi netwerk).
Dit kan al jaren met de awareness app voor slechthorenden, alleen is het nu ingebouwd in iOS

Edit: Bovendien heeft bluetooth maar een range van +- 10m dus waarom dramatisch doen?

[Reactie gewijzigd door StGermain op 6 juni 2018 12:11]

Het bereik is een stuk groter dan dat intussen :)
Gezellig, lekker je oordopjes inhouden in een restaurant of gesprek.
Snap we dat het een uitkomst is voor minder horenden, maar kom op: het ziet er niet uit, en het staat zo ongeinteresseerd..
Vind je dat over mensen met een gehoorapparaat? Die hebben tenslotte ook een oortje in.
Dat lijkt voor je gesprekspartner en de andere mensen in het restaurant niet zo raar.
Als je AirPods in hebt, kun je dat steeds gaan uitleggen aan mensen met wie je spreekt. Voor anderen zal het nog steeds niet duidelijk zijn.

Als je een gehoorapparaat gebruikt, weten mensen direct waar dat voor is.
"Ik ben slechthorend, ik hou deze doppen in om je beter te kunnen horen"

Zo moeilijk is het niet, en als je je zoveel aantrekt van wat willekeurige vreemdelingen vinden, moet je een keer volwassen worden.
als je slechthorend ben, denk ik dat je dan wel een iets ander, permanetere, oplossing zoekt en niet die apple doppen.
Kan misschien wel handig zijn voor ad hoc oplossing in bepaalde situaties.
Kwestie van tijd. Zodra meer mensen dat gaan gebruiken hoef je het niet meer uit te leggen. Heel lang geleden moest je ook uitleggen waarom je zoveel geld aan een PC uit ging geven....
Nu snap je ook waarom die dingen altijd onopvallend vormgegeven zijn.
Daar is ook nog een andere reden voor. Veel mensen schamen zich er voor dat ze een gehoorhulp gebruiken. Rationeel beschouwd is dat natuurlijk vreemd, maar voor velen is het toch moeilijk om onder ogen te zien dat ze ouder worden of gewoon te veel naar luide muziek geluisterd hebben 8-)
Briljante emoticon ook om mee af te sluiten: Waar het inderdaad voor een bril volledig geaccepteerd is om deze als hulpmiddel te gebruiken, of in sommige gevallen zelfs als 'fashion item', is het equivalent in de vorm van een hoorapparaat toch vaak meer een noodzakelijk kwaad, en wordt er alles aan gedaan om er zo weinig mogelijk van te zien.
Zou er ooit een tijd komen dat we ook luisterhulpmiddelen 'cool' gaan vinden?
Nog niet zo heel lang geleden was een bril ook niet echt geliefd. En nog steeds bij veel mensen niet, gezien de hoeveelheid mensen die contactlenzen gebruiken. Misschien als gehoorapparaatfabrikanten ook meer aandacht aan het design gaan besteden dat het ook meer geaccepteerd wordt.
Cool hoeft niet (ik vind brillen ook nog steeds niet mooi, zelfs zonnebrillen bij rocksterren niet) maar net zo normaal als een bril, ja graag. Hoortoestellen zijn nu duidelijk nog een hoge marge product (gezien de groet hoeveelheid winkels, en opticiens die het als bijproduct verkopen) die de zorgverzekeringen belasten. Misschien moeten ze helemaal net zo normaal worden als een bril, dat je voor 100 euro gewoon goed geholpen bent.
Er zijn natuurlijk wel meer redenen waardoor iemand een hoorprobleem heeft.
Je geeft een compleet ander signaal af als je een airpod in je oor hebt of een gehoor apparaat. In wezen zal het niet veel verschillen maar ik praat bijvoorbeeld niet met mensen die niet de moeite nemen om die doppen uit hun oren te halen. Evenmin als mensen me niet aan kijken. Gehoorapparaten en blinde mensen zijn voor mij een hele andere categorie.
Kun je je voorstellen dat al die eisen die jij stelt aan gedragingen van andere mensen op hen als arrogantie overkomt? Ik vind het zelf respectloos en onpraktisch om je oordoppen in te houden als je met iemand spreekt (net als het dragen van hoofddeksels en zonnebrillen in gebouwen). Maar vind het precies even respectloos als je daarom je gesprekspartner anders gaat bejegenen.
Ik kan dubbel tappen om te pauzeren alleen weten mensen dat niet. Ik kan er ook een uitpakken en dat ziet er een stuk beleefder uit ondanks dat het effect (muziek pauzeren) ongeveer hetzelfde is. Vaak als ik een gesprek heb pak ik er een of allebei uit, als ik aan de kassa praat met de mejuffrouw doe ik alleen even dubbel tappen voor pauzeren. Soms als ik met mensen praat kom ik er later achter dat ik mijn airpods nog in had terwijl ze uitstonden...

eerst vond ik het lastig maar het gaat er meer om dat je gewoon actief aan het gesprek deelneemt en laat zien dat je naar de ander luistert, met of zonder doppen in.
Gezellig, lekker je oordopjes inhouden in een restaurant of gesprek.
Gezellig, lekker je oordopjes uit doen, en dan niet mee kunnen doen met het gesprek. Dat jij je druk maakt om hoe iemand er uit ziet, moet je zelf weten. Maar iemand die gehoorproblemen heeft maakt zich daar niet zo druk om, die wil mee kunnen doen met het gesprek.
en gaat naar 'beter horen'voor een professioneel hulpmiddel....
Als je namelijk continue die oortjes moet gebruiken, is er denk ik chronisch iets mis...
Daar hoeft niet chronisch iets voor mis te zijn, daar kan een fysieke aandoening voor zorgen.
Als je 1 oortje inhoudt en dan wél normaal een gesprek kunt voeren, lijkt het me niet eens zo'n slecht idee eigenlijk.
Ongeïnteresseerd? Dat zijn ook die figuren die alleen maar met hun smartphone bezig zijn.
Met hoorproblemen, klinkt niet echt praktisch. Gros met dusdanige hoorproblemen heeft al een hoorapparaat, zou je dan uit moeten doen, oordopjes in, luisteren, praten, ben je klaar weer terug naar je hoorapparaat?
Mwah ik heb tinnitus. Af en toe last van lawaaidoofheid. Niet erg genoeg voor een gehoorapparaat naar mijn idee dus dit zou best kunnen helpen. Ik ben alleen geen iPhone en earpod gebruiker en ik ga het er ook niet voor worden.

[Reactie gewijzigd door Veneus op 6 juni 2018 13:18]

Ik ben alleen geen iPhone en earpod gebruiker en ik ga het er ook niet voor worden.
Hoeft ook niet. Deze feature zit natuurlijk in no-time ook in alle andere nieuwe telefoons. Zo gaat het immers telkens ;)
Nou.....functionaliteit voor doven en blinden?....iOS heeft al vanaf het begin betere ondersteuning en de andere fabrikanten lijken niet echt super enthousiast tot nu toe om dat na te doen.
Met hoorproblemen, klinkt niet echt praktisch. Gros met dusdanige hoorproblemen heeft al een hoorapparaat
Er zijn tal van verschillende gehoorproblemen. Sommige doen zich alleen voor bij veel achtergrondgeluid zoals in een druk restaurant. De meeste mensen die daar mee te kampen hebben dragen geen hoorapparaat, mede omdat dat in dit specifieke geval ook niet goed werkt.
De functie Live Luisteren zit al enkele jaren in iOS voor hoortoestellen met een Made For iPhone-keurmerk.
Daarom, snap het voorbeeld niet voor mensen met hoorproblemen.
Gros met dusdanige hoorproblemen heeft al een hoorapparaat...
Voor de rest met gematigde gehoorproblemen wellicht.
Niet iedereen met hoorproblemen heeft dusdanig ernstige hoorproblemen dat ze een hoortoestel nodig hebben. Dit is meer voor mensen die moeite hebben om in een druk restaurant hun gesprekspartner aan de andere kant van de tafel te horen. Leg de telefoon aan die kant van de tafel met deze functie ingeschakeld en die persoon kan weer gewoon deelnemen aan het gesprek :)
Deze functie klinkt echt heel erg on-apple achtig, maar aan de andere meningen te zien zal er wel een andere reden zijn behalve dat het behulpzaam is voor slechthorenden.
Lijkt me handiger als ze het onderling kunnen naar elkaar versterken. Dus in een erg rumoerige omgeving elk één van een paar in en dan onderling praten.
met FaceTime Audio dus ;)
Elkaar bellen, zeg maar?
Nee want dan heb je allebei een eigen headset/airpods. ;)
Als je maar één setje hebt...

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True