Google Meet-betà bevat optie om gesprekken live te ondertitelen

In de nieuwe betà van videochatprogramma Google Meet is een optie toegevoegd voor live-ondertiteling. Hiermee worden gebruikers terwijl ze spreken ondertiteld in een andere taal. Momenteel is er nog geen Nederlandse taaloptie beschikbaar.

Met deze functie worden de gesproken woorden eerst getranscribeerd in de oorspronkelijke taal, en vervolgens wordt, via Google Translate, die transcriptie vertaald. Volgens Google helpt de vertaalde ondertiteling met het verwijderen van de taalbarrière tijdens internationale gesprekken, waardoor meetings voortaan effectiever moeten verlopen.

De functie is alleen beschikbaar met de Google Workspace-abonnementen Business Plus, Enterprise Standard, Enterprise Plus, Education Plus en met de Teaching & Learning Upgrade. In de huidige betà is het daarnaast alleen mogelijk om vanuit het Engels te vertalen, en Nederlands is niet aanwezig bij de talen waarin vertaald kan worden. Wanneer en of er een Nederlandse ondertitelingsoptie beschikbaar komt, is niet bekendgemaakt.

Vorig jaar voegde Google al een live-ondertitelingsoptie toe aan de Translate-app, waarmee gebruikers audio kunnen opnemen die vervolgens ter plekke vertaald wordt. Ook op Chrome heeft Google een live captions-functie toegevoegd, waarin de audio van afgespeelde video's in de browser gescand wordt en vervolgens via ondertiteling vertaald kan worden.

Google Meet-ondertiteling

Door Kevin Krikhaar

Redacteur

28-09-2021 • 13:14

8

Reacties (8)

8
8
2
0
0
6
Wijzig sortering
Ik heb schijnbaar in de AB test gezeten. Ik heb dit begin augustus al voorbij zien komen, het werkt best redelijk (in t engels). Het was wel wat traag.

Het past zinnen actief aan, dus ook iets wat paar woorden geleden gezegd is kan nog worden aangepast door context (van de text daarna). Dan besluit de AI dat een ander woord toch waarschijnlijker is als het woord dat het dacht te verstaan.

[Reactie gewijzigd door jaenster op 26 juli 2024 10:21]

Ik denk niet dat je in een AB test hebt gezeten want je (specifieker, een Admin binnen je organisatie) moet zich specifiek opgeven voor deze beta. Ik denk dat je de normale spraakherkenning van Meet (die iedereen tot zijn beschikking heeft) hebt aangezet. Meer info staat hier:
https://support.google.com/meet/answer/10964115

[Reactie gewijzigd door Anoniem: 1322 op 26 juli 2024 10:21]

Zo ongeveer een half jaar geleden heb ik wel met ondertiteling zitten spelen met google-meet. Maar daarvan herinner ik mij dat het vooral engels was en dat de ondertiteling ook heftig probeerde engels te ondertitelen.
Daar waar we Engels spraken was het wel aardig, daar waar we Nederlands spraken was het natuurlijk vooral grappig wat ze er van maakten.

Maar daarmee: Hier is het nieuws dus dat die automatische ondertiteling dus meteen/simultaan vertaalt. Dan zou ik als Nederlander die het Engels best wel machtig is, zowel de Nederlandse ondertiteling willen zien (wat Google denkt te horen) als de Engelse ondertiteling (wat ze er van maakt). Een soort van 'debugging' mode.

Google kennende zal het vooral eerst voor de 'grote' talen gebeuren: Engels, Spaans, Chinees, Frans, Duits en zo nog een paar. NL zal pas in de 3e of 4e golf aan de beurt komen.
Ik kan zo nergens vinden of er ook een mogelijkheid tot 'leren' is; m.a.w.: kunnen er over een bepaalde periode 'verbeterde' versies van ondertitels komen?
Misschien werkt het in samenwerking met de andere spraak/luister interfaces van google. Dat ze jou stem wil leren en in de toekomst daar gebruik van maakt.

Van mij zal google voorlopig niet veel leren, de spraak/luister interface gebruik ik zo min mogelijk.
Betekent het live vertalen van Google Meet gesprekken dat al deze gesprekken op dit moment (of beter, sinds het begin) ook worden opgenomen danwel geanalyseerd om deze feature te verbeteren?

Ik bedoel het is niet onbekend dat Google data verzamelt en dergelijke, maar ik kan me zo voorstellen dat bedrijven die gsuite afnemen niet verwachten dat al deze gesprekken zomaar opgenomen en geanalyseerd worden.
Ze zijn daar vrij transparant over. Tijdens de Beta periode (waar een Admin van jouw organisatie zich expliciet voor moet inschrijven) gelden deze voorwaarden:
To use the feature and help develop the Test Product, we need to collect data, including but are not limited to:
- Workspace Apps usage metrics, such as the number of times the captions were enabled
- Translated captions config (spoken and display language)
- When audio is turned on / off
- Language set on the Workspace account
- Language set on device
- Calendar timezone


Wanneer de feature gelanceerd wordt vervallen al deze punten en wordt het een volledig geautomatiseerd process (net zoals alles Workspace):
When launched, translated captions in Google Meet will use a meeting’s invitation, participant names, attachments, etc. to improve the accuracy and identify meeting specific jargon without any human involvement. This means no one at Google ever sees the Meeting content and the models are automatically deleted after each meeting. Google doesn’t use or store this data for improving its own UI
Wat is er toch een vooruitgang in computers die kunnen verstaan wat je zegt. Tuurlijk, helemaal daar zijn die systemen er (nog) niet. Maar ik moet terugdenken aan rond 10-15 jaar geleden, dat ik wat met Dragon Naturallyspeaking zat te experimenteren. Dan moest je eerst 16 min lang praten, om zo het systeem te calibreren aan je stem. En dan kon je wat praten tegen de computer, en werden er half kloppende zinnen van gemaakt. Naast zinnen inspreken die in de tekstverwerker kwamen, had je ook de mogelijkheid om apps te bedienen. Zo kon ik Patience spelen door de computer te vertellen wat hij moest doen.

Niet alles werkte (fatsoenlijk), en er werden toch flink wat fouten gemaakt. Het leukste was als je een fout had gemaakt bij een ingesproken zin. Kon je zeggen: Terug, Terug, delete woord, enz. Alleen als je dan tijdens het herstellen een fout maakte was je nog verder van huis weg.

En nu heb je systemen als Siri, Google en Alexa. Qua begrijpen wat je zegt is het er (nog) niet, maar qua 'zien' wat je zegt zijn ze heel ver. Meestal als je wat zegt, 'zien' ze wel wat je hebt gezegd. Daarom zijn ze nu al bruikbaar voor vast ingesproken stukjes, waar de computer niet de complete zinsopbouw enz. moet kennen.

Ik ben wel benieuwd wat er verder nog uit deze technieken kan komen.

Op dit item kan niet meer gereageerd worden.