Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 14 reacties

Google toont een week na I/O toch nog zijn nieuwe steminteractie-api voor Android. De presentatie zou oorspronkelijk op donderdag 28 mei plaatsvinden tijdens Google I/O, maar werd om onbekende redenen afgelast.

Nu heeft Google toch nog een video online gezet waarin de ontwikkelaars die oorspronkelijk ook de Develop Talk op de conferentie zouden houden, uit de doeken doen hoe de api toe te passen. De api is bedoeld om gebruikers een 'conversatie' te laten houden met het betreffende Android-apparaat. Op deze manier kan een applicatie uitvinden of iets wel of niet goed begrepen wordt.

De zogenaamde Custom Voice Actions zijn handelingen die niet vallen binnen de al bestaande system actions. Als voorbeeld geven de ontwikkelaars in het filmpje het aanvragen van muziek. Omdat de gebruiker alleen om muziek via een bepaalde app vraagt, in dit geval TuneIn, vraagt de app nog om wat voor muziek de gebruiker zou willen horen.

Android Police ziet interessante mogelijkheden opdoemen voor gebruikers om met applicaties om te gaan als ook apps van derden via 'Ok Google' benaderbaar zijn.

Moderatie-faq Wijzig weergave

Reacties (14)

Wat ik me afvraag is hoe simpel dit in een app in te bouwen is.
Bijvoorbeeld voor een domotica-app. Er zijn honderden manieren om te zeggen dat je een lamp aan wilt zetten, kan je dat via een simpele regel (of stuk) code aangeven, waarmee de machine learning algoritmes van Google al die verschillende manieren naar een manier vertalen?
Indien dat mogelijk is is dit een gigantische stap!
inderdaad, en als je naar de Nederlandse zinsbouw kijkt is er altijd een soort structuur, bepaalde woorden suggereren bepaalde dingen. Andere woorden zijn dan weer enkel voor de mens nodig en kunnen weggelaten worden.

Moest je zelf zo een app schrijven. Dan zou ik "de zinsbouw" bestuderen op technische wijzen en bepaalde woorden een hogere prioriteit geven als anderen. En zo handelingen uitvoeren.

Om een domotica systeem dat enkel naar "je gezin" moet luisteren is relatief simpel,
een systeem dat commercieel is, dan moet je waarschijnlijk met masters in de Nederlandse/Engelse taal samenzitten om vele mogelijke pistes te bestuderen en snelheid te behouden.
Het mooie is dat Google deze technologie al tot zijn beschikking heeft. Wat ik mij echter afvraag is of ontwikkelaars ook "toegang" tot die technologie krijgen waardoor bovenstaande niet meer nodig is.

Ik ga er van uit dat dit zo is, alleen hoe simpel is dit te implementeren.
Eens spraak naar tekst omgezet kan worden is de probleemstelling bijna dezelfde als bij een zoekmachine: kernwoorden en context analyseren en het beste resultaat ophalen.
Kan heel simpel ik heb het ooit gemaakt in appinventor voor blinden

zie: https://goo.gl/photos/GCJJPvTAXjeCLERs5

Ook heb ik de NS hier mee op weggegholpen zie: http://www.avestudio.nl/ns-speak.html

ook gemaakt in appinventor!

[Reactie gewijzigd door appie35 op 6 juni 2015 20:44]

Het lijkt er op dat de techniek zo'n beetje klaar is voor grootschalige introductie van spraakherkenning; ben benieuwd hoe de acceptatie door ons mensen zal zijn. Persoonlijk kan ik me nog weinig voorstellen bij het verschuiven van de invoermethode naar spraak, maar het heden heeft wel vaker bewezen dat we vroeger anders naar de toekomst keken.
We wachten af...
Eerlijk gezegd zie ik hier weinig toekomst in, althans niet voor mijzelf. Ik zie het als 3D op een tv, een gimmick die nu al bijna over is.
Wie kent ook maar 1 persoon die Nuance, Dragon Naturally Speaking of Windows Vista Speech Recognition ooit gebruikt heeft?
Er zijn situaties waar het handig zou kunnen zijn, zoals wanneer je gebeld wordt en wilt dat de tv zijn volume naar nul zet, maar in de auto is het binnenkort al niet meer nuttig. Die rijdt zelf, dus je handen zijn vrij.

En een apparaat dat altijd luistert naar wat er gezegd wordt in de omgeving? Niet prettig, te veel dat naar buiten kan/gaat komen.
maar in de auto is het binnenkort al niet meer nuttig. Die rijdt zelf
Oke, als je dat binnenkort noemt, dan is het juist tegen die tijd ideaal, want dan kun je gewoon tegen de auto zeggen waar je heen wilt. Daar hoeft dan geen toetsenbord in, waar iedereen met zijn vieze handen aanzit.
De NS app bijvoorbeeld. Je kan hier zeggen "IK wil naar Amsterdam" en hij gaat voor je op zoek.
Dan krijg je als antwoord, als de voice app goed werkt: neem de auto, de brommer, fiets of ga te voet. En omdat google van als weet: nu in de aanbieding een kogelwerend vest bij de HEMA.
Zie de mogelijkheden! Ok Google, hoeveel geld kan ik nog besteden? Ok Google, laat mijn rooster zien! Ok Google, welke steamvrienden zijn online?

Maar zoals Kiwi ook al zegt, hoe kan je dat allemal herkennen (Ok Google, hoeveel kan ik nog uitgeven/ Ok Google, heb ik nog uitval/Ok Google, is ... online?)
Het is dan wel genant als hij in het openbaar roept: je hebt momenteel nog 2.34 op je rekening staan 😇
Hiermee gaan ze Cortana dus mee achterna. Daar kan je als developer ook gebruik maken van cortana om bepaalde opdrachten uit te voeren. Bijvoorbeeld Wikipedia app het artikel van de dag te laten weergeven.
Ik zou zoiets als wit.ai van google willen zien.
Dit is een leuk begin, maar lijkt helemaal gericht op android.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True