Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 126 reacties

Microsofts spraakherkenningstechnologie presteert even goed als een mens die luistert naar een gesprek tussen twee vreemden. Het bedrijf claimt de eerste te zijn die de hoeveelheid transcriptiefouten tot 5,9 procent heeft weten terug te brengen.

Volgens Microsoft herkent de technologie woorden 'gelijkwaardig aan de mens'. Het Microsoft-team stevent al langer op dit punt af: vorige maand meldde Microsoft nog dat het op een foutpercentage van 6,3 procent zat, wat het bedrijf toen al de koploper op dit gebied maakte. In een andere test, waarin twee mensen die elkaar kennen mogen praten over wat ze maar willen, behaalt Microsoft een foutpercentage van 11,1 procent, wat 0,2 procentpunt lager is dan een concurrerende menselijke professional. De bevindingen worden uitgebreid beschreven in een paper.

Cortana W10De onderzoekers zeggen de mijlpaal bereikt te hebben met behulp van deep neural networks, die met behulp van mensen getraind worden om constant beter te worden. Ook zou het gebruik van gpu's voor de kunstmatige intelligentie hebben bijgedragen aan de snelheid waarmee de resultaten zijn bereikt, zegt Microsoft.

Het bedrijf zegt ook te werken aan het aanpakken van de variabelen die in het echte leven om de hoek komen kijken: achtergrondgeluid en accenten, bijvoorbeeld. De volgende stap voor Microsoft is om naast herkenning ook begrip aan te scherpen, wat net zo belangrijk is voor de effectiviteit van bijvoorbeeld de digitale assistent Cortana.

Het IBM Watson-team meldde in april van dit jaar een foutpercentage van 6,9 procent in dezelfde test. Onduidelijk is hoe IBM er op dit moment voor staat. Op 4 oktober liet Google, dat net zijn nieuwe Assistant heeft vrijgegeven, ook weten dat het de pariteit met de mens aan het naderen was.

Moderatie-faq Wijzig weergave

Reacties (126)

Wordt dit dan ook al direct toegepast op de Speech API's ?
https://www.microsoft.com/cognitive-services/en-us/apis

Spraakherkenning werkt nu al best aardig. Demo hier: https://www.microsoft.com...services/en-us/speech-api
Ik moet toch eerlijk bekennen dat de Windows Speech Recognition niet erg soepel werkt. Ik vind Cortana leuk maar het bedienen van de PC is waar ik in mijn kamer naar zoek. En die applicatie stelt me vaak teleur.
Niet verstaan wat je bedoeld, blijven piepen dat het niet begrepen wordt (what was that?) , maar mij niet uit laten praten. Achtergrond geluid is direct funest voor de bruikbaarheid.

Daarnaast is mijn engels/amerikaans redelijk on par qua accent, maar heeft de app blijkbaar moeite om 77 en 11 te onderscheiden. Zelfs laten uitproberen door enkele engels studerende lui, zelfde probleem.

Dus ik hoop dat ze dit asap in de api van de speech recogntion applicatie stoppen, want ik wil straks kunnen roepen: Computer! Engage! :9 En dat-ie dan mijn apps opent die ik standaard heb open staan;)

[Reactie gewijzigd door Sugocy op 19 oktober 2016 15:57]

Een tip voor als je Cortana wat meer functies wilt laten uitoefenen:

Als je een .bat bestand maakt met commando's die je wilt uitvoeren, en je plaatst een snelkoppeling naar dat .bat bestand in C:\Users\*username*\AppData\Roaming\Microsoft\Windows\Start Menu\Programs , dan kun je 'Hey Cortana, open *naam snelkoppeling*' zeggen om het .bat bestand te draaien. Dit heb ik bijvoorbeeld voor de verschillende afsluitmogelijkheden gedaan ('Hey Cortana, open Sleep/Hibernate/Shutdown', een commando dat helemaal in het klik op Start om af te sluiten idee past)
en voor een paar custom scriptjes die onder andere mijn joystick throttle instellen als een volume slider, een die een audio-responsive screensaver instelt als bureaubladachtergrond en natuurlijk een om een minecraft server te starten :P

Edit: Het valt trouwens wel aan te raden om engels klinkende namen aan je scriptjes te geven, dingen als 'Joyvolume' en 'Backscreen' werken perfect.

[Reactie gewijzigd door dj__jg op 19 oktober 2016 17:03]

Dat heb ik zo nog nooit bekeken :D Maar als ik het combineer met Speech Recognition moet dat ook lukken!?

Stiekem al weer even geleden dat ik bat-files heb geproduceerd :o :Y) Leesvoer opzoeken en dan mijn speech-doelen duidelijk hebben.

Danku! Zeker ook voor de nood van het opslaan in de Programs-dir, dat had ik nog nergens gelezen.
Met Speech Recognition heb ik geen ervaring, maar het moet vast kunnen denk ik?

Mijn .bat bestanden zijn ook niet erg geavanceerd, gewoon shutdown commando's etc.

Die nood komt doordat Cortana alleen programma's kan openen die in het Start Menu in de programmalijst staan. Als je steam games wilt openen met Cortana kun je dus ook steam een snelkoppeling op je bureaublad laten zetten en die dan in het Start Menu zetten. Nadeel is wel dat 'War Thunder' erg moeilijk goed uit te spreken is blijkbaar, mijn 'th' komt zelden goed over.

Hiermee valt samen dat Cortana dus ook echt alles in dat Start Menu probeert. Voor sommige programma's zitten daar ook snelkoppelingen naar installers of speciale opstartopties in, als je dan een programma wilt openen gaat Cortana je opties geven of je niet liever de Chrome Updater oid had willen openen. De enige oplossing is dan om die andere snelkoppeling zo erg te veranderen dat Cortana ze niet meer als optie geeft, door Chrome er uit te knippen bijvoorbeeld, of door de snelkoppeling helemaal te verwijderen.
Daarnaast is mijn engels/amerikaans redelijk on par qua accent, maar heeft de app blijkbaar moeite om 77 en 11 te onderscheiden. Zelfs laten uitproberen door enkele engels studerende lui, zelfde probleem.
Al geprobeerd op https://www.microsoft.com...services/en-us/speech-api om "11" en "77" uit te spreken? Het lukt me zonder problemen met mijn Belgisch accent. Hij converteert het zelfs automatisch naar een getal.
Moet zeggen dat het op die website vele male beter reageert! Wauw! Inderdaad, 11 en 77 zijn te onderscheiden door de software. Time for a test :+

*Zoekt quote uit de bijbel - Shepherds Prayer* - Het heeft snelheid nodig. Als de hele verse netjes en rustig wordt uitgesproken heeft-ie er nog steeds moeite mee. Maar het werkt op die website op een of andere manier beter dan op de PC zelf. Ga het ook nog eens proberen in Word.

Dieper in de software duiken dan maar! Voornamelijk de Show Numbers optie is fantastisch om snel alle apps via de stem te besturen, maar als sommige getallen niet werken, wordt het een hel. Misschien moet ik mijn directories ook een wat meer engelse naam geven.... ;)

[Reactie gewijzigd door Sugocy op 19 oktober 2016 16:19]

Hmm op mijn mobiel in Chrome werkt het niet echt. Er verschijnen af en toe woorden als ik iets zeg, maar die lijken niet of nauwelijks op iets wat ik zeg. Ook niet als ik heel langzaam en duidelijk alleen "noooo" zeg, komt er niets of een heel ander woord te staan.
Zou handig zijn! De Bing Speech API wou ik eerst ook gebruik tijdens mijn afstudeeropdracht. Uiteindelijk vanwege de tijdsdruk toch maar de standaard SpeechRecognizer van Android Wear gebruikt.

Hier kwam ik uit op ongeveer 10-15% transcriptie fouten (met duidelijk spreken). Dus knap werk van Microsoft dat ze de transcriptie fouten teruggebracht hebben naar 5,9%.

Google stelt haar Speech Recognition Service echter niet via een API beschikbaar. Nou ja, er is wel een API maar deze is niet gedocumenteerd.
Thx voor de link! Wist niet dat Google nu (eindelijk) Speech Recognition as a Service aanbiedt. Blijkbaar aangekondigd op 23 maart, toen had ik mijn vooronderzoek (net) afgerond :Y)

Jammer dat de service destijds nog niet beschikbaar was. Grote kans dat ik het dan gebruikt had. Ik ga binnenkort zeker experimenteren met spraakherkenning API van Google en Bing O+
Zou leuk zijn als dit ook in te zetten is voor (automatische) ondertiteling van films/series. Vooral de commerciële zenders hebben vrijwel geen ondertiteling.

Even ter verheldering van hieronder: ook voor Nederlandse programma's dus (andere talen zijn nooit een probleem).

[Reactie gewijzigd door Phyxion op 19 oktober 2016 13:38]

Helaas loopt die manier van ondertitelen vaak een zin (of twee) achter. Kan erg verwarrend zijn.
Maar hopelijk zorgt deze ontwikkeling ervoor dat het voortaan niet meer dan een halve zin is of nog korter...
Hoezo? Je hebt de spraak toch al vanop voorhand, dus kan het programma voor het uitzenden toch al ondertiteling genereren?
Je hebt gelijk. Ik dacht aan live-ondertiteling. Wat dus altijd achterloopt.
maar waarschijnlijk wel minder. Een computer kan namelijk sneller tekst op het scherm tonen dan iemand die typt. Hoe goed die laatste ook is.
Als je naar schrijftolken kijkt, die zijn toch behoorlijk rap. En die kunnen anticiperen. Die typen op spreeksnelheid (en sommigen ver daarboven)
Een schrijftolk anticipeert natuurlijk omdat deze persoon ingelezen is in het gespreksonderwerp en dus eigenlijk al goed kan inschatten wat er gezegd word. Wanneer jij een voetbalkenner bent en je vertolkt een samenvatting van een wedstrijd (die jezelf ook hebt gezien) tussen twee commentators dan kun vaak wel verwachten wat er gezegd word.

Je pre-activeerd zeg maar je hersenen op bepaalde gebieden, dit gebeurt ook in een normaal gesprek. Dat is dan ook waarom het zo veel verwarring kan opleveren en je iemand niet 'verstaat' wanneer deze ineens een compleet ongerelateerd onderwerp naar boven brengt, je hersenen waren daar dan niet op voorbereid. Dat is ook waar het 'freudian slip' idee op berust is. Je hoort iets omdat je het verwacht te horen...
Exact, en een AI zulk gedrag aanleren, zo ver zijn we voorlopig nog niet. Vergelijk het maar met vertalers, die zijn vaak ook grammaticaal zo brak, omdat het programma de relevantie en relaties tussen zaken niet vergelijk of anticipeerd. Hij vertaalt letterlijk woord voor woord, en laat er misschien iets van een grammatica controle op los, maar thats it. De computer weet niet wat er gezegd wordt, dus die kan daarom de verkeerde vertaling voor iets pakken (en dus te letterlijk vertaald).

Dit soort technieken zijn vergelijkbaar, de AI kan proberen zo letterlijk mogelijk te 'schrijven' wat hij 'hoort' maar de AI is niet op de hoogte van de context van het gespreksonderwerp en kan daarom dingen mishoren (woorden die qua uitspraak op elkaar lijken, maar een enkele is relevant in de huidige context, mensen anticiperen dat en begrijpen dat, een computer niet). En uiteraard de snelheid, mensen kunnen anticiperen op wat er gezegd wordt, zolang een computer die context niet snapt, zal hij dat nooit kunnen ook al kan ie sneller 'typen'.
Precies: een computer zal pas goed kunnen vertalen als hij echt begrijpt wat er staat, op een menselijke manier. Veel bedrijven proberen ons te laten geloven dat ze binnenkort goed kunnen vertalen, maar daar is niets van waar. Maar al kan Google Translate niet correct vertalen en geen goede zinnen maken, toch is het vaak heel nuttig als hulpje. Alleen de claims van die bedrijven kloppen niet.
Ja, daarom stoor ik me ook een beetje aan de titel van dit bericht "herkent woorden net zo goed als mens", moet je echt met een hele flinke korrel zout nemen.
Ik ook! En ik zie het altijd weer staan, bij elke nieuwe verbetering van een spraakherkennings- of vertaaldienst, op alle computersites.
En toch niet snel genoeg als je de gemiddelde live uitzending kijkt. (Die uberhaubt niet helemaal live is omdat het een seconde of 2 achter loopt; juist om de ondertitelaars tijd te geven)
Een 'live' uitzending wordt ook altijd vertraagd. Bijvoorbeeld om te voorkomen dat er ineens schokkende beelden worden uitgezonden, maar dat kan dus ook een vertaalprogramma de tijd geven z'n werk te doen en de ondertitels te kunnen synchroniseren met de uitzending. Daar heb je maar een aantal seconden voor nodig.
Ah. Mooi.
Vandaar ook misschien wel dat de HD zenders (met subs) van de BBC achterlopen op de SD zenders (zonder subs)?
Misschien, maar ik denk dat er grotere redenen zijn. Het lijkt me logischer dat de HD meer tijd kost op te comprimeren bijvoorbeeld.
Een 'live' uitzending wordt ook altijd vertraagd.
Nee, dat is niet zo dat het altijd gebeurt. Het gebeurt wel eens, maar zeker geen vaste regel. Goed voorbeeld het Journaal.
En wat dacht je van de kwaliteit van het vertalen.

De kwaliteit daarvan is vaak helaas nog bedroevend.
Taal blijft een moeilijk iets om met computers te processen naar een ander taal.
kijk eens buitenhof op zondag, dit is een "live" programma wat ook realtime ondertiteld word bij buitenlandse gasten, het beeld is dan wel enkele tot ~5 seconden vertraagd, maar de ondertiteling loopt behoorlijk goed mee met het beeld/geluid. Hoogstens een enkele zin die overgeslagen word.
volgens mij gebruikt netflix dat al voor hun ondertitelingen. Bij een paar series had ik erg rare vertalingen waar het letterlijk vertaald wel klopte maar het qua context jibberisch werd in de ondertiteling.
Ik heb dat zelf nooit gezien op Netflix (wel als je ondertitels download) maar het valt me daar wel op dat de ene serie 'gewoon' Nederlands gebruikt en de andere serie overduidelijk een Vlaamse vertaler heeft gehad.
of het zijn crapvertalers af en toe, dat kan ook natuurlijk ;)
Kwestie van even een buffer aanleggen en alvast wat vooruit ondertitelen.
Versta ik dit goed? Is er in Nederland vaak geen Nederlandse ondertiteling bij films/series op commerciële zenders?

In België is alles ondertiteld, zelfs de Nederlandstalige programma's kunnen via Teletext ondertiteld worden. Deze spraakherkenning van Microsoft zou ingezet kunnen worden bij live uitzendingen. Dat werkje loopt nog manueel en daarom ook iets achter op de werkelijkheid.
Nee, is onzin. Er is vrijwel altijd ondertiteling, zelfs Vlamingen worden vaak ondertiteld. En uiteraard kunnen doven en slechthorenden ook teletekst gebruiken voor ondertiteling van Nederlandstalige programma's.
Ik vermoed dat hij Nederlandstalige programma's bedoelt. Ik heb de laatste tijd geen enkele Nederlandse zender gevonden zonder ondertiteling bij buitenlandse programma's.
Heeft YouTube niet zoiets?
Daar kan je ook live ondertiteling aanzetten, wel met wat foutjes hier en daar, maar best aardig.
Probeer dat maar eens met een Nederlands filmpje, je lacht je rot wat daar uitkomt.
Doet mij altijd denken aan Benny Lava
De Engelse Mama Appelsap dus ;)
Zelfs in de engelse taal maakt dat systeem voldoende fouten.
En als ze al ondertitels hebben, dan klopt deze vaak niet. Lijkt wel of ze em van ondertitels.cc plukken ofzo.. heel slecht.. dan maar geen ondertitels..
Iets verstaan is 1 ding, iets vertalen is een tweede. Los van het feit dat je uiteraard moet weten wat je moet vertalen heeft het één niks met het ander te maken verder.
Dat wordt erg lastig in snelle dialogen. Dan heb je voor je het weet tien regels tekst op je beeldscherm staan.
Voor ondertitels is het vaak de kunst om de essentie van vaak lange zinnen in een paar woorden weer te geven.
Dat gebeurt al op YouTube:
https://support.google.com/youtube/answer/6373554?hl=en
En het werkt vrij goed, de snelheid is storend (geen grote offset) maar bij (half)homofonische woorden durven soms fouten gemaakt te worden (wat vrij logisch is trouwens).
Is dit spreker onafhankelijk? Lijkt mij sterk dat een computer dat net zo goed kan als een mens.
Ik vind het ook erg vreemd... Als ik dit goed begrijp suggereren ze dus dat een mens één op de twintig woorden, of bij een gesprek tussen twee vreemden die elkaar kennen zelfs een op de tien, niet goed verstaat? Mja, dat zou kunnen, maar een mens haalt dan toch het juiste woord nog naar voren door middel van de context, iets wat de computer dan weer vaak niet kan. Ik kan me dus voorstellen dat als je losse woorden uit knipt dat de spraakherkenning zich inderdaad kan meten met een mens, maar volledige conversaties omzetten naar tekst? No way, ik geloof er helemaal niks van dat een mens daar zoveel fouten in zou maken.

Mijn ervaring met Cortana op de Xbox One is overigens ook dat het geinig is, maar nog veel te vaak dingen foutief verstaat waardoor ik het in de praktijk toch niet gebruik. Maar goed, ik zal ook niet volledig accentloos Engels spreken en natuurlijk is de microfoon van de Kinect ook niet de beste apparatuur verkrijgbaar (of de huiskamer die geen studiokwaliteiten bezit), dus dat wordt in het artikel ook al benoemd aan het eind...
Dat lijkt me heel aannemelijk ja, 1 op de 20 woorden. Ik heb ooit interviews moeten uittypen (typisch zo'n baantje dat dus overbodig wordt) en dan merk je ineens hoeveel je normaal gesproken niet verstaat. Dat is overigens meestal ook geen probleem - als luisteraar hou je de rode draad vaak redelijk moeiteloos vast, ook al vallen er heel wat woorden weg.
Ik moet echt vijf keer schreeuwen tegen Cortana van de Xbox One voordat er iets gebeurt. Stel ik wil een video pauzeren met "Hey Cortana, pause" gebeurt het regelmatig dat ze Bing Search opent en de definitie van 'bus' gaat voorlezen. Het resultaat van Microsoft gaat echt puur om transcriptie, waarschijnlijk in een ideale situatie met mic vlakbij bron en weinig achtegrond. Lijkt niet goed op de praktijk denk ik, dus het toevoegen van achtergrond geluid en begrip in plaats van losse woorden zal veel helpen.

[Reactie gewijzigd door youknowgraphy op 19 oktober 2016 17:00]

Yup, ik zou willen dat je op de Xbox de mogelijkheid om op internet te zoeken gewoon uit kon zetten. Daar heb ik nooit behoefte aan, maar het gebeurt inderdaad wel veel te vaak dat je ineens in dat zoekscherm zit... En daar kom je dan niet meer uit zonder de controller te pakken 8)7
Waarom lijkt dat jou moeilijk? De enige vereiste lijkt nu te zijn dat het om +/- proper Engels (geen slang/zware accenten/dialecten) gaat.
Aangezien Cortana geen enkel probleem heeft om mijn engelse zinnen te herkennen lijkt mij dat ze wel degelijk een zeer goed systeem hebben. Al kruipen er af en toe wel kleine foutjes in natuurlijk.
Daarnaast; herkennen is iets anders dan begrijpen van zinnen in een bepaalde context. Het zal de woorden van een Ronald Goedemondt vast wel kunnen herkennen, maar niet om kunnen zetten in een uitleggend verhaal voor een derde. Maar goed, de strekking is ook 'herkennen'.
In een andere test, waarin twee mensen die elkaar kennen mogen praten over wat ze maar willen, behaalt Microsoft een foutpercentage van 11,1 procent, wat 0,2 procent lager is dan een concurrerende menselijke professional
Dit snap ik niet. Als het gaat om spraakherkenning zonder dat je moet begrijpen waar het gesprek over gaat, hoe kan dan een 'menselijke professional' meer dan 11,1% fout hebben?

Als 2 collega's met mekaar praten en ik volg het gesprek, dan geloof ik niet dat ik veel woorden mis. Als het een technische uitleg betreft dan kan het zijn dat ik van de inhoud weinig begrijp, maar ik ga toch echt niet 1 woord op de 10 niet herkend hebben.


Of wordt hier iets anders bedoeld?
Als mens mis je niet veel, maar dat wilt niet zeggen dat je elk woord exact verstaat. Ik heb een zeldzaam spraakproblemen wat mij verhindert sommige klankcombinaties te maken. Ik heb geleerd om delen van woorden over te slaan of vervang door een klank die er op lijkt. Bijna niemand merken deze trucjes (zelf familie hoort het niet). Conclusie: je hoeft iemand niet exact te verstaan om iemand te begrijpen. +-10% foutmarge klinkt heel redelijk.
Dat begrijp ik, maar ik ga er van uit dat die 11% een gemiddelde is.

En aangezien een mens - met jouw hulp, uiteraard - er in slaagt om 'foutcorrectie' te doen (mag ik het zo noemen?) waarbij wellicht ook de context helpt, vraag ik me af of de spraakherkennings software ook die 'correctie' maakt?
Of met andere woorden: ook hier denk ik dat de mens een stapje voor heeft op de software.
Het omgekeerde zoals Microsoft beweert zou mij zeer verbazen.
Ik vermoed dat een menselijke professional niet die 10 % nodig acht om het gesprek te kunnen volgen, dat maken onze hersenen wel goed met wat we denken te horen.

Overigens zegt dit absoluut niks zonder alle achtergrond info te krijgen. Zonder uitleg over de test methode kun je niks met deze conclusie, maar dat gaat wat ver voor Tweakers vermoed ik ... vandaar ook de link naar de paper.
volgens mij bedoelen ze dat een professional die meeluistert met dat gesprek, 11,3% fout heeft. Als je zelf in dat gesprek deelneemt zal je foutenpercentage lager zijn omdat je de context veel beter begrijpt en de feedback over en weer rechtstreeks gericht is op jou / van jou afkomstig :)
Nu nog beschikbaar maken op Windows 10..
Als je je systeem op US zet zou het moeten werken. Ik heb zelf de taal, localisation en locatie op US gezet en geniet nu van Cortana.
Goed om te weten dat dat werkt. Persoonlijk vind ik het nogal onzinnig dat MS niet gewoon beschikbaar stelt, maar dit afhankelijk laat zijn van locaties.
Ik heb er dan vrij weinig aan om aan cortana te vragen tot hoe laat de dichtsbijzijnde supermarkt open is bijvoorbeeld..
Je hoeft je locatie(region) sinds de Anniversary Update niet meer te veranderen, alleen wel de taal van je systeem en de taal van Cortana. Regio kan je gewoon Nederlands houden.

En hoewel ik het nog niet zelf geprobeerd heb, is er best een grote kans dat vragen voor de openingstijden voor de dichtstbijzijnde supermarkt gewoon werkt. Uiteraard moet je het wel in het Engels vragen.

edit: Even getest. Het werkt voor mij :)
http://i.imgur.com/IsrGYL0.png

[Reactie gewijzigd door DdeM op 19 oktober 2016 13:51]

Je hoeft je locatie(region) sinds de Anniversary Update niet meer te veranderen, alleen wel de taal van je systeem en de taal van Cortana. Regio kan je gewoon Nederlands houden.
Hoe doe ik dat op Windows 10 Mobile?

Vraag me wel af of Cortana een Schot of Ier die in het dialect praat ook even goed zal verstaan.
Ik geloof op dezelfde manier.

Instellingen -> Time & Language -> Language - Zorg dat Engels de eerste taal is (ik heb English(United States)

Als het goed is kan je dan in het zoekmenu Cortana activeren, of ze ging automatisch aan, dat weet ik even niet.

Wat ik wel weet, en dit is echt heel stom, is dat 'Hey Cortana' op WM10 nog wel regio gebonden is.
Dan is er maar één manier om daar achter te komen :9
Je kan je locatie gewoon op je echte land laten staan, het enige wat je moet veranderen is de taal. Cortana werkt locatie-onafhankelijk.
Dankzij de Anniversary Update wel ja :) ik heb het nog ingesteld voor die update, en ben te lui om mijn locatie terug te zetten.
Is er een Microsoft alternatief voor Dragon Naturally speaking of is dit enkel voor Cortana?
Ik weet niet wat Dragon Naturally speaking is, maar bedoel je zoiets als de Bing Speech API?
Hartstikke knap dat ze daar koploper in zijn, een natural interface (zoals spraak) is imho veel fijner werken voor sommige zaken dan alles maar te moeten typen (bijvoorbeeld mailing). Wat ik dan ook betreur is dat de uitrol naar/ondersteuning voor andere talen zo lang duurt.

[Reactie gewijzigd door stverschoof op 19 oktober 2016 13:09]

Daar ben ik het volmondig met je eens. Het blijft eigenlijk van de zotte dat Cortana (dé grote feature van W10) nog steeds niet werkt voor een enorm deel van de wereld. Hetzelfde geld voor Google waarbij Google Now (en nu Assistant) nog steeds driekwart van de functie niet heeft voor een taal anders dan het Engels.
Is het niet zo dat de AI opnieuw moet getrained worden per taal?
Dus eerst alle woorden als tekst ingeven (vrij snelle copy paste zou ik denken), maar ze dan ook nog allemaal inspreken, zodat de AI ook het geluid van de woorden herkent en dan nog alle grammatica regels toepassen?

kruipt wel wat tijd in denk ik :)
Denk dat dit het probleem is. Overigens verwacht ik niet dat er ooit een NL ondersteuning komt (áls die er al komt) met dezelfde transcriptiecapaciteiten als de Engelse variant.

Niet dat het mij boeit, 'gewoon' Engels is prima wat mij betreft.
Gewoon engels qua spraak vind ik zelf ook geen probleem. Is alleen wel jammer dat Cortana nog niet in alle gevallen nuttig is in Nederland.

Alhoewel ik moet zeggen dat Navigatie wel geweldig is met Cortana omdat ze alle straatnamen uitspreekt . Haar Nederlands is in dat opzicht best goed :P
Taalherkenning is -niet geheel onverwacht- taal afhankelijk.
Er komt echt meer bij kijken dan alleen even trainen voor nederlands.
Helaas.
Is het niet zo dat de AI opnieuw moet getrained worden per taal accent?
Fixed it for you. ;)

Talen mogen dan wel heel erg op elkaar lijken zoals het Amerikaans Engels en het Brits Engels, maar er is nog steeds een hoop werk aan, simpelweg om die 2 haast "identieke" talen te kunnen verstaan. En dan hebben we het nog niet over accenten.
Als deze diensten echt belangrijk worden maar enkel goed draaien in het Engels, is dit misschien een opportuniteit voor de rest van het Westen om Engels te leren en te standaardiseren op één taal.

Nationale talen zijn inefficiënt en behoren eigenlijk niet meer te bestaan.
Ik lees dit soort sentimenten wel vaker op Tweakers, misschien volkomen logisch voor beta's maar voor mij echt een schrikbeeld. Ik geef toe dat verschillende talen voor communicatieproblemen zorgen tussen mensen, maar daar staat tegenover dat dit ook bijdraagt aan de cultuur van een land, een eigen identiteit en een net andere manier van denken en doen. Hieruit komen ook weer andere ideeën en concepten die we delen met de rest van de wereld. Het leren van een taal vind ik niet alleen leuk maar ook een verruiming van m'n denkkader. Ik moet er niet aan denken dat iedereen dezelfde taal spreekt. En eh..niet dat jij dat nu beweert maar ik vraag me ook af waarom Nederlanders zo weinig van hun eigen taal houden. Dat het een relatief kleine taal is vind ik geen argument, zou ook een trotse spreker van het Luxemburgs zijn :). Kortom: ik zou het volkomen normaal vinden als Cortana straks Nederlands spreekt en verstaat.
lol toch raar dat mijn amsterdamse accent dan beter in chrome werkt als in Windows cortana. Ook de functies en koppeling laten nog heeeeel veel te wensen over helaas. Maar ik gebruik het wel in de huiskamer via een logitech 930 fullhd camera.
\
ahw ff update de nieuwe Windows 10 Insider Preview 14946 uitvoeren%

[Reactie gewijzigd door Black.Knight op 19 oktober 2016 13:19]

Cortana is toch niet beschikbaar in het nederlands?
Nee, maar wel in Nederland. Alles wat je hoeft te doen is je Windows op Engelse taal zetten (regio mag NL blijven) en dan kan je in Cortana ook Engels instellen als de te gebruiken taal.
Ja klopt dat wel, zijn er plannen voor Nederlandse taal?
Het lijkt er wel op, maar zeker niet binnen afzienbare tijd.

"Ondersteuning voor het Nederlands is nog wel ver weg, erkent hij. "Nederlands is een hele moeilijke taal." Machine learning helpt om Cortana nieuwe talen te laten begrijpen op basis van bestaande, maar het kan tot meer dan een jaar duren voordat de digitale assistent ook maar een beetje begrip heeft van een nieuwe taal, stelt hij." - https://tweakers.net/nieu...omt-wel-naar-benelux.html
Hmm jammer google kan het toch ook :?
Google now is ook 2 jaar ouder. En daarnaast wordt google als zoekmachine al ruim een decennium gebruikt in het Nederlands qua tekst, dus daar kunnen ze ook al veel uit halen.
Neem aan dat er nog geen begrijpend lezen in zit? In verband met fout correctie. Wanneer men spreekt, en men spreekt een ander woord uit wat er op lijkt heeft een luisteraar dit vaak geeneens in de gaten. Dit wordt automatisch gecorrigeerd in je hersenen. We horen vaak iets anders dan dat we denken te horen.

Mooi voorbeeldje (in dit geval i.c.m. beelden, maar zelfde principe, autocorrectie van het audio signaal dat we ontvangen) https://www.youtube.com/watch?v=G-lN8vWm3m0

Dit lijkt me een mooie vervolg stap voor ze :)

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True