Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 76 reacties
Bron: Ace's Hardware

Ace's Hardware brengt ons weer wat interessante feiten rechtstreeks vanaf het IDF, gebaseerd op een gesprek met Dr. Wilfred Pinfold, het opperhoofd van de Intel microprocessor research labs. Pinfold vertelde in het gesprek dat er gewerkt wordt aan een revolutionair spraakherkenningspakket, dat niet alleen in staat zou zijn om de spraak uit al het achtergrondgeluid te filteren, maar ook gebruik maakt van geavanceerde algoritmes om slecht verstaanbare of haastig uitgesproken woorden te herkennen in het juiste zinsverband. Intel heeft als doel om de ultieme vorm van spraakherkenning te ontwikkelen, waarmee het mogelijk wordt om rechtstreeks tekst op het scherm te praten, zonder dat je overdreven en langzaam moet articuleren met een microfoon recht onder je neus.

Een processorgigant die zich met software bezig houdt klinkt misschien vreemd, maar het verband is toch vrij snel gelegd: er zal veel processorkracht nodig zijn om spraak met dergelijke nauwkeurigheid te herkennen, en hoe meer mensen behoefte hebben aan processorkracht, hoe meer processors er verkocht zullen worden. Gebruiksvriendelijke en vooral goede spraakherkenning werd altijd al gezien als een potentiële "killer app" - een toepassing die de hele markt een positieve impuls kan geven - en Intel heeft daarom besloten om niet langer te wachten tot iemand anders met een pakket van dergelijke kwaliteit zou komen. Een andere reden is dat de software ontworpen is om optimaal gebruik te maken van SSE3 - en in mindere mate zelfs andersom. SSE3 zal voor het eerst verschijnen op de 90nm Prescott core die het halverwege 2003 van Northwood zal overnemen.

Intel research
Moderatie-faq Wijzig weergave

Reacties (76)

Ik ben altijd sceptisch over spraak-herkenningstechnologie. Een goed afgestelde desktop/interface werkt m.i. altijd vele malen sneller dan gesproken commando's. Ik kan surfen, mailen en msn-en tegelijk met muis en toetsenbord, probeer dat maar eens te spreken.
Hoogstens de lopende toepassingen hebben er baat bij, samen met de WiFi post hiernaast.
Ik denk ook dat spraakherkenning het typen niet kan vervangen. Als je alleen documenten schrijft misschien wel, maar zelfs dan heb je allerlei rare dingen nodig om onderscheid te maken tussen de tekst "Opslaan" en een commando "Opslaan", "1" versus "één". Al is het natuurlijk handig voor mensen die langzaam typen, of die simpele documentent maken (probeer eens een tabel met opmaak zodanig te omschrijven dat iemand anders een identieke tabel aanmaakt zonder jouw tabel te hebben gezien).

En vooral as het spraak in de achtergrond kan oppikken is het erg leuk, dan kan iemand gewoon langslopen, "Hallo" roepen en je moet weer rommel uit je document verwijderen. Of een grapjas kan langslopen en "Computer uit" schreeuwen of zo :).
Spreadsheets, programmeren, browsen zie ik niet zo gauw spraakgestuurd zijn (zie je jezelf al internet-adressen spellen of een commando geven als "ga naar de link op de regel na 'Ja, dat staat hier:'"?).

Dat startrek gedoe is leuk en aardig, maar wie wil er nou in een lift roepen "naar de zesde" i.p.v. op het knoppie te drukken? En wat nou als het een buitenlandse bezoeker is die geen nederlands spreekt? Naaaah.
maar wie wil er nou in een lift roepen "naar de zesde" i.p.v. op het knoppie te drukken?
Ik zou verder door denken. Stel je een flinke flat voor met honderden bewoners. Je hebt geen idee welke etage de persoon ook al weer woont. Gewoon tegen de lift de naam van de persoon zeggen en hij gaat naar de correcte etage.
Een tijd geleden was er volgens mij een artikel verschenen waarin werd beweerd dat abstract denken en praten tegelijk niet goed samen zouden gaan.

Dus bepaalde applicaties (excel?) en voicecommando's zouden niet makkelijk te combineren zijn voor de mens. Als ik me niet vergis had het wat van doen met hersenhelften. :?

Heeft iemand hier een link naar? Het was geloof ik zelfs nog gepost hier op tweakers.
Ja, dat staat hier:
http://www.tweakers.net/nieuws/21751

Het blijkt nogal moeilijk te zijn om te praten en te denken tegelijk. Zegt misschien iets over mensen die veel praten? }>
Dat geldt vooral voor mannen. Vrouwen kunnen meersporig denken en voor hun is dat geen probleem. Mannen denken 1-sporig dus denken en praten tegelijkertijd wordt lastiger.


note: dit geldt alleen voor 100% mannenhersenen en 100% vrouwenhersenen (komt niet zo heeeeel veel voor )
Uiteindelijk zal je dan toch een andere ongeving moeten hebben om je verhalen te maken. Als je iets uit excel wil hebben dan zal je de database moeten invoeren, bij voorkeur met de hand en met OCR, denk ik.
Als je vervolgens met die database iets wil dan moet dit in de trant van:
Computer, bereken het totaal aantal postings gedeeld door de gemiddelde waardering verrekend met de karma en de tweakotine.
De uitkomst is dan iets van Tweakeroid. :)

Tegen de tijd dat het zover is ga ook ik over op praten in plaats van tikken. ;(
Je hebt helemaal gelijk, met spraakherkenning ben je er nog niet. Het is gewoon een andere human-machine interface zoals het toetsenbord en de muis.

Echt handig zou het pas zijn als gesproken taal "begrepen" wordt. Als ik aan de computer vraag hoe warm het is in Parijs, dan wil ik geen Google-search-results pagina te zien krijgen in een browser venster, maar gewoon een simpel antwoord.

"Draait er nog een leuke film vanavond in de bioscoop?". De computer moet weten welke ik al heb gezien, waar ik van hou, waar ik woon en hoever ik bereid ben om te rijden, of er nog kaartjes zijn, desnoods checkt ie of ik nog genoeg geld heb en of er genoeg benzine in mn auto zit.

Ofwel, gewoon een goede, digitale secretaresse.
je bent sceptisch over spraak-bestuurde GUIs bedoel je dus .. en dat ben ik zelf ook.. maar als jij bijvoorbeeld je huis kan besturen met spraak is dat wel superhandig... niet meer 3 afstandbedieningen en lampeknoppen etc... prettig toch ?
Voor het besturen van een huis is zoveel cpu-kracht niet nodig... dat gaat met eenvoudige commando's die je al een aantal keren ingesproken hebt waarna de software ze (hopelijk) feilloos detecteert.... bij het verwerken van hele zinnen moet de PC veel en veel harder werken.

Dat kon al met een pentium 133 en waarschijnlijk zelfs nog met minder...

Bovendien, nergens meer voor moeten uit de luie zetel komen... nee dank je, op den duur zou een mens doorligwonden krijgen ;)
Tja, jij hebt beide ogen, handen, oren, etc nog.. Maar mensen die hier wat (of gedeeltelijk) van moeten missen kan het natuurlijk erg handig en neemt voor hun de gebruiksersvriendelijkheid sterk toe (zeker voor mensen waarvoor het lastig is om een toetsenboord of muis te gebruiken).

Het is natuurlijk ook maar wat je gewend ben. Ik zou nu ook niet naar een ander office-pakket willen overstappen omdat ik dan gelijk niet meer weet waar ik alles kan vinden.

Verder zie ik spraakherkenning niet zo snel door veel bedrijven gebruikt worden. Het is misschien alleen handig als je een eigen kamer hebt, maar als je met z'n zessen op 1 kamer zit (zoals hier) wordt het toch lastig als iedereen tegen z'n kompjoeter zit te ouwehoeren..
Voordeel spaakherkenning: minder RSI
Nadeel spraakherkenning: meer stembandaandoeningen

hier is al eens een onderzoek naar gedaan door TNO geloof ik...

spraakherkenning kan handig zijn voor ERBIJ, maar alles met spraak doen is in elk geval geen optie...

of je moet weer een computer hebben die begrijpt wat je zegt ("print de interessante tweakers.net nieuwspagina's van vandaag")
Hmm.
Mag jij mij uitleggen hoe je tegelijkertijd die focus in al die windows behoudt en tegelijk typt voor een mailtje en voor chatten.
Niks Beamen, Scotty !

Uitgesproken tekst die direct op het scherm verschijnt komt echt orgineel uit Battlestar Galactica..
Adama die in zijn logboek kletst :)
...maar ook gebruik maakt van geavanceerde algoritmes om slecht verstaanbare of haastig uitgesproken woorden te herkennen in het juiste zinsverband.
Vooral dat laatste is erg interessant.. Hoe laat je computers context begrijpen. Een van de kernvragen van de AI: Het zogenaamde frame probleem.
Ik ben benieuwd hoe ze dit realtime gaan oplossen, zonder dat een prgramma eerst getraint moet worden.. Want als je eerst moet gaan lopen trainen, dan wordt het geen killerapp..
Hoe laat je computers context begrijpen. Een van de kernvragen van de AI: Het zogenaamde frame probleem.
Euh. Nee. Tis wel leuk in AI, maar het is niet het frame probleem. Het frame probleem heeft iets paradoxaals het gaat namelijk om de vraag hoe een computer kan bepalen wat relevant (niet relevante dingen aandacht geven maakt 'em te traag) is zonder van alles te controleren of het relevant is (maakt 'em ook te traag). Je zou dus eigenlijk je computer alleen de relevante dingen relevant moeten laten vinden... :-) juist.

Context is veel simpeler. Bij context verandert de betekenis van je zin/woord gewoon in de buurt van andere zinnen/woorden. Wel een enorm practisch probleem, maar veel minder een filosofisch, en dus makkelijker.
De veronderstelling die je dan wel maakt is dat de opbouw van de zin de complete context definieert, terwijl dit vak nonverbale uitdrukkingen zijn, die de context aangeven ..... en om dat te detecteren ....
Uitgesproken tekst die direct op het scherm verschijnt komt echt orgineel uit Battlestar Galactica..

Bij spraakherkenning denk ik eerder aan HAL.

Ik betwijfel of ze snel real-time context gaan herkennen,
moet je maar eens context-sensitive help aanzetten bij
een gemiddeld programma (dat al een minimale context heeft),
en dat resultaat extrapoleren naar de wereld...

Het lijkt me typisch een probleem voor heel veel kleine (parallelle) patroon herkennings processen, dus meer iets voor een kist vol hele simpele cpu's dan een intel bakbeest (of ze moeten daar een berg 8086's in een enkele die gaan persen).
Uitgesproken tekst die direct op het scherm verschijnt komt echt orgineel uit Battlestar Galactica..
Adama die in zijn logboek kletst
Euh, Star Trek is midden/eind jaren 60 begonnen. Battlestar Galactica is gemaakt in, als ik het goed heb, 1979 en 1980.
offtopic:
.. en met welke ST serie leggen we hier de vergelijking?... vind die van de originele series nou niet zo geweldig en volgens mij zijn we daar al ruim voorbij,
en als ze die van The Next Generation ea. series bedoelen hoop ik echt dat ze eerst "Star Trek-achtige" processors gaan uitvinden.


Intel is daarmee op een goede weg al moet ik zelf zeggen dat ik niet meer impressed ben van de mogelijkheid een documentje te dicteren. Nee.. volgens mij wordt spraakherkenning pas een killerapp. als je echt kan communiceren met je pc: "Computer, zoek via Kazaa de nieuwe cd van Blaat op".

Dicteren op een computer doen ze in Star Trek ook nauwelijks.. zij gebruiken gewoon videomails/logs en voeren lange teksten op padds in. Zij gebruiken spraakherkenning voornamelijk voor waar het zou moeten zijn: 2-weg communicatie met de computer.
laat me raden, dat stukkie software gaat alleen op intels werken :D
Hoeft niet... het zal door de SSE3 alleen sneller werken op een Intel CPU.
Intel zal heus wel zo slim zijn om de software _afhankelijk_ te maken van SSE3, al hoeft dit in beginsel niet.
Software die per se alleen met SSE3 snijdt twee kanten van het mes, in plaats van alleen maar de software-verkoop-kant.
In het begin wel ja.. AMD moet eerst een licensie op SSE3 nemen/krijgen.[ik weet niet hoe dat precies gaat..]
Intel heeft wel een punt.. er is steeds minder reden om een dikke vette cpu te kopen, behalve games..
Ze moeten wel iets nieuws verzinnen anders blijft iedereen lekker surfen op ouwe bakken...
Waarom maken ze die nog met software?

Is het niet makkelijker en sneller om de software hardmatig te maken (Dus een onderdeel van je processor) en daarbij een koppeling naar je woordenDB.

Dat kan intel in de toekomst dan wel weer makkelijker doen als het eenmaal volgroeid is.
Als het maken van deze toepassing softwarematig niet lukt, zal het hoogstwaarschijnlijk hardwarematig ook niet lukken.

Maar in feite gaat het hier zoals altijd om het volgende: GELD.

Software = goedkoop. Hardware = duur.
Er zal nooit zomaar lichtzinnig worden omgegaan om software-oplossingen hardwarematig te implementeren, hierbij komt natuurlijk ook kijken dat je hardware niet zomaar kunt upgraden, software gaat veel makkelijker.
Dat is nog steeds softwarematig. Dat het in een chip zit wil niet zeggen dat het geen programma is. Het si alleen een programma wat je niet meer kan veranderen
Beam me up scotty :))
of is dat northy(wood)
[behoorlijk offtopic]

"Beam me up, Scotty" wordt nooit in de serie en films gezegd.. waar zou die quote toch vandaan komen?
Iedereen, ook de mensen die niet van Star Trek houden kennen het.. echt heel vaag. (8>

[/behoorlijk offtopic]
Nou, vooruit dan. Het komt uit een rechtszaak in Amerika. Gedaagde voelde zich zo onbegrepen en zijn advocaten en rechters van de werkelijkheid vervreemd dat hij in wanhoop uitriep:" Scotty, beam me up".

Het is een nogal gevleugelde uitspraak geworden. Voral in situaties waarbij men zich op een vreemde planeet waant, is alleen duidelijk niet van een 'trekkie'.

Oh ja, het was wel Mr Scott die in de fim (waarbij ze voor een missie naar de 20e eeuw terugmoesten om de laatste walvis te redden) uitriep "A keyboarrrd?! How quaint."
Dus de link van Mr Scott met spraakherkenning is wel treffend. Star Trek is altijd al zeer baanbrekend geweest in het voorspellen van doorbraken in wetenschappelijke toepassingen (mobiele telefoon bv.).
Eeeh, ik zag laatst een original StarTrek film en daar werd het wel degelijk in gezegd...
Nope, dat was "Scotty, beam me up." :+
[Ver van het topic]
normaal wordt er gezegd: Beam me up, Mister Scott.
[/ver van het topic]
{way out there}

Shto Vakh Porrgh!
very funny, now beam up my clothes :+
lijkt me knap vervelend eigenlijk....
ben je druk bezig, komt er ff iemand binnen lopen die je wat wil vragen gebeuren er opeen vreemde dingen op je computer omdat je vergeten bent om die spraak herkenning tijdelijk lam te leggen.
Als die spraak module goed werkt haalt hij uit de context dat het niet voor hem bedoeld is.
maar ook gebruik maakt van geavanceerde algoritmes om slecht verstaanbare of haastig uitgesproken woorden te herkennen in het juiste zinsverband.
Oftewel, er moeten weer 'ranks' worden toegekend aan de stemmen...

Zodat een hacker die toevallig op bezoek is in een rekencentrum, niet in staat is om de boel te ontregelen...

"Computer, Eject warp-core!"
"Computer, Delay that order!"

Dat wordt dan leuk, overal waar een PC in de woonkamer staat, vrouwen/vriendinnen/lastige kinderen, die het niet kunnen hebben dat man/vriend/palief achter de bak zit....

Hij: "Computer, internet, www.ranzigepr0nsite.com!"
(Fluisterend natuurlijk)
Zij: "Computer, raise pr0nshields, and erect a level 6 forcefield around keyboard!"

EDIT: no phun intended met die "erect" }>
Je moet juist denken aan multifunctioneel werken. Zelf had ik freespeech 2000 en je moet proberen meerdere dingen tegelijk te doen wat helaas niet kan met windows. Probeer maar eens met je hand te tikken en te internetten tegelijk!


is niet zo moeilijk hoor

de nadeel van windows is dat je maar een ding te gelijk kan doen

zoals type in internetten

maar als je twee apparte bureaublad heb dan is het wel mogelijk om twee dingen te gelijk te doen .


verder onder deulhead monitors kan je op een de film weer geven terwijl je op de anderen internet

wel dit kan je ook vervangen als je gewoon zegt

speelfilm af op monitor 1
internet op monitor 2

en als de software er goed is dan kan je ook zeggen

www.tweakers.net .

terug naar exel (en dat wat je wilt type?)
Valsspeler, je hebt gelijk maar als ik bijv. zeg start word en ik ga dicteren kan je lastig onder windows ondertussen bureaublad2 internetten met muis. Met wat rare software kan je mischien wel op 2 vensters focussen ofzo. Maar met 2 monitoren is dat wel handig idd.
Je moet dan je spraakherkenning aan een app vergrendelen (Word) en dat evt. later weer releasen.
Zo zie je maar weer dat er stevig gewerkt wordt aan dit soort technieken. Eerder vandaag al de nieuwe Tablet PC Edtion van Win XP waarbij je de pc kunt dicteren door middel van handgeschreven tekst en nu zelfs oraal dicteren. :) Het gaat de goede kant op, want dit komt de efficiency binnen bedrijven natuurlijk enorm ten goede als het goed werkt. Er gaat namelijk veel meer tijd zitten in het typen van een tekst dan in het voorlezen ervan denk ik.
...en nu zelfs oraal dicteren...
help me even: zijn er andere vormen van dicteren dan oraal :?
Winden laten in morse-code, anaal dicteren :)
Is ook heel handig in ziekehuizen. Dokters die een diagnose aan het stellen zijn doen dit nu in een dictafoon en laten dit daarna uittypen door hun secretaresse.

Als de computer die gesproken tekst direct intypt spaart dit veel tijd uit.
Ja, dan krijg je als patient zoiets opgestuurd:

"U lijdt aan een aparte vorm van... ha Dorien, lekker koffie. Zit er al suiker in. Huh.. was dat nu? Nee... k*t! Terug, terug!! Bek spees!! Help...nou nou. Ehmmm. Kont rol alt die lied. F*ck! Kresh niet, kresh niet!!......"

:P

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True