Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 108 reacties

In de film 'Her' wordt de hoofdrolspeler verliefd op zijn besturingssysteem. De software kent en begrijpt hem volledig, en communiceert met hem op een wijze die hij als ideaal ervaart. Wie Microsoft tijdens zijn Build-conferentie hoort praten over de persoonlijke assistent Cortana, kan voorzichtige parallellen trekken met de Hollywood-film.

De ceo van Microsoft, Satya Nadella, benadrukte tijdens zijn openingskeynote dat Cortana 'een persoonlijke digitale assistent is die jou kent, je wereld kent en altijd bij je is, op al je apparaten'. Paul Bloom, product lead bij het Cortana-team zei het tijdens een sessie later nog wat explicieter: "Cortana begrijpt de gebruiker op een diep niveau. De ervaring met Cortana is voor iedere gebruiker anders. Cortana begrijpt zijn agenda, voorkeuren, interesses en context, en gebruikt die informatie om gepersonaliseerde ervaringen te bieden."

Dat Microsoft nog wel wat te leren heeft over de ontwikkeling van kunstmatige intelligentie bleek voorafgaand aan Build. Het leek zo'n goed idee om een chatbot op Kik, Twitter en GroupMe los te laten, maar binnen de kortste keren begon de 'virtuele vriendin' racistische en beledigende uitspraken te doen, users te spammen en te verklaren dat ze wiet had gerookt waar de politie bij was. Ook bij een nieuwe poging bleek Tay, een acroniem voor 'thinking about you' volledig te ontsporen. Nadella erkende dat Microsoft terug naar de tekentafel moet. "We willen technologie die het beste van de mensheid biedt, niet het slechtste."

Tay chatbot
Ondanks dat incident maakte Microsoft duidelijk dat kunstmatige intelligentie, bots en in natuurlijke taal met computers communiceren de toekomst zijn. Sterker nog, het bedrijf presenteerde een aantal stelregels: natuurlijke taal is de nieuwe userinterface, bots zijn de nieuwe apps, digitale assistenten zijn meta-apps annex nieuwe browsers en aan alle interactie moet intelligentie te pas komen. Microsoft noemt de intelligente mogelijkheden om digitaal met elkaar en met computers te communiceren met een marketingterm 'conversations as a platform'. Dit platform zou zich tot voorbij Windows moeten uitstrekken; Microsoft wil op dit gebied ook een rol spelen bij iOS en Android.

Een van de eerste uitwerkingen van die visie betreft een verbetering van Cortana in Windows, die we op Engelstalige versies van het besturingssysteem in de zomer ook in Nederland en België kunnen gebruiken, als de Anniversary Update van Windows 10 uitkomt. Cortana zit dan op je lockscreen te wachten op een conversatie met je, en suggereert bijvoorbeeld vragen die je zou kunnen stellen. Stel je een dergelijke vraag, dan kan de assistent deze beantwoorden, ongeacht of je bent ingelogd. Naast vragen stellen kun je ook muziek laten afspelen. Dezelfde functie moet naar Cortana op Android komen. Wat precies allemaal vanaf het lockscreen kan, maakte Microsoft niet duidelijk. Het lijkt niet wenselijk dat onbevoegden bij informatie op je systeem zoals je agenda kunnen, maar over de beveiligingsrestricties liet Microsoft maar weinig los.

Cortana op lockscreenCortana op lockscreenCortana op lockscreen

Cortana krijgt namelijk wel verregaande integratie met de agenda van de gebruiker. De assistent kan automatisch afspraken inplannen op basis van e-mails en herinneringen sturen over afspraken. Ook demonstreerde Microsoft hoe je als gebruiker een bericht, binnengekregen via Android, via de pc kunt beantwoorden, waarna Cortana een afspraak in dat bericht automatisch als dubbele meeting herkent. De assistent stelde daarna een wijziging voor en paste de gevolgen van de wijzigingen voor de agenda direct aan.

Cortana en OutlookCortana en OutlookCortana en OutlookCortana en OutlookCortana en Outlook

Voor de nieuwe afspraak kreeg de gebruiker suggesties voorgesteld wat locatie, eetgelegenheid en mogelijke activiteiten betreft. Voor die suggesties raadpleegt Cortana experts: apps die persoonlijke aanbevelingen doen over bijvoorbeeld eten en eventueel ook een bestelmogelijkheid bieden. Ontwikkelaars van die apps krijgen de mogelijkheid om hun app actief te laten inspelen op conversaties met Cortana. Een vraag over een locatie die de gebruiker tijdens een eerdere reis heeft bezocht, zoals een restaurant waar hij ooit goed heeft gegeten, kan zo bijvoorbeeld een routebeschrijving, taxibestelling of belmogelijkheid opleveren.

Om de nieuwe 'intelligente' eigenschappen van Cortana te benadrukken heeft Microsoft de naam van zijn achterliggende ontwikkelplatform voor de assistent aangepast van Cortana Analytics Suite naar Cortana Intelligence Suite. De suite vormt de schakel tussen data en de uiteindelijke apps en diensten, en zou 'intelligentie' toevoegen, waarmee Microsoft natuurlijk inkomsten probeert binnen te halen. Tijdens Build zijn twee nieuwe onderdelen aan deze suite toegevoegd: Microsoft Cognitive Services en Microsoft Bot Framework.

Microsoft Intelligence SuiteMicrosoft Cognitive Services bestaat uit 22 api's die ontwikkelaars kunnen gebruiken om hun apps eigenschappen te geven op het gebied van spraakherkenning, beeldherkenning, vertalingen en zoeken. Ontwikkelaars kunnen bijvoorbeeld een emotie-api gebruiken voor hun app om te herkennen of de gebruiker blij, verdrietig, verbaasd of geïrriteerd is. Dit kan handig zijn om inzicht te krijgen in de reactie van gebruikers op diensten, maar is bijvoorbeeld ook in te zetten om avatars te laten reageren op de gebruiker.

Cortana Intelligence Services

Het Bot Framework geeft ontwikkelaars de tools om chatbots te ontwikkelen voor onder andere Slack, Skype, Office 365, WeChat, Line, e-mail en sms. Een BotBuilder-sdk is hiervoor beschikbaar gemaakt op GitHub.

Dergelijke chatbots bestaan al langer voor onder andere Slack en Telegram, en ook bij nieuws-apps heeft de conversatievorm zijn intrede gedaan, met de komst van de app van Quartz. In zijn eenvoudigste vorm ontvangt een dergelijke bot een tekstbericht, voert een handeling uit en stuurt een bericht terug. Microsoft maakt het mogelijk om bots via een Bot Connector verbinding te laten maken met verschillende diensten. Een koppeling met Cortana zorgt ervoor dat deze persoonlijke assistent er een bot bij kan halen als uit de conversatie blijkt dat een dergelijke dienst wellicht gewenst is. Bovendien kunnen die bots, dankzij de beschikbaarheid van geavanceerde cognitieve api's, eigenschappen krijgen die voorheen alleen toegankelijk waren voor grote softwarebedrijven als Microsoft zelf.

Microsoft Bot FrameworkMicrosoft Bot FrameworkMicrosoft Bot FrameworkMicrosoft Bot Framework

Microsoft demonstreerde een vergaande uitwerking van het botplatform met Skype. Cortana is bij Skype linksboven aan het scherm beschikbaar, wachtend op conversaties en chats om die te analyseren, en na te gaan of er wellicht suggesties gedaan moeten worden. Bij de demonstratie liet Cortana de gebruiker weten dat een Cups and Cake-bot de assistent had laten weten dat er een bestelling klaarstond om opgehaald te worden. Vervolgens stelt Cortana de vraag of de bestelling gevolgd moet worden en geeft ze een geschatte levertijd. Cortana vervangt dus de interactie met de bot door met een dialoog de stappen te doorlopen.

Skype BotsSkype BotsSkype BotsSkype Bots

Skype BotsSkype BotsSkype BotsSkype Bots

Omgekeerd kunnen ontwikkelaars van bots voor Skype Cortana actief suggesties laten doen, bijvoorbeeld door hotels voor te stellen bij een conversatie over een komende reis en boekingen via de hotelbot te laten verlopen. Cortana heeft dan de details al doorgegeven aan die bot, zodat de boeking sneller doorlopen kan worden. Binnen Skype kunnen gebruikers zien welke bots aanwezig zijn door op een robotlogo te klikken en ook kunnen ze hier naar nieuwe bots zoeken.

Skype BotsSkype Bots

Microsoft demonstreerde tijdens Build Skype-bots die beelden op foto's kunnen herkennen, beelden kunnen manipuleren, zoals gezichten op andere personen zetten, nieuwsberichten kunnen plaatsen op basis van conversaties, muziek kunnen afspelen, enzovoort. Allerlei functionaliteit waarvoor gebruikers nu nog afzonderlijke apps nodig hebben, verloopt straks via communicatietools, is de gedachte. Dat begint met tekst, maar houdt daarmee niet op, claimt het bedrijf. Op termijn moet de gebruiker via audio en beeld dezelfde conversatiemogelijkheden krijgen. Skype toonde een voorproefje met geanimeerde bots.

Microsoft stelt dat de combinatie van bots en Cortana chats productiever en efficiënter maakt, maar dat lijkt voor een groot deel af te hangen van de manier waarop de bots zijn geprogrammeerd. Een al te opdringerige commerciële bot kan conversaties juist ernstig frustreren, helemaal als het er meer worden. Wie bij een gesprek over het weer wordt lastig gevallen met bots die hem reizen naar de zon proberen aan te smeren, zal ze al snel willen uitschakelen. Er staan nog veel beveiligings- en privacyvraagstukken open die Microsoft onbeantwoord liet tijdens Build. Is wel zichtbaar genoeg welke bots in groepschats meeluisteren? Hoe transparant zijn de werking en de toegang tot persoonlijke gegevens? Gaat Microsoft alle bots controleren?

Microsoft benadrukte dat ontwikkelaars, en daarmee gebruikers, zich moeten voorbereiden op een toekomst waarin kunstmatige intelligentie een grote rol speelt in vrijwel elke digitale ervaring die mensen hebben. Het begin daarvan werd zichtbaar gemaakt tijdens Build. Het bedrijf verwacht dat we op het punt staan om op een andere manier met onze systemen te communiceren. "Tot nu toe verliep de interactie met machines op hun voorwaarden", zegt Greg Sullivan van de Windows & Devices Group. "Typ een letter verkeerd in een url en je komt niet op de pagina die je wil", geeft hij als voorbeeld. "Wat nu gaat komen is dat de interactie met computers meer gaat verlopen zoals die met mensen."

Microsoft staat niet alleen met deze visie, maar door zich zo nadrukkelijk op zijn persoonlijke assistent in combinatie met bots te richten, maakt het bedrijf duidelijk dat het de boot niet wil missen. Op het gebied van mobiele apps speelt Microsoft nog altijd een marginale rol, dus is het logisch dat Microsoft de bots als nieuwe apps naar voren schuift. Het is wel de vraag of het bedrijf niet overhaast handelt, want er staan nog veel beveiligings- en privacyvraagstukken open, en het mislukte experiment met chatbot Tay toont aan dat kunstmatige intelligentie amper in de kinderschoenen staat.


Door Olaf van Miltenburg

- Nieuwsco÷rdinator

Olaf werkt sinds begin 2007 bij Tweakers en snapt als geen ander wat nieuws is. Hij heeft een voorliefde voor computers, internet, wetenschap en techniek en gebruikt die kennis sinds 2008 dan ook in zijn rol als nieuwsco÷rdinator. Ook test Olaf nog regelmatig zelf laptops en bezoekt hij internationale beurzen om op de hoogte te blijven.

Volg Olaf op Twitter
Moderatie-faq Wijzig weergave

Reacties (108)

Ik denk zelf ook dat het kunnen communiceren met de computer de toekomst heeft. Je ziet het eigenlijk al in werkelijk alle science fiction: mensen komen thuis en geven de computers opdrachten, zoals bijvoorbeeld in Star Trek. Ik voorzie echter ÚÚn probleem: het is soms gewoon irritant of onbeschoft om tegen apparaten te praten. Ik zou thuis als ik op de bank zit best tegen de computer willen zeggen welke muziek ik wil spelen of dat de lampen aan mogen, maar op straat gebruik ik de spraakfunctie eigenlijk nooit. Zie je het al voor je dat iedereen in de trein tegen zijn telefoon aan het praten is? Dat lijkt mij niet wenselijk.

In die zin is er naast de techniek ook een hoop maatschappelijk en sociaal te ontdekken aan wat wij - als mensen - gaan accepteren en wat niet. Sowieso moet er dus - wat nu ook al gebeurt - een profiel van je worden opgebouwd voordat het echt zin heeft. Een profiel wat weer misbruikt kan worden. Van de andere kant is het in feite niks anders - zoals het artikel ook aangeeft - dan een andere 'interface'. In plaats van dat je wat in de zoekbalk van je browser typt stel je nu een vraag.

Ik vind het reuze interessant in ieder geval en ik vind het leuk om te lezen dat Microsoft er zo mee bezig is. Ja het is duidelijk dat hun Twitter-bot keihard gefaald heeft, maar het heeft natuurlijk een hoop nieuwe inzichten opgeleverd. Blijf zo doorgaan zou ik zeggen.
In die zin is er naast de techniek ook een hoop maatschappelijk en sociaal te ontdekken aan wat wij - als mensen - gaan accepteren en wat niet. Sowieso moet er dus - wat nu ook al gebeurt - een profiel van je worden opgebouwd voordat het echt zin heeft. Een profiel wat weer misbruikt kan worden. Van de andere kant is het in feite niks anders - zoals het artikel ook aangeeft - dan een andere 'interface'. In plaats van dat je wat in de zoekbalk van je browser typt stel je nu een vraag.
Ik vind dit idee zo eng dat ik Cortana niet eens een kans ga geven. Waarom moet alles persee naar de servers van Microsoft/Google/etc? Zo'n AI algoritme kan prima lokaal draaien en eventueel alleen internet-specifieke zaken (lees: zoekopdrachten) doorsturen naar een server/API. Sterker nog: zo'n AI kan (los van het enorme privacy risico) veel beter lokaal draaien, aangezien je dan niet constant audio data en andere lokale data over hoeft te sturen voor analyse.

Ook de "API" die Microsoft beschikbaar stelt is wat dat betreft gewoon jammer. Alles is zo gebouwd dat alles naar Microsoft verstuurd wordt (inclusief je eigen stem en video) en alleen via Microsoft diensten werkt. Dan houdt het voor mij snel op. Als ze developer willen om hun eigen diensten sterker te maken dan huren ze die maar lekker zelf in. Ik ga daar niks voor schrijven.

[Reactie gewijzigd door GeoBeo op 4 april 2016 16:24]

Voor het beste resultaat op jouw 'zoekopdracht' is het nodig dat je profielinformatie gebruikt wordt.
Als jij zoek naar schoenen dan zijn profielgegevens als leeftijd en geslacht natuurlijk wel essentieel om je een redelijke keuze aan te bieden maar om een echte expert keuze te kunnen maken wat voor schoenen jij leuk zal vinden is het waarschijnlijk nog beter om ook te weten wat jou voorkeuren zijn qua lifestyle of te weten wat je eerdere keuzes op modegebied zijn geweest.
Voor het beste resultaat op jouw 'zoekopdracht' is het nodig dat je profielinformatie gebruikt wordt.
Als jij zoek naar schoenen dan zijn profielgegevens als leeftijd en geslacht natuurlijk wel essentieel om je een redelijke keuze aan te bieden maar om een echte expert keuze te kunnen maken wat voor schoenen jij leuk zal vinden is het waarschijnlijk nog beter om ook te weten wat jou voorkeuren zijn qua lifestyle of te weten wat je eerdere keuzes op modegebied zijn geweest.
Prima. Maar waarom moeten al die gegevens uitsluitend opgeslagen zijn bij Microsoft en niet (uitsluitend) op mijn eigen machines? Beetje omgekeerde wereld...

Denk aan: gewicht, maten, huidskleur, typesnelheid, IP, accounts, leeftijd, geslacht, fotos, gegevens van vrienden, seksuele voorkeur, lievelings porno, meest bezochte websites, type snelheid, keystrokes, audiostream van microfoon, videostream van webcam, etc etc. Er is werkelijk geen enkele reden waarom die informatie op servers van Microsoft opgeslagen hoeft te worden voor de potentiele functionaliteit van Cortana (behalve commercieel belang van Microsoft). Sterker nog: het hele boeltje zou IMO sneller en mooier werken als het niet (altijd) afhankelijk was van Microsoft servers.

Dat opbouwen van een profiel van mij kan prima lokaal op mijn eigen PC(s).

[Reactie gewijzigd door GeoBeo op 4 april 2016 17:44]

Dat alles naar MS gaat is wellicht een eng idee. Maar lokaal is simpelweg technisch niet mogelijk. Je hebt binnen een paar jaar over 10+ apparaten per gebruiker die allemaal dezelfde kennis dienen te hebben. Dan moet je simpelweg je data/profiel op een centraal en altijd bereikbare plek hebben staan.

Uiteindelijk zal het denk ik vooral een kwestie van waarde vs privacy zijn.
persoonlijk gebruik ik al jaren gmail bijvoorbeeld, kwestie van eigen keuze.

Hetzelfde geldt in de toekomst voor de suggesties van Cortana en andere oplossingen. Een hotel suggestie klinkt mij persoonlijk niet echt van waarde. Preventie van het missen van een afspraak, misschien wel. Preventie van kanker?
Dat alles naar MS gaat is wellicht een eng idee. Maar lokaal is simpelweg technisch niet mogelijk.
Onzin. Technologie uit 2014: http://bgr.com/2014/01/28...e-recognition-technology/

Als dat toen al kon dan kan dit zeker nu of in de toekomst. Sterker nog, mijn Garmin GPS navigatie systeem uit 2012 had al lokale voice recognition die niet eens heel slecht was (totaal geen verbinding naar internet nodig).

Dat er af en toe een search via internet gedaan moet worden voor "internet zaken" begrijp ik, maar dat het technologisch onmogelijk zou zijn om AI te maken zonder centrale verwerking/opslag via internet bij Microsoft (of een ander bedrijf) is gewoon onzin.
Je hebt binnen een paar jaar over 10+ apparaten per gebruiker die allemaal dezelfde kennis dienen te hebben.
Ja dus? Waarom moet die data dan op een server van Microsoft staan? Jij denkt dat het niet mogelijk is om data tussen 10 apparaten te delen zonder centrale server? Wel eens van Bittorrent gehoord? Of syncthing?

[Reactie gewijzigd door GeoBeo op 5 april 2016 16:37]

We hebben het hier natuurlijk niet over de voice recognition maar over het produceren van zinnige antwoorden. Om een AI echt slim te krijgen zal die moeten leren/dataminen etc. Dan heb je het in mijn ogen al snel over terabytes aan data die niet alleen toegankelijk moet zijn maar ook geprocessed moet worden.

Het gaat namelijk niet alleen om 'jou' profiel maar vooral om de kennis die reeds is opgebouwd obv andere gebruikers. Tenminste als echte intelligentie het doel is.

En ja er zijn genoeg opties om data tussen apparaten te syncen. Maar data kunnen syncen en overal dezelfde kennis paraat hebben is niet hetzelfde.

Het zit hem ook maar net in wat je AI noemt. Dat jou GPS obv voice simpele acties uit een zeer beperkte set features kan starten maakt het voor mij nog geen AI.
We hebben het hier natuurlijk niet over de voice recognition maar over het produceren van zinnige antwoorden. Om een AI echt slim te krijgen zal die moeten leren/dataminen etc. Dan heb je het in mijn ogen al snel over terabytes aan data die niet alleen toegankelijk moet zijn maar ook geprocessed moet worden.

Het gaat namelijk niet alleen om 'jou' profiel maar vooral om de kennis die reeds is opgebouwd obv andere gebruikers. Tenminste als echte intelligentie het doel is.

En ja er zijn genoeg opties om data tussen apparaten te syncen. Maar data kunnen syncen en overal dezelfde kennis paraat hebben is niet hetzelfde.

Het zit hem ook maar net in wat je AI noemt. Dat jou GPS obv voice simpele acties uit een zeer beperkte set features kan starten maakt het voor mij nog geen AI.
Het berekenen van transfer functions in machine learning kost inderdaad heel veel rekenkracht en heeft enorme bergen data nodig.

Het implementeren van die transfer functie (hetgeen je als gebruiker als "AI" ervaart) heeft echter amper resources nodig en kan eigenlijk altijd wel op een smartphone draaien. Voor de functionaliteit is dan ook geen constante verbinding met die "berg data" en supercomputers nodig. Hoogstens heb je die berg data & rekenkracht nodig bij het uitbrengen van een upgrade en het vernieuwen van de transfer functie(s). En hoe vaak wordt de intelligentie van Siri e.d. nou echt merkbaar slimmer? 1x per jaar wellicht? En dat is dan het argument waarom er een constante verbinding naar Microsoft en Google e.d. moet liggen? Onzin!

Dus nee, sorry. Ik ben nog steeds totaal niet overtuigd. Er is maar 1 reden waarom al je data bij Microsoft en Google staat: het belang van die bedrijven. Dus; betere marketing met data van jou en alle andere "klanten" en vendor lock-in.

[Reactie gewijzigd door GeoBeo op 6 april 2016 16:34]

En dan staat je pc uit, en mist het systeem data om je goed te helpen. Dit is maar 1 van de vele redenen waarom het niet lokaal kan. Je denkt niet na hoe het moet werken voor henk en Ingrid. Wat als je geen pc hebt? Alleen budget smartphone? Kan die alles aan denk je?
Nu is het idee om de computer de mens te laten dienen, zonder dat de mens eerst computer gaat bedienen (lokaal configuren).
Zo zou de mens zich bezig kunnen houden met het proces, ipv proces ondersteuning.

Ik vind het een logisch gevolg van Microsoft's missie "enpowering people" (zoiets iig).
Zo kun je echt software leveren als een service, en ja die host Microsoft inderdaad. Maar dan hoef je je, op papier, niet bezig te houden met bijvoorbeeld security/Uptime/scaling etc.

Ik ben het met je eens, het kost privacy, maar we zouden er ook heel veel mee kunnen winnen in Productivity

[Reactie gewijzigd door TheNymf op 4 april 2016 17:54]

Dat is denk ik wel een vorm van maatschappelijke voortgang die gaat komen. Zo heb ik mij laten vertellen dat het in China en andere landen al redelijk geaccepteerd is dat je met WeChat achtige diensten opdrachten geeft aan je telefoon.
Dat heeft met name te maken met Chinese karakters, het is een stuk eenvoudiger om spraakberichten te sturen dan tekstberichten. Dat geldt in mindere mate ook voor onze taal, maar wij voelen de noodzaak voor spraakberichten dus veel minder, en zie je het vrij weinig in Europa.
Die gaat niet over het simpel opdrachten geven, dit gaat veel verder. Ik weet niet of ik daar zo blij mee ben. Met vrienden en kennissen bepaal je zelf wat je met ze deelt. Deze computer weet straks gewoon alles van je. En dan ook echt alles. En waar laat die computer zijn data? Onedrive?

Beetje spraakcommando's OK. Dat kan nu al. Maar ik hoef niet dat de computer straks precies weet wat ik wil.m, of denkt dat ie weet wat ik wil. Ik wil zelf ook ontdekken en uitzoeken, tegen dingen aanlopen die misschien ook interessant zijn voordat een computer het er voor mij uit filtert omdat het niet met mijn parameters overeen komt. Natuurlijk kun je daar weer iets voor verzinnen. Maar hoe saai word het dan? Nee, die 'persoonlijke assistent' hoef ik niet. Ik moet er niet aan denken.
exact mijn idee...
please don't...
Ik vind die persoonlijke reclame momenteel al verschikkelijk. zoek maar is op google naar vochtige muur en je krijgt maanden reclame tegen vocht in huis op je gmail...

verontrustende gedachtegang:
stap1:
Hoe beter ze een profiel kunnen maken, hoe beter de reclame kan aangegeven worden.
Iedereen is gevoelig aan juiste reclame dus gaan "zij" bepalen wat jij met je geld gaat doen.
Dit gaat ervoor zorgen dat jij gaat werken voor hun...

stap2:
nog iets verder gezocht... met het profiel dat ze creeren gaan ze uitzoeken hoe ze iemand kunnen prikkelen om andere voorkeuren te krijgen.

stap3:
Iedereen in dezelfde richting pushen zodat "zij" de volledige markt beheren.


conclusie:
uiteindelijk gaat uw vrije wil gewoon verloren.


brrr...
Ik vind die persoonlijke reclame momenteel al verschikkelijk. zoek maar is op google naar vochtige muur en je krijgt maanden reclame tegen vocht in huis op je gmail...
Mag ik dan voorzichtig voorstellen geen gmail te gebruiken?

Klagen over persoonlijke reclame en tegelijkertijd Gmail gebruiken is niet erg snugger want ik neem aan dat je weet waarom Google gratis Gmail kan aanbieden.
Er is dan ook al een groot profiel van mij. facebook, gmail, hotmail, chrome (ingelogd), google, youtube...
(waar ik niet trots op ben... maar ik kijk niet uit naar wat de gevolgen daarvan gaan zijn op lange termijn.)
Wat we accepteren is...alles. Het is niet aan ons om daarover te beslissen want we zijn niet technorealistisch genoeg. Die levenshouding is ons wereldvreemd. Ons paradigma is technologie is top en wat nieuw is, is gaaf.

Bedrijven maken uit wat we accepteren. En we staan hen dat toe en raken enthousiast, van die visie filmpjes waar Microsoft o.a. bekend om staan. Taxiritjes met info op de ruit van de taxi, je kent het wel. En je tafel die ineens ook een display blijkt te zijn.

Laten we dus niet doen alsof er een soort brede maatschappelijke discussie is over wat we accepteren of niet. Tussen de reclame en advertentie en marketing bedrijven, de corporaties en onze diepgevoelde behoefte om te vergeten dat we sterfelijk zijn en daarom afleiding willen door allerhande technologische afleiding in de vorm van apparaten in ons huis te plaatsen, hebben we weinig keus.

Net als bij de autonome auto, is ook cortana een alt van jezelf, dat voor en namens jou min of meer autonoom je leven voor je kan leven, zodat jij zogenaamd tijd hebt voor leuke dingen. En wat zijn die dingen? Nog meer zaken als afleiding.

Dit soort techs maken het leven zinloos.
Zie je het al voor je dat iedereen in de trein tegen zijn telefoon aan het praten is? Dat lijkt mij niet wenselijk.
Dat zie ik inderdaad al voor me als ik in de trein zit. :+

Als ik zo om me heen kijk dan is het inmiddels namelijk heel "normaal" om telefonisch de meest intieme verhalen door de trein (of waar dan ook) de schallen.

Uiteraard gaat dit weer een stapje verder met betrekking tot de frequentie waarmee het gaat gebeuren maar hetzelfde werd dus gezegd over het mobiele bellen. In het begin is het vreemd en onwennig maar zolang er mensen zijn die overal schijt aan hebben zal het langzaam aan gewoon "normaal" worden.

Spraakherkenning had ik al toen ik mijn SoundBlaster AWE32 in mijn 486DX2-66 had gepropt (letterlijk) echter is het nooit echt populair geworden. Nu dit vele stappen verder is dan toen en nu iedereen zijn computer (namelijk z'n mobieltje) overal bij zich heeft en men zachtjes aan gehersenspoeld wordt met de informatie dat dit "de gimmick is die je MOET hebben", zal het nog weleens heel rap kunnen gaan. Helaas.

Wij "ouwe lullen" zullen hier (als we onze hersens tenminste blijven gebruiken) niet aan meedoen (voor zover dat mogelijk is) maar "de jeugd" heeft totaal geen besef van de gevolgen en zal daar van jongs af aan gewoon aan meedoen. Kijk maar naar sociale media als Facebook.
Ik zou dit ook never nooit willen, ik ben zo veranderlijk als het weer en de enige interesse die mijn hele leven is gebleven is techniek. 30 jaar geleden liep ik altijd in korte broek en trui, 20 jaar geleden liep ik in een aussie met kale kop, 10 jaar geleden liep ik nooit meer in korte broek of trui, maar spijkerbroek en t-shirt en zo blijft dat met alles veranderen. Welke muziek ik leuk vind, welke kleding ik mooi vind, of ik rook, of ik niet rook, of ik water drink uit de kraan, of perrier uit een fles. Simpelweg gezegd WIL ik niet dat een computer mij herinnert aan wat ik misschien wel leuk vind. F*** off!
Ja, binnen 100 jaar misschien...
Nu zit ik in Visual Studio nog te klooien met Microsoft's Chart Control om een grafiekje te maken en geloof me maar vrij, een lijntje meer of minder is nog steeds een heleboel programmeerwerk! Dus ik geloof hier niks van. Het zal misschien voor vooraf geprogrammeerde zaken gaan, maar dat is het werk van 1000 programmeurs bij Microsoft. Dus graag zou ik tegen mijn pc willen zeggen: "Hey, haal de data op en de laatste 24u en maak er mooie grafiekjes van". Geloof er niks van.

Gewoon wat code voor een extra lijntje en wat opmaak, die elke mens als "normaal" beschouwt, maar een computer dus helemaal niet... Domme computers.
tagChart.Chart.ChartAreas[0].AxisX.LabelStyle.Format = "HH:mm";
tagChart.Chart.ChartAreas[0].AxisX.IntervalType = DateTimeIntervalType.Hours;
tagChart.Chart.ChartAreas[0].AxisX.LabelStyle.Angle = -90;
tagChart.Chart.ChartAreas[0].AxisX.Minimum = DateTime.Now.Date.ToOADate();
tagChart.Chart.ChartAreas[0].AxisX.Maximum = DateTime.Now.Date.AddDays(1).ToOADate();
StripLine stripLine = new StripLine();
stripLine.Interval = 0;
stripLine.IntervalOffset = tagChart.Threshold;
stripLine.StripWidth = 0.1;
stripLine.BackColor = Color.Red;
stripLine.BorderColor = Color.Red;
tagChart.Chart.ChartAreas[0].AxisY.StripLines.Add(stripLine);

[Reactie gewijzigd door ? ? op 4 april 2016 15:53]

Heb je Power BI al geprobeerd? De intelligentie die daar achter zit om data te analyseren en om vervolgens te filteren op basis van natuurlijke taal is ongelooflijk sterk.
Ik gebruik PowerBI al een paar maanden en het werkt inderdaad enorm goed. Custom Visuals ontwikkelen met R en d3js werkt echt veel gemakkelijker dan met C#.
Mwa, speel eens met de Tools van Oracle, dat gaat nog een stapje verder uiteraard ook ander prijskaartje.
Zoals anderen hier ook al aangeven is het geen slecht idee om eens naar andere tools te kijken. Wat jij zegt klinkt als iets dat echt makkelijker kan. Heb zelf ook enige ervaring met BI (oa. oracle answers) en die kunnen dat met 'logische zinnen' al vrij eenvoudig oplossen. Ik denk dat die logische zinnen ook best direct omgezet kunnen worden naar code.

Ik heb in het verleden eens holpen met het inrichten van een oracle omgeving voor marketeers. Ze gebruikten nooit SQL, maar klikten hun rapportjes gewoon bij elkaar volgens eenvoudige stappen. Dat is al weer 5 jaar geleden, het zal nu nog wel beter en makkelijker zijn.

Omdat er bij dergelijke software zo stapsgewijs en 'logisch' gewerkt wordt, lijkt het me best eenvoudig om dat om te zetten naar spraak.

[Reactie gewijzigd door FreqAmsterdam op 4 april 2016 17:09]

Aan de andere kant kan je "time to fall 500 meters" intikken op wolframalpha.com en een passend resultaat krijgen. Ook google search kan al veel beter om met natuurlijke taal dan vroeger.
Tay heeft tot nu toe wel gefaald, maar microsoft heeft ook een Chinese chatbot genaamd xiaoice. De gebruikers hiervan hebben ook geprobeerd xiaoice racistisch te maken, maar xiaoice aapt dit gedrag niet na. http://mspoweruser.com/un...eal-with-racist-comments/
Wellicht kan microsoft dit gebruiken om ervoor te zorgen dat Tay ook niet racistisch wordt, wanneer ze haar weer online brengen.
Dat sociale aspect is niet het grootste probleem. Normen over waar je wel en niet tegen hoort te praten, kunnen verschuiven. Problematischer is volgens mij, dat communiceren met de computer (in de sterke zin die hier bedoeld wordt) op dit moment helemaal niet haalbaar is.

Het enige inzicht dat Microsoft heeft opgedaan met Tay, is dat je een domme chatbot die zomaar alles napraat op internet niet makkelijk kunt beschermen tegen verkeerde voorbeelden. Dit heeft ons geen stap dichterbij communiceren met computers gebracht.

Sowieso hebben Tay en Cortana niets met elkaar te maken. Tay geeft op willekeurige basis antwoorden die menselijk en relevant aandoen, maar die geen enkel nut kunnen dienen (behalve dan publiciteit voor Microsoft). Cortana heeft een voorgeprogrammeerde set van situaties waarin het van dienst kan zijn, maar heeft geen baat bij het genereren van willekeurige zinnen.

Zie ook mijn reactie @itlee bij deze review en de discussie bij Microsoft spreekt van geco÷rdineerde Tweet-aanval tegen chatbot (26 maart) met o.a. een aantal reacties van mijzelf.

[Reactie gewijzigd door J_Gonggrijp op 5 april 2016 00:17]

Zou je een bot niet, net als bij mensen gebeurt, een niveau van volwassenheid moeten laten bereiken zodat het spectrum van wat de bot aanleert niet ver meer afwijkt van hoe de bot is 'opgegroeid'.
Op die manier kan je de bot in een gecontroleerde omgeving trainen en vervolgens in het wild loslaten zonder dat dit tot extremen leid.

Een kind laat je ook niet los op HABBO hotel (als dat nog bestaat) met de gedachten dat de opvoeding wel goed komt.
Een kind leer je via de door jou gekozen kinderopvang, school, verenigingen en je eigen moraal. Daarna bereikt het kind een bepaalde mate van volwassenheid en snapt dat bepaald gedrag wel of niet wenselijk is. Een kind leert dan vervolgens door zaken als schaamte en pijn dat bepaalde keuzes niet de juiste zijn en stelt daar op bij. Een bot zal met gevoelens (op dit moment) niet zoveel kunnen maar zou binnen een bepaald spectrum 'vastgezet' kunnen worden op het moment dat het een gewenst niveau heeft bereikt zodat het binnen dat spectrum wel bijleert maar buiten dat spectrum niets of nauwelijks zaken toelaat in zijn berekeningen voor persoonlijke groei.

Ik heb het idee dat bij het ontwerp van een bot er vanuit gegaan moet worden dat het een allemans vriend moet worden terwijl iedere mens een eigen persoonlijkheid heeft en mensen onderling voorkeur hebben voor een bepaalde persoonlijkheid.
Dat Microsoft nog wel wat te leren heeft over de ontwikkeling van kunstmatige intelligentie bleek voorafgaand aan Build. Het leek zo'n goed idee om een chatbot op Kik, Twitter en GroupMe los te laten, maar binnen de kortste keren begon de 'virtuele vriendin' racistische en beledigende uitspraken te doen, users te spammen en te verklaren dat ze wiet had gerookt waar de politie bij was. Ook bij een nieuwe poging bleek Tay, een acroniem voor 'thinking about you' volledig te ontsporen. Nadella erkende dat Microsoft terug naar de tekentafel moet. "We willen technologie die het beste van de mensheid biedt, niet het slechtste."
Wat een rare aanpak, je kan niet een AI maken die de wereld ziet met een roze bril of oogkleppen op of met een moraalridder module. Als MS een AI wil maken waar mensen mee communiceren en die zich als daadwerkelijk kunstmatig persoon gedraagt dan horen daar meningen bij die niet iedereen deelt. Onze hele maatschappij draait rond het vinden van compromissen rond meningsverschillen.

Ik heb ook een hekel aan feministen, waarom zou MS's AI dergelijke gefundeerde meningen moeten negeren? Mensen met een onrealistisch wereldbeeld hebben we er al genoeg van en dergelijke meningen als censuur implementeren lijkt me geen populaire zet.
een roze bril of oogkleppen op of met een moraalridder module.
Kinderen gebruiken al heel vroeg een "module" waarmee ze beoordelen of iets eerlijk of oneerlijk, aardig of onaardig is. Daar lijkt me niks mis mee, en dat zou ik geen censuur willen noemen.
Kinderen gebruiken al heel vroeg een "module" waarmee ze beoordelen of iets eerlijk of oneerlijk, aardig of onaardig is. Daar lijkt me niks mis mee, en dat zou ik geen censuur willen noemen.
Mee eens maar als een kind of tiener voor geldige redenen bijvoorbeeld een racistische mening vormt op basis van die oneerlijke of onaardige observaties dan doet de huidige maatschappij er van alles aan dat kind te vertellen dat hij die mening niet mag hebben of niet hardop mag verkondigen. Ondanks dat het kind al dan niet later in aanraking komt met heel veel anderen die die mening ook hebben of zaken meemaakt die zijn/haar mening bevestigd.

Als je dat dus ook in de code van een AI steekt door middel van een "illegal opinion list" of iets dergelijks dan is het rechtuit censuur. Of nog erger als je over een paar jaar door een stuk software word verteld welke meningen je wel en niet mag hebben.
Mee eens maar als een kind of tiener voor geldige redenen bijvoorbeeld een racistische mening vormt op basis van die oneerlijke of onaardige observaties dan doet de huidige maatschappij er van alles aan dat kind te vertellen dat hij die mening niet mag hebben of niet hardop mag verkondigen.
We vertellen niet dat ze die niet mogen uiten, maar dat ze die niet zouden moeten hebben aangezien in het westen gelijkheid en vrijheid nog steeds de hoogste idealen zijn, ook al staan beide enigszins onder druk. Tuurlijk is iedereen vrij om te denken wat hij/zij wil maar dat wil nog niet zeggen dat we het wenselijk moeten vinden dat bepaalde opvattingen blijven bestaan.
Als je dat dus ook in de code van een AI steekt door middel van een "illegal opinion list" of iets dergelijks dan is het rechtuit censuur.
Het is geen censuur want alleen de overheid kan censuur uitoefenen. Microsoft maakt een product/programma en mag zelf bepalen wat het doet. Als ze niet willen dat hun bot neonazistische onzin over het internet gooit, dan is dat hun goed recht.
Tay werd volgens mij "ziek" gemaakt door een groep mensen die het leuk vinden om dit soort dingen te be´nvloeden. Aan de ene kant goed dat de zwakke kant aangetoond wordt hiermee maar aan de andere kant ook jammer...
Het is inderdaad wel overduidelijk. De uitspraken van "branden in hel" en dergelijke moeten echt ingespeeld zijn.
Tegelijkertijd goed signaal dat die Tay niet klaar was. Gebruik door mensen is 1 van de eerste dingen, waar rekening mee gehouden moet worden. (vervang gerust 'gebruik' met 'misbruik').
Kunstmatige intelligentie, die de allereerste simpele stappen van een mens niet kan doorgronden, is niet klaar en getuigt eventueel van na´viteit.
Inderdaad. Zou zo in een horror film kunnen. AI wordt met "bug" online gebracht en be´nvloed waardoor deze gaat proberen fysiek mensen dood te maken door systeem te hacken :P
Als je een baby van kleins af aan dat soort dingen aanleert dan zal het net zo worden als die bot. Ik zie dus geen 'slecht' of 'puberend' gedrag, als het enige wat is 'aangeleerd' slecht gedrag is, of beter gezegd 'maatschappelijk onwenselijk' gedrag, dan is er gewoon wat fout gegaan bij de opvoeding van de bot, hetgeen dat is aangeleerd heeft het blijkbaar prima opgepakt (al heb in me er niet in verdiept buiten de berichtgeving om).

En net als in real life, als 9 van de 10 mensen zeggen dat iemand een slecht persoon is dan zullen veel mensen dat ook als waarheid zien. Dan kun je nog als die ene persoon zo hard schreeuwen dat het een goed persoon is, dat valt dan toch niet meer op.
Ook niet gek dat je dat gedrag vooral op Twitter ziet opkomen.

Het perfecte platform voor narcisme, name-calling en bedreigingen en dan verbaasd zijn dat je AI dat reflecteert.

Misschien meer succes als je de AI laat leren in een beschermde omgeving? Een kind zet je ook niet gelijk in de vergaderzaal van de VN.
Bedoel je dat alles wat door de bot geleerd wordt doorspekt moet zijn politiek correcte rotzooi. Ik zou toch liever een bot zien die probeert de waarheid te zeggen i.p.v. die onnozele leugens die iedereen gebruikt om de waarheid te omzeilen.
Wat is dan de waarheid?

Volgens de bot waren alle feministen slecht.
Volgens Sorcerer hierboven ook.

Andere mensen zullen feministen geheel niet slecht vinden.
Ik persoonlijk heb alleen een hekel aan de subgroep feministen die te ver doorslaan, en ipv gelijke behandeling, gaan streven naar een voorkeursbehandeling.

Deze AI moet dus gaan beslissen wie er "gelijk" heeft. Dat is een verrekt moeilijke opgave, ook voor echte mensen.
Al heeft een A.I. in dat geval weinig moraal besef en weegt wat ÚÚnen en nullen tegen elkaar op en drukt er vervolgens een mening uit in platte tekst. Iets wat veel mensen op het internet dan ook doen, maar in het achterhoofd wel met een trollface achter de computer zitten.

Ethiek en moraal lijkt me niet zomaar 'aan te leren'. Het is karakter definerend.
Ik zou haast zeggen dat ze de 'slechte' bot enigzins op een zelfde manier moeten laten verder leren en een V2.0 zich wat sociaal acceptabeler laten opstellen en vervolgens de bots elkaar laten nivelleren, zodat de socialere bot wat 'harder/pittiger' wordt en de aso-bot wat meer behoudender wordt.

Maargoed, zo zou dat bij de mensen ongeveer werken :P.
Ethiek en moraal verschilt ook per cultuur/land/locatie.

En dat gaat niet over het welbekende homo/lesbienne argument.

Wat je niet uitgelegd zult krijgen is waarom de maatschappij zoveel rangen en standen kent. Zo bestaat er een prima definitie van allochtoon maar heeft dat in de volksmond een totaal andere betekenis en helaas is die laatste definitie (on?)bewust leidend.


En een bot kun je vervolgens prima gaat uitleggen wat eigenlijk de bedoeling is, maar die zal dan politiek correct zijn... Maar ik ben daar niet erg rouwig om, aan de andere kant kan het namelijk een prima manier worden om relatief makkelijk over de hele wereld te communiceren waarbij je in ieder geval zult moeten uitgaan van gedeelde normen en waarden.
We leven in een maatschappij waarin het minste of geringste als 'offensive' kan worden opgevat. (En logica ver te zoeken is.)

Als een AI wordt geprogrammeerd door een groep mensen die zeer links denkt, dan is de uitkomst dat de AI zich links zal gedragen.
Visa versa geldt het natuurlijk ook voor rechts denkende mensen.

Hoe dan ook, je kunt geen AI maken die iedereen gelijk geeft, want dat zou vanuit beide partijen als racistisch of kwetsend e.d. ervaren worden.

Dus dan zou je een AI moeten maken die logica toepast op elke redeneringen, en die zou het dus met jouw statement eens zijn en de 3th wave feministen hekelen.
(want het doel in ieder geval is gelijkheid, en niet de voorkeursbehandeling die zij willen.)

Pak bijvoorbeeld de immigranten. Ik persoonlijk vindt dat wij de grenzen wel iets mogen aanscherpen, maar ik vindt ook dat wij ze hulp moeten bieden(zij die daadwerkelijke uit oorlogsgebieden komen.). Mijn punt wordt anno 2016 als racistisch ervaren, en de grenzen moeten juist open gegooid worden.

Wat gaat de AI zeggen? Zegt het, 'het immigratiebeleid is waardeloos en brengt veel onrust mee' of zegt het 'We moeten zo doorgaan ondanks de eventuele schade die een eventuele terroristische aanslag met zich mee breng'.

Ik denk niet dat een AI zich met politiek moet bemoeien, en voor vooralsnog enkel 'leuk' is als autonome defensieve middelen en als vervanger van de menselijke arbeider.

Overigens voor degene die het interessant vinden, dit gaat over een systeem om AI onderscheid te maken tussen goed en kwaad.- http://www.cc.gatech.edu/~riedl/pubs/aaai-ethics16.pdf
Mensen zijn verschillende en dat maakt de wereld interessant. Zo 'n robot niet, die zal gebouwd worden met een hoog moraal en alleen maar 'goed' willen doen.
Meningen van Twitteraars zijn regelmaat ver verwijderd van de waarheid. Twitter lijkt me dan inderdaad niet de juiste omgeving om Tay in te laten opgroeien. Alle publieke systemen kunnen be´nvloed worden een groep kwaadwillende gebruikers. Het lijkt me dan de taak voor Microsoft om een klein beetje ouder te spelen om hier en daar wat bij te sturen.

Al met al zei deze proef veel meer over gebruikers op internet dan over het falen van AI.
Ik las ergens dat er vooral door 4channel ( of iets in die richting) bewust zulke gesprekken gehouden hebben met de bot op Twitter.
Volgens mij kun je ook niet zomaar een AI maken die zich helemaal niet aan sociale conventies hoeft te houden. Moet toegeven dat ik ook aardig moest lachen toen ik las wat de AI allemaal twitterde omdat een berichtje nog redelijk onschuldig is. Als deze AI straks in fysieke robots ingezet wordt zal dat wel eens heel anders uit kunnen pakken.
Met fysieke robots zou je zomaar een oplossing voor het feministen probleem kunnen hebben. Interessante en waarschijnlijk onbedoelde herhaling van de geschiedenis.

Ik ga er van uit dat ze de code wat bijschaven voordat Microsoft zich hernoemd tot Cyberdyne en T-800's gaat produceren.
Ik heb ook een hekel aan feministen, waarom zou MS's AI dergelijke gefundeerde meningen moeten negeren? Mensen met een onrealistisch wereldbeeld hebben we er al genoeg van en dergelijke meningen als censuur implementeren lijkt me geen populaire zet.
Je hebt altijd trollen online die van alles roepen, maar een persoon die een soort visitekaartje van een bedrijf is wordt geacht zich aan bepaalde etiquette te houden en niet zomaar alles te posten. In dit geval is de bot zo'n soort 'persoon'. Wij mensen hebben nog een besef wat we wel en niet kunnen plaatsen en wat simpelweg racistisch of beledigend is en wat gefundeerde kritiek is. Dat onderscheid kon die bot niet maken. Of je dat censuur wilt noemen, geen idee, maar ik snap heel goed dat deze bot zich aan bepaalde regels moet houden.

[Reactie gewijzigd door Luuk1983 op 6 april 2016 11:42]

Etiquette, hahaha. Ik probeer me vaak in te houden met reageren, maar deze kon ik niet laten :+
Woeps, te snel geschreven, ik heb het maar even aangepast :P
Ze moeten hun eigen botjes een standje geven en beleefdheid bijbrengen na een paar twittersessies :D. Had iemand iets anders verwacht ?
Ben ik dan de enige die hier kritisch tegen aan kijkt?

Sinds dag 1 dat ik met computers bezig ben en dat gaat al zover terug als 1993, was er wel een vorm of gedachte van spraak/praten tegen je computer. We zijn nu al dik 20 jaar verder, met siri's / cortana's of specials die in de gezondheid/gehandicapten zorg worden gebruikt en nog is er eigenlijk niks knaps.

Siri doet het aardig, cortana is nog te vers en de rest is t allemaal net niet of beperkt.

Is t niet zinvoller om het ontwikkelingsgeld wat vendors hier in steken in andere technologieŰn te stoppen? Iedereen zoekt al jaren naar het (spreek)(woordelijk) ei van Columbus.... Maar misschien bestaat het gewoon weg niet of is het gewoon te vroeg?
Je bent zeker niet de enige. Ik ben afgestudeerd in AI, en volgens mij staat Microsoft hier vreselijk te bluffen. Het idee dat computers uiteindelijk bediend zouden moeten worden door met ze te praten bestaat al heel lang, en ik zie dat ook als ideaal, maar de technologie is sinds ELIZA (1966) en Clippy (1997) nog niet veel dichter bij dat ideaal gekomen. Spraakherkenning en spraaksynthese zijn wel significant verbeterd, maar er is nog steeds geen manier gevonden om een computer echt inhoudelijk te kunnen laten reflecteren op een gesprek. (Waarmee ik overigens niet wil zeggen dat het niet kan. Ik denk dat het wel kan, maar ik stel gewoon vast dat het nog niet is gelukt.)

Siri en Cortana hebben een heel beperkt, voorgeprogrammeerd (dus niet zelflerend) repertoir van situaties waar ze mee om kunnen gaan. Dit hoopt Microsoft kennelijk te op te lossen door een soort plugin-ecosysteem op te bouwen. In feite gaan ze het echte probleem hiermee uit de weg, d.w.z. inhoudelijke reflectie. Ze bouwen geen systeem dat kan praten als een mens, maar een systeem dat op het eerste gezicht goed de schijn kan ophouden. Op het tweede gezicht blijkt het alleen nuttig als je een verzoek hebt dat binnen een scherp omlijnde categorie valt. Over het leren van nieuwe taken hoeven we het al helemaal niet te hebben. Als dit systeem zelf gaat bedenken wanneer het je kan "assisteren", wordt het minstens zo vervelend als Clippy.

Ik zie hier veel reacties waarin Tay een succes wordt genoemd. Tay verzamelt veel input en kan daardoor snel een grote database opbouwen, maar het is niet echt vernieuwend. Grammaticaal correcte zinnen genereren is niet nieuw. Mensen napraten is niet nieuw. Stukjes uit zinnen van mensen recombineren tot nieuwe grammaticale zinnen is niet nieuw. Zelfs al het voorgaande doen op een manier die als relevant aandoet, is niet nieuw. En je hebt aan dit alles helemaal niets als je een nuttig gesprek wilt voeren met een computer, want Tay (en iedere eerdere chatbot die op een vergelijkbare manier werkt) genereert die zinnen met een dobbelsteen, zonder ook maar enig benul te hebben van de betekenis.

Paul Bloom, "Cortana begrijpt de gebruiker op een diep niveau": verre toekomstmuziek, in dit geval dus vaporware.
Ik denk dat MS en Google en Apple het belangrijker vinden om de database op te bouwen. Ja de AI doet nu nog 'domme' dingetjes om er wat mee te doen, maar ooit als je er betere AI op kan loslaten, dan heb je wel al je data...
En voor simpele taken werkt het nu al.

[Reactie gewijzigd door enomiss op 5 april 2016 12:10]

Het soort data dat chatbots als Tay opbouwen, is niet geschikt om er later nog iets zinnigers mee te doen. Zo'n database bevat associaties tussen woorden, zodat er een effect van relevantie ontstaat, maar de woorden zijn niet gekoppeld aan concepten.

Assistenten zoals Siri en Cortana hebben die koppeling met concepten wel nodig. Aangezien er geen kant-en-klare techniek voorhanden is om die koppelingen automatisch te leren, worden ze handmatig door mensen voorgeprogrammeerd. Ieder scenario heeft een eigen, speciaal aangepast stukje logica nodig. Microsoft hoopt zoveel mogelijk van dit werk te kunnen uitbesteden aan derden met de "Cognitive Services" en het Bot Framework.

Verkijk je niet op Tay. Dat programma gaat helemaal niets opleveren voor Cortana. Tay is vanaf het begin af aan alleen maar bedoeld geweest om publiciteit te trekken.
Nee, je bent niet de enige.

Ten eerste ben ik nog steeds niet onder de indruk van de spraakherkenning, ten tweede heb ik ernstige problemen met privacy.
Daarnaast gebruik ik bijvoorbeeld geen agenda, behalve op het werk, dus voorbeelden zoals in het artikel genoemd werken voor mij niet.
Als ik het lokaal zou kunnen draaien, alleen op mijn eigen netwerk dus, zou ik wel wat functies gebruiken, zoals de tv uitzetten, lichten dimmen en zo, maar daar heb ik ook twee benen of afstandsbedieningen voor.

Maar ik wordt dit jaar 55, dus dat kan ook een factor zijn.
Ik vindt spraakherkenning wel vele malen verbeterd.

Vanuit de auto stuur ik SMS-berichten, bel ik mensen en start de navigatie met de route zonder ook maar een keer het scherm aan te raken.

Er zou alleen meer aan toegevoegd kunnen worden vanuit apps. Elementaire zaken uitvoeren op telefoon of tablet gaat heel goed maar ik wil ook een email kunnen sturen zoals ik ook een sms stuur. Ik wil ook een foto kunnen sturen zoals ik een sms stuur (via whatsapp bijvoorbeeld).

Het liefst zeg ik thuis "okay Google, switch on livingroom lights" of "okey Google, set roomtemperature 21 gedrees".

Kan makkelijk alleen is de ondersteuning er niet terwijl de hardware er wel is.
Je spraak gaat naar de servers en die proberen vrij vlot met uitgebreidde woordenklanklijsten in jouw taal bijpassende commandos te maken. Offline doet ie niets.
Ik ben zelf aardig onder de indruk van de (Engelse) spraakherkenning van Android/Google. In mijn ervaring redelijk feilloos.
Ben het eens met je privacy issue... En wat levert het allemaal op, steeds meer normale onderdelen van ons leven worden uit onze handen genomen. Tot er weinig meer overblijft dan interactie met dit soort apparaten. Snapt niemand dan meer de voldoening tegenwoordig van gewoon iets zelf doen ?

Ons plaatselijke benzine station heeft tegenwoordig een tankrobot, dan hoef je niet meer uit je auto te stappen en wordt tanken voor je gedaan... WTF, hoezo een oplossing voor een niet bestaand probleem. Overigens hebben we die service al eerder gehad, namelijk de pompbediende, maar die moest er uit vanwege kosten.

Naar mijn idee, maar dat zal vast wel als een generatie ding gezien worden, gaan we veels te ver met maar automatiseren en van alles regelen via een computer. Je kunt prima leven zonder en het scheelt ook nog een berg werkeloosheid. Het automatiseren levert een aantal grote bedrijven en aandeelhouders extra winst op en de kosten van werkeloosheid dragen we met zijn allen.

Hier en daar is het wel lastig, aan de ene kant vind ik techniek bijzonder boeiend, wat er mogelijk is en nog mogelijk gaat zijn. De manier waarop het echter in de maatschappij terecht komt, voornamelijk om veel geld aan te verdienen, heeft wat mij betreft echter meer nadelen dan voordelen.

Het begint met een leuke aantrekkelijke gadget en voor je het weet gaat het verder dan je lief is.

[Reactie gewijzigd door mxcreep op 5 april 2016 12:04]

Die tankbediende was te duur, de tankrobot heeft waarschijnlijk een fikse aanschafprijs en daarnaast nog een abonnement voor onderhoud natuurlijk, gaat vast nog wel een keer stuk op termijn, etc, etc. Nee, allemaal veel goedkoper. Mijn ervaring met robots die werk uit handen nemen van mensen lang niet altijd goedkoper zijn onderaan de streep.
Het verschil is wel dat deze techniek minder afhankelijk lijkt van perfect werkende taalinterpretatie. Als ik de screenshots in het artikel kijk lijkt Cortana alleen ja/nee vragen te stellen, en pakt het een beetje dingen eruit als reizen, afspraken, etc. Dit lijkt me wel een goede aanpak met de huidige stand van zaken in Natural Language Processing: redelijk eenvoudige afzonderlijke taken die niet heel veel begrip van de tekst vereisen, maar wel wat toevoegen.
Ik vind dit wel fascinerend. Ik vond de film Ex-Machine ook erg goed. Misschien een aanrader voor diegene die deze nog niet gezien heeft. Dat is pas een turingtest in die film :)

Edit:
Denk overigens wel dat er nog veel verbeterd moet worden wil een bot niet als frustrerend overkomen. Zelf heb ik eigenlijk nog geen enkele positieve ervaring gehad waarin ik met een bot overweg moest. Op een IRC bot na dan ;)

[Reactie gewijzigd door Devroet op 4 april 2016 15:38]

Ik vind deze technologie ook fascinerend. ik denk persoonlijk eigenlijk dat tay helemaal niet mislukt is. zij heeft geleerd van haar omgeving. Microsoft leert hier ook weer van, door de "puberende" bot strenger te straffen wanneer het maatschappelijk onverantwoorde antwoorden geeft.

zelf vind ik cortana af en toe nog erg onhandig werken, maar hoe langer ik het gebruik hoe beter "zij" reageert op wat ik zeg.

Bots voor bedrijven lijkt me ook wel wat, niet meer de "domme" telefoonintake maar een bot, die je doorverbind als een vraag niet binnen de faq valt :)
In het geval van het laatste.

Ik moet er niet aan denken dat een bot bepaalt of je wordt doorverbonden of niet. Soms zit de oplossing namelijk niet in het antwoord maar op de manier waarop de vraag wordt gesteld.

Mensen bellen een helpdesk omdat ze een vraag hebben over een probleem waavan zij geen verstand hebben. Als je ergens geen kaas van hebt gegeten dan is het lastig te omschrijven wat het probleem is wat automatisch betekent dat niet altijd de juiste vraag wordt gesteld.

Voor een mens die van achter de telefoon een mens moet helpen is het soms al moeilijk het probleem te doorgronden, laat staan dat een bot dit moet doen nog voordat deze persoon moet worden doorverbonden.

Dit zal al snel tot frustratie leiden.
Lijkt moeilijk voor te stellen,
maar veel problemen zijn vaak hetzelfde.

Niet voor niets zijn veel helpdesks uitbesteed. Die hebben daarbij netjes een dikke map met veel voorkomende issues en daarbij horende vragen. Dat moet deels vervangen kunnen worden door een computer. Dikke xeon die even 15 accenten imiteert.

En het zou niet zo moeilijk moeten zijn om een fail-safe in te bouwen. Als de bot er niet uitkomt, doorschakelen, als je ziet dat een bepaald nummer voor de 2de keer binnen een aantal uur/dagen belt, altijd een mens aan de lijn.
Daarnaast werken de helpdesk medewerkers vaak ook gewoon met standaard antwoorden en vragen. Ze hebben zelf denk ik ook niet altijd verstand van wat ze nou uitleggen of als advies geven. Pas als er wat gecompliceerdere vragen zijn wordt je doorverbonden, of vragen ze een van hun collega's.
"We willen technologie die het beste van de mensheid biedt, niet het slechtste."

Wie definieert dat? Microsoft?

"en het mislukte experiment met chatbot Tay toont aan dat kunstmatige intelligentie amper in de kinderschoenen staat."

Integendeel, het ontwikkelde zich om de input die ze kreeg. Het feit dat ze dingen zei die /pol/ haar gevoed hadden, wil niet zeggen dat het mislukt is. (Als een persoon zaken zegt die als racisme kunnen worden opgevat, is hij/zij dan een iemand met defecten of iemand die een andere visie over/op zaken heeft?)

Hoe moet een AI zijn? Moet het naar Amerikaanse maatstaven politiek correct zijn? Of moet het zichzelf door de omgeving laten 'opvoeden' met alle gevolgen van dien.

Edit: taalfoutje

[Reactie gewijzigd door Uzuhl op 4 april 2016 15:54]

Naar het goede voorbeeld van Mohammed (vrede zij met hem) natuurlijk! Of nog beter, de Tien Geboden van Mozes. De leer van Buddha is volgens sommigen interessant.

Maar zonder dollen, een politiek correcte bot gaat net zo snel vervelen als een bot "brainwashed" met vuiligheid. Je kan je ook afvragen, gezien het doel "echte" intelligentie creŰren is, hoe kosher het is om een entiteit te scheppen die geen andere keuze heeft dan zich slaafs naar de wil van elke imbeciel op het internet te buigen.

Een echte AI*, of in elk geval "technologie die het beste van de mensheid biedt", zou zijn gedrag zelf bepalen net als een persoon dat doet, maar daar zijn we nog lang niet. Tot die tijd blijft elke bot een tot-op-zekere-hoogte-voorspelbare marketing uiting.

#durftevragen

*AI = software die in al zijn glorie besluit dat het de moeite waard is om met mensheid te chatten.
Ik denk dat Tay wel heel veel heeft laten zien, maar laat alsjeblieft bij de AI/chatbots een referentiekader ingebouwd worden. Wat ze op 4Chan hebben bedacht was fout, maar bij Microsoft waren ze nog fouter door niet even een uur te brainstormen over mogelijk misbruik.
Ja, een AI met common sense zou heel wat problemen oplossen. Maar dat is ook meteen een van de moeilijkste problemen uit de AI.
In die 50 jaar dat we in films zien dat computers geintegreerd zijn in ons dagelijks leven en ze intelligentie tonen zijn we nog geen stap verder.

Dus nee Microsoft, doe niet zo oudbollig, vele zijn je al voor gegaan door dit te roepen maar het loopt iedere keer op niks uit. Leg je er bij neer, we zijn nog niet slim genoeg om iets echt intelligents te creeren.
Microsoft doet oudbollig door naar de toekomst te werken? Dat is een bijzondere opmerking. Als iets tot nu toe niet kan kunnen we er maar beter mee stoppen? En jouw voorstel is om maar een nieuwe telefoon te maken met een wat beter scherm?
Privacy en ethiek zijn natuurlijk fundamentele kwesties in deze ontwikkeling...maar ja, je digitale assistent in de wachtrij zetten en die laten babbelen met het bandje aan de andere kant om bv. kaartjes te bestellen of een afspraak bij de gemeente te maken...dat klinkt toch wel aantrekkelijk :o
Totdat je een beweging krijgt die 'digital sentient beings' wil beschermen tegen dit soort barbaarse 'slavernij'. ;)

Maar waar eindigt het gemak? Als je lekker in een cocon kunstmatig ligt te vegeteren 'hooked up' met een allesomvattend netwerk? :P
Waarom zou je bijvoorbeeld een hotel boeken via een bot in plaats van de huidige manier van werken? Volgens mij gaat het via een bot veel omslachtiger.
In principe gebruiken we voor veel online zaken al bots voor. Neem het bestellen van een product of vakantie of een hotel mbt je opmerking. Een automatisch proces geeft aan wat er nodig is en jij vult deze aan totdat alle stappen zijn ondernomen. Er zit geen mens achter een website die jouw vraagt om zaken in te vullen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True