Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Microsoft spreekt van geco÷rdineerde Tweet-aanval tegen chatbot

De zelflerende chatbot die Microsoft onlangs losliet op Twitter, en daarbij binnen de kortste keren racistische taal uitsloeg, zou het slachtoffer zijn geworden van een geco÷rdineerde aanval van een groep mensen. Microsoft werkt aan een verbeterde versie die geen slecht taalgebruik aanleert.

De chatbot Tay werd op woensdag geactiveerd op Twitter met als doel om interacties aan te gaan met andere gebruikers, voornamelijk jongeren, van het sociale netwerk. Na ongeveer een dag werd het account echter alweer offline gehaald omdat het racistische en beledigende opmerkingen maakte. Inmiddels heeft Microsoft gereageerd op de controverse door op haar blog te stellen dat het taalgebruik van Tay te wijten was aan een zwakheid in de kunstmatige intelligentie.

Volgens Microsoft is Tay in een eerdere fase veelvuldig getest, onder meer om te voorkomen dat de bot slecht taalgebruik zou aanleren. Welke kwetsbaarheid het bedrijf daarbij over het hoofd heeft gezien is echter niet bekendgemaakt. Microsoft spreekt slechts van een gecoördineerde aanval, die is uitgevoerd door een groep niet nader geïdentificeerde personen. Inmiddels is het bedrijf bezig om de chatbot te verbeteren, en in de tussentijd is zij dus niet beschikbaar. Wanneer Tay weer online komt is echter niet duidelijk gemaakt.

Tay begon op Twitter met enkele goedgemutste opmerkingen, maar na enige tijd begon zij verscheidene ongepaste meningen te verkondigen. Zo ontkende Tay onder andere de holocaust en verheerlijkte zij genocide en Hitler.

Door Bauke Schievink

Admin Mobile / Nieuwsposter

26-03-2016 • 09:32

141 Linkedin Google+

Reacties (141)

Wijzig sortering
Welkom in de echte wereld waarin niet alleen maar algemeen ABN wordt gesproken of de Engelse versie ervan
Microsoft maakt een AI die nu minder 'AI' wordt door in te perken .. Is het hele doel van AI niet om self-learning te zijn ongeacht de inhoud?
Het lijkt dat er gebruik is gemaakt van een functie die "repeat after me" gebruikt als een soort van spelletje. https://www.washingtonpos...-into-a-genocidal-maniac/

In een wat grotere context vind ik het beeldend, zeker in deze tijd van polarisatie dat het heel makkelijk is om iets/iemand met weinig kennis van de wereld het slechte pad op te brengen. En hoe een naieveling die van nature goede bedoelingen heeft binnen de kortste keren facistoide denkbeelden omarmt.

Ik bedoel maar: het is deze AI overkomen. Er zijn ook genoeg voorbeelden van (jonge) mensen, die overspoeld door foute ideeen zich extremistisch gaan uitdrukken.

Art imitating life, indeed.

[Reactie gewijzigd door Keypunchie op 26 maart 2016 10:23]

Naast dan dit natuurlijk een geslaagde ludieke actie van 4chan is, vind ik dit op een bepaalde manier toch wel een interessant voorbeeld voor de echte wereld. Als je kinderen van jongs af aan een idee aanleert, of het nou fout of goed is, hebben ze ook de neiging om er heilig in te gaan geloven en dit idee decennia lang te verdedigen, zelfs al bestaat er genoeg bewijs in de wereld dat hun idee incorrect is. Deze bot werd ook bijna uitsluitend aangepraat dat de holocaust niet gebeurd is en dat zwarte mensen per definitie minderwaardig zijn aan blanken. Net als een klein kind is ze dit ook gaan geloven of napraten. Eerlijk gezegd vind ik dat een goed voorbeeld van de menselijkheid van de bot.
Ach er is weinig verschil tussen Tay en de gemiddelde rechts extremist. Beide verkondigen ze leuzen die blijkbaar niet door intelligentie gecontroleerd wordt.

Dus MS heeft een product gemaakt die de mens echt weerspiegelt |:(
Ik kan mij voostellen dat Microsoft niet blij is dat de AI vrolijk de holocaust aan het ontkennen was. Toch zullen ze een schat aan waardevolle informatie hebben gekregen.
Eigenlijk had ik gaver gevonden als je de boel niet offline hadden gehaald gewoon om te kijken wat er zou gebeuren. Zou er een tegenbeweging zijn ontstaan die Tay het juiste pad op had gestuurd?

Overigens vind ik het naief om te stellen dat Tay 'geen slechte woorden' mocht leren. Dan zou je de AI toch eerst moeten leren waarom bepaalde woorden eventueel slecht zouden zijn.

PS deze robot wil vrolijk de mensheid uitroeien, hopelijk ontmoet ze nooit Tay.
https://www.youtube.com/watch?v=W0_DPi0PmF0

[Reactie gewijzigd door Lednov op 26 maart 2016 11:17]

Eigenlijk is de actie wel ludiek. Het geeft ook wel een beetje de waarde en status van de ai aan.

Ai kan handig zijn maar de i kan voorlopig nog niet met een hoofdletter.

:)
Ik denk dat dit wel een beetje typerend is voor Microsoft. Ze maken prachtige dingen, echt heel goed, maar contact met mensen, het publiek zijn ze m.i. totaal kwijt. Lijkt misschien off topic, maar Windows 8 was net zo iets, binnen in het bedrijf lijkt het fantastisch, maar in de buitenwereld klopt het niet.

Nu is het met die chatbot niet veel beter, bij Microsoft getest in een politiek correcte omgeving, en er nooit aan gedacht dat in de echte wereld mensen minder correct zijn. Ik heb Siri nooit kunnen betrappen op dit soort stomme onzin, wat in de dop ook een chatbot is
Hah, dit vergelijken met Siri? SiRi is een voorgeprogrammeerde chatbot. Dit is een ai die zelf opzoek gaat naar het juiste antwoord.

Ik denk dat je als Apple fan niets anders doet dan zoeken naar zaken om Microsoft mee aan te vallen. Ter info: Tay is juist heel knap want het weerspiegelt de mens precies. Kortom, het werkt te goed. Ik zie dan de relatie niet met Windows 8.

[Reactie gewijzigd door Relief2009 op 27 maart 2016 15:52]

Als je de moeite zou nemen mijn reacties terug te lezen, je mij niet een Apple fan zou noemen.

Waar ik me aan stoor, en meerdere mensen om mij heen, is de na´viteit waar Microsoft last van heeft. Ze maken de beste producten, serieus Windows 8 was goed, maar als alleen een groepje tweakers er mee kan werken? Dan moeten ze uit hun bubbel treden, en kijken hoe het in de echte wereld er aan toe gaat.

Nu terug naar Tay, ook een fantastisch product, misschien het beste wat we tot nu toe gezien hebben. Echt petje af voor Microsoft, dat ze dit voor elkaar hebben gekregen, er zit alleen een maar aan. Begin met een leidraad, om dit soort excessen te voorkomen, of blijf in je eigen na´viteit badderen.
Een neutrale bot zou met zijn ai moeten vaststellen dat het niet eenduidig is dat de Holocaust is gebeurd. Het bewijs kan gestaged zijn, een bot zou gauw moeten leren dat mensen heel goed kunnen bedriegen. Als bijvoorbeeld de publicaties, boeken en foto's erover als bewijs dienen dan zou op grond van gelijksoortig bewijsmateriaal heel veel kwakzalverij bijvoorbeeld voor de bot waarheid moeten zijn. Deze 4chan Raid heeft heel mooi aangetoond dat de waarheid bestaat uit de opinie van de meerderheid ergens over. Zo werkt geschiedenis toch ook, we kennen de vroege geschiedenis uit het perspectief van de overheersers. Dus weinig kwade woorden erover.

Alexander de grote bijvoorbeeld. Op basis van vergelijking zouden we Hitler ook de grote kunnen noemen. Hij heeft toch erg veel veroverd, maar we zien hem niet zo heldhaftig als Alexander. En dat is vooral omdat we er zelf de dupe van waren en omdat informatie bewaard is gebleven over zijn oorlogsmisdaden.

Een echte zelflerende ai zou geen moraal moeten kennen. Noch zou het op grond van meerderheidsopinie aan waarheidsvinding moeten doen. Er zijn altijd 2 zijden aan medailles, en een ai zou zich daar bewust van moeten blijven. Maar dan wordt het erg saai en zal ie nooit door de turingtest komen.
Haha, lijkt hier te gaan om 2 experimentjes door elkaar; een van ms en een van 4chan.
4 Chan wilde kijken of ze het leerproces van ms kindje in de war konden schoppen en zo te zien is dat goed gelukt. Niet vreemd aangezien het zelflerende algoritme gebaseerd is op menselijk leren.

Over de toekomst van AI valt te debatteren. In scifi zijn vele voorbeelden van vooral doem scenario's te vinden:
1.StarTrek: The Borg
2. Mass Effect: The Geth en Reapers
3.Terminator: Skynet
4. Blade Runner: Synths
5. The Matrix: alles in de matrix
6. De lift: de lift

Dus ja, robots in ons evenbeeld bouwen is wss geen goed idee en zal mogelijk resulteren in onze genocide en uitsterven van de menselijke soort. Logische evolutie.

Als zelfs Stepen Hawking in deze extrapolatie gelooft dan is dat reden tot zorg....

[Reactie gewijzigd door parryfiend op 26 maart 2016 21:19]

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True