Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
Advertorial

Door

"We staan aan het begin van een spannende reis met data als basis"

19 Linkedin Google+

Organisaties die hun data goed gebruiken, boeken concurrentievoordelen. Dus een goede inrichting van data-infrastructuur wordt steeds belangrijker. “Maar data moet wel voorzien zijn van betekenis. Waar komt die data vandaan? Uit welke systemen komt die data en welke verbanden zijn te leggen tussen datasets? Ook belangrijk, hoe is de data governance ingericht?” Remus Lazar, Director Watson Data Platform, Data Science and Machine Learning bij IBM is dagelijks bezig met deze vragen. Hij neemt de bezoekers van zijn presentatie op de Big Data Expo in Mechelen mee op een reis langs de uitdagingen van Big Data. Het Watson Data Platform vormt de basis.

Thomas J. Watson, de oprichter van IBM, heeft een waardig naamgenoot gekregen met Watson, de supercomputer van het Amerikaanse bedrijf. Wereldwijd steken technologiebedrijven als IBM, Google en Microsoft miljarden dollars in de supercomputers van de toekomst.

Big data vs quantumcomputers

Onlangs werd er meer nieuws bekend over de ontwikkeling van een supercomputer die werkt volgens het quantumprincipe: Delftse en Eindhovense fysici schreven in het gerenommeerde wetenschappelijke tijdschrift Nature over nieuw bewijs voor het bestaan van het Majorana-deeltje. Dat deeltje zou een goede bouwsteen zijn om een quantumcomputer op te baseren. Dit betekent dat een stabiele quantumcomputer een stap dichterbij is gekomen. De Delftse natuurkundige Leo Kouwenhoven kondigde al in 2012 op een conferentie in Boston aan dat hij dichtbij de ontdekking was van dit deeltje, waar tachtig jaar tevergeefs naar was gezocht.
De Italiaanse theoreticus Ettore Majorana (1906-1938) voorspelde al in 1937 dat Majorana-deeltjes moeten bestaan. Sindsdien hebben wetenschappers er uitgebreid naar gezocht maar ze nooit gevonden. De Delftse onderzoekers kregen wel sterke aanwijzingen dat ze Majorana-achtig gedrag konden opwekken in supergeleidende chips.

IBM pakt het anders aan 

IBM en Google gebruiken andere methoden en hebben inmiddels de eerste testcomputers aan de praat die op termijn wellicht kunstmatige intelligentie ondersteunen en menselijke vragen kunnen beantwoorden. Er is een wedloop aan de gang met andere technologiegiganten, zoals Microsoft. Dat heeft de hoop gevestigd op Majorana-deeltjes voor de bouw van betrouwbare quantumcomputers, omdat die in theorie zeer stabiel zijn in een geheugenchip. Dat komt door hun topologische eigenschappen. Om wiskundige redenen kunnen Majorana-deeltjes niet van toestand veranderen.

Interpretatie van big data

Alle supercomputers draaien om de interpretatie van grote hoeveelheden data. Logischerwijze ht centrale thema van de Big Data Expo. Bijzonder aan het Watson-dataplatform van IBM is dat het zich al bewezen heeft in de praktijk. Watson deed in februari 2011 mee aan het tv-programma Jeopardy!, een tv-quiz waarbij kandidaten geld kunnen winnen als ze als eerste vragen correct beantwoorden. Deze Amerikaanse quiz kent een Vlaamse variant onder de naam Waagstuk, een spelprogramma op de Belgische zender VTM in de jaren ’90.

Watson wint Jeopardy!

De eerste versie van Watson, die werd ontwikkeld in 2007, wist slechts de helft van de vragen correct te beantwoorden. Om de beste menselijke deelnemers te verslaan, moest hij 90 procent van de antwoorden goed hebben. Watson moest dan bijvoorbeeld ironie en raadsels herkennen, iets waar computers meer moeite mee hebben dan mensen. In februari 2011 deed Watson opnieuw mee aan Jeopardy! en nam hij het op tegen de twee grootste spelers uit de geschiedenis van het programma: Brad Rutter en Ken Jennings. Rutter speelde in de eerste ronde nog gelijk tegen Watson maar de supercomputer van IBM won vervolgens alle andere rondes overtuigend. De eindstand van de driedaagse competitie was: Watson: $77.147, Jennings: $24.000 en Rutter: $21.600. Twee weken na zijn succesvolle tv-optreden nam Watson het in een proefwedstrijd van Jeopardy! op tegen vijf leden van het Amerikaanse Congres. Watson won ook deze wedstrijd ($40.300-$30.000) maar verloor wel van het congreslid Rush D. Holt, Jr., een oud-deelnemer.

Zelflerend systeem

Watson bestaat uit een zelflerend systeem, dat een in spreektaal gestelde vraag kan interpreteren. Het gebruikt een verzameling van encyclopedien, boeken, tijdschriften, wetenschappelijke artikelen en gedownloade websites om binnen enkele seconden een goed antwoord op vragen te geven. Watson maakt gebruik van op maat gemaakte 'diepe-vraag-en-antwoordsoftware' die verder gaat dan conventionele kunstmatige intelligentie. Watson berekent ook de betrouwbaarheid van zijn antwoorden, wat de goede scores verklaart bij de Jeopardy!-quiz.

Big data-uitdagingen

Remus Lazar legt uit hoe IBM met Watson inspeelt op de uitdagingen van big data: “Watson begon als een intern project. Sinds september 2016 stellen we dit platform ook beschikbaar voor extern gebruik. Engineers,  applicatieontwikkelaars en businessanalisten kunnen deze gebruiken om hun eigen big data-toepassingen te ontwikkelen. Wij spelen in op hun behoeften door de toegangscontrole optimaal te regelen. Uiteraard voldoet de governance, het toezicht op en het beheer van onze datasets en analysemodellen, aan de eisen die de Europese Unie hieraan stelt via de gdpr-wetgeving. In onze zwaarbeveiligde datacenters in Londen en Frankfurt kan IBM data betrouwbaar en redundant opslaan en beschikbaar stellen aan onze klanten voor analyses en onderzoek voor pipeline computing.

Volgens Lazar krijgen ontwikkelaars, engineers en businessanalisten door de combinatie van big data en machine learning voorheen ongekende instrumenten om kunstmatige intelligentie naar een hoger plan te tillen. “Maar het is dan wel belangrijk om eerst goed na te denken over de implicaties die technologie gaat krijgen voor ons leven. IBM heeft een lange geschiedenis op dit gebied en kan data op vele manieren toegankelijk maken, rekening houdend met de risico’s. Computers zullen steeds beter in staat zijn om in gewone taal te communiceren met mensen. In mijn presentatie zal ik uitleggen hoe IBM organisaties helpt het beheer van de benodigde data te vereenvoudigen om er grip op te houden.”

Reacties (19)

Wijzig sortering
Wat is het toch met mensen dat we onszelf zo gemakkelijk onderwerpen aan door onszelf ontworpen systemen? Je ziet het overal, de economie! Alles staat in het teken van de economie! Allerlei andere systemen/instituten zoals de sociale dienst waarin de computersystemen ook hoogtij vieren etc. etc. Check "I Daniel Blake" als je een kut dag wilt hebben. Mensen overal gereduceerd tot een paar bitjes.

Het is echt triest.
Hoewel economie zeker een grote rol speelt bij het gebruik van algoritmes, vermoed ik dat onwetendheid een nog grotere rol speelt. Er zijn buiten de ICT denk ik weinig mensen zich cht bewust wat voor invloed deze systemen hebben op onze levens. Net een stukje gekeken van de eerdere aangehaalde VPRO documentaire. Als algoritmes bepalen op wie verliefd worden, dan zou het ons langzamerhand weleens te denken mogen geven (of ook daar economie een rol inspeelt weet ik niet - het zou natuurlijk kunnen). Zoals ik al eerder zei, mensen zijn zich daarvan helaas onvoldoende bewust.

Ik ben er zelf voorstander van om het gebruik van algoritmes terug te dringen. Het probleem blijft echter dat je als enkeling, je niet zomaar tegen een systeem/algoritme kan verzetten. Terug naar de menselijke maat lijkt mij het beste. Een computer voelt immers geen emotie en evenmin de consequenties van een bepaald besluit. Juist die twee dingen missen we dan ook steeds meer.

[Reactie gewijzigd door JKP op 24 april 2018 14:00]

Ik bedoelde economie als een door ons zelf verzonnen systeem waar we onszelf aan onderwerpen. Je krijgt dan zo'n "het systeem zegt" cultuur waardoor de menselijkheid en het besef dat het om mensen gaat de deur uit gaat.
Black Mirror, seizoen 3, aflevering 1: Nosedive. Ook zo'n "heerlijke" dystopische setting. Ook een kijktip :-)
Ik mis het dystopische bij wat ik van black mirror heb gehoord.. Alles wat ik voorbij heb horen komen word in zekere zin toegepast..
In zekere zin. Maar wel rg ver doorgetrokken en er van uitgaande dat de mensen vaak cht geen vrije wil meer hebben. En elk verhaal is compleet anders qua opzet en vertelling :)
Ik ken het, Charlie Booker weet wat actueel is. Heb het nog niet durven kijken, mij net iets te depressing. :)
Actuele (vorige week uitgezonden!) kijktip:

https://www.vpro.nl/progr...fd-aan-het-algoritme.html

EDIT:

Bedrijven, en in toenemende mate ook overheden, zetten algoritmes in om bureaucratische processen te automatiseren. Deze algoritmes, sets van instructies en regels die gevoed worden door big data, bepalen ongemerkt meer en meer ons leven. Zo bepaalt het algoritme van Facebook welke (politieke) advertenties we te zien krijgen en zien grote groepen werknemers in de on-demand-economie zelfs nooit meer een baas. Zij worden van sollicitatieprocedure tot ontslagaanvraag aangestuurd door een algoritme. Waar moeten ze klagen als er iets niet loopt zoals het hoort?

[Reactie gewijzigd door DigitalExcorcist op 24 april 2018 11:29]

'Computer says No'. Interessante aflevering idd, met name het inzicht dat algoritmes bol staan van onze biasen. Interessant als je winst wil maximeren want er is altijd sprake van veel laaghangend fruit, maar zodra je als individu van een algoritme afhankelijk bent, ben je al snel de sjaak.
Dit wordt vaak geroepen, maar het zijn niet de algoritmes die bias vertonen; het zit in de data. Feitelijk is er een algoritme (zeg RandomForest of regressie) en de parameters van het algoritme worden getuned op basis van data.

De data bepalen waar de decision trees uit het RandomForest de data splitsen en welke gewichten er in de regressie komen. Dit proces heet trainen en is een iteratief proces; begin met willekeurige gewichten, maak een voorspelling voor de data, bereken verschil voorspellingen en werkelijke data, pas de gewichten aan, enzovoorts. De bias komt niet uit het algoritme zelf, maar zit dus in de data verstopt. Hoe komt die bias daar?

Het antwoord is meestal; door mensen... Neem bijvoorbeeld de rascisitsche chatbot van Microsoft; deze kreeg disproportioneel veel racistische teksten gevoerd en leerde die keurig netjes aan. Zelfde kan gebeuren bij bijvoorbeeld de politie die bepaalde groepen vaker controleert en (daardoor) meer criminaliteit ontdekt bij die groep. Vervolgens wordt het beeld bevestigd, nog meer controles en er kan een vicieuze cirkel ontstaan. Een statistisch model zal deze bias vervolgens ook aanleren.

Punt is dat machine learning niet bias creeert, maar vooral uit de "werkelijkheid" overneemt. Doorgaans ontstaat de bias door menselijk handelen. Maar vraag je jezelf dan ook eens af of die bias er niet net zo hard zou zijn als beslissingen door mensen worden gemaakt. Uit onderzoek blijkt bijvoorbeeld dat aantrekklijke mensen door rechters lagere straffen opgelegd krijgen dan minder aantrekkelijke mensen: https://onlinelibrary.wil....1559-1816.1980.tb00715.x ...

Voordeel van machine learning is dat biases (soms) gekwantificeerd kunnen worden en dat er mogelijkheden zijn tot correctie. Bij het politievoorbeeld zou je bijvoorbeeld het aantal controles kunnen corrigeren naar de groepsverhoudingen in de maatschappij. Ook voor complexere modellen zijn er opties om bias te corrigeren, bijvoorbeeld via adversarial learning: http://www.aies-conferenc...n/AIES_2018_paper_162.pdf

Kortom, bias is er sowieso maar de vraag is wat je er tegen kunt doen. Een kwantitatieve aanpak kan daarbij ook voordelen hebben, al is het dan wel belangrijk dat je inzichtelijk kunt maken waarom een algoritme op een bepaalde beslissing uitkomt. Afhankelijk van het gebruikte algoritme kan dat een uitdaging zijn, maar ook daar worden steeds meer stappen gezet. Daarnaast moeten we niet de illusie hebben dat iets "waar" is "omdat de computer het zegt" of "omdat het blijkt uit de data". Juist met statistiek is het altijd een kwestie van steekproven nemen en waarschijnlijkheden ;)

On topic:
Wat mij betreft weer een redelijk onsamenhangend verhaal dit over Big Data en Quantum Computing... Naar mijn mening zijn deze twee onderwerpen momenteel niet erg gecorreleerd. Big data is nu relevant en bijvoorbeeld GPU's zijn een enorme sprong voorwaarts qua computing power voor neurale netwerken (maar daar wordt dan weer geen woord over gerept).

Quantum computing ligt nog vrij ver in de toekomst en om te stellen dat de andere spelers daar vol op inzetten gaat me wat ver. Kijk bijvoorbeeld naar Google die met TensorFlow juist GPU computing (of liever platform onafhankelijke computing) een stuk eenvoudiger heeft gemaakt...

[Reactie gewijzigd door Morrar op 24 april 2018 16:04]

Ja; maar wie genereert die data dan?

Stel dat ik een compleet overzicht heb van het Nederlandse bedrijfsleven van de afgelopen 50 jaar, en dan bedoel ik lengte van dienstverbanden, lonen, promotiekansen, en dan gefilterd op mannen, vrouwen, allochtoon, autochtoon en leeftijdsgroepen.

Dan zie je in die data dat mannen structureel mr verdienen dan vrouwen, eerder promotie maken, autochtonen meer kansen hebben op de arbeidsmarkt en ouderen eerder ontslagen worden, even grofweg gezegd.

Nu maak je een algoritme voor een uitzendgigant die op basis van ingestuurde CV's kansen gaat berekenen op de arbeidsmarkt en mensen uitnodigt voor gesprekken/sollicitaties/aanmeldingen. Die zal zich netjes aan de trend van de afgelopen paar decennia houden, omdt die data nou eenmaal zo opgesteld is. Ja; in dt geval maakt de data de bias. Maar het algoritme dan? Hoe maak je dan een volledig agnosisch (als je het zo moet noemen...) algoritme? Hoe bepaal je, en vooral: wie bepaalt, dat een algoritme 'zuiver' is en gn vooroordelen kent? Stel dat het algoritme vrouwen, ouderen en allochtonen voordeel gaat geven - moreel gezien prima, maar dan is er nog steeds geen zuiver algoritme.

Ik denk dat je nit kan ontkomen aan vooroordelen, 'bias', in algoritmes. Data wellicht wel, die kun je objectief samenstellen en zou altijd meetbaar moeten zijn. Het probleem zit vooral in de definitie van zuiverheid van het algoritme. Wie bepaalt wanneer iets 'zuiver' en onbevooroordeeld is?
Mensen genereren de data en daar ligt precies het probleem; menselijke (voor)oordelen sluipen in de data en het model pikt deze feilloos op. Als je vervolgens voorspellingen met het model gaat maken zonder hiervoor te corrigeren, dan trek je de bias inderdaad door naar de toekomst. Helemaal als je de voorspellingen van zo'n model klakkeloos voor waar aanneemt.

Het probleem is dat er meestal ofwel niet objectief gemeten wordt of dat het onderliggende proces dat data genereert niet objectief is. Bij het politievoorbeeld wordt niet objectief gemeten (want controles en dus de steekproef zijn niet willekeurig). Bij het CV verhaal wordt er misschien wel objectief gemeten, maar zijn de beslissingen over de hoogte van salaris niet objectief. De metingen of de data of beiden zijn dus het issue; als de politie echt willekeurig zou controleren, zou je data objectief zijn (aantal delicten is onafhankelijk van kans op controle) en daarmee ook je model. Als werkgevers echt onbevooroordeeld zouden zijn, zou je dat ook in de data terugzien (vrouwen verdienen dan evenveel als mannen) en dus zal je model geslacht niet meewegen. Het model wordt alleen afgerekend op voorspellingen die niet overeenkomen met wat al in de data opgesloten zit.

Wel kun je natuurlijk ook maatregelen nemen bij het bouwen van het model; allereerst zou je variabelen waarbij je vreest voor bias simpelweg niet mee kunnen geven bij het trainen van het model. Dus geen zaken als ras, leeftijd of geslacht zou al een stuk kunnen schelen. Daarnaast kun je corrigeren voor "sampling bias". Als je weet dat bijvoorbeeld 20% van de politiecontroles zich richt op jonge allochtonen terwijl deze groep maar 5% van de Nederlandse bevolking is, dan kun je hiervoor correcties toepassen (probleem is dat 1e getal niet bijgehouden wordt in de realiteit).

Daarnaast zijn er dus technieken om de bias te ontdekken en eventueel te corrigeren; zie de paper over adversarial leaning. Dit komt ongeveer hier op neer:
The input to the network X, here text or census data, produces a prediction Y, such as an analogy completion or income bracket, while the adversary tries to model a protected variable Z, here gender or zip code. The objective is to maximize the predictor's ability to predict Y while minimizing the adversary's ability to predict Z.
Je traint dus 1 neuraal netwerk om bijvoorbeeld inkomen te voorspellen uit een set variabelen (met daarin o.a. het geslacht). Daarnaast train je een tweede netwerk dat uit de voorspellingen van het eerste netwerk de variabele met bias (dus geslacht) probeert te voorspellen. Als het tweede netwerk succesvol het geslacht kan voorspellen uit het voorspelde inkomen, dan weet je dat je model een bias heeft op die variabele.

[Reactie gewijzigd door Morrar op 24 april 2018 16:45]

Ja; maar stel dat je dat nou niet meeneemt in je dataset, maar alleen, bij wijze van spreke, opleidingsniveau. Puur omdat je een selectie van mensen met 'een relevante opleiding' wil hebben.

MIT staat bij voorbaat al hoger aangeschreven dan een random universiteit ergens in Verweggistan. Dan krijg je automatisch dus weer bias; immers, 'in het verleden behaalde resultaten....'.

Werkervaring? Niet geschikt, dan benadeel je starters of net-afgestudeerden
Leeftijd? Uit den boze.
Geslacht? Niet belangrijk/mag geen voorkeur krijgen

Dan valt er al weinig data meer op te maken. Ja, iedern wordt dan een speciaal sneeuwvlokje - heck, er is nu al gezeur genoeg dat er meer vrouwen in de top moeten terwijl al aangetoond is dat vrouwen vaker en liever parttime werken - zie jij een CEO part time werken? Ik ook niet. Ik misgun het niemand, maar moet je dan maar een vrouw aannemen omdt je een vrouwenquotum hebt en dus wel met? Dus als een soort excuus-Truus? Nee, dat werkt k niet. Je moet de beste persoon op de juiste plek hebben. Maar he bepaal je dat, puur objectief gezien?

Afijn, ja je laatste voorbeeld zou kunnen werken - maar stel dt je algoritme een flaw heeft, hoe ga je dat dan veranderen znder een nieuwe bias in te bouwen de verkeerde kant op? ("750% van het bedrijfsleven is man, ds klopt het algoritme niet en moet het algoritme bepalen dat 50% man en 50% vrouw wordt").
Helemaal eens dat de bias in de data zit.

Los van de vraag of dat eigenlijk wel te voorkomen is, is er nog een probleem: algoritmes zijn statistische instrumenten zodat personen en hun gedrag uiteindelijk altijd in een bepaald hokje geplaatst worden. Helaas past niemand precies in zo'n hokje. Dat maakt dat algoritmes eigenlijk niet geschikt zijn voor individuele oplossingen zodra die een groter belang hebben dan iets als 'misschien vind je dit filmpje k leuk'.
Eerlijk gezegd vind ik dat ook een beetje kort door de bocht. Inderdaad statistische modellen gaan op zoek naar algemeen geldende patronen in de data. Als een uitkomst echt geheel idiosyncratisch is, dan zul je geen patronen vinden; maar zou een mens daar dan wel iets zinnigs over kunnen zeggen denk je?

In feite probeert een model een uitkomst te voospellen op basis van een set kenmerken. De voorspelde uitkomst kan afwijken om grofweg 3 redenen: 1) verkeerd model 2) meetfouten in de data 3) kenmerken die ontbreken in de data.

Verkeerd model zie je vaak terug in de afwijkingen (error); er zitten bijvoorbeeld patronen in de afwijkingen als je een lineair model gebruikt terwijl de verbanden non-lineair zijn. Valt dus op te lossen....

De meetfouten zijn niet op te lossen, maar daar zou een menselijke beoordelaar net zo goed last van hebben lijkt me...

Tot slot, ontbrekende kenmerken / data. Het kan natuurlijk zo zijn dat er factoren een rol spelen in het proces dat je probeert te modelleren die je niet hebt gemeten / kan meten. Je model is dan niet perfect. Mensen zouden een intuitie kunnen hebben over die kenmerken, maar daar zit ook het grote gevaar. Soms voegt die intuitie wat toe, maar soms ook juist niet; menselijke oordelen kunnen ook vertekend worden door vooroordelen en stereotypes.

Dus dat een model niet perfect voor alles en iedereen voorspelt hoeft geen ramp te zijn. Waar het om gaat is of je het beter of slechter doet dan een mens in dezelfde situatie. In veel gevallen is dit gewoon te testen. De populariteit van data en machine learning geeft wellicht aan dat statistische modellen wat te bieden hebben, al zijn de verwachtingen op dit moment denk ik wel veel te hooggespannen :)

[Reactie gewijzigd door Morrar op 24 april 2018 19:36]

Ik twijfel er niet aan dat er enorm veel te winnen is, het punt is alleen dat je er mensen er nooit afhankelijk van zou moeten maken, dergelijke systemen zouden altijd aan de mens moeten vragen: zou het kunnen kloppen dat in jouw geval... [ vul in ]

Op zo'n manier is statistische aannemelijkheid bijzonder waardevol. Zodra je individuen rechtstreeks behandelt alsof ze zo'n statische aannemelijkheid zijn zul je m.i. in enorm veel gevallen de plank misslaan omdat de mens simpelweg veel meer variatie kent dan je in een abstract systeem kunt vangen - zou dat wel lukken dan zou er geen sprake meer van abstract systeem of algoritme zijn, maar van een exacte beschrijving van alle individuen. Er zijn mensen die geloven dat er 1 heilige (Mandelbrot achtige?) formule bestaat die de complete wereld tot in het kleinste detail kan beschrijven maar ik geloof dat die groep niet al te groot is ;)

Het punt is m.i. dat op dit moment die foutmarge voor veel exploitanten niet zo interessant is omdat er zoveel laaghangend fruit is: stel bijv. dat 50% van de markt een gruwelijke hekel aan je krijgt terwijl je de overige 50% van de markt pakt (zonder dure service afdeling) omdat die zich wel redelijk bediend voelt dan is dat voor een commercieel bedrijf hosanna maar voor een essentile toepassing zou dat m.i. ontoelaatbaar zijn.

Ik vind overigens dat 'beter of slechter dan een mens' op zich ook al een discutabele maatstaf is - een mens kan je werkelijk begrijpen, empathie tonen, je kunt een mens tot de orde roepen, je kunt samen lachen terwijl je een serieuze zaak bespreekt, met een mens kun je een eindeloos rijke interactie hebben die enorm bepalend is voor je ervaring en voor de uitkomst van de interactie. Een ervaring die bovendien veel verder kan gaan dan de interactie of het onderwerp op zich; een kleine opmerking tussen de regels door kan je inspireren op hele andere vlakken. Ik geloof niet dat je dergelijk gemis kunt vangen in bijvoorbeeld de bestaande klanttevredenheid metrics. In de toekomst zal AI hier vast heel dichtbij kunnen komen en misschien zelfs wel verder dan we ooit voor mogelijk hielden, maar tot die tijd twijfel ik er niet aan dat we gedoemd zijn om te moeten worstelen met slecht werkende, kille systemen die als je mazzel hebt van een leuk behangetje en een klachtenprocedure zijn voorzien, helemaal omdat de huidige idee is dat dit soort systemen in de praktijk hun ervaring op moeten doen - en daarnaast dus omdat veel (vooral commercile) partijen lak zullen hebben aan die ontevredenheid in ruil voor de kostenefficiency gecombineerd met dat deel van de markt wat het allemaal wel prima vindt (of alleen naar de prijs kijkt).

Los hiervan zijn er natuurlijk ontelbaar veel mogelijke toepassingen waarbij het helemaal niet om menselijke identiteit, gedrag of bediening gaat, daar zal e.e.a. nog veel effectiever zijn (en minder weerstand oproepen). Die reis is allang begonnen en zal m.i. idd fantastische vruchten opleveren - maar zoals bij iedere nieuwe techniek, helaas ook verschrikkelijke en dan vooral in die gevallen waar de mens niet boven de techniek gesteld wordt.
Net gezien, wel grappig die Cathy zegt het zelf ook: "We are enslaving ourselves to this technology".
Ik weet niet of er iemand hier nog met IBM in zee wil gaan, gezien hun herhaalde strategie om steeds meer werk naar India te verplaatsen. Ze staan niet voor niets tegenwoordig bekend als Indian Business Machines. Dat wil je niet hebben met de GDPR.

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Samsung Galaxy S9 Dual Sim OnePlus 6 Battlefield V Microsoft Xbox One X Apple iPhone 8

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*