Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties

De Nederlandse Wetenschappelijke Raad voor het Regeringsbeleid concludeert dat de huidige regels burgers onvoldoende beschermen omdat deze zich alleen richten op het verzamelen en delen van gegevens. Er zijn nieuwe regels nodig, concludeert het adviesorgaan.

De WRR breekt big data-processen op in drie fasen: verzameling, analyse en gebruik van gegevens. Omdat de juridische regels zich op dit moment alleen richten op het verzamelen en delen van gegevens, vallen analyse en gebruik van de gegevens vooralsnog buiten de regels, waardoor de nieuwe regels nodig zijn. De raad wil niet adviseren de regelgeving rond het verzamelen van data te verzwaren, omdat dit een groot deel van de 'belofte van Big Data in de kiem zou smoren'.

De raad stelt daarom een aantal nieuwe kernbestanddelen voor bij het gebruik van big data, zoals het wettelijk vastleggen van de verantwoordelijkheid van een gegevensverwerkende partij en strikte handhaving van het verbod op geautomatiseerde besluitvorming en bestrijding van semi-geautomatiseerde besluitvorming in de gebruiksfase. Dat laatste betekent dat een systeem geen zelfstandige actie mag ondernemen aan de hand van eigen interpretatie van data. De voorkeur ligt voor de raad bij een combinatie van big-data-analyse en menselijke beoordeling. De raad noemt het Amerikaanse voorbeeld waarbij computers personen op een no-fly-lijst zetten zonder menselijk oordeel.

big data proces in fasen wrr

Ook moeten voor burgers en maatschappelijke organisaties, zoals burgerrechtenbewegingen, betere mogelijkheden komen om wetgeving en beleid rond big data-toepassing juridisch te laten toetsen. De WRR wil verder dat er nieuwe regels komen over de toelaatbare foutmarges bij het opstellen van profielen in de fase waarin gegevens worden geanalyseerd, onder andere door het verstevigen van toezicht op de gebruikte algoritmes voor de analyses.

De WRR geeft wel aan in het rapport dat het niet makkelijk is om in kaart te brengen "hoe en in welke mate big data zich in het Nederlandse veiligheidsdomein manifesteert." Dit komt doordat er vaak sprake is van geheimhouding en experimentele toepassingen.

Een van de kernbestanddelen uit het nieuwe kader moet ook zorgen voor meer duidelijkheid over wat instanties doen met de verwerking van gegevens die bedoeld zijn voor de veiligheid. Een van de zorgen is bijvoorbeeld dat data die verzameld zijn voor een bepaald doel, ook voor iets anders gebruikt worden. Dat alles vraagt ook om een extra investering in de kennis van de verweking van big data-analyses bij toezichthouders zoals de Autoriteit Persoonsgegevens en de Commissie van Toezicht op de Inlichtingen- en Veiligheidsdiensten. De WRR maakte het rapport op verzoek van het kabinet en is te downloaden via de website van het adviesorgaan.

Moderatie-faq Wijzig weergave

Reacties (49)

Ik denk dat je een ontmoedigingsbeleid moet voeren. Niet zomaar data verzamelen omdat het kan en we zien wel wat ermee gebeurd.

Gooi er een automatische boete van 2500 euro per gelekt klantenbestand tegenaan die aan de persoon betaald moet worden wanneer er een lek is geweest. En uiteraard een meldplicht, wanneer dat laatste niet gedaan wordt, gaat de boete naar 5000§.

Wat win je ermee? Bedrijven en overheden denken wel 5x na voor ze uberhaupt data van je gaan opslaan en zullen vervolgens akelig netjes met je data omgaan om lekken te voorkomen.

Lijkt mij een prima plan, ziet iemand nog haken en ogen? :)
Dat gaat dan helaas weer de andere kant op. Denk zoals falcohunter al zegt dat je daar ook ongewenste neveneffecten van gaat krijgen.

Stel ondanks alle maatregelen er komt een hacker binnen moet zon bedrijf dan in een keer failiet gaan aan de boetes? Zou dat goed zijn voor de samenleving?

Boetes zijn goed maar 2500 euro per klant lijkt me wat aan de hoge kant. Denk als het iets van 100 euro is dat het als afschrikmiddel al aardig werkt. De bedoeling is natuurlijk dat de bedrijven die echt serieus data willen minen dit nog wel kunnen. Maar je wilt niet dat zowat elk bedrijf dit doet omdat het bijna gratis is met alle gevolgen van dien. Dit lijkt nu wel het geval te zijn helaas.
Ja het bedrag kan je nog wat mee doen natuurlijk ,maar het moet wel pijn doen, en idd je bedrijf op het randje van de afgrond kunnen brengen. Dat is echt de enige manier om af te dwingen dat ze er netjes mee omgaan. Ethiek en winstmaximalisatie gaan slecht samen.

Aandeelhouders moeten er op staan dat de beveiliging goed voor elkaar is, dat is het moment dat je vooruitgang gaat boeken. :)

Maar het is nog geen perfect systeem, was een brainfart, maar het begin is er. ;)
Ik denk dat de mate van nalatigheid een belangrijke factor moet zijn. Bedrijven die hun beveiliging slecht op orde hebben zouden dan een (hogere) boete krijgen, maar het kan ook dat een bedrijf in feite alles goed doet maar het toch lukt om gehackt te worden. Afhankelijk van de waarde van de data die er is moet dan de beveiliging aan een hogere standaard worden gehouden. Dat wordt al gauw weer ingewikkeld...
Ik denk dat de mate van nalatigheid een belangrijke factor moet zijn.
Helemaal mee eens.

Als blijkt dat de wachtwoorden van gebruikers niet versleuteld werden, dan mag er een stevige boete volgen wat mij betreft. Zelfde geldt voor zaken als credit card gegevens.

Maar ja nu weer even terug naar de realiteit. In 2014 werd duidelijk dat de meeste basisscholen de gegevens over de leerprestaties van de kinderen gewoon delen met een 'kartel' van uitgevers van leermateriaal. De cijfers die kinderen bij toetsen hadden gehaald en de opmerkingen van leraren e.d. werden zonder dat dit aan de ouders was gevraagd, of zelfs maar gemeld, gedeeld met commerciele derde partijen.

Wat is ermee gebeurd? Is dit nu opgelost? Zijn er boetes uitgedeeld?
Helaas, niks van dat alles. Mijn kinderen worden vanaf hun 4e gevolgd en die data ligt ergens te wachten om gelekt te worden. En we kunnen er niks tegen doen want ja.. leerplicht he.

Grappig overigens dat ze handboeien gebruiken om de laatste fase te illustreren... Of toch eigenlijk niet zo heel grappig allemaal? ;(

[Reactie gewijzigd door OddesE op 28 april 2016 22:28]

Daar moet dan ook wel tegenover staan dat de gebruiker enige verantwoordelijkheid toegeschreven kan worden als die echt grof en opzettelijk nalatig is geweest. Maar inderdaad, zo'n regeling zou leuk zijn. Helaas is het utopia.

[Reactie gewijzigd door Vayra op 29 april 2016 01:38]

Ligt er aan natuurlijk. Als u kinderen daar met naam en toenaam vermeld zijn, lijkt me dat u daar zelf aktie tegen kunt ondernemen. Als het enkel de resultaten zelf zijn, tezamen met alle andere resultaten van alle andere kinderen zonder dat dit direkt te herleiden is tot kind X, zie ik het probleem niet zo. Gewone statistiek ...
Nee gaat op leerlingnummer of zo denk ik. Ze gebruiken het om leerprestaties te volgen. Niet anoniem iig. En wat je er als ouder aan zou kunnen doen? Niet veel denk ik, behalve misschien een school speciaal er op uitzoeken
Ik vind dat een bedrijf best wel failliet mag gaan na een hack want de gevolgen voor de klanten kunnen enorm zijn. Als je persoonsgegevens worden misbruikt is het in elk geval juridisch niet aan te tonen dat dit komt door de hack van een bedrijf waar jij klant was en kun je dus geen schadevergoeding eisen. Ze komen er zo dus mee weg. Daarom lijkt mij zo'n draconische boete wel op zijn plaats.

[Reactie gewijzigd door ArtGod op 28 april 2016 19:47]

Met een idioot hoge boete zorg je er alleen voor dat bedrijven het niet meer gaan doen en degenen die het wel doen gaan het geheim houden. Laatste wat je wilt is dit het illegale circuit in duwen.

Boete is ok maar geen boete die bij elke keer dat er een lek is gelijk het hele bedrijf met de grond gelijk maakt.
Ze kunnen ook besluiten om de informatie die ze vergaren maar tijdelijk op te slaan of maatregelen nemen (zoals de database versleutelen) zodat zelfs bij een lek er niemand bij kan.
Een database moet ontsleuteld worden om mee te kunnen werken. En data lekken gebeuren net zo vaak van binnenuit als van buitenaf de applicatie (speculatie, ok).

Toegang tot de machine kan best een deel van het lek zijn, maar ik gok zo maar even dat lekken -in- de applicatie net zo vaak voorkomen.

SQL injecties zijn hopelijk verleden tijd, maar er zijn genoeg andere technieken om webservers voor de gek te houden...
Als dat de toekomst is zullen veel internetbedrijven hun deuren sluiten omdat het risico op het lekken van gegevens of een ander beveiligingsprobleem te groot is. Als de boetes iets omlaag kunnen dan is een klein bedrijf niet meteen faliet na een Lek.
Prima if you can't stand the heat....

Maar idd het boetebedrag moet nog bepaald worden, maar een 10tje is te weinig, en 10.000§ is teveel. Maar vooral kleine bedrijven moeten wat meer energie in beveiliging steken, dus die blijven wat mij betreft echt niet buiten schot.

Je hoeft niet direct failliet te gaan maar als je binnen een jaar of 2 weer de boel verkloot dan mag de 2de boete je best de das om doen.

Moet je als bedrijf maar het belang ervan inzien en anders simpelweg geen data opslaan (of volledig anoniem). Data opslag is geen verworven recht van bedrijven hoor, als je de verantwoordelijkheid niet kan dragen moet je gewoon niks opslaan, heel simpel.
Dan steekt bedrijf A zijn data in 'onafhankelijk' bedrijf B met een minimaal kapitaal zodat dat gewoon failliet gaat als er iets misgaat. Met een dergelijke aanpak tref je alleen kleine ondernemers die geen jurist in dienst hebben om dergelijke risico's afzonderlijk te verpakken.

Ik ben het absoluut eens met je mening dat bedrijven niet meer data moeten opslaan dan ze nodig hebben voor hun bedrijfsvoering en dat de mensen wiens data opgeslagen wordt ook het recht hebben om te weten wat en waarvoor, maar op deze manier gaan we dat niet in orde krijgen.
Er zijn wel meer wetten in koophandel die de eerste in lijn i.p.v. de leverancier van een dienst verantwoordelijk stellen. Bv. mijn boekhouder is niet verantwoordelijk maar ik. Als ik mensen een schijnzelfstandigheid aanbied dan ben ik verantwoordelijk en niet zij. Hoewel dat, heb ik begrepen met de nieuwe VAR wetgeving, in Nederland zal veranderen.
Je boekhouder is een wat ongelukkig voorbeeld omdat het er bij fouten om gaat dat jouw boekhouding niet aan de wettelijke vereisten voldoet. Daar draai jij voor op. Afhankelijk van je contract met je boekhouder kan jij hem wel aansprakelijk stellen voor de geleden schade.

Dat is iets heel anders dan wanneer ik als bedrijf iets koop (verwerkte gegevens) van een 'onafhankelijk' bedrijf dat diezelfde dienst (misschien) ook levert aan nog andere bedrijven. Als ik 'ter goeder trouw' Volkswagens koop, hoef ik ook niet op te draaien voor hun sjoemelsoftware, niet?

Ik verdraai hier bewust de feiten, maar wees maar zeker dat grotere bedrijven met juridische diensten hier zonder problemen een waterdichte oplossing voor vinden, al dan niet internationaal en dat vooral een klein bedrijf dat zijn bestellingen in excel verwerkt en eens last krijgt van malware (want een dergelijke wet zou het wel zeer interessant maken om alle bedrijven die je gegeven hebben te gaan hacken) de dupe wordt van en voorstel zoals jij het gedaan hebt.

Dus geen probleem met het idee, maar de uitwerking gaat wat ingewikkelder zijn en wat internationale samenwerking vragen.
Misschien bedrijfs kapitaal afhankelijk?
In Noorwegen (?) Krijg je ook verkeersboetes op basis van je maandinkomen. Hoger inkomen is hogere boete.
Dan kun je gewoon een x% boete opleggen bij een lek.
Bedrijfskapitaal als alles geleased wordt?
Ik denk dat je een ontmoedigingsbeleid moet voeren. Niet zomaar data verzamelen omdat het kan en we zien wel wat ermee gebeurd.

Gooi er een automatische boete van 2500 euro per gelekt klantenbestand tegenaan die aan de persoon betaald moet worden wanneer er een lek is geweest. En uiteraard een meldplicht, wanneer dat laatste niet gedaan wordt, gaat de boete naar 5000§.

Wat win je ermee? Bedrijven en overheden denken wel 5x na voor ze uberhaupt data van je gaan opslaan en zullen vervolgens akelig netjes met je data omgaan om lekken te voorkomen.

Lijkt mij een prima plan, ziet iemand nog haken en ogen? :)
Baas van mijn eigen informatie !!
Permanente opt-in regeling voor big-data boeren !!
Das het probleem een beetje. Het is niet jouw informatie. Jij hebt die informatie zelf gedeeld dus is nu (ook) eigendom van de ander.
Het zou zulk soort instanties goed doen om mensen meer bewust te maken van wat ze delen en met wie. Het afdoen met een argument als "de belofte van big-data", en het hiermee publiekelijk acceptabel te maken, is geheel onverantwoord.

Daarom het argument van een permanente opt-in verplichting voor de verzamelaars.
Deze opt-in regeling dient dan ook in voor iedereen duidelijke taal uit te leggen op welk vlak mensen zich gaan bewegen door er mee in te stemmen. Op elk moment hoort het mogelijk te zijn deze overeenkomst te ontbinden door de gebruiker.
Ik denk dat je een ontmoedigingsbeleid moet voeren. Niet zomaar data verzamelen omdat het kan en we zien wel wat ermee gebeurd.
Voor persoonsdata dat is de huidige wet al. Controle en handhaving zijn natuurlijk problematisch.

Boetes geven voor lekken klinkt als een goed idee maar moeten dan alle Microsoft servers meteen offline als er een mogelijk ongepatched probleem is? Krijg ik ook een boete als ik een volledig up to date systeem heb en er komt een hacker binnen op een manier die niemand kan achterhalen? Krijg jij ook een boete als je smartphone gestolen word met daarin all mijn contact gegevens?
Zeker goed dat een meer compleet en genuanceerd beeld wordt neergezet maar dit:

handhaving van het verbod op geautomatiseerde besluitvorming en bestrijding van semi-geautomatiseerde besluitvorming in de gebruiksfase

is praktisch onmogelijk wat mij betreft, dit betekent namelijk ook dat alle toepassingen van algoritmes die beslissingen nemen opeens illegaal zijn/bestreden moeten worden, dus geen Facebook timeline, geen Google search, geen Bol.com aanbevelingen, etc. Dat zijn namelijk allemaal beslissingen die door algoritmes worden genomen zonder menselijke interventie, met name door de schaal waarop die beslissing moet plaats vinden, dus naast de hoeveelheid signalen die zo'n algoritme kan gebruiken voor zijn beslissing is het pure aantal beslissingen veel te groot voor mensen. De grens tussen dit soort toepassingen en iemand op een no-fly zone zetten ligt eigenlijk alleen maar in de impact van die beslissing, niet in hoe die beslissing wordt genomen. Dus je moet kijken naar wat de impact is van een foute beslissing, niet het verbieden van automatisch beslissingen.
handhaving van het verbod op geautomatiseerde besluitvorming en bestrijding van semi-geautomatiseerde besluitvorming in de gebruiksfase

is praktisch onmogelijk wat mij betreft, dit betekent namelijk ook dat alle toepassingen van algoritmes die beslissingen nemen opeens illegaal zijn/bestreden moeten worden, dus geen Facebook timeline, geen Google search, geen Bol.com aanbevelingen, etc.
De WRR gaat over overheidsbeleid, private bedrijven zoals Facebook vallen daar in principe niet onder. Ik zou ook graag een dergelijk beleid hebben voor de commerciele sector maar dat is praktisch onmogelijk om te realiseren.

Dit rapport gaat dus vooral over wat overheidsinstanties zoals de politie en de belastingdienst mogen doen met je gegevens.

In dat kader moet je ook de term "besluitvorming" zien. Niet iedere beslissing is ook een besluit. "Een besluit is een schriftelijke beslissing van een bestuursorgaan, die een publiekrechtelijke rechtshandeling inhoudt" (art. 1:3 lid 1 Awb). Ik ben niet genoeg jurist om met goede voorbeelden te komen.

[Reactie gewijzigd door CAPSLOCK2000 op 28 april 2016 15:57]

Diverse overheden zijn nu al diverse zaken aan het vastleggen waarvan het nut en noodzakelijkheid niet kan worden aangetoond waar zelfs de rechters het niet mee eens zijn. Dat ze er toch mee weg komen om dat het geen officiŽle maatregel zou zijn is een voorbeeld van een maas in de wet die door het verbeteren van de regels aangepakt kan worden.

https://www.privacynieuws...-huishoudelijk-afval.html
Dus je moet kijken naar wat de impact is van een foute beslissing, niet het verbieden van automatisch beslissingen.
De impact van een foute beslissing is niet altijd goed te overzien/in te schatten en blijft ook relatief/subjectief.

Ik deel je mening dat een verbod op (semi)geautomatiseerde besluitvorming onhaalbaar lijkt maar zou dan eerder opteren op menselijke audits op de algorithmes om vast te stellen dat het menselijk oordeel hierin goedonderbouwd is verankert.
Houd er rekening mee dat je anti-spam tools dan ook niet meer werken, want de meeste gebruiken een bayesian based engine, ofwel een zelflerende kern.

Ook mogen banken dan bijvoorbeeld niet meer vol automatisch een krediet check uitvoeren op het moment dat jij een kredietaanvraag doet. Verzekeraars gebruiken big-data om risico profielen op te bouwen. Postcode, leeftijd en huwelijksstaat is waarschijnlijk de meest voorkomende risico profiel definitie.

Dit soort profielen is ook de reden waarom thuiswonende studenten met vermogende ouders vaak lagere premies betalen dan studenten met ouders uit achterstandswijken. Dat je bent met wie je associeert werd Microsoft onlangs zeer pijnlijk duidelijk met hun chat bot 'Tay'. Deze bot had letterlijk 'verkeerde vrienden' en het zelflerende systeem zorgde ervoor dat de bot ook racistische uitspraken ging doen. Hetzelfde beeld ziet met ook bij radicaliserende jongeren..

Er is op zich niets mis met big data analyse. Het geeft zelfs een hoop voordelen. Echter in het geval van bijvoorbeeld handhaving dient met het gebruik analyse uitvoer vooral als leidraad te gebruiken en niet als een bewezen feit.

Het doneren aan een verkeerd goed doel kan bijvoorbeeld ervoor zorgen dat je op een zogenaamde watchlist terecht komt. Dat men dat even iets dieper in je geschiedenis duikt is prima, maar als men automatisch overgaat tot arrestaties op basis van de analyse schiet men door. Men moet de output van bigdata analyse vooral als een tip zien..

Dat men nadenkt over het gebruik van big-data door de overheid is goed. Maar het zal lastig worden om een goede balans te vinden tussen gebruik en misbruikt. Maar die grens is bij bijna alle technologie moeilijk te trekken..
Houd er rekening mee dat je anti-spam tools dan ook niet meer werken, want de meeste gebruiken een bayesian based engine, ofwel een zelflerende kern.
Een anti-spam tool neemt geen "besluit" zoals dat volgens de wet is gedefinieerd. Dat is een beetje een laf antwoord want vergelijkbare problemen spelen ook op dit gebied maar we hebben het wel over een andere orde van ernst. Het wordt nog een keer interessant als een belangrijke e-mail ten onrechte wordt tegengehouden door een anti-spam tool waardoor er bv een onjuiste vergunning wordt verleend.
Ook mogen banken dan bijvoorbeeld niet meer vol automatisch een krediet check uitvoeren op het moment dat jij een kredietaanvraag doet. Verzekeraars gebruiken big-data om risico profielen op te bouwen.
De WRR gaat alleen over regeringsbeleid, banken en verzekeraars vallen daar niet onder.
Maar waarom moet wat fb doet met haar timeline en google search en online winkels voorrang krijgen boven alle andere afwegingen? Als het betekent dat die timeline er uit moet, zou dat het einde der tijden inluiden?

Waarom heb je de neiging om Big Data in bescherming te nemen tegen de overheid die mensen probeert te beschermen en het recht op privacy beter hoopt te kunnen garanderen?

Dan maar geen aanbevelingen! Daar ga je niet deaud van.
Omdat er in de toekomst veel meer processen zullen zijn die beslissingen autonoom zullen maken.

Een heel extreem maar niet onmogelijk voorbeeld (wat ik hier ter plekke uit mijn duim zuig): Apple CareKit heeft zometeen allerlei realtime parameters. Als een algoritme met een bepaalde statistische zekerheid een hartaanval kan vaststellen, mag het dan 112 bellen en je locatie doorgeven?

Daar ga je namelijk wel 'deaud' van...

[Reactie gewijzigd door JackBol op 28 april 2016 16:20]

Wie bepaald dat er in de toekomst meer processen en beslissingen autonoom genomen gaan worden?

Je praat alsof je de toekomst kent, alsof je geen inspraak hebt op die toekomst, alsof je accepteert dat anderen bepalen hoe die toekomst e ruit ziet. Alsof er geen maatschappelijke discussie over zou moeten zijn, alsof de corporatie bepalen mag wat er gaat gebeuren, wat jij aan technologie en diensten dient te consumeren.

Je geeft een voorbeeld waar niemand van zal zeggen dat het een slechte toepassing van technologie is. Maar kan datzelfde algoritme in een killer robot gebruikt worden om te controleren of de mens die hij heeft geliquideerd ook echt deaud is? :|

Naast de angst voor de dood die zowat elke technologie legitimeert...

Als angst technologie legitimeert, is het dan niet beter om die angst te overwinnen, eerder dan je zelf in te bedden met technologie?

Elke technologie heeft voor- en nadelen. Wegen die voordelen altijd op, als angst de drijfveer vormt? Gebruik je dan technologie niet als anxioliticum? Als die angst zo alom aanwezig is, dat we de AIVD en MIVD enorme macht geven uit angst voor terreur, is het dan verstandig om zulke technologie uit te vinden? Die angst voor de dood is er altijd en dat je dood gaat is onvermijdelijk Is het niet beter te accepteren dat je aan een hartaanval overlijd en die optie accepteert, als je daarmee de samenleving beveiligd tegen corrumperende controle en macht bij de overheid en haar diensten?

Ofwel, weegt jouw angst zwaarder dan de belangen van de samenleving als geheel? En als je hoe dan ook ooit zult sterven, waarom legitimeren we dan al die technologie die ons leven, ons daadwerkelijke leven en geluk, onze mogelijkheid tot zelfexpressie in gevaar brengt...en je weet dat een totalitaire dictatuur ook levens kost?

Dus dan is die technologie niet bepaald de beste oplossing, is het wel?

Dus wat Big Data betreft, of je nu praat over Big Data of Big Overheid, er zal altijd iets of iemand zijn die je op je pik trapt met wat ze van je weten. Altijd is er iemand met een vinger op de trekker en hoe meer je denkt dat een algoritme jouw leven gaat redden, hoe meer je tegelijkertijd ook de macht geeft aan anderen om juist je leven te bedreigen.

Big Data krijgt te veel macht. Informatie is niet je vriend. |:( En veel technologie is het wapen dat je een ander geeft om op jou te richten.
Een hele lange speech, maar voor mij zit je gewoon in het kamp met mensen die 100 jaar geleden bang waren van de auto, vliegtuig en de telefoon.
Ja dat zal wel, want het indelen van mensen in kant en klare categorieŽn is wel zo makkelijk. Dat maakt de wereld eenvoudiger en kun je beter een kant en klare munitie in je oordeelskanon laden. }>

Lees hoofdstuk 22 in 'Understanding Media' van McLuhan. Hoofdstuk 19 gaat over het wiel, de fiets en het vliegtuig.

Als je met een tijdmachine iemand die bang was voor wat de auto mogelijk voor schade zou doen aan mensen en maatschappij, naar dit moment zou halen en je zou hem/haar CBS statistieken laten zien over verkeersdoden en statistieken van ongevallen, wat zou die dan zeggen?

Zou je die persoon kunnen overtuigen dat al die doden en gehandicapten de uitrol van de auto aanvaardbaar maakten?

Hoofdstuk 27 gaat over de telefoon. En wat schrijft McLuhan?

"It is one of the ironies of Western man that he has never felt any concern about invention as a threat to his way of life.

M.a.w. die persoon van 100 jaar geleden, liever gezegd, van rond 1895, had geen enkel idee dat de auto verantwoordelijk zou worden voor een boel lijkkisten. Dat kon die zich niet conceptualiseren. Dus wat ik hierboven schreef klopt in zekere zin niet vanuit een perspectief van 1895, maar geconfronteerd met de statistiek anno 2016, zou zo iemand niettemin geschokt zijn.

Als je daarbij ook laat zien hoe veel problemen er ontstonden op milieugebied en klimaat problematiek, wat zou die persoon dan zeggen? Dat is allemaal okay want we kunnen tenminste wel op vakantie met de auto?

Dus...als die persoon zich bewust zou zijn geweest van de invloed van de auto op onze levenswijze, zou die dan niet gelijk hebben gehad in zijn angst?

[Reactie gewijzigd door Vendar op 30 april 2016 13:44]

We leven niet in een uopie. We rijden onszelf dood in autos terwijl we het milieu verneuken. We roken en zuipen onze lijven aan gort. We liggen voor de tv totdat we een trombose hebben. De mens streeft helemaal niet naar het hoogst haalbare maar naar luiheid en gemak.
En wat was je punt? Wat je beschrijft is okay? Of juist niet?
Bij een foute beslissing om voor niets 112 te bellen is er verder niet veel aan de hand.

Het gaat juist om beslissingen die wel desastreuze gevolgen kunnen hebben.
Hoewel het in mijn ogen supergoed is dat hier aandacht voor is, vraag ik me wel af hoe het WRR dat menselijk oordeel concreet voor zich ziet. De kracht van big data is nou juist dat je zaken als neural networking op kunt toepassen om een model te bouwen wat, bijvoorbeeld, de kans inschat dat iemand een risico in het vliegtuig is. Het nadeel is dat je achteraf niet echt kunt zeggen: deze persoon valt in een hoog-risico categorie want hij voldoent aan criteria X en Y. Nee, er worden juist een heleboel variabelen gecombineerd en voor die specifieke combinatie komt er een hoog risico uit - het is voor een mens lang niet altijd in te schatten of dat logsiche en/of redelijk is. In zo'n situatie zou het menselijk oordeel m.i. dus erg weinig toevoegen.

Aan de andere kant kun je je wel afvragen of iemand dan op een no-fly list moet, of dat je zo iemand simpelweg moet aanmerken voor extra controle - ook vervelend, maar dan is er ten minste nog een soort menselijk oordeel in de beslissing of deze persoon uiteindelijk mag vliegen.
Wat mij betreft is dit een indicatie dat we op technisch vlak ook nog niet klaar zijn om neurale netwerken voor besluitvorming in te zetten?
Mijn persoonlijke ervaring met neurale netwerken is bijvoorbeeld dat je soms wat prutst tot het werkt, en daarna maar heel beperkt kunt uitleggen waarom, of waar de conclusie van het algoritme op gebaseerd is (ga maar eens een mega-matrix interpreteren als mens).

Aan de andere kant maken sommige systemen minder fouten dan mensen (zie bijvoorbeeld medische 'expert systems'), maar is dit van te voren niet te voorspellen.
Mijn persoonlijke ervaring met neurale netwerken is bijvoorbeeld dat je soms wat prutst tot het werkt, en daarna maar heel beperkt kunt uitleggen waarom, of waar de conclusie van het algoritme op gebaseerd is (ga maar eens een mega-matrix interpreteren als mens).
Daarom zijn neurale netwerken niet toegestaan in vliegtuigapparatuur. De regels vereisen dat die volledig deterministisch is zodat je altijd kan begrijpen waarom een bepaalde beslissing is genomen. Onderzoek laat zien dat neurale netwerkjes heel geschikt zijn voor allerlei taken maar ze zijn niet controleerbaar.
Als het om mensenlevens gaat (letterlijk of figuurlijk) dan accepteren we die onzekerheid niet en eisen we dat iedere beslissing begrijpelijk en controleerbaar moet zijn.
Het nadeel is dat je achteraf niet echt kunt zeggen: deze persoon valt in een hoog-risico categorie want hij voldoent aan criteria X en Y. Nee, er worden juist een heleboel variabelen gecombineerd en voor die specifieke combinatie komt er een hoog risico uit - het is voor een mens lang niet altijd in te schatten of dat logsiche en/of redelijk is. In zo'n situatie zou het menselijk oordeel m.i. dus erg weinig toevoegen.
Wellicht begrijp ik het niet goed, maar je beschrijft hier m.i. het algorithme. Wat nog altijd door de mens zelf ingebakken is. Waarachter dus ook een menselijk oordeel zit...
Niet noodzakelijkerwijs. Big Data is juist met name geschikt voor deep/machine learning, waarbij de menselijke input beperkt is tot het vragen naar bepaalde conclusies en de computer zelf 'leert' om te komen tot die conclusies (data output). Uiteraard worden de deep learning/machine learning algoritmes ook door mensen geschreven, maar het punt is juist dat die algoritmes niet bepalen hoe de computer tot de gevraagde output kan komen, en er wordt zelfs geen specifieke input datasets meegegeven aan de computer. Je geeft de input criteria (Big Data) en de output criteria, en de rest wordt zelfstandig door de computer 'bedacht'.

Dit is niet wat ik persoonlijk versta onder menselijk oordeel.
Misschien dat er dan wel regels nodig zijn voor wat je met ML mag doen!. Prima om uit te zoeken wat de doelgroep moet zijn voor product x, y of z, maar het wordt eng als je mensen gaat uitsluiten of juist toelaten op basis van hun profiel.
Zo te zien redeneer je vanaf een ander standpunt dan ik zou doen. Jij gaat er van uit dat Big Data in principe okay is en vindt het dan als het ware een beetje vervelend voor Big Data dat ze extra personeel moeten aannemen, omdat het 'mooie' van de verwerking van grote hoeveelheden informatie is dat het allemaal geautomatiseerd kan.

Maar daarin zit dus het gevaar. Is het echt een probleem als de mens zichzelf een rol geeft binnen deze systemen en processen? Is dit niet min of meer hetzelfde probleem als bij killer robots?

Ik zou redeneren vanaf het standpunt dat Big Data, zoals we vandaag vernamen van fb dat, wat, 5 miljard omzet draait, het geen bezwaar zou moeten zijn om de menselijkheid te bewaken, de menselijke maat te hanteren vanwege de morele verplichting zorg te dragen voor de informatie die ze verzamelen.

Ik ga er van uit dat ze al veel te lang wegkomen met besparen op arbeid.

Edit

Eigenlijk mis ik een artikel op Tweakers over DNB die onlangs, zo zag ik in de NOS app, dat hier ook over gaat. DNB maakt zich zorgen dat banken in de problemen komen door de implementering van allerlei apps en innovaties en systeempjes, die leuk zijn voor de klant, maar ook risico's met zich meebrengen. Zoals apps die blijkbaar mogelijk maken dat mensen zo maar ergens in kunnen investeren of elkaar geld kunnen lenen, zonder al te veel regels.

Opvallend dat Tweakers daarover geen artikel plaatst; ik denk omdat tweakers belang heeft om technologie niet in twijfel te trekken. Want DNB is in feite technorealistisch op dit gebied en dat soort van terughoudendheid houden we niet van.

[Reactie gewijzigd door Vendar op 28 april 2016 15:58]

Ik zou het wel wat waard vinden als ze er ook eens in het openbaar bij vertellen waarom die bescherming nodig zou zijn. Nu vind ik het nogal op een spreekbuis van de overheid lijken: "het gaat allemaal gewoon door... Maar we zijn wel heel kritisch". Is dat niet gewoon op een hele slinkse manier om het probleem heen draaien?

[Reactie gewijzigd door blorf op 28 april 2016 17:15]

Zolang ik bij seminairs zit waar de ICT-accountmangers en ICT guru's zitten te kwijlen over de nieuwe data analyse tools en dus alleen maar 'voordelen en verkoopkansen' zien, ben ik bang dat we nu al met z'n allen achter de feiten aanhollen. Daar zit echt geen moreel besef of zelf- regulerend 'motief' bij.

Het koppelen van gegevens verzamelingen -en dan laat ik in het midden of dat goed of fout is- heeft de laatste jaren een vlucht genomen.

Ik zit met mijn connected tv's, tablets, smartphone, computers, mediabox en auto met tig accounts al van alles te vullen. Tel daarbij alle data op die ik achterlaat bij verzekeringsmaatschappijen, ziekenhuizen, vliegtuigboekingen etc etc.
Je kan daar echt wel een profiel van mij van maken... en het 'lullige' van alles is: je kan het niet meer 'ontdoen'.

[Reactie gewijzigd door LaFleche op 28 april 2016 17:26]

het zou voor consumenten ook mogelijk moeten zijn deze data te analyseren!
No shit sherlock..
Denk dat het tijd is voor wat stevige nieuwe mensenrechten.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True