Leesvoer: de opvolger van Mark Rutte heet ChatGPT, tenzij wij daar nee op zeggen

De meeste non-fictieboeken over grote problemen komen ook met oplossingen. Deze niet, terwijl het bij dit boek extra hard nodig was. Het is het gevoel dat je overhoudt na het dichtslaan van Doe Zelf Normaal van rechtsfilosoof Maxim Februari, over computertechnologie en de democratie.

Februari is essayist, rechtsfilosoof, romanschrijver en was jarenlang columnist voor NRC. In Doe Zelf Normaal schrijft hij over de bedreiging die technologie en kunstmatige intelligentie vormen voor de rechtsstaat en democratie. De titel komt van een debat tussen politici Geert Wilders en Mark Rutte elf jaar geleden. Wilders vond dat premier Rutte 'normaal moest doen' en Rutte antwoordde dat Wilders 'zelf maar lekker normaal' moest doen. Februari noemt de namen van de politici niet, maar merkt dat op als interessante filosofische stelling. "Er zit iets aangenaam ingewikkelds in de gedachte dat je elkaar over en weer kunt bevelen de normaliteit aan jezelf als norm op te leggen. Hoe langer ik erover nadenk, hoe minder ik ervan snap, en hoe interessanter de dialoog van de weeromstuit wordt."

Over dit boek

Maxim Februari, Doe zelf normaal
Uitgever: Prometheus
Verschenen: 20 februari 2023
144 pagina's
Verkrijgbaar als e-book en hardcopy
ISBN: 9789044650853

Het gebruik van data door computersystemen om 'normaal' en 'abnormaal' te definiëren speelt een grote rol in het boek. Februari was betrokken bij de rechtszaak waarbij de Nederlandse rechtbank het gebruik van Syri verbood. Syri was een systeem, waarin overheden data over burgers verzamelden en scanden op risicofactoren. Het probleem was onder meer dat niemand wist wat die risicofactoren precies waren, waarom bepaalde mensen volgens het systeem tot een risicogroep werden gerekend en niemand dat kon nagaan. Zelfs de rechter begreep niet hoe het algoritme tot beslissingen kwam en dat is volgens Februari het kwalijkst, dus niet eens het gebrek aan privacy, maar het gebrek aan mogelijkheid tot controle.

Doe zelf normaal, Maxim Februari
Doe zelf normaal van Maxim Februari

Syri, maar ook andere algoritmes die de overheid gebruikt, zijn een goed voorbeeld van hoe technologie de verhoudingen in de democratie verandert. De uitvoerende macht, de regering dus, krijgt veel meer te zeggen, terwijl de Tweede Kamer algoritmes lastig kan controleren en rechters die moeilijk kunnen toetsen. Want algoritmes zijn niet objectief of onfeilbaar, zo betoogt Februari. Iemand maakt ze en iemand neemt beslissingen over hoe algoritmes tot conclusies komen. Die personen zitten nu vaak bij bedrijven en daardoor verschuift de macht meer dan ooit van overheden naar bedrijven, en dat gebeurt ongemerkt en zonder overleg.

In de democratie sluipt technologie naar binnen op diverse manieren. Februari noemt natuurlijk de clichés op dit gebied, zoals het gebruik van data van Cambridge Analytica bij het personaliseren van advertenties voor de presidentsverkiezingen in de VS van 2016. Een manier om algoritmes direct te gebruiken in een democratie zou zijn om beslissingen over bijvoorbeeld budgetten te automatiseren op basis van voorkeuren van burgers. Die voorkeuren zijn dan te verzamelen met data die bedrijven en overheden toch al verzamelen, iets dat Februari samenvat als 'geef me een stapel data en ik neem het stemrecht van je over'. Het probleem daarbij is dat data geen uitsluitsel geeft over waarom we iets doen en morele overwegingen dus niet in die data staan.

Een andere manier is het vervangen van kabinet en parlement door algoritmes. Dat zou volgens voorstanders transparante beslissingen opleveren op basis van waarden die aansluiten bij de meerderheid van de bevolking. Februari pleit ertegen, juist omdat ook computers feilbaar zijn. Zolang een combimagnetron kan denken dat hij een stoomoven is, hoe kunnen we dan ons lot in handen leggen van machines? En gezien het grote aantal fouten dat chatbots als ChatGPT, Microsoft Bing en Google Bard maken, lijkt het onverstandig om de democratie te bestieren met zulke systemen, maar dat tijdperk komt wel dichterbij, claimt de auteur. En we zouden erover nagedacht moeten hebben voor zulke systemen er zijn.

Foutcode AEG-combimagnetron die denkt dat hij stoomoven is, maart 2022, Bron: Elger van der Wel
Combimagnetron: "Ik ben een stoomoven, echt hoor!" Bron: Elger van der Wel

Toch moet er iets gebeuren, want internet heeft wezenlijke dingen veranderd aan onze democratie, claimt Februari. "Internet heeft burgers en organisaties de mogelijkheid gegeven kwesties onderling te regelen, ergens in de verre vertakkingen van het netwerk, buiten publieke organisaties, wetenschap, pers en parlement om. De democratie vervaagt hierdoor, want de nieuwe aanpak biedt voorlopig nog niet de garantie dat de uitkomst van deze onderlinge onderhandelingen democratisch is gelegitimeerd."

Dat onderling regelen zit er vooral in dat iedereen nu internet heeft, iets dat Februari aanduidt als 'genetwerkt publiek'. De verzameling en verspreiding van kennis is nu meer verspreid. Zo kan een arts die desinformatie verspreidt over een ziekte een groot publiek krijgen en verliezen instanties in de ogen van veel mensen aan autoriteit. Sommige bedrijven, zoals Wikipedia en Meta, regelen conflicten over moderatie buiten het bestaande rechtssysteem. "Dat heeft het voordeel dat we afscheid nemen van oude autoritaire verhoudingen en traditionele machtsstructuren. Maar door afscheid te nemen van de bestaande democratische instituties loop je het gevaar ook de democratie zelf te verliezen. De oude regels gelden niet meer, nieuwe zijn er nog niet en voor je het weet ontstaan er nieuwe autoritaire verhoudingen."

Februari schrijft ook over de verhouding tussen onszelf en het recht. Hij noemt daarbij voorbeelden van CoronaCheck als toegangspas en het 'magisch schild' om de snelheid van auto's automatisch te beperken binnen een bepaald gebied. Dat je een regel niet meer kán overtreden, is kwalijk, betoogt hij. "Je hebt niet langer een autonome overtuiging, waardoor je bestaande regels aan jezelf oplegt en aanvaardt als redenen voor je gedrag, nee, afwijking van de regels is gewoon geen optie. (...) Tegelijk verandert daarmee ook de verhouding van de hele gemeenschap tot het recht: er is niet langer sprake van een gezamenlijk moreel gesprek over (...) te hard rijden in noodgevallen of over diefstal van brood bij diepe armoede. De wet wordt niet in de groep gegooid en na langdurige discussies geherinterpreteerd of bijgeschaafd, hij wordt toegepast, punt uit. Met dit strikte afdwingen van de wet heb je het recht in zekere zin vaarwel gezegd."

QlaaR: CoronaCheck
QlaaR: CoronaCheck

Het is een punt dat vaker naar voren komt in discussies over ethisch gebruik van kunstmatige intelligentie: het gevaar van dat als we huidige waarden in AI-systemen stoppen, die door de manier van handhaving veel langer blijven bestaan, omdat we ze in die systemen lastiger kunnen aanpassen. Filosoof William MacAskill schrijft over dat gevaar in zijn boek What We Owe The Future.

a mass of people shaking in hands in pairs of two in de style of Karel Appel Bron: Dall E
'A mass of people shaking in hands in pairs of two
in the style of Karel Appel'. Bron: Dall-E

Het punt is volgens Februari niet dat het gebruik van technologie en kunstmatige intelligentie in een democratische rechtsstaat als de onze per definitie slecht is. Maar het probleem is wel dat we informatietechnologie moeten inpassen in de ethiek, en we kunnen niet naar het verleden kijken voor voorbeelden. "De geschiedenis van de mensheid is een aanhoudend belichaamd gesteggel over de normering en regulering van gedrag, over waarden en de beslechting van conflicten erover. We kunnen dat gesprek op dit moment van de geschiedenis stopzetten maar ik ben daar niet voor. Zolang er nog een menselijke samenleving is, is het van belang dat de mensen zich verhouden tot elkaar en tot de wet."

Doe Zelf Normaal is niet bepaald een lang boek. Het beslaat minder dan 150 ouderwetse papieren pagina's en het taalgebruik is niet zo ingewikkeld dat je er lang over zult doen. Maar het is wel een boek waar je niet mee klaar bent zodra je het hebt uitgelezen. Een tweede keer lezen is ook geen slecht idee om alles te laten bezinken.

Want Februari mag dan veel problemen benoemen, het boek biedt geen oplossing. Terug naar hoe het was, is onmogelijk, en vroeger was bovendien niet alles beter. Niets doen leidt tot aantasting of verdwijning van democratie en rechtstaat. Dus wat dan? Februari legt de taak om het antwoord te vinden bij de lezer, maar dat is wel veel gevraagd. Wie komt even de democratie en rechtsstaat redden door de nieuwe verhouding tussen computers en kunstmatige intelligentie en ons te definiëren? Het is passend dat de auteur voor de oplossing niet kijkt naar bestaande bolwerken van kennis, maar aanmoedigt een oplossing te crowdsourcen. Het maakt van Doe Zelf Normaal goed leesvoer en het geeft veel stof tot nadenken, maar het leven is zoveel makkelijker met pasklare oplossingen.

Door Arnoud Wokke

Redacteur Tweakers

06-03-2023 • 06:00

134

Reacties (131)

131
131
82
4
0
21
Wijzig sortering
Het probleem is het volgende spanningsveld:

Als 80pct van mensen met een blauwe huidskleur en groen haar verantwoordelijk zijn voor 90pct van de winkeldiefstallen dan zal een algoritme neem ik aan concluderen dat mensen met een blauwe huidskleur en groen haar een fors verhoogd risico vormen.
Gevolg is dat de 20pct keurige eerlijke Blauwhuiden met groen haar gediscrimineerd gaan worden en ik heb daar een probleem mee.

Aan de andere kant voorkom je 90pct van de winkeldiefstallen als je deze groep 100pct controleert bij het vertrekken uit een winkel.

En om het nog ingewikkelder te maken: misschien is de conclusie van die 80pct die verantwoordelijk is voor 90pct wel onjuist of kan het zijn dat de volgende generatie blauw/groene mensen veel minder kleptomaan is.
Allereerst weet je niet dat "80pct van groep X verantwoordelijk is voor 90pct van de winkeldiefstallen". Wat je weet, is dat 80pct van de aangehouden winkeldieven groep X is. Dat alleen al kan de boel fors vertekenen. Hoe besliste de winkel om iemand aan te houden, zat daar bijvoorbeeld een discriminerende bias in naar groep X?
Ja, alsof een groot deel van de aangehouden winkeldieven enkel zou zijn aangehouden omwille van discriminerende werknemers, zonder verdere aanleiding.

De statistieken zijn niet naar onze zin, laten we eens kijken hoe we deze cijfers in diskrediet kunnen brengen.

Hoe kan je dit normaal vinden om een probleem compleet te negeren, en dan het vergrootglas te leggen op de mensen die oneerlijk gedrag opmerken en aan de kaak stellen?
ik heb hier precies je vraag beantwoord...

het is simpelweg de vraag, wil ik winkeldieven vinden of wil ik blauw-huidge winkeldieven vinden... in het eerste geval controleer ik iedereen, in het 2e geval controleer ik zoveel mogelijk blauwtjes,

dit is iets dat de politie ontzettend veel doet, loop je erbij in een nette pantalon met je lederen merkschoenen en je blonde haar en blauwe ogen, wordt je simpelweg minder vak gecontroleerd dan wanneer je met je rastahaar en slobberbroek over straat loopt.

en nu is er zeker een bepaalde groep, mensen die minder kansen heeft in de maatschappij en dus ook vaker het criminele pad kiest (deels ook door sub-culturele invloeden als haat-cultuur etc) en dergelijke onderwerpen moeten ook zeker worden besproken en op politiek niveu worden aangepakt.

maar dan moet je ook wel met de juiste cijfers komen, om tot de juiste oplossingen te komen,

als van groep A 100.000 personen, er 60.000 onder de armoede grens leven, en er daarvan 600 bekend zijn bij justitie,
terwijl er bij groep B 1000.000 personen er 10.000 onder de armoedegrens leven, waarvan er 200 een strafblad hebben dan is het wel duidelijk dat blij de groepen een andere aanpak nodig hebben,

maar door cijfers niet te normaliseren, of door gewoon een te kleine steekproef te nemen krijg je soms HELE rare (en bevooroordeelde) uitkomsten.
als van groep A 100.000 personen, er 60.000 onder de armoede grens leven, en er daarvan 600 bekend zijn bij justitie,
terwijl er bij groep B 1000.000 personen er 10.000 onder de armoedegrens leven, waarvan er 200 een strafblad hebben dan is het wel duidelijk dat blij de groepen een andere aanpak nodig hebben,
Het is maar de vraag of je die groepen anders wilt behandelen. Zelfs als de criminaliteit onder beide groepen verschilt en je dat niet kan verklaren (hoe ver wil je daar in gaan?) hoeven we geen onderscheid te maken in behandeling.
Artikel 1 van de grondwet zegt dat we geen onderscheid maken op basis van o.a. ras. Dus we vrijwaren alle mensen uit groep A tegen een andere behandeling op basis van hun onderdeel zijn van groep A. Ook al zou het goedkoper of effectiever zijn om vooral groep A te controleren. Principes kosten nu eenmaal vaak (bescheiden) offers.

Profilering op basis van etniciteit is dus tegen onze principes en de grondwet. Het is niet relevant of het ‘werkt’.
Jammer genoeg wordt de grondwet en de principes van onze Nederlandse democratie nauwelijks onderwezen op scholen. Dus geen wonder dat de gemiddelde ambtenaar dit ook niet altijd doorheeft.

[Reactie gewijzigd door ustinov op 22 juli 2024 15:29]

Ik snap je punt, maar je statistiek is denk ik niet wat je bedoelde: 600 op 60.000 is 1%, terwijl 200 op 10.000 wel 2% is. Dan zouden de armen uit groep B dus 2x zo crimineel zijn als die uit groep A (aangenomen dat "bekend bij justitie" = "strafblad").
Raar om zo'n veronderstelling te hebben. Ik durf zelfs te stellen dat er bijna geen criminelen onder de armoede grens leven. Dat vak betaald beter dan minimum loon.
Ik herhaal "De statistieken zijn niet naar onze zin, laten we eens kijken hoe we deze cijfers in diskrediet kunnen brengen."

Jij doet het met het welgekende sausje van discriminatie en/of inherent racisme.

Stel jezelf eens eerlijk de vraag of je uit sommige bronnen of narratieven de bronnen wel voor volledig waar neemt, zonder ze te checken.

Probeer dit gedachte experiment eens eerlijk: kunnen sommige bevolkingsgroepen een groter aandeel hebben in de criminaliteit, net zoals jij denkt dat de meeste mensen die profiling doen, discriminerend zijn?
Hoe kan je dit normaal vinden om een probleem compleet te negeren, en dan het vergrootglas te leggen op de mensen die oneerlijk gedrag opmerken en aan de kaak stellen?
Vrij simpel; men negeert graag gegevens die niet stroken met het beeld dat men er op na houdt.

De een negeert statistiek over criminaliteit, de ander negeert statistiek over het klimaat.

Het is makkelijker je vingers in je oren te proppen dan je stelling aanpassen.
Dit probleem is een kip<>ei probleem.

Je hebt mensen die zeggen dat een groep om culturele redenen niet goed kan inburgeren en daardoor crimineel wordt, waardoor racisme jegens die groep toeneemt. En je hebt een groep die zegt dat jegens racisme, een groep crimineel word, en daardoor cultureel niet goed kan inburgeren. Wie in dit debat gelijk heeft is niet relevant, uiteindelijk resulteert het in een negatieve spiraal.

Uiteindelijk zal er een soort middenoplossing moeten komen. Stap 1 is stoppen met het idee dat alle culturen op de wereld net zo denken en handelen als een Amerikaan of Europeaan. Erken culturele verschillen en probeer daaruit een oplossing te vinden waardoor je een positieve spiraal krijgt ipv een negatieve spiraal.
Probleem is dat beide groepen waarschijnlijk gelijk hebben. Het is een zichzelf versterkend proces.
Ongeacht oorzaken wil je mensen op hun individuele gedrag beoordelen. Daarnaast zijn maatschappelijke programma's (niet strafrechtelijk) nodig om beide elkaar versterkende oorzaken aan te pakken. Dat laatste is echter heel complex en tot nu toe matig effectief.
Eens hoor! Daarom ook de laatste alinea waarin ik de eerste harde stelling nuanceer.
Maar zélfs áls het zou kloppen (je zou een jaar lang 100% controle doen) dan nog is het natuurlijk kwalijk dat je een hele groep laat boeten voor het criminele gedrag van een meerderheid van die groep.
Toch is er schijnbaar een meerderheid binnen de politieke coalitie die dit doorgezet wil zien. Andere (conservatieve) partijen zoals Fv"D" & PVV zijn hier ook voor te vinden.

We slaan dan een sterk autocratische weg in. Iets waar Europa zich zo'n 80 jaar geleden van heeft weten te ontdoen, met veel moeite...
Eten, werk en veiligheid. Dat is wat kiezers willen.
Dat hadden de Romeinen meer dan 2000 jaar geleden al door....
als je veiligheid door vermaak vervangt heb je een punt, waar denk je dat de uitdrukking Brood en spelen vandaan komt...
Daarom heb je (als het goed is) een bestuur die daar boven kan staan. De Bekennende Kirche wist deze problematiek al goed te verwoorden ten tijde van WWII:
Als die Nazis die Kommunisten holten, habe ich geschwiegen; ich war ja kein Kommunist.
Als sie die Sozialdemokraten einsperrten, habe ich geschwiegen; ich war ja kein Sozialdemokrat.
Als sie die Gewerkschafter holten, habe ich geschwiegen; ich war ja kein Gewerkschafter.
Als sie mich holten, gab es keinen mehr, der protestieren konnte.
https://de.wikipedia.org/wiki/Bekennende_Kirche
tot op welke hoogte is alleen de vraag. tuurlijk wil ik veiligheid, maar ik wil niet dat de politie maar overal naar binnen mag en bij alles geweld mag gebruiken voor het bewaken van onze veiligheid a la rusland/china

er moet een balans worden gevonden, en die balans is lastig, en je maakt er nooit iedereen mee blij. dat is waarom de politiek zoveel verschillende meningen en partijen heeft, hier tenminste. om te zorgen dat de uiteindelijke compromis werkt voor de grootste hoeveelheid mensen, en er geen extreme standpunten worden uitgevoerd, aan welke kant dan ook. daar lijkt het soms door dat de politiek niks kan doen omdat ze lam lgt door alle verschillen, maar als we alles door 1 partij laten doen krijgen we amerika, ook geen zin in
Werk kun je bij een hoop mensen vervangen door koopkracht. Een deel haalt voldoening uit werk. Een ander deel zal het prima vinden om die via andere wegen te verkrijgen.
Tja, het klinkt aannemelijk wat ze zeggen... Je moet er vooral niet te veel over nadenken en vooral erg je laten leiden door emoties en nationalisme. Waar ik dan wel weer mee zit is dat het zogenaamde linkse geluid weinig overtuigend is.
Daar heb je gelijk in.
De oppositie moet dit soort distopische ontwikkelingen tegen het licht houden.
Waarschijnlijk off-topic, maar vanuit persoonlijke interesse ga ik hier toch op reageren.
Ik zie aan de ene kant schadelijke en gesimplificeerde oplossingen en aan de andere kant een krampachtige houding om het überhaupt over de problematiek te hebben en met een serieuze aanpak te komen. Dat geldt voor alle 'populistische' thema's zoals immigraties, criminaliteit en belasting van de zorgstaat (uitkeringen en dergelijke). Ik mis echt een fatsoenlijke middenpartij op dit vlak.
Ja, immigratie heeft gevolgen voor de samenleving die niet altijd zo positief zijn als wordt beweerd, maar je wil geen grenzen sluiten en er zitten ook zeker positieve aspecten aan.
Ja, onder bepaalde bevolkingsgroepen is criminaliteit een serieus probleem, maar nee, daar mogen individuen die niks fout doen niet de dupe van worden. Ja, het aantal uitkeringen dreigt ondraagbaar te worden, maar je wil mensen die steun nodig hebben die wel geven.
Oplossingen vergen een genuanceerde en complexe analyse en aanpak, maar dat levert weinig stemmen op. Rechts verliest stemmen bij een aanpak die als softer wordt ervaren. Links verliest stemmen als ze dit soort zaken als probleem bestempelen.
Het veilige midden vind je wel terug bij het CDA, CU, en iets mindere mate bij VVD en D66. Het zijn alleen niet de schreeuwers met een uitgesproken mening. Je ziet wel dat het midden ook probeert een beetje stelling te kiezen naar links of rechts, maar dat het in de praktijk nogal meevalt.
Het zijn ook lastige thema's! Immigratie bijvoorbeeld... mijn voorouders (en die van menig Nederlander) zijn als vluchtelingen hier binnengekomen. Ik vind het niet mijn recht om dan de deur dicht te gooien voor andere vluchtelingen, maar ik zie ook wel dat er her en der flinke overlast is ontstaan door asielzoekers die het label vluchteling niet mogen dragen. Wat moet je dan? "Iedereen welkom, maar gedraag je wel." is een beetje hoe ik er in sta.
Milieu en klimaat is al net zo lastig. Ik ben dol op natuur en baal van de strakke steriele landbouwgrond. Maar ik zie ook wel in dat als je het anders wil dat je dat samen met de boeren moet doen. Ben ik dan pro PvdD of BBB? Geen van beiden om eerlijk te zijn.
Mijn probleem is dan wel dat als ik heb veilige midden zou stemmen dan is de kans groot dat mijn stem uiteindelijk een schreeuwer ten goede komt vanwege de noodzaak tot samenwerking. Dan ben ik toch geneigd om de schreeuwer die mij nog het beste past mijn stem te gunnen zodat de balans wellicht een beetje die kant op gaat.
De euro crisis in Griekenland is sterk autocratisch aangepakt en ondertussen is er een consensus dat dit niet de beste manier was.
Onzin. De genoemde partijen hebben nog nooit in de geschiedenis geregeerd, en toch passen we bovengenoemde technologie al heel lang toe.
Bij Douane worden bijvoorbeeld op basis van kenmerken risicoprofielen gemaakt. Ben je bijvoorbeeld een rijke Rus met een bontjas aan, dan word je uit de rij gepikt voor controle op diamantsmokkel.

Die "autocratische weg" is tientallen jaren geleden al ingeslagen, toen computers kwamen. Het heeft niets te maken met de huidige politieke mores.
Volgens mij wordt dit soort selectie al sinds mensenheugenis toegepast, ze is zo enorm voor de hand liggend.
Zeker. Het maakt de opsporing zoveel effectiever.
hoewel je het een beetje kort-door-de-bocht beredeneert en weinig uitdiept is dit wel precies wat er speelt.

als ik 1000 mensen staande houdt en van waarvan 800 blauwhuidige, en 200 paarshuidige

dan zou je statitsch moeten verwachten dat voor elke 8 blauwe crimineeltjes ook 2 paarse moet vinden.

je kunt dan echter moeilijk roepen dat 80% van onze gevangenissen vol zitten met blauwe crimineeltjes (feit) en dat dit dus een geldige reden is om vaker blauwe te controleren (selection bias). immers, die selectie-bias is in beginsel al de oorzaak van de uiteindelijke gevangenis-populatie, waardoor het dus een zelf-vervullende-voorspelling is geworden.

let op dat zelfs wanneer de gevangenissen niet voor 80% maar voor 90% vol zitten met blauwjes, je moeilijk kunt zeggen, zie je wel 'over vertegenwordiging.... want hoewel dat dan inderdaad speelt is het verschil in selectie al zo groot, dat een wezenlijk verschil 1% van de bevolking nu niet bepaald een significant verschil is.. en je daardoor dus ook niet 72% van de gecontroleerden voor wilt discrimineren.
De selectie kan het beeld inderdaad vertekenen. Maar je kunt daar wel voor proberen te corrigeren door ook eens een steekproef te doen / een selectie van 100% te doen.

En ik denk toch dat in veel gevallen het beeld inderdaad tot op zekere hoogte vertekend wordt door de selectie, maar dat zulke vertekening vaak slechts een deel van de discrepantie verklaart, en bepaalde misdaden wel degelijk meer voorkomen onder bepaalde bevolkingsgroepen.

Ik zou zeggen dat in veel gevallen het daadwerkelijk meer voorkomen van misdaad enerzijds, en de ongelijke selectie anderzijds, een soort vicieuze cirkel vormen. Dat is een ingewikkeld probleem.

Geen gerichte selectie meer toepassen is enerzijds rechtvaardiger, anderzijds toch echt wel een minder effectieve inzet van de bepekte controlecapaciteit.
Maar mag selectief controleren volgens de wet/grondrechten? Dat is de belangrijkste vraag. Zo niet, mag de politie het niet doen.
Dat klopt inderdaad. Een belangrijk aspect is ook in hoeverre een controle of maatregel de persoon in kwestie belast. Als je uit je auto moet stappen en gecontroleerd wordt, heeft dat best impact. Als je elke week weer staande wordt gehouden bij Albert Heijn terwijl anderen dat niet worden, heeft dat psychisch denk ik best veel impact. En als de belastingdienst je toeslag terugvordert, alleen maar omdat de statistiek er gek uitziet in zijn computers, is dat extreem belastend, zo niet ontwrichtend. Maar als de extra controle alleen inhoudt dat een ambtenaar nog eens extra naar je dossier kijkt en verder niets?

Dat aspect vind ik dus best belangrijk. Wanneer een controle of maatregel een significante impact op een onschuldige heeft, dan mag daarbij in principe niet gediscrimineerd worden, in elk geval niet op grote schaal, en niet tenzij het over bijzondere zaken gaat.
Dat is juist het hele gevaar van 'foutieve data' die ML of AI als input krijgt. Die krijgt in de meeste gevallen enkel de arrestaties als input, niet alle data van alle winkelbezoekers (ofwel welke personen niet gearresteerd zijn).
Wat zich bij de belastingdienst meedere jaren heeft afgespeeld met die illegale systemen laat zien dat algoritmes niet noodzakelijkerwijs de heilige graal zijn. En men daar zich zelfs heeft "overgegeven" aan de techniek zonder verdere controle. Met alle gevolgen van dien.

Dit zie je ook weer terug bij ChatGPT nu. Dat is zeer interessant maar je moet wel de antwoorden blijven controleren.
Het is triest dat die algoritmes ingezet worden tegen mensen met een bijstandsuitkering en niet mensen met rekeningen in Panama.
het grappige is, ik ben juist enorm voorstander van de inzet van tech (en dus ook algartitmes om risico's te bepalen... zelfs als je daardoor soms blauwhuidjes een beetje discrimineert...

Daar zit het probleem volgens mij helemaal niet, het probleem zit hem veel meer in de "wij zijn de belastingdienst dus wat u ook zegt of roept, wij weten het beter, en desnoods liegen we om het te bewijzen"

het zit hem vooral in het niet willen erkennen van fouten, zodra je ze tegenkomt...

Zijn mensen dan zo bang geworden voor fouten dat we liever 10duizenden levens vergallen dan dan dat we OW FUCK DIT GAAT FOUT! roepen?

Lijkt bijna manische zelfingenomenheid op institutioneel niveau... dat er dit keer (rassen)discriminatie aan ten grondslag lag is in historisch perspectief (met slavernij verleden enzo) heel pijnlijk, maar eigenlijk van weinig belang, staatkundig gezien is het VELEN malen erger dat we een bestuurscultuur hebben dat liever doordramt dan dat het fouten oplost. straks als de BV nederland failliet is, als de dijken door slecht onderhoud breken, als de luchtkwaliteit vergelijkbaar is met die in peking of jakarta, als pensioenen niet meer worden uitbetaald en zorg ondenkbaar is, je schouders ophalen en er 'geen actieve herinneringen' aan hebben. f
Als 80pct van mensen met een blauwe huidskleur en groen haar verantwoordelijk zijn voor 90pct van de winkeldiefstallen dan zal een algoritme neem ik aan concluderen dat mensen met een blauwe huidskleur en groen haar een fors verhoogd risico vormen.
Maak je niet druk. De werkelijkheid heeft jouw voorbeeld al lang en breed ingehaal en wel om veel kleinere percentages. Ook voordat AI gebruikt werd was er sprake van rasitische motivering bij de politie en andere delen van de overheid. Vrienden van mij die gewoon werken en een gezin hebben worden mijn hele volwassen leven (bijna 50) al regelmatig staandegehouden voor een 'standaardcontrole' omdat ze een donkere huidskleur hadden.

Dit is dus niet nieuw. Het probleem is dan wat Februari in zn boek beschrijft, dus dat dit soort vooringenomendheid in trainingsdata van een AI terechtkomt en vervolgens niemand die ernaar omkijkt en controleert of het we klopt, dat er geen maatschappelijke discussie meer is want de computer zegt dat het zo is.
dat er geen maatschappelijke discussie meer is want de computer zegt dat het zo is. dit vat deze discussie (en eigenlijk ook dat boek) perfect samen ;) sterker nog, het vat eigenlijk onze hele samenleving wel zo'n beetje samen, of het nu om krediet gaat of over wel of niet controleren... zodra je het als 'mens' tegen een computer opneemt ben je de .......
Dan geef je heel beperkte info en dan "programeer" je er gewoon racisme in.
Moest je ALLE informatie geven (dus een volledig overzicht vanaf iemand geboren is inclusief alls financiele omstandigheden, inkomens, subsidies) niet enkel van hem amar zijn omgeving dan zou een AI wel correcte besluiten kunnen nemen, dwz : geef mensne kansne en dit gebeurt niet.

Maar idd het eeuwige "garbage in garbage uit" blijft ook hier gelden.
Het probleem dat je aanhaalt is een oneigenlijke keuze, waarbij je een beslissing afdwingt op basis van gebrekkige informatie.

Een beslissing nemen op basis van huidskleur is discriminatie en dat is al per wet verboden. De correlatie tussen de winkeldiefstallen en huidskleur in jouw voorbeeld is af te vangen en teniet te doen door de wel relevante informatie in ogenschouw te nemen, namelijk gedragingen op individueel niveau. De keuze wordt dan heel simpel: is er informatie beschikbaar over gedrag (zaken die mensen tot op zeker hoogte kunnen kiezen) dat relevant is voor de te nemen beslissing? Zo ja, dan kun je een stuk wegautomatiseren door dat patroon (waarvan je hopelijk geverifieerd hebt dat het steek houdt) te gebruiken. Zo niet, dan kun je daar geen beslissingen over nemen, ook niet middels AI.

Uiteraard kunnen algoritmes per ongeluk ook discrimineren, doordat ze daadwerkelijk scores/rankschikkingen/beslissingen geven die gebaseerd zijn op informatie die vanuit ethisch en/of wettelijk oogpunt niet gebruikt moet worden. Dat dient voorkomen te worden en daar wordt ook steeds meer rekening mee gehouden. Hopelijk gaat de Europese AI Act er voor zorgen dat het verplicht wordt daar op een doeltreffende manier rekening mee te houden en manieren geven om dat af te dwingen.

Ik snap niet precies waar het boek over gaat, maar mijn indruk is dat het er meer over gaat dat automatisering (middels 'AI') vereist dat je grenzen numeriek gaat vastleggen. Daar gaat ten koste van vaagheid, die in het verleden cruciaal was in het recht om nuances te kunnen maken in de toekomst. Huidige vormen van AI staan dat niet toe en dat houdt dus in dat nu AI gebruiken impliceert dat je ineens zaken binnen een model/algoritme moet gaat vastleggen die in het verleden niet ingevuld hoefden te worden. Dat is een totaal nieuw gegeven en daarom kunnen we niet naar het verleden kijken. Er is een gebrek aan kennis over computationeel denken, bijvoorbeeld in het parlement en de overheid. Daardoor wordt hier zelfs geen discussie over gevoerd, met onder andere als resultaat dat de overheid cruciale zaken aan het uitbesteden is aan private partijen. Dat is mogelijk een problematische ontwikkelen voor de democratie als geheel.

[Reactie gewijzigd door Jefrey Lijffijt op 22 juli 2024 15:29]

Dat is dan ook een verkeerde inzet van een algoritme. Een goede inzet is om te kijken waarom mensen met een blauwe huidskleur en groen haar verantwoordelijk zijn voor zo'n groot percentage winkeldiefstallen, en dan actie ondernemen om dat percentage gelijk te krijgen met andere groepen.

Grote kans dat mensen met blauwe huidskleur en groen haar op het laagste niveau op school meedoen, veel spijbelen of zelfs de middelbare school niet afmaken. Deze mensen hebben meer aandacht nodig, een grotere en serieuzere investering.

Technologieën als ChatGPT zullen enorm waardevol gaan worden als assistent in het veld dat je doet. Hetzelfde als een menselijke assistent kan je de gegevens nooit blindelings vertrouwen en moet je het altijd na-checken en eigen conclusies trekken. Zodra een algoritme leidend is in de beslissingen die je maakt, ben je als mens te lui geworden.
In de jaren 70, 80 en 90 werd bij automatisering altijd als voordeel benoemd dat machines en computers foutloos en moeiteloos werken. Wanneer het programma eenmaal goed liep dan kon er weinig mee mis gaan en voor "eenvoudige" berekeningen klopte dit wellicht.

Ik denk dat hier een groot probleem ligt, we gaan er te makkelijk vanuit dat machines het "goed" doen. Voor eenvoudige toepassingen klopt dit ook maar zodra het ingewikkelder wordt neemt de kans op fouten exponentieel toe.
Een eerste stap is breder zichtbaar en kenbaar maken dat algoritmes fouten maken en wij niet bij machte zijn om de complexiteit achter deze algoritmes te begrijpen.

[Reactie gewijzigd door Floor op 22 juli 2024 15:29]

Er is een verschil tussen iets foutloos doen en iets goed doen. Overigens kan dat ook zonder automatisering fout gaan, zoals onze overheid aantoont, waarbij ook de ambtenaren zelf vaak strak vasthouden aan (wettelijke of zelfverzonnen) regels wanneer die niet goed uitpakken.

[Reactie gewijzigd door Ludewig op 22 juli 2024 15:29]

Geliëerd hieraan, en iets van Februari volgens mij ook aangeeft in zijn boek: in zo'n structuur zijn mensen geneigd om hun morele denken uit te besteden aan de geautomatiseerde computers / algoritmes / rekenmodellen. Er onstaat dan een procescultuur waarin je geen vraagtekens meer zet bij waarom we bepaalde stappen maken, want 'de machine' is nu eenmaal zo ingericht dat je burgers, bijvoorbeeld, op een bepaalde manier in een risicoanalyse gooit. Of dat door angst, luiheid of bewust gebeurt ben ik nog niet over uit. Waarschijnlijk een combinatie van factoren.
in zo'n structuur zijn mensen geneigd om hun morele denken uit te besteden aan de geautomatiseerde computers / algoritmes / rekenmodellen.
In feite maakt dat onderdeel uit van het uitbesteden van lastige beslissingen aan een entiteit buiten zichzelf. Dat kan een computer zijn, maar dat kan ook de leidinggevende zijn. Of een extern event.
Het is een menselijke trek (ontlopen van (morele) verantwoordelijkheid) die je keer op keer terug ziet komen in de geschiedenis. Het is ook redelijk onafhankelijk van de structuur buiten dat de structuur een verwachting heeft van het morele handelen van de persoon in kwestie.
Je draagt de beslissing niet alleen over maar knipt die ook op zodat niemand volledig verantwoordelijk is.

Individuen leveren dan alleen maar informatie aan, doen dan alleen maar wat het systeem zegt, bouwen alleen maar kleine stukjes van het systeem, stellen alleen maar vage normen op, etc.
Dat denk ik ook. Maar een 'zwarte doos' van algorismes / "computer says no" voegt hier een entiteit met enorm grote aanwezigheid en potentie aan toe.
Een manier om algoritmes direct te gebruiken in een democratie zou zijn om beslissingen over bijvoorbeeld budgetten te automatiseren op basis van voorkeuren van burgers.
Ik denk dat dit nog niet eens zo'n slecht idee is. Als we kijken naar het politieke klimaat in de VS dan zien we dat politiek steeds meer een identiteit wordt en steeds minder gaat over wat er nu daadwerkelijk allemaal ingevoerd wordt.
De republikeinse stemmer is voor een wet omdat deze door zijn partij wordt aangedragen. De republikeinse politicus ziet dit en zal in dezelfde lijn doorgaan.
Het is een versimpeld voorbeeld maar de feedback loop is duidelijk zichtbaar met steeds extremere wetten en uitspraken.
Het gat minder om WAT iemand zegt en meer om WIE het zegt.

Verder zullen algoritmes beter moeten worden in uitleggen waarom ze tot bepaalde conclusies komen.
Als persoon x een grotere kans heeft om de criminaliteit in te gaan dan moet duidelijk uit te leggen zijn waarom. Wat nog belangrijker is is dat de politiek vervolgens de oorzaken aanpakt waardoor deze kans omlaag gebracht wordt.
Het algoritme in deze moet dus gebruikt worden om oorzaken te vinden en niet om mensen bij voorbaat te labelen.

Als de overheid algoritmes wil gaan gebruiken zullen ze ervoor moeten zorgen dat iedereen die ermee te maken krijgt snapt hoe 't werkt, wat een uitkomst betekent en waar de limiet van een systeem zit.
Men zal heel open moeten zijn over welke data is gebruikt voor training en kritische vragen moeten altijd duidelijk beantwoordt kunnen worden.
Als laatste zal een algoritme nooit het laatste woord moeten hebben. Het moet gebruikt worden als eerste aanknopingspunt om vervolgens mensen verder te laten kijken.
Verder zullen algoritmes beter moeten worden in uitleggen waarom ze tot bepaalde conclusies komen.
En
Als de overheid algoritmes wil gaan gebruiken zullen ze ervoor moeten zorgen dat iedereen die ermee te maken krijgt snapt hoe 't werkt, wat een uitkomst betekent en waar de limiet van een systeem zit.
Waarom ben je (blijkbaar) van mening dat een algoritme die met een computer wordt uitgevoerd wel moeten uitgelegd, maar een algoritme die door een mens wordt uitgevoerd niet hoeft te worden uitgelegd?

En die vraag is vooral relevant omdat het algoritme wordt samengesteld door mensen en dan ook nog met data die wederom door mensen is samengevoegd.

Waarom beslist een agent om een allochtone bestuurder van een mooie BMW wel aan te houden, maar de autochtone bestuurder van een andere mooie BMW die er 20 meter voor reed, niet aan te houden? Twee BMW's die op hetzelfde moment op dezelfde straat rijden met als enig verschil de achtergrond van de ouders van de bestuurders. Komt geen AI aan te pas en iedereen kan je vertellen wie er wordt aangehouden.

Algoritmes hebben het probleem dat er mensen bij betrokken zijn. Alles wat deze mensen goed of fout doen, wordt keurig door de algoritmes herhaald.


Ps. Spreek uit ervaring, is mij al meerdere keren gebeurd dat een medewerker van mij op deze manier is aangehouden. Inmiddels rijdt hij geen BMW meer, was er klaar mee.

[Reactie gewijzigd door cariolive23 op 22 juli 2024 15:29]

Algoritmes hebben het probleem dat er mensen bij betrokken zijn. Alles wat deze mensen goed of fout doen, wordt keurig door de algoritmes herhaald.
En het probleem dat nu ontstaat is dat die mensen de rechtvaardiging voor hun handelen gaan verbergen achter algoritmes (die ze dus zelf helpen scheppen) en zo de verantwoordelijk voor hun handelen van zich af schuiven.
Dat zegt dan veel over deze mensen maar helemaal niets over een algoritme. Dat gedrag is ook niet iets wat een algoritme kan veranderen.

Garbage in, garbage out...
Waarom ben je (blijkbaar) van mening dat een algoritme die met een computer wordt uitgevoerd wel moeten uitgelegd, maar een algoritme die door een mens wordt uitgevoerd niet hoeft te worden uitgelegd?
Ik ben hier in een andere reactie een beetje op ingegaan. In de quote die jij aanhaalt gaat het inderdaad alleen over algoritmes maar dat sluit niet uit dat politici zelf ook veel beter zouden kunnen zijn in het uitleggen hoe ze tot een bepaalde conclusie zijn gekomen.
Echter kunnen we een algoritme of de data goed onderzoeken maar je kan een politicus moeilijk op een stoel vastbinden tot hij of zij je verteld wat je wil horen.
Daarnaast zullen er altijd dingen zijn die in vertrouwen besproken moeten worden. Het komt er dan op neer dat we vertrouwen moeten hebben in politici en helaas blijkt dat (vooral de laatste jaren) een probleem te zijn.
Waarom beslist een agent om een allochtone bestuurder van een mooie BMW wel aan te houden, maar de autochtone bestuurder van een andere mooie BMW die er 20 meter voor reed, niet aan te houden? Twee BMW's die op hetzelfde moment op dezelfde straat rijden met als enig verschil de achtergrond van de ouders van de bestuurders. Komt geen AI aan te pas en iedereen kan je vertellen wie er wordt aangehouden.
Over etnisch profileren is al heel veel gezegd en geschreven en het argument van de agent is dan ook makkelijk te raden.
Van jouw voorbeeld tot toegang tot discotheken tot het krijgen van een baan.
Maar stel dat de vooroordelen terecht zijn. Even daargelaten of dat nu komt doordat deze mensen inderdaad crimineler zijn of door inflatie van de cijfers doordat er etnisch geprofileerd wordt.
Zou het dan juist niet logisch zijn wat de agent doet? Zouden we willen dat agenten gelijke aantallen moeten controleren in plaats van meer bestuurders waarvan de kans hoger is dat er iets mis is?

Ik denk dat we AI in dit geval niet moeten gebruiken om mensen te labelen maar meer om oorzaken te vinden van dergelijk gedrag.
Dus in dit geval is de allochtone bestuurder misschien vaker crimineel. Waarom? Is het armoede? Opvoeding? Scholing? Cultuur? De huidskleur zelf kunnen we in ieder geval uitsluiten.
Politiek correct zijn en alles wegvegen omdat het vooroordelen zijn die nergens op gebaseerd zijn helpt niemand.

Een klein voorbeeldje van een reactie op reddit die ik een tijdje geleden tegen kwam. Een blank meisje was boos omdat tijdens een zwemles de zwemlerares zei dat donkere mensen slechter waren in zwemmen dan blanke mensen. In plaats van een discussie vroeg de lerares iedereen die helemaal niet kon zwemmen een stapje naar voren te doen. De uitkomst laat zich ook hier weer raden.
De reden waarom dit zo was misschien niet. De ouders van de donkere kinderen zagen zwemmen als iets wat blanke mensen doen in hun vrije tijd en niet als een essentiële vaardigheid.
Nu zou je een algoritme kunnen trainen dat voorspelt hoe groot de kans is dat iemand verdrinkt. Huidskleur zal ook hier een grote factor zijn in de uiteindelijke conclusie.

Het punt dat ik hier wil maken is dat huidskleur wel degelijk relevant kan zijn maar nooit de oorzaak. Donkere mensen zijn niet crimineel of verdrinken niet door de kleur van hun huid maar hebben wellicht iets anders gemeen. Wat is het en wat kunnen we daaraan doen?
Definieer eerst maar eens 'de voorkeuren van burgers' ;) Niets is zo makkelijk beïnvloedbaar als de vox populi; het beste voorbeeld is de welbekende internet peiling, waarbij de politieke voorkeur en sociaalmaatschappelijke positie van de bezoeker al bepalend is voor de uitkomst. Eenzelfde vraag stellen op Geenstijl.nl en Sargasso.nl geeft je ongetwijfeld twee totaal verschillende uitkomsten. Daarnaast is menig internetpeiling toch ook anno 2023 nog gevoelig voor manipulatie, door het digitale equivalent van het stemmen ronselen, het welbekende 'pollfucken'.
Zoals met elk algoritme zit de truc natuurlijk in de hoeveelheid en kwaliteit van de data.
Je zou 't bijvoorbeeld kunnen aanvullen met een enquête met standpunten tijdens verkiezingen. Dus een kort lijstje waarop je aangeeft in hoeverre je 't eens bent met elk standpunt.
Het uitgangspunt moet uiteindelijk meer duidelijkheid zijn. Waarom stemt iemand wel of juist niet op jouw partij. En voor de kiezer waarom een partij bepaalde standpunten heeft als de enquête laat zien dat veel mensen het misschien niet eens zijn met een of meerdere zaken.
Om het echt goed te doen zul je de achtergrond van iemand willen weten wat dus betekent dat stemmen niet langer volledig anoniem zal zijn wat een debat op zich is.
Ik ben echter van mening dat hoe minder aannames je hoeft te maken en hoe duidelijker oorzaken zijn des te beter kun je werken aan oplossingen.
Daarnaast zul je altijd blijven zitten met verschillende ideeën over hoe de samenleving er uit zou moeten zien.
Ja, maar met enquêtes is het precies net zo: wat zijn dan je uitgangspunten? Je kunt de uitslag al kleuren door subtiele manipulaties in de stellingname. De vele 'gekleurde' kieswijzers die er voorafgaand aan een verkiezing rondgaan, bewijzen dit al.

Daarbij, hoeveel mensen doen er mee aan zo'n enquête? Welke achtergrond hebben deze? Enzovoorts. Je ziet het al bij de peilingen voor de verkiezingen: die stroken zelden met de uitslag omdat het panel aan deelnemers te weinig gemêleerd is, of omdat mensen zich in een stemhokje soms toch anders uiten dan voor een enquêteur (keuze-schaamte). Ook is een beperking in aannames ook weer beperkend in de nauwkeurigheid van je uitslag, omdat bijv. het antwoord op een stelling zelden zo zwart-wit is als dat deze wordt geacht of verwacht.
Waarom zou een ai uit moeten leggen waarom een keuze is gemaakt als onze eigen politici dat al niet kunnen ? (Rutte over het verlagen van de dividend belasting omdat "hij voelde aan zijn haarvaten" dat het een goed idee was).
Ik denk dat het probleem hier meer een kwestie van willen was. Rutte weet heel goed waarom hij de dividend belasting wilde verlagen. Hij wilde 't alleen niet uitleggen.

Waar ik op doelde was dat een algoritme naast een uitkomst ook kan laten zien hoe die uitkomst er is gekomen. Wat politici daar verder mee doen is aan hen.
Dat snap ik, ik denk dat mijn bezwaar er meer in zit dat we blijkbaar accepteren dat politici er nu mee wegkomen waarom denken we dat we AI wel afrekenen op de besluitvorming en argumentatie. Imho zou het inderdaad terecht zijn om dat te verwachten, alleen hou ik mijn hart vast.
Maar dan verwacht je de burger ineens een heldere mening te hebben over ieder klein ding. Het punt van een politiek systeem als dat van ons is juist dat je al het kleine gedoe uit handen geeft zodat iemand met wie jij het in grote lijnen eens bent het voor je kan oppakken. Stel bijvoorbeeld probleem X, wat redelijk veel geld kost om op te lossen. Je zou het graag opgelost zien, maar realiseert je niet dat dit ten koste gaat van probleem Y, wat voor jou een kernprobleem is. Dan zou je al een ongelooflijk moeilijke boom moeten hebben van wat wat veroorzaakt, of een chat AI vertrouwen met wat ie over dit soort stemmingen zegt (terwijl diens reacties gebaseerd zijn op bijvoorbeeld wat ie op andere plekken vind, niet per se op de waarheid).

In de US hebben ze nog eens een complexer probleem, omdat ze in plaats van meerdere partijen er maar twee hebben. Daarmee drukken ze zichzelf onwijs in een hoekje en dat is eigenlijk nauwelijks een democratie te noemen.
Stel bijvoorbeeld probleem X, wat redelijk veel geld kost om op te lossen. Je zou het graag opgelost zien, maar realiseert je niet dat dit ten koste gaat van probleem Y, wat voor jou een kernprobleem is.
Dat is inderdaad een groot probleem waar we nu tegenaan lopen.
De titel van dit artikel heeft 't over ChatGPT maar wanneer we op het punt zijn dat een AI onze minister president gaat vervangen dan zijn we heel wat verder.
Ik denk dat het best fijn zou zijn als politieke keuzes door een chatbot uitgelegd zouden kunnen worden waar jij dan direct aangeeft of en waarom je het daarmee (on)eens bent.

Mijn insteek om meer te focussen op concrete standpunten in plaats van personen of partijen was juist om te voorkomen wat we zien in de VS.
Het is niet onrealistisch om te denken dat wij ook meer die kant op zullen gaan als je kijkt naar mensen als Baudet die een hele kleine maar fanatieke fanbasis heeft. We zagen het daarvoor ook met Fortuyn en in wat mindere mate met Wilders.
Aan de andere kant zag je het ook met partijen als Denk en Bij1.
Als die voorkeuren door burgers worden beïnvloed door algoritmes die ervoor zorgen dat je alleen dat ziet wat je daarvoor ooit eens aangeklikt hebt (zoals op FB en wat al niet meer) dan blijf je altijd verstoken van andere informatie. Dan heb je feitelijk geen keuze, behalve als je actief en bewust opzoek gaat naar een ander geluid voor verbreding van je eigen horizon.
Je schrijven over de republikeinen is een goed voorbeeld. Hamer er 1 lijn in, verberg de andere en waar het om gaat , dit is makkelijker voor de kiezer.

Geef iedereen zo min mogelijk een keuze. Net zoals ‘De’ top 10, iedereen kiest iets uit de top 10; de duizenden andere keuzes en vaak beter tellen niet mee.
Tja is toch democratie; je mag de erin gehamerde keuze accepteren.

Dit alles vloeit voort uit hun eigen gezeik om hun eigen pis eroverheen te gooien. Het woord algoritmes is een modern hip ( langer bestaand ) woord, dus we gebruiken het maar nu; door ontwikkelen en serieus testen en documenteren is er niet bij; duurt te lang en te duur.
republikeinse
Hier val je door de mand en weet je niet waar de macht ligt.

Recent voorbeeld zijn corona-spuitjes waarvan het nu wel heel duidelijk is dat het maar bij beperkte groep toegevoegde waarde heeft terwijl ondertussen het men wel als “aanbevolen” heeft op de zogeheten vaccinatie lijst voor minderjarigen zonder check van de ouders. Interesseert de politici niets.

En de oorlog in Oekraïne waar men schaamteloos geld in blijft pompen en de eigen mensen in de steek laat. Meest recente is een treinontsporing waar fout op fout is gemaakt en waar de (federale) overheid afwezig bleef en niet de moeite heeft genomen om (beperkt) middelen beschikbaar te stellen.

https://eu.usatoday.com/s...nt-explained/11304391002/
But experts and national authorities largely minimized the health concerns, essentially saying the derailment and toxic spill on Feb. 3 isn't a full-scale environmental disaster such as Love Canal or the Deepwater Horizon oil spill.
https://www.nytimes.com/article/ohio-train-derailment.html
But on March 2, Darrell Wilson, a top government relations official for the rail operator, attended a town meeting, where residents shared frustrations and pleaded for help to evacuate, describing families still living in hotels or experiencing lingering health problems.

The E.P.A. instructed Norfolk Southern to test for dioxins, toxic pollutants that could have formed after the chemical burn-off and which can cause cancer, interfere with hormones and cause damage to reproductive and immune systems,
We zijn al een maand verder en een compleet dorp en omgeving is economisch afgeschreven en er wordt nog steeds vertraagd en verdraaid.

Dan hebben we het niet eens over de mensen die dakloos zijn en eigenlijk niet eens bestaan.
Meest recente is een treinontsporing waar fout op fout is gemaakt en waar de (federale) overheid afwezig bleef en niet de moeite heeft genomen om (beperkt) middelen beschikbaar te stellen.
Dit is een veel complexere zaak dan jij doet voorkomen.
Door de satelijke wetten in Ohio hebben grote bedrijven zowat meer macht dan de lokale overheid. Dat betekent in dit geval ook dat dit soort ongelukken eerst door het bedrijf in kwestie moeten worden opgelost voordat de federale overheid in mag grijpen.
Lees je even in. Dan zul je begrijpen dat sommige stukken van de VS een verwezenlijking zijn van ayn rands nachtmerrie van een utopie.
Door de satelijke wetten in Ohio hebben grote bedrijven zowat meer macht dan de lokale overheid. Dat betekent in dit geval ook dat dit soort ongelukken eerst door het bedrijf in kwestie moeten worden opgelost voordat de federale overheid in mag grijpen.
Best wel gek dat je het verwijt gaat maken dat je je moet “inlezen”.

De staat en/of federale overheid is gemachtigd om elke willekeurige ramp als dusdanig gevaarlijk te beschouwen dat ze de verantwoordelijkheid kunnen pakken. Mocht er iets “verkeerd” gaan bij het beoordelen waarbij bedrijven/particulieren schade hebben ondervonden dan zouden ze eventueel de overheid(en) verantwoordelijk kunnen stellen.


Nu is precies het tegenovergestelde gebeurd. Ondanks alle signalen dat dit van een veel hoger kaliber is, is men op de oordelen van de bedrijven afgegaan met alle gevolgen van dien en willen ze de bedrijven nu “verantwoordelijk” gaan stellen wat klinklare nonsense is en waarbij het railbedrijf als schadecompensatie aan het geven is omdat ze weten dat het toch allemaal niet zo hoort.


Daar is fout op fout gemaakt waarbij bedrijven, lokale overheden, staat en federale overheid de burgers in de steek hebben gelaten. Er is een grote ramp met veel gevaarlijk stoffen waarbij niet duidelijk was wat de exacte ladingen waren, dus had er per direct opgeschaald moeten worden al was het maar voor meer informatie hoe te handelen.
Waarom zouden we dit soort belangrijke beslissingen niet overlaten aan de mensen?

Als niemand snapt hoe die algoritmes werken, waarom is een programma zoals Syri dan nodig? Dit kan best door de ambtenaren zelf worden gedaan.

Dit is een van de redenen waarom ik ben vertrokken op zo goed als alle social media. De algoritmes.
Een project als Syri zal ongetwijfeld goedgekeurd zijn juist omdat het niet zo'n beslag legt op de ambtenaren. "Even" een paar honderd man inhuren en die dan ook nog dom werk laten doen kan echt niet meer in de deze tijd...

Neemt niet weg dat het een vorm van witwassen van bestuursbeslissingen is door beslissingen aan een niet transparant algoritme over te laten. Zelfde zie je ook vaak voor WOZ bepaling, ga je doorvragen blijkt de beslissing in een computerprogramma te zitten waarvan de bepaling 'intellectueel eigendom' is. Zou verboden moeten worden.

[Reactie gewijzigd door bzzzt op 22 juli 2024 15:29]

Ik kan mij hier totaal in vinden.

Waar ik problemen mee heb is dat er systemen zijn die beslissingen maken, zonder geweten, welke uiteindelijk invloed hebben op mensen.

Wat ik liever zou zien zijn zogenaamde sequence points (term geleend uit programmeren), waar er van alles geautomatiseerd wordt, maar er een pauze knop is voor waar mensen de doorslaggevende beslissing kunnen/moeten maken en al helemaal aan de hand van data over hoe die data tot stand is gekomen aan de hand van een rapport.

Techniek zou er louter voor moeten zijn om hersenloos werk vóór ons te doen en niet om de baas over ons te spelen.
Als niemand snapt hoe die algoritmes werken, waarom is een programma zoals Syri dan nodig?
In het geval van syri was de AI helaas een prima afspiegeling van het denken van de politie. Als je de algoritmes van syri dus wil begrijpen dan moet je gewoon kijken naar hoe de politie zonder syri werkt.
Dit is een boek naar mijn hart. Deze meneer Februari beschrijft precies waar ik al maanden mee zit voor wat betreft de hele AI hype. En dat is dat er bazen achter deze bots zitten die bepalen hoe deze zich uiten. Het is niet de bot die zichzelf leert uit alle informatie die er is, of misschien ook wel, maar wordt het net zo hard gevoed met desinformatie. Het punt is, ondanks dat het bijv. OpenAI heet, dat wij niet kunnen controleren uit welke sources deze bots hun informatie uit putten. Hun baasjes kan er vanalles instoppen, de bot is toch te dom om te weten dat het niet of wel waar is.

En dat is het gevaarlijke ervan. Al helemaal als zijn klanten feilloos uitgaan op de output van hun opdrachten. Kunnen we dit tegen houden? Mja, ik vrees dat we er weer net zo hard achteraan gaan lopen als met veel technologie. Internet was ook lekker flower power in het begin. Nu begint het steeds meer achterbuurten te vertonen met verloedering, ruzies en oorlog.

Ik hoop dat mensen in willen gaan zien dat we delicater met nieuwe technologie om moeten gaan en kritischer moeten zijn met wat men ons aan wilt smeren. Tuurlijk wordt alles gebracht als de next big thing en dat het ons leven kan verrijken. Maar ik hoop ook dat we eens wat verder willen kijken dan wat de maker ons wilt doen geloven. Letterlijk en figuurlijk.
Yup. We leven in een wonderlijke wereld waarin een bedrijf op een ochtend een nieuw technologie uitrolt en we als samenleving gewoon maar moeten "dealen" met de netwerkeffecten.

Het zou al een stuk beter zijn als er in ieder geval eens een discussie zou zijn wat we nu precies willen en of we dit überhaupt moeten willen.
Het zou al een stuk beter zijn als er in ieder geval eens een discussie zou zijn wat we nu precies willen en of we dit überhaupt moeten willen.
Maar wat nou als een niet-verwaarloosbare groep mensen zegt "Ja graag, doe maar vooruitgang zonder voorwaarden!"? Wat dan?
Dan is het in ieder geval besproken en kun je misschien nog wat afdwingen. Nu is het: "Whoomp there it is".
We leven in een wonderlijke wereld waarin een bedrijf op een ochtend een nieuw technologie uitrolt en we als samenleving gewoon maar moeten "dealen" met de netwerkeffecten.
Het is nooit anders geweest. Technologie werd altijd gebruikt om macht uit te oefenen.
Wat dacht je van de egyptenaren die voor het eerst een leger tegenkwamen die zich van strijdwagens bedienden en ze helemaal in de pan hakten? Puur technologisch voordeel van de tegenstanders waar men gewoon mee moest dealen.
Of wat dacht je van schrift, wetenschap of kruit.
En wat is je punt precies?
En wat is je punt precies?
Dat we altijd al in een wonderlijke wereld leefden en dat dat niet zoveel met de technologie-du-jour te maken heeft maar met hoe de mens ermee omgaat...
Je zou verwachten dat we er lering uit trekken.
Tja, mensen blijven mensen.
Het probleem is mischien dat de gereedschappen waar we over beschikken tot steeds meer dingen in staat zijn, goed of kwaad.
Dat is inderdaad een goed punt. Bij een gewone zoekmachine krijg je geen antwoorden maar krijg aanwijzingen naar waar je die antwoorden kunt vinden. En dan kun jij zelf bepalen of je het antwoord van de British Medical Journal hoger aanslaat dan een anonieme figuur achter een YouTube kanaal.

Het grote probleem van systemen als ChatGPT is niet alleen dat er nare mannetjes achter zitten (Silicon Valley blaaskaken die denken dat miljardair zijn betekent dat ze slim zijn) het is vooral dat we niet kunnen controleren waar ze hun informatie vandaan halen (ChatGPT is getraind op Reddit, daar gaat het al mis) en hoe zij dat zelf hebben laten wegen. Het is één grote bias van een paar twijfelachtige types (Als Marc Andreessen ergens achter zit moet je snel de andere kant op lopen).
Ik denk dat AI een vloek en een zegen is. Want AI is eigenlijk een spiegel van onze mensheid en kennis. In de mensenwereld kun je ook niet blind op alles vertrouwen wat er wordt gezegd, je moet zelf blijven nadenken, wat iemand ook beweert of roept. En een hoop mensen denken in de echte wereld overtuigd te zijn van wat ze weten, terwijl dat ook niet altijd zo is.

Maar de wereld wordt steeds complexer, dat ik me wel eens afvraag of het nog wel mogelijk is om daar met ons betrekkelijk kleine brein, zeker voor de doorsnee mens, kennis van allerlei zaken te hebben. AI zal door worden getraind en in de toekomst verbanden kunnen leggen of beredeneren die wij als mens niet meer kunnen overzien.

Er komt een punt dat AI in weze bijna onfeilbaar wordt en we moeten accepteren dat het een steeds grotere rol zal spelen. Wat wordt dan de rol van mensen nog? We gaan het naar mijn idee uiteindelijk afleggen als mens. Voordat het zover is ben ik benieuwd naar de discussies wie bepaalt wat AI wel en niet mag gaan doen. En of er regels komen.

[Reactie gewijzigd door Tjeerd op 22 juli 2024 15:29]

Zelfs als de realiteit die je schetst tot meer gezonde mensen, minder hongersnood en minder oorlogen zou leiden denk ik niet dat ik in die wereld zou willen leven.
Waar is de menselijke maat en autonomie ? Is de wereld dan slechts een soort mensenfokkerij?

Waarom de wereld tegenwoordig te complex zou zijn voor mensen kan ik ook niet volgen. Waar baseer je dat op? Wat missen we dan als we op menselijke intelligentie blijven vertrouwen?
Ik denk dat de informatiemaatschappij zoals we al een tijdje kennen iets is waar een hoop menselijke breinen moeite mee hebben. Niet alleen de hoeveelheid informatie, maar ook de snelheid waarmee die verandert. En daarnaast kunnen veel mensen ook moeilijk meekomen met digitalisering zoals die nu werkt.

Daar zie ik wel een rol weggelegd voor AI, als assistent voor mensen om zaken zoals belasting, verzekering, bankzaken, allerlei dagelijkse digitale/administratieve taken over te nemen of in ieder geval mensen te helpen. Alsof je met een medewerker praat die jou al jaren kent en op een menselijke manier met je communiceert. Of nog anders, een soort persoonlijke 'coach'.

Denk dat we niet moeten onderschatten dat met zoveel regeltjes en de juiste paden bewandelen in onze maatschappij je best op de hoogte moet zijn en veel mensen die paden niet meer begrijpen of weten te vinden. Ook daar zie ik AI een rol in spelen, echt een assistent die al die niet-leuke en voor sommigen ook moeilijke taken uit handen kan nemen.

Misschien een utopiegedachte, maar willen wij als mensheid al die complexe taken zelf blijven doen? Of gaan we naar een samenleving waar we als mensen echt met elkaar bezig zijn met emoties en aandacht naar elkaar. Laat de AI de wereld om ons heen en al het administratieve werk maar doen.

[Reactie gewijzigd door Tjeerd op 22 juli 2024 15:29]

Want AI is eigenlijk een spiegel van onze mensheid en kennis.
Het probleem is dat het een heule slechte spiegel is. Het wordt gemaakt met regels/data die lokaal zijn in zowel ruimte als tijd (zo'n AI zou er in nederland anders uitzien dan in ijsland en het drukt de meningen uit van de altijd veranderende tijdsgeest die heerst in die omgevingen). En de regels/data zijn daarbij ook nog eens onvolledig en bedacht/verzamelt door een kleine groep mensen die dus zelf beslist wat er in gaat en wat niet. Zie dat hele SYSI verhaal. Er zal dus ook een dikke bias in zitten door de vooringenomendheid van de makers.
Dat spiegelen aan de mensheid is dus verre van perfect. Wat er dan nodig is is een soepelere omgang met regels en een menselijke blik op de zaken.
Helaas is het eerste wat we zullen doen als we zo'n AI hebben is de verzachtende menselijke factor eromheen wegbezuinigen zodat we blind kunnen vertrouwen op een kromme reflectie van onszelf.
Er komt een punt dat AI in weze bijna onfeilbaar wordt
Veel maatschappelijke kwesties kunnen zelfs met een onfeilbare AI niet ethisch worden opgelost.
Wat wordt dan de rol van mensen nog? We gaan het naar mijn idee uiteindelijk afleggen als mens.
Tegen wie dan? Een AI heeft geen bewustzijn, geen eigen doelen, geen drijfveer om beter te worden dan de mens. Met andere woorden, wat de uitkomst ook gaat worden, of we in een utopie of een dystopie terechtkomen, we doen het onszelf aan.

AI's zijn niet het grote gevaar, mensen die zich bedienen van AI zijn het echte gevaar.
AI zal door worden getraind en in de toekomst verbanden kunnen leggen of beredeneren die wij als mens niet meer kunnen overzien.
Dat kunnen AI's nu al. Of kan jij een simpele potloodschets omzetten naar een schilderij in de stijl van van gogh? Een AI kan dat omdatie vele verbanden kan leggen in de onderliggende data die mensen nauwlijks of niet waar kunnen nemen.
Linksquest Moderator Spielerij 6 maart 2023 07:32
Leuke titel en van mij mag het, worden er misschien minder leugens verteld en de chatGT zal vast geen last van geheugenverlies hebben 😝
Ik snap dat je het grappig bedoeld, maar ik heb toch al schaakwedstrijden tegen chatGPT gezien, waar hij/zij/het toch echt geheugenverlies had. Dus dat er vergeten was welke stukken waar stonden. Op zich zal de AI het steeds beter gaan doen, maar voorlopig maakt deze net als mensen gewoon fouten.
Ik denk dat de grootste fout die gemaakt wordt met ChatGPT is te denken dat dat AI is. Het is slechts een chatbot met wat AI er achter, geen orakel en het doel is om mensen de indruk te geven met een mens te chatten. Dat komt inclusief ronduit liegen, dingen vergeten, verkeerde conclusies trekken uit beschikbare gegevens en dingen verzinnen als hij het antwoord niet weet (nèt een mens 😃 ).

Ik begrijp heel goed dat ChatGPT waardeloos zal zijn in schaken, luchtverkeersleiding, open hart operaties of regeren.

Ik hoop dan ook dat niemand ooit op het idee komt om ChatGPT voor iets anders dan chatten gaat in zetten. Maar ik vrees het ergste.

Mocht je al ooit op het idee komen om AI in te zetten voor landsbestuur dan zal het speciaal voor dat doel ontwikkelde software moeten zijn. En ik denk dat de meeste mensen heel ongelukkig zullen worden van de technocratische beslissingen.

[Reactie gewijzigd door Maurits van Baerle op 22 juli 2024 15:29]

Ik snap dat je het grappig bedoeld, maar ik heb toch al schaakwedstrijden tegen chatGPT gezien, waar hij/zij/het toch echt geheugenverlies had.
Iedere tool heeft een toepassing; door hier ver buiten te treden krijg je onverwacht gedrag. Dan is het niet de toepassing die faalt, maar degene die de toepassing foutief inzet.
Ik denk dat we heel voorzichtig moeten zijn met het gebruik van antwoorden uit een algoritme zolang we niet 100% zeker weten dat deze niet onpartijdig is. Want AI leert van de mens. En een mens is nooit onpartijdig.

Het kan ons inzichten geven, maar moet nooit het antwoord zijn.
Er is al uitgebreid aangetoond dat ChatGPT verschillende antwoorden geeft op vergelijkbare vragen, waarbij het duidelijk is dat bepaalde voorkeuren door de programmeurs opgelegd zijn.

Dus de vraag is niet alleen wat het systeem leert (wat ChatGPT trouwens nog niet kan), maar ook welke voorkeuren ingebouwd zijn.
Maar als je je conclusies baseert op alleen de antwoorden, hoe kan je dan concluderen dat het de voorkeuren van de programmeurs zijn en niet van de data die wordt gebruikt om te leren (aka. het Internet)?
De antwoorden zijn nogal duidelijk voorgeprogrammeerd en ook inconsistent met het normale gedrag van de AI, waar hij in elk geval een poging doet om de vraag te beantwoorden. Maar je kunt het zelf beoordelen:

https://twitter.com/immaSidd/status/1613538677447348227

Als je een trucje gebruikt waardoor het filter wordt omzeilt zie je ook gewoon dat hij dan de vraag wel beantwoord:

https://twitter.com/CsabaBiro16/status/1613559836729393155
Ik denk dat we ook heel voorzichtig moeten zijn met het posten van meningen waar heel vaak het woord 'niet' in staat. Voor je het weet beweer je het tegenovergestelde van wat je bedoelt :P
Het onderwerp van de implicaties van AI komt een beetje achterhaald over, op het betrekken van de huidige situatie na.

Het onderwerp en de interessante vragen die hij zichzelf daarbij stelt, zonder echt oplossingen te bieden, voelt aan alsof ik een korte rehash lees van wat verschillende anime eind jaren 90 al exploreerde (bijv. Ghost in the Shell).
Het grote verschil is dat het toen nog scifi was maar er nu daadwerkelijk gebruik gemaakt wordt van algoritmes en het er naar uit ziet dat we het punt bereiken dat dit op nog veel grotere schaal gebruikt gaat worden.
Een systeem zoals in China schijnt te zijn met social credits is niet iets waar ik naar uitzie...
Syri is al zo'n systeem, ze hebben je gewoon niet verteld dat het er was.
GitS is vooral een hele hoop filosofisch gemasturbeer en heeft niet veel te maken met de problemen die nu op ons afkomen.
Noem anders eens een punt uit GitS dat relevant is voor de huidige situatie. :)
Algoritmes hebben fouten in brondata en verwerking, maar ook de interpretatie van het resultaat en de uitvoering door de mens bevatten fouten.
Zolang we correcties op fouten toestaan en fouten niet vastleggen in wetten (zie voorbeelden in artikel) zijn we lekker bezig.
En dit is precies waarom mensen die algoritmes schrijven ook vaak de mist ingaan: Dit is een drogredenering, en als je die in een algoritme bakt gaat het dus dubbel mis.

Op dit item kan niet meer gereageerd worden.