Door Charlotte Post

Redacteur

De macht van het algoritme

En het terugpakken van de controle

04-05-2022 • 06:00

21

Singlepage-opmaak

Een human-in-the-loop

Een ander gevaar is dat algoritmen worden gebruikt om de verantwoordelijkheid af te schuiven. Rasch: “Dat zie je bijvoorbeeld bij profilering van burgers. Het algoritme doet dat; de ambtenaren of de mensen die het gebruiken, doen het zelf niet. Wie heeft er dan nog verantwoordelijkheid voor een racistische of discriminerende uitkomst? Dat wordt dan snel afgeschoven, omdat het algoritme wordt beschouwd als een neutrale en objectieve tool.” Dit afschuiven van verantwoordelijkheid ziet Rasch als het belangrijkste probleem. Het hangt volgens haar nauw samen met autonomie, een begrip dat ze centraal stelt in haar nieuwste boek Autonomie. Een zelfhulpgids. Hierin onderzoekt ze hoe we autonoom blijven ‘in een tijd waarin de techbedrijven beweren je beter te kennen dan je eigen moeder’. Onze autonomie verschuift zich steeds meer van onszelf naar de techniek. Rasch stelt daarbij de vraag of we deze verhouding misschien op een andere manier kunnen vormgeven.

Een eensluidend antwoord is er (nog) niet. Wel heeft Rasch ideeën over het onder controle houden van algoritmen. “Het zou goed zijn om een human-in-the-loop te hebben”, zegt ze. “Algoritmen en data kunnen dienen als input, maar de verantwoordelijkheid voor een beslissing moet uiteindelijk bij de mens liggen. Dat is heel belangrijk. Zeker als je denkt aan bijvoorbeeld het inzetten van autonome wapens of geautomatiseerde rechtspraak.”

Ook denkt Rasch dat we algoritmen niet meer altijd moeten gebruiken om dingen sneller en efficiënter te laten verlopen. Er moet juist tijd worden ingebouwd om tot een goede en eerlijke beoordeling te komen. Daarbij speelt de mens opnieuw een belangrijke rol. “Vraag jezelf af met welk doel een algoritme wordt ingezet. Als het echt alleen maar gaat om efficiëntie, betekent dat een afweging van belangen of waarden. Neem je bijvoorbeeld op de koop toe dat er een kans is dat mensen op de verkeerde manier geprofileerd worden? Dit zijn discussies die echt gevoerd moeten worden.”

De menselijke maat is ook in de ogen van De Weerdt van groot belang. Hij noemt hierbij het werk van de Amerikaan Ben Shneiderman. Deze computerwetenschapper stelt voor om controles op verschillende niveaus te laten plaatsvinden. Hoe meer mensen ernaar kijken, hoe minder fouten er immers in een algoritme kunnen sluipen. De Weerdt: “Stel, een bedrijf gebruikt een bepaald algoritme. Dan moet dat bedrijf ervoor zorgen dat iemand daar dagelijks een blik op werpt.” Daarnaast moet er een onafhankelijke instantie betrokken worden die extra controles uitvoert. De Weerdt stelt dat er regelgeving nodig is die bedrijven verplicht aan deze voorwaarden te voldoen. Om algoritmen te kunnen controleren, moeten ze bovendien transparant zijn. In het onderzoek van De Weerdt worden veel algoritmen daarom publiek gemaakt. “De code is open source. Zo kunnen er allerlei experts meekijken. Dat geeft veel vertrouwen.”

Algoritmeregister

Ook binnen andere domeinen komt er steeds meer aandacht voor transparantie en controleerbaarheid. Zo maakt onder meer de gemeente Amsterdam al gebruik van een algoritmeregister. Dit is een overzicht van de algoritmen die de gemeente gebruikt bij gemeentelijke dienstverlening. In de Tweede Kamer gaan er zelfs stemmen op om zo’n register verplicht te stellen voor overheden. Ghebreab ziet een algoritmeregister als een goede eerste stap. “Als mensen niet weten dát er algoritmen gebruikt worden, kunnen ze ook niet meewerken aan de verbetering van die algoritmen. Het is dus een noodzakelijke stap, maar daar moet het niet bij blijven.”

"Wetgeving en regulering zijn vooral bij de bigtechbedrijven belangrijk."Ghebreab ziet graag dat er een betere balans komt tussen top-downregulering en -wetgeving en bottom-updemocratisering van AI. “Ze zijn allebei nodig. Wetgeving en regulering zijn vooral bij de bigtechbedrijven belangrijk. Maar als je alles dichttimmert, riskeer je ook dat je het kind met badwater weggooit.” Er moet volgens Ghebreab meer ruimte worden geboden aan goede nieuwe oplossingen vanuit de maatschappij. Burgers moeten kunnen bijdragen aan de continue verbetering van algoritmen en AI. “Het liefst wil je dat burgers zeggenschap krijgen over het wel of niet toepassen van algoritmen.”

Wat kun je zelf doen?

Die zeggenschap mogen we dan nu nog niet hebben, toch kunnen we al stappen ondernemen om te voorkomen dat algoritmen te veel invloed krijgen. De Weerdt. “De gebruikers moeten zich er in ieder geval bewust van zijn dat wat zij zien, bepaald is door een bedrijf dat een algoritme gebruikt met een bepaald doel, het maximaliseren van de schermtijd bijvoorbeeld. Maar dat is niet per se het doel van de gebruiker.” Bewustwording van wat bedrijven werkelijk beogen met een algoritme, anders dan jou het leven makkelijker maken, is daarom van belang. De Weerdt denkt dat er daarnaast meer mogelijkheden geboden moeten worden om het algoritme op onze manier te beïnvloeden. Hier is een mooie taak weggelegd voor de ontwikkelaars. “Als algoritmen ons leven makkelijker behoren te maken, moeten we wel met ze communiceren”, zegt hij. “Helaas zijn er nu nog te weinig mogelijkheden om zelf invloed uit te oefenen. Mensen hebben amper keuze in wat ze te zien krijgen. Iemand kan bij een advertentie op Facebook bijvoorbeeld wel aangeven dat hij of zij die advertentie niet interessant vindt, maar het is allemaal veel te beperkt.”

Meer kennis opdoen

Ghebreab vindt dat de doorsneegebruiker zich best wat meer mag verdiepen in wat algoritmen precies doen. “Creëer kennis”, adviseert hij. “Als leek kun je al heel ver komen; je hoeft echt geen expert te zijn. Er zijn verschillende cursussen, zoals de Nationale AI-cursus, die op een toegankelijke manier uitleg geven over algoritmen en AI.” Vooral jongeren zouden zich hier meer in moeten verdiepen, vindt Ghebreab. “Jongeren gaan de algoritmische wereld in de toekomst nog verder vormgeven. Het is daarom belangrijk dat ze hier meer kennis over krijgen.” Idealiter wordt dit gestimuleerd vanuit het reguliere onderwijs, maar volgens Ghebreab is dat nog lang niet zover. “Hier ligt dus een taak voor de ouders. Stimuleer je kind, laat zien hoe het allemaal werkt.”

Het stopt echter niet bij het actief opdoen van kennis. Gebruikers moeten bovendien bereid zijn hun eigen gedrag onder de loep te nemen. “We hebben allemaal onze verantwoordelijkheid in wat we wel of niet doen”, legt Ghebreab uit. “Als je je laat leiden door allerlei comfort, moet je ook niet raar opkijken als je straks in een algoritmische wereld leeft die jou volledig beïnvloedt. Dat is een consequentie van je eigen onlinegedrag. Probeer daar bewust mee om te gaan.”

Durf te twijfelen

“Mensen kunnen veel meer dan ze willen toegeven, ook ten opzichte van algoritmen”, zegt Rasch. “Data weet het helemaal niet altijd beter dan wij en het algoritme is niet per se slimmer dan wij. Je mag dus best eens op je strepen gaan staan. Dat zeg ik niet om afbreuk aan de techniek te doen, want waar zouden we zijn zonder? Aan de andere kant, waar zouden we zijn zonder de mens?” Durf te twijfelen dus en durf ook vragen te stellen, vindt Rasch. “Dat is wat autonomie behelst en het is precies waartoe de Duitse filosoof Immanuel Kant opriep. Die oproep is nog altijd belangrijk en waardevol.”

Reacties (21)

21
21
11
4
0
8
Wijzig sortering
Hoe meer mensen ernaar kijken, hoe minder fouten er immers in een algoritme kunnen sluipen.
Misschien trek ik deze quote nu een beetje uit z'n verband, maar zoals deze er nu staat, ben ik het er totaal niet mee eens. Mijn ervaring is dat des te meer mensen er naar kijken/er aan werken, des te kleiner de kans dat de gevonden fout door een individu, wordt opgepakt en hersteld. 20 personen zien geen fout en nummer 21 stelt dat het fout is, dan moet je van goede huize komen om een meerderheid te overtuigen dat het écht fout is. En die nummer 21 moet ook het lef hebben om het aan te kaarten, niet in elke organisatie wordt het gewaardeerd om kritisch en/of afwijkend te zijn.
Op die quote wilde ik ook aanslaan. Meer mensen is meer afschuiven en meer weerstand voor iemand met een andere mening. Dit werkt averechts. Het is precies wat er vaak mis gaat in ambtelijke of grote organisaties.
Ook de zin er achteraan:
Dan moet dat bedrijf ervoor zorgen dat iemand daar dagelijks een blik op werpt.
Elke dag naar een algoritme kijken, dan krijg je het verhaal van de kikker in de langzaam opwarmende pan. Je ziet de problemen op een gegeven moment niet meer.

Ik denk dat er niet 'even gekeken' moet worden, maar er zal getest moeten worden. Volg manueel bepaalde casussen, liefst de grensgevallen. Bouw meetpunten ook op tussenresultaten in je algoritme. Monitor ook algemene grafieken om te zien of bepaalde discriminatie gevoelige groepen over of ondervertegenwoordigd zijn. Maar doe dat alles op de juiste frequentie en wissel ook de mens regelmatig zodat er met een frisse blik gekeken blijft worden.
Pan, kikker en opwarmen is een fabel. So you know :)
Er is al jaren opvallend veel aandacht op tweakers voor de gevaren van algoritmes, maar ik lees zelden iets over het alternatief.

Een algoritme voor een beroepskeuzetest die het studie-aanbod meeweegt is prima, als dat duidelijk gemaakt wordt aan de gebruiker.

Wat is het alternatief? Een mens die minder objectief is en onbewust al een bepaalde indruk van je heeft op het moment dat je binnenkomt voor een gesprek. Het is al vaak genoeg aangetoond dat je verschijning veel invloed heeft op wat anderen denken dat je kunt.
Er is al jaren opvallend veel aandacht op tweakers voor de gevaren van algoritmes, maar ik lees zelden iets over het alternatief.
Er bestaat geen alternatief voor een algoritme, ons hele leven bestaat uit algoritmes. Het is tenslotte niet meer dan een set instructies om tot een resultaat te komen. Alleen is het ene algoritme geautomatiseerd en het andere niet, het ene wat inzichtelijker dan het andere, etc.

Problemen ontstaan er op het moment dat jij als individu wordt afgerekend door een algoritme, waar jij geen enkele invloed op hebt. Een algoritme die is getraind op data uit het verleden, maar waarbij het heden en de gewenste toekomstigde wijzigingen t.o.v het verleden, niet in zijn meegenomen, gaat rustig weer het verleden kopiëren. Zie Amazon, waar mannen bij sollicitaties wéér de voorkeur kregen boven vrouwen. Dat algoritme deed precies wat het moest doen, deed precies wat het was aangeleerd. De "fout" zat dan ook niet in het algoritme, maar in de personen die het model hebben getraind en uiteraard de mensen die in het verleden verantwoordelijk waren voor het aannemen van personeel. En daarmee invloed hadden op de data. Want het is die data die is gebruikt om te trainen. Maar ja, andere data is er niet, er is geen parallel universum waar je even de gewenste data vandaan kunt halen.

De problemen bij de Nederlandse Belastingdienst zijn vergelijkbaar: Ben je geboren in het buitenland of heb je een niet-Nederlands paspoort, wordt je keurig door een algoritme beoordeeld als potentieel crimineel. Beide eigenschappen heb je zelf niet of nauwelijks invloed op, toch word je bestempeld als crimineel. De betrokken medewerkers weten van niets, ontkennen alles én zijn onschendbaar, dus geen haan die er naar kraait. Alle vingers wijzen nu naar "het algoritme", daar waar de oorzaak ligt bij de mensen/organisatie.
De betrokken medewerkers weten van niets, ontkennen alles én zijn onschendbaar, dus geen haan die er naar kraait. Alle vingers wijzen nu naar "het algoritme", daar waar de oorzaak ligt bij de mensen/organisatie.
Precies, en daar doet tweakers nu in feite aan mee. Ongetwijfeld onbedoeld, maar toch. 'Het ligt aan de computer' / algoritme wordt nu gelegitimeerd tot een soort excuus voor het echte, onderliggende probleem.
Anoniem: 562971 4 mei 2022 07:49
Algoritmen maken ons leven in sommige opzichten een stuk makkelijker. Het scheelt nu eenmaal een hoop tijd als je niet voortdurend op zoek hoeft te gaan naar muziek die je mooi vindt of boeken die je graag wilt lezen.
Mijn ochtend begint altijd met Youtube, dit is een actief en altijd aangemeld account maar van dat algoritme zie ik letterlijk nooit wat terug... Mijn interesses zijn PlayStation, Xbox, Sony televisies, Apple (producten) duiken (onderwatersport) Het enige wat ik altijd te zien krijg is iets wat mij totaal niet boeit of het is al meer dan 10 jaar oud.

Doe ik nu wat fout of is Joetjoep kapot...
Je maakt nu een denkfout. Het algoritme van "joetjoep" leert zeer beperkt van jouw eigen voorkeuren. Jouw data is gewoon te weinig om een AI systeem mee te laten leren.
Wat in de praktijk gebeurt (en wat Cambridge Analytica heel goed deed) is dat jij past in een profiel. Op basis van allerlei gedragskenmerken zit jij in een grote groep van andere mensen die allemaal kijkgedrag vertonen. Cambridge Analytica heeft ooit een aantal "korte vragenlijsten" aan mensen gestuurd waarvan ze meer info hadden mbt opleiding, woonplaats, geslacht en kleur etc. Die vragenlijsten gaven een verfijning van het profiel van die mensen. En vervolgens hebben ze diezelfde verfijning / verdere categorisering toegepast op de rest van de mensheid die in eenzelfde profiel pasten. De mensen die een vragenlijst invulden waren dus een steekproef in een statistische test, en die werd representatief gesteld voor de grote groep mensen die aan eenzelfde profiel voldoen.

In jouw geval lijk jij dus mbt de data, die jij al dan niet vrijwillig deelt, op mensen die voorkeuren hebben voor wat jij krijgt voorgeschoteld. Je kan dat alleen beïnvloeden door actief jouw profiel te wijzigen (en dan hebben we het over kleur, opleiding, woonplaats, met wie jij vrienden bent mbt gmail, facebook, linked-in). Dan kan je mogelijk passender suggesties krijgen.

Maar ik zal het je niet aanraden en vooral blij zijn dat ze jou niet zo goed kunnen matchen :)

[Reactie gewijzigd door oltk op 22 juli 2024 19:54]

Mmh, dat is wel gek en zou zeker niet moeten. Normaal gesproken laat YouTube je altijd nieuwe filmpjes zien van de kanalen die je volgt en filmpjes die gerelateerd zijn aan de laatste filmpjes die je hebt gekeken.

Als het bij jou echt niet werkt kun je evt nog proberen een nieuw account aan te maken, je favoriete kanalen opnieuw te volgen, en dan een paar dagen testen of de suggesties verbeteren.
Heb je wellicht een adblocker aan staan ?
Daarnaast zijn er nog meer factoren die een rol kunnen spelen. YouTube heeft niet als doel om jou te entertainen, maar om advertenties te tonen. Daarvoor is het belangrijk om ook je aandacht vast te houden. Door ook afwijkende zaken voor te stellen, in plaats van nóg meer van hetzelfde, blijft YouTube interessant voor je.
Mijn ochtend begint altijd met Youtube, dit is een actief en altijd aangemeld account
Blijkbaar werkt het dus ook. :)
Het is voor de mens zelf vrijwel onmogelijk om perfect objectief te zijn. Taal en woorden zijn an zich al subjectief. Het is daarom ook optimistisch om te denken dat door mensen gemaakte algoritmen wel objectief kunnen werken. Alleen zuivere wiskunde kan 100 objectief zijn. Jammer genoeg zijn er relatief weinig situaties die zich volledig laten beschrijven door wiskunde. :*)

Ik denk dat het heel belangrijk is om altijd een kritische en onafhankelijke houding ten opzichte van algoritmen te proberen te behouden. Persoonlijk lukt dat op sommige vlakken heel goed. Ik kies bijvoorbeeld zelf welke muziek ik luister en weiger me muziek te laten voorstellen door een algoritme. Dit terwijl wel luisteren naar de suggesties me potentieel iets zouden kunnen opleveren. Daarnaast raak ik soms volledig verdwaald op Instagram reels. Gek genoeg ben ik dus een beetje verslaafd aan een algoritme dat me vrijwel niets oplevert.
Ik heb zitten nadenken over je comment, en ik denk dat het verschil tussen menselijke en digitale algoritmen is dat een mens, hoewel nooit perfect, wel perfectie nastreeft en daar verantwoordelijkheid voor neemt, waar een algoritme - een artefact zonder wil of doel - geen perfectie nastreeft en slechts doet wat het is opgedragen.

Een algoritme kan zichzelf dus niet verbeteren, en slechts tot op een bepaald niveau met menselijke hulp. Ik denk dat op veel gebieden mensen, met hun verantwoordelijkheid en (hopelijk) streven naar perfectie van gelijkwaardigheid en inclusiviteit, op kleine schaal meer kunnen bereiken, of in ieder geval door blijven ontwikkelen.
Ik kan natuurlijk compleet verkeerde verwachtingen hebben, maar aangezien dit een plus artikel is had ik gehoopt op wat meer technische achtergrond. Bijvoorveeld wat pseudo code voorbeelden van hoe het niet zou moeten en hoe het wel beter zou kunnenz. Verder een prima artikel 🙂
De titel en de inhoud passen goed bij elkaar. Het sluit volledig aan bij mijn verwachtingen.
Edit; zolang we de intentie en het doel van een algoritme niet meewegen is een discussie erover zinloos.

[Reactie gewijzigd door NiGeLaToR op 22 juli 2024 19:54]

Als academisch coordinator van de Vlaamse AI Academie (een samenwerking tussen alle hoger-onderwijsinstellingen in Vlaanderen) heb ik afgelopen jaar een seminarreeks voor onderzoekers georganiseerd rond de ethische aspecten van algoritmen/AI: https://www.vaia.be/nl/series/sense-sensibility-of-ai

Er valt wel heel wat meer nog te zeggen dan hier in het artikel naar voren komt en zelfs veel meer dan in welk bestaand boek dan ook is gevat. De crux voor mij is dat computers zowel veel meer data kunnen doorwerken als meer exacte verlijkingen kunnen maken dan een mens ooit zou kunnen. Er zit daarom heel veel waarde in de inzet van machine learning, AI, data science, algoritmen of welke term je er ook graag voor wilt gebruiken. Dergelijke systemen automatiseren niet alleen processen, ze kunnen ook dingen die wij als mensen niet kunnen.

Technieken om data en modellen uit te leggen en te kunnen onderzoeken zijn cruciaal bij de inzet, zowel om ze ethisch verantwoord te kunnen inzetten als om te kunnen garanderen dat de gevonden patronen ook daadwerkelijk generaliseren naar de werkelijkheid en dus echte voorspellende waarde hebben. Tegelijk is het een fundamenteel en onoplosbaar probleem dat we dan niet meer precies kunnen vatten wat een model doet, want de complexiteit is voor ons te groot. Daar moeten we mee leren omgaan, we moeten risico's proberen inzichtelijk te maken en af te dekken. Daar moeten zowel computationele methodes als processen voor komen. Een enorme uitdaging. Tot die tijd moeten we vooral bij iedere inzet van een algoritme ons afvragen of de risico's te overzien zijn.

Bijvoorbeeld de inzet van AI bij fraude-opsporing vanuit de overheid (zoals recent nog een aankondiging over is gedaan) vind ik een zeer riskante onderneming. Het is een open vraag of we uberhaupt de kennis en tools hebben om dat op een verantwoorde manier te doen.
Bedankt! :)
Anoniem: 25993 4 mei 2022 12:34
De inhoud van een algoritme is maar van beperkt belang zolang er mensen met kennis en verstand naar de output van het algoritme blijven kijken en dat beoordelen op de menselijke maat.
Het grootste gevaar dreigt hier altijd in het blindvaren op dit soort algoritmen.
En dan moet ik constateren dat vooral de grote massa met weinig intelligentie de neiging heeft om op dit soort dingen te gaan blindvaren omdat ze zelf niet in staat zijn om gegronde conclusies te trekken.
Ik ben daarom een sterke tegenstander van überhaupt het gebruik van algoritmes voor beoordelingen of adviezen.
Als voorbeeld: laatst vulde ik twee stemwijzers in om eens te kijken wat daar nou uit zou komen en daar kwam uit beide een totaal ander beeld. Dus ik maak toch echt liever mijn eigen keuzes in het leven.

[Reactie gewijzigd door Anoniem: 25993 op 22 juli 2024 19:54]

"Denk bijvoorbeeld aan de kwalijke rol van algoritmen bij het digitale fraudeopsporingssysteem SyRI of de toeslagenaffaire, waarbij volgens Amnesty International zelfs sprake is van mensenrechtenschending. Dit mogen dan excessen zijn, het blijft een feit dat we de groeiende macht van algoritmen niet mogen onderschatten."

Maar wat als de input objectief is en het algoritme een output geeft wat volgens de mens onwenselijk is?

We dienen strikt te controleren dat de input daadwerkelijk correct gebeurt want dat geeft ons juist de mogelijkheid dat zaken objectief beoordeeld kunnen worden. Ik zie het algoritme als 'n hele goede kans om zaken juist objectief te beoordelen.

Maar waar ik moeite mee heb, is áls die input daadwerkelijk objectief is gebeurd we de output dan alsnog als onwenselijk kunnen beschouwen als die ons niet bevalt. En vervolgens de input gaan aanpassen naargelang we een output krijgen die wel wenselijk is.

[Reactie gewijzigd door Ruben26 op 22 juli 2024 19:54]

Op dit item kan niet meer gereageerd worden.