Door Charlotte Post

Redacteur

De macht van het algoritme

En het terugpakken van de controle

De zwakten van algoritmen

Algoritmen maken ons leven in sommige opzichten een stuk makkelijker. Het scheelt nu eenmaal een hoop tijd als je niet voortdurend op zoek hoeft te gaan naar muziek die je mooi vindt of boeken die je graag wilt lezen. Met behulp van wiskundige formules die op jouw online gedrag (data) worden losgelaten, worden voorspellingen gedaan omtrent bijvoorbeeld jouw voorkeuren en toekomstige gedrag. Op basis daarvan krijg je specifieke advertenties of andere aanbevelingen voorgeschoteld. Maar de reeksen van instructies zijn voor veel meer toepassingen in te zetten. Het algoritme leidt de weg en de meeste mensen volgen maar wat graag.

Dit blinde vertrouwen brengt echter de nodige risico’s met zich mee. De voorspellingen en aanbevelingen zijn namelijk lang niet altijd objectief. Denk bijvoorbeeld aan de kwalijke rol van algoritmen bij het digitale fraudeopsporingssysteem SyRI of de toeslagenaffaire, waarbij volgens Amnesty International zelfs sprake is van mensenrechtenschending. Dit mogen dan excessen zijn, het blijft een feit dat we de groeiende macht van algoritmen niet mogen onderschatten. De vraag is: wat doen we eraan en hoe behouden we de controle? Drie deskundigen geven antwoord.

Machtsvraag

"Wie het algoritme bezit, heeft de controle over degene die zijn of haar keuzen overdraagt aan het algoritme."Filosoof, essayist en spreker Miriam Rasch buigt zich in haar werk over de ethische dilemma’s rond de steeds verder reikende invloed van data. Ze beaamt dat algoritmen het leven op verschillende gebieden makkelijker maken. Maar, zegt ze, je geeft wel de controle uit handen en je weet niet waar het stopt. “Dan wordt het min of meer een machtsvraag. Wie het algoritme bezit, heeft de controle over degene die zijn of haar keuzes overdraagt aan het algoritme. Er zijn talloze voorbeelden waarbij mensen last ondervinden van het feit dat algoritmen beslissingen nemen, zoals bij het bepalen van iemands kredietwaardigheid”, aldus Rasch.

De mens achter het algoritme

Miriam Rasch

We mogen daarbij niet uit het oog verliezen dat een algoritme door mensen ontwikkeld wordt. Het doet waarvoor het geprogrammeerd is; het beslist nooit helemaal uit zichzelf. Rasch noemt het inzetten van een algoritme bij het bepalen van je studiekeuze als hypothetisch voorbeeld. Dit kan heel fijn zijn voor iemand die erg twijfelt over wat hij wil gaan doen, maar het is de vraag wie het algoritme dat uiteindelijk een advies gaat geven, programmeert. Rasch: “Het is best mogelijk dat er andere, menselijke belangen meespelen. Misschien krijgt iemand pas een advies voor een bepaalde opleiding op het moment dat hier veel vraag naar is, zoals bij een lerarentekort.” Degene die het advies krijgt, gaat ervan uit dat dit onafhankelijk is en is zich er niet van bewust dat de maker van het algoritme de data heeft geselecteerd. De uitkomst hangt dus af van wat ‘erin is gestopt’.

Hiermee raakt ze aan een van de zwakten van algoritmen; ze zijn man made en daarmee gevoelig voor vooroordelen, of bias, en andere menselijke (denk)fouten. Verkeerde of ongefundeerde beslissingen zijn het gevolg. “Alles wat verkeerd kan gaan in de normale wereld, kan verkeerd gaan als je algoritmen gebruikt”, stelt AI-wetenschapper Sennay Ghebreab van de Universiteit van Amsterdam. Het gebruik van

Sennay Ghebreab

algoritmen kan de problemen zelfs verergeren, juist omdat ze ondoorzichtig en ondoordacht worden gebruikt om beslissingen te nemen over en voor grote groepen mensen.

Volgens Ghebreab is er een risico dat discriminatie en ongelijkheid op die manier alleen maar worden versterkt. Algoritmen worden immers getraind op basis van grote hoeveelheden (menselijke) data. De kans dat hier vooroordelen insluipen, is groot. Dit komt onder meer door het gebruik van ‘verkeerde’ of verouderde data waarin historische discriminatie of ongelijkheid is verscholen: oververtegenwoordiging, of juist ondervertegenwoordiging, van een specifieke bevolkingsgroep bijvoorbeeld. Het algoritme houdt daar geen rekening mee en gaat aan het werk op basis van de ingegeven data. Scheve en ongelijke uitkomsten kunnen het gevolg zijn. “Data moet altijd worden ververst en geüpdatet”, vindt Ghebreab. “Maak het representatief voor tijd en plaats.”

Nauwelijks te begrijpen modellen

Het gaat niet altijd mis door menselijk toedoen. Mathijs de Weerdt, sectieleider van de vakgroep algoritmiek aan de TU Delft, legt uit dat de meeste moderne algoritmen uit twee delen bestaan. “Een deel bestaat uit instructies die de computer moet opvolgen. Deze worden inderdaad door de mens gemaakt en ingevoerd. Het tweede deel wordt gevormd door de modellen die ontstaan uit de aangeleverde data.” Volgens De Weerdt is al lang bekend dat mensen fouten kunnen maken in het instructiegedeelte: “Sinds het begin van het informaticatijdperk weten we dat er bugs voorkomen. Hoewel het nog steeds weleens misgaat, denk ik toch dat we inmiddels goed weten hoe we hiermee moeten omgaan. Ik zou het in ieder geval niet meer als een gevaar willen classificeren.”

Weinig inzicht in modellen

Het gevaar zit vooral in het tweede gedeelte: de data. Er wordt namelijk lang niet altijd begrepen hoe de modellen die op die data gebaseerd zijn, precies werken. “Het meestgebruikte en succesvolste model is het diepe neurale netwerk”, vertelt De Weerdt. “Zo’n model heeft vele variabelen die worden ingevuld, zodat het zo goed mogelijk past bij de data. Dit noemen we het trainen van een model.” De "Er is momenteel nog geen goede methode om foutieve inschattingen te controleren en te voorkomen."getallenmatrixen die hieruit voortkomen, zijn voor de mens nauwelijks te begrijpen en dat is problematisch, want we weten dan niet waar en waarom dingen verkeerd gaan. Dit is bijvoorbeeld het geval bij modellen die gezichten leren herkennen op basis van foto’s. De Weerdt: “Daarbij is er altijd een kans dat er een fout antwoord uitkomt. Er is momenteel nog geen goede methode om dergelijke foutieve inschattingen te controleren en te voorkomen.”

Binnen het onderzoek wordt daarom hard gewerkt aan het inzichtelijk maken van de modellen en het verbeteren van algoritmen. “In de vakgroep werken we met name aan algoritmen die iets te maken hebben met planning en logistiek”, vertelt hij. “Dit gaat bijvoorbeeld om plannings- en optimalisatieproblemen waarbij verschillende partijen betrokken zijn, zoals in het energiedomein.” Binnen dat domein onderzoeken De Weerdt en zijn collega’s algoritmen voor een efficiënt en eerlijk gebruik van

Mathijs de Weerdt

het elektriciteitsnetwerk. Nu de momenten van vraag en aanbod elkaar door de energietransitie steeds minder overlappen, is dat hoognodig. “We proberen daarbij modellen te ontwikkelen die duidelijk maken wat er precies gebeurt, bijvoorbeeld door relaties tussen variabelen expliciet te maken.” Zo kan er een relatie zijn tussen de elektriciteitsprijs en de wind: “Stel, de elektriciteitsprijs daalt als het harder waait. Wij proberen deze relatie uit te drukken in een wiskundige functie die begrijpelijk is. Dat geeft veel meer inzicht dan een matrix vol getallen en is effectiever voor het oplossen van optimalisatieproblemen.”

Verkeerde data

Naast een foutieve respons op basis van correcte data schetst De Weerdt, net als Ghebreab, nog een ander mogelijk probleem. “Het kan ook zijn dat er verkeerde data wordt ingevoerd.” Een bekend voorbeeld is de discriminerende sollicitatierobot van Amazon, die mannen boven vrouwen verkoos. “Dat kwam doordat er data uit het verleden werd gebruikt. En in het verleden werden er meer mannen dan vrouwen aangenomen”, zegt De Weerdt.

Hoewel er steeds meer aandacht komt voor deze bias en mensen zich bewuster worden van de soms rampzalige gevolgen, zoals bij de toeslagenaffaire, worden algoritmen nog vaak gehanteerd als neutrale, objectieve maatstaven. Rasch: “In de praktijk zie je dat men toch geneigd is de uitkomst van een algoritme te vertrouwen. Dat komt doordat data in de ogen van veel mensen inherent objectief en neutraal is.” Daarnaast is het volgens Rasch lastig om aan te wijzen waar een bias zich bevindt. “Zelfs Google geeft toe dat het niet precies kan aanwijzen op welke plek in het algoritme iets misgaat. Het is onzichtbaar en daardoor moeilijk om er wat aan te doen.”

Een human-in-the-loop

Een ander gevaar is dat algoritmen worden gebruikt om de verantwoordelijkheid af te schuiven. Rasch: “Dat zie je bijvoorbeeld bij profilering van burgers. Het algoritme doet dat; de ambtenaren of de mensen die het gebruiken, doen het zelf niet. Wie heeft er dan nog verantwoordelijkheid voor een racistische of discriminerende uitkomst? Dat wordt dan snel afgeschoven, omdat het algoritme wordt beschouwd als een neutrale en objectieve tool.” Dit afschuiven van verantwoordelijkheid ziet Rasch als het belangrijkste probleem. Het hangt volgens haar nauw samen met autonomie, een begrip dat ze centraal stelt in haar nieuwste boek Autonomie. Een zelfhulpgids. Hierin onderzoekt ze hoe we autonoom blijven ‘in een tijd waarin de techbedrijven beweren je beter te kennen dan je eigen moeder’. Onze autonomie verschuift zich steeds meer van onszelf naar de techniek. Rasch stelt daarbij de vraag of we deze verhouding misschien op een andere manier kunnen vormgeven.

Een eensluidend antwoord is er (nog) niet. Wel heeft Rasch ideeën over het onder controle houden van algoritmen. “Het zou goed zijn om een human-in-the-loop te hebben”, zegt ze. “Algoritmen en data kunnen dienen als input, maar de verantwoordelijkheid voor een beslissing moet uiteindelijk bij de mens liggen. Dat is heel belangrijk. Zeker als je denkt aan bijvoorbeeld het inzetten van autonome wapens of geautomatiseerde rechtspraak.”

Ook denkt Rasch dat we algoritmen niet meer altijd moeten gebruiken om dingen sneller en efficiënter te laten verlopen. Er moet juist tijd worden ingebouwd om tot een goede en eerlijke beoordeling te komen. Daarbij speelt de mens opnieuw een belangrijke rol. “Vraag jezelf af met welk doel een algoritme wordt ingezet. Als het echt alleen maar gaat om efficiëntie, betekent dat een afweging van belangen of waarden. Neem je bijvoorbeeld op de koop toe dat er een kans is dat mensen op de verkeerde manier geprofileerd worden? Dit zijn discussies die echt gevoerd moeten worden.”

De menselijke maat is ook in de ogen van De Weerdt van groot belang. Hij noemt hierbij het werk van de Amerikaan Ben Shneiderman. Deze computerwetenschapper stelt voor om controles op verschillende niveaus te laten plaatsvinden. Hoe meer mensen ernaar kijken, hoe minder fouten er immers in een algoritme kunnen sluipen. De Weerdt: “Stel, een bedrijf gebruikt een bepaald algoritme. Dan moet dat bedrijf ervoor zorgen dat iemand daar dagelijks een blik op werpt.” Daarnaast moet er een onafhankelijke instantie betrokken worden die extra controles uitvoert. De Weerdt stelt dat er regelgeving nodig is die bedrijven verplicht aan deze voorwaarden te voldoen. Om algoritmen te kunnen controleren, moeten ze bovendien transparant zijn. In het onderzoek van De Weerdt worden veel algoritmen daarom publiek gemaakt. “De code is open source. Zo kunnen er allerlei experts meekijken. Dat geeft veel vertrouwen.”

Algoritmeregister

Ook binnen andere domeinen komt er steeds meer aandacht voor transparantie en controleerbaarheid. Zo maakt onder meer de gemeente Amsterdam al gebruik van een algoritmeregister. Dit is een overzicht van de algoritmen die de gemeente gebruikt bij gemeentelijke dienstverlening. In de Tweede Kamer gaan er zelfs stemmen op om zo’n register verplicht te stellen voor overheden. Ghebreab ziet een algoritmeregister als een goede eerste stap. “Als mensen niet weten dát er algoritmen gebruikt worden, kunnen ze ook niet meewerken aan de verbetering van die algoritmen. Het is dus een noodzakelijke stap, maar daar moet het niet bij blijven.”

"Wetgeving en regulering zijn vooral bij de bigtechbedrijven belangrijk."Ghebreab ziet graag dat er een betere balans komt tussen top-downregulering en -wetgeving en bottom-updemocratisering van AI. “Ze zijn allebei nodig. Wetgeving en regulering zijn vooral bij de bigtechbedrijven belangrijk. Maar als je alles dichttimmert, riskeer je ook dat je het kind met badwater weggooit.” Er moet volgens Ghebreab meer ruimte worden geboden aan goede nieuwe oplossingen vanuit de maatschappij. Burgers moeten kunnen bijdragen aan de continue verbetering van algoritmen en AI. “Het liefst wil je dat burgers zeggenschap krijgen over het wel of niet toepassen van algoritmen.”

Wat kun je zelf doen?

Die zeggenschap mogen we dan nu nog niet hebben, toch kunnen we al stappen ondernemen om te voorkomen dat algoritmen te veel invloed krijgen. De Weerdt. “De gebruikers moeten zich er in ieder geval bewust van zijn dat wat zij zien, bepaald is door een bedrijf dat een algoritme gebruikt met een bepaald doel, het maximaliseren van de schermtijd bijvoorbeeld. Maar dat is niet per se het doel van de gebruiker.” Bewustwording van wat bedrijven werkelijk beogen met een algoritme, anders dan jou het leven makkelijker maken, is daarom van belang. De Weerdt denkt dat er daarnaast meer mogelijkheden geboden moeten worden om het algoritme op onze manier te beïnvloeden. Hier is een mooie taak weggelegd voor de ontwikkelaars. “Als algoritmen ons leven makkelijker behoren te maken, moeten we wel met ze communiceren”, zegt hij. “Helaas zijn er nu nog te weinig mogelijkheden om zelf invloed uit te oefenen. Mensen hebben amper keuze in wat ze te zien krijgen. Iemand kan bij een advertentie op Facebook bijvoorbeeld wel aangeven dat hij of zij die advertentie niet interessant vindt, maar het is allemaal veel te beperkt.”

Meer kennis opdoen

Ghebreab vindt dat de doorsneegebruiker zich best wat meer mag verdiepen in wat algoritmen precies doen. “Creëer kennis”, adviseert hij. “Als leek kun je al heel ver komen; je hoeft echt geen expert te zijn. Er zijn verschillende cursussen, zoals de Nationale AI-cursus, die op een toegankelijke manier uitleg geven over algoritmen en AI.” Vooral jongeren zouden zich hier meer in moeten verdiepen, vindt Ghebreab. “Jongeren gaan de algoritmische wereld in de toekomst nog verder vormgeven. Het is daarom belangrijk dat ze hier meer kennis over krijgen.” Idealiter wordt dit gestimuleerd vanuit het reguliere onderwijs, maar volgens Ghebreab is dat nog lang niet zover. “Hier ligt dus een taak voor de ouders. Stimuleer je kind, laat zien hoe het allemaal werkt.”

Het stopt echter niet bij het actief opdoen van kennis. Gebruikers moeten bovendien bereid zijn hun eigen gedrag onder de loep te nemen. “We hebben allemaal onze verantwoordelijkheid in wat we wel of niet doen”, legt Ghebreab uit. “Als je je laat leiden door allerlei comfort, moet je ook niet raar opkijken als je straks in een algoritmische wereld leeft die jou volledig beïnvloedt. Dat is een consequentie van je eigen onlinegedrag. Probeer daar bewust mee om te gaan.”

Durf te twijfelen

“Mensen kunnen veel meer dan ze willen toegeven, ook ten opzichte van algoritmen”, zegt Rasch. “Data weet het helemaal niet altijd beter dan wij en het algoritme is niet per se slimmer dan wij. Je mag dus best eens op je strepen gaan staan. Dat zeg ik niet om afbreuk aan de techniek te doen, want waar zouden we zijn zonder? Aan de andere kant, waar zouden we zijn zonder de mens?” Durf te twijfelen dus en durf ook vragen te stellen, vindt Rasch. “Dat is wat autonomie behelst en het is precies waartoe de Duitse filosoof Immanuel Kant opriep. Die oproep is nog altijd belangrijk en waardevol.”

Dit artikel kun je gratis lezen zonder adblocker

Alle content op Tweakers is gratis voor iedereen toegankelijk. Het enige dat we van je vragen is dat je de advertenties niet blokkeert, zodat we de inkomsten hebben om in Tweakers te blijven investeren. Je hoeft hierbij niet bang te zijn dat je privacy of veiligheid in het geding komt, want ons advertentiesysteem werkt volledig zonder thirdpartytracking.

Bekijk onze uitleg hoe je voor Tweakers een uitzondering kunt maken in je adblocker.

Ben je abonnee? Log dan in.

Reacties (21)

21
21
11
4
0
8
Wijzig sortering
Hoe meer mensen ernaar kijken, hoe minder fouten er immers in een algoritme kunnen sluipen.
Misschien trek ik deze quote nu een beetje uit z'n verband, maar zoals deze er nu staat, ben ik het er totaal niet mee eens. Mijn ervaring is dat des te meer mensen er naar kijken/er aan werken, des te kleiner de kans dat de gevonden fout door een individu, wordt opgepakt en hersteld. 20 personen zien geen fout en nummer 21 stelt dat het fout is, dan moet je van goede huize komen om een meerderheid te overtuigen dat het écht fout is. En die nummer 21 moet ook het lef hebben om het aan te kaarten, niet in elke organisatie wordt het gewaardeerd om kritisch en/of afwijkend te zijn.
Op die quote wilde ik ook aanslaan. Meer mensen is meer afschuiven en meer weerstand voor iemand met een andere mening. Dit werkt averechts. Het is precies wat er vaak mis gaat in ambtelijke of grote organisaties.
Ook de zin er achteraan:
Dan moet dat bedrijf ervoor zorgen dat iemand daar dagelijks een blik op werpt.
Elke dag naar een algoritme kijken, dan krijg je het verhaal van de kikker in de langzaam opwarmende pan. Je ziet de problemen op een gegeven moment niet meer.

Ik denk dat er niet 'even gekeken' moet worden, maar er zal getest moeten worden. Volg manueel bepaalde casussen, liefst de grensgevallen. Bouw meetpunten ook op tussenresultaten in je algoritme. Monitor ook algemene grafieken om te zien of bepaalde discriminatie gevoelige groepen over of ondervertegenwoordigd zijn. Maar doe dat alles op de juiste frequentie en wissel ook de mens regelmatig zodat er met een frisse blik gekeken blijft worden.
Pan, kikker en opwarmen is een fabel. So you know :)
Er is al jaren opvallend veel aandacht op tweakers voor de gevaren van algoritmes, maar ik lees zelden iets over het alternatief.

Een algoritme voor een beroepskeuzetest die het studie-aanbod meeweegt is prima, als dat duidelijk gemaakt wordt aan de gebruiker.

Wat is het alternatief? Een mens die minder objectief is en onbewust al een bepaalde indruk van je heeft op het moment dat je binnenkomt voor een gesprek. Het is al vaak genoeg aangetoond dat je verschijning veel invloed heeft op wat anderen denken dat je kunt.
Er is al jaren opvallend veel aandacht op tweakers voor de gevaren van algoritmes, maar ik lees zelden iets over het alternatief.
Er bestaat geen alternatief voor een algoritme, ons hele leven bestaat uit algoritmes. Het is tenslotte niet meer dan een set instructies om tot een resultaat te komen. Alleen is het ene algoritme geautomatiseerd en het andere niet, het ene wat inzichtelijker dan het andere, etc.

Problemen ontstaan er op het moment dat jij als individu wordt afgerekend door een algoritme, waar jij geen enkele invloed op hebt. Een algoritme die is getraind op data uit het verleden, maar waarbij het heden en de gewenste toekomstigde wijzigingen t.o.v het verleden, niet in zijn meegenomen, gaat rustig weer het verleden kopiëren. Zie Amazon, waar mannen bij sollicitaties wéér de voorkeur kregen boven vrouwen. Dat algoritme deed precies wat het moest doen, deed precies wat het was aangeleerd. De "fout" zat dan ook niet in het algoritme, maar in de personen die het model hebben getraind en uiteraard de mensen die in het verleden verantwoordelijk waren voor het aannemen van personeel. En daarmee invloed hadden op de data. Want het is die data die is gebruikt om te trainen. Maar ja, andere data is er niet, er is geen parallel universum waar je even de gewenste data vandaan kunt halen.

De problemen bij de Nederlandse Belastingdienst zijn vergelijkbaar: Ben je geboren in het buitenland of heb je een niet-Nederlands paspoort, wordt je keurig door een algoritme beoordeeld als potentieel crimineel. Beide eigenschappen heb je zelf niet of nauwelijks invloed op, toch word je bestempeld als crimineel. De betrokken medewerkers weten van niets, ontkennen alles én zijn onschendbaar, dus geen haan die er naar kraait. Alle vingers wijzen nu naar "het algoritme", daar waar de oorzaak ligt bij de mensen/organisatie.
De betrokken medewerkers weten van niets, ontkennen alles én zijn onschendbaar, dus geen haan die er naar kraait. Alle vingers wijzen nu naar "het algoritme", daar waar de oorzaak ligt bij de mensen/organisatie.
Precies, en daar doet tweakers nu in feite aan mee. Ongetwijfeld onbedoeld, maar toch. 'Het ligt aan de computer' / algoritme wordt nu gelegitimeerd tot een soort excuus voor het echte, onderliggende probleem.
Anoniem: 562971
4 mei 2022 07:49
Algoritmen maken ons leven in sommige opzichten een stuk makkelijker. Het scheelt nu eenmaal een hoop tijd als je niet voortdurend op zoek hoeft te gaan naar muziek die je mooi vindt of boeken die je graag wilt lezen.
Mijn ochtend begint altijd met Youtube, dit is een actief en altijd aangemeld account maar van dat algoritme zie ik letterlijk nooit wat terug... Mijn interesses zijn PlayStation, Xbox, Sony televisies, Apple (producten) duiken (onderwatersport) Het enige wat ik altijd te zien krijg is iets wat mij totaal niet boeit of het is al meer dan 10 jaar oud.

Doe ik nu wat fout of is Joetjoep kapot...
Je maakt nu een denkfout. Het algoritme van "joetjoep" leert zeer beperkt van jouw eigen voorkeuren. Jouw data is gewoon te weinig om een AI systeem mee te laten leren.
Wat in de praktijk gebeurt (en wat Cambridge Analytica heel goed deed) is dat jij past in een profiel. Op basis van allerlei gedragskenmerken zit jij in een grote groep van andere mensen die allemaal kijkgedrag vertonen. Cambridge Analytica heeft ooit een aantal "korte vragenlijsten" aan mensen gestuurd waarvan ze meer info hadden mbt opleiding, woonplaats, geslacht en kleur etc. Die vragenlijsten gaven een verfijning van het profiel van die mensen. En vervolgens hebben ze diezelfde verfijning / verdere categorisering toegepast op de rest van de mensheid die in eenzelfde profiel pasten. De mensen die een vragenlijst invulden waren dus een steekproef in een statistische test, en die werd representatief gesteld voor de grote groep mensen die aan eenzelfde profiel voldoen.

In jouw geval lijk jij dus mbt de data, die jij al dan niet vrijwillig deelt, op mensen die voorkeuren hebben voor wat jij krijgt voorgeschoteld. Je kan dat alleen beïnvloeden door actief jouw profiel te wijzigen (en dan hebben we het over kleur, opleiding, woonplaats, met wie jij vrienden bent mbt gmail, facebook, linked-in). Dan kan je mogelijk passender suggesties krijgen.

Maar ik zal het je niet aanraden en vooral blij zijn dat ze jou niet zo goed kunnen matchen :)

[Reactie gewijzigd door oltk op 5 mei 2022 09:35]

Mmh, dat is wel gek en zou zeker niet moeten. Normaal gesproken laat YouTube je altijd nieuwe filmpjes zien van de kanalen die je volgt en filmpjes die gerelateerd zijn aan de laatste filmpjes die je hebt gekeken.

Als het bij jou echt niet werkt kun je evt nog proberen een nieuw account aan te maken, je favoriete kanalen opnieuw te volgen, en dan een paar dagen testen of de suggesties verbeteren.
Heb je wellicht een adblocker aan staan ?
Daarnaast zijn er nog meer factoren die een rol kunnen spelen. YouTube heeft niet als doel om jou te entertainen, maar om advertenties te tonen. Daarvoor is het belangrijk om ook je aandacht vast te houden. Door ook afwijkende zaken voor te stellen, in plaats van nóg meer van hetzelfde, blijft YouTube interessant voor je.
Mijn ochtend begint altijd met Youtube, dit is een actief en altijd aangemeld account
Blijkbaar werkt het dus ook. :)
Het is voor de mens zelf vrijwel onmogelijk om perfect objectief te zijn. Taal en woorden zijn an zich al subjectief. Het is daarom ook optimistisch om te denken dat door mensen gemaakte algoritmen wel objectief kunnen werken. Alleen zuivere wiskunde kan 100 objectief zijn. Jammer genoeg zijn er relatief weinig situaties die zich volledig laten beschrijven door wiskunde. :*)

Ik denk dat het heel belangrijk is om altijd een kritische en onafhankelijke houding ten opzichte van algoritmen te proberen te behouden. Persoonlijk lukt dat op sommige vlakken heel goed. Ik kies bijvoorbeeld zelf welke muziek ik luister en weiger me muziek te laten voorstellen door een algoritme. Dit terwijl wel luisteren naar de suggesties me potentieel iets zouden kunnen opleveren. Daarnaast raak ik soms volledig verdwaald op Instagram reels. Gek genoeg ben ik dus een beetje verslaafd aan een algoritme dat me vrijwel niets oplevert.
Ik heb zitten nadenken over je comment, en ik denk dat het verschil tussen menselijke en digitale algoritmen is dat een mens, hoewel nooit perfect, wel perfectie nastreeft en daar verantwoordelijkheid voor neemt, waar een algoritme - een artefact zonder wil of doel - geen perfectie nastreeft en slechts doet wat het is opgedragen.

Een algoritme kan zichzelf dus niet verbeteren, en slechts tot op een bepaald niveau met menselijke hulp. Ik denk dat op veel gebieden mensen, met hun verantwoordelijkheid en (hopelijk) streven naar perfectie van gelijkwaardigheid en inclusiviteit, op kleine schaal meer kunnen bereiken, of in ieder geval door blijven ontwikkelen.
Ik kan natuurlijk compleet verkeerde verwachtingen hebben, maar aangezien dit een plus artikel is had ik gehoopt op wat meer technische achtergrond. Bijvoorveeld wat pseudo code voorbeelden van hoe het niet zou moeten en hoe het wel beter zou kunnenz. Verder een prima artikel 🙂
De titel en de inhoud passen goed bij elkaar. Het sluit volledig aan bij mijn verwachtingen.
Edit; zolang we de intentie en het doel van een algoritme niet meewegen is een discussie erover zinloos.

[Reactie gewijzigd door NiGeLaToR op 4 mei 2022 15:23]

Als academisch coordinator van de Vlaamse AI Academie (een samenwerking tussen alle hoger-onderwijsinstellingen in Vlaanderen) heb ik afgelopen jaar een seminarreeks voor onderzoekers georganiseerd rond de ethische aspecten van algoritmen/AI: https://www.vaia.be/nl/series/sense-sensibility-of-ai

Er valt wel heel wat meer nog te zeggen dan hier in het artikel naar voren komt en zelfs veel meer dan in welk bestaand boek dan ook is gevat. De crux voor mij is dat computers zowel veel meer data kunnen doorwerken als meer exacte verlijkingen kunnen maken dan een mens ooit zou kunnen. Er zit daarom heel veel waarde in de inzet van machine learning, AI, data science, algoritmen of welke term je er ook graag voor wilt gebruiken. Dergelijke systemen automatiseren niet alleen processen, ze kunnen ook dingen die wij als mensen niet kunnen.

Technieken om data en modellen uit te leggen en te kunnen onderzoeken zijn cruciaal bij de inzet, zowel om ze ethisch verantwoord te kunnen inzetten als om te kunnen garanderen dat de gevonden patronen ook daadwerkelijk generaliseren naar de werkelijkheid en dus echte voorspellende waarde hebben. Tegelijk is het een fundamenteel en onoplosbaar probleem dat we dan niet meer precies kunnen vatten wat een model doet, want de complexiteit is voor ons te groot. Daar moeten we mee leren omgaan, we moeten risico's proberen inzichtelijk te maken en af te dekken. Daar moeten zowel computationele methodes als processen voor komen. Een enorme uitdaging. Tot die tijd moeten we vooral bij iedere inzet van een algoritme ons afvragen of de risico's te overzien zijn.

Bijvoorbeeld de inzet van AI bij fraude-opsporing vanuit de overheid (zoals recent nog een aankondiging over is gedaan) vind ik een zeer riskante onderneming. Het is een open vraag of we uberhaupt de kennis en tools hebben om dat op een verantwoorde manier te doen.
De inhoud van een algoritme is maar van beperkt belang zolang er mensen met kennis en verstand naar de output van het algoritme blijven kijken en dat beoordelen op de menselijke maat.
Het grootste gevaar dreigt hier altijd in het blindvaren op dit soort algoritmen.
En dan moet ik constateren dat vooral de grote massa met weinig intelligentie de neiging heeft om op dit soort dingen te gaan blindvaren omdat ze zelf niet in staat zijn om gegronde conclusies te trekken.
Ik ben daarom een sterke tegenstander van überhaupt het gebruik van algoritmes voor beoordelingen of adviezen.
Als voorbeeld: laatst vulde ik twee stemwijzers in om eens te kijken wat daar nou uit zou komen en daar kwam uit beide een totaal ander beeld. Dus ik maak toch echt liever mijn eigen keuzes in het leven.

[Reactie gewijzigd door jdevrie op 4 mei 2022 12:36]

"Denk bijvoorbeeld aan de kwalijke rol van algoritmen bij het digitale fraudeopsporingssysteem SyRI of de toeslagenaffaire, waarbij volgens Amnesty International zelfs sprake is van mensenrechtenschending. Dit mogen dan excessen zijn, het blijft een feit dat we de groeiende macht van algoritmen niet mogen onderschatten."

Maar wat als de input objectief is en het algoritme een output geeft wat volgens de mens onwenselijk is?

We dienen strikt te controleren dat de input daadwerkelijk correct gebeurt want dat geeft ons juist de mogelijkheid dat zaken objectief beoordeeld kunnen worden. Ik zie het algoritme als 'n hele goede kans om zaken juist objectief te beoordelen.

Maar waar ik moeite mee heb, is áls die input daadwerkelijk objectief is gebeurd we de output dan alsnog als onwenselijk kunnen beschouwen als die ons niet bevalt. En vervolgens de input gaan aanpassen naargelang we een output krijgen die wel wenselijk is.

[Reactie gewijzigd door Ruben26 op 4 mei 2022 13:22]

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee