Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
×

Help Tweakers weer winnen!

Tweakers is dit jaar weer genomineerd voor beste prijsvergelijker en beste community. Laten we ervoor zorgen dat heel Nederland weet dat Tweakers de beste website is. Stem op Tweakers!

Reuters: Amazon schrapte machinelearningtool voor sollicitaties om discriminatie

Volgens anonieme bronnen van persbureau Reuters heeft internetgigant Amazon een zelfontwikkelde machinelearningtool voor het beoordelen van sollicitaties geschrapt, nadat gebleken was dat deze onder meer een bias had tegen aanmeldingen van vrouwen.

Vijf anonieme bronnen vertellen aan het persbureau dat Amazon in 2014 begon met het ontwikkelen van software voor het automatisch beoordelen van sollicitaties. Een van deze bronnen zegt: "Ze wilden letterlijk dat het een engine werd die honderd sollicitaties analyseerde en er de beste vijf uithaalde, waarna deze mensen werden aangenomen." In 2015 zou het bedrijf erachter zijn gekomen dat dit niet op een neutrale manier gebeurde, maar dat het systeem een voorkeur gaf aan sollicitaties van mannen. Volgens Reuters had dit ermee te maken dat de tool was getraind op data die is verzameld gedurende een periode van tien jaar, waarbij de meeste sollicitaties afkomstig waren van mannen.

Op die manier trainde het systeem zichzelf om mannelijke sollicitanten te verkiezen boven vrouwelijke en gaf het negatieve scores aan cv's die het woord 'vrouwen' bevatte, zoals in 'leider van het schaakteam voor vrouwen', aldus Reuters. Ook zou het sollicitanten die afkomstig waren van twee universiteiten voor alleen vrouwen, een lagere score hebben gegeven. Het beoordeelde cv's met woorden die vaker op cv's van mannen worden gebruikt, hoger.

Een poging om het systeem neutraler te maken was uiteindelijk niet voldoende, omdat Amazon uiteindelijk besloot het twaalfkoppige team dat aan de software werkte, op te heffen. Bij die beslissing speelde ook mee dat het systeem in andere opzichten niet werkte, zo droeg het ook niet-gekwalificeerde personen aan voor een groot aantal functies.

Volgens de bronnen van Reuters werden sollicitanten nooit uitsluitend op basis van de tool beoordeeld, maar werd deze gebruikt als hulpmiddel. Amazon wilde niet reageren op vragen van het persbureau en zei alleen dat het staat voor diversiteit en gelijkheid op de werkvloer. Tweakers heeft eerder aandacht aan bias bij kunstmatige intelligentie besteed in een uitgebreider artikel.

Door Sander van Voorst

Nieuwsredacteur

10-10-2018 • 11:32

123 Linkedin Google+

Submitter: Cheetah_777

Reacties (123)

Wijzig sortering
Een poging om het systeem neutraler te maken was uiteindelijk niet voldoende, omdat Amazon uiteindelijk besloot het twaalfkoppige team dat aan de software werkte op te heffen. Bij die beslissing speelde ook mee dat het systeem in andere opzichten niet werkte, zo droeg het ook niet-gekwalificeerde personen aan voor een groot aantal functies.
Dusss... De tool werkte gewoon helemaal niet. Alleen het stukje van vrouwen was interessant om uit te lichten. De titel is lichtelijk misleidend.

[Reactie gewijzigd door theastamana op 10 oktober 2018 11:40]

Het is net een echte recruiter... Dus het systeem werkte eigenlijk best accuraat.
En daar sla je eigenlijk de spijker op zijn kop:

AI/Machine Learning/Big Data/<insert random buzzword here> wordt geacht om "neutraal" en geen bias te hebben. Mensen zouden een bias hebben en daarom zou een computer beter zijn.

Het probleem is echter dat de bias niet alleen in mensen zitten. Maar ook in de side effects (aangenomen mensen), en dus de statistieken (procent man/vrouw bijvoorbeeld) en latten nou net die statistieken gebruikt worden om een computer te trainen.

Op deze manier vind die bias zich dus naar een computer die exact dat gedrag ook gaat vertonen. Dus inderdaad:
Het is net een echte recruiter...
Probleem is heel eenvoudig ai moet leren daarvoor heeft het data nodig. Als die data al eenzijdig is zal het op basis van die data beslissingen gaan nemen.

Ik denk dat je kan stellen dat dit eigenlijk geen ai is. Het heeft niets met intelligentie te maken. Het is nog simpel patroon herkennen en daar dan conclusies voor de toekomst uit trekken.

In dit voorbeeld bij amazon gaat het dus gewoon goed fout. Het is bovendien een slecht voorbeeld om ai te gebruiken. Mensen zijn allemaal uniek systemen zijn nog lang niet zo ver dat ze goed kunnen beoordelen, sommige mensen kunnen dat al niet.
Grote verschil is dat je het hier echt duidelijk opvalt en er uit kunt vissen,

terwijl een recruiter de vermoorde onschuld zal spelen en blijft herhalen dat hij echt niet discrimineert,
terwijl juist dat vaak onbewust gebeurt met als resultaat dat er gesprekken worden gevoerd met verschillende personen waarbij achteraf blijkt dat er een aantal totaal geen kans hebben.


Op basis van dit resultaat lijkt het me heel interessant om keuzes van recruiters eens door te lichten en hoe vaak ze echt relevante keuzes hebben gemaakt,
en waar juist hun zwakkere punten zijn, want dus ook de achilleshiel van het bedrijf kan zijn.
Op basis van dit resultaat lijkt het me heel interessant om keuzes van recruiters eens door te lichten en hoe vaak ze echt relevante keuzes hebben gemaakt,
en waar juist hun zwakkere punten zijn, want dus ook de achilleshiel van het bedrijf kan zijn.
Zal niet gebeuren vrees ik. Want als daar uiteindelijk uitkomt "mja, wij kozen de beste kandidaat voor de positie en dat was nu eenmaal vaker een man" dan ga je geneuzel krijgen met vrij luide mensen die een dergelijke uitleg niet kunnen en willen accepteren, of die nu waar is of niet.

[Edit] Zou makkelijk te testen moeten zijn. Zelfde dataset draaien, maar het criteria man/vrouw geheel elimineren zodat het systeem niet weet of een kandidaat man of vrouw is. Dan kan er geen bias zijn. En dan ben ik benieuwd of het systeem minder ver of -nog- verder naar de mannelijke kandidaten zal neigen.

[Reactie gewijzigd door Aetje op 10 oktober 2018 12:35]

Het probleem met het systeem van Amazon is dat hij de solicitaties met het woord "vrouw" er in een negatieve score gaf. Dus stel, jij als man bent directuer van 2 scholen, zelfde naam met als verschil dat de ene school uitsluitend voor jongens/mannen is, en de ander uitsluitend voor meisjes/vrouwen

Als het dan op je CV staat als "Directeur van [naam] vrouwen school en daaronder het zelfede maar dna de mannen variant dan ziet de AI dit en geeft je een negatieve score. Dan zou je de CV dus danig moeten aan passen dat er geen geslachten in worden weer gegeven.

Als je nu, in deze tijd, aangeeft "Onze solicitatie worden geselecteerd door AI"om aan te geven dat er wat veranderd moet worden, Is er kans dat er mensen afhaken omwille dat hun CV niet door een persoon word bekeken.
Voor dit specifieke geval zou ik zeggen dat je gerust de gehele parameter man/vrouw er uit kan halen. Dus dat hij helemaal nergens naar het geslacht kijkt, ook niet in de rest van de CV.
Het gaat dus niet om het geslacht van diegene die solliciteert, maar dat er b.v. in zijn werkposities in het verleden een stuk tekst staat met het woord "vrouw" en in: "leider van het schaakteam voor vrouwen".
Man of Vrouw kan best een factoor zijn voor sollicitatie.

Heel eenvoudig magazijn medewerkers. Arbo norm 30 kg tillen.
voor veel vrouwen kan dat al te zwaar zijn, voor de meeste mannen minder een probleem.

Genoeg beroepen waar dus al verschil man vrouw mee kan spelen. Hoeft niet de doorslag te geven.

Probleem is echter dat ai systeem, wat ik geen ai wil noemen omdat het geen intelligentie heeft, automatisch vrouw negatiever beoordeeld. Er is echter meer data nodig om tot die conclusie te komen.
Geloof me, ik werk in de recruiter wereld, er zijn genoeg vrouwen die dat kunnen en daarnaast is dat onderscheid dus wettelijk verboden vanwege discriminatie.
Alleen deze tool belt niet je kantoor om met een misleidend praatje een werknemer aan de lijn te krijgen!
Geef het even ;)
Ik voorspel dat dankzij Big Data en ML recruiters zullen leren dat ik van pizza dŲner houd (met een ambachtelijke dunne bodem), en weldra rond etenstijd aan mijn deur verschijnen. Of ze even kunnen pitchen over fantastische opdrachten bij toonaangevende klanten terwijl ik die pizza naar binnen werk.
Een systeem dat faalt en gestopt word is niet nieuwswaardig. Dat gebeurt elke dag op vele plekken.

Een systeem dat een bias heeft voor mannen is wel uitzonderlijk en toont een principieel probleem van machine-learning aan. Namelijk dat de dataset allesbepalend is.
Machine learning is by-example. Wat je zou willen is dat software niet op basis van fouten in het verleden redeneert maar op basis van regels (man en vrouw zijn gelijk). Ik weet niet of dit soort machine learning al plaatsvind.
Das geen machine learning, maar een normale classifier. Dit wordt onder andere al ontzettend lang gebruikt om bijvoorbeeld planten te identificeren. Zo simpel, zelfs een mens kan het gewoon uitvoeren.

Het probleem is, dan wordt het nooit echt slimmer dan een mens. Immers, die voert de regels in.

Bij machine learning kan je trouwens gewoonweg ook kiezen om de eigenschappen weg te filteren voordat je het voert. Wil je niet dat vrouw-zijn meespeelt, voer hem dan die gegevens niet.
Ik zou juist de combinatie willen zien: de data die je me voert als leermateriaal strookt niet met de regels. Dat kun je doen door je data te schonen, maar dat is voor dit soort eenvoudige regels nog wel te doen, maar de hoeveelheid regels waarmee we het dagelijks leven organiseren is vreselijk groot (kijk maar op wetten.overheid.nl). Wat ik zoek is eigenlijk machine learning die op basis van regels samples geneert, daarop een netwerk traint om dan vervolgens een andere dataset te filteren of laten controleren op overeenstemming met deze regels. Op deze wijze zou je bias in je samples geautomatiseerd kunnen vinden.
Als je AI slimmer wordt (zoals de bedoeling is), dan lukt dat je niet meer. Lees Asimov er maar even op na ;). Spoilers, die laws of robotics waren bedoeld als kritiek, niet als daadwerkelijk concept.

Overigens, ironisch genoeg is 'lid van vrouwenschaakteam' natuurlijk daadwerkelijk minder waard dan 'lid van schaakteam'. Zoek het er maar op na; bij schaken is er geen vrouwen en mannen-competitie, er is een vrouwen en een mensen-competitie. De vrouwencompetitie is een soort van jupiler-league, voor vrouwen die niet mee kunnen komen met de hoofdcompetitie (spoilers, dat zijn op dit moment eigenlijk alle schaaksters, de hoogste vrouw staat op plek 87 van de wereldranglijst).
Nee, daarna hebben ze de tool ingezet bij de Tweede Kamer waar het tot op de dag van vandaag nog gewoon live is.
Misschien had het AI al door dat de meeste kwalificaties niks waard zijn en ziet geheel andere trends met gewenst resultaat.
Dat er geen extra regel set is toegevoegd om kwalificaties zwaarder mee te tellen is een menselijk fout. Niet die van de AI.
De dataset waarop de AI mocht beslissen was dan waarschijnlijk de CV's, en 'succes' werd gedefinieerd ongeveer als 'heeft hier minstens 3 maand gewerkt en alleen positieve beoordelingen gehaald'.
Dan bewijst dit mislukken alleen dat er geen verband is tussen CV en "succes". Je nodigt sollicitanten uit en praat ermee, en op basis daarvan maak je een keuze.
Conclusie : een goede werknemer herken je dus niet aan zijn of haar CV.
Lekkere clickbait inderdaad.
(...)waarbij de meeste sollicitaties afkomstig waren van mannen.
Heeft helemaal niks met discriminatie te maken, maar is een sample bias. Dit is overigens onderdeel van machine learning 101, dus een beetje data scientist weet dat je hiervoor kunt compenseren met gewichten toekennen aan een bepaalde factor. Een andere optie is simpelweg geslacht weglaten uit het algoritme omdat het blijkbaar niet uit maakt voor Amazon?

Storm in een glas water en lekker aangedikt, zoals wel meer voorvallen waarin vrouwen in het nadeel zijn. Stel je eens voor, dat er per functie weldegelijk verschillen in performance tussen mannen en vrouwen zijn, waarom zou je dan (rationeel gezien) de mindere kiezen?
Vrouwen zijn nu eenmaal emotioneler en mannen minder georganiseerd.

Die verplichte vrouwenquota in organisatie X of plek Y heb ik ook nooit gesnapt. Waarom draaien we het niet om, een verplicht percentage mannen in een kinderopvang om kinderen een gebalanceerde opvoeding te geven? Eens kijken of de emancipisten het daar ook met eens zijn...
Ik gok dat ze dat dan ook wel gewoon gedaan hebben, maar dat de AI simpelweg een patroon ging zien dat sociaal ongewenst was. Vergelijk het met de Machine-learning bij de politie, die consequent antilianen eruit ging pakken. Feitelijk gezien is dat waarschijnlijk gewoon waar; antilianen begaan gemiddeld genomen meer misdrijven, maar sociaal wordt dit als ongewenste sortering gezien.
Breder probleem van veel beslissings-ondersteunde ML software: de software wordt ingeleerd met historische data en zet daardoor beslissingspatronen uit het verleden voort.

Daarmee worden achterstanden in stand gehouden.
"Als al je vrienden van een brug af springen, doe jij het dan ook?"

- Mijn Moeder

"Ja zeker!"
- Machine Learning
Ik kan me ook weinig situaties voorstellen waarbij al mijn vrienden van een brug zouden springen maar ik er voordeel bij zou hebben op die brug te blijven staan.
Warm weer van een brug springen wat verboden is en tevens niet zonder risico?

Wat de moeder van @ApexAlpha bedoeld is dat je zelf keuzes kunt (en moet) maken. Oom agent zal weinig gecharmeerd zijn van het argument dat de rest het ook deed. Maar aangezien Machine Learning dat niet kan is het essentieel om de juiste "vrienden" voor het algoritme te zoeken. Doe je dat niet dan zal het ongewenst gedrag gaan vertonen.

Het zou best kunnen zijn dat de software niet het probleem was, maar het feit dat het als een spiegel werkt van de cultuur van de afgelopen 10 jaar. Het spreekt van weinig reflectievermogen om dan het team op te heffen. Beter zou zijn om de goede "hires" te scheiden van de slechte, en daarmee de tool opnieuw in te leren. Voordeel hiervan is dat je strafpunten kan geven aan het algoritme als het iets voor wil stellen dat sterke overeenkomsten heeft met een slechte "hire".

Andere vraag. Als ze data hebben van 10 jaar, bewaren ze blijkbaar de CV's e.d. dus ook 10 jaar lang om er vervolgens data analyse op te doen? Eng bedrijf is dat.
Dat is nog het minst enge nieuws wat ik in de afgelopen maanden over Amazon heb gehoord. Mensen die in flessen moeten pissen, half doodgedrukt worden door machineschuivende robots, een patent op een robot-kooi voor werknemers, het kopieren van producten van hun verkopers om die dan te beconcurreren met een iets lagere prijs, elke andere webshop op aarde de markt uit werken door praktisch voor of onder kostprijs hardware te verkopen (videokaarten van 30 euro goedkoper dan bij elke andere shop) etc etc.

Als het aan meneer Bezos ligt is hij straks de enige persoon op aarde die nog geld te makken heeft.

[Reactie gewijzigd door Origin64 op 11 oktober 2018 23:18]

Het is een brug over een ravijn?
Het is een brug over een ravijn?
Als mijn vrienden van een brug over een ravijn springen, is er vast een hele goede reden om niet op die brug te willen zijn. Ik heb in mijn ervaring ook gezien dat bepaalde subgroeperingen binnen de samenleving geen geschikte arbeidskrachten zijn. Maar dat mag je niet denken, dus als mens zet je je over die ervaring heen en geef je ieder individu weer een eerlijke kans. Dat maakt ons misschien niet zo efficiŽnt als een computer, maar wel veel, nou ja, menselijker.

[Reactie gewijzigd door 84hannes op 10 oktober 2018 13:21]

Waarop de bedrijven die mensen nodig hebben, antwoorden met: Willen we menselijk zijn? We zijn behoorlijk goed op weg met mechanische en softwarematige robotica/ai.
Misschien hadden die vrienden van je iets in hun drinken gekregen en jij niet? ;)

Ga je nu echt zeggen dat je niet voor jezelf kan denken en afhankelijk bent van wat je vrienden doen?
Ga jij nu echt zeggen dat kuddegedrag de mensheid niet gebracht is waar ze nu is? De buurman eet deze rode besjes, laat ik lekker eigenwijs zijn en zelf ondervinden welke bessen giftig zijn. Mijn ouders hebben een huis gebouwd, laat ik kijken wat er gebeurt als ik de hele winter buiten slaap. Andere boeren ploegen het land om voordat ze gaan zaaien, maar ik snap niet waar dat goed voor is, dus ik leg de aardappels gewoon bovenop het gras...
Ik denk idd dat kuddegedrag de mensheid niet heeft gebracht waar ze nu is. Het zijn de mensen die niet van de brug sprongen die de wereld gemaakt hebben. Denk je dat er nog echt mensen zouden zijn als we allemaal kuddegedrag vertoonden, Die besjes zijn een goed voorbeeld. Ga jij zomaar onbekende besjes eten omdat je vrienden dat ook doen?
Een paar mensen die buiten de lijntjes durven te kleuren heb je natuurlijk nodig. Iemand die een heteluchtballon durfde te bouwen en gebruiken, iemand die ging experimenteren met mest op het veld uitstrooien, iemand die vuur durfde te maken. Maar reken maar dat tegenover iedere succesvolle poging honderden mislukkingen staan, en dat daar zeker vele doden bij zijn gevallen. Als niemand een voorbeeld aan een ander zou nemen, al dan niet onbewust, dan zouden we niet staan waar we nu staan.
Doet me denken aan dat verhaal pasgeleden uit Turkije. Een dorp vroeg aan de staat om hulp, omdat de hele kudde schapen in een ravijn was gesprongen. Blijkbaar was er 1 in gekukeld en de rest was er doodleuk achteraan gesprongen. Weg kudde, weg inkomsten.

Dus inderdaad: individueel risicovol gedrag heeft ons gebracht waar we nu zijn, anders waren er nu geen mensen meer geweest.

https://en.wikinews.org/w...to_their_deaths_in_Turkey
Maar nog grappiger is dat je uiteindelijk allemaal in het soort van zelfde gereel moet lopen en dus geldt de regel "als al je vrienden van een brug af springen, doe jjij het dan ook" toch. ?Ņ :)
"Als al je vrienden van een brug af springen, doe jij het dan ook?"

- Mijn Moeder

"Ja zeker!"
- Machine Learning
Beetje een slecht voorbeeld, aangezien de veel mensen in de praktijk letterlijk ook van een brug afspringen (in het water, voor de lol) als hun vrienden dat doen.

Dus je moeder: 0 punten

Machine learning: 1 punt
De letterlijke zin of spreekwoordelijke zin hieruit kunnen filteren.

Moeder: 1
Machine: 0
https://qz.com/801813/tea...y-the-easiest-thing-ever/

Moeder: 0
Machine: 1

Moeder kent haar zoon beter:

Moeder: 1
Machine: 0

Enzovoort 😀

[Reactie gewijzigd door Katanatje op 10 oktober 2018 17:01]

Machine learning die geprogrammeerd is om te overleven zal die niet doen na een tijdje, maar af en toe ook wel.
Ja, zeker. Of jazeker
Maar als vrouwen in die 10 jarige tijd gewoon relatief dezelfde kans hadden, dan zou dat toch niet moeten uitmaken? Lijkt bijna alsof Amazon in die 10 saar heeft gediscrimineerd (wetend of onwetend, maakt niet uit) en het systeem dat overnam.
Lijkt bijna alsof Amazon in die 10 jaar heeft gediscrimineerd (wetend of onwetend, maakt niet uit) en het systeem dat overnam.
Interessant stukje hier: http://blog.conceptnet.io...ai-without-really-trying/

De dataset moet je neutraal krijgen, en da's lastig, en inderdaad, zo'n "onwetende" discriminatie heb je.

Wat ongekwalificeerde personen betreft: er zijn heel wat systemen in gebruik die CVs scannen. De oplossing van sommige mensen om er toch ergens in te komen? Witte tekst toevoegen op 4-punts formaat tussen de regels door, of op een halflege bladzijde. Wordt niet gezien door mensen, maar wel door machines - en dan maar keyword-spammen :)

Of concreter: mensen die bij hun sollicitatie uitgebreid vertellen over wat ze allemaal kunnen, maar met een simpele FizzBuzz-test door de mand vallen. Dat laat een AI ook nog door - als die vertrouwt dat iemand de volledige waarheid spreekt in z'n brief.

[Reactie gewijzigd door Yoozer op 10 oktober 2018 11:47]

[...]
Of concreter: mensen die bij hun sollicitatie uitgebreid vertellen over wat ze allemaal kunnen, maar met een simpele FizzBuzz-test door de mand vallen. Dat laat een AI ook nog door - als die vertrouwt dat iemand de volledige waarheid spreekt in z'n brief.
Nogal logisch dat er veel mensen (onterecht) door de mand vallen na een "FizzBuzz" test.

Je baan:
-- Communiceren met klanten/sales over requirements,
-- Requirements opstellen,
-- Je teamlead helpen plannen,
-- Slecht/niet gedocumenteerde code ontcijferen van voorgangers, vaak kom je talen of scripts tegen waarover in de vacature niets genoemd werd (VBA uit een oude Excel berekening om maar wat te noemen),
-- Communiceren met collega's over problemen en oplossingen,
-- Meedenken over architectuur,
-- Meedenken over GUI,
-- Documentatie schrijven,
-- Tests schrijven,
-- Code implementeren en testen, waarbij je zowat alles wat je niet weet even snel intypt in een search engine.

De test, die zowat niets met bovenstaande te maken heeft en in de praktijk nooit voorkomt:
-- Voer uit je hoofd een implementatie opdracht uit, zonder toegang tot internet,
-- Als je vergeten bent wat de modulus operator is in de betreffende taal waar de vraag voor gesteld wordt faal je de test. Hoe meer talen je kent hoe groter de kans dat je de modulus operator syntax (en/of pattern) van 1 specifieke taal vergeten bent en de test faalt. |:( Was het nou mod of MOD of % of %% of remainder() of %REM of \ of \\ of mod[a,b] of FUNCTION MOD of mod(a,b), enz? Een totaal onbelangrijk detail als je maar weet dat je een mod moet doen (en zelfs dat heb je binnen 1 sec gegoogled in een echte situatie).

Gedacht vanuit een slimme bedrijfsleider zou het me helemaal niets kunnen schelen welke syntax een potentiŽle programmeur wel of niet uit z'n hoofd kent. Het is veel belangrijker of de betreffende persoon snel leert, aardig is in de omgang, plezier heeft in zijn werk en goed kan communiceren en schrijven (in mensentalen) en architectuur kan doorzien op code niveau, op netwerk niveau op GUI niveau en op software ontwikkeling workflow niveau.

FizzBuzz test daar precies 0,0 van.

[Reactie gewijzigd door GeoBeo op 10 oktober 2018 13:25]

Sorry hoor, maar je gaat nooit een capabele requirements analyst worden als je niet tenminste de fizz buzz doorkomt. Echt, het is hello world ongeveer. En tests schrijven zonder code te kunnen schrijven of begrijpen, laat me niet lachen.

Het is deze manier van denken die ontzettend veel brakke dingen heeft opgeleverd in de IT
Sorry hoor, maar je gaat nooit een capabele requirements analyst worden als je niet tenminste de fizz buzz doorkomt. Echt, het is hello world ongeveer. En tests schrijven zonder code te kunnen schrijven of begrijpen, laat me niet lachen.

Het is deze manier van denken die ontzettend veel brakke dingen heeft opgeleverd in de IT
Mijn punt was dat de FizzBuzz test weinig zegt over of je code wel of niet goed kunt begrijpen of schrijven. Iemand die FizzBuzz niet doorkomt kan een mega goede programmeur zijn (die er door de stres en het moment gewoon ff niet op kan komen wat de operator voor mod ook weer was in programmeertaal x) en iemand die FizzBuzz well doorkomt kan een mega slechte programmeur zijn die toevallig het voorbeeld uit z'n hoofd geleerd heeft of de laatste tijd toevallig de mod operator nodig heeft gehad.

Het enige relevante dat ik kan bedenken uit FizzBuzz is dat je heel heel misschien een kleine discussie ontlokt over wat er exact bedoeld wordt met de vraag (requirements), maar zelfs dat is onredelijk in een interview waarbij je niet weet dat dat de echte strikvraag is.

Als je doel is om iemand eruit te filteren die werkelijk geen flauw idee heeft van programmeren, dan zijn er eenvoudigere snellere manieren te bedenken die daadwerkelijk over begrip gaan ipv trivia.

[Reactie gewijzigd door GeoBeo op 10 oktober 2018 14:57]

FizzBuzz is eigenlijk een heel simpele test om te kijken of een kandidaat daadwerkelijk kan programmeren. Programmeren is een vereiste basis-skill voor veel van de dingen die je opnoemt.

FizzBuzz is daar juist fantastisch voor, omdat het eigenlijk triviaal is, en je er heel gemakkelijk over kunt redeneren. En syntax is nu iets wat totaal onbelangrijk is bij een goed FizzBuzz test (of andere programmeertest). Bij een kandidaat zeg ik meestal juist dat ze de syntax onderweg mogen verzinnen, zolang het maar begrijpelijk is. Een kandidaat die de syntax fout heeft als je op een whiteboard of papier aan het 'programmeren' bent, zou nooit moeten leiden tot een afwijzing. Veel belangrijker is de denkwijze en snelheid waarmee je op een goed antwoord komt.

Daarmee maak je al heel snel onderscheid tussen mensen die echt kunnen programmeren en die daar niet zo goed in zijn. Mensen die goed in programmeren zijn, schrijven dit basically zo snel als ze kunnen schrijven op, waarschijnlijk met een aantal foutjes, maar dat maakt niet uit. Soms twijfelen ze over hoe ze bijvoorbeeld modulo moeten opschrijven, en dan help je ze daar even mee. En als je ze een vraag stelt onderweg, kunnen ze hier goed antwoord op geven. Hiermee maak je toch snel en simpel onderscheid tussen kandidaten die dit goed kunnen, en kandidaten die hier moeite mee hebben. Zonder veel tijd te verspillen, zodat je nog tijd hebt om het over andere (iets ingewikkeldere dingen) te hebben.

Let op: nergens maakt het uit of je syntax correct is of niet. Of dat je even niet weet hoe modulo werkt in een bepaalde taal.
Let op: nergens maakt het uit of je syntax correct is of niet. Of dat je even niet weet hoe modulo werkt in een bepaalde taal.
Bij jouw bedrijf misschien niet, maar ik heb genoeg blogposts gelezen van managers die juist vooral op syntax letten.

[Reactie gewijzigd door GeoBeo op 10 oktober 2018 15:26]

Dan handelen ze niet naar de geest van FizzBuzz. Dat sommige mensen dat doen, maakt FizzBuzz niet slecht, maar dat maakt dat die bedrijven een probleem hebben.
Dat is omdat ze zelf niet kunnen programmeren dan. Ik zou zeggen solliciteer daar niet.
Onze versie van de FizzBuzz is in PHP. We hebben op onze sollicitatie een "senior" PHPer gehad met 10 jaar ervaring. Die kwam er niet doorheen. Dat zegt mij dat de senioriteit van die persoon alleen een kwestie van jaren was, niet van ervaring.

Bij onze versie mag je overigens wel internet gebruiken. Je mag zelfs vragen stellen aan een "collega" (behalve "wat is de oplossing", natuurlijk ;) ) Ook die manier van zoeken vertelt ons een hoop over hoe het probleem opgelost wordt; naar precieze syntax of argument-volgorde zoeken is natuurlijk iets heel anders dan "how to solve FizzBuzz".

Het maakt niks uit of je de test haalt - waar we interesse in hebben is hoe de sollicitant denkt. Als je stil zit te zweten, niet zegt wat je denkt en niks vraagt en niks opzoekt gaan er sowieso een hoop van de dingen die jij boven neerzet niet lukken.
Als je stil zit te zweten, niet zegt wat je denkt en niks vraagt en niks opzoekt gaan er sowieso een hoop van de dingen die jij boven neerzet niet lukken.
Stil zitten zweten, niks zeggen en niks vragen of opzoeken is natuurlijk waar iedereen met een opleiding aan denkt als hij "een opdracht" krijgt van "een autoriteit".

Elk tentamen ooit op school heeft je gedrild om precies dat te doen. Ik vind het dus niet gek dat sommige mensen (ondanks hun kunnen en ervaring) volledig onterecht niet door zo'n test heen komen, omdat ze denken dat het een soort school opdracht is. Dus je PHP senior die je weggestuurd hebt is misschien wel perfect geschikt voor de baan die je had en simpelweg geen goede acteur (die net kan doen of hij "gewoon op de werkvloer is" terwijl hij weet dat er in werkelijkheid een sollicitatie gaande is).

Dus als je dat wilt testen is het wel een vereiste dat je heel heel duidelijk maakt dat het de bedoeling is dat je het niet als examen-vraag bekijkt maar dat de sollicitant het probleem oplossen met alle vrijheid die hij tijdens zijn normale baan ook zou hebben.

Verder heb je een grote kans dat je 50+'ers erop deze manier allemaal volledig onterecht uitfiltert: de cultuur tijdens hun opvoeding was om nooit te laten merken dat je het antwoord ergens op niet weet. Dat zit er volledig in gedrild. Ik merk dat met al mijn 50+ collega's waar ik ooit mee gewerkt hebt (en mijn eigen ouders). Dit hoeft helemaal niet zo'n erge eigenschap te zijn als je hier rekening mee houdt.

Mijn punt: het staat of valt volledig met degenen die de sollicitatie afnemen. FizzBuzz is IMO een tool waarvan de uitkomst vaak minder zegt over de sollicitant dan over degenen die de sollicitatie organiseren.
Je kan dan toch gewoon zeggen, oh ik weet de operator niet, laat ik het even in pseudocode opschrijven

Een bedrijf dat daar moeilijk over doet, daar zou ik toch al niet graag willen werken. Die hebben dan idd liever dat je nutteloze info in je kop stampt dan dat je iets nuttigs leert in je vrije of studie-tijd.

Als je echter niet kan uitleggen hoe een quicksort werkt of neem een andere bekende sollicitatie programmeer vraag, tja, dan heb ik geen medelijden.

[Reactie gewijzigd door Origin64 op 11 oktober 2018 23:25]

Als je een stel CVs geeft aan recruiters met de melding: " we willen 10 mensen van deze stapel aannemen"
En ook recruiters dezelfde CVs geven met de melding "haal 10 CVs eruit die bij ons bedrijf passen maar we nemen ze niet aan"

Zou je ongeveer dezelfde resultaten krijgen?
Je vraag is veel te beperkt. Het is onder andere afhankelijk van de commissie van de recruiter.
Wanneer de recruiter in maandsalarissen van de aan te nemen persoon uitbetaald wordt, heeft deze de voorkeur voor een zo hoog mogelijk totaal aangebracht maandsalaris.

Een recruiter heeft er ook voordeel bij wanneer mensen niet lang bij een werkgever blijven maar vaker job hoppen. Dan kan de recruiter vaker voor deze medewerker en vacature een commissie vangen.

In de praktijk zijn de meeste recruiters (op IT gebied) gewoon spammers, ongericht extreem veel mailtjes sturen en dan hopen dat daar wat uit komt. Blijkbaar levert dat tot op heden toch nog het meeste op. Ik gok dan ook dat de recruiters waarvan 10 cv's gevraagd worden simpelweg willekeurig resultaat terug geven om daarna weer verder te gaan met het spammen.

Voor de machine learning tool is het ook niet mogelijk om het goed te doen. Vrouwen zullen sneller geneigd zijn minder te willen gaan werken wanneer ze kinderen krijgen. Ook een zwangerschapsverlof geeft problemen. Wanneer je dat objectief bekijkt heeft een vrouw daardoor een nadeel in een sollicitatie procedure. Dat nadeel is onder andere al terug te zien in betaalde salarissen.

De tool mag dat alleen niet benoemen en gebruiken. Wanneer de tool vervolgens met aanbevelingen komt die sterk afwijken van wat de mens zou uitkiezen is het ook weer niet goed.

Om het even te illustreren een voorbeeld met het salaris.
Wanneer de tool een vrouw een zelfde salaris zou bieden als een man, waarom zou een aandeelhouder dat een goed idee vinden wanneer die zelfde medewerkster hetzelfde werk ook voor X minder zou willen uitvoeren (ergens anders krijgt ze ook niet meer namelijk). Wanneer een minder salaris geboden zou worden puur op basis van geslacht is de tool plotseling discriminerend.

[Reactie gewijzigd door JDVB op 10 oktober 2018 15:45]

Blijkbaar is dit dus bewijs dat er bewust of onbewust wel gediscrimineerd werd. Want het systeem gaf niet alleen minpunten voor bepaalde eigenschappen die vaker bij vrouwen voorkomen maar bij het vrouw zijn zelf. Dus ergens in de aangeboden dataset zat een negatieve bias ten opzichte van vrouwen.
Die minpunten kregen ze omdat de termen niet vaak voorkwamen in de in het verleden succesvolle sollicitaties. Dat bevestigd alleen dat er in het verleden dus minder mensen zijn aangenomen met die termen in hun CV, het zegt echter niets over de reden.
Zo'n systeem zou bij het korps mariniers ook discriminerend zijn in die zin. Wellicht was er de afgelopen 10 jaar bij Amazon vooral behoefte aan zwaar technisch personeel, daar zullen weinig vrouwen op solliciteren. Wellicht is de mannelijke doorstroming hoger geweest, etc. Je kunt overal wel de discriminatie kaart trekken, maar meestal liggen zaken net wat genuanceerder dan dat.

Zo is, zoals @theastamana hierboven al opmerkt, de titel behoorlijk misleidend omdat het op een enkel element van een breder falend systeem focust. Daar trappen helaas genoeg mensen in.
De hoeveelheid solicitanten maakt niet uit. Je zal altijd naar percentage aanname kijken en niet naar absolute aantallen. Een goed systeem zal enkel een negatieve beoordeling aan die termen plakken als die het enige (of belangrijkste) verschil zijn tussen een positieve en negatieve beoordeling in de dataset. Er blijkt dus wel degelijk ergens een negatieve bias tegenover vrouwen geweest te zijn tenzij je er per definitie al vanuit gaat dat de vrouwen die in het verleden gesoliciteerd hebben minder gekwalificeerd waren dan de mannen.

De reden dat het in de titel staat is vrij logisch.
- Een systeem dat niet goed werkt en gestopt word is normaal en niet nieuwswaardig
- Een systeem dat een bias lijkt te hebben tegen vrouwen is uitzonderlijk en niet dagelijks nieuws.
1) Was daar dan twijfel over?
2) Misschien was de gebruikte dataset die van de technische delen van Amazon waar er wellicht meer mannen werken omdat er simpelweg minder vrouwen aanwezig zijn in dat gebied, al zeker als het over jaren geleden gaat. (minder interesse in / het is een mannenwereldje en ze voelen er zich misschien niet thuis of zelfs welkom)

Ik vind dit artikel helemaal niet vreemd of verrassend maar extreem logisch en voorspelbaar. Toch na al een aantal voorbeelden van zo'n gefaalde machinelearning gezien te hebben. Zoals die twitter AI/bot die op basis van data toch wel heel lelijke dingen begon te schreeuwen (en dat was niet de enige).
Jammer, dat wel.

Sommige dingen moeten gewoon door een mens gedaan worden imo. Een recruiteerder is verre van perfect maar een beslissing daarvan vind ik toch aangenamer dan dat een stuk software (wat ook nooit perfect is). Vroeg of laat krijgt een op papier ongeschikte maar in praktijk (redelijk) geschikte kandidaat toch ergens eens een kans. Met software zal dat wel moeilijk worden.
Als in die 10 jaar 90% van de sollicitanten man waren dan is de kans groot dat ook 90% van de mensen die uiteindelijk aangenomen werden man waren.

Ik neem aan dat het systeem gewoon gevoed is met een functie omschrijving en daarbij de CV van de kandidaat die werd aangenomen en een stapeltje CV's van de afgewezen kandidaten.
Precies dit. Ik snap nooit zo de drang om binnen een bedrijf of afdeling de verhouding mannen/vrouwen op 50/50 te krijgen.

Want laten we eerlijk wezen, de verhouding in technische studies ligt ook bepaald niet op 50/50, maar eerder op 90/10. Terwijl het in de zorg maar ook andere dingen als communicatiewetenschappen of rechten weer precies omgekeerd ligt. Of dit door aangeboren voorkeuren komt of door maatschappelijke beinvloeding weet ik niet, maar dat betekent niet dat het gewoon niet zo is. Vrouwen hebben gemiddeld minder affiniteit met techniek en mannen minder met zorg. Persoonlijk denk ik dat het een combinatie is van beiden; aanleg door tienduizenden jaren natuurlijke selectie, en maatschappelijke (en bij sommige mensen religieuze) invloed.

Er is een tijd geweest dat het politiek correct was om te doen alsof mannen en vrouwen buiten het fysieke gedeelte 100% hetzelfde zijn maar dat geloof ik niet. Ik denk dat er wel degelijk meer aanleg en affiniteit verschil ligt in verschillende vakgebieden.

Ik vind wel dat vrouwen die wel affiniteit met techniek hebben dezelfde kansen moeten hebben als een man (en de vrouwen die je in dit vakgebied tegenkomt zijn over het algemeen heel goed omdat ze er bewust voor gekozen hebben en niet omdat het een standaard dingetje is). En hetzelfde gewaardeerd worden (sowieso vind ik het raar dat banen in bijv. de zorg minder gewaardeerd worden dan in de techniek). Maar om nu positieve discriminatie te gebruiken om de verhouding kunstmatig te verhogen vind ik ook niet goed.

[Reactie gewijzigd door GekkePrutser op 10 oktober 2018 13:36]

Precies dit. Ik snap nooit zo de drang om binnen een bedrijf of afdeling de verhouding mannen/vrouwen op 50/50 te krijgen.

Want laten we eerlijk wezen, de verhouding in technische studies ligt ook bepaald niet op 50/50, maar eerder op 90/10.
Het gaat niet om 50/50, het gaat om die 90/10. We zien wel verschillen tussen mannen en vrouwen (los van de vraag of die biologisch of sociologisch zijn) maar die zijn niet zo groot dat ze die 90/10 kunnen verklaren. Het betekent op een of andere manier dat er nog een flink aantal vrouwen zijn die beter geschikt zijn dan de mannen die nu de baan vervullen. Als maatschappij en economie laat je zo kansen liggen, een flink deel van de beste krachten solliciteert niet eens.

Dit proces wordt voor een deel gestuurd uit een streven naar gelijkheid of feminisme, maar minstens zo veel door geld. Bedrijven hebben hard goede mensen nodig en ze beseffen dat ze goede kandidaten weigeren op grond van vooroordelen. De keuze voor een bepaald sollicitanten komt vaak toch neer op de onderbuik van een of twee werknemers. Neutrale software zou daar dus grote voordelen kunnen bieden.
Het gaat niet om 50/50, het gaat om die 90/10
Klopt, maar daarvoor moet je eerder de opleidingen stimuleren, dan te proberen positief te discrimineren. Je kan dames ook niet dwingen om voor een technische studie te kiezen, de meesten kiezen er bewust niet voor. Daar ligt het probleem, niet bij personeelszaken.

Er zijn zat bedrijven die bij het selectiebeleid hun percentages minderheid in het achterhoofd houden en juist niet voor de beste kandidaat kiezen maar de kandidaat die het beste bij hun populatiecijfers past zodat ze van de daken kunnen schreeuwen dat ze zoveel diversiteit hebben.

En daar hebben de collega's dan last van, omdat die het door die persoon niet goed uitgevoerde werk moeten oppakken. Niet elk bedrijf doet dat, maar ik heb ze wel gezien.

[Reactie gewijzigd door GekkePrutser op 10 oktober 2018 15:26]

Je kan dit niet op een plek aanpakken. Er zijn veranderingen door onze hele samenleving voor nodig.

Er zullen ongetwijfeld vrouwen worden aangesteld die eigenlijk niet geschikt zijn, net als bij mannen, de vraag is of dat opweegt tegen de vrouwen die wel goed zijn die zo een kans krijgen. Ik denk van wel.

[Reactie gewijzigd door CAPSLOCK2000 op 10 oktober 2018 17:31]

Eens. Maar ik zie ook geen campagnes die zich druk maken om meer mannelijke verplegers of lagere schoolleraren te krijgen ;)
Lijkt me een goede zaak als die er wel komen, vanwege exact dezelfde redenen. Het is zonde dat mensen niet bij hun ideale baan terechtkomen door historisch gegroeide vooroordelen.
We zien wel verschillen tussen mannen en vrouwen (los van de vraag of die biologisch of sociologisch zijn) maar die zijn niet zo groot dat ze die 90/10 kunnen verklaren.
Dat is maar helemaal de vraag als je alleen geÔnteresseerd bent in de staarten van de twee distributies. Stel het gemiddelde is nagenoeg gelijk, maar 95% van alle mensen zijn niet slim of bekwaam genoeg om in aanmerking te komen voor een bepaalde studie of baan. Dan kijken we dus alleen naar de bovenste 5% van de gedeelde distributie.

Splits de resterende groep nu in mannen en vrouwen. Bekend is dat er meer variatie is tussen mannen individueel dan vrouwen individueel - er zijn meer extreem domme mannen en meer extreem intelligente mannen. De staart van de distributie is dus een stuk dikker bij mannen dan bij vrouwen, en dus verwacht je in de bovenste 5% een stuk meer mannen te vinden.

Neem nu erbij dat mannen gemiddeld meer geÔnteresseerd zijn in dingen en vrouwen gemiddeld meer geÔnteresseerd zijn in mensen. Hierdoor gaan veel vrouwen in de bovenste 5% naar studies waar ze meer interactie met mensen hebben, zoals psychologie. Daardoor wordt het verschil nog groter.

Overigens haal je nog steeds geen 90/10, ik geloof dat de verhouding bij informatica zo rond de 80/20 ligt. Maar dat hoeft dus niet het gevolg te zijn van discriminatie. Daarnaast zien we overigens dat hoe vrijer het land en hoe gelijker de mensen, hoe minder vrouwen extreem technische studies kiezen. In het westen voelen vrouwen zich gewoon vrij om de studie te volgen die ze zelf willen, terwijl vrouwen in ontwikkelingslanden zich vaak genoodzaakt voelen om een studie te volgen met een grote kans op goedbetaalde baan.
Dat is maar helemaal de vraag als je alleen geÔnteresseerd bent in de staarten van de twee distributies. Stel het gemiddelde is nagenoeg gelijk, maar 95% van alle mensen zijn niet slim of bekwaam genoeg om in aanmerking te komen voor een bepaalde studie of baan. Dan kijken we dus alleen naar de bovenste 5% van de gedeelde distributie.
Als we oneindig veel werknemers beschikbaar hadden om uit te kiezen dan zou ik dit argument accepteren. Dat is helaas niet zo, we hebben grote tekorten aan competent personeel. Daarom worden heel veel banen vervult door iemand die eigenlijk niet geschikt is. Veel van de mannen in de onderkant van de distributie hebben ook een baan.
Bekend is dat er meer variatie is tussen mannen individueel dan vrouwen individueel - er zijn meer extreem domme mannen en meer extreem intelligente mannen.
Maar de verschillen tussen de gemiddelde man en de gemiddelde vrouw zijn kleiner dan de verschillen van mannen onderling of vrouwen onderling.
De staart van de distributie is dus een stuk dikker bij mannen dan bij vrouwen, en dus verwacht je in de bovenste 5% een stuk meer mannen te vinden.
In het onderste stuk ook. Toch zijn er meer vrouwen werkeloos dan mannen. Er moet dus meer aan de hand zijn. De distributies zijn wel een anders, maar overlappen elkaar voor het grootste deel.
Overigens haal je nog steeds geen 90/10, ik geloof dat de verhouding bij informatica zo rond de 80/20 ligt. Maar dat hoeft dus niet het gevolg te zijn van discriminatie.
Die 90/10 of 80/20 is inderdaad uit de lucht gegrepen (door degene waar ik op reageerde), het gaat meer om het principe dan om de exacte verhouding. Ik ben het met je eens dat het mechanisme dat je omschrijft geen discriminatie is. Mijn insteek in dit verhaal is dan ook niet dat ik "zielige vrouwtjes" wil helpen of zo iets. Mijn insteek is gewoon economisch, volgens mij wordt er een hoop economisch potentieel niet gebruikt omdat we onze mensen niet efficiŽnt inzetten.
Neem nu erbij dat mannen gemiddeld meer geÔnteresseerd zijn in dingen en vrouwen gemiddeld meer geÔnteresseerd zijn in mensen. Hierdoor gaan veel vrouwen in de bovenste 5% naar studies waar ze meer interactie met mensen hebben, zoals psychologie. Daardoor wordt het verschil nog groter.

<knip><knip>

Daarnaast zien we overigens dat hoe vrijer het land en hoe gelijker de mensen, hoe minder vrouwen extreem technische studies kiezen. In het westen voelen vrouwen zich gewoon vrij om de studie te volgen die ze zelf willen, terwijl vrouwen in ontwikkelingslanden zich vaak genoodzaakt voelen om een studie te volgen met een grote kans op goedbetaalde baan.
Drie punten.

Ten eerste combineer je nu "het vrije westen" en "ontwikkelingslanden". Dat is niet heel gek, maar misschien toch niet zo handig. Geld en vrijheid lopen daarbij door elkaar, al is er natuurlijk wel een verband.
Een alternatieve verklaring is dan misschien dat in bepaalde landen vrouwen zich het niet kunnen permitteren om aan de sociale verwachtingen te voldoen, er moet immers wel brood op de plank komen. In onze verzorgingsstaat kun je wel toegeven aan die druk. Een mooie Facebook pagina is misschien wel belangrijker dan een goed salaris.

Ten tweede verschilt het per cultuur wat precies beroepen voor mannen zijn en wat beroepen voor vrouwen zijn. Dat zit dus niet (helemaal) in onze genen maar is op z'n minst voor een deel cultureel beÔnvloedbaar, en zou dus ook anders kunnen.

Ten derde hebben we enerzijds het belang van het individu (een man of vrouw die een bepaalde keuze maakt) en anderzijds het belang van de maatschappij. Als ik vrij de keuze had zou ik misschien de hele dag op het strand gaan zitten. Dat is leuk voor mij en dan heb ik veel vrijheid, maar voor de maatschappij is dat geen optimale keuze. Zo denk ik ook dat de huidige systeem erg verspillend is.
Als we oneindig veel werknemers beschikbaar hadden om uit te kiezen dan zou ik dit argument accepteren. Dat is helaas niet zo, we hebben grote tekorten aan competent personeel. Daarom worden heel veel banen vervult door iemand die eigenlijk niet geschikt is. Veel van de mannen in de onderkant van de distributie hebben ook een baan.
Bij Amazon, in een technische functie? Ik denk dat dit wel meevalt. Je hebt eerder het tegenovergestelde probleem: omdat zo weinig vrouwen technische studies doen en zo'n beetje alle bedrijven staan te springen om vrouwen aan te nemen is het vaak heel moeilijk om een even bekwame vrouw te vinden.

En ja, veel mannen aan de onderkant van de distributie hebben ook een baan.. als bouwvakker, hoogwerker of soldaat. Ook niet bepaald banen die de meeste vrouwen willen doen (even los gezien van fysieke verschillen in spierdichtheid e.d.).
In het onderste stuk ook. Toch zijn er meer vrouwen werkeloos dan mannen. Er moet dus meer aan de hand zijn. De distributies zijn wel een anders, maar overlappen elkaar voor het grootste deel.
Ik had het specifiek over een segment van de banenmarkt waar de meeste mensen niet voor in aanmerking komen. Natuurlijk is er meer aan de hand als we de samenleving als geheel beschouwen, maar dat is een andere discussie.
Mijn insteek is gewoon economisch, volgens mij wordt er een hoop economisch potentieel niet gebruikt omdat we onze mensen niet efficiŽnt inzetten.
Ik denk dat het wel meevalt met het gebrek aan efficiŽntie van de kant van bedrijven. Vrouwen (met voltijd baan) werken gemiddeld minder uren, maken minder overuren, zijn minder bereid om 24/7 beschikbaar te zijn, zijn minder agressief in onderhandelingen over salaris en geven bij sollicitaties sneller op. Daarnaast werken ze vaker in industrieŽn met minder marktwaarde (je kan je afvragen of de markt rechtvaardig is, maar het is wel een feit).

Als je al die factoren meeneemt dan is het niet vreemd dat vrouwen als groep collectief minder verdienen dan mannen als groep. Misschien is er discriminatie in de marge, maar dat kan je aan de statistieken niet aflezen.
Ten eerste combineer je nu "het vrije westen" en "ontwikkelingslanden". Dat is niet heel gek, maar misschien toch niet zo handig.
De relatie is grofweg hetzelfde ook als we alleen naar het westen kijken. In Zweden is het gat in studiekeuze tussen mannen en vrouwen bijvoorbeeld nog groter, terwijl ze er daar alles aan hebben gedaan om de samenleving zo gelijk mogelijk te maken.
Ten tweede verschilt het per cultuur wat precies beroepen voor mannen zijn en wat beroepen voor vrouwen zijn. Dat zit dus niet (helemaal) in onze genen maar is op z'n minst voor een deel cultureel beÔnvloedbaar, en zou dus ook anders kunnen.
De keuzes die we maken zijn natuurlijk niet vastgelegd in onze genen, maar dat mannen (gemiddeld) meer geÔnteresseerd zijn in dingen en vrouwen (gemiddeld) meer geÔnteresseerd zijn in mensen is een feit, we zien dat zelfs bij andere primaten terug. Natuurlijk worden die verschillen versterkt door wat men "normaal" vind in de samenleving, en uiteindelijk ben ik voor het recht van iedereen om zijn of haar eigen keuzes te maken, maar ik ben bang dat als we de samenleving uit elkaar gaan pluizen om een collectief ideaal van "gelijkheid" te halen dat daar uiteindelijk niemand gelukkiger van wordt.
Ten derde hebben we enerzijds het belang van het individu (een man of vrouw die een bepaalde keuze maakt) en anderzijds het belang van de maatschappij. Als ik vrij de keuze had zou ik misschien de hele dag op het strand gaan zitten. Dat is leuk voor mij en dan heb ik veel vrijheid, maar voor de maatschappij is dat geen optimale keuze. Zo denk ik ook dat de huidige systeem erg verspillend is.
Okť, maar hoe wil je dat op gaan lossen? Iedere leerling testen en dwingen een studierichting te kiezen die de maatschappij het meest nodig heeft? Of we het nu hebben over efficiŽntie of over een kunstmatig ideaal van 50/50 in alle beroepen, dat is gewoon onbereikbaar zonder een soort totalitair regime op te zetten.

Wat mij betreft moeten we als samenleving ons best doen om iedereen zo veel mogelijk gelijke kansen te geven (binnen reden) en werknemers aanmoedigen om de beste persoon aan te nemen voor iedere baan. Als je discriminatie kunt identificeren in het proces dan kunnen we dat aanpakken, maar we moeten ons niet blindstaren op resultaten.
Okť, maar hoe wil je dat op gaan lossen? Iedere leerling testen en dwingen een studierichting te kiezen die de maatschappij het meest nodig heeft? Of we het nu hebben over efficiŽntie of over een kunstmatig ideaal van 50/50 in alle beroepen, dat is gewoon onbereikbaar zonder een soort totalitair regime op te zetten.
Nu zijn we het kringetje rond. Ik begon met te schrijven dat het /niet/ het doel is om 50/50 te bereiken. Het doel is om weg te sturen van 90/10 . We weten dat er bepaalde patronen zijn in onze maatschappij die makkelijk lijden tot ongelijke situaties. Mannen solliciteren bv agressiever, maar dat maakt ze nog niet geschikt voor de baan. Als recruiter kun je daar dus maar beter rekening mee houden, anders mis je goede kandidaten op grond van niet relevante eigenschappen.
Het volgende is waarschijnlijk niet super accuraat en alles verklarend, maar een leuke verklaring die ik ooit gelezen heb...

Vrouwen zijn biologisch gezien waardevoller dan mannen. Stel je een populatie voor van 100 mensen, de laatste op aarde. Door een ramp sterven er 49 van de 50 vrouwen. De soort zal als geheel ten onder gaan, want 1 vrouw kan niet genoeg nakomelingen verwekken voor de hele populatie.

Het omgekeerde: 49 mannen sterven, er blijft er maar een over. Deze ene enkele man kan in zijn eentje de gehele populatie weer op peil brengen, althans in theorie kan hij alle 50 vrouwen bevruchten.

Het is natuurlijk een extreem voorbeeld, maar het toont aan dat een man vervangbaarder is. Het is primitief gezien niet zo erg als een man sterft. Daarom neigen mannen veel meer naar risico's, competitie, en dergelijk gedrag. Bij vrouwen is het juist zaak een beschermde omgeving te bieden.

Bovenstaande is een mogelijke verklaring waarom mannen oververtegenwoordigd zijn in de top en ook de absolute bodem. Dit is het gevolg van competitie en risico gedrag. Omgekeerd vind je veel meer vrouwen in het veilige, beschermde midden.

Tot op zeker hoogte is dat nog steeds een waarheid, alhoewel er inmiddels ook veel mannen in het midden zijn, omdat onze maatschappij dat inmiddels mogelijk maakt.
Het volgende is waarschijnlijk niet super accuraat en alles verklarend, maar een leuke verklaring die ik ooit gelezen heb...

Vrouwen zijn biologisch gezien waardevoller dan mannen.
Het is een mooie hypothese, maar eerlijk gezegd is het een van de vele hypotheses rond dit onderwerp. Zonder onderzoek kan je er niet zo veel mee. Het is ook eenvoudig te ontkrachten, want waarom zijn er dan nog zoveel mannen en zorgt de natuur niet voor andere verhouding, zoals bijvoorbeeld bij bijen. Op deze manier heeft het alleen zin als de meeste mannen sterven voor ze de vruchtbare leeftijd bereiken. Dat zien we niet, niet bij mensen en niet bij andere dieren.
Bovenstaande is een mogelijke verklaring waarom mannen oververtegenwoordigd zijn in de top en ook de absolute bodem. Dit is het gevolg van competitie en risico gedrag. Omgekeerd vind je veel meer vrouwen in het veilige, beschermde midden.
Als dat zo is, dan moeten we ons wel afvragen of dit de juiste aanpak is. Is het nemen van grote risico's altijd de beste bedrijfsstrategie? Als ik een beetje om me heen kijk in de wereld dan lijken de grootste bedrijven juist zeer risico-avers. Ze doen er alles aan om risico (voor zichzelf) te mijden.

Hoewel het allemaal mooi klinkt geloof ik er dus niet zo in als de grote verklaring voor alle verschillen. Ik betwijfel overigens niet dat mannen gemiddeld genomen meer risico nemen, maar wel aan hoe groot dit effect nu echt is.
Ik vind het niet echt een ontkrachting, het is namelijk niet te ontkrachten. Het is een simpel feit dat mannen vervangbaarder zijn, maar dan uiteraard wel in het geval van rampspoed, en alleen in het aspect van voortzetting van het basale bestaan van de groep. Daar kun je lastig omheen.

Het betekent niet dat mannen geen ander nut hebben, het betekent alleen het bovenstaande: vrouwen zijn meer essentieel om te beschermen als het op leven en dood aankomt. Daarom worden ook mannen de oorlog ingestuurd, en niet vrouwen. En vandaar de aloude "vrouwen en kinderen eerst". Die zijn belangrijker om te beschermen dan mannen.

Het gaat niet zoals bij bijen omdat ik niet stel dat mannen nutteloos zijn, en na paring dood neer mogen vallen. Ik zeg alleen dat ze vervangbaarder zijn in levensbedreigende zaken. Er is op heel erg veel manieren te pleiten voor de waarde van mannen, bijvoorbeeld in het opzetten van infrastructuur, bescherming, en voedselvoorziening. Klassieke mannen taken, waar vrouwen echt niet zonder kunnen.

Omtrent risico doel ik op persoonlijke risico, niet bedrijfsrisico. Risico en competitief gedrag leid tot winnaars en verliezers vandaar de split naar top en bodem. In beide categorien zijn mannen sterk oververtegenwoordigd, ook nu nog. Dit alles is natuurlijk wel enigzins afgezwakt omdat we in een andere, enigzins veiligere wereld leven, en omdat emancipatie doorzet.

Toch denk ik dat het effect nog steeds sterk aanwezig is. De startups waar we het hier over hebben bestaan voornamelijk uit mannelijke twintigers. Die zijn blijkbaar bereid om 70-80 uur te werken, te leven van pizzas, en te verhuizen van huis en haard, uiteraard allemaal gedreven door dollars. Het is typisch mannelijk gedrag, en ook typisch voor die leeftijd.

Het omgekeerde is ook duidelijk zichtbaar in Nederland. Nederlandse vrouwen zijn kampioen parttime werken. Veelal al ver voordat er kinderen komen. Een relatief eenvoudig baantje in de buurt, en het is verder wel goed zo. Ik heb daar geen enkel waarde oordeel over, maar het is het veilige, beschermde midden waar ik het over heb. Het is dus niet zo dat honderdduizenden vrouwen staan te springen voor een topbaan, daar vol voor gaan, maar worden tegengehouden door een geheim bolwerk van wrede mannen.

Ook cultureel is het verschil nog duidelijk aanwezig. Niemand kijkt op van een vrouw die kiest voor minder werken en meer persoonlijke danwel gezin tijd. Moet je als man eens doen. Ik werk als man al 10 jaar 4 dagen per week en krijg er nog steeds voortdurend vragen over, zelfs van familie. Alsof je een of andere gek of zwakkeling bent. Tegelijkertijd kijkt niemand op van een gezonde, jonge vrouw die 2 of 3 dagen werkt. Dat is dus het stuk bescherming wat er nog altijd is. Het komt ouderwets en cru over, maar een vrouw hoeft niet te "slagen".

Of dit allemaal goed of fout is, daar waag ik me niet aan. Ik observeer slechts nog steeds flinke verschillen.
Het 'vervangbaar' aspect misschien wel, maar je omschreef het als 'waardevol' en dat is toch wat anders en een stuk minder feitelijk. Zonder harde informatie kun je dit soort verhaaltjes iedere draai geven die je wil. Misschien worden vrouwen niet naar het front gestuurd om ze te beschermen maar omdat het waardeloze soldaten zijn die de mannen in gevaar brengen. Het is maar welk verhaal je wil vertellen.

Ergens komen we bij het aloude 'nature' vs 'nurture' debat uit. Zijn mannelijke twintigers bereid om op pizza te leven omdat het in de genen zit (misschien zijn mannen minder gevoelig voor slecht eten)? Of omdat het sociaal acceptabel is? Of misschien zelfs omdat er sociale druk is om aan het stereotype beeld van een nerd te voldoen?

Ik denk, net als jij, dat zekere verschillen in de genen zitten. Maar ik denk ook dat die enorm uitvergroot worden door sociale constructies. Rekening houden met die verschillen is op zich ok, maar momenteel lijkt het er op dat we die kleine verschillen gebruiken als excuus voor grote sociale verschillen. Zoals je zelf aangeeft is er veel onbegrip voor jouw keuze om vier dagen te werken. Volgens mij geeft dat een sociale druk die sterker is dan de onderliggende biologische verklaringen voor waarom deze situatie ontstaan is.

Mannen en vrouwen hoeven voor mij niet hetzelfde werk te doen, maar enerzijds denk ik dat het economisch beter zou zijn als we de verhoudingen minder extreem zouden maken, en anderzijds denk ik dat het voor de mensen die willen afwijken van de sociale normen erg lastig kan zijn, ook al is het wettelijk geen probleem. Zo versterken we het beeld dat het zo hoort en drijven we ons zelf steeds meer naar de extremen.
Misschien zouden die vrouwen het wel kunnen maar hebben ze er geen zin in? Misschien doen ze liever werk met menselijk contact en emoties dan techniek ook al zouden ze daar "beter" in zijn.

Natuurlijk speelt er ook genoeg mee, bijv. dat er weinig vrouwen op die opleidingen zijn is een reden voor andere vrouwen die het op zich wel zouden willen om het niet te doen, omdat ze niet elke les tussen 9 mannen in te zitten en weinig keuze te hebben qua vriendinnen enzo. Maar ik gok zo dat zelfs als al die invloeden worden weggenomen, de meeste vrouwen het gewoon niet zo leuk vinden als de kerels. net zo goed als dit geld voor autosport of wielrennen of computerspelletjes of noem een mannenhobby.

[Reactie gewijzigd door Origin64 op 11 oktober 2018 23:30]

Nee? Als je de relatieve kans pakt heeft het niks te maken met kwantiteit sollicitanten.
Nouja, als het systeem "leider van schaakteam" hoger beoordeelt dan "leider van schaakteam van vrouwen" dan is dat discriminatie, ongeacht de reden waarom er in de 10 jaar ervoor meer mannen zijn aangenomen.
Dat is ook zo?
Maar het systeem moet die discriminatie ergens vandaan krijgen, waarschijnlijk was de dataset dus niet neutraal en was de data set van 10 jaar 'bevuild' met discriminatie.
"Waarschijnlijk" is niks. Als in de 10 jaar ervoor 30% van de aanmeldingen van een vrouw kwam en 40% van de aangenomen werknemers was vrouwelijk dan was het aannamebeleid dus positief discriminerend voor vrouwen, maar de aangeleverde dataset legt meer nadruk op het aannemen van mensen met mannelijke termen omdat de meerderheid van de aangenomen werknemers die in hun CV hadden.
Nee dat helemaal niet zo, je pakt de verkeerde kans. Je pakt nu de kwantiteit van vrouwen. Zoals in mijn originele comment gaat het over de relatieve kans dat je als vrouw wordt aangenomen.
Zoals in mijn originele comment gaat het over de relatieve kans dat je als vrouw wordt aangenomen.
Daar gaat mijn comment ook over. Als 40% van de werknemers die wordt aangenomen vrouwelijk is, maar die worden gekozen uit een groep die maar voor 30% uit vrouwen bestaat dan heb je als vrouwelijke sollicitant dus een relatief hogere kans om aangenomen te worden, niet een lagere. Dat is overigens allemaal relatief. Ook kwantitatief, overigens, maar we hebben het over aantallen dus dat lijkt me onvermijdelijk. Mogelijk bedoelde je absoluut.

Uit alleen het feit dat er de afgelopen tien jaar minder vrouwen dan mannen zijn aangenomen kun je niet concluderen dat vrouwen geen eerlijke kans krijgen om aangenomen te worden.

[Reactie gewijzigd door Patriot op 10 oktober 2018 14:29]

Dat ligt eraan. Als er vooral mannen solliciteren bestaat je dataset vooral uit mannen. De discussie is nu ook vooral dat vrouwen veelal parttime willen werken. En dat kan niet overal in alle functies. Dus je dataset is sowieso al 'flawed' in dat opzicht.

Maar AI schrappen omdat er geen sociaal wenselijk antwoord uit komt is natuurlijk ook best apart.
dan zou dat toch niet moeten uitmaken
Nee, de hoop met dergelijke systemen is juist dat je minder bias hebt en sneller en betere selectie van personeel hebt. Niet langzamer (want false positives) n net zo slecht (want bias blijft bestaan).
Ja, ze hadden personeelszaken moeten ontslaan ipv de AI.
'leider van het schaakteam voor vrouwen',
Valt de computer AI dan over het woord 'vrouwen' of domweg over het 'leider van het schaakteam voor vrouwen' wat logischerwijs echt 0,0 toegevoegde waarde geeft aan je sollicitatie.

Ook is het best verklaarbaar dat als mannen vaker in aanmerking komen dat de AI dat leert, dat is dan natuurlijk simpel eruit te halen door niet naar geslacht te kijken en alleen naar kwalificaties en in het geval van 'leider voor het schaakteam' val je dan alsnog af.
Dat is een veel te simpele redenering helaas. De a.i. kijkt niet alleen naar het geslacht, maar naar een combinatie van factoren, waarin blijkbaar een bias zit richting, laten we zeggen, "mannelijkheid". Het lastige is dat het heel moeilijk is om uit te vinden op welke elementen het neurale netwerk let bij wat vrouwelijk en mannelijk is. In principe is het een black box met input en output. En zelfs als je input als het geslacht weglaat, blijkt dat de output is dat vrouwen worden benadeeld bij dezelfde kwalificaties. Het is een veel breder probleem in a.i. waarbij bias in de trainingsdata zit en dus ook in het netwerk terecht komt. De trainingsdata vervangen is zo makkelijk ook niet. Dit zijn vaak grote hoeveelheden data van jaren aan ervaring waarbij vrouwen al werden benadeeld. Achteraf corrigeren kan alleen als je heel veel mensen het systeem laat hertrainen (zonder bias hopelijk), of als je one-shot-learning in je netwerk hebt en foute aanbevelingen kunt corrigeren. Dat laatste is bij zulke grote hoeveelheden data alleen nog redelijk utopia.
Waarom zou dat geen waarde hebben? Wanneer je in je vrije tijd ergens voorzitter of leider van bent, zegt dat gewoon iets. Niet dat je daarop aangenomen moet worden, maar het laat zien dat je mogelijk leiderschapskwaliteiten hebt. Daarnaast zijn Amerikaanse cv's heel anders dan Nederlandse. Daar is het gebruikelijk om jezelf de hemel in te prijzen over bijv. prijzen en wedstrijden die je gewonnen hebt. Iets wat hier "not done" is.
Tsja, machine learning Ūs juist kwestie van bias dus ach ;) je kunt ook zeggen dat het algoritme juist correct werkte.
Wiskundig werkte het wellicht correct. Praktisch gezien hadden ze door de vele false positives en de bias in het systeem weinig aan het systeem als je doelstelling is vrouwen minder te discrimineren en posities sneller te vullen.
Ja maar ik ben bang dat ze gewoon vergeten te zijn dat als 'features' mee te nemen tijdens het trainen.
Misschien hadden ze een paar van die niet-gekwalificeerde personen juist wel die functies moeten laten bekleden, dan hadden ze geweten of het systeem stiekem wel gelijk had. Het gaat tenslotte om kunstmatige intelligentie, misschien worden we nog verrast.
Het is gewoon wachten op wetgeving die het verplicht maakt om anoniem te moeten solliciteren. Puur motivatie en CV, maar geen namen, afkomsten, geslacht, leeftijden, etc.
Iedereen behandelen alsof ze exact gelijk zijn... maar dat zijn mensen niet. Leeftijd speelt een rol. Voor sommige rollen wil je een jonger persoon, voor sommige rollen wil je een ouder persoon en voor sommige rollen maakt het inderaad niets uit. Afkomst kan relevant zijn wanneer je soliciteerd voor specifieke rollen, zoals diversity relateerde rollen (klinkt absurd en tegenstrijdig, maar dat is de realiteit).

In andere woorden, nee werkt niet.
Juist dŠt is discriminatie en zou je moeten willen voorkomen...
Het is geen discriminatie als het goed bij de rol past. De realiteit is gewoon dat sommige mensen beter bij een bepaalde rol passen dan anderen.
Juist denken dat leeftijd en geslacht bij een bepaalde rol passen hoort een beetje thuis als alle kappers moeten vrouw zijn en alle bouwvakkers moeten man zijn. Mohammed kan nooit een rechter worden en een homo kan nooit professioneel worstelaar worden.

Juist het denken dat bij bepaalde rollen bepaalde mensen horen, geeft aan dat er nog volop (onbewuste) discriminatie is.
We hebben in onze tak toch gewoon Junior, Senior en dergelijke?

Ik hoef niet te wachten op iemand op leeftijd met heel veel ervaring als ik een vacature uitzet met Jr. Developer.
Junior en senior zou gerelateerd moeten zijn aan ervaring en kwaliteit, niet leeftijd.

Iig, bevestig je hetzelfde punt als ik maakt :)
Dit klinkt leuk maar heeft in de praktijk alleen effect op onbewuste discriminatie. Als iemand graag (bijvoorbeeld) een jonge vrouw aan wil nemen dan zal alles wat hiervan afwijkt gewoon niet worden uitgenodigd voor een tweede gesprek.
Deze personen hebben nu wel een kans gehad het eerste gesprek. Waarbij de kans bestaat om iemand alsnog persoonlijk te overtuigen, anders hadden ze 0,0 kans, aangezien ze op hun naam/leeftijd/geslacht al waren afgewezen.
De kenmerken waarop de A.I. discrimineert zijn niet te voorspellen. Het is veel te simpel om te denken dat de A.I. naar naam, afkomst en geslacht alleen kijkt. Hobbies, bijbaantjes, nevenactiviteiten, online presence, opleiding, lengte van de opleiding, lengte van functies, vorige functies, schrijfwijze's in CV enz enz zijn mogelijk discriminerende kenmerken tussen mannen en vrouwen, ook al valt dat in de eerste plaats misschien niet direct op.
zelfs dat is niet foolproof.. zoals in voorbeeld dat gegeven word kan je in sommige gevallen het afleiden aan de scholing wat het geslacht is, of de religie etc..

In Noord Ierland mag je bijvoorbeeld niet vragen naar het geloof van een kandidaat, maar als je leest dat iemand naar de St Mary's school for girls geweest is, kan je er wel uit opmaken dat het een katholieke vrouw is..
Als houder van een naam die zowel voor jongens als meisjes gebruikt weet ik allang dat het erg veel uitmaakt of ze denken dat je een man of vrouw bent. Expres laat ik dit nooit doorschemeren. Dan worden ze nieuwsgierig en wordt je uitgenodigd.

Op het moment dat ouders hun kind een naam geven worden de carriŤrekansen van dat kind al ingeperkt.
Niet de meest leuke reden om afgewezen te worden: "Computer says no..."

Gelukkig stelt Amazon dat het systeem alleen als ondersteuning gebruikt werd bij een sollicitatie. Het geeft wel aan dat bij machinelearning de dataset die je geeft aan je neurale netwerk best wel zwaar van invloed is voor de training. Het doet me denken aan de twitterbot die Microsoft ooit had gemaakt om te leren menselijk reageren en uiteindelijk (binnen 16 uur) behoorlijk discriminerende uitspraken deed dankzij de informatie die het gevoed werd door het internet. https://en.wikipedia.org/wiki/Tay_(bot)
Klinkt alsof de machine learning tool juist precies goed werkte. Wellicht dat de volgende versie ook kandidaten filtert met buitenlandse namen of ongunstige leeftijden (oud -> risico ziektes, getrouwde vrouwen 25-35 -> zwangerschapverlof §§§, boven de 22 -> geen jeugd-minimumloon)
Ik zal de ongewenste opmerking maken: voor veel tech beroepen, specifiek in het harde wereldje van de grote tech firmas, is de ideale werknemer een man, en een twintiger. Ras is minder belangrijk.

Een man, omdat die niet zwanger worden.
Een man, omdat die hard voor elkaar zijn en zo elkaar afbeulen als wedstrijdje verplassen
Een twintiger, omdat mannen dan barsten van de energie en tijd en geen enkele moeite hebben om alles maar dan ook alles op een zijspoor te zetten (sociaal leven, gezondheid) als het werk maar genoeg loont. Geen partime maar "gewoon" 70 uur werken dus.

Zijn er ook vrouwen of ouderen mensen die dat zouden kunnen? Vast, neemt niet weg dat bovenstaande het ideale kannonenvoer is.
pas maar op hoor, als je ooit werkgever bent...
Gewoon het geslacht niet meenemen in de algoritme?


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True