'Algoritmes voor ontslagrondes bedrijven komen soms tot verkeerde adviezen'

Algoritmes die bedrijven gebruiken om adviezen te geven over wie het bedrijf moet ontslaan in een ontslagronde, komen door beperkte of verkeerde data soms tot verkeerde adviezen, zo waarschuwen experts.

Vrijwel alle bedrijven in een enquête onder 300 Amerikaanse bedrijven zeggen algoritmes te gebruiken voor ontslagrondes, schrijft The Washington Post. Toch leunen lang niet al die bedrijven op die adviezen, omdat bij grote bedrijven 41 procent erop vertrouwt dat er voldoende en goede data is. Bij kleinere bedrijven is dat 25 procent.

Zo kan het zijn dat bedrijven het risico dat een werknemer de komende tijd zelf zou willen weggaan als factor in het algoritme opnemen. Als gemiddeld gesproken zwarte werknemers wegens problemen met discriminatie vaker weggaan en het algoritme heeft die oorzaak niet door, dan zou het meer zwarte werknemers kunnen aandragen voor ontslag.

Bovendien zit er risico in gebruik van incomplete data, waardoor de algoritmes beslissingen nemen met de verkeerde input, wat dan leidt tot verkeerde conclusies. Volgens de krant gebruiken veel HR-afdelingen algoritmes om de werkdruk te verlichten.

Een topman van een bedrijf dat HR-software maakt, zegt in de krant dat bedrijven transparant moeten zijn over het gebruik van algoritmes en welke factoren meespelen bij beslissingen. Het gebruik van algoritmes op veel plekken is al jaren onderwerp van gesprek, omdat zij door incomplete of verkeerde data, of door bepaalde factoren zwaarder of juist niet mee te wegen tot verkeerde beslissingen kunnen komen. Daarbij is het vaak onduidelijk waarom een algoritme een bepaalde conclusie heeft getrokken.

Door Arnoud Wokke

Redacteur Tweakers

21-02-2023 • 09:34

119

Reacties (119)

Sorteer op:

Weergave:

Elk algoritme is afhankelijk van de data waarmee het kan werken. Zolang daar fouten of hiaten inzitten is de uitkomst hooguit deels bruikbaar.
Voor een ontslagronde moet eerst een goede toekomstvisie voor het bedrijf worden opgesteld. Dat bepaalt al deels welke functies belangrijker zijn om te behouden. Zeker in Amerika is de hiërarchische structuur belangrijk. Het aantal verschillende functies en mensen die iemand aan kan sturen is daardoor een belangrijke factor. De algoritmes die nu in gebruik zijn letten vooral op de productiviteit, maar vergeten vaak dat een heel productief iemand vaak afhankelijk is van voorwerk door een collega.

Kortom: De algoritmes kunnen nu wel een leuk begin vormen, maar moeten nog worden aangevuld met wat meer kennis van de werkelijke workflow en gewoon mensenkennis.
Q als quantity is meetbaar, Q als quality niet. Daarvoor heb je managers nodig die 'zien' wat hun werknemers doen. Ik heb zat collega's gehad in het heden en verleden die technisch gezien meer produceerden, maar daar kwam ook geregeld meer shit uit.

Die tools zijn nutteloos, omdat ze per definitie bepaalde waarden niet kúnnen meten.
Dit en het hangt er ook volledig van af wat je metrics zijn en wat voor klimaat je creeert op de werkvloer.
Het is inderdaad problematisch dat kwaliteit lastig in cijfers is uit de drukken voor veel dingen en kwantiteit juist heel makkelijk.

Management wil maar 1 ding zien, een excelsheet met cijfertjes die waar aan de volgende laag management kan worden getoont.

Gebrek aan kennis zorgt er dan weer voor dat die cijfers bij elke laag of anders uitgedrukt worden of nog minder begrepen worden en je komt op het punt uit dat alles een nummertje is en men inderdaad begint met die nummertjes heen en weer te schuiven of weg te strepen.

Kennis staat meestal nergens op die sheets, en dus kan werk heel makkelijk van A naar B verhuist worden want daar zitten mensen die het zelfde doen. Dat er jaren aan kennis word vergeten is niet terug te zien.

En dus is het kwantieit die wint. Numbers must go up.
Je doet support? Aantal tickets gesloten.
Je doet development? Aantal regels code of story points die je produceert.

Dus mensen op support sluiten een ticket bij het minste of geringste en maak maar een nieuwe ticket aan als het niet werkt.

En developers zorgen dat er een hoge velocity is tenkoste van onderhoudbare code want meer regels code in een snellere tijd.

Goed je werk doen past niet in cijfertjes, want goed onderhoudbare code die flexibel is en goed uitgedacht kost meer tijd en kan meestal in minder regels want herbruikerbaarder.

Misschien dat het aantal bugs nog ergens terug komt, maar dat zijn weer extra story points als je ze snel met een hack weet te fixen.
Staat ook weer leuk op de excel sheet, aantal bugs opgelost.
Quality is ook prima meetbaar omdat je het ook kan afleiden uit andere meetbare factoren. Hier een aantal voorbeelden:
- Aantal contacten klantenservice
- Reviews klanten
- Kosten herstel of downtime

Andersom werkt het ook. Komt een engineer aan "ja we hebben 100k besteed aan kwaliteitsverbetering" "ow leuk, kan ik nu de prijzen verhogen omdat de klanten ook hogere kwaliteit willen?, of de klantenservice sluiten omdat er geen klachten meer zullen komen?" als je dan een lange "eeuuuhhh" krijgt weet ik genoeg.

ergens moet je verschil meten, anders doe je het voor niks.
Andersom werkt het ook. Komt een engineer aan "ja we hebben 100k besteed aan kwaliteitsverbetering" "ow leuk, kan ik nu de prijzen verhogen omdat de klanten ook hogere kwaliteit willen?, of de klantenservice sluiten omdat er geen klachten meer zullen komen?" als je dan een lange "eeuuuhhh" krijgt weet ik genoeg.
Alsof kwaliteitsverbetering alleen daar maar effecten op kunnen hebben. Het zorgt er vaak voor dat je velocity op de lange termijn niet instort en je product niet zo lek als een mandje word. Maar dit is puur vanuit mijn software engineering blik erop gekeken.
+2 Technical debt op de prioriteitenlijst krijgen, de waarde van tests uitleggen.
Er zijn plekken waar dat heel lastig is. |:(
En gelukkig ook werkplekken waar dat zeer serieus wordt genomen :-D

[Reactie gewijzigd door PomPomPom op 24 juli 2024 00:08]

Quality en quantity zijn in veel gevallen wel meetbaar. Als een manager dat kan zien, dan kan die dat ook als data aanleveren. Laat de manager simpel iedereen cijfers geven voor Quality en quantity. Ook de sociale diagram (wie kan goed met wie overweg en welke combinaties werken beslist niet) is best belangrijk. In de algoritmes kan je meestal ook een wegingsfactor per parameter opgeven. Als je deze gegevens kan toevoegen, maak je de "nutteloze" tool toch weer een stuk nuttiger.

Met alle algoritmes en AI toepassingen moet je vooraf weten hoe ze werken en welke input ze nodig hebben om gefundeerde beslissingen te maken. Intern zitten die algoritmes vaak vol met kansberekeningen. Daar kunnen ook de kansen dat een medewerker uit eigen beweging vertrekt in meegenomen worden. Na een x aantal runs van de deel lussen en hoofd-lus komen ze met een vermoedelijk beste samenstelling van het personeel wat binnen het opgegeven maximum budget past. Wie daar niet bij staat kan een ontslagbrief krijgen.

Voor iemand die weet wat hij doet kunnen dit soort tools zeker nuttig zijn, mits je de juist data aan het model kan voeren.Blindelings op deze tools vertrouwen is niet verstandig. Je moet het zeker even nalopen om te kijken of er geen gekke dingen inzitten en of alle functies nog voldoende bezet zijn om ziekte en vakantie op te vangen.
Dit is gewoon puur misbruik van een analyse tool om mensen makkelijk buiten de deur te zetten. Oh maar ons algoritme zegt dat jij het slechter doet dan anderen en cijfers/data zijn extreem makkelijk manipuleerbaar.

Als je als bedrijf zoiets gebruikt betekend dit maar 1 ding.. Je kent je eigen mensen niet en je hebt ook geen interesse om je eigen mensen en wat ze doen te leren kennen.

Voor zo'n stront bedrijf wil je niet eens werken! Waar de fuck zijn ze mee bezig ?
Ik denk dat je het ook van de kant van het bedrijf moet zien. Als je managers vraagt "kun je in jouw afdeling mensen missen?" is het antwoord altijd "nee". Dan kun je oftewel in elke afdeling x% ontslaan (slecht) of een berekening per afdeling er op los laten (ook slecht).
En waarom moeten we dit van de kant van het bedrijf zien ? Als ze er met de manager niet uitkomen zullen ze ook wel geen mensen kunnen missen.

In alle gevallen het gebruik van dit soort algoritmes om mensen buiten de deur te zetten mag wat mij betreft bij wet verboden gaan worden. Het is namelijk onmenselijk en onwenselijk.
Ik denk dat het antwoord nee ook niet het juiste antwoord is. En in ieder geval kan concluderen dat je de manager kan ontslaan. Je kunt altijd mensen missen. De vraag is; Welke doelen kun je dan niet halen? Als de manager gewoon ja zegt. Moet je deze ook ontslaan. Want blijkbaar heeft deze manager al die tijd met mensen gezeten die ze eigenlijk niet nodig hadden.
Ik heb meegemaakt dat het knowledge management systeem werd gemigreerd en al mijn content ineens op naam stond van een ander (300+ goed gewaardeerde artikelen) en dat alle meta data weg was (dus wijzigingen, maar ook aanmaak datum en laatste update datum, wie het document onderschreven en gereviewd hebben etc.).

Dus 6 jaar oude stukken lijken ineens super nieuw en geschreven door een ander.
Evenals de stukken van een maand oud.
Approvals en waardering van experts zijn allemaal verdwenen.

En dus is er sinds dien geen artikel met mijn naam meer te vinden en vragen nieuwe managers zich af wat ik de afgelopen jaren aan waarde geleverd heb. En wordt ik door hen genegeerd op gebieden waar ik dé expert ben binnen het bedrijf, dingen waarvoor ik wereldwijd werd rondgevlogen om anderen bij te helpen krijg ik door nieuwe managers opmerken dat ik daar geen kennis van kan hebben en sluiten mij uit van deelname.

Leuk hoor slechte migraties. Frustrerend wanneer informatie niet klopt en mensen er wel op acteren als 'de waarheid'.

[Reactie gewijzigd door djwice op 24 juli 2024 00:08]

Net als met elke tool moet je algoritmes wel goed gebruiken. Je gaat toch ook geen schroef met een hamer inslaan.

Mijn zoon heeft overigens het omgekeerde meegemaakt. Hij heeft nu een reeks artikelen op zijn naam staan die een achterneef (met dezelfde naam) van mij heeft geschreven. Dat lijkt leuk, maar als je in de nanotechnologie naam probeert te maken zijn die biologische studies toch een hindernis.
Als gemiddeld gesproken zwarte werknemers wegens problemen met discriminatie vaker weggaan en het algoritme heeft die oorzaak niet door, dan zou het meer zwarte werknemers kunnen aandragen voor ontslag.
Dit zijn wel een hoop gevaarlijke what-if's.
Is dit daadwerkelijk het geval, registreren die systemen huidskleur (waarom?) of zijn we nu hypothetische situaties aan het bedenken om een artikel gewicht te geven?

(ik weet dat het overgenomen is uit het originele artikel, maar mis wel enige onderbouwing)
Geen idee hoe het in dit geval er aan toe gaat, maar en zijn wel voorbeelden van Amazon hun algoritme om CVs te screenen die discrimineerde tegen vrouwen, ondanks dat dit niet de intentie was van de ontwikkelaars.

Het probleem is dat je vaak niet doorhebt wat voor soort informatie naar het systeem lekt. Bijv. een naam of adres kan voldoende zijn om te discrimineren

https://www.reuters.com/a...ion-insight-idUSKCN1MK08G
... maar misschien is dat objectief gezien wel "het beste" ding om te doen...
Het hangt er vanaf wat je algoritme vooropstelt als 'wenselijk'. Als geslacht een factor is in de winstgevendheid, en je stelt winstgevendheid als belangrijkste uitkomst voorop, dan zal geslacht eruit komen als een differentiator. En dan is dat niet 'verkeerd'. We zien dat dan als 'onwenselijk', want we willen niet 'discrimineren' natuurlijk. Maar om dan de algoritmes te gaan afschieten wegens 'discriminerend'...? De kwaliteit van een antwoord wordt meestal bepaald door de kwaliteit van de vraag...
Leuke theorie die je zo hoopvol beschrijft. Heb je een vermoeden dat alle vrouwen een eigenschap hebben die slecht zijn voor een bedrijf? Want dat is wat je zegt, als categorie vallen ze af omdat ze de eigenschap vrouw hebben.

Je had ook even op de link kunnen klikken en dan zie je hoe dom deze programma's worden getraind.
.oisyn Moderator Devschuur® @Guus...21 februari 2023 12:00
Leuke theorie die je zo hoopvol beschrijft. Heb je een vermoeden dat alle vrouwen een eigenschap hebben die slecht zijn voor een bedrijf?
Grappig dat je dit zegt. Lees nu @Tim AtSharp's post nog eens goed. Ik zie daar nergens de suggestie worden gedaan dat het juist de vrouwen zijn die het onderspit delven. Hij komt alleen met een hypothetisch geval dat het geslacht een differentierende factor is, zonder daarbij te zeggen welke van de geslachten beter of slechter zijn. De aanname dat het de vrouwen zijn die voor minder winst zorgen is geheel de jouwe :).

Niet dat ik het overigens eens ben met zijn conclusie. "Maar om dan de algoritmes te gaan afschieten wegens 'discriminerend'...?" => Ja, dan is het algoritme per definitie discriminerend, want het maakt onderscheid op geslacht.
Als je de eerste regel negeert heb je gelijk. Echter, het onderwerp was het algoritme van Amazon welke discrimineerde tegen vrouwen. @Tim AtSharp reageerde daarop dat dat misschien wel het "beste" is en legt direct daaropvolgend zijn hypothetische situatieschets neer. Logisch dat @Guus... dit koppelde aan elkaar als onderbouwing voor de eerste regel in de comment, ook al was het wellicht niet zo bedoeld.
.oisyn Moderator Devschuur® @R3verze21 februari 2023 13:39
Fair punt! :)
Leuke theorie die je zo hoopvol beschrijft. Heb je een vermoeden dat alle vrouwen een eigenschap hebben die slecht zijn voor een bedrijf?
Vrouwen hebben een grotere neiging tot deeltijden en hebben een hoger verzuimpercentage, Een algoritme zal al snel de connectie zien tussen vrouw en meer afwezigheid bijvoorbeeld, en dan de beslissing maken om die als eerste eruit te bonjouren.
Is dat een eigenschap die alle vrouwen hebben? Als je op die manier gaat rekenen in je algoritme ben je snel door de lijst heen. Maar fijn dat jij graag een algoritme probeert te verdedigen dat de maker al heeft aangepast.
Bij een algoritme gaat het er niet om dat alle vrouwen dat hebben, het gaat over een dataset waar je conclusies uit kan trekken, dat weet jij net zo goed als ik.

Ik verdedig noch heb ik mijn mening gegeven over een algoritme. Jij stelt een vraag en ik geef antwoord, beetje sneu dat je dan meteen tot een persoonlijke aanval overgaat.
Stel dat vrouwen vaker vertrekken wegens zwangerschap. Moet je dan discrimineren tegen vrouwen zonder kinderwens?

Stel dat zwarten vaker arm zijn en dus vaker misdaden plegen. Moet je dan discrimineren tegen pakweg Obama als potentiële crimineel?

Dat is het gevolg van patroonherkenning zonder inzicht in de oorzaken. Je scheert iedereen in de groep over dezelfde kam.

[Reactie gewijzigd door Enai op 24 juli 2024 00:08]

We hebben het toch in NL gezien met Syri? Je krijg van dit soort kettingreacties aan de hand van statistieken:

- Er zitten vooral veel niet-westerse mensen in Nederlandse gevangenissen.
- Een Turk is een niet-westers persoon.
- Mensen die wonen in een achterstandswijkk frauderen vaker dan mensen in betere wijken.
- Mensen die frauderen zitten vaak in financiële problemen en gaan daarom de criminaliteit in.

Dan moet je maar net die ene Turk die eem woning in een achterstandswijk huurt omdat hij tijdens de huizencrisis niks kon vinden:

- Oh, hij is niet-westers.
- Hij woont in een achterstandswijk. Hij zal dus wel frauderen, en waarschijnlijk in de financiële problemen zitten. Dan gaat hij dus ook de criminaliteit in.
- Dan bestaat er een goede dat hij in de gevangenis terecht komt, samen met al die andere niet-westerlingen.

Hoppa, op de anti-fraudelijst ermee, en in de gaten laten houden door de politie.

Ondertussen gaat de betreffende Turk elke dag om van 14:00 tot 02:00 naar zijn werk om zijn eigen shoarma-tent draaiende te houden... maar het heilige algoritme zegt dat hij kan frauderen c.q. een gevaar kan zijn.

[Reactie gewijzigd door Katsunami op 24 juli 2024 00:08]

Het is nog veel erger. Je traint een algoritme op een al bevooroordeeld politieapparaat dat een de betreffende Turk sowieso al eerder in de gaten zou gaan houden. Dus als blijkt dat de Turk fraudeert heeft deze een grotere kans om gepakt te worden.

Vervolgens stop je dit in een algoritme dat Turken in achterstandswijken gaat aanmerken als risico, de politie/andere diensten focust zich alleen nog op Turken in achterstandswijken. Alleen Turken in achterstandswijken worden gepakt en die data gaat weer naar je algoritme.

Het is in de basis een verkeerd gebruik van data en algoritmes. Blijkbaar weet de overheid waar dingen vaak misgaan maar in plaats van het op te lossen wordt de handhaving disproportioneel op bepaalde groepen gegooid. Het resultaat hebben we gezien.
Crap in Crap out.

Maar er is niks mis met data verzamelen van mensen die aantoonbaar fraude hebben gepleegd en dan profielen op te stellen.
Dat er dus mensen daar invallen die soortgelijk gedrag vertonen/data overleggen en dat kan best zonder uiterlijke of culturele kenmerken.
Iemand die 40k bruto verdient kan legitiem een nieuwe BMW M5 bestellen maar laten we wel wezen dat dat niet fris kan zijn.
Ik heb niks gezegd over woonwijk, cultuur of huidskleur.

En desondanks dat we misschien wel woonwijk of achtergrond mee nemen.
Dan nog moet het resultaat geverifieerd worden, wat in veel gevallen niet gebeurt.
Bam meteen een boete, of direct eruit gebonjourd.

Terwijl als iemand eerst gewoon eens naar de uitkomst kijkt en die beoordeeld...
En desondanks dat we misschien wel woonwijk of achtergrond mee nemen.
Dat is precies waar het mis gaat. Op het moment dat je dit soort factoren mee laat wegen, komen mensen met een bepaalde achtergrond dus vaker omhoog als (mogelijke) fraudeur. Dit zorgt ervoor dat:
a. Mensen die niet aan deze criteria voldoen sneller wegkomen met fraude.
b. Mensen die wel aan deze criteria voldoen een grotere kans hebben om onterecht als fraudeur te worden aangemerkt.
c. Het model wordt weer getraind op deze data, waardoor dit effect versterkt
Het probleem daarmee is, dat de meeste algoritmes, niet aangeven hoe ze tot die conclusie zijn gekomen. Op welke objectieve criteria. En het daarom heel vaak heel lastig terug redeneren is.
Klopt. Klinkt niet fris.
Maar we vinden dat 'erg' als het om de gezegde Turk gaat, want ojee, racisme mag niet (en ik ben het inderdaad eens dat racisme iets is waar we vanaf moeten). Maar je kleurt het voorbeeld. Zulke algoritmes hebben op iedereen wel ergens een impact, vaker dan je zou denken... En dat accepteren we wel, want dat is 'het systeem'. Als echter nationaliteit een factor is, dan is het paniek, want dan is het racisme.

Wist je dat in de weging van je aanvraag voor een woonkrediet je emailadres meegenomen wordt? Wie een @hotmail.com adres gebruikt heeft statistisch gezien minder kans om correct terug te betalen. En dat vinden we ok, zolang wat voro die @hotmail.com maar 'jan.janssens' is...
Wist je dat in de weging van je aanvraag voor een woonkrediet je emailadres meegenomen wordt? Wie een @hotmail.com adres gebruikt heeft statistisch gezien minder kans om correct terug te betalen. En dat vinden we ok, zolang wat voro die @hotmail.com maar 'jan.janssens' is...
Dat wist ik niet, en het is compleet debiel. Mijn vriendin gebruikt nog steeds haar @hotmail-adres simpelweg omdat dat het eerste eigen e-emailadres was dat ze kon aanmaken, 20 jaar ofzo geleden, toen de 2 adressen van de provider (voor de rest moest je bijbetalen) al door haar ouders in gebruik waren.

Ik heb verschillende e-mailadressen gehad, waarvan nu het langstlopende op mijn eigen domein met mijn eigen naam staat. Ben ik dan nu super-betrouwbaar?
Het is vaak niet zozeer dat huidskleur or geslacht actief door het algoritme wordt meegewogen. Wel dat er racisme/discriminatie in de dataset zit welke gebruikt is om het algoritme te bouwen/trainen.

Bijvoorbeeld: veel vrouwen van eind 20/begin 30 stoppen met werken of gaan minder werken (en tegenwoordig geld dat ook steeds meer voor mannen). Want baby.
Algoritme ziet dat er een grotere kans is voor personen in de leeftijd eind 20/begin 30 ontslag nemen. Dus koppelt er uiteindelijk een hogere prioriteit/voorkeur aan bij ontslag - deze groep gaat toch wel weg. Onbewust en ongemerkt ontstaat er dus leeftijdsdiscriminatie: het ontwikkeld een voorkeur om jonge mensen te ontslaan op basis van statistiek en beschikbare data.

Daar zit het probleem, algoritme ziet alleen feitelijk vastgelegde meetpunten en niet de redenen of voorwaarden eromheen die wij als mens wel kunnen interpreteren - wij nemen automatisch onze levenservaring mee en kunnen conclusies trekken op basis van informatie welke buiten de dataset valt.

[Reactie gewijzigd door Xanaroth op 24 juli 2024 00:08]

Precies, en daarom is het dus ook een slecht idee om algoritmen dingen te laten beslissen die een grote impact hebben op het leven van mensen, simpelweg omdat iedereen een eigen verhaal heeft, eigen wensen en voorkeuren, en je dataset daardoor nooit compleet is en dus onvoorspelbare resultaten oplevert. Dan heb ik het nog niet eens gehad over fouten in de dataset.
Daar zit het probleem, algoritme ziet alleen feitelijk vastgelegde meetpunten en niet de redenen of voorwaarden eromheen die wij als mens wel kunnen interpreteren - wij nemen automatisch onze levenservaring mee en kunnen conclusies trekken op basis van informatie welke buiten de dataset valt.
Maar betekend dit dus niet dat de dataset beter getrained moet worden welke voorwaarden welke weging moeten krijgen?
(en dit is een menselijke setting die inderdaad gemaakt moet worden)
Maar betekend dit dus niet dat de dataset beter getrained moet worden welke voorwaarden welke weging moeten krijgen?
Nee, dit betekent dat we eerst daadwerkelijk kunstmatige intelligentie moeten uitvinden ipv kunstmatige stupiditeit.
Huidige iteraties van de techniek in dit gebied zijn allemaal gebaseerd op leermodellen die feitelijk niets anders doen dan mathematisch wegingen aan brengen tussen alle mogelijke datapunten op alle mogelijke manieren. Ze zijn heeee---l goed in het vinden van correlaties. Maar iedereen die ooit iets in de statistiek gedaan heeft, behoort je te kunnen vertellen: correlatie != causatie.

Je kunt aan de knopjes van het model friemelen en wegingen aan gaan passen zoveel je wilt; maar volledig geautomatiseerd zal het nooit maar dan ook nooit geschikt werken omdat het model gewoon niet kan wat het moet kunnnen om dat wel goed te doen: logisch redeneren.
De huidige kunstmatige stupiditeit kan niet redeneren. Causatie kent de boer niet; en vreet de boer niet.

En dat zal nog jaren en jaren zo blijven, want voor veruit de meeste toepassingen waarvoor 'big tech' deze wetenschap gefinancieerd heeft, zijn de huidige op correlatie gebaseerde leermodellen good enough.

[Reactie gewijzigd door R4gnax op 24 juli 2024 00:08]

registreren die systemen huidskleur (waarom?)
Omdat we zo hard ons best doen om niet te discrimineren, of om alleen maar aan te kunnen tonen dat we niet discrimineren, moeten bedrijven allerlei gegevens vastleggen zoals ras, afkomst, geslacht ("gender") etc. [Amerikaans rapport, dus linkje naar Amerikaanse website. Maar wij hebben vast ook wel dergelijke regels.]

Maar dat is vermoedelijk niet de oorzaak, want een bedrijf gaat dergelijk algoritmes geen toegang geven tot dat soort gegevens. Veel waarschijnlijker is dat het algoritme selecteert op andere gegevens die sterk correleren met huidskleur.

Dat zwarte werknemers dan meer ontslagen worden is geen gevolg van discriminatie, maar van toeval, omdat de wegings-factoren domweg meer voorkomen bij zwarte werknemers.
Die kunnen daar niets aan doen, en je kunt natuurlijk stellen dat dit een soort van indirecte discriminatie is, en dan heb je gelijk, maar wat kun je er aan doen?

Je kunt het algoritme en de wegings-factoren aanpassen. Dan heb je een algoritme dat het doel niet bereikt, dat schiet niet op.
Je zou het kunnen accepteren, met de waarschijnlijk niet zo populaire overweging dat als het algoritme meer zwarte werknemers ontslaat, er vroeger, bij het aannemen van de werknemers, aan de hand van dezelfde criteria, minder kritisch naar zwarte werknemers werd gekeken dan naar witte, anders had je nu geen verschil gehad. Probeer dat eens in een persbericht te zetten zou ik zeggen, dat gaat hem ook niet worden.

Of je zou tot de conclusie kunnen komen dat iemand door een geautomatiseerd systeem laten beoordelen, op basis van statistische gegevens, fundamenteel oneerlijk is. Het doel van dergelijk algoritmes is namelijk altijd onderscheid te maken aan de hand van proxy-gegevens. Welke criteria je ook hanteert, ergens wordt een bepaalde groep mensen benadeeld.

Maar ja, het is wel lekker snel en goedkoop.

[Reactie gewijzigd door locke960 op 24 juli 2024 00:08]

Vooral die laatste regel.

Bedrijven die een ontslagronde doorvoeren, doen dat meestal niet van weelde, maar domweg omdat de kosten zo snel mogelijk omlaag moeten.

Er zijn allerlei redenen te verzinnen waarom je de ene persoon eerder zou ontslaan dan de andere, maar vaak zijn die op persoons-niveau totaal willekeurig. Een bekende methode is bijvoorbeeld: Verdeel de werknemers in leeftijdsgroepen, dus van 20 tot 30 jaar, 30 tot 40, etc. en ontsla binnen elke groep de mensen die er het laatst bijgekomen zijn. Zodoende hou je van alle leeftijden mensen over, wat in een organisatie meer stabiliteit geeft dan bijvoorbeeld de laatst aangenomen personen het eerst ontslaan. Maar de ene persoon die net 50 geworden is, moet er dan uit terwijl zijn collega die niet 29 is geworden mag blijven, ook al zijn ze allebei net zo capabel en ook al is de 50'er beter in zijn werk of komt hij moelijker aan nieuw werk. Blijft natuurlijk uitermate frustrerend voor de 50'er.
Het is voor het bedrijf ook een manier om zich achter een vorm van objectiviteit te verschuilen. Geen vriendjes politiek, geen actieve discriminatie door ons management, dat soort dingen. Computer say you and you out!
In Amerika staat je "ras" op je legitimatiebewijs, dit wordt ook vaak meegenomen in personeelsbestanden.
Dan zou het probleem dus niet eens beginnen met de AI, maar met de verwerking van die gegevens op zich.
Je kan die systemen allerhande verschillende parameters opgeven. Zodra men er een parameter als huidskleur in stopt heb je wel een probleem. Je bent dan namelijk aan het discrimineren.
Meestal stop je er wel een sociaal diagram in. Daarvoor vaag je elke medewerker met welke collega's hij/zij/anders het liefst omgaat of samenwerkt en met wie het minst. Discriminatie is dan één van de zaken waardoor iemand niet graag met een ander samenwerkt. Afhankelijk van hoe discriminatie op de werkvloer geaccepteerd is zal de gediscrimineerde of de personen die discrimineren een grotere kans maken om ontslagen te worden.
Garbage in, garbage out; het lijkt zo vanzelfsprekend maar ik denk dat dat komt door de bubbel waarin we zitten.

Voor veel mensen is dit soort "slimme" software als magie. Je stopt er wat in, er komt een mooi overzichtelijk rapportje uit met wat KPI's, trends, en andere getallen en op basis daarvan wordt een beslissing gemaakt. Als je niet je verdiept hebt in de werking van het algoritme en de betekenis van de invoer, en vooral ook de uitkomst kan je zomaar verkeerde beslissingen maken.
Ja maar de resultaten werden getoond in een mooi rapport met grafiekjes en een logo dus het moest wel goed zijn.

Het verbaasd me echt. Je wilt toch niet je goede mensen ontslaan omdat een algoritme zegt dat het een goed idee is? Ik zou verwachten dat er een plan achter een ontslagronde zit met een visie van waar je naartoe wilt met de mensen die over blijven. Maar misschien ben ik een rare.
Het verbaasd me echt. Je wilt toch niet je goede mensen ontslaan omdat een algoritme zegt dat het een goed idee is? Ik zou verwachten dat er een plan achter een ontslagronde zit met een visie van waar je naartoe wilt met de mensen die over blijven. Maar misschien ben ik een rare.
Klinkt echt als een soort kaasschaaf operatie: overal moet er x% uit, laten we de minst productieve er uit kieperen. Je hoopt toch echt dat er in zo'n proces ook wordt nagedacht over iets doms als kennismanagement etc..
Bij massa ontslag wordt er over het algemeen nergens over na gedacht. Dit is management by excel wat nu vervagen is door management by ChatGPT.

Een bedrijf wat dit soort management methoden hanteert verdient het niet om mensen in dienst te hebben.
Ik heb me laten vertellen dat dit een typisch Amerikaans corporate model is.

Er wordt management aangenomen met als doelstelling x% meer winst te maken, ongeacht hoe, dat lukt... (is niet zo moeilijk als je alle andere aspecten van je productie laat vallen.)
Ze treken een bonus binnen en gaan naar het volgende bedrijf.

Wat mij werd verteld is dat hoe de grote Amerikaanse automerken werden ingehaald door alle andere.
Hier in Europa zijn we wat minder merken trouw / nationalistisch, dus zodra een merk zakt in kwaliteit, dan stappen we meteen naar een buurman.
Maar als je achterban in eerste instantie blijft kopen, dan komt er vanzelf een cultuur omslag als je aan de lopende band van omgeving hoort wat voor een ellende dat ze binnen halen met die keuze.

Edit typo

[Reactie gewijzigd door NEO256 op 24 juli 2024 00:08]

Inderdaad, het ontslaan van mensen wordt vaak gebaseerd op een wens voor de omzet per medewerker, vergeleken met andere bedrijven. Zelfde omzet en minder mensen = meer winst. En vaak wordt er dan gekeken naar de allermeest succesvolle bedrijven, die met relatief weinig mensen toe kunnen en hele hoge omzet draaien (zoals Apple), en dat wordt nagebootst. Want x omzet per medewerker "moet kunnen", ook al kwam het voorbeeld van een heel ander soort bedrijf in een andere sector. Het is puur denken in geld, met vaak onvoldoende oog voor de kennis die verloren gaat, de stress die er op de overige medewerkers komt te liggen, de minder goede bedrijfsvoering die overblijft, enz. Het aannemen en ontslaan lijkt me soms haast meer te kosten dan het oplevert; zeker als er daarna een goed jaar volgt en er weer massaal wordt uitgebreid...

Daar komt bij: het meten van de prestaties van werkers gaat bizar krom als het werk niet enorm simpel is. Het kijken naar prestatieniveaus gaat op heel gekunstelde manieren, zoals in programmeerwerk het tellen van het aantal geschreven regels of functies (er zijn programmeurs die alleen code verbeteren of herschrijven, die komen per saldo nooit op een positief aantal geschreven regels, als voorbeeld). De werksnelheid van de snelste werker wordt als standaard genomen, ook als die er met de Franse slag doorheen gaat. Creatieve oplossingen voor problemen laten zich niet tellen in vaste tijdssloten, want de één is veel complexer dan de andere, maar het wordt vaak toch geteld alsof het lopendebandwerk is. En zo tientallen meer factoren waardoor de ingewonnen informatie over de werkprestaties al flut is. Mensen gereduceerd tot cijfertjes en machientjes. En daar baseert het algoritme dan op wie er ontslagen moet worden...

[Reactie gewijzigd door geert1 op 24 juli 2024 00:08]

het tellen van het aantal geschreven regels of functies
Ik licht er nu specifiek dit voorbeeld uit omdat ik software-ontwikkelaar ben. Dit is natuurlijk een compleet debiele manier van beoordelen, want ik kan een functie bijna arbitrair lang of kort maken:
function pythagoras(a, b) {
a_sq = a * a;
b_sq = b * b;
c_sq = a_sq + b_sq;
c = sqrt(c_sq);

return c;
}

function pythagoras(a, b) {
return sqrt((a * a) + (b * b));
}
Dus de eerste functie is beter omdat die meer regels heeft? Als de eerste functie al beter is, dan komt dit doordat hij duidelijker is, want je ziet precies wat er gebeurt zonder de regel zoals in de tweede functie uit elkaar te moeten plukken. De balans tussen "te weinig regels" en "teveel regels" in een functie heeft te maken met duidelijke code, niet met hoe goed of productief de programmeur is.

Zoals ik al vaker heb gezegd: ik onderhoud een schaakprogramma. In die wereld wordt er (nog steeds) vooral met C gewerkt vanwge de snelheid, maar er lijkt ook een of andere drang te bestaan om "zo weinig mogelijk regels" te gebruiken. Daarom krijg je if-statements zonder haakjes, berekeningen worden op één regel in elkaar geprakt, en er worden simpelweg getallen gebruikt in plaats van constanten, want die kost een extra #define. Het gevolg is dat een dergelijk programma nauwelijks nog te begrijpen is behalve voor degene die het heeft geschreven OF mensen die (zeer veel) ervaring hebben in het schrijven van schaakprogramma's.

Ik gebruik in mijn programma overal constanten voor, en berekeningen worden stap voor stap, regel voor regel uitgevoerd met tussen-variabelen, zodat zelfs iemand die net begint exact kan zien hoe een functie tot een bepaald resultaat komt. Een groot deel kun je zelfs begrijpen als je enkel de regels van het spel kent en als je nog nooit een schaakprogramma hebt geschreven. De tussenvariabelen en constanten worden door de compiler toch uit de code verwijderd; in elk geval, tegenwoordig. De compiler klapt dat allemaal in tot het kleinste wat het kan zijn zonder het resultaat te veranderen.

Ik ben dus blijkbaar "productiever" dan anderen, omdat ik meer regels schrijf... maar mijn programma is "minder geniaal en ingenieus" omdat het zoveel regels gebruikt. Tja. Ik schrijf het liefste software die ik zelf ook nog begrijp, ook als ik er een half jaar niet aan heb gewerkt...
Herkenbaar. En dan ook nog 's het feit dat de code toch gecompileerd wordt, en daarbij is lang niet alles relevant zoals geschreven. Code in C of een andere hogere taal is specifiek voor de menselijke programmeur bedoeld en wordt al omgezet naar machinetaal voor uitvoering. Dat de broncode dan amper leesbaar is vanwege "optimalisatie" is inderdaad al snel heel onzinnig. Er is vaak verwarring tussen goede code, weinig code, snelle code, enz.

Het meten van de performance van een programmeur blijft een lastige, en de grootste techbedrijven lijken er het meest met de botte bijl in te gaan. Beslissingen vanuit de executive suite houden vaak bijzonder weinig rekening met de praktijk.

[Reactie gewijzigd door geert1 op 24 juli 2024 00:08]

Het meten van de performance van een programmeur blijft een lastige
Voor mij is een goede programmeur / software engineer iemand die:

- Zegt X dagen nodig te hebben voor een taak (als hij die kent omdat die al vaker is langsgekomen) en die dan ook kan uitvoeren in zeg X t/m X+1 dag.
- Code oplevert die werkt, alle edge-cases in overweging neemt, en niet hoeft te worden voorzien van 27 lagen aan bugfixes
- Code schrijft die anderen ook fatsoenlijk kunnen lezen en onderhouden zonder dat zij steeds moeten vragen "Wat bedoel je hier?"

Dan heb je misschien niet de allersnelste of allerslimste code, maar wel code die in productie gaat en dan zonder problemen kan blijven draaien totdat hij niet meer nodig is, vanwege welke reden dan ook.

[Reactie gewijzigd door Katsunami op 24 juli 2024 00:08]

- Zegt X dagen nodig te hebben voor een taak (als hij die kent omdat die al vaker is langsgekomen) en die dan ook kan uitvoeren in zeg X t/m X+1 dag.
- Code oplevert die werkt, alle edge-cases in overweging neemt, en niet hoeft te worden voorzien van 27 lagen aan bugfixes
- Code schrijft die anderen ook fatsoenlijk kunnen lezen en onderhouden zonder dat zij steeds moeten vragen "Wat bedoel je hier?"
Je vergeet bij punt 1 nog op te nemen dat de bestaande code waarop ze voort moeten borduren daarbij wel geacht dient te worden aan punt 2 en 3 te hebben voldaan. Want anders ga je zonder een fikse risico-opslag op je ontwikkeltijd, het absoluut nooit redden.
Klopt, dat heb ik in het verleden wel gemerkt, vooral met legacy-applicaties die ondertussen 15+ jaar oud zijn.
Er wordt met een heleboel zaken rekening gehouden Zelfs zoveel zaken dat mensen daardoor problemen hebben om door de bomen het bos te zien. Daarom is men juist algoritmes gaan inzetten. Dit maakt de initiele selectie eenvoudiger.

Men houd rekening met onder andere salaris, lengte van het dienstverband (last in, first out), beoordelingsgesprekken (rapportcijfers), gemaakte (over)uren, inzet,, groei potential binnen het bedrijf, levensstijl (rokers en mensen met obesitas hebben hier een flink nadeel), functie, aantal collega's op vergelijkbare plaatsen, etc. De meeste bedrijven huren dan een interim HR directeur in, welke de ontslagronde(s) uitvoert en daarna weer weg is. Zo'n interim manager kan dan met een redelijk botte bijl door de organisatie heen gaan want hij.zij kent niemand persoonlijk. Voor het bedrijf heeft het ook een voordeel omdat de boosheid dan voornamelijk gericht is op de manager en minder op het bedrijf zelf.

Zwarten en latino's trekken hier het vaakst aan het kortste lontje omdat zij vaak op low entry posities zitten en deze als eerste verdwijnen.

In just-cause staten vervangt men vaak vaste krachten door freelancers. Bij at-will states zie je dit minder vaak omdat bedrijven dan gemakkelijk personeel kunnen ontslaan. Hoewel je in een at-will state je eenvoudiger je baan kunt kwijt raken, doen bedrijven in deze staten ook veel sneller weer personeel aannemen zodra de positie van het bedrijf is verbeterd...
Werkt prima die meuk. :+
Twee weken later gebeld worden of je terug kan komen, de toko staat in de fik.
Ik heb een familielid die werd ontslagen bij Salesforce en nog geen 4 dagen later kwamen ze smeken om haar terug aan te nemen. Ze kreeg een salaris verhoging van 8%, maar ik denk dat ze gemakkelijk kon vragen voor 15-20% als ze niet zo'n pushover was.
Waarschijnlijk als ze bij een 'concurrent' of vergelijkbare partij aan de slag zou gaan, zou ze ook zomaar 15-20% erbij krijgen.
Twee weken later gebeld worden of je terug kan komen, de toko staat in de fik.
Mooi moment om over je loon te schakelen.

x4 is een goed startpunt.
In Nederland wel ja, maar in de VS niet. De VS kent wel een unemployment benefits systeem, maar dat is vergelijkbaar met de bijstandswet in Nederland. Er wordt geen rekening gehouden met je laatste verdiende loon.

Veel Amerikanen hebben niet de luxe om werkeloos te zijn. De meesten zullen het aanbod aannemen en daarna zoeken naar een betere baan...
Als er een visie was, dan waren er niet te veel mensen aangenomen die je nu weer wilt ontslaan.
Nou verbaast?
Waarom word er voor een systeem gekozen boven personeel?
Kan maar 2 opties zijn en dat is goedkoper (als ze allebij even goed zijn) of vertrouwen.
En laat ik over het laatst punt hebben.
Vertrouwen dat jou afdeling shef de slechte appels eruit plukt is niet meer vanzelf sprekend.
Ik heb zelf en ook van familie vrienden verhalen gehoord dat juist die verrotte appels blijven en goed personeel weg gestuurd word.
Want hoe waardering tegenwoordig werkt, is goed praten gaat boven goed personeel.
Maar zo'n plan en visie zijn dan toch onderdeel van dat algoritme?

Als ik wil dat al mijn medewerkers met de auto naar de klant kunnen dan kan mijn algoritme zijn dat ik iedereen zonder rijbewijs ontsla.
Dat kan ik dan verfijnen door degenen zonder rijbewijs nog te verdelen in degenen die zeker een rijbewijs gaan halen, misschien een rijbewijs gaan halen en wie zeker geen rijbewijs gaat halen.

En misschien hoeft de schoonmaakster helemaal niet naar de klant en hoeft ze dus ook geen rijbewijs te hebben, of wil ik juist zo flexibel mogelijk zijn dat ik haar in noodgevallen om een boodschap kan sturen.
Ik zou zelfs kunnen besluiten dat als de schoonmaakster nooit naar de klant gaat geen onderdeel is van mijn core-business en en dus beter uitbesteed kan worden.
Ze geven aan dat correlatie niet klopt omdat de input data soms niet correct is.
Dus wordt je dan ontslagen omdat een vinkje bij je CV / werk profiel niet aan staat.

"Is harry ontslagen?"
"Ja, hij had geen C + E rijbewijs + code 95"
"Maar hij is teamleider, van het noordelijk gebied, waar ze alleen voor regionale vracht code 95 nodig hebben waarvan ze 2 lichtingen in een week binnen krijgen en daar werken 4 vrachtwagen chauffeurs. En hij is de enige die de grote unimog mag rijden die ze gebruiken om vrachtwagens uit de modder te trekken."

Verdere... los daarvan, sinds de dag ik het eerste rapport uit een computer systeem gezien heb had ik zo iets van "leuk, maar van mij wordt verwacht dat ik al mijn berekingen en beredeneringen opschrijf als ik mijn werk doe. Dus dat moet hier ook."
Als ik dat niet kan, dan blijft er maar een fractie van mijn vertrouwen over voor dat rapport.want "het zal wel", kunnen fouten in de input, doorrekenen, uitzonderingen, afrondingen, waarden die als absolute worden opgepakt terwijl ze maar een fractie van de conclusie uitmaken, etc, etc.

Slot betoog: ik vertrouw niet blind op een rapportage uit een systeem, zolang het rechtlijnig blijft zoals facturen, prima. Maar ik zal er altijd even naar kijken en als ik dan rubrieken leeg zie worden of rare waarden uit zie komen dan ga ik het met de hand narekenen.

En als het over dit soort black box magic box systemen gaat, dan zou ik het alleen zien als een voorselectie of (zij) controle middel.
"Deze 4 personen komen er niet goed uit. Waarom vindt het systeem dat?
We gaan zo over onze assessments die we gemaakt hebben en kijken of dat overeen komt en of we tot dezelfde conclusie komen. Wellicht hebben we iets over het hoofd gezien."

[Reactie gewijzigd door NEO256 op 24 juli 2024 00:08]

Je moet in je algoritme dus wel opnemen hoe je de gewenste bedrijfsvoering ziet.
Als daar een chauffeur voor de grote unimog in voorkomt dan zou Harry daarvoor naar boven moeten komen.
Maar je kan ook al besloten hebben van die unimog af te willen en bergingsklussen voortaan uit te besteden, dan is Harry daar niet meer voor nodig.

En in mijn voorbeeld doelde ik eigenlijk op een eenvoudig rijbewijs B, dat is wat breder dan C + E + code 95.
Janoz Moderator PRG/SEA @Renoir21 februari 2023 10:24
Ik zou verwachten dat er een plan achter een ontslagronde zit met een visie van waar je naartoe wilt met de mensen die over blijven.
En dat plan, dat werk je uit. Hoeveel mensen heb je nodig voor die visie, wie passen wel en wie niet in die visie. Dat uitgewerkte plan, weet je hoe je dat noemt?

Een algoritme
Het verbaasd me echt. Je wilt toch niet je goede mensen ontslaan omdat een algoritme zegt dat het een goed idee is? Ik zou verwachten dat er een plan achter een ontslagronde zit met een visie van waar je naartoe wilt met de mensen die over blijven. Maar misschien ben ik een rare.
Wie is "je"?
Bij dit soort grote bedrijven is er niet één "je". Er zijn eigenaren/aandeelhouders, directeuren, middle management en allerlei andere groepen personeel. De kloof tussen die groepen is vaak enorm. De verhoudingen zijn zo dat de mensen hoog aan de top beslissen over de mensen onder hun, ook als ze die mensen nog nooit gezien hebben. Daarbij kunnen ze elkaars werk meestal niet beoordelen.
De bedenker van de reorganisatie heeft natuurlijk als doel om de "besten" voor het bedrijf te behouden, maar weten wie dat zijn is een lastige opgave als zelf een pure bestuurder bent die geen idee van inhoud heeft. Dan wordt er al snel gekozen voor de persoon met de vlotste babbel en de mooiste beloftes, want dat is wel bekend terrein. Rationeel gezien weet men echter best dat dit niet de beste resultaten oplevert maar als je dat toegeeft zeg je eigenlijk dat je niet geschikt ben voor je eigen baan. Dus wordt er naar algoritmes gekeken om wel een "rationele" beslissing te nemen.

Tip: als je zelf beseft dat je in de positie zit dat je mensen móet promoveren of ontslaan en je weet niet wie:
gebruik een dobbelsteen en laat het helemaal aan kans over! Wiskundig gezien zou dat beter moeten werken dan je baseren op je eigen gevoelens als je weet dat die gevoelens geen goede maat zijn.
garbage out lijkt me een prima resultaat in de context van een ontslagronde ;)
Dat klopt, en de meeste mensen hebben geen idee hoe een algoritme in het algemeen werkt (laat staan een specifiek algoritme) dus dan lijkt het inderdaad magisch. Ik snap dat de verkopers van die software er geen dikke disclaimers bij zetten (want dan valt hun verkooptrucje weg) maar dat zou eigenlijk verplicht moeten zijn als je de adviezen gebruikt voor vergaande beslissingen.
Niet alleen met algoritmes, maar met "data" in het algemeen is dat een steeds groter wordend probleem in mijn ogen. Ik zie het in mijn eigen werk en hoor het ook in mijn omgeving ook steeds vaker dat men zich soms helemaal laat sturen door fancy dashboards die door data-analisten zijn gebouwd.
Er wordt dan soms puur op basis van "data" een beslissing genomen, waarbij aannames worden gemaakt zonder die te valideren, en waarbij niet wordt nagedacht over waar de blinde vlekken in het verzamelen van de data zitten (of wat mogelijke valkuilen in de interpretatie zitten). Als je daar iets van zegt, krijg je een glazige blik. Er is geen algoritme nodig om niet weloverwogen beslissingen te maken helaas.
Het is als manager dan ook een stuk makkelijker jezelf te verstoppen als iets abstracts als "de getallen" of "het algoritme" om daarmee je handen in onschuld te wassen bij wat achteraf een foute beslissing bleek te zijn.

Dat dezelfde manager er voor verantwoordelijk is dat er überhaupt iets werd uitbesteed aan een stuk niet-afdoende geïnformeerde software, wordt dan netjes vermeden.
Soms lees je een titel van een nieuwsartikel en dan denk je echt: Wat een tijd leven we in.
Dat dus; vroeger kon je door je werk goed en correct te doen (en misschien iets meer te doen dan noodzakelijk) indruk maken op je directe leidinggevende, en op die manier je baan houden c.q. een betere baan krijgen. Nu moet je indruk maken op de computer door ervoor te zorgen dat je vinkjes zet bij de dingen die "het algoritme" belangrijk vindt, maar je weet niet wat voor dingen dat zijn.

Tijdens het functioneringsgesprek hebben leidinggevenden ook vaak heel veel te vertellen c.q. heel veel meningen betreffende mijn werk, maar ik zou me niet kunnen indenken waar hij die meningen vandaan haalt. Het enige dat ik me zou kunnen indenken is om na te vragen bij collega's, maar dat verwacht ik niet; ik heb immers zelf nog nooit vragen over collega's gehad.

Hetgeen ik vaker heb gehoord komt neer op "meer pro-actief, meer extravert", maar ALS je dan al eens iets pro-actief doet dan "was dat niet de bedoeling", en extravert ben ik al zeker niet. Tijdens mijn werk wil ik gewoon met rust gelaten worden vanwge: Why you don't disturb a programmer.

Dus ja; waarom niet. "Het algoritme" zou je gewoon kunnen ontslaan omdat je niet joviaal genoeg bent tijdens het werk en daarom pas je niet meer in het team en/of de uitstraling van het bedrijf, of je bent nét niet pro-actief genoeg, want je moet écht wel dingen op eigen houtje doen, maar ze eigenlijk nét niet uitvoeren zonder eerst toestemming te vragen. Ofzo. Weet ik veel. Weet de manager veel. De computer komt wel met een conclusie, denk ik.

Misschien word ik vanwege deze anti-algoritmepost wel geband op T.Net. Zou kunnen; weet ik niet. Weet T.Net zelf ook niet.

[Reactie gewijzigd door Katsunami op 24 juli 2024 00:08]

Ik werk al sinds vorige eeuw in de IT en wat jij beschrijft is echt van alle tijden. Aan het begin van het jaar vraag je om je doelstellingen, vraag je om de punten waar men graag verbetering wil zien. Aan het einde van het jaar verwacht jij dat daar serieus over gesproken wordt, denk je dat dit de basis is voor eventuele promotie, extra loonsverhoging et cetera.

Helaas zo werkt het niet. De opdracht die jou manager heeft is 'probeer de kosten laag te houden maar hou de mensen wel binnenboord'. En velen ervaren daarom de eindejaar gesprekken als vreemd. Zo gaat het al vele decennia binnen de IT en waarschijnlijk bij alle afdelingen.

Hetzelfde met reorganisaties, de manager van de afdeling moet vaak informeel aangeven wie hij wil perse wil houden en wie er weg mogen. HR brengt het vervolgens heel anders maar dat is toch echt bijna overal de basis van de reorganisatie.
Dat is IT bij een grote organisatie. En overigens ook precies de reden waarom ik niet bij een grote organisatie werk. Het tevreden houden van managers is gewoon niet mijn ding. Ik wil samen met het bedrijf iets succesvols neerzetten; mooie dingen maken; leuke dingen doen. En dat gaat niet samen met een x-aantal managementlagen.
Het bekende ‘pro-actief’ verhaal om te verhullen dat de betreffende leidinggevende zijn baan niet goed doet: een goede leidinggevende heeft geen pro-actieve medewerkers nodig: die zorgt ervoor dat medewerkers weten wat ze moeten doen, hoe, wat, wanneer en wat het doel is. Het is natuurlijk makkelijker om omlaag te pissen en te zeggen dat de werknemer pro-actief moet zijn: maar in dat geval zou een leidinggevende/manager overbodig zijn: want dat is letterlijk deel van zijn baan.
Pro-actief is een breed begrip, maar betekend ook zelf nadenken over waarmee je bezig bent (soms worden issues pas zichtbaar als men begint aan een opdracht), even snel een collega helpen als deze een probleem heeft, je ziet dat een opdracht meer tijd kost dan oorspronkelijk ingeschat, contact opnemen met een opdrachtgever als iets niet volledig duidelijk is (of vragen om verduidelijk aan een manager), etc.

Er is een reden dat men bij stand-ups, introspect en retrospect meetings ook notulen maakt. Als dan later er 'ineens' een probleem/vertraging is, kijkt men terug in de notulen of dit al eerder ter sprake is gebracht. Zo niet, dan komt er een aantekening in het dossier van de medewerker. Bij het functioneringsgesprek worden die aantekeningen bekeken en wordt je daarop aangesproken, ook wordt er gekeken naar hoe we de prestaties van een medewerker kunnen verbeteren, is er een certificatie pad, in hoeverre wordt dit pad nog gevolgd, moet het pad worden bijgesteld, etc.

Wij starten het gesprek meestal met de negatieve punten, dan de positieve punten en uiteindelijk de bonus/opslag regeling. Hierdoor verlaat vrijwel iedereen het gesprek met een prettig gevoel.
maar betekend ook zelf nadenken over waarmee je bezig bent (soms worden issues pas zichtbaar als men begint aan een opdracht)
Ik werk langer in de IT dan de meeste mensen waarmee ik samenwerk. Ik schrijf al hobbymatig software sinds ik 10 jaar oud ben. Heel veel dingen heb ik in het verleden al gezien vanwege fouten van mijzelf of brakke beslissingen van anderen, en ik ben in staat om ver van te voren te zien of iets wel of niet gaat werken zoals bedoeld. Het is bijvoorbeeld al vaker gebeurd dat ik heb aangegeven dat aanpak X of Y niet werkt, omdat je vastloopt als je op een gegeven moment wijziging A wilt doorvoeren, of optie B beschikbaar wil hebben. Dan krijg je vaak te horen:

- Die wijziging gaan we toch niet doen (... maar een half jaar later ...)
- Die optie hebben we niet nodig (... totdat de overheid de regels verandert ...)
- Jij ziet ook altijd overal beren op de weg (... ok, wacht maar af dan ...)

Dan leer je het wel af om pro-actief dingen aan te dragen eerlijk gezegd. Vaak genoeg geprobeerd, nooit wat mee gedaan.
Heel herkenbaar, dit. Het stukje met "I told you so"-logismes kan ik beamen. Maak ik vaak genoeg van dichtbij mee in situaties waar er vooral korte-termijn gekeken wordt.
Collega van me heeft serieus nog eens een ludiek shirt voor me gekocht als gag-gift met het opschift: "I'm not arguing. I'm just telling you why I'm right."

[Reactie gewijzigd door R4gnax op 24 juli 2024 00:08]

Tja. Ik bedoel... Neem het werk aan een 15 jaar oude applicatie die lastig te onderhouden en te wijzigen is. Je kunt niet zomaar het hele programma weggooien, want voordat je feature-parity hebt bereikt met een nieuwe applicatie ben je 2-3 jaar verder. Het feit dat de applicatie zo oud is geeft al aan dat een nieuwe applicatie ook zo lang mee moet kunnen. Aangezien je niet overnieuw kunt beginnen, heb je maar twee keuzes:

- Je schrijft nieuwe functionaliteit op een nieuwe manier, niet geïntegreerd met de oude applicatie. Stapje voor stapje schrijf je bestaande functionaliteit om naar deze nieuwe manier. Zo faseer je de oude applicatie uit door hem om te schrijven.
- Je begint met een nieuwe applicatie, compleet vanaf 0. Nieuwe functies schrijf je in deze nieuwe applicatie, en stap voor stap her-implementeer je oude functies uit de vorige applicaties. Zo faseer je de oude applicatie uit door functionaliteit te porten naar een nieuwe applicatie.

Je zult wel 2-3 jaar zitten met een chizofrene applicatie, maar daar is niks aan te doen.

Echter, als je die nieuwe onderdelen c.q. nieuwe applicatie op de "zo snel mogelijk" manier schrijft, dan krijg je WEER een on-onderhoudbaar monster, net zoals de applicatie waar je net vanaf komt.

Ik wil trouwens niet zeggen dat ik een alles-wetende software engineer ben; verre van. Ik ben er echter al HEEL lang mee bezig (hobby+boeken -> HBO -> uni -> werk + hobby-project(en)), dus dan leer je zo links en rechts wel eens wat. Jammer genoeg zijn het vaak niet de software engineers die beslissen hoe een stuk software gebouwd wordt, maar de managers: sneller en goedkoper, onderhoud en toekomstbestendigheid be damned.

[Reactie gewijzigd door Katsunami op 24 juli 2024 00:08]

Hetgeen ik altijd al heb gehord komt neer op "meer pro-actief, meer extravert",
In normale werknemerstaal betekent het dat je ideeen moet aandragen aan de leidinggevende waarna die er mee aan de haal gaat 😄

Dit type bedrijven verliezen altijd veel aan werknemers die als zelfstandige terugkomen omdat het minder gezeur is en onder de streep levert het je vaak wat meer op.

Oa in de zorg en onderwijs hebben ze daar veel last van en staan personeel en beleidsmakers/beleidswakers ver van elkaar.
ergens zijn we echt de meest chaotische tijdlijn in gegeaan
Marty at some point the timeline skewed off in to this timeline, where everyone is making terrible decisions based on nothing.
Ik begin mij langzamerhand af te vragen wat er mis is met human intervention tegenwoordig. Moet echt alles ad hoc de laatste tijd via AI en algoritmes gaan? Wat een triest zooitje is het aan het worden zeg.
Het probleem is veel algemener: het zelf nadenken wordt nauwelijks meer gestimuleerd, en tegelijkertijd wordt er een blind vertrouwen gelegd in wat op een scherm komt te staan.

Praktijkvoorbeelden die echt gebeurd zijn:

* Koop een 6-pack blik frisdrank. Bij het inscannen door de kassiere wordt er van 1 blikje de streepjescode gescand, waardoor er doodleuk gevraagd wordt om "60 eurocent" af te rekenen.
* Een programmeur die 10+10 intypt in z'n calculator en bij hoog en laag beweert dat dit "honderd" is.

Dit zijn dan nog gevallen om weg te lopen en met je hoofd te schudden, maar ondertussen gebeurd hetzelfde met nieuws/informatie.

AI is niet slecht, het kan op veel vlakken helpen. Zolang de mens nog maar blijft nadenken en verifieren in plaats van blind vertrouwen.
10 + 10 = 100. Binair.
Daarom schreef ik ook "honderd" en niet "100". "100" binair heet geen "honderd".
100 wel, honderd niet.
AI is niet slecht, het kan op veel vlakken helpen. Zolang de mens nog maar blijft nadenken en verifieren in plaats van blind vertrouwen.
AI is een tool, een tool om je betere besluiten doen te nemen. Maar een besluit nemen zoals wie wel ontslagen moet worden of wie niet moet altijd gemaakt worden op basis van het oordelen van een mens. Zo'n AI of algoritme kan namelijk niet één van de belangrijkste factoren in mijn ogen meewegen... gedrag.

Dus er komt altijd een menselijk oordeel bij. Ik mag hopen dat in Nederland de toeslagenaffaire een zeer belangrijke les is geweest om algoritmes niet blind te vertrouwen. Je kan wel op basis van patronen een profiel schetsen, maar de beslissing moet in mijn ogen altijd gedaan worden door een mens, naja eigenlijk mensen. Want een beslissing moet ook niet afhangen van een waarde oordeel.
Is lekker makkelijk. Dan hoef je je als mens nergens mee bezig te houden. Je leidinggevende hoeft je niet te vertellen waarom je daadwerkelijk ontslagen bent: "Sorry jong... IK zou je niet ontslagen hebben, maar het moet van de computer. Ik weet ook niet waarom."

Beetje zoals dit, maar dan andersom. "Computer says YES..." maar we weten niet waarom.
Ik begin mij langzamerhand af te vragen wat er mis is met human intervention tegenwoordig
Minder mensen = minder kosten -> aan het einde van een earnings call vertellen dat je kosten heb weten te reduceren dus aandeel gaat weer omhoog :). Of is dit te zwart wit gezien?
Dat je dit doet met extra mensen inhuren voor zulke rapportjes en adviezen, zet je gewoon weg onder 'change management budget', zien ze dat je nog goed bezig bent ook :P Maar van de bedrijven waar ik dit heb gezien, is dat ongeveer de strekking.

Maar het is voor de 'tussenlaag' ook 10x makkelijker mensen gewoon op straat te zetten, de 'het besluit komt van hogeraf' ging anno 2022 niet zo makkelijk, dus gaan we het met onverklaarbare, maar 'allomvattende' algoritmes doen.

Hoewel er wel iets van te zeggen is, de emotionele/menselijk factor wordt uit het besluit gehaald, een 'vrolijke en fijne' collega ontslaan zal minder makkelijk gaan dan 'die stille vage knakker', ondanks ze beide 'onder norm' presteren.

[Reactie gewijzigd door SinergyX op 24 juli 2024 00:08]

"Daarbij is het vaak onduidelijk waarom een algoritme een bepaalde conclusie heeft getrokken." Het lijkt mij waarschijnlijk dat een moreel bankrupt bedrijf dit in de toekomst zeker zal gaan gebruiken om "ongewenst" personeel te ontslaan. Door eigen eisen in te vullen aan het algoritme en dan te claimen dat dit geen discriminatie is. Het algoritme is immers onpartijdig.
Wat jij nu in jouw laatste zin zegt, komt voor mij te veel overeen met de houding van de mensen/wereld in het boek "The Every" van Dave Eggers (The Circle deel 2, zeg maar). Dat is inderdaad een gevaarlijke rand om op te zitten.

Voor elk model geldt: het is zo goed als de data die er in gaan. AI is uiteindelijk een geadvanceerde/complexe vorm van "fitting" (als in "fitting a function to data"). Als je dus niet de hele N-dimensionale ruimte goed gevuld hebt met de juiste datapunten, is het model uiteindelijk onvolledig. Let op: niet fout, maar onvolledig: (verkeerde) conclusies daaruit trekken is wel fout!
Denk dat er ook te snel doorgetrokken wordt van "algoritme" naar"AI".
Één is gewoon hartstikke logisch en opgesteld, bij AI worden deze (deels) automatisch geconcludeerd bijvoorbeeld naar statistieke waarschijnlijkheid gebaseerd op aangedragen data.

Het is dus belangrijk om niet te vergeten, ongeacht AI of zelf, wie en waarom een bepaalde factor en zijn gewicht, dan wel een constante of wet aandraagt en waarom.
Dit moet absoluut getoetst worden.

Maar voor velen is het een onbegrijpelijke zwarte doos die haast wel moet kloppen.
Laat staan dat ze weten waarom.

[Reactie gewijzigd door Verwijderd op 24 juli 2024 00:08]

Verklaar ongewenst personeel, waarschijnlijk politieke voorkeur en hoe meegaand men is met het steunen van bewegingen. (Twitter geschiedenis kan funest zijn)
ik dacht eigenlijk eerder aan personeel wat extra kosten met zich meebracht. denk o.a aan mensen met leerachterstanden, hogere leeftijd en fysieke of geestelijke beperkingen. de discriminatie die bedrijven tegenwoordig ook toepassen (hoe teleurstellend het ook is).
Vrijwel alle bedrijven in een enquête onder 300 Amerikaanse bedrijven zeggen algoritmes te gebruiken voor ontslagrondes, schrijft The Washington Post. Toch leunen lang niet al die bedrijven op die adviezen, omdat bij grote bedrijven 41 procent erop vertrouwt dat er voldoende en goede data zijn. Bij kleinere bedrijven is dat 25 procent.
Is dit wel zo ethisch verantwoord? Een computer systeem laten voorspellen of iemand een risico kan zijn.
Ik vind het maar vaag, op welke data kan dit voorspeld worden dan? wat wordt er allemaal bijgehouden van die werknemers qua data dan? Algoritme is mooi, maar moeten we dat werkelijk voor alles gaan gebruiken?

[Reactie gewijzigd door dutchnltweaker op 24 juli 2024 00:08]

Maar als een mens het gaat bepalen is het weer dat emotie bepaald en niet perse of iemand presteert.
Het probleem met beslissingen puur gebaseerd op prestaties is dat je optimaliseert voor een soort utilitarian maatschappij, en dat is waarschijnlijk niet wenselijk voor een prettig bestaan.
Dit mag in Europa niet eens op die manier. Iets met GDPR en automatische besluitvorming daar moet nog een menselijke factor tussen zitten maar ja het is maar net het niveau van wat er tussen zit.
Ook in Europa mag dit gewoon en wordt dit gewoon gedaan. Jouw werkprestaties staan allang in de computer. GDPR is zeer beperkt toepasbaar op de relatie werkgever en werknemer. Sterker, wij moeten juist aan dossier opbouw doen (letterlijk verzamelen van jouw gegevens en prestaties) om ontslag van een medewerker aan te vragen bij het UWV. Iets wat Amerikaanse bedrijven in just-cause staten ook moeten doen.

Nooit nagedacht wat werkgevers doen met het verslag van een functioneringsgesprek? Jouw manager moet jouw op verschillende punten rapportcijfers geven. Hoe vaak kom je te laat, hoe vaak ben je ziek, hoeveel fouten maak je tijdens je werkzaamheden, wat is de kwaliteit van je werk, hoe pas je tussen het team, etc. Als het positief is krijg je promoties, bonussen en opslag. Net zoals je met nagios/zabbix de prestaties van een machine kunt monitoren, doet een HR afdeling heel veel metrics over jouw functioneren verzamelen. En bij een ontslagronde wordt deze informatie ingezet om de eerste selectie te maken wie zijn baan verliest. Vervolgens bekijkt een HR medewerker nog snel deze dossiers en daarna wordt het proces in gang gezet...
GDPR is zeer beperkt toepasbaar op de relatie werkgever en werknemer.
Sorry, heb ik een wetswijziging gemist?

De GDPR zegt enorm veel over wat een werkgever wel en niet mag doen. Ik weet dat er veel gebeurt op employee analytics-gebied, maar het is écht onjuist dat dit allemaal zo zou mogen.
Voel me bijna vereerd bijgestaan door de master _/-\o_
Bij een reorganisatie in Nederland ben je wettelijk verplicht volgens het afspiegelingsbeginsel te werken.
En sowieso gaan eerst de externen etc. er uit voor de vaste krachten aan de beurt zijn. Hoe je functioneer in je baan is meer relevant bij een ontslag op staande voet en zo.
Men is steeds alles aan het automatiseren, zeker met gebruik van AI in versnelde schakeling.
Denk dat Sci-fi films als Terminator/Skynet toestanden toch geen fantasie meer zal blijken... Misschien niet met robots die mensen vermoorden, maar is al duidelijk dat voor een goede deel van mensheid hun toekomst (sterk) kan beïnvloeden.
Is iets waarbij men meer bewust moeten zijn en opletten.
Altijd alle moeilijke tickets oplossen? Ontslagen!
Te weinig tickets opgelost. Je collega's lossen meer op. O-)

Op dit item kan niet meer gereageerd worden.