Mensenrechteninstituut NL waarschuwt voor risico's algoritmes in onderwijs

Het College voor de Rechten van de Mens pleit voor meer bewustwording in het onderwijs wat betreft de risico's van algoritmes. Scholen maken steeds meer gebruik van algoritmes, maar er zou te weinig kennis in huis zijn om ze op een verantwoorde manier in te zetten.

Het gebruik van algoritmes in het onderwijs is in de afgelopen jaren fors toegenomen. Scholen gebruiken bijvoorbeeld lesmateriaal dat zich aanpast aan het niveau van een leerling of zetten software in die fraude kan herkennen. Hoewel algoritmes de werkdruk van leerkrachten en docenten kunnen verlagen en meer inzicht kunnen geven in het leerproces van leerlingen, stelt het College voor de Rechten van de Mens dat er ook risico's aan hangen. Er zou op scholen bovendien niet genoeg kennis aanwezig zijn om algoritmes op een verantwoorde manier in te zetten. Daardoor zouden leerlingen onnodig het risico lopen om gediscrimineerd te worden door de algoritmes, waarschuwt het College naar aanleiding van onderzoek door onderzoeksinstanties KBA Nijmegen en ResearchNed.

Ongeveer de helft van de basisscholen maakt gebruik van adaptieve leersystemen, waarbij de lesstof wordt aangepast aan het huidige 'niveau' van een leerling. Wie regelmatig fouten maakt, krijgt vervolgens makkelijkere oefenstof aangeboden. Leerlingen die het er aanzienlijk beter van af brengen, krijgen juist lastigere vragen over dezelfde stof voorgelegd. Het College voor de Rechten van de Mens stelt dat aan het gebruik van dergelijke software het risico kleeft dat het niveau van leerlingen niet altijd goed wordt ingeschat. Leerlingen met dyslexie, autisme of ADHD zouden bijvoorbeeld afwijkende antwoorden kunnen geven dan de leerlingen waarop het leersysteem is getraind. Daardoor kan het systeem deze leerlingen onterecht lager inschatten.

Ook in het hoger onderwijs worden algoritmes ingezet. Zo wordt er op hogescholen en universiteiten vaak gebruikgemaakt van antifraudesoftware. Hier zit het risico aan vast dat bepaalde groepen studenten benadeeld kunnen worden, zoals studenten voor wie Nederlands niet de moedertaal is. Algoritmes 'denken' bij deze studenten eerder dat er een AI-chatbot zoals OpenAI's ChatGPT of Googles Gemini is gebruikt, waardoor deze studenten sneller als fraudeurs worden aangemerkt door de software. Ook blijkt uit onderzoek dat de gezichtsdetectiealgoritmes van anti-spieksoftware minder goed werken bij personen met een donkere huidskleur, wat tot discriminatie kan leiden.

Het College voor de Rechten van de Mens waarschuwt dat discriminatie en kansenongelijkheid op de loer ligt. Daarom vindt het College dat onderwijsinstellingen voordat ze algoritmes inzetten een afweging moeten maken of de technologie een bijdrage levert aan goed onderwijs. Het College stelt daarnaast dat het lastig is voor docenten en schoolleiders om altijd kritisch te kijken naar de gebruikte middelen. "Mensen hebben nu eenmaal de neiging te geloven wat een computer zegt." Bovendien is er vaak onvoldoende informatie beschikbaar over de werking van algoritmes, wat het moeilijk maakt een goede beoordeling te maken. Het College vindt dan ook dat het Nederlandse ministerie van Onderwijs, Cultuur en Wetenschap scholen hierbij moet helpen, bijvoorbeeld door onderzoek te doen naar de effecten van digitale systemen, het geven van voorlichting over de risico's van algoritmes en richtlijnen opstellen waar een systeem aan moet voldoen om discriminatie te voorkomen.

Door Sabine Schults

Redacteur

13-05-2024 • 17:39

85

Submitter: Mystic_Jack

Reacties (85)

85
85
54
5
0
24
Wijzig sortering

Sorteer op:

Weergave:

Is het probleem het algoritme, of de mensen die er toezicht erop moeten houden en het toepassen?

Bij de Belastingdienst heeft het algoritme deels gewerkt, maar de toepassing erop heeft gefaald.
Het is in slechte gevallen beide, zoals bij de Belastingdienst. Dan krijg je en een model met discriminerende parameters en een algoritme dat zo false data verzamelt om fraudeurs op te sporen. Vervolgens zat er een matig controlerend, met de verkeerde prikkels aangestuurd ambtenarenapparaat achter dat helemaal meeging in het verhaal van 'der computer' en dat leidt nu indirect tot de actie over het onderwijs vandaag.

Het gebruik van AI is daar niet per se slecht en wordt steeds noodzakelijker omdat de werkdruk hoog is, maar kan zo waarschuwt het mensenrechteninstituut NL toch zonder dat docenten het doorhebben te veel valse plagiaat calls opleveren, donkere mensen in een achterstand plaatsten of biased zijn bij afwijkende antwoorden op toetsen. Ik denk dat het een belangrijke boodschap is daar alert op te zijn, alleen dat gaat nog wel heel wat voorlichting kosten.

Het lijkt me dat het toepassen van AI bij een paper of essay een nieuwe vorm van becijfering vraagt, wellicht kan het de kwaliteit dan doen toekomen als je het beloont in plaats van meteen afstraft.
Voor controles op plagiaat hoeven er toch geen persoonsgegevens worden gebruikt?
Het is net als bij andere zaken, gebruik geen onnodige informatie. Verder is de softwre goed voor assistentie maar zal er nog steeds gecontroleerd moeten worden.
Ik merk dat de term "algoritme" te pas en te onpas wordt gebruikt tegenwoordig, en dan in het bijzonder in de legacy-media. En het wordt helemaal irritant als de media het gebruikt in de context van discriminatie, terwijl juist machine learning alleen "discrimineert" als er ook een kern van waarheid achter het "vooroordeel" zit.
Nee machine learning modellen bevatten niet alleen bias als er een kern van waarheid achter zit. Data is altijd gekleurd, incompleet, etc. Meestal komt discriminatie bij machine learning door fouten in het ontwerp van het systeem, zoals data die geen goede weergave is van de realiteit.

In sommige gevallen lijkt het wel slechts ideologie en het is zeer belangrijk om daar een goede discussie over te kunnen voeren. Een hypothese daarover: dat is vooral het geval als je beslissingen moet nemen op basis van gebrekkige informatie, waarbij je niet wilt discrimineren tussen groepen terwijl er een echt verschil is. Dat verschil moet ergens door komen en het meenemen van extra informatie kan het acceptabel maken om wel degelijk de groepen in totaliteit anders te behandelen, omdat je de beslissing op basis van een oprecht relevante variabele neemt.

Ik kan me niet direct een situatie bedenken waarbij beschermde eigenschappen een causaal verband zouden hebben met geschiktheid of iets dergelijk, en waarbij het dus puur ideologisch zou zijn om niet te willen discrimineren terwijl het 'beter' zou zijn om dat wel te doen.
Ik vind een mooi voorbeeld het detecteren van kanker op röntgenfoto's.
Het systeem werd getraind met analoge foto's uit het archief - waar alleen kankergevallen op stonden, want de "schone" foto's werden niet bewaard. En met digitaal gemaakte "schone" foto's, gelukkug is daar een continue stroom van.
De machine getraind.
En waar reageert ie op: op de randen van de foto. Als ie een rand ziet zoals op een analoge foto, dan sloeg ie alarm.
Ander bekend voorbeeld is bij een studie rond melanoom, waarbij AI leerde herkennen wanneer er een liniaal op de foto stond er veel grotere kans was dat het een melanoom was. Dit kwam doordat huidartsen als ze het niet vertrouwden het gingen opmeten.

Het gaat echter vaak bij machine learning niet om domme fouten, maar om fundamentele beperkingen op de beschikbaarheid van data. Je kunt bijvoorbeeld niet terug in de tijd. Data uit het verleden kun je dus niet herstellen of aanvullen, je kunt het hooguit in de toekomst beter doen en meer meten.
Het probleem met een algoritme leren om patronen te ontdekken, is dat de data die het gebruikt om te "leren" nu al vaak onvolledig is. Er wordt altijd gegoocheld met cijfers, en cijfers die weer overlappen. "Het aantal verkeersdoden is gestegen". Deze zin is nutteloos zonder specifieke informatie: Aantallen, leeftijden, soort vervoersmiddel, weersomstandigheden dat jaar, locaties, economische omstandigheden zelfs (meer/minder mensen op de weg) en zelfs culturele achtergrond (wel of niet in NL opgegroeid en bekend met ons verkeer, verkeersdiploma gehaald etc) en nog heel wat meer. We mogen echter niet meer alles registreren tegnwoordig, wat het enorm lastig maakt om een goed leer- of fraudemodel te maken.Er zijn nu eenmaal culturele verschillen die doorwerken in iemands handelen en denkwijze.
Tja, kinect werk(te) ook niet goed op zwarte mensen en dat was geen AI.

Het is mogelijk om discriminerende algoritmen te schrijven, bewust of onbewust.

Bij 'machine learning' is het ook eenvoudig om het algoritme te trainen op mensen met specifieke kenmerken.
Of het is gewoon makkelijker om een algoritme te schrijven dat beter werkt door het hoge contrast van een blanke huidskleur.
Bij een donkere huidskleur is het veel moeilijker om onderscheid te kunnen maken in kleine tint verschillen of bloed doorloop. Het kost daarom meer werk om 'een algoritme' even goed te laten werken.
En tot dat dat goed werkt moet je het dus niet gebruiken. Dat heet dan een halfbakken product.
behalve dat die kenmerken op zich ook weer alleen uiterlijke kenmerken zijn die allerlei onderliggende oorzaken kunnen hebben Bloed doorloop? Is dat omdat ik zenuwachtig ben? of omdat ik de avond tevoren gezopen heb of een beetje koorts heb? En als ik zenuwachtig ben komtvdat omdat ik weet dat ik slachtoffer kan worden van een algoritme. Niet omdat ik wat fouts heb gedaan.
(…) terwijl juist machine learning alleen "discrimineert" als er ook een kern van waarheid achter het "vooroordeel" zit.
Dat is natuurlijk onzin. Machine learning neemt gewoon de bias over uit de trainingsdata.

Om een voorbeeld te noemen: er is, zeker in de VS, duidelijk sprake van discriminatie door de politie en justitie tegen mensen met een donkere huidskleur. Die mensen worden sneller opgepakt, eerder verdacht gevonden, krijgen langere celstraffen voor hetzelfde vergrijp, etc. Als je vervolgens de databases met arrestaties en rechterlijke uitspraken gaat gebruiken om een model te trainen dat potentiële criminelen te identificeren dan zal het resulterende model net zo racistisch zijn.
@Aaargh!
Juist de cijfers in Amerika voor homocides die per etniciteit zijn gedaan op iedere etniciteit zijn heel duidelijk in beeld gebracht. Daaruit blijkt duidelijk dat sommige etnische groepen extreem oververtegenwoordigd zijn. Dat zijn dus de feiten die je trainingdata vormen, en hebben uitkomst op classificatie van je model.

Jij insinueert dat trainingdata biased is, hierbij is jouw aanname wellicht dat meetmethode biased is? spoiler: dat is niet waar.

zie hier voor NYC de data https://www.nyc.gov/site/...s-analysis/crime-enf.page

[Reactie gewijzigd door mschuurman op 22 juli 2024 13:35]

Dat is natuurlijk niet waar, er worden correlaties gevonden. Dat zijn niet altijd waarheden.
Mensen gaan in de zomer naar het strand. Daar kopen ze een ijsje. Vervolgens gaan ze zwemmen, en worden ze gebeten door een haai.
Hoe meer ijsjes er verkocht worden, hoe meer mensen er gebeten worden door een haai.
Dus het kopen van een ijsje moet er wel voor zorgen dat je gebeten wordt door een haai.

De meeste mensen snappen dat dit niet logisch is, en dat zowel de stijging in ijsverkoop als haaienbeten het gevolg zijn van meer mensen op het strand, wat weer komt door het mooie weer.
Maar een computer ziet alleen variabele X (ijsverkoop) en Y (haaienbeten).
En dus kan correlatie heel makkelijk verward worden met causatie.
Ook in het hoger onderwijs worden algoritmes ingezet. Zo wordt er op hogescholen en universiteiten vaak gebruikgemaakt van antifraudesoftware.
Zolang dergelijke software gebruikt wordt en problematisch is, zouden academische instellingen op verzoek verplicht toetsen fysiek moeten faciliteren. Ook niet comfortabel, maar er is dan tenminste een alternatief voor de student die vaak in een slechte onderhandelpositie zit.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 13:35]

Het gaat hier niet om toetsen maar om te beoordelen of een paper/essay zelf geschreven is of (deels) geplagieerd. Lijkt mij niets mis mee.

/edit: dit raakt een gevoelige snaar blijkbaar. Ter verduidelijking: lijkt me niets mis mee als je paper wordt gecheckt op aantoonbaar plagiëren uit bestaande teksten. Heeft niks met AI te maken, maar gewoon controleren of tekst ergens anders al eens is gepubliceerd. Als de plagiaatscan flagged dat het door GPT is geschreven, dan is het aan de docent om hier het gesprek over aan te gaan en zelf te beoordelen of de student dit zelf geschreven heeft. Je gebruikt de ai dan als hulpmiddel.

[Reactie gewijzigd door bas-r op 22 juli 2024 13:35]

Niks mis mee totdat het een random selectie woorden of zelfs je eigen naam aanvinkt als gestolen/gekopieerd, wat dus al vaak genoeg voorkomt...

Zo heeft bijv een vriendin van mij minpunten gekregen omdat ze dezelfde naam had als een personage in een boek, dan denk je "ja dat is toch makkelijk om te verwerpen" ja als je een beetje redelijke leraar hebt wel ja, er moest in dit geval best wat aan toekomen om die minpunt weg te halen...

Software zoals dit is leuk maar maakt ook leraren soms gewoon te lui om zelf iets te doen.
Inderdaad, dit soort software is echt zeer matig. Zelfs als je een quote tussen aanhalingstekens plaatst en de referentie er meteen na, wordt het nog aangemerkt als "plagiaat".
En het werkt ook verschrikkelijk slecht als je verplicht wordt bepaalde bronnen te gebruiken, omdat er dan altijd overlap zal zijn met medestudenten, en de tekst vervolgens aangemerkt wordt als "plagiaat".
Gelukkig gingen de docenten er bij ons altijd goed mee om en hebben deze rariteiten nooit voor problemen gezorgd.
Maar dit laat wel zien hoe "slim" deze software dus overduidelijk niet is.
het kan nog gekker. Een student van ons is geflagged omdat zij in een essay over een lastig onderwerp een tekst aanhaalde die ze nota bene zelf eerder had gepubliceerd. Volkomen correct gebruik dus, maar als wij dat dus niet hadden geweten, dan was het wellicht een probleem geweest.
Wat ik hier lees is dat mensen die zichzelf citeren geflagged worden. An sich is de "flagging" niet verkeerd, want je citeert een tekst. Het is de software die zegt: dit heb ik al eens ergens anders "gelezen"!! Terecht. Echter, de docent/leerkracht behoort wel te kijken waarom het geflagged is en hij/zij moet ook beoordelen of het terecht is.
Een ding wat ik niet lees in de reacties, is dat er een duidelijke bronvermelding bij staat. Dat hoort er namelijk gewoon bij, ook als je uit publicaties die jezelf hebt geschreven geciteerd hebt. Citeren behoeft altijd een bron.
Ik geef zelf college op de universiteit en je ziet bij de plagiaatdetectiesoftware altijd welke passages zijn herkend en wat de bron van die passages is. Je krijgt nooit alleen een herkenningspercentage, maar ziet altijd ook de details. Sterker nog, het is universiteitsbeleid om eerst zorgvuldig daarnaar te kijken voordat je iets oormerkt als plagiaat.
Software zoals dit is leuk maar maakt ook leraren soms gewoon te lui om zelf iets te doen.
Dit is iets wat docenten zelf helemaal niet kúnnen doen. Ik kan niet uit mezelf zien of een bepaalde passage verbatim is overgenomen of niet, laat staan de exacte bron achterhalen. Misschien dat dat nog kan bij een middelbare scholier die normaal heel slecht schrijft en dan opeens een mooie volzin duidelijk van wikipedia heeft gekopieerd met de verwijslinkjes er nog in. Maar op de universiteit kan ik als docent niet aankomen met het argument dat iets 'te goed' geschreven is, o.i.d.

Overigens heb ik zelf nog nooit meegemaakt dat een student echt moedwillig heeft geplagieerd. Wat wel veel gebeurt is dat studenten slordig zijn met bronvermelding of te veel/onjuist citeren.
wat er mis mee is, is dat de software niet werkt voor de huidige AI modellen, er zitten dus heel veel false positives tussen. Zelfs de makers van de software zelf hebben dit toegegeven, menig student wordt dus ten onrechte van plagiaat beschuldigd omdat de software zegt dat ze GPT gebruikt hebben om het te maken, wanneer dit helemaal niet het geval is.
Het is een HULPMIDDEL. Het is aan de docent om de melding van de software te interpreteren en beoordelen of een student daadwerkelijk heeft gefraudeerd / geplagieerd. Op de hogeschool waar ik werk en de universiteit waar ik gestudeerd heb volgt altijd een gesprek met de student indien er vermoeden van fraude of plagiaat is. De software is géén bewijs.
Dat zeggen ze dus, net als bij de Belastingdienst. Veel leraren gaan er echter meteen vanuit dat je fraudeert omdat ze de tools 100% vertrouwen. De computer zal het wel weten, toch?
Hoe kom je daarbij? Kun je dat onderbouwen met bewijs of voorbeelden uit de praktijk die geen incidenten betreffen? Of is 't een onderbuikgevoel, wat meestal 't geval is?
Daar kom ik bij door onder andere dit paper: https://www.newscientist....athematically-impossible/, dit nieuwsbericht: https://nypost.com/2023/0...stitution-was-made-by-ai/ en talloze andere nieuwsberichten en forumposts waarin mensen onterecht zijn beschuldigd van het gebruik van A.I.

Dit soort tools hebben hetzelfde bedenkelijke niveau als leugendetectors of handschriftdeskundigen.
Daar kom ik bij door onder andere dit paper: https://www.newscientist....athematically-impossible/,
Ik ga de inhoud van dat onderzoek uiteraard niet ter discussie stellen, maar dat zegt niks over hoe IEDERE docent zo'n tool gebruikt. En die tools doen meer dan alleen AI-detectie. Plagiaatdetectie zijn ze bijv wel goed in.

Wat in het nieuws komt over studenten die onterecht beschuldigd zijn van fraude d.m.v. AI zijn incidenten. Er worden wereldwijd dagelijks miljoenen stukken van studenten door plagiaat-/fraudesoftware gecontroleerd. Dat het dan incidenteel misgaat, is niet fraai, maar haast onvermijdelijk. Zonder die software zouden er ook studenten zijn die ten onrechte van iets beschuldigd zouden worden. Mensen maken namelijk ook fouten.

Ik hou het dicht bij huis, en heb genoeg gezien om te kunnen stellen dat het daarom geen anekdotisch bewijs is, maar het aantal keren dat studenten ten onrechte beschuldigd worden van fraude worden is echt heel, heel erg klein. Het aantal keren dat studenten wegkomen met fraude is vele malen groter. Die stelling durf ik wel aan.

Dat neemt niet weg dat als AI-detectie nagenoeg onmogelijk blijkt te zijn, die software daar inderdaad niet voor mag worden gebruikt. Dus uiteindelijk zijn we het wel met elkaar eens ;)
Dat komt m.i. doordat we in het verleden computersystemen hebben gebouwd waarbij data-integriteit belangrijk was. De invoer werd gedaan door mensen die nadachten over wat er in de systemen werd gezet, en gebruikt door mensen die geleerd hebben erop te vertrouwen dat wat er staat correct is.

Diezelfde mensen moeten nu gebruik maken van nieuwe technologie die door patroonherkenning een oordeel geeft. Natuurlijk vertrouwen die eindgebruikers daarop, zij weten immers niet beter dan dat wat de computer aangeeft correct is.

Die patroonherkenning is alleen nog niet zo goed dat er zonder menselijke beoordeling blindelings op vertrouwd kan worden. Dat blijkt wel uit de anekdotes die ik hier lees, daarnaast zijn er talrijke studies en documentaires (Coded Bias op Netflix bijvoorbeeld) gemaakt over bias in AI/ML.

Hier een artikel van IBM met een paar praktische voorbeelden uit de praktijk:
https://www.ibm.com/blog/...with-real-world-examples/
Juist- Typisch toch ook wel. ChatGPT doet alleen maar aan plagiaat en gaat vervolgens de mensen die verantwoordelijk zijn voor de aanlevering van de data,'beschuldigen' van plagiaat.... O-)
Het gaat hier niet om toetsen maar om te beoordelen of een paper/essay zelf geschreven is of (deels) geplagieerd. Lijkt mij niets mis mee.
Ook.
Ook blijkt uit onderzoek dat de gezichtsdetectiealgoritmes van anti-spieksoftware minder goed werken bij personen met een donkere huidskleur, wat tot discriminatie kan leiden.
I stand corrected. In mijn beleving werd proctoring alleen gebruikt tijdens Corona, en om de reden die wordt genoemd zijn de onderwijsinstellingen daar inmiddels mee gestopt. Maar toch goed dat dit ook meegenomen is in dit onderzoek.
dat kan niet bij e-learning. Anders heeft bij bijna iedereen de voorkeur bij ons in Twente. Mondelinge examens zijn ook erg goed om te toetsen maar kan alleen bij kleine aantallen.
Een tentamen is maar een manier van toetsen. vraag en antwoord. Het gebruik van AI bij het inleveren van werkstukken is steeds moeilijker te zien dus we zullen naar nieuwe manieren van toetsen toe moeten om de vaardigheid van een rapport schrijven te toetsen. Of de hele wereld gebruikt AI en dan is het niet erg meer, of wordt normaal gevonden.

[Reactie gewijzigd door tw_gotcha op 22 juli 2024 13:35]

dat kan niet bij e-learning.
Open Universiteit lukte dat jarenlang.
Anders heeft bij bijna iedereen de voorkeur bij ons in Twente.
"Waarom zou je je klanten faciliteren in wat ze willen?"

Degenen die dit beleid hebben gemaakt hebben het nooit zelf ervaren. Academiache cultuur is apart. Veel ladders achter je omhoog trekken als je het éénmaal hebt "gehaald". "Fuck you, got mine."

[Reactie gewijzigd door The Zep Man op 22 juli 2024 13:35]

ik begrijp je reaktie eigenlijk helemaal niet. De klant is de student. faciliteren in wat ze willen? daar gaat dit helemaal niet over. Je toetsbeleid moet zo zijn ingericht dat een student aantoonbaar een bepaald niveau gehaald heeft, en ook kan halen. Dat zit verankert in het NL accreditatie beleid, en opleidingen worden eens in de 5 jaar daarop getoetst door de NVAO, en of hun kwaliteitscyclus op orde is. De open universiteiten toetsen dacht ik ook live en niet online. Alle studenten komen naar een lokatie voor de toetsing. Voor derest snap ik totaal niet wat je zeggen over ladders omhoogtrekken? Er wordt hier heel hard gewerkt aan een eerlijke omgeving voor studenten te scheppen en anders stappen ze naar de examen commissie.
Edit: was bedoeld als reactie op bas-r hieronder.

Het blijkt dat de nauwkeurigheid van tools die moeten aantonen of een tekst al of niet door A.I. is geschreven, erg slecht is. Het schijnt ook wiskundig onmogelijk te zijn om dit op een betrouwbare manier te doen (weet zo niet de titel van het paper hierover).

De tools zijn afkomstig van commerciële partijen met een goed marketingteam en een gelikte website. Het erge is dat veel leraren deze tools 100% vertrouwen. De valse legitimiteit van “de computer zegt het”. Ik heb al meerdere malen verhalen gelezen van leerlingen of studenten wiens verslag door een false positive van zo’n tool werd afgekeurd. Niet transparant en zeer moeilijk om tegenin te gaan. Soms worden ook papers van de leraar zelf - geschreven in de tijd voor chatgpt - als A.I. geflagd en dan verandert de attitude.

Goed dat dit aan de kaak wordt gesteld, ik erger me al tijden aan het gemak waarmee men in het onderwijs deze technieken omarmt zonder aan de consequenties te denken.

[Reactie gewijzigd door Wilfred86 op 22 juli 2024 13:35]

Ik zou het niet fijn vinden om een fysieke toets te moeten doen (naar locatie, etc.), omdat een algoritme voornamelijk getraind is op een andere huidskleur en mij daardoor niet kan peilen.
Omdat mijn huidskleur anders is, heb ik ineens minder studie/examen mogelijkheden.

[Reactie gewijzigd door 5V1NA70G op 22 juli 2024 13:35]

Zolang dergelijke software gebruikt wordt en problematisch is, zouden academische instellingen op verzoek verplicht toetsen fysiek moeten faciliteren. Ook niet comfortabel, maar er is dan tenminste een alternatief voor de student die vaak in een slechte onderhandelpositie zit.
Volgens mij is het probleem een lerarentekort en tracht men dat te ondervangen met software. Dus je kunt wel wijzen op de problemen die dat mogelijk veroorzaakt, maar dat neemt het onderliggende probleem niet weg.
Is er een tekort of het verdient te weinig om leraar te zijn?

Leraar is best een leuk vak, maar ik zou er dermate veel op achteruitgaan dat het geen logische carrièrestap is.
Bor Coördinator Frontpage Admins / FP Powermod @Accretion13 mei 2024 18:29
Is er een tekort of het verdient te weinig om leraar te zijn?
Het een kan natuurlijk komen door het ander. Een beroep dat niet super goed verdient krijgt al snel bij veel mensen die keuze hebben niet de voorkeur. Ik denk echter dat de problemen in het onderwijs groter en breder zijn dan alleen de salarisschaal.
Sterker nog, de salarissen zijn helemaal niet slecht. Zeker niet als je naast alleen lesgeven nog wat extra dingen doet voor het schoolbestuur. Het is de werkdruk. Lesgeven is leuk, maar niet aan 30 kinderen tegelijk. Waar tegenwoordig ook allemaal kinderen met stoornissen tussen zitten omdat het speciaal onderwijs daarvoor is wegbezuinigd.

Als je een overzichtje maakt hoeveel lesuren er in een volle baan gaan, dan zijn de scandinavische landen goed af. Daar is de werkdruk veel lager omdat de klassen kleiner zijn en de tijd die leraren nodig hebben om een les voor te bereiden of werk na te kijken, ook gewoon betaald wordt.
Dus het betaalt niet slecht als je meer dan de basis uren aan werk er in stopt wat qua werkdruk al hoog is en dus ook nog eens allerlei extra taken op je schouders nemen. Hoeveel uur werk je dan?

En dertig kinderen een uurtje les geven is echt veel zwaarder dan een uurtje kantoorwerk.

Werk nu zelf in het speciaal onderwijs, maar verdien nu minder en werk een dag extra meer dan voorheen om het verschil minder groot te maken. Het is echt een roeping.
Ja, ik denk ook wel dat het een roeping moet zijn. De meeste mensen houden het niet vol. De werkdruk is niet alleen hoog, het is een ander soort druk dan bij een normale baan. Als je in een normale baan iets niet op tijd af krijgt, dan kost dat hooguit geld. In het onderwijs hebben leerlingen er last van. Niet op tijd alle stof behandelen kan betekenen dat sommigen het examen niet halen.

Ik zie dat veel docenten over hun eigen grenzen heen gaan om de leerlingen te helpen. Inderdaad, extra werken buiten de betaalde uren, of extra begeleiding doen. Het is natuurlijk mooi dat ze hiertoe bereid zijn, maar die uren zouden gewoon betaald moeten worden. Als ik in het bedrijfsleven extra uren maak zijn die ook gewoon betaald.
Het is een roeping, heb ik me laten vertellen.
Het probleem van veel leraren is nog niet eens het salaris, in ieder geval niet voor het soort leraar waar het in dit document over gaat, kijk de CAO's er maar op na. Maar decennia van stakingen vanwege werkdruk hebben het beroep natuurlijk niet echt een goed imago gegeven.

Om het maar niet te hebben over de uitgerangeerde mensen uit het zakenleven die daar hun geluk maar beproeven, of degene die met z'n 50e reeds aan z'n pre-pensioen is begonnen, maar nog altijd voor de klas zit.
Het gebeurt andersom ook heel veel. Zoveel goede leraren gaan na een paar jaar toch maar naar het bedrijfsleven omdat ze de druk in het onderwijs niet aankunnen.

In het onderwijs heerst een heel ander soort druk dan in het bedrijfsleven. Een leraar die een dagje ziek is of vrij neemt (gelukkig kan dat tegenwoordig een paar dagen) kan het verschil maken tussen een leerling die zakt of slaagt voor z'n examen. Da's een heel ander soort druk dan die je ervaart omdat je manager boos wordt omdat je je rapporten te laat inlevert.
Een leraar die een dagje ziek is of vrij neemt (gelukkig kan dat tegenwoordig een paar dagen) kan het verschil maken tussen een leerling die zakt of slaagt voor z'n examen.
Als een leerling zodanig op de valreep zit, is het niet de schuld van de docent.
Probeer het volgend jaar nog een keer.
Het is ook geen schuld, maar wel je verantwoording als leerkracht. Als je docent je zo laat zakken en de deur op je neus dicht gooit, wat is dan de motivatie om het volgend jaar beter te doen? Of bij wie ga je dan om hulp vragen?
De leraar verantwoordelijk voor het slagen of verantwoordelijk om niet ziek te zijn?

Als je op het randje zit om te slagen, dan is het uiteindelijk je eigen verantwoordelijkheid om te zorgen dat je de goede kant op valt. Genoeg leerlingen die wel slagen, dus of je doet niet je best of je zit in een te hoog niveau.

En als je niet slaagt omdat je een les gemist hebt (of omdat de vervanger niet goed zijn best deed) heb je daarna toch een heel jaar aan lessen om bij te spijkeren.

Uiteindelijk is het beter als het kind met marge slaagt dan wanneer het net over het randje heen slaagt.
Omgaan met tegenslagen en daar beter uit komen, is wellicht de beste les die je kunt leren.
wat is dan de motivatie om het volgend jaar beter te doen?
Het wel behalen van een diploma wellicht?

Je kunt niet iedereen speciale aandacht geven en je kunt niet iedereen een WO/HBO diploma geven, zeker niet als ze zonder speciale aandacht niet dat niveau kunnen halen, dan krijg je dat ze in hun loopbaan steeds achter de feiten aan lopen.

[Reactie gewijzigd door Accretion op 22 juli 2024 13:35]

Verantwoordelijk voor de motivatie, de meeste pubers zijn vrij fatalistisch en denken redelijk zwart wit, zetten zich af. Dus als je als docent die weerstand voedt door ze de deur te wijzen ipv de verbinding opzoekt dan bevestig je alleen maar dat ze niet geschikt zijn. Dan leren ze dat ze beter kunnen weglopen van tegenslagen want dat geeft een beter gevoel.
Op het WO/HBO niveau speelt dit veel minder naar mijn idee. Dan heb je al ervaring en een diploma op zak, ben je door je pubertijd heen. Als je op dat niveau een dag mist, dan zou je dat inderdaad zelf makkelijk moeten kunnen compenseren en anders inderdaad jammer dan, tijd om eerst eens aan jezelf te werken en dan pas weer verder studeren.
We hebben het wel over kinderen he. Natuurlijk is het je eigen verantwoordelijkheid, maar op die leeftijd begrijp je nog niet wat zakken voor gevolgen kan hebben. Je bent hooguit bezig bij wie je dan het volgende jaar in de klas zit.

Wat ik bedoel is dat docenten in het algemeen erg begaan zijn met leerlingen, en daardoor vaak meer doen dan ze volgens hun taakomschrijving exact moeten doen. Ik vind dat die uren gewoon geschreven en betaald moeten worden. Het oordeel om extra hulp te verlenen moet aan de docent worden gelaten.

Het komt natuurlijk nooit aan op een enkele les missen, dat kost je geen examen. Dat was een extreem voorbeeld.
Precies er zijn wel meerdere problemen in het onderwijs de echte problemen worden niet opgelost daar. Je leert er nu vaak iets waar je niks maar aan hebt als je van school afkomt. En de basis zoals taal en rekenen is om te huilen.
Leerlingen met dyslexie, autisme of ADHD zouden bijvoorbeeld afwijkende antwoorden kunnen geven dan de leerlingen waarop het leersysteem is getraind
Ze vergeten weer de hoogbegaafden, die kunnen ook veel last hebben van dit soort systemen omdat de gemiddelde manier van hoe leerstof gebracht wordt niet past op het leren van een hoogbegaafde.

Maar ook het geven van afwijkende antwoorden (door bijv. missende context, of rare omschrijving) tov een gemiddelde leerling is de normaalste zaak van de wereld: soms kunnen alle 4 de antwoorden bij multiple choice gewoon aantoonbaar fout zijn vanuit een HB perspectief.

Aan een leraar kun je nog eea uitleggen, maar ook die hebben vaak moeite met hoe hoogbegaafden denken. Het kost mij in ieder geval altijd veel tijd :)
Ik zou het graag breder trekken, iedereen die niet gemiddeld is.
Het lijkt me juist goed voor hoogbegaafde, je krijgt steeds moeilijkere vragen.
Zo heb je niet je hele school tijd het idee wat doe ik hier eigenlijk.

Maar ook het tegenovergestelde is natuurlijk belangrijk, om de lesstof aantrekkelijk te houden voor die personen die het lastig vinden
Ze vergeten weer de hoogbegaafden, die kunnen ook veel last hebben van dit soort systemen omdat de gemiddelde manier van hoe leerstof gebracht wordt niet past op het leren van een hoogbegaafde.
De hele maatschappij past niet op 'hoogbegaafden', maar dat betekent ook niet dat de maatschappij zich aanpast aan deze mensen.

Je kunt het onderwijs wel volledig inclusief maken, maar de maatschappij gaat dat niet zijn.
Dit is wel een beetje kort door de bocht, je zegt toch ook niet dat je mensen die extra hulp nodig hebben maar moet laten zitten.
Mist goed doordacht kun je natuurlijk gewoon elke leerling van de juiste stof in de juiste snelheid bedienen.
Ik had vanaf de kleuterschool al het idee wat doe ik hier, ben dan ook maar gestopt na drie diploma’s.
Om die te halen ging ik dan een paar weken voor het examen er voor zitten en nam alle lesstof door. De tijd daar voor deed ik bijzonder weinig.
Gelukkig heb ik dat kunnen voorkomen bij mijn zoon. Mede dankzij een leraar Latijn van het gymnasium en onderwijzer van de basisschool die er voor zorgde dat hij daar verder kon.
Dat is een drogredenering. Het punt is dat de algoritmes verkeerde beoordeling maken over het gewenste leerniveau van een leerling omdat ze geen rekening houden met afwijkende factoren. Zoals dus ADD, dyslexy, hoogbegaafdheid etc.. Dat de maatschappij 'daar ook geen rekening mee houdt' betekent nog niet dat dit soort fouten dan ook maar moeten blijven bestaan
Het is verplicht om kinderen naar school te sturen. Dus dan moeten scholen ook zorgen dat ze alle verschillende soorten kinderen op de best mogelijke manier kunnen helpen (en daar moeten ze ook voldoende geld voor krijgen). Op dit moment gebeurt dat niet.

Als je enigszins afwijkt van het gemiddelde, dan flikkert het onderwijsrendement heel snel in elkaar. Voor leerlingen die zwakker zijn dan gemiddeld wordt nog wel eens wat extra ondernomen, wat een goede zaak is natuurlijk, maar leerlingen die beter zijn dan gemiddeld trekken totaal geen rendement uit het huidige onderwijs. Ze zitten zich al snel te vervelen en zijn dan 'vervelend'. Terwijl we het juist moeten hebben van de leerlingen die beter zijn dan gemiddeld. Als we tenminste nog steeds een kenniseconomie nastreven.
Ik denk dat Ier een wel heel makkelijk kan nagaan of die zo wel wenselijk is. Als student kun je het jezelf nu makkelijk maken door express wat meer fouten te maken, maar alsnog door te gaan naar de volgende ronde. En op het einde een sprintje te trekken door op het examen alles goed te beantwoorden, want makkelijke vragen…
En als tijdens het examen geen makkelijke vragen worden gesteld, dan zak je helemaal omdat je niet de juiste test vragen kreeg… lijkt me niet handig deze leer methode…
Daar is natuurlijk allang aan gedacht :*)

Zo een dynamische examen wordt al langer gebruikt, zie de SAT (internationale examens)

Je hebt bijvoorbeeld 5 moeilijkheids graden. Per niveau krijg je een ander aantal punten per goede vraag. Dus bij moeilijkheid 2 krijg je maar 10 punten, terwijl moeilijkheidsgraad 5 je 25 punten geeft. Dus er wordt aan de hand van zo een verdeling berekend wat je eindcijfer is.

Voorbeeld concept:
Ik maak 5 vragen op niveau 2 goed en 5 vragen van niveau 5 goed (vanuit gaand dat je alle vragen goed maakt). Dat betekend dat ik 175 punten heb.
Een 10 als cijfer zou dan betekenen dat ik 250 punten moet behalen.

(Side note: Het is dynamisch met een reden, dus als je op niveau 5 een fout maakt krijg je dus een niveau 3 vraag, als die dan goed is krijg je een niveau 4 vraag. Zo bouw je dus een score op.)
ik zie toch vaak aan het eind van enn loopbaan als student, dat de drijfveer niet meer is om cijfertjes te scoren maar om een vak te leren en een leuke baan te hebben. Gelukkig maar.
Omdat er nu zo veel over AI gesproken wordt, hier een kleine les:

Een algoritme is een reeks instructies om uit te voeren. Dit beschrijft bijvoorbeeld hoe een model geleerd kan worden uit data, door steeds weer dezelfde stapjes uit te voeren. Ook het genereren van een antwoord op een vraag wordt gedaan door een algoritme toe te passen op een model.

Een model is een verzameling parameters en vooral bij AI gebaseerd op machine learning (= vrijwel alle AI die je ziet) is dat de belangrijkste component.

Problemen ontstaan vanuit modellen, die zijn biased, incompleet, etc.

Het zou top zijn als journalisten zich de terminologie ook eigen zouden maken, zodat we een beter geïnformeerde maatschappij krijgen en zinnigere discussies rond de inzet van AI.
In mijn vak bestaat een model, bijv een model om overstromingen te berekenen, (vloeistofdynamica) uit een reeks algorithmes, wiskundige vergelijkingen die een fysisch principe nabootsen (stroming). De data is daarbij heel belangrijk, want bepaalt voor een groot deel de uitkomst. Maar het model bestaat zonder de data.
Dus ik snap die verwarring wel. Het begrip model is enorm groot. Ik ben het met je eens dat algorithme te pas en te onpas gebruikt worden

[Reactie gewijzigd door tw_gotcha op 22 juli 2024 13:35]

Het is mij niet direct duidelijk of dat een andere terminologie zou zijn. Zover ik weet is het wel helder wat een algoritme genoemd moet worden, dat kun je zelfs op Wikipedia vinden. Een algoritme is een stappenplan om een functie efficiënt uit te rekenen, maar een wiskunde functie is op zichzelf geen algoritme.

Het woord model wordt inderdaad voor vanalles gebruikt, maar binnen de machine learning en AI heeft dat een specifieke betekenis. Strikt genomen is het de parametrisering van een functie, breder gezien omvat het ook de specificatie van de toe te passen functies. Modellen worden 'geleerd uit data' middels een algoritme voor machinaal leren en een model bestaat inderdaad ook hier onafhankelijk van de data.

Het is theoretisch gezien mogelijk om algoritmes als modellen te parametriseren en vervolgens dus een leer-algoritme gebruiken om een ander algoritme te construeren. Vorig jaar was er een paper over sneller matrices multipliceren middels een algoritme dat door AI is ontworpen. Die ingewikkelde situatie is echter niet hoe AI-gebaseerde systemen werken.
Als directeur van een basisschool (nieuw, want ik kom uit andere onderwijssectoren) is me opgevallen dat externe adviezen wel erg snel worden overgenomen in het primair onderwijs, terwijl de adviezen vaak van partijen met commerciële belangen afkomstig zijn. Ik ben dus blij met deze aandacht, want zeker AI moet in mijn ogen heel serieus genomen worden. Vooral als het gaat om kinderen die later onze toekomst gaan vormgeven.
Ik als vader van twee kinderen was wel blij dat er zonder AI al hetzelfde gedaan werd. In mijn tijd kreeg iedereen dezelfde lesstof, mijn kinderen kregen in vakken waar ze goed in waren moeilijkere.

Blijkbaar was dat nog niet voldoende maar goed, zoon lief kreeg vmbo omdat hij zich zat te vervelen. Laatste jaar maar iets gaan doen en hup naar het Gymnasium.

Er liggen hier dus wel kansen.
Het College voor de Rechten van de Mens waarschuwt dat discriminatie en kansenongelijkheid op de loer ligt.
Wel weer erg voorspelbaar. Niet dat het onwaar is, maar ik vind de nieuwswaardigheid behoorlijk beperkt. Van alle kanten hetzelfde advies, keer en keer weer, maar je hoort weinig over of er daadwerkelijk wat mee gedaan wordt.
Het tijdperk waar iedereen een bokaaltje wint, niemand gekwetst moet worden en als kind continue meekrijgen dat de wereld om jou draait en je ‘alles’ kan doen/worden wat je wilt.

En dan komen ze in de echte wereld terecht.

Ik klets natuurlijk uit mijn nek en ben weer heel erg negatief, erg onwenselijk, ik zal mijn mond maar weer eens houden. Men komt er vanzelf wel achter. :)

Op dit item kan niet meer gereageerd worden.