Nederland wil eigen supercomputer voor AI-toepassingen van de overheid

Nederland werkt aan het bouwen van een 'AI-fabriek', waar de AI-toepassingen van de overheid op moeten gaan draaien. Het gaat om een supercomputer voor de systemen, maar er is nog geen locatie voor gekozen.

Alle uitvoeringsprocessen van de Nederlandse overheid gaan kunstmatige intelligentie gebruiken, stelt staatssecretaris Zsolt Szabó van Digitalisering in BNR Digitaal. Als voorbeeld noemt hij de Belastingdienst, waar bijvoorbeeld een AI-chatbot of een fraudesysteem ingezet kan worden. "Binnenkort hebben we per uitvoeringsproces vier of vijf AI-systemen."

Wat de staatssecretaris betreft moet Nederland niet afhankelijk zijn van derden voor de rekenkracht van de AI-systemen. Daarom wil hij investeren in eigen computers, servers en rekenkracht. Naar verwachting gaat de beoogde supercomputer tussen de 200 en 300 miljoen euro kosten. "Vroeger was digitalisering een middel om te besparen, nu is het tijd dat we weer gaan investeren in digitalisering en autonomie", aldus de staatssecretaris.

Waar de supercomputer moet gaan staan en wanneer deze daadwerkelijk gebouwd wordt, is nog niet bekend. Szabó gaat nu eerst werken aan een concreet plan met financiering en partners.

Door Eveline Meijer

Nieuwsredacteur

12-12-2024 • 07:26

111

Submitter: Fonsz

Reacties (111)

Sorteer op:

Weergave:

Belastingdienst en AI en fraudesysteem? Ik voel een nieuwe toeslagenaffaire aankomen ;(
Ja ik vond dit ook niet het beste voorbeeld.. bij AI weet je toch niet zo goed wat he precies meet. En dan heb je al heel snel een bias in je model.

Een AI die zometeen rechtsgeldige besluiten gaat nemen vind ik nog wel spannend.

Als het goed werkt dan is 'de normale man' waarschijnlijk de pineut omdat alle kleine foutjes met btw worden opgepikt. Waar grote bedrijven zich wel kunnen verdedigen.

Ben benieuwd wat er uit komt
Niemand heeft het over rechtsgeldige besluiten. Dat zou ook raar zijn. Maar AI kan potentiële fraudeurs aanmerken die een mens kan onderzoeken. Dat kan veel zuiverder zijn dan puur op achternaam iemand aanmerken als mogelijke fraudeur, om maar een voorbeeld te noemen.
Ja, maar een AI die een lijst maakt.. dat 99% van die lijst fraudeur is denk je "lekker bezig" maar als 80% van die lijst een migratie achtergrond heeft en dat de mensen zonder migratie achtergrond minder snel worden opgepikt door de AI heb je toch een probleem.

Hoe dan ook, die AI gaat helpen en de overheid kennende gaan ze na verloop van tijd bezuinigen op de menselijke factor omdat dat duur is.

Maar goed, allemaal speculaties, maar ik zie de bui al hangen
Het is natuurlijk lekker speculeren hoe ze het in gaan zetten. En negatief zijn is makkelijker dan er met een postieve blik naar te kijken.

Wie weet kunnen ze straks dankzij AI meer fraudeurs aanpakken en vinden die ze nu met de 'hand' niet gevonden krijgen namelijk...
Dit zijn problemen die niks met AI te maken hebben maar alles met het proces. Je moet altijd representatieve steekproeven om bias te voorkomen. Elke eerstejaars universitair student weet dit. Een volkomen non-probleem.
Elke eerstejaars universitair student? Nou, dan zijn ze het vast al lang weer vergeten als ze tweede-kamerlid of ambtenaar worden. Het CBS is ver weg hoor, als je in Den Haag werkt. In ieder geval blijkt het in de praktijk nogal lastig te zijn om met representatieve steekproeven te werken. Zowel bij de belastingdienst als bij studiefinanciering waren ze daartoe niet in staat, en tot het niveau van minister Kamp blijken mensen dat niet te begrijpen.
Klopt. Met incompetente bestuurders/managers zullen er fouten gemaakt worden, dat staat los van wel of geen gebruik van AI.
Dit is dan wel niet AI gebruikt door de overheid, maar wel een voorbeeld die ik zorgwekkend vind: https://arstechnica.com/h...ursing-homes-suit-claims/
Dat is heel zorgelijk, maar staat los van AI.

Er is een proces dat meetbaar lage kwaliteit levert en het management grijpt niet in.

Waarom zou een handmatig proces zonder AI betere resultaten opleveren? Dat vereist namelijk kundige werknemers. Als het management nu niet ingrijpt, waarom zouden ze dan wel tijd en geld besteden aan het fatsoenlijk opleiden van medewerkers?

Het is een bestuurlijk probleem, geen technisch probleem.

[Reactie gewijzigd door TMC op 12 december 2024 10:40]

Gelukkig kun je gewoon bias-toetsing doen. Gebeurd nu ook al. Tegelijkertijd hebben overheden en zeker uitvoeringsorganisaties wel het probleem dat de werklast, regeldruk, etc enorm oploopt en personeel moeilijk te vinden is. De Belastingdienst krijgt te maken met een enorme leegloop door ambtenaren die met pensioen gaan en het is niet altijd makkelijk die allemaal maar aan te vullen met jonge mensen. Inzet van technologie kan dan ook helpen werk toch te verzetten.
Maar als 80% van mensen met een migratie achtergrond frauderen en maar 10% van mensen zonder ,

Is het dan bias of een statistical fact ?
Een KI is niet transparant, als die besluit naar de achternaam te kijken dan heb je dat niet direct door. Verder weet ik 100% zeker dat men de neiging niet zal kunnen weerstaan om als de KI het antwoord fraudeur geeft men geen verder onderzoek te doen: We weten hoe de Belastingdienst met algoritmen omging.
En dat ging ook zo goed met de toeslagen hè? Dat mensen daar gingen "onderzoeken". Dit gaat nog meer uit de hand lopen omdat het niet meer alleen op achternaam gaat, dus je ook niet meer kunt achterhalen waarom het nu precies misging en er weer duizenden kinderen slachtoffer worden of zelfs uit huis geplaatst zijn en voor het leven getekend.

Maar goed dit komt dan ook van de partij (PVV) die ook bij het startpunt van dit schandaal (Bulgarenfraude) de boel zo ver opjutte dat dit wel verkeerd moest gaan. En nu doet alsof haar neus bloed omdat ze "toen toch niet regeerden!?". Terwijl de hele overheid, ook oppositie, gewoon verantwoordelijk gehouden moet worden voor wat er gebeurt is. Dit omdat het op een toontje ging waar de een nog harder wou schreeuwen dan de ander.

Dus ja, dit gaat wel zeker weer verkeerd mocht dit hiervoor gebruikt gaan worden. Als de training van de AI een paar foutjes heeft? Dan komen daar toch echt de verkeerden uitrollen hoor. En reken dan maar eens terug waar dit "nu precies fout ging".

[Reactie gewijzigd door dendemende op 12 december 2024 10:22]

Er komt een signaal uit, dat moet onderzocht worden. De manier van onderzoeken is fout gegaan en moet anders. Dit artikel gaat over de manier van het genereren van dat signaal.

En je politieke rant naar de PVV gaat mank als je niet Omtzicht ook benoemd als aanjager van de aanpak van fraude. Zie oa:
https://www.bnnvara.nl/jo...in-het-toeslagenschandaal
Oh, ik wil Omzicht zeker wel benoemen hier in - Ik wou gewoon ook niet teveel verzanden in een discussie in zake de kleuterklas die Den Haag heet-. Ik vind het frustrerend hoe die man als grote verlosser word gezien in dit schandaal. Hij loopt weg met het werk van Renske Leijten, in feite als een kind dat werk van iemand anders afkijkt.

Ik doel meer op het feit dat Geert Wilders - iedereen trouwens, wat ik ook zeg, het hele politieke landschap en de staat is gewoon schuldig - nogal te keer ging tijdens deze "Bulgarenfraude". Wat weer geleidt heeft tot de reden van dit schandaal. En ja het is wel degelijk een schandaal waarin ze allemaal toch echt wel wat nederiger mogen zijn.

En ja ook Geert Wilders die nog steeds zijn mond als een beerput opentrekt over de kleinste dingen. Ze hebben daar gewoon niks geleerd, en het gaat gewoon verder met "never play defense" als uit de VS overgewaaide strategie.

Het probleem alleen is met AI algoritmen kan je veel meer verbloemen, dus daarom denk ik gewoon niet dat het een goed idee is omdat te gebruiken. Het is heel waarschijnlijk dat ambtenaren, die al onder grote werkdruk staan, gewoon het advies van het algoritme overnemen.

Letterlijk een "Computer Says No...." beleid.

En dat moet je toch niet willen met dingen waarmee je hele gezinnen de vernieling in helpt?

[Reactie gewijzigd door dendemende op 12 december 2024 10:56]

Zeker niet! Ik denk dat we het in grote lijnen eens zijn. Al zie ik de toepassing van AI wel als voordeel om bij bepaalde signalen (niet beslissingen, al weet ik dat die gerelateerd zijn aan elkaar) de menselijke factor weg te halen / te verminderen. Het signaal dat vanuit AI komen, komt nu vanuit een mens. De opvolging is waar het is misgegaan.
Letterlijk een "Computer Says No...." beleid.
Dat "beleid" moet je ook niet willen, zeker niet als men een AI gebruikt.
Men doet teveel aan CYA (Cover Your Ass) en neemt weinig verantwoordelijkheid, maar laat het over aan (computer)systemen om te vertellen wat je moet doen. Dat geeft problemen als die het verkeerd hebben.

Je kan het wel gebruiken als input om verder te controleren (of niet), maar die verdere controle zou wel moeten plaatsvinden, waarbij je met "de menselijke maat" rekening moet houden.
Nu is in geval van bijvoorbeeld de belastingdienst de beoordeling van de belasting inspecteur toch ook arbitrair op basis van subjectieve wetgeving. Probleem is daar dat de volgende inspecteur weer een hele andere mening kan hebben.

Maar dit soort systemen het laatste woord laten hebben, is precies de oorzaak van de toeslagen affaire.
"Probleem is daar dat de volgende inspecteur weer een hele andere mening kan hebben."

Nee, dat is een waarborg dat een administratief systeem niet gemakkelijk totaal uit de rails loopt. Het grote issue met de toepassing van geautomatiseerde processen, zowel zonder, maar helemaal met, AI is dat niet voor iedere casus opnieuw een denkproces plaatsvindt waarin ook, al is het maar een heel klein beetje, aan de boom van de regels en criteria wordt geschud. Dat houdt een systeem menselijk.
Ik denk juist dat een AI deze fouten minder snel maakt dan mensen. Ik denk juist dat je hiermee heel goed een toeslagenaffaire KAN voorkomen.
Nee, je wil A.I niet laten beslissen over iemand zijn toekomst.

Hoewel je het huidige kabinet praktisch beter zou kunnen vervangen door een AI chatbot, wil je niet dat belangrijke keuzes als mens of in de mensheid gedaan gaan worden door A.I.

De uitkomst van A.I. kan vaak niet terug beredeneerd worden; en wie gaan we de schuld geven als de uitkomst niet klopt?

Het probleem met AI momenteel is dat het doet alsof het alles weet en geen fouten maakt.
Daarnaast kun je de chatbot heel erg makkelijk een richting op sturen door je vraagstelling te veranderen, waardoor d'r vaak antwoorden uit komen waar jij het mee eens bent (en het idee geeft dat de A.I echt heel goed is).

Maar als je een A.I als ChatGPT. dingen gaat vragen waar je zelf veel verstand van hebt, of dingen gaat vragen waarvan de A.I geen data heeft, zie je dat het maar wat aanlult.

Het gevaar is dat het vaak heel aannemelijk lijkt wat zo'n A.I chat zegt, het is waarheid aangelengd met misinformatie; maar gebracht op een zeer overtuigende manier.
Je verwart AI enigsinds met een LLM
Een LLM zoals ChatGPT is een chatbot. De AI die voor de belastingdienst zal gaan dienen werkt heel anders dan een chatbot. Dat is namelijk geen chatbot en zal specifiek hiervoor getraind worden.

Daarnaast heb ik nergens gezegd dat het de mens moet vervangen. Maar wel dat het de mensen moet helpen.

ChatGPT is trouwens per definitie ool niet echt AI.

[Reactie gewijzigd door Ricco02 op 12 december 2024 08:19]

Nergens staat dat AI besluiten gaat nemen. Jouw hele betoog mist daardoor waarde en relevantie.
Nee, je wil A.I niet laten beslissen over iemand zijn toekomst.
Nogal een stelling zonder bewijs. Rechters en ambtenaren beslissen ook over mijn toekomst, en vaak doen die hun werk echt niet geweldig. Als een AI beter zou werken heb ik die liever.
'Nee je wilt een enkele rechter niet laten beslissen over iemand zijn toekomst'.

Als die man een slechte dag heeft en iets niet goed heeft gelezen kun je er ook slechter vanaf komen dan wanneer de beste man net een goede dag gehad heeft.

Maar goed, je baseert je mening nu op een LLM zoals ChatGPT. Dat is natuurlijk niet te vergelijken. Ze gaan echt geen gebruik maken van ChatGPT maar een eigen model trainen met hun eigen parameters etc.
echt geen gebruik maken van ChatGPT LLM
Wat dan wel? Die andere 'soort' AI is nog niet als zodanig beschikbaar.
Er zijn genoeg manieren om dat te trainen. Ik weet niet precies hoe het allemaal werkt maar op Google Cloud en op AWS kun je ruimte huren en je eigen modellen trainen.
Maar ik bedoelde: het is allemaal gebaseerd op LLM....
Wie zegt dat?

Een LLM is niet AI. Een LLM is een model die bedoeld is voor het communiceren met mensen via tekst. Daarom is het een Large Language Model. Het zit ook in de naam.

Enkel omdat wij als consument alleen toegang hebben tot LLM als het om “AI” gaat. Betekent niet dat het niet op een andere manier getraind kan worden en het dus geen LLM is.

Een AI bij de belastingdienst zal waarschijnlijk een intern systeem zijn. Niet een chatbot waar medewerkers mee kunnen chatten. Dus geen LLM.
De 'huidige' AI (waar de hyp vandaan komt) gebruikt LLM....
een model die bedoeld is voor het communiceren met mensen via tekst.
Nee, het kan meer. Als het images heeft met metadata [zoals wat te zien is] dan kan het meer dan alleen communiceren.
Het punt is: het gebruikt statistiek om antwoorden te formuleren. De LLM is niet alleen bedoeld voor de interactie, maar ook voor het 'bedenken' van het antwoord. Of te wel: het zoeken van een oplossing.

Een chatBot is geen LLM - je kunt een (LLM) AI gebruiken om je chatbot antwoorden te laten geven.
LLM is enkel gebaseerd op taal.

Bijvoorbeeld een AI Image Generator (bijvoorbeeld DALL-E) gebruikt alleen de LLM voor het verwerken van de aanvraag van de gebruiker (de woorden/tekst) maar niet om de afbeelding te genereren.

Een LLM is getraind op tekst. Kan hij dan data wat tekst is verwerken? Op zekere hoogte wel. Maar hij is daar niet specifiek op getraind. Een LLM is getraind om tekst te begrijpen en zinnen op te bouwen. Daardoor is het zo goed voor een AI chatbot.

AI limiteert zich niet tot LLMs. De huidige LLMs zijn niet eens AI te noemen, maar goed, ik denk niet dat de belastingdienst een algemene LLM gaan gebruiken (als ze een LLM gaan gebruiken voor de AI toepassingen.)

LLM is maar een subset van het bredere AI.
De huidige LLMs zijn niet eens AI te noemen, maar goed
Mee eens.
LLM is maar een subset van het bredere AI.
Ja, en juist voor om subset gaat het nu toch?
Daarom beslist er nooit één persoon over iemands toekomst.

De eerste persoon die een beslissing neemt is een ambtenaar die een opleiding gevolgd heeft voor de werkzaamheden die hij verricht.
Ben je het daar niet mee eens, dan kan je in bezwaar gaan en dan kijkt en collega van die ambtenaar (iemand die geen onderdeel is van de eerste beslissing) nog eens een keer naar alle informatie en de eerder gemaakte beslissing.
Ben je het daar ook niet mee eens, dan kan je in beroep gaan en kijkt er een rechter naar de beslissing.
Ben je het daar nog steeds niet mee eens, dan kan je in hoger beroep gaan en kijken er drie rechters naar de beslissing.
En ten slotte kan je nog in cassatie gaan, waarna er maar liefst vijf rechters kijken of de beslissing begrijpelijk en op de goede gronden is genomen.
In het uiterste geval kunnen er dus 11 mensen over jouw toekomst beslissen. (En wanneer er EU-recht in het spel is, of wanneer je van mening bent dat je rechten als EU-burger geschonden zijn, kan je zelfs nog naar het Europese Hof stappen.) Dan zijn een goed of slecht humeur er toch echt wel uitgefilterd.

Natuurlijk ga je bij een geschil over een paar honderd euro niet helemaal tot het uiterste (tenzij het voor jou een principekwestie is), maar wanneer het werkelijk over jouw verdere toekomst gaat en je overtuigd bent dat de wetten en regels niet goed zijn toegepast kan het het waard zijn.
En je denkt dat dat met AI wel gaat gebeuren, nee natuurlijk niet. Het is een hulpmiddel, geen vervanger. Het kan wellicht meer controleren en meer voorwerk doen, maar die stappen zullen zo blijven alleen komt er een extra AI stap bij die een hoop begin werk uit handen zou kunnen nemen.

Veel mensen denken dat AI alles en iedereen gaat vervangen en dat AI 100% waar is. Wie weet ooit in de toekomst, maar voor nu is het een handig hulpmiddel waarbij altijd een mens bij moet komen kijken.
Ik zeg hier helemaal niets over AI. Ik ga in op jouw opmerkinf dat je overgeleverd bent aan het humeur van één enkel rechter die over jouw toekomst zou beslissen.

AI kan naar mijn mening inderdaad nooit meer dan een hulpmiddel zijn.
Bv. om trends te zien en mogelijke frauduleuse afwijkingen te ontdekken, die dan verder door een mens onderzocht moeten worden. In het beste geval maakt zo'n systeem niet genoeg fouten om de output bij voorbaat als nutteloos te beschouwen, maar wél genoeg fouten om degenen die er mee werken scherp te houden en het nut van hun eigen inbreng te blijven zien. Een systeem dat 99% juist is is gevaarlijk, omdat dan automatisch ook die foute 1% als fraudeur gezien wordt.
Een andere toepassing is alle relevante informatie verzamelen en daar de relevante wet- en regelveging en jurisprudentie bij te geven. Dat kan heel veel tijd besparen bij de behandeling van een verzoek/ aangifte/ etc.
Geef je een trainingsset van fraudegevallen met verhoudingsgewijs veel buitenlandse namen zal een AI net zo hard discrimineren door de fraudekans aan de naam te linken.
Ben wel benieuwd naar je motivatie waarom AI dit zou kunnen voorkomen.
Omdat mensen veel foutgevoeliger zijn.

Daarnaast vind ik niet dat een AI per se altijd discrimineert. Het is geen mens. Het kan het verschil misschien wel zien tussen bepaalde mensen groepen door de data waar het op getraind is. Maar onderscheid maken tussen groepen van mensen is niet per definitie discriminatie.

Het anders behandelen van mensen op basis van groeperingen is discriminatie. Als je de AI goed genoeg traint dat die dat niet moet doen dan zal dat prima verlopen.

Een mens kan een motief hebben om te discrimineren etc. een AI niet. Als je een AI op de goede manier traint zal het veel meer fouten voorkomen dan mensen.
Bij een anti-fraudesysteem zul je toch uiteindelijk moeten beslissen dat aangifte X van meneer Y wel of niet te vertrouwen is.
Als het systeem weet dat groep Z, waar meneer Y deel van is, graag fraudeert en dat meeneemt in de beslissing vinden veel mensen (jij ook, volgens het begin van je 3. alinea) dat discriminerend.

Ik snap niet echt hoe je hier omheen wilt werken. Je kunt ook het "doorsijpelen" van informatie niet echt voorkomen. Misschien kun je nationaliteit en naam verbergen. Maar leeftijd, woonplaats, en het aantal kinderen zul je echt moeten doorgeven aan de AI en daar is ook gedeeltelijk de bevolkingsgroep weer aan gekoppeld.
Hoef je helemaal niet door te geven. Je kunt ook allerlei andere kenmerken gebruiken waar geen persoonsgegevens tussenzitten. En dan nóg dien je wel biastoetsing te doen.

Anyway, goed dat NL dit doet. Volgens mij las ik gister nog in reacties dat het zo erg is dat overheden licenties afsluiten met amerikaanse ai-leveranciers en dat daar alleen de big tech beter van wordt. Dit is in ieder geval een manier of kennis en macht bij onszelf te houden.
Hoef je helemaal niet door te geven.
Eh? Aantal kinderen en leeftijd is noodzakelijke informatie.... net zoals leeftijd (persioen?).

Eigenlijk is het te zot voor woorden. Het zou veel logischer en simpeler zijn om flatrate belasting toe te passen (en geen aftrekposten e.d.). Geen AI nodig....

Eerst een systeem overcompliceren zodanig dat alleen een AI het nog tijdig kan doorgronden is bijzonder onverstandig.
Je kunt ook allerlei andere kenmerken gebruiken waar geen persoonsgegevens tussenzitten
Woonplaats, leeftijd, aantal kinderen, inkomen zeggen behoorlijk wat over de persoon.

Mevrouw X is met 18 jaar oud getrouwd. Ze werkt niet. Ze is nu 23 jaar oud, heeft 3 kinderen, en woont in de bijlmer. Haar man heeft geen geregeld inkomen. Dit zijn allemaal nodige stukken informatie voor de belastingdienst, maar bij mij komt er meteen een stereotiep beeld op.

Welke kenmerken wil jij dan gebruiken, die niks met de persoonsgegevens te maken hebben maar waar wel fraude uit af te leiden valt?
En dan nóg dien je wel biastoetsing te doen.
Maar hoe dan? Als blijkt dat groep X er vaak uitgepikt wordt, en groep X inderdaad vaak fraude pleegt, is het dan überhaupt discriminatie? Volgens mij niet, volgens mij is het dan de schuld van groep X zelf, maar dat is subjectief (aan de andere kant begrijp ik ook dat mensen die steevast elke keer door de politie gecontroleerd worden daar op een gegeven moment ook boos van worden).

Ja zou op basis van ettelijke groepen alle denkbare bias weg kunnen halen (dus 50% mannen en 50% vrouwen controleren, en elke leeftijdsgroep proportioneel, en elke nationaliteit, etc. etc. etc.), maar dat betekent gewoon willekeurige steekproeven doen.
Mevrouw X is met 18 jaar oud getrouwd. Ze werkt niet. Ze is nu 23 jaar oud, heeft 3 kinderen, en woont in de bijlmer. Haar man heeft geen geregeld inkomen. Dit zijn allemaal nodige stukken informatie voor de belastingdienst, maar bij mij komt er meteen een stereotiep beeld op.
Jij als mens ziet hier direct een stereotype persoon in.
Als AI zou dit een statistiek moeten zijn. Daarna worden de gegevens door de beoordelingscreteria gehaald en wordt er een eindadvies gegeven. Als de gegevens goed ingevuld zijn is er verder niets aan de hand en komt er een geen fraude advies uit.
Maar hoe dan? Als blijkt dat groep X er vaak uitgepikt wordt, en groep X inderdaad vaak fraude pleegt, is het dan überhaupt discriminatie? Volgens mij niet, volgens mij is het dan de schuld van groep X zelf, maar dat is subjectief (aan de andere kant begrijp ik ook dat mensen die steevast elke keer door de politie gecontroleerd worden daar op een gegeven moment ook boos van worden).

Ja zou op basis van ettelijke groepen alle denkbare bias weg kunnen halen (dus 50% mannen en 50% vrouwen controleren, en elke leeftijdsgroep proportioneel, en elke nationaliteit, etc. etc. etc.), maar dat betekent gewoon willekeurige steekproeven doen.
Heel simpel, gebruik geen steekproeven maar leg iedereen die belastingaangifte gedaan heeft langs dezelfde lat. Als je iedereen controleerd en er blijkt een groep x te zijn die een grote van 10% heeft en 40% van de gevallen fraude pleegt, dan is dit statistisch significant. Dit omdat beide percentages van de absolute aantallen komen. In getallen van de 1000 aangiften wordt er bij 100 aangifte fraude gepleegt.
groep x heeft 100x aangifte gedaan waarvan er 40 fraude zijn.
dit is dan geen bias maar statistiek, juist met de ai kan iedereen gecontroleerd worden zonder dat er bias voorkomt.
Uiteindelijk ging mijn commentaar op de reactie boven dat "Het anders behandelen van mensen op basis van groeperingen is discriminatie."

Als blijkt dat nationaliteit X vaak fraude Y pleegt en ik daarom mensen van nationaliteit X vaker controleer is dat volgens die definitie discriminatie en zodoende het gebruik, denk ik, onmogelijk.
Ik zelf zie het niet als discriminatie en vond dat je primair je asociale groepsgenoten moet bedanken, niet andere mensen / algoritmes die het patroon herkennen. Maar goed, dat ik denk ik niet objectief te beantwoorden.
Klopt. Maar een AI doet simpelweg wat het vertelt worr. Discrimineert de AI dan of discrimineert degene die de AI getraind heeft?
Dat probeert iedereen je ook uit te leggen. Maar jij bent degene die beweerd dat AI een nieuwe toeslagenaffaire kan voorkomen. Onze vraag is dan, hoe? Want de toeslagenaffaire was geen menselijke fout. Het was een fout beleid.
Mijn originele reactie ging om het feit dat iemand beweerde dat AI een nieuwe toeslagenaffaire zou veroorzaken.

Maar dat is niet het geval, want de AI veroorzaakt de toeslagenaffaire niet. De regels die door mensen zijn gemaakt (menselijke fout dus) is de boosdoener. Niet per se AI. Dat is wat ik duidelijk probeer te maken.

[Reactie gewijzigd door Ricco02 op 12 december 2024 11:04]

De toeslagenaffaire ging niet om fouten he. Dat was gewoon allemaal volgens de regels. En dat is nu juist het probleem. Als een AI ook volgens die regels gaat werken krijgen we dus dezelfde ellende.
Maar dat is dan niet de fout van de AI. Dus om nou te zeggen dat een AI een nieuwe toeslagenaffaire gaat veroorzaken klopt dan ook niet.
Volgens mij ging het niet volgens de regels. Je mag niet zomaar stellen dat groep A de neiging heeft om te frauderen [volgens de statistieken] en daarom extra onderzoek doen of eerder uitgaan van fraude, als iemand tot die groep behoort.

En deze huidige AI implementatie heeft sterk de neiging om een vooroordeel te hebben omdat ze nu juist is gebaseerd op statistiek....

Het lijkt een slimme optimalisatie maar we zien allemaal dat er fout zit in dit soort constructies - aangezien de statistieken bij een dergelijke opzet, onbetrouwbaar worden.
Een mens kan een motief hebben om te discrimineren etc. een AI niet. Als je een AI op de goede manier traint zal het veel meer fouten voorkomen dan mensen.
Een AI heeft dezelfde motivatie om wat dan ook te doen (inclusief discrimineren) als de personen die het ding trainen. Aangezien het op heel veel verschillende manieren mogelijk is te discrimineren vereist het wel bijzondere inspanning van mensen om dat op een correcte manier in een AI te vatten. Mij lijkt de kans heel groot dat dat vanwege tijdsdruk, budgetten, kennisgebrek etc niet gaat gebeuren.
Een AI heeft geen motivatie. Het is een computer. Het doet simpelweg wat het vertelt word. Zonder enige wil erachter.
Er kan best enige 'motivatie' in een model ingebakken zitten, maar je hebt gelijk dat het geen idee van de AI zelf is.
Mensen zijn foutgevoelig maar die fouten komen meestal niet voort uit foutieve interpratie maar onvolledige of onjuiste informatie. De berekeningen worden allang niet meer door mensen gedaan natuurlijk - daar zijn computers inderdaad veel beter in.
Maar de AI gaat dezelfde informatie gebruiken.... dus waarom is dit dan meteen beter?
Als je de AI goed genoeg traint dat die dat niet moet doen dan zal dat prima verlopen.
Vette "als".... en frappant detail - de AI moet je blijven trainen en als die data dan afkomstig is uit de resultaten van de vorige versie (wat onvermijdelijk is....) dan ontstaat altijd bias. Omdat deze AI statistiek gebruikt - ze 'snapt' dus niets.
Zeker mee eens. En daarom ben ik ook van mening dat de AI niet het werk moet vervangen. Maar een verlenging moet zijn van de werkzaamheden. Waardoor mensen efficienter te werk kunnen gaan.

Gebruik het als een tool, niet als vervanging van mensen.
Ja, dat kan zeker wel. Maar als een tool te veel omvattend is [geeft kant en klare antwoorden/produkten], dan worden mensen lui en 'wint' de tool.
Nee, dat zou erg interessant onderzoek zijn dat moet gebeuren aan een universiteit, maar met de huidige implementaties kan dat absoluut niet.
Welke fouten? Bias? Iets waar een AI in uitblinkt...
Of halucinaties? Iets waar mensen in kunnen uitblinken maar over het algemeen wordt dit wel opgemerkt... :9
Antwoorden bedenken die incorrect zijn waarbij zelfs de onderbouwing bedacht is en dit niet door hebben? Ook weer de AI....

Ja, goed plan.... 8)7
Jij denkt aan een LLM zoals ChatGPT. Een AI die voor de belastingdienst iets gaat doen zal geen chatbot zijn. Hele andere werking dan een ChatGPT. Je kan die situaties niet met elkaar vergelijken.

Daarnaast is ChatGPT getraind op algemenere kennis, dus van alles een beetje. Het blinkt dus niet op specifiek iets uit.
Terwijl een AI voor de belastingdienst voor specifieke punten getraind word. Die zal dus een heel stuk minder fouten maken op de punten waar die op getraind word.
Ja, een LLM inderdaad... want op dit moment is dat de AI die algemeen beschikbaar is.... :?

(en dat is geen chatbot - daar kun je het voor gebruiken).
Terwijl een AI voor de belastingdienst voor specifieke punten getraind word.
Ja, bias dus....

Als ze een ander type AI op het oog hebben is dat mooi maar welke dan?
Een ander ding waar AI (LLM's) absoluut niet in uitblinkt:
Consistentie.
Denk maar eens aan de "temperature" instelling, i.o.w. de mate van willekeur in het gekozen antwoord uit de top x van mogelijke antwoorden.
m.a.w. gelijkheid gaat meteen de deur uit want niet elk oordeel van de AI zal hetzelfde zijn bij dezelfde condities. Zelfs al was al het andere dat je aandraagt niet het probleem, dan is het feit dat er willekeur in de uitkomst zit ingebakken dé reden om het niet te doen.
Misschien de wetgeving eens doorlichten met een "intelligente" kijk...
Dan zijn ze van een heleboel flauwekul af en komt er vermoedelijk een advies om de wetgever af te schaffen wegens krankzinnigheid en slecht bestuur...

Uitvoeringsorganisaties voeren namelijk dat uit wat "de politiek" wil en besluit. Ook de obessieve fraudebestrijding of die flauwekul van de kooppkrachtplaatjes beïnvloeden door het fiscale systeem te buigen tot het barst en niet meer werkt.
Klopt, laten we alles met mensen doen, die maken nooit fouten en dan gaat alles goed.
Ja bijzonder. Eerst roepen dat 'men' vooral voorzichtig moet zijn met AI maar nu "We willen onze eigen AI!"....
Volgens mij ging het bij de toeslagenaffaire fout vanwege menselijke keuzes.

Als er een systeem houdt wat enkel kijkt naar feiten, wat inderdaad ook afkomst kan inhouden, dan zouden er dit soort fouten niet moeten voorkomen.
AI introduceert andere fouten; hallucinaties, die leiden tot foutieve conclusies.

Ik heb meer vertrouwen in mensen dan in AI.

[Reactie gewijzigd door bilkin2005 op 12 december 2024 12:30]

Maar dan stel je dat mensen dat niet doen en niet geleid worden door iets dan emoties?
Daar geloof ik pas echt niet in.

Dat iets als ChatGPT dat doet, zeker, maar AI is wel iets breder dan dat.
Dit is voor mij heel persoonlijk; ik communiceer liever met een mens dan met een computer.
En dat mag natuurlijk.
Ik communiceer liever met waar ik het snelste en beste antwoord krijgt.
Dat is bijvoorbeeld eerder wikipedia dan wachten tot ik de juiste persoon gevonden heb.
Beetje laat wel. Andere landen zijn al een stuk verder, maar mooi initiatief.
Onze regering en ICT kennende zal het vooral een duur initiatief worden. Een paar miljoen naar wat consultancybureaus om het uit te werken en tegen de tijd dat men er uit is, is het geld op, de bedachte oplossing verouderd en blijkt de locatie ook niet meer te voldoen.

Cynisch?? Ik denk vooral realistisch.
Nou het is niet alsof Zsolt Szabó de VP van Capgemini is geweest ofzo.
Nou het is niet alsof Zsolt Szabó de VP van Capgemini is geweest ofzo.
Dat was inderdaad het eerste wat in mij opkwam. Capgemini is natuurlijk wel marktleider (in de ICT faalindustrie).
Dat is Nederland he, altijd een achter lopertje.
AI fraude systeem bij de belastingdienst |:(

Dat is qua EU regelgeving verboden.

In de samenvatting komt het niet letterlijk terug, maar alle systemen die impact kunnen hebben op het verloop van het leven of kansen in het leven van een persoon zijn verboden.
Onaanvaardbare risico's

AI-systemen die een bedreiging vormen voor de veiligheid, rechten of bestaansmiddelen van mensen zijn in de EU verboden. Het gaat hierbij om cognitieve gedrags­manipulatie, voorspellend politiewerk, emotie­herkenning op de werkplek en in onderwijs­instellingen, en burgerscores.
https://www.consilium.eur...icial-intelligence/#rules

Daarnaast kun je met een beetje GPU ook gewoon een AI trainen.

En hoezo 'een supercomputer' en 'nog geen locatie', je kunt dat toch ook verspreiden over verschillende of zelfs plaatsen in bestaande datacenters?
[quote]
Daarnaast kun je met een beetje GPU ook gewoon een AI trainen.
[quote]
ChatGPT is getraind met 25.000 GPU's dus als je serieus bezig wil is een enkele GPU wel heel karig.
En hoezo 'een supercomputer' en 'nog geen locatie', je kunt dat toch ook verspreiden over verschillende of zelfs plaatsen in bestaande datacenters?
De energiebehoefte van AI toepassingen is wel aanzienlijk hoger dan die van 'reguliere' servers in een datacenter, dus vraag me af of 'bijplaatsen' een serieuze optie is. Daarnaast is er natuurlijk schaalvoordeel te halen als niet ieder ministerie of iedere provincie z'n eigen datacenter gaat bouwen. Maar minstens 1 backup locatie lijkt me inderdaad geen overbodig luxe.
Zal wel in de data centers van cap gemini en in Hongarije terecht komen.
"Daarnaast kun je met een beetje GPU ook gewoon een AI trainen."

Het ligt totaal aan je AI. Als je een groot LLM foundation model wil trainen dan niet. Als je een BERT modelletje wil finetunen wel. Als je een SVM model traint of een random forest kan je wellicht met je CPU al uit.
Ik raad ze dan toch echt sterk aan om eerst met een concept te beginnen; stel een rack of twee samen, een team van onderzoekers/AI specialisten (+wetgeving deskundigen, marketing, managers en whatever andere lagen er nodig zijn), laat die wat doelen behalen met deze kleinere clusters (en wat slechtere AI's), kost hooguit 1 miljoentje voor een jaar, misschien 2.. en ga dan opschalen. Beter problemen vinden en fixen als alles klein is en koers veranderen makkelijk is.

Als ze meteen groot beginnen, en vallen.. dan vallen ze ook hard. Dus liever niet, geld wordt al maar te vaak weggesmeten aan alle kanten.

[Reactie gewijzigd door grasmanek94 op 12 december 2024 08:24]

Welnee. Dit is onderzoek dat op een universiteit moet plaatsvinden. Als dat tot goede resultaten leidt kunnen we eens over toepassingen gaan nadenken
Denk dat je met een miljoen nergens komt. Een AI specialist kost al snel 2 ton per jaar, dus met een team zit je al snel aan de 3 miljoen per jaar. Dan heb je nog met licenties, hardware enz te maken en sowieso kun je in een jaar vrij weinig en vooral bij de overheid. Dus geef het een minimale looptijd van drie jaar. Dus minimaal 10 miljoen voor een concept.

Dat je met een concept/kleinschalig moet beginnen ben ik helemaal mee eens.
Leuk die 2 ton maar nee, een AI / data scientist krijgt gewoon 4.5k-5k salaris na een jaartje of twee/drie ervaring, met 20% werkgeverskosten zit men op 72k. Doe je ZZP dan komt iemand veel hoger uit, maar geen 1.3ton hoger. Laat mij maar weten waar ik 2 ton (1.6ton na werkgeverskosten aftrekken) kan verdienen bij de overheid dan doe ik mijn best ;)

[Reactie gewijzigd door grasmanek94 op 12 december 2024 12:44]

Als je bij de overheid een AI specialist wegzet (gedetacheerd via een bureau), dan is een schatting van 130 euro per uur excl btw best veilig om te maken. Werk je (maar) 1800 uren in het jaar, dan betaald de klant dus al 283k incl btw.

Een ZZP medior AI/data scientist met 3 jaar ervaring kan als ZZP'er geplaatst worden voor 80 euro excl btw (aanname, lijkt mij ook vrij laag). Werk je ook (maar) 1800 uur per jaar, dan betaald de klant dus al 174k.

Als je in loondienst bij de overheid werkt als AI specialist voor 5k per maand is het natuurlijk goedkoper. Maar volgens mij is dit geen populaire keuze, en is een IT specialist bij de overheid doorgaans iemand ingehuurd.
Bij ZZP heeft de klant geen werkgeverskosten. Dus 1.4ton, niet 1.7. Zal wel aan mijn omgeving liggen maar mijn werkgever kan voor mijn specialisme echt geen 130 eur per uur vragen (of zelfs 100, of hij doet iets fout), en mij (en hem) zou dat wel lonen want mijn bonus is afhankelijk van mijn tarief/omzet.

[Reactie gewijzigd door grasmanek94 op 12 december 2024 14:45]

Ik heb vluchtig opgezocht wat de zzp tarief range is voor een ai / machine learning engineer en deze is volgens het zzp platform freelance punt nl tussen de 80 en 150 euro per uur.

Bij mijn veronderstelling ging ik er ook vanuit dat het een team met rond de 10 senior specialisten is. Dan is 130 euro per uur nog echt bescheiden. Zonder af te doen aan jouw mogelijke kwaliteiten, dan denk ik dus al snel aan 8-10 jaar fulltime ervaring als je als ZZP'er aan de slag gaat. Werk je voor een consultancy, dan worden dit soort bedragen ook snel gerekend (voor een medior).

Dit zijn toch echt de tarieven waar een eindklant snel mee te maken krijgt.
Wat een bizar bedrag. Waarom moet dit per se een "supercomputer" zijn? Met een paar racks met GPU's zouden ze toch al een heel eind moeten komen. Laat ze eerst maar eens bewijzen dat het ding van toegevoegde waarde zal zijn voordat er 300 miljoen (300 miljoen!) wordt uitgegeven.
Het 70B llama model van Facebook is getraind met H100-80GB videokaarten. Deze kosten ongeveer €5.000 per stuk (in bulk misschien goedkoper en de btw gaat er nog af, maar goed). In totaal zijn die bij elkaar opgeteld 39.3 miljoen uren bezig geweest om het model te trainen. Oftewel, je hebt er heel veel van nodig. Het trainen van dit model zou met 1.000 van die dingen (=5miljoen euro) nog steeds vier en een half jaar duren.
Die videokaarten moeten aangestuurd worden, het systeem moet worden gebouwd, ontworpen en worden onderhouden. Daarnaast ook van stroom worden voorzien en gekoeld worden, en in een geschikte ruimte terecht komen.
Geen idee of in dat bedrag ook de stroomkosten worden meegenomen, maar Facebook heeft 4.900.000 kWh verstookt in de training. Uitgaande van 30ct per kWh is alleen de stroom al anderhalf miljoen euro.

Bron: https://huggingface.co/meta-llama/Llama-3.3-70B-Instruct

[Reactie gewijzigd door kipppertje op 12 december 2024 10:31]

Dan moet je alsnog heel erg je best doen om 300 miljoen uit te geven. En het gaat sowieso 400 miljoen worden, want onvoorziene kosten. En de vraag is wat het uiteindelijk oplevert.

Edit: een beetje wat grasmanek94 in 'Nederland wil eigen supercomputer voor AI-toepassingen van de overheid' zegt ook.

[Reactie gewijzigd door thePiett op 12 december 2024 10:59]

Slecht idee de overheid functionarissen hebben er een handje van om zich te verschuilen achter het systeem. Als het systeem een AI is zijn de rapen gaar.

Laat ze eerst trouwens wat AI on-demand huren voordat je voor een vermogen wat ga neer zetten.
Kunnen ze dit niet beter inkopen bij een volledig Nederlandse partij? Eentje die onder cruciële infrastructuur valt? Noem het een private cloud en laat die partij het beheren.

Of als je het toch onder nationale veiligheid wilt laten vallen, laat Defensie het uit hun budget aanschaffen. Die moeten toch naar 2.5-3% van het BBP.

Noem het een Nationale Rekenkamer/Rekencentrum. En geef universiteiten deels toegang, zodat ook het onderwijs er nog iets aan heeft.

200-300 miljoen is een hoop geld, zeker als je als overheid weken loopt te onderhandelen over vergelijkbare besparingen in het onderwijs en de zorg.
Misschien kan die AI dan het werkelijke vermogen bepalen inclusief rekening te houden met inflatie. Want we betalen met zijn allen belasting op een fictief rendement en over inflatie.

Heb je een jaar geen winst dan ook betaal je weer belasting over een fictief rendement + inflatie.
Haha, ik heb geen vermogen alleen maar schulden, daar hoeft de ai alvast niet naar te kijken.
Op zich een mooi initiatief zolang ze ook de AI-Act hanteren en dus een IAMA uitvoeren op alle hoog risico-systemen (4-5 per procesgebied....) zeker waar het woord fraude in de omschrijving of titel zit.
Ik ben benieuwd welk model ze gaan draaien. Gezien het om publieks geld gaat verwacht ik wel een mooie opensource oplossing.

Of zouden ze een huggingface (achtige) interface hebben en allemaal verschillende modellen op kunnen halen?

Mijn ervaring is dat Claude of Chatgpt wel behoorlijk voor liggen op de zelf hosted alternatieven. Maar wellicht dat voor liggen niet perse de bedoeling hoeft te zijn voor de overheid.

En dan is iedere opensource kapitaal injectie wel weer een dikke pro :)
Ik ben benieuwd welk model ze gaan draaien. Gezien het om publieks geld gaat verwacht ik wel een mooie opensource oplossing.
Dit hoeft natuurlijk niet per se tot één model beperkt te worden. Daarnaast omvat AI meer dan taalmodellen en generatieve AI.

Qua Nederlandse open source taalmodellen wordt nu gewerkt aan GPT-NL. Ik heb er helaas wel grote twijfels over of een dergelijk project zich qua kwaliteit ooit kan meten met de taalmodellen van de Amerikaanse modellen waar miljarden in worden gestoken. De ontwikkkeling van GPT-NL lijkt ook niet echt op te schieten als je kijkt naar de nieuwsberichten op die site (vooral wat achtergrondartikelen over wat taalmodellen zijn..). Volgens hun eigen planning zou de training van het model vrijwel afgerond moeten zijn, want die vindt plaats in Q4 2024.

[Reactie gewijzigd door Gizz op 12 december 2024 08:40]

Op dit item kan niet meer gereageerd worden.