Bunq mag AI inzetten voor controleren van klanten op witwassen

Bunq mag AI inzetten om witwaspraktijken en het financieren van terrorisme te voorkomen. De Nederlandsche Bank had de bank opgedragen om hiermee te stoppen, maar nu heeft het College van Beroep voor het bedrijfsleven bepaald dat het besluit deels moet worden teruggedraaid.

In de uitspraak staat dat zowel bunq als DNB deels gelijk hebben gekregen. Het CBb oordeelt dat 'niet alle aan bunq verweten overtredingen zijn komen vast te staan'. Een van de verwijten die DNB maakt is dat bunqs methode om particuliere klanten te screenen op de antiwitwasregels tekortschiet. Als een particulier zich als nieuwe klant meldt, kent bunq die klant een standaard gebruikersprofiel toe. Dat gebruikersprofiel is tot stand gekomen aan de hand van data-analyse en kunstmatige intelligentie. Dit profiel zou een laag risico op witwassen hebben.

Bunq gaat ervan uit dat het grootste deel van de klanten zich volgens dat gebruikersprofiel gedraagt, schrijft het CBd. Op dit profiel is onder meer het bedrag dat op de rekening mag staan en het aantal maandelijkse betalingen beperkt. DNB vindt dat bunq met deze methode onvoldoende specifieke informatie over de nieuwe klant inwint om de risico’s goed te kunnen inschatten.

Het CBd oordeelt echter dat DNB niet heeft kunnen bewijzen dat bunqs methode in strijd is met de wet. "De wet kent open normen en schrijft niet exact voor op welke wijze banken hun klanten moeten screenen. Bunq heeft in de procedure uitvoerig uiteengezet dat en hoe haar methode, gebaseerd op kunstmatige intelligentie, werkt en waarom die het risico’s op witwassen klein maakt. DNB heeft daar onvoldoende tegenover gesteld", aldus het College. Ook heeft DNB niet kunnen bewijzen dat bunq onvoldoende informatie heeft ingewonnen bij zakelijke klanten die al een rekening hadden bij de bank.

Het verwijt dat bunq andere antiwitwasregels heeft overtreden, acht het CBd wel als bewezen. Daarbij gaat het onder andere om de verplichting om onderzoek te doen naar de bron van de financiële middelen van een klant. Ook heeft bunq de regels overtreden wat betreft 'het verscherpt onderzoek doen naar corruptie bij klanten met een belangrijke publieke functie'.

Door Loïs Franx

Redacteur

18-10-2022 • 12:23

91

Submitter: MorbidKetchup98

Reacties (91)

91
89
43
5
1
41
Wijzig sortering
Begrijp ik het nu goed als ik stel dat Bunq wordt verweten niet voldoende maatregelen te nemen tegen witwassen?
Dat hun AI engine niet voldoet aan de normen die de DNB stelt?
Zoals ik het lees, is de kern dat bunq standaard iedereen in het (statistisch bepaalde) "standaard" profiel stopt, en dan met AI/ML gaat monitoren of je ongebruikelijke dingen doet. Zodra je dat doet, gaan andere risico-algoritmes kijken hoe erg dat is en op zeker moment gaan mensen ook kijken.

DNB zegt: je moet iedereen een specifieke intake geven vóór je ze klant maakt, niet eerst "je bent standaardklant" en dan eens zien wat er gebeurt. En de rechter zegt nu, dit is te kort door de bocht, hoezo werkt het niet wat Bunq doet? Want dat toont DNB niet aan, die zeggen alleen "dit is niet de manier die wij willen". Maar omdat de wet een open norm kent ("verzin wat, maar doe het effectief") krijgt DNB dus ongelijk.
Het is natuurlijk ook een flink risico als je alles overlaat aan AI en hierdoor minder mensen inzet tegen fraude. AI is zo goed als de programmeurs, het blijft software die volgens modellen werkt.
Menselijke medewerkers werken toch ook met modellen en procedures? Die zijn net zo goed een risico
Mensen kunnen bepaalde zaken of transacties natuurlijk veel beter in context plaatsen.
In theorie heb je helemaal gelijk. Maar dan heb je wel mensen nodig met een goede training. En die zijn schaars/duur en hebben al een leukere baan..
Tuurlijk. En mensen konden ook veel beter schaken.
als je alles overlaat aan AI ja. Maar als je AI tegen je personeel zegt, "ik heb d'r een" en dat er dan nog even een menselijke procedure wordt gestart om te bepalen of die AI het bij het rechte eind heeft en om de bewijslast rond te krijgen, dan kan zo'n AI fraude gevallen opsporen die door mensen misschien gemist wordt..
Het kan ook betekenen dat daar dingen achter verborgen worden. Het is natuurlijk niet de bedoeling dat banken "AI" gaan toepassen om minder transparant te kunnen zijn.
Correct. Ze mogen dus wel AI inzetten, maar kennelijk vind de DNB overall dat ze niet genoeg doen tegen witwassen.
Bunq moet vooral meer doen rond hoe iemand aan zn geld is gekomen (source of funds) en om PEPs Publicly Exposed Persons. Deze uitspraak ging met name over dat ze AI en ML mogen inzetten bij hun transactie monitoring.

Het verhaal van Bunq zoals ik het begrijp sloeg er vooral op dat ze vinden dat het weinig zin heeft om aan een crimineel vooraf te vragen wat ie met zn rekening gaat doen, maar dat je met slimme analytics vooral het gebruik en in totaal zon 500 datapunten in de gaten moet houden.

De uitspraak zegt dat DNB vooral naar het resultaat van het anti witwas onderzoek moet kijken en niet moet voorschrijven dat ze dat met een standaard vragenlijstje moeten doen.
Ik kan je uit eigen (remediatie grote bank) vertellen dat de DNB weinig kaas gegeten heeft van hoe AI werkt. Laat staan dat ze aan kunnen geven hoe het zou moeten werken 8-)

Ze pakken een casus erbij van situaties die gemist zijn (en die zijn er altijd) en zeggen dan: "Jullie proces en methode voldoen niet aan de wetgeving". Dat er 1000 andere gevallen wél gesignaleerd zijn, aan de FIU doorgegeven zijn (die er niets mee kan doen omdat ze 150 man hebben zitten voor heel NL) telt niet mee.
Bunq is veruit de ergste boosdoener als het gaat om geld witwassen. Wij werken tegen scammers e/d en keer op keer zien we Bunq als ontvangende partij. En ze doen ook bijzonder weinig tegen klachten etc.
Als ik het goed begrijp was het inderdaad niet de vraag of AI/modelering überhaupt gebruikt mocht worden, maar over wie de bewijslast heeft dat het screening model/systeem toereikend dan wel ontoereikend is. De rechter heeft bepaald dat DNB beter had moeten onderbouwen waarom het model van Bunq ontoereikend was toen ze bepaalden dat de bank in overtreding is.

Volgens mij een goede uitspraak die vooruitgang mogelijk maakt. DNB moet nu bewijs gaan leveren waarom een model niet toereikend is, in plaats van simpelweg kunnen zeggen "wij hebben het idee dat dit niet voldoende kan zijn" of "jullie hebben niet exact deze stappen gevolgd".

[Reactie gewijzigd door siraic op 22 juli 2024 17:27]

Of simpel gezien, zo'n engine is 'analyze', en geen 'controle', daar zit een verschil. DNB wil dat je 'controle' voert, en niet 'random analyses' waar een antwoord uitkomt.

Hoewel ik AI beetje overkill vind voor het systeem (zover ik heb gehoord) dat draait, het is een gigantisch matrix met flink wat inputs en voorwaarden, daar komt een profiel (cijfer) uit, veelal op basis van formules en statistieken. (recent iemand gesproken die software schrijft voor faillissementen)
De afglijdende schaal wordt weer eens opgerekt.
Ik zou niet weten waarom.
AI is een vervanging van handmatig KYC. Zoals ik het lees gaat Bunq uit dat de meeste klanten geen witwaspraktijken op nahouden. Bij DNB ben je eigenlijk al schuldig tenzij het tegendeel bewezen is.

voor de duidelijkheid;
Andere grootbanken zijn het met BUNQ eens maar wilden niet protesteren.
KYC in zijn huidige vorm vereist veel mankracht/dossiers en bureaucratisch. Nog maar te spreken of het wel zo effectief is. Het is een uit de hand gelopen "hobby" om alles en iedereen te controleren.
DNB is voornamelijk een papieren organisatie die niks van ICT oplossingen wilt weten.
Je jaagt met veel mankracht op kleine vissen

De grote criminelen weten hun weg wel te vinden. NL kon door de vele constructies niet eens de vermogens van rijke Russen aanpakken.

[Reactie gewijzigd door lighting_ op 22 juli 2024 17:27]

AI is een vervanging van handmatig KYC.
Maar hoe handmatig is KYC eigenlijk? Komt daar 0 automatisering aan te pas?
Als het alleen al automatisch opvragen van gegevens bij andere partijen is, dan komt er dus al een algoritme en dus AI bij kijken.
Bij de Rabobank werken zo'n 6400 mensen aan KYC. Bij de andere grootbanken vergelijkbare cijfers. Het is zeer handmatig werk... Tegelijkertijd heeft de overheid minder dan 100 mensen bij de 'Financial Intelligence Unit' om alle meldingen te behandelen.

https://fd.nl/financiele-...itwasdossier-nrj2caTtoHDj
Ok... Dat is een heleboel meer dan ik had verwacht!
Ik had bij de Rabobank een (onbewuste) fout gemaakt (blijkbaar iets wat niet mag / niet mocht kunnen), kwamen ze pas anderhalf jaar later mee (dat ze met mij contact opnamen)... en dat terwijl ze met 6400 man van alles doen. Zou nog wel opgeschaald mogen worden ;)

Ik had eigenlijk verwacht dat als ik iets fout doe dat ik dat binnen een dagje, max weekje wel weet.
Heb geen praktijk ervaring met KYC maar de vraag naar KYC personeel is groot.
Ook gaf ING aan dat het veel kost.
Definieer automatisering. Automatisering is geen AI

[Reactie gewijzigd door lighting_ op 22 juli 2024 17:27]

Ik heb zelf vergaderingen gezien van 4 grote banken om zelf particuliere betaalrekeningen stop te zetten omdat het veel meer kost dan oplevert met de toen lage rentestanden. Het is niet gekomen maar ik denk dat het een goed signaal zou zijn als dat was gebeurd
Ik heb gehoord van mijn zakelijke accountmanager bij de Rabobank dat ook de bakker om de hoek onder een vergrootglas wordt gelegd.
Ook als uit de geldstromen niet zou blijken dat er een reden is om er eens diep in te duiken wat ik me bijv. Kan voorstellen als er een enorme piek in de omzet komt of de verhouding cash/pin heel erg scheef loopt.

Volgens mij kun je als je een beetje je best doet een 'gemiddelde' bakker/slager/telefoonhoesjes winkel definiëren en als een individueel bedrijf daar dan van afwijkt komt ie op een lijst waar je dan handmatig naar kijkt op transactie niveau. En als de bakker dan ineens een maandomzet heeft die significant veel hoger ligt dan normaal kun je als bank eens vragen hoe het komt dat de zaken wel héél erg goed gaan.
Ik zou niet weten waarom.
Dat zegt dan vooral iets over jou. De gevaren van 'AI' (lees: algoritmen) zijn prima gedocumenteerd zoals bijvoorbeeld door Marleen Stikker of Arnoud Engelfriet. In het kort is het gevaar dat een blackbox bepaald 1) Geen transparantie want proprietary 2) Het 'de computer zegt' argument waarbij iemand die de algoritmes niet kent/begrijpt er conclusies aan verbindt die onterecht zijn 3) Het lijdend voorwerp (de klant) kan er niet tegen in beroep gaan 4) 'Dingetjes' zoals biases, bijvoorbeeld trainingset is niet representatief of een bias door auteur algoritmen (zie ook de Toeslagenaffaire).

Machine Learning (laten we het beestje bij de correcte naam noemen) kan een prima toevoeging zijn op besluitname, maar het mag niet de overhand krijgen.

Dat iemand bang is voor een glijdende schaal is dus zowel een dooddoener als een terechte zorg. Het is echter helaas ook een nogal inhoudsloze one-liner. Maar omdat de details van het algoritme niet openbaar zijn (DNB heeft ze klaarblijkelijk in kunnen zien) kunnen we er ook lastig inhoudelijk op in gaan.

Persoonlijk sta ik er nogal dubbel in. Ik ben bunq klant, en bunq heeft een dubieuze naam bij de politie omdat men eenvoudig veel IBANs kan verkrijgen.
Ai is niet zomaar een vervanging omdat het mag. Dus zowel bij stellen dat het een afglijdende schaal is of een vervanging mag dan wel een onderbouwing verwacht worden hoe dit dan beter is. Maar beweren dat iets anders slechter is is te simpel. Dat zorgt er namelijk niet voor dat die bewering klopt of het alternatief beter is.

Wat ontbreekt is transparantie hoe dit ai werkt, anders is het net zo goed niet zomaar beter dan een alternatief. Ik lees alleen niet dat bunq genoeg wil tonen om te bewijzen dat dit redelijker is en ook niet hoe klagen over anderen de oplossing beter maakt. Want ai is net zo goed niet zomaar een betere oplossing.
Of een ai voldoet is ingewikkelder dan achteraf resultaten controleren. Daarom is het ook belangrijk transparant te zijn hoe het werkt en waarom dat acceptabel is.
Doel je op bunq (met AI) of :
de verplichting om onderzoek te doen naar de bron van de financiële middelen van een klant.
Want die tweede blijf ik geen verantwoordelijkheid van de bank vinden.

edit: (met AI) toegevoegd

[Reactie gewijzigd door Keyb op 22 juli 2024 17:27]

Dat is wel degelijk een taak van een bank. Een bank mag alleen diensten aanbieden met legitiem geld.
Een groothandel mag ook niet in gestolen goederen handelen. Een simpele "ik wist het niet" is niet voldoende. Er moet voldoende zekerheid zijn dat de gelden legitiem zijn.
Ik weet dat ze daar nu wettelijk verantwoordelijk voor worden gehouden, maar dat is dus juist mijn punt. Ik ben daar op tegen. Dat is een taak voor justitie imo (FIOD e.d.).
Dan zouden alle banken alle gegevens over moeten dragen aan bijvoorbeeld de FIOD zodat zij ook die analyse kunnen doen. Ik weet of je daar blij van wordt, alle bankgegevens weer bij de overheid.
Dat weet de overheid toch al? Bij het invullen van de belastingaangifte zijn alle bankrekeningen inclusief saldo al ingevuld samen met de inkomsten van je werkgever(s). Big Brother is watching you :+
Een totaalsom is natuurlijk wat anders dan inzicht in individuele transacties.
Ze hebben nu geen directe inzage in alle transacties. Wat er ingevuld is bij de aangifte komt van werkgevers, pensioenen en hypothekers. Ze krijgen nu alleen de mogelijk verdachte transacties en een eindoverzicht.

Met alle transactie gegevens kun je ook ongeveer de (directe girale nederlandse) omzet van bedrijven checken, je mist dan alleen creditcards en buitenlanders.

[Reactie gewijzigd door Fiets op 22 juli 2024 17:27]

Dat ben ik met jullie eens. Wanneer de overheid al deze gegevens aan elkaar koppelt inclusief eventuele toelages en uitkeringen dan zou er een profiel opgebouwd kunnen worden.
Banken worden inderdaad in de rol van opsporingsinstantie gedwongen en bouwen dus nu deze profielen. Ik heb liever dat de overheid dat doet dan private/commerciële instellingen.
Aan iedere centrale registratie zitten risico's. Daarentegen eist de wetgever dat je een volledig beeld van een klant moet hebben.

Naast risico's die 'gewoon' gemitigeerd kunnen worden zit vooral de privacy wetgeving in de weg.

Je hoeft niet gestudeerd te hebben om te begrijpen dat simpelweg verschillende banken aanhouden voor je betalingsverkeer een simpele truc is om nergens écht op te vallen.

Je hoeft het mij namelijk niets te vertellen, ik werk binnen remediate trajecten van banken mbt dit onderwerp. :-)
Hoe denk je dat de belastingdienst tegenwoordig je aangifte alvast klaarzet? De meeste gegevens vliegen nu toch al die kant op. En ik heb liever dat de FIOD dit werk doet dan de bank ja. De bank is een commerciële partij die niet de politiepet op moet zetten.

Dus ja dat heb ik liever.
De Belastingdienst ziet bij lange na niet "de meeste gegevens". Wat er naar de Belastingdienst gaat, is alleen het saldo van 1 moment per jaar. Wat er de rest van de tijd op jouw rekening(en) gebeurt, daar ziet de BD niets van.

Ik heb liever dat een partij die al die gegevens toch al moet verwerken, daar op controleert, dan dat alles naar de overheid wordt overgeheveld. In dit geval acht het waarschijnlijker dat mijn bank, juist vanwege de commerciële belangen), mijn data veilig verwerkt, dan een overheidsinstantie dat doet.
Agree to disagree dan.

Ik voel er weinig voor om de bank uit te leggen wat voor werk ik doe. Het dient geen belang anders dan handhaving van anti witwas praktijken en behoort daarom imo niet aan de bank toe. Dat je bepaalde triggers hebt zoals cash bedragen groter dan €10K en die doorsluist via PSD2 achtige APIs naar een FIOD kan ik nog voorstellen. Maargoed, dat is mijn mening.
Ik kreeg een bericht van Robeco, dat ze gingen stoppen met de spaarrekening. Nieuwe rekening geopend bij Centraal Beheer en geld daarheen geboekt (via mijn lopende rekening). Binnen een week een brief in huis, of ik maar even wilde verklaren waar dat geld vandaan kwam en (in dit geval) ook even een verklaring van erfrecht mee wilde sturen. Ik had de neiging om e.e.a. te negeren, maar de toon was dusdanig dreigend dat ik maar toegegeven heb.
Mooi voorbeeld eigenlijk wel. De instantie die, in mijn optiek, zou moeten controleren of het netjes is verkregen weet dondersgoed dat je een erfenis ontvangt. Maar omdat ze nu de verantwoordelijkheid bij een ander leggen moet je weer documenten met een extra parij gaan delen. En dan vragen ze nog of je het via de email wilt sturen ook zeker? (onveilig medium).

Ik snap goed dat je hebt toegegeven want ze ontnemen je zonder pardon de toegang tot je geld.
Klopt, per e-mail en nu zit tie in mijn dossier daar. Rare is dat de SNS ook gestopt is met de spaarrekening waar geen lopende rekening aan gekoppeld is en dat geld (soortgelijk bedrag) is naar Nationale Nederlanden gegaan. Die heeft nooit vragen gesteld.
Mensen doen altijd zo krampachtig omtrent AI.
Een AI is een slim algoritme en moet (net zoals alle andere algoritme) ondersteunend zijn voor de mensen en procedures.
Dus mensen controleren de bevindingen uit de AI om te zien of deze terecht zijn of niet.
Hiermee kan een hoop tijd worden bespaard.

Het is verkeerd om het AI direct te koppelen aan "account disablen", omdat je dan geen controlerende werking hebt om "false positivies" eruit te filteren.
Deze algoritmes zijn niet foutloos (Toeslagaffaire is een voorbeeld) maar kunnen voor de betrokkenen wel verstrekkende consequenties hebben. En "account disablen" zal bij veel bedrijven wel degelijk een optie zijn.
positieve meldingen moet je alsnog controleren. Als de automatische piloot van een vliegtuig zonder reden naar beneden duikt corrigeert de piloot het.
Het probleem is vaak dat uitvoeren van dat 'moeten' Daar is dan geen tijd/mankracht voor en dan wordt dat bijv. steekproefgewijs gedaan.
Dat ligt niet aan het systeem maar aan het beleid.
Het bewust risico nemen dat onschuldigen op zwarte lijst komen is een verkeerd beleid.
Overigens kan het wel. Want de melders van toeslagen affaire hebben nog te weinig ontvangen. Omdat het team opeens alles wel nacheckt om niet onterecht uit te keren.
Een melder hoeft geen slachtoffer te zijn

[Reactie gewijzigd door lighting_ op 22 juli 2024 17:27]

Exact. Om even uw vergelijking aan te halen. Je moet dus de autopiloot alleen gebruiken als je ook piloten hebt die op elk moment kunnen ingrijpen..niet gebruiken als er onvoldoende piloten zijn.
Ik snap het probleem niet. Je werkt elke melding af. Niet afgewerkte melding is dus geen beoordeling.
Of je werkt met laag/medium/hoge risico meldingen. Pakt alleen de overduidelijk gevallen
Is geen rocket science.
Het probleem is dat de tijd/mankracht er niet eens is, m.b.t. zogenaamde hoge risico meldingen...die worden op bepaalde factoren bepaald die juist bij de toeslagenaffaire tot grote problemen leidde, of beter onschuldigen laten lijden, tot de dag van vandaag.
Algoritmes zijn op basis van de invoer inweze wel feilloos. Het interpreteren en uitvoeren van wat er vanuit het algoritme komt en juiste foutmarge en de mogelijkheid tot herstel, daar gaat het vaak mis.
Hier ben ik het volledig mee eens, het probleem bij computer says no is nog et die computer.
De lessen die we met z’n alle te leren hebben is dat we moeten stoppen met denken alles te weten alles te kunnen en alles altijd goed te doen. Het simpele feit is dat we fouten maken En dat van die fouten moeten erkennen en herstellen.
Ik heb daarom ook geen enkele moeite met het feit dat een algoritme duizenden of 100 duizenden mensen op basis van foutieve gegevens (Zelfs als dat op discriminerende baas was) , Onterecht worden gemarkeerd als fraudeur. Waar ik wel ernstig teleurgesteld over ben, is dat mijn kennelijk de bereidheid niet had omdat bij zichzelf te erkennen en daarvoor verantwoordelijkheid te nemen.

Het gaat er niet om of-en wat je fout doet, het gaat erom wat je doet om het op te lossen. Wat is er dan bij grote organisaties ziet, zij het Google of de belastingdienst, is dat mensen zich liever achter een smoes of excuus verschuilen, een smoes zoals ‘computer says no’

Want vanaf dat moment is die discriminatie of benadeling of die onheuse bejegening niet meer ‘per ongeluk of onbewust’ dan is het opzettelijk.

Misdrijven die worden ge pleegt door ambtenaren in de uitoefening van hun functie zijn volgens onze wet extra ernstig. Wie zich schuldig maakt en het verduisteren van geld krijgt bijvoorbeeld een straf van 1*x jaar wie dat doet in de ambtelijke uitoefening verhoogd daarmee zijn straf met (als ik het me goed herinner) een derde. 3 jaar wordt dan 4 etc

Ook is het bijvoorbeeld leiders van departementen verboden wetten uit te voeren waarvan ze weten dat dat volgens de grondwet niet maar

Ik ben dus nogal verdrietig dat deze lui niet lijken te worden vervolgd
Klopt maar niet elk algoritme is geschikt voor het oplossen van een specifiek probleem. Of blijkt de dataset niet representatief voor de doelgroep waarover het algoritme wordt losgelaten. Dan krijg je uitkomsten waar je niks aan hebt.

[Reactie gewijzigd door Mol_1248163264 op 22 juli 2024 17:27]

*Randomized algorithms have entered the chat*

;)
Uiteindelijk was het niet het algoritme, het waren de mensen die eromheen zaten die een fout zijn begaan.

zoals ik het heb begrepen (dat kan ik fout hebben) gaf het algoritme ongeregeldheden weer. Maar uiteindelijk zijn het de mensen die eromheen zitten die te makkelijk ervanuit zijn gegaan dat het algoritme heilig is en de mensen dus sowieso fout zaten.
Uiteindelijk was het niet het algoritme, het waren de mensen die eromheen zaten die een fout zijn begaan.
Misschien maken mensen zich juist bij Bunq zich zorgen? Omdat ze in het verleden best veel gebotst zijn met hun eigen klanten, met vele Tweakers forum topics als deze (random topic)

En dat ze kritische vragen van klanten op hun eigen forum verwijderden. Soort van censureren:

forumtopic: Discussie over & Ervaringen met bunq

forumtopic: Bunq-klanten klagen

[Reactie gewijzigd door twkr18526 op 22 juli 2024 17:27]

Mensen leren helaas vrij slecht van hun fouten. Buitenproportionele fraudecontrole bestaat bij een veelvoud aan overheidsinstanties en men is pas na een gigantische uitglijder als de Toeslagenaffaire bij Toeslagen gaan nadenken over de gevolgen van hun handelen. Andere instanties gaan gewoon door met mensen criminaliseren omdat ze door hun situatie de overheid nodig hebben.

En bij verschillende techbedrijven wisten ze ook geen raad met algoritmes die biased waren (door hun eigen input nota bene).

Kortom: je moet wel erg goeie medewerkers hebben wil je problemen voorkomen.
Maar uiteindelijk zijn het de mensen die eromheen zitten die te makkelijk ervanuit zijn gegaan dat het algoritme heilig is en de mensen dus sowieso fout zaten.
Dit is helaas niet gelimiteerd tot algoritmes:
https://en.m.wikipedia.org/wiki/British_Post_Office_scandal
TLDR: BPO gebruikte een buggy kassysteem, waardoor medewerkers als dieven werden aangemerkt. Niemand trok de data van de computers in twijfel.
Mensen zijn ook niet foutloos.
Nou, het is dus blijkbaar voldoende om aan de wet te voldoen door een AI te laten bepalen wat verdacht is en wat niet. Zodra er een positieve vondst is kun je alsnog altijd een mens ernaar laten kijken. False positives kun je dus nog opvangen, false negatives minder goed (tenzij doormiddel van steekproeven).
Deze algoritmes zijn niet foutloos (Toeslagaffaire is een voorbeeld) maar kunnen voor de betrokkenen wel verstrekkende consequenties hebben. En "account disablen" zal bij veel bedrijven wel degelijk een optie zijn.
Er zal altijd een mens aan te pas komen als er een positieve melding uit komt. Het is geen formaat Google/Microsoft waar er tienduizenden positieve meldingen per dag uit komen en geen capaciteit voor is het te controleren.
Het is inderdaad belangrijk om AI te zien als tool ter ondersteuning van het detecteren. Het kan dan naast bestaande systemen en procedures gebruikt worden om de effectiviteit te verhogen.
Er zullen vast en zeker genoeg false-positives zijn maar ik ben er wel van overtuigd dat het hier en daar iets op kan pikken dat met de huidige gang van zaken misschien onopgemerkt had gebleven.
Zelf heb ik ook gewerkt aan een "geautomatiseerd" KYC systeem, maar AI zou ik het niet noemen.
Ik vraag me ook af of het echt een AI is of dat klanten van Bunq niet gewoon "geautomatiseerd" door API's als bijvoorbeeld Graydon (creditablity, risk and compliance check enzo.) heen gehaald wordt en bij een red flags apart gehouden wordt voor handmatige screening. En bij geen red flags een stempel goedgekeurd krijgt...
Bunq is zeker innovatief en ik zou ze goed in de gaten houden als ik een established bank was. Dat lijken ze ook te doen, want mijn Rabo app lijkt precies op bunq 3 jaar terug (minus darkmode helaas). Recente trends zoals #instagram en een slotmachine in de app zou ik dan weer niet snel kopiëren als ik de Rabobank was.
Bunq is elk jaar wat anders. Eerst was het een handige bank. Toen een bomenplanter en nu een casino. Naarstig op zoek naar een nieuwe hype.
Zolang ik niet gedwongen wordt om bomen te planten en mee te doen aan hun roulette vind ik het prima.

Bunq heeft vooralsnog een streepje voor op allerlei zaken: Passen toekennen aan rekeningen ‘on the fly’. Pincodes kunnen wijzigen en meerdere rekeningen aanmaken die automatisch geld ontvangen als je loon gestort wordt.

Het helpt enorm inzicht krijgen in je financiële situatie en ik vind het vooralsnog het geld waard.
Heb jaren geleden een presentatie van die Ali Niknam over Bunq gezien. Sterke Steve Jobs sekteleider vibes. Respect voor het commercieel talent van de man dat hij een inherent saai product (en dat saai hóórt te zijn) als een betaalrekening kan verkopen als ware het een goede LSD-trip. Dat publiek daarentegen, tsja, ergens moet er toch iets mis zijn met mensen die zich geen vragen stellen bij zoveel poeha om een betaalrekening met wat kaarten en een gelikte app. Ik zeg gelikt i.p.v. goed, want het gaat gewoon over het meehollen met de UX-mode van het jaar i.p.v. functionaliteit op zich. Ik begrijp de waardepropositie wel, ik vind ze gewoon totaal niet in verhouding tot de hype en de nihilistische vernieuwingsdrang waarvoor de app elk jaar totaal herwerkt moet worden. Geldt ook voor alle neobanken.
Het lastige is dat zelflerende AI correlaties herkent. Als blijkt dat een bepaalde bevolkingsgroep (herkenbaar aan achternaam) relatief vaker fraude pleegt zal de AI leren dat leden deze groep beter in de gaten gehouden moet worden. Zo kan de onderzoeksinspanning worden geoptimaliseerd.

Maar correlatie is geen oorzaak. Je mag een individu niet beoordelen op basis van afkomst. Sterker nog, dit stigmatiseert juist groepen, wat mogelijk tot meer ongewenst gedrag leidt.

De exacte wijze waarop een zelflerend AI-systeem tot een bepaalde beslissing is gekomen is lastig uit te leggen. Maar er kan wel worden uitgelegd welke gegevens gebruikt zijn om de AI te trainen.
Ik blijf het vreemd vinden. Kun je een AI niet vertellen om bepaalde informatie niet mee te nemen in het verwerken van data? geef de AI alleen getallen en ID's.
Het lastige is dat dingen als etnische afkomst vaak samengaan met andere factoren, en dat ML die andere factoren er feilloos uitpikt als indicatoren, waarna het lijkt of de AI toch op etnische afkomst stuurt. Simpel voorbeeld, je kunt wel het gender van mensen weglaten maar mensen die tampons kopen, worden dan toch anders ingeschat dan mensen die dat niet doen.
Ja, dat kan. Dat moet dan wel aantoonbaar en transparant gebeuren. En het is erg lastig te bewijzen dat bepaalde gegevens NIET gebruikt zijn.
Als een achternaam groot genoeg is (zoals zeg jansen), valt dit in het niet.

Als het een achternaam is die vrij klein is, en "allemaal" oplichters zijn, dan gaat dit bij mensen net zo goed een bias zijn.

Ik zie liever dat de AI het werk makkelijker maakt voor de mensen die de controles doet, en dus juist een hoop "99% correcte" mensen er uitfiltert, zodat de mensen bij bunq beter kunnen kijken naar twijfel gevallen. Als dat betekend dat een specifieke bevolkingsgroep naar boven komt, is het toch juist fijn dat bunq meer tijd heeft om deze mensen beter te bekijken en een goed oordeel velt? Bij tijdsdruk gaan mensen altijd hangen aan een bias/gevoel.
De overheid is vreselijk streng naar banken toe over witwassen, financiering van criminaliteit etc. Bunq is daar innovatief bezig en dat vind de DNB niet goed? Ergens klinkt dit dat het maar een half verhaal is.
20 jaar geleden wist ABN Amro mij al te vertellen dat er fraude gedecteerd was met mijn credit card, dat ze preventief hem geblokkeerd hadden. Colleges bij een andere CC maatschappij was niets verteld.
Fraude en misdaad met betalingsverkeer is belangrijk om op te sporen en voorkomen
Het zou mooi zijn als we hier uiteindelijk personeel vrij mee kunnen maken om andere openstaande vacatures in te vullen.
Het gaat elke keer een stapje verder. Ja de bedoelingen zijn goed maar uiteindelijk eindig je in een AI maatschappij waar algoritmes het dagelijkse leven bepalen.
Wij als maatschappij eisen steeds meer zekerheid en de hoeveelheid data die verwerkt wordt is gewoonweg niet meer te betalen als je het niet geautomatiseerd controleert. Daarnaast kan AI relaties vinden in grote hoeveelheid data die wij als mens niet zo makkelijk kunnen vinden.

Zoals al opgemerkt, je moet vooral de uitkomst goed analyseren en blijven controleren of je het gewenste resultaat hebt gekregen. Daar moeten wij mensen werk in stoppen en niet in het doorspitten van alle dossiers die er zijn. Wel kan je steekproeven door mensen laten doen.

Mijn ervaring met AI is dat het juist ondersteunend kan zijn voor beheerders van applicaties en data. Hiermee al meerdere fouten uit applicaties en invoer naar boven getoverd.
"Mijn ervaring met AI is dat het juist ondersteunend kan zijn"
Dit ben ik helemaal met je eens. AI kan een zeer grote toegevoegde waarde zijn als ondersteuning voor het oplossen van problemen en het analyseren van data maar ik ben bang dat het bij veel bedrijven 'in plaats van' is geworden. Uiteindelijk zullen mensen het laatste woord moeten hebben.
Dit soort surveillance hoort pas toegepast te worden na een gerechtelijk bevel, dus gericht na aanwijzingen. Doorlopende ai surveillance leidt tot een technologische controlestaat waarin privacy en vrijheid vervluchtigen.
Gaat niet over de surveillance. Die moet volgens de DNB sowieso gedaan worden. Het gaat erom hoe die surveillance gedaan wordt. Bunq wilt dit via AI. DNB stelt dat het allemaal door mensen gedaan moet worden.
Dat is dus het hele doel, aanwijzingen verzamelen via AI. Banken zijn verplicht om te controleren op witwassen en financieren van terrorisme. De vraag is moet dit allemaal handmatig worden gedaan of mag het ook met AI? Wat mij betreft mag het ook met AI, scheelt veel personeel wat dan weer een andere nuttige taak kan uitvoeren.
Ik heb wat vrienden die dit werk handmatig voor de banken doen maar wat een weggegooid geld is dat zeg. Ze zitten alleen maar achter de kleintjes aan. Pinpas uitlenen, NO GO. Dan moeten ze een raport schrijven waar ze een maand mee bezig zijn en dan kijken er ook nog eens 3 lagen na, die ook weer tijd kosten. Verder verdienen ze ook nog behoorlijk goed met dat werk. Geen wonder dat de kosten voor een account telkens groter worden.

Ook mooi, ze zijn op hen vingers getickt omdat ze aan vooroordelen doen maar A.I is nix anders dan vooroordelen gaan trainen.

Op dit item kan niet meer gereageerd worden.