AI wordt op zijn vroegst in 2028 ingezet voor borstkankeronderzoek in Nederland

AI wordt op zijn vroegst pas in het derde kwartaal van 2028 in gebruik genomen voor het bevolkingsonderzoek naar borstkanker. Dat komt vooral doordat het Europese aanbestedingstraject twee jaar in beslag neemt.

Kunstmatige intelligentie wordt in Nederland op zijn vroegst pas over drie jaar ingezet om borstkanker op te sporen, meldt de NOS op basis van een brief van demissionair minister van Volksgezondheid Jan Anthonie Bruijn. Het RIVM zegt tegen de omroep dat dat vooral komt door de Europese aanbestedingsprocedure, waarbij wordt bekeken welk bedrijf verantwoordelijk wordt voor de AI-technologie. Ook moet nog worden bepaald hoe AI precies wordt ingezet. Zo zou het kunnen dat AI enkel wordt ingezet als hulpmiddel, maar het is ook mogelijk dat de technologie een menselijke radioloog volledig zal vervangen.

Volgens de NOS wordt AI al in diverse andere landen, zoals Denemarken en Zweden, ingezet bij de landelijke borstkankeronderzoeken. Dat duurt in Nederland langer, omdat het bevolkingsonderzoek hier landelijk wordt georganiseerd, in plaats van regionaal zoals in de Scandinavische landen. Verschillende onderzoeken, onder meer van het universitaire ziekenhuis Radboudumc, tonen aan dat AI meer tumoren op scans detecteert dan radiologen.

Door Kevin Krikhaar

Redacteur

15-10-2025 • 15:29

53

Submitter: 86ul

Reacties (53)

Sorteer op:

Weergave:

An sich fantastisch dat dit in gang gezet gaat worden, maar wel opmerkelijk laat. Uit de artikelen (zie links) blijkt dat het om in Nederland ontwikkelde software gaat, die in Zweden getest is en de resultaten daarvan waren in 2023 al bekend.

https://www.kwf.nl/nieuws/inzet-van-ai-bij-borstkankerscreening

https://www.volkskrant.nl/wetenschap/kunstmatige-intelligentie-ontdekt-borstkanker-vaker-dan-artsen-dat-we-hier-geen-gebruik-van-maken-is-ethisch-onverantwoord~bb0fac87/
We kunnen voorlopig vertrouwen op duiven. Behalve die 1ne gek in dat experiment vonden ze 100 procent van de tumoren nadat ze getraind waren met foto's. (Dat percentage was dus ook hoger dan menselijke radiologen)
Een heel artikel dat er dan op neerkomt dat duiven een fotografisch geheugen hebben ofzo :p. Heeft precies niets met borstkanker te maken.
Ik vraag me af waarom het RIVM dit niet zelf op kan zetten. Is hier echt expertise van buitenaf voor nodig? Het gaat uiteindelijk om foto's die nu ook al gemaakt worden (en waar dus al infrastructuur voor bestaat om deze op te slaan) door een al bestaand machinelearning model te laten analyseren en het resultaat ergens weg te schrijven ("wel/geen abnormaliteiten gevonden"). Het gaat dus hooguit om de aanschaf van een paar (virtuele) machines met een kostenplaatje van hooguit een paar honderd euro per maand? Bij het eerste geval van borstkanker dat vroegtijdig is opgespoord en (goedkoop) behandeld heeft de maatschappij die kosten al terugverdient.

Ter ondersteuning, uit het artikel van de NOS:
Bovendien is er nog maar één radioloog nodig in plaats van twee om de mammografieën (röntgenfoto's) te analyseren.
...
"We vinden meer terwijl het minder werk kost", vat hij de bevindingen samen.
Oftewel, het invoeren van dit model levert een besparing op, maar wordt uitgesteld omdat het aanbesteed moet worden omdat de kosten voor het invoeren boven een drempelwaarde uit komen? We geven dus de komende drie jaar meer geld uit voor minder goed onderzoek.

[Reactie gewijzigd door Skit3000 op 15 oktober 2025 15:46]

Ik vraag me af waarom het RIVM dit niet zelf op kan zetten. Is hier echt expertise van buitenaf voor nodig? Het gaat uiteindelijk om foto's die nu ook al gemaakt worden (en waar dus al infrastructuur voor bestaat om deze op te slaan) door een al bestaand machinelearning model te laten analyseren en het resultaat ergens weg te schrijven ("wel/geen abnormaliteiten gevonden"). Het gaat dus hooguit om de aanschaf van een paar (virtuele) machines met een kostenplaatje van hooguit een paar honderd euro per maand?
Je beseft dat een foutje een mensenleven kost? Waar een hallucinerend AI model soms grappig is, heeft dit echte consequenties.

Dus moet dit aan de Medical Device Regulation (MDR) voldoen: Europese wetgeving die verplicht is voor alles wat een diagnose stelt of verantwoordelijk is voor een behandeling. Dit is iets dat zelfstandig diagnoses stelt, dus dit is een zwaardere risicoklasse. Er moet dan een traject gestart worden om aan te tonen dat de diagnose minstens even goed is als die van een arts. Dus enkele tienduizenden tot honderduizenden beelden door een panel laten beoordelen om definitief vast te stellen of het goed/fout is (de gouden standaard bepalen), dan diezelfde tien/honder-duizenden beelden door andere meerdere verschillende artsen onafhankelijk laten beoordelen om de controlegroep te vormen en dan pas AI zijn werk laten doen en zien of hij het goed doet.

Dit is een enorme berg werk. Ben zelf bertokken geweest bij MDR certificering waar artsen nog controle hadden op de uitkomst (lagere risicoklasse), en dat was al jaren werk.

[Reactie gewijzigd door J_van_Ekris op 15 oktober 2025 16:23]

Ik ben nauw betrokken bij de ontwikkeling van de software bij dit bedrijf. De software gebruikt in de randomized control trial, Zweden (studie Lancet, meerdere keren geciteerd hierboven) is FDA cleared en heeft MDR ook. De software aangehaald in deze studie is inmiddels alweer 4 jaar uit en nieuwe software is inmiddels vele malen beter.

Conclusie studie:

- 30% meer gevonden kankers (totale studiesize 120k vrouwen), bij hetzelfde aantal fout positieven als radiologen

- het is een support tool voor radiologen, dus niet autonoom

- 44% workload reductie

- Kankers worden vroegtijdig gevonden

Ik raad je aan de studie te lezen. Ik lees hiernaast ook vaak dat we RIVM dit zelf zou moeten kunnen trainen. Echter, zou je dan vooral trainen op een nederlandse populatie, welke waarschijnlijk slecht werkt voor andere populaties die gescreened worden in NL. Deze software is getrained en gevalideerd (check de studies op de website van ScreenPoint Medical) op verschillende scanners, modaliteiten, populaties en in verschillende use-cases.
Ik ben nauw betrokken bij de ontwikkeling van de software bij dit bedrijf. De software gebruikt in de randomized control trial, Zweden (studie Lancet, meerdere keren geciteerd hierboven) is FDA cleared en heeft MDR ook. De software aangehaald in deze studie is inmiddels alweer 4 jaar uit en nieuwe software is inmiddels vele malen beter.
Cool! En gaaf dat jullie die hobbel al genomen hebben. Erg pittige hobbel (ben zelf betrokken geweest bij de MDD/MDR certificering van synoptic reporting in de pathologie), waar NoBo's niet al teveel meewerken tenzij je Philips of Siemens heet.
Conclusie studie:

- 30% meer gevonden kankers (totale studiesize 120k vrouwen), bij hetzelfde aantal fout positieven als radiologen

- het is een support tool voor radiologen, dus niet autonoom

- 44% workload reductie

- Kankers worden vroegtijdig gevonden
Dit zijn indrukwekkende resultaten uit een serieuze populatie.
Ik lees hiernaast ook vaak dat we RIVM dit zelf zou moeten kunnen trainen. Echter, zou je dan vooral trainen op een nederlandse populatie, welke waarschijnlijk slecht werkt voor andere populaties die gescreened worden in NL. Deze software is getrained en gevalideerd (check de studies op de website van ScreenPoint Medical) op verschillende scanners, modaliteiten, populaties en in verschillende use-cases.
Ik denk ook dat het onrealistisch is, niet alleen qua trainingsdata. De overhead voor certificering etc. is gewoon lastig op nationaal niveau te doen. Op een Europese of global markt is het nog wel te doen (blijft veel werk, zeker met alle combinaties van scanners etc.), en ik denk dat je dan ook meer impact kunt hebben als dit soort zaken via Europa worden opgepakt.

Is Screenpoint Medical eigenlijk een spinoff van het Radboudt?

[Reactie gewijzigd door J_van_Ekris op 15 oktober 2025 21:15]

Ja, het is best een hobbel;). Ja, het is een spin-off van het Radboud en is gevestigd in Nijmegen.

Houd het bedrijf in de gaten aangezien de software indrukwekkend snel verbeterd. Note: deze studie was van voor de tijd van chatGPT;)
Je beseft dat een foutje een mensenleven kost? Waar een hallucinerend AI model soms grappig is, heeft dit echte consequenties.
Er staat duidelijk dat dit model ter ondersteuning is van de menselijke radioloog (met de optie deze mogelijk ooit te vervangen). Uit het onderzoek waar naar wordt gelinkt blijkt dat het geteste model betere resultaten geeft dan wanneer twee menselijke radiologen naar hetzelfde beeld kijken, en dat gaat ook over enkele tienduizenden beoordelingen. De facto lijkt dus al aan de voorwaarden van certificering voldaan te zijn.

De nu veroorzaakte vertraging komt trouwens niet door de certificeren, maar door het aanbestedingstraject. Die zou verkort kunnen worden naar nul dagen als de overheid dit in eigen beheer implementeert. Er kunnen dus morgen al levens worden gered in plaats van pas over drie jaar.
Het gaat dus hooguit om de aanschaf van een paar (virtuele) machines met een kostenplaatje van hooguit een paar honderd euro per maand?
Nou ja vraag één is of het RIVM zelf een bestaand model heeft wat geschikt hiervoor is.

Daarnaast is het wel wat anders of een foto op het lokale netwerk van een ziekenhuis staat, of dat het geexporteerd wordt naar een centrale server ergens, waar het op de juiste manier met de juiste certificeringen moet worden verwerkt, en het dan terug gerapporteerd moet worden. Hebben ze daarvoor de experts in dienst? Wetende dat als er straks een lek in blijkt te zitten de vraag hier (en op veel andere plekken) zal zijn waarom zo'n stel incompetente prutsers daaraan mochten werken want het is toch zo simpel om alles foutloos te doen!

Dus zelf als ze het model hebben, kan ik me voorstellen dat ze zich daar er niet aan willen branden om dit voor grootschalig gebruik op te zetten.
Op een of andere manier komen de in de bus gemaakte foto's nu al terecht bij (twee) radiologen om deze te beoordelen. Zet op de plek van deze radioloog een computer neer die het model draait en je bent er.

In het onderzoek van Radboud Universitair Medisch Centrum werd het model Transpara versie 1.7.0 van ScreenPoint Medical uit Nijmegen gebruikt. Voor zo ver ik kan beoordelen via open bronnen is dit een soort spin-off van onderzoekers en radiologen die bij het Radboudumc werkzaam zijn/waren (als je in ieder geval af gaat op de bestuursleden). Sterker nog, het Radboudumc adverteert zelfs over dit bedrijf op hun site als een succesvolle spin-off.

Theoretisch gezien is die software dus misschien geen eigendom van het Radboudumc, maar aangezien een deel van het onderzoek uit publieke middelen is betaalt lijkt het mij dat er toch wel iets te regelen moet zijn zonder aanbestedingstraject. Het gaat hier om de levens van vrouwen die zonder dit onderzoek wellicht overlijden.

[Reactie gewijzigd door Skit3000 op 15 oktober 2025 16:16]

Niet alleen levens van vrouwen, ook mannen kunnen borstkanker krijgen.
Maar die nemen geen deel aan het bevolkingsonderzoek, dus dat zal daar geen invloed op hebben.
Ik vroeg mij precies hetzelfde af, we zullen het wel wat over simplificeren. Maar feit blijft dat er inderdaad al goed bruikbare datasets zijn van tientallen jaren om een ai model mee te trainen
Het RiVM is niet veel meer dan het ooit was. Bijna alles is wegbezuinigd of uitgekleed. Ik werk in de wetenschap. Ze hadden vroeger een vaccin Instituut --> afgestoten. Proefdieren--> Afgestoten. Toen Covid uitbrak hadden ze een week nodig om te bepalen wat ze gingen doen met de overheid samen en kon het zuiden na wintersport nog even vrolijk carnaval vieren. Ze zijn van een van paar hectare naar 1 flatgebouwtje gegaan en jij denkt dat ze landelijk AI gaan maken? :X Zelfs het bevolkingsonderzoek van laatst was uit besteedt. (En gehacked)

AI staat in de planning op onderzoeks gebied maar dan een samenwerking tussen DANS en Surf worden voor onderzoekstaken. Gezien DANS als enige van de KNAW en NWO samen is. Zie ik daar nog wel een kans van slagen in samenwerking met Surf.
Woonachtig in Zweden en vanuit mijn werk betrokken geweest bij een deel van de invoering hiervan. Erg spannende technologie wat in veel gevallen sneller en beter werkt. Het stigma heerst nog wel dat het AI is, dus niet goed, maar dat komt omdat mensen AI in algemene zin koppelen aan LLM's zoals ChatGPT en vaak niet weten hoe ze ermee om moeten gaan, waardoor de antwoorden niet zijn zoals ze verwacht hebben.

Ik hoop overigens ook dat de zorg hierdoor goedkoper kan. Gezien alle natuur- en klimaatproblemen in de wereld is de consensus in de wetenschap dat steeds meer mensen zorg nodig hebben, dus dit komt als een welkome aanvulling/vervanging.
Je maakt een goed punt. Het zou al heel veel schelen als we de paraplu-term AI minder vaak gaan gebruiken en gewoon LLM (en de andere afkortingen/namen die bij de betreffende techniek horen). We hebben het tenslotte ook over een fatbike en niet over een fiets. (Waar ‘fietsen’, ebikes, motorfietsen, riksja’s, bakfietsen, bromfietsen, snorfietsen, enz. Onder vallen)
Maar hoe noem je de AI dan die borstkanker onderzoek doet? LIM (Large Image Model)?
Maar hoe noem je de AI dan die borstkanker onderzoek doet? LIM (Large Image Model)?
Zoals we AI al decennia noemen: een neuraal netwerk. AI is een marketingterm wat overal op geplakt wordt, van tandeborstels tot auto's.
Dat weet ik niet. Ik ken niet alle AI-technieken, maar het zou fijn zijn als de redactie op een techsite wel de juiste termen gebruikt, en niet alleen de marketingtermen. Dat de nos/nu.nl de term ai gebruikt voor generiek nieuws snap ik wel, maar voor hier zou het anders toch fijner zijn.
edit:
Na een paar paar seconden zoeken heb ik geleerd dat Computer Vision, CNN, RCNN en YOLO verschillende beeldherkenningtechnieken zijn. Geen idee of een van deze technieken gebruikt worden, maar het zou allicht wat preciezer zijn dan AI. (Wat schijnbaar ook in tandenborstels gebruikt wordt ;) )

[Reactie gewijzigd door lenwar op 15 oktober 2025 16:42]

Zou in het geheel typisch Machine Vision kunnen zijn als ietwat gespecialiseerde naam.
Ik heb een aantal van de testresultaten gezien en het was echt indrukwekkend hoe goed de AI afwijkingen kon detecteren en analyseren. Menig specialist was hier vol lof over.

Maar inderdaad; mensen denken dat ChatGPT voor doktertje gaat spelen.
en vaak niet weten hoe ze ermee om moeten gaan, waardoor de antwoorden niet zijn zoals ze verwacht hebben.
De hoeveelheid onzin die een AI (in de context waar ik er tegenaan loop; software ontwikkeling) kun je toch niet de vragensteller blijven verwijten?

Bedenk wel dat als we nu een vraag aan een (redelijke slimme) mens stellen en deze begrijpt de vraag niet goed zal deze misschien geen eens antwoord geven maar in ieder geval zelf een verduidelijkingsvraag stellen - dat wordt nu overgelaten aan de beoordelaar van het antwoord.... maar die stelt de vraag niet voor niets....
Een AI die relatief veel hallucineert en inhoudelijk eigenlijk geen verstand van zaken heeft, blijft dom.
Sorry, maar dat verwijt ik wel de vraagsteller. Ik ben dan geen developer, maar heb meerdere teams geleid waar developers in zaten en hun codequality en algemene productiviteit is aanzienlijk verhoogd. Kijk naar tools als Cursor en Claude Code. Als je nog steeds last hebt van hallucinaties, dan zou ik je echt aanraden om wat YouTube tutorials te kijken, genoeg die meer dan voldoende informatie aanbieden om dit aanzienlijk te verlagen.
Ik vroeg laatst, bij wijze van test, aan Gemini om een afbeelding te genereren met instructies voor het correct gebruiken van een schuifmaat. In de plaats van een afbeelding kreeg ik een gegidste rondleiding in mijn gemeente...

In de reasoning zag je eerst iets als "... create an image with instructions to guide one through the correct usage of ..." en in de volgende stap "I will act as a friendly local guide ..."

Benieuwd hoezo je dat de vraagsteller wilt verwijten?

Ik ben er ook al regelmatig tegenaan gelopen dat als ik vraag "Maakt toepassing A gebruikt van techniek X of techniek Y?" Dat is een overduidelijke vraag. Eens antwoorden de modellen "X, zeker niet Y" , dan weer "Y, absoluut geen X" terwijl in de praktijk zowel X als Y gebruikt worden. Dat soort reacties zijn het gevolg van een next token prediction model dat getraind is op teksten die meestal maar één van de twee omschrijven, en zelden de twee samen. Lijkt me niet dat je dat de gewone LLM gebruiker kan nageven.

Verder wel met je eens dat mensen nu ten onrechte alles wat onder AI valt linken aan LLM's/ChatGPT. Maar ik merk dat mijn omgeving dit meer linkt aan privacy concerns en energieverbruik.
Helaas kan ik dat niet beamen. Simpele dingen gaan goed, maar ik heb claude code zien genereren met functies die niet eens bestáán of bestaan hébben in het framework waar we het voor gebruiken.
Waarop baseer je dat het aan een stigma ligt specifiek op AI? Want het wantrouwen van machines is er in het algemeen altijd al geweest. En terecht, aangezien machines en technologie voor veel mensen moeilijk te begrijpen is. Al is het alleen al om een gebrek aan emotie, onderlinge affectie en het niet verantwoordelijk kunnen houden. De voordelen die deze technologie kan geven weegt dus niet zomaar op tegen die nadelen. En ik betwijfel dat argumenten als geld- en klimaatproblemen hier belangrijker in zijn om mensen het te laten accepteren. Omdat dit om heel persoonlijk onderzoek gaat, niet algemeen onderzoek waarbij de eigen belangen ondergeschikt zijn. Ongeacht of dat soort argument van geld en klimaat wel te onderbouwen valt bij de zoveelste extra automatisering.
Ik ben bang dat we uiteindelijk veel te veel gaan betalen voor dit soort AI. Het zijn in feite vrij simpele classifiers die onder supervisie zijn getraind met data die patiënten vrijwillig beschikbaar hebben gesteld, onder het mom de wetenschap vooruit te willen helpen. Eigenlijk zouden deze tools dus open en breed toegankelijk moeten zijn.
Het zijn in feite vrij simpele classifiers die onder supervisie zijn getraind met data die patiënten vrijwillig beschikbaar hebben gesteld, onder het mom de wetenschap vooruit te willen helpen.
Het is wel een classificatie waar een wettelijke eis aan gesteld wordt dat die aantoonbaar beter moet presteren dan een arts. En voor een dergelijke clinische validatie moet echt een berg werk verzet worden.
Elke keer dat een radioloog, patholoog of andere specialist een fout corrigeert of een uitslag valideert, wordt het model beter. Het zijn dus uiteindelijk de specialisten zelf die een groot deel van het werk verrichten.
Dit is niet hoe de Medical Device Regulation hier tegenaan kijkt. Deze wet verplicht dat bij gebruik het even goed of beter presteert dan een arts. De kwaliteit van een medische behandeling op basis van AI mag niet afhangen van het vangnet dat er achter zit. Als een 100% controle noodzakelijk is om dit te waarborgen dan ben je medisch en juridisch verkeerd bezig.
Je punt over de MDR is juridisch correct. Maar het fundamentele probleem is dat de wet een AI-model behandelt als een statisch, afgerond product, terwijl het in werkelijkheid een continu lerend systeem is. De ‘autonomie’ die de fabrikant moet aantonen, is dan ook een illusie, volledig in stand gehouden door de collectief betaalde arbeid van specialisten die het systeem voeden en corrigeren.

De oplossing ligt dan ook in een open data-benadering. Alleen wanneer we de data en modeluitkomsten die wij gezamenlijk genereren als publiek goed erkennen en behandelen, doorbreken we dit extractieve model. Zo zorgen we dat de waarde die we samen creëren collectief eigendom blijft, in plaats van te worden geconcentreerd bij bedrijven die private winst maken op publieke kennis.
Maar het fundamentele probleem is dat de wet een AI-model behandelt als een statisch, afgerond product, terwijl het in werkelijkheid een continu lerend systeem is.
Een dynamische AI dat is geen enkele manier toelaatbaar vanuit een veiligheidsperspectief. In geen enkel domein overigens. Vrijwel elke veiligheids-standaard heeft dat al decennia expliciet in de verboden items staan. Dat de AI iets bijgeleerd heeft betekent namelijk niet dat hij per definitie beter presteert. Je moet dus voor elke significante wijziging wederom aantonen dat het beter is dan een arts én de voorgaande versie.
De ‘autonomie’ die de fabrikant moet aantonen, is dan ook een illusie, volledig in stand gehouden door de collectief betaalde arbeid van specialisten die het systeem voeden en corrigeren.
Nee, je wilt niet experimenteren met mensenlevens.
Het is cruciaal dat we de juiste vergelijking maken wanneer we het hebben over de veiligheid van AI in de zorg. Een diagnostisch AI-systeem kan fundamenteel niet worden gelijkgesteld met een medisch apparaat dat een fysieke of operationele taak uitvoert, zoals bij radiotherapie. De aard van de taak is volledig anders. Een AI die een bestralingsapparaat aanstuurt, moet inderdaad onfeilbaar en deterministisch zijn, want elke fout heeft directe gevolgen. Voor dat soort systemen zijn de regels voor statische en onveranderlijke producten terecht van toepassing.

Diagnostiek vormt echter een totaal ander domein. De taak van een diagnostische AI is niet het uitvoeren van een handeling, maar het interpreteren van complexe data, precies wat een radioloog, patholoog of andere specialist ook doet. In de praktijk is diagnostiek altijd gebaseerd op waarschijnlijkheid en deskundige inschatting, niet op absolute zekerheid. Een menselijke specialist is feilbaar, en de benchmark voor AI is daarom niet foutloosheid maar het gemiddeld aantoonbaar beter presteren dan de beste menselijke expert.

Vanuit dat perspectief is het onvermijdelijk dat een diagnostische AI fouten zal maken, net als zijn menselijke tegenhanger. De kern is dat we de kans op die fouten voortdurend willen verkleinen. Een statisch en bevroren model, zoals de huidige regelgeving voorschrijft, bevriest ook het foutenpercentage. Juist een gecontroleerd lerend systeem maakt het mogelijk om van elke correctie te leren en de zorg stap voor stap veiliger te maken voor toekomstige patiënten.

We hebben daarom behoefte aan een regelgevend kader, zoals de EU AI Act, dat het interpretatieve karakter van diagnostische AI erkent en gecontroleerde, continue verbetering toestaat, in plaats van het te behandelen als een statisch apparaat dat nooit mag evolueren.
Een diagnostisch AI-systeem kan fundamenteel niet worden gelijkgesteld met een medisch apparaat dat een fysieke of operationele taak uitvoert, zoals bij radiotherapie. De aard van de taak is volledig anders. Een AI die een bestralingsapparaat aanstuurt, moet inderdaad onfeilbaar en deterministisch zijn, want elke fout heeft directe gevolgen. Voor dat soort systemen zijn de regels voor statische en onveranderlijke producten terecht van toepassing.
Vandaar dat dit in MDR klasse III eindigt.
Diagnostiek vormt echter een totaal ander domein. De taak van een diagnostische AI is niet het uitvoeren van een handeling, maar het interpreteren van complexe data, precies wat een radioloog, patholoog of andere specialist ook doet. In de praktijk is diagnostiek altijd gebaseerd op waarschijnlijkheid en deskundige inschatting, niet op absolute zekerheid. Een menselijke specialist is feilbaar, en de benchmark voor AI is daarom niet foutloosheid maar het gemiddeld aantoonbaar beter presteren dan de beste menselijke expert.
Ik ben een voormalig certificeringsmanager van KEMA, onder andere voor MDD software. Daarna ben ik 20 jaar verantwoordelijk geweest voor de labsystemen die in de pathologie gebruikt worden, waar ook vanuit de MDR eisen aan gesteld worden zowel in beeldverwerking als synoptic reporting. Zelfs voor diagnostiek waar de patholoog geacht wordt te controleren (i.e. systeem geeft alleen een suggestie) zit je al minimaal op MDR klasse 1b.
Vanuit dat perspectief is het onvermijdelijk dat een diagnostische AI fouten zal maken, net als zijn menselijke tegenhanger. De kern is dat we de kans op die fouten voortdurend willen verkleinen. Een statisch en bevroren model, zoals de huidige regelgeving voorschrijft, bevriest ook het foutenpercentage.
Klopt. Dat voorkomt dat het foutenpercentage niet ongemerkt stijgt.
Juist een gecontroleerd lerend systeem maakt het mogelijk om van elke correctie te leren en de zorg stap voor stap veiliger te maken voor toekomstige patiënten.

We hebben daarom behoefte aan een regelgevend kader, zoals de EU AI Act, dat het interpretatieve karakter van diagnostische AI erkent en gecontroleerde, continue verbetering toestaat, in plaats van het te behandelen als een statisch apparaat dat nooit mag evolueren.
De MDR is ook van toepassing, en de AI Act stelt dan ook terecht dat de eisen vanuit de CE eisenset gewoon van toepassing blijven.

Zelfs als je een 100% determinist systeem hebt, zoals het uitcoderen van de beslisbomen die door de WHO zijn bepaald, dan moet je een significant change proces bij de NoBo doorlopen als de WHO besluit ze te updaten op basis van nieuwe inzichten. Waarom zou AI zich daaraan mogen onttrekken?
Lijkt me een goede stap. Radiologen moeten dagelijks duizenden mammografieen beoordelen. En ja daar zijn ze goed in maar ik kan me voorstellen dat er fouten insluipen na 85 mammografieen beoordeeld te hebben. Dat er een AI meekijkt en de radiologen kan ondersteunen bij de beoordeling lijkt me zeer welkom. Denk hierbij ook aan werklijst prioritering en daardoor snellere doorverwijzing naar een ziekenhuis.
Het RIVM zegt tegen de omroep dat dat vooral komt door de Europese aanbestedingsprocedure, waarbij wordt bekeken welk bedrijf verantwoordelijk wordt voor de AI-technologie.
Want dat uitbesteden liep zo goed af bij baarmoederhalskanker? Ik zie weinig argumenten waarom deze AI niet ontwikkeld kan worden met samenwerking met Nederlandse universiteiten. Veel vakgroepen zijn al bezig met het onderzoeken van het gebruik van AI bij diagnoses, prognoses en dergelijken.
Dit inderdaad! En nog afgezien van het feit dat we bij dit soort essentiële diensten straks natuurlijk gigantische prijsstijgingen gaan zien als er nog maar een paar partijen over zijn. Als je de prijsverhogingen van streamingdiensten of andere digitale diensten bekijkt, kan die besparing denk ik snel omslaan.
Ik zie weinig argumenten waarom deze AI niet ontwikkeld kan worden met samenwerking met Nederlandse universiteiten. Veel vakgroepen zijn al bezig met het onderzoeken van het gebruik van AI bij diagnoses, prognoses en dergelijken.
Een vakgroep is goed in dingen bedenken, maar is geen plek waar je iets opzet als support voor als het ding het niet doet. Een AI model bouwen is iets totaal anders dan een applicatie langdurig in leven houden die letterlijk de implementatie is van een medische diagnosestelling. Over tien jaar zijn de wetenschappers met andere dingen bezig, maar wie kun je bellen als je de AI moet verkassen naar Windows 12? Daar heb je commerciele bedrijven voor nodig om dat structureel goed te borgen, geen onderzoeksinstelling.
Zoiets kunnen onderzoeksinstelling al zelf, veel universiteiten hebben data science centra, dus expertise is echt niet probleem voor dit soort zaken, en de overheid/rivm zou ook een organisatie kunnen opzetten die deze taken kunnen uitvoeren. In plaats daarvan gaat nu onderzoek, die waarschijnlijk is uitgevoerd met publiek geld, geld opleveren voor een commercieel bedrijf omdat, geen goede reden eigenlijk. Geen van de taken die jij beschrijft zijn beter uitvoerbaar door een commercieel bedrijf, maar het creëert wel extra risico's zoals bij het bevolkingsonderzoek baarmoederhals kanker.

[Reactie gewijzigd door separhim op 15 oktober 2025 17:33]

Dit is geweldig onderzoek en het is goed leesbaar, dat is soms wel anders.
''Zo zou het kunnen dat AI enkel wordt ingezet als hulpmiddel, maar het is ook mogelijk dat de technologie een menselijke radioloog volledig zal vervangen."

Dit betreft volgens de AI-verordening hoog-risico AI, waarbij menselijk toezicht verplicht is. (III art.14) Daar zijn verschillende vormen voor, zoals human-in-the-loop, maar hier wordt human-out-of-the-loop voorgesteld, wat dus geen menselijk toezicht is. Misschien wordt er human-in-command bedoeld, maar dat staat er niet...

Hoe-dan-ook, de wet schrijft menselijke vorm van toezicht voor, ook al is een AI-systeem beter dan een radioloog...
Dit betreft volgens de AI-verordening hoog-risico AI, waarbij menselijk toezicht verplicht is. (III art.14) Daar zijn verschillende vormen voor, zoals human-in-the-loop, maar hier wordt human-out-of-the-loop voorgesteld, wat dus geen menselijk toezicht is. Misschien wordt er human-in-command bedoeld, maar dat staat er niet...
De MDR vindt er ook wat van, en die vereist al een clinische validatie en post market survailance. Dat laatste is lastig als niemand meekijkt, dus je zult op zijn minst steekproeven moeten hebben die door de mens gecontroleerd gaan worden.

Maar juridisch is dit best wel een taaie: je hebt volgens mij meerdere fabrikanten van cameras, waarbij het clinisch/juridisch volgens mij het hele feest overgedaan moet worden. Ik heb dit meegemaakt met weefselscans en monitoren waar ze op bekeken werden. Dit wil nog wel eens vastlopen op de verschillende inkoopstrategieen van de verschillene BVO regios, etc..

[Reactie gewijzigd door J_van_Ekris op 15 oktober 2025 16:47]

Ik hoop dat Europa hier het AI paradepaartje van kan maken. AI inzetten voor nuttig onderzoek en hier marktleider in worden. China is hard op weg marktleider te worden in de AI automatisering (robots enzo) en dan kan Amerika marktleider AI slob (sora 2 :O ) worden.
Waarom moet het worden aanbesteed?
De modellen zijn er al en beschikbaar.
Dus kunnen gewoon gebruikt worden.

Geef ze anders volledig open beschikbaar en dan maakt onze community er wel een app mee.

Wachten kost doden.
Vrouwen die we graag de komende jaren ook nog bij ons willen hebben op deze planeet.

Volgens mij hebben de AI-studenten teams er ook al apps mee gemaakt die werken, dus stoppen met complex denken in aanbestedingen, dan krijg je alleen grote traditionele bedrijven die dat model nooit zelf ontwikkelde, maar er nu wel het meest aan gaan verdienen.
Bedrijven die echt niet beter georganiseerd zijn rondom AI, alleen dat proberen uit te stralen om maar geld binnen te harken.

[Reactie gewijzigd door djwice op 15 oktober 2025 18:36]


Om te kunnen reageren moet je ingelogd zijn