Ziekenhuis Groningen gebruikt AI-chatbot om patiëntenvragen te beantwoorden

Het UMCG in Groningen en het ETZ Tilburg beginnen met het geven van antwoordsuggesties op schriftelijke vragen met behulp van kunstmatige intelligentie. De chatbot kan alleen algemene medische informatie geven, geen persoonlijk advies. Er is altijd een arts bij het proces betrokken.

Het Groningse ziekenhuis legt in een blogpost uit dat de AI-functie een deel van het administratieve werk van artsen en verpleegkundigen wegneemt. Daarover zegt KNO-arts en chief medical information officer Tom van der Laan: "Omdat de zorgverleners de vragen nu tussen de bedrijven door beantwoorden, doen ze dat vaak wat kortaf. Kunstmatige intelligentie blijkt niet alleen informatievere en uitgebreidere antwoorden te geven, maar AI doet dat ook meer empathisch." De chatbot geeft een antwoordsuggestie, maar een arts of verpleegkundige moet het antwoord nog goedkeuren voordat een patiënt het antwoord krijgt.

Met de functie kunnen artsen onder meer samenvattingen van operatieverslagen laten maken en ontslagbrieven schrijven. Hiervoor wordt een vraag eerst gecategoriseerd, waarbij er volgens het ziekenhuis gekeken wordt of het om bijvoorbeeld een vraag over medicatie of uitslag van een onderzoek gaat. Van der Laan licht tegenover RTV Noord toe: "Nu is de hoeveelheid informatie die de robot aankan nog beperkt, maar de rekenkracht van computers neemt zo snel toe, dat we straks het hele dossier kunnen meesturen."

De chatbot heeft toegang tot het elektronisch patiëntendossiersysteem. Het ziekenhuis zegt niet welk taalmodel er voor de chatbot gebruikt wordt, maar laat wel weten dat het niet om een zelflerend systeem gaat. De chatbot is ontwikkeld door EPD-leverancier Epic. Het AI-systeem werd in eerste instantie door het UMCG en het ETZ Tilburg getest en wordt nu in het eerstgenoemde ziekenhuis gebruikt. Het is niet duidelijk waarom het ziekenhuis in Tilburg de functie nog niet gebruikt.

Update, 16.00 uur: Het ETZ Tilburg laat tegenover Tweakers weten dat ook dit ziekenhuis van de chatbot gebruik gaat maken. Dat moet in de loop van deze week gebeuren.

Door Yannick Spinner

Redacteur

13-11-2023 • 13:05

141

Reacties (141)

Sorteer op:

Weergave:

Ik zie een hoop negativiteit in de comments, maar ik vind het juist een goed idee.

Het is geen zelflerend systeem (AI is daarmee ook nogal overdreven), geeft alleen algemene informatie en elk bericht wordt gecheckt door een arts.

Oftewel, het helpt een arts om sneller een relatief simpele taak uit te voeren als het antwoorden van algemene vragen, waardoor die meer tijd overhoudt voor andere zaken.

Toch niks op aan te merken? Win-Win.
Ik snap de positieve instelling, maar met mijn eigen ervaring, is het schrikbarend hoeveel onzin en bagger er soms uit zulke systemen komt.

Wat ik alleen nog veel kwalijker vind, is dat ze ook absoluut weigeren enige vorm van bronnen of referenties te vermelden.
Zelfs geen zeer algemene bronnen (wikipedia, encyclopedie, algemene geaccepteerde databases etc).
Ironisch overigens van een systeem dat door engineers en wetenschappers is gemaakt, die mensen zijn zo opgeleid dat ze weten dat bronvermelding een absolute MUST is.

Dus als je geen kennis van zaken hebt, heb je dus geen flauw benul of de informatie klopt of letterlijk verzonnen is.

Dus hoe zien wij dat dan ons praktisch voor ons?
Dat een arts elk antwoord gaat controleren op juistheid?

Je zou dat alleen kunnen doen door eerst zoiets non-stop te laten toetsen en corrigeren.
Op langere termijn heb je er dan eventueel voordeel mee.
Dus hoe zien wij dat dan ons praktisch voor ons?
Dat een arts elk antwoord gaat controleren op juistheid?

Je zou dat alleen kunnen doen door eerst zoiets non-stop te laten toetsen en corrigeren.
Op langere termijn heb je er dan eventueel voordeel mee.
Ja, dat staat letterlijk in het artikel, elk bericht wordt gecontroleerd door een arts.
Voor een arts is het natuurlijk veel sneller om iets te lezen en op versturen te drukken, dan een heel bericht te moeten schrijven. Dus alsnog een stuk sneller dan geen hulp van een chatbot.
Ja, op deze manier lijkt mij de tijdswinst echt marginaal.

Tenzij doktoren structureel langzaam typende mensen zijn?
Je moet immers ook even door de context en de vraag heen om een antwoord goed in te kunnen schatten.
Tegen die tijd kun je net zo goed zelf wat typen.

Iets even snel lezen kan daarnaast ook snel leiden tot dingen over het hoofd zien.
Waardoor mensen alsnog een verkeerd of incompleet antwoord krijgen.

Ik ben er niet zozeer op tegen, maar het gevaar dat er verkeerde informatie de deur uit gaat, ontstaat al heel snel.

Er is trouwens bepaalde communicatie waarbij het mij persoonlijk een rotzorg zou zijn of het "door een mens" is geschreven of niet.
Veel tekst, brieven en communicatie is namelijk louter formeel het enige "menselijke" op dit moment is dat iemand op een knopje klikt om het te versturen.

The bigger picture en meer filosofische kwestie, geeft wel het idee dat we tegen een soort plafond aan het komen zijn.
Een plafond van een samenleving die zo groot en overvol is dat we blijkbaar hulpmiddelen nodig hebben omdat we het anders zelf niet meer redden.
Deze hulpmiddelen zijn echter ook maar beperkt houdbaar.
In hun kunnen, maar ook in hun duur.
Ja, op deze manier lijkt mij de tijdswinst echt marginaal.
Natuurlijk niet. Als jij iets (professioneel) schrijft, dan neem je toch ook even de tijd om de juiste toon te vinden en de zaken juist en helder uit te schrijven? Dat kost juist tijd en dat is nou net een van de dingen waar AI héél goed in is.
..dat we blijkbaar hulpmiddelen nodig hebben omdat we het anders zelf niet meer redden.
Denk je dat we zonder graafmachines, hijskranen en bulldozers ook maar de helft van onze infrastructuur hadden kunnen bouwen? Met de handjes natuurlijk he, want een schep is ook een hulpmiddel.

Het voelt een beetje alsof je aan het zoeken bent naar redenen waarom AI niet goed is. Het is niet dat er geen gevaren of problemen mee zijn, die zijn er zéker wel, maar de zaken die je benoemt zijn nou net geen issue. Het schrijft beter dan 99% van de mensen en heeft over de meeste onderwerpen ook meer kennis. Als er dan nog een handmatige check op is, dan is er gewoon geen probleem. Goede kans dat er minder foute berichten uitgestuurd worden dan wanneer een mens het had geschreven.
Tenzij doktoren structureel langzaam typende mensen zijn?
Doktoren zijn geen techneuten, ja ze typen traag. Helemaal als ze een beetje op leeftijd zijn, de kennis hebben ze absoluut dan maar de typsnelheid zit er niet in.

Denk dat als je een gemiddeld ziekenhuis laat testen dat het gemiddelde rond de 40WPM zou zitten, dan wel niet lager.
Misschien dat je gelijk hebt, maar is dan een typecursus niet een eerste stap zeg maar? :)
Overwerkte doktoren die al 60u per week werken wil je er nog een cursus bovenop geven die niet van medisch belang is?
Ja, daar heb je wel een punt! :)
Definieer van "medisch belang".
Dat gegevens ook op schrift snel en juist worden overgedragen lijkt me wel van belang.

Hoogstens kun je dan nog afvragen of die schriftelijke overdracht door de arts zelf gedaan moet worden of dat dat uitbesteed mag worden aan een assistent of AI.
Het ging er om of het beter zou zijn om artsen een typecursus aan hun to-do list toe te voegen ipv met AI te werken. Ik denk dat AI veel sneller en effectiever is, want schrijven is niet alleen typen, het is ook de juiste woorden vinden. Dat kost mensen sowieso meer tijd dan AI en mensen maken ook niet persé minder fouten dan AI. Dus een AI basis met een menselijke check is zo gek nog niet.

Ik begrijp alleen jouw standpunt in deze context niet helemaal. Kan je dat toelichten?
Ja, op deze manier lijkt mij de tijdswinst echt marginaal.

Tenzij doktoren structureel langzaam typende mensen zijn?
Je moet immers ook even door de context en de vraag heen om een antwoord goed in te kunnen schatten.
Tegen die tijd kun je net zo goed zelf wat typen.

Iets even snel lezen kan daarnaast ook snel leiden tot dingen over het hoofd zien.
Waardoor mensen alsnog een verkeerd of incompleet antwoord krijgen.
Ik heb zelf een aantal junior ingenieurs onder mij waar ik werk naar delegeer. Ik moet nagenoeg 100% controle doen op het werk, maar scheelt me zeeën van tijd. Zelf iets volledig uitwerken kost gewoon veel meer tijd. Daarnaast heb ik meer tijd om te denken waardoor ik juist minder dingen over het hoofd zie.

Heb je überhaupt gekeken of je antwoord enige onderbouwing heeft? Lezen doe je namelijk gemiddeld met een snelheid tussen de 180 en 300 woorden per minuut, typen doe je met 350 aanslagen, wat overeenkomt met 70 woorden per minuut, een factor 3-4 langzamer dus.

Dus in plaats van doktoren te beschuldigen van traag te typen, kunnen we u beschuldigen van ongefundeerde uitspraken het internet op te gooien :+
Ik stel vragen? Beschuldig toch niemand?
Hoeveel moet je corrigeren van die 100%?
Zon arts controleert de eerste 1000, maar daarna wordt dit routine.

Risico, de massa en het algemene wordt gezien, unieke gevallen worden hiermee niet gezien.

Dit gaat levens kosten. (op den duur)
Als ze slim zijn, hebben ze een model (bij)getraind op alle communicatie van de afgelopen jaren. 99% van de vragen zijn al 100x eerder gesteld, de andere vragen vallen te beantwoorden met overige input uit medische bronnen.

Dit scheelt doktoren gewoon enorm veel tijd. Nu een jaartje volop meekijken met AI, daarna is het model nog veel beter en is er vertrouwen opgebouwd. Vanaf dan kan je op basis van steekproef checken of een andere AI het laten checken.
De problemen die jij noemt komen puur door de implementatie van de AI.
Wanneer je bv. Bing Chat gebruikt, dan krijg je overal bronnen van. En je kan ook instellen hoe strikt of hoe creatief de AI moet zijn bij het geven van het antwoord.
Doet alleen Bing dat?
Dat klinkt namelijk als een stuk betere variant.

Chatgpt doet het namelijk net, zelfs niet als je ernaar vraagt.
Geen idee of het de enige is. Ik heb er niet zoveel uitgeprobeerd.
Bing Chat is eigenlijk een uitbreiding op de Bing zoekmachine, dus lijkt het logisch dat die ook met zoekresultaten komt.
Kan zijn dat ze een RAG (Retrieval Augmented Generation) systeem hebben gebouwd, daar geef je context mee aan een taalmodel en het model beantwoord de vraag aan de hand van die context. Die context komt uit je eigen data door bijvoorbeeld een search systeem (lexical, semantic, of hybrid) en daardoor kan je gewoon bronvermelding meegeven (je resultaten). Het ligt er dus aan de implementatie of er wel/geen bronvermelding is.
Vergeet ook niet dat veel UMC's interne AI teams hebben die intern zaken ontwikkelen en gebruiken. Er hoeft niet eens een extern bureau bij te pas te komen. Hoe minder de arts hoeft te doen, des te meer kan deze zich met zijn specialisatie bezig houden. Ik zie er wel voordelen in, zeker omdat er nog een menselijke eind controle plaats vind. En als de pilot niet goed functioneerd , leert men er wel weer van.
Ook hieronder een reactie gegeven, maar ik verwacht dat ze gewoon GPT-4 gebruiken aangezien Epic dit duidelijk op hun eigen pagina's presenteert.
de rekenkracht van computers neemt zo snel toe, dat we straks het hele dossier kunnen meesturen.
Deze persoon heeft van context windows gehoord maar weet de klepel niet hangen. Ik denk niet dat er veel eigen ontwikkeling achter zit.
Ik had het artikel nog niet zo ver gelezen maar 'elk bericht wordt gecheckt door een arts' is m.i. heel gevaarlijk.

Ik ziet zelf o.a. in de vertaalwereld, als je ziet wat voor absolute rotzooi daar verkocht wordt door voorheen best wel sterke vertalers omdat ze nu DeepL gebruiken en niet goed genoeg controleren wat die uitschijt, dan zie je heel snel waarom voorsorteren op het goede antwoord niet altijd ideaal is. Ik heb er zelf ook gebruik van gemaakt, wetende dat het resultaat in de meeste gevallen gewoon nog belabberd slecht is, maar het is echt heel erg gevaarlijk, zelfs met die voorkennis betrap je jezelf erop dat iets snel prima klinkt, terwijl het van niveau kleuterschool is.

Een arts die zomaar AI-antwoorden als basis gaat gebruiken lijkt me dan ook heel gevaarlijk, want juist dat stukje zelf nadenken en een diagnose stellen is waarvoor je naar een huisarts gaat. Een chatbot kan de laagdrempelige klantenservicevragen prima afvangen, maar bij medisch advies moet een arts gewoon de eerste schakel zijn, niet de tweede.
Ik had het artikel nog niet zo ver gelezen maar 'elk bericht wordt gecheckt door een arts' is m.i. heel gevaarlijk.

...

Een arts die zomaar AI-antwoorden als basis gaat gebruiken lijkt me dan ook heel gevaarlijk, want juist dat stukje zelf nadenken en een diagnose stellen is waarvoor je naar een huisarts gaat. Een chatbot kan de laagdrempelige klantenservicevragen prima afvangen, maar bij medisch advies moet een arts gewoon de eerste schakel zijn, niet de tweede.
Misschien moet je dan eerst even het artikel lezen ;)

De chatbot is er ook niet voor persoonlijke medische vragen, maar voor algemeen advies.
Misschien zelf ook even het artikel lezen dan:
Met de functie kunnen artsen onder meer samenvattingen van operatieverslagen laten maken en ontslagbrieven schrijven. Hiervoor wordt een vraag eerst gecategoriseerd, waarbij er volgens het ziekenhuis gekeken wordt of het om bijvoorbeeld een vraag over medicatie of uitslag van een onderzoek gaat.
Klinkt allemaal toch erg als belangrijke medische informatie ;)
Het is geen zelflerend systeem (AI is daarmee ook nogal overdreven), geeft alleen algemene informatie en elk bericht wordt gecheckt door een arts.
ChatGPT is ook niet zelf-lerend. Praktisch ieder systeem wat leert van data (inclusief computer vision etc.) kun je onder de noemer AI schalen. Het is een paraplu term. Als je specifiek naar een tekstmodel wilt refereren kun je beter de term LLM (large language model) gebruiken, dat is wat duidelijker
Volgens mij wordt hier wel degelijk gebruikt gemaakt van GPT-4 (of iets vergelijkbaars). Met zelf-lerend wordt hier bedoeld dat het model niet doorgetraind wordt op medische data.
Helemaal mee eens. Daarnaast lijkt het alsof iedere arts in het UMCG er al mee werkt, waar in de praktijk eerst 5 artsen ermee testen. Blijkt het goed te gaan? Opschalen met kleine stappen. De meeste vragen zijn logisch vanuit patiënten maar niet ingewikkeld voor een medisch specialist. Een empathisch berichtje terugsturen kost nou eenmaal meer tijd dan een kort antwoord en daarin voorziet het model. Win-win is het zeker.
Het probleem is dat artsen heel snel zullen erop zullen vertrouwen dat de informatie wel klopt en dat hun controle dus niets meer zal voorstellen. Dan kom je feitelijk in een situatie waar de informatie alleen van de AI komt. En zoals door anderen gezegd, we weten eigenlijk niet hoe die informatie is samengesteld.
De chatbot heeft toegang tot het elektronisch patiëntendossiersysteem. Het ziekenhuis zegt niet welk taalmodel er voor de chatbot gebruikt wordt, maar laat wel weten dat het niet om een zelflerend systeem gaat. De chatbot is ontwikkeld door EPD-leverancier Epic.
Op de website van Epic zelf staan gewoon twee nieuwsberichten uit april en oktober, waarin vrij duidelijk wordt verwezen naar Microsoft Azure Open AI. In beide wordt verwezen naar GPT-4, dus het lijkt mij dat ze een eigen private instance gebruiken waardoor het "algemene model" GPT-4 niet wordt getraind. Ben benieuwd of Epic een instance per klant doet of region deployment, maar ik ben minder bekend met EPD's en hoe data security wordt ingeregeld.
Poeh, ik hoop dat het een beetje een goede is dan, want de meest verschrikkelijke chatbots zijn die van webshops, bij een medisch probleem wil je toch echt exact uitleggen wat er aan de hand is. Maar goed, voorlopig is er nog altijd een arts bij betrokken. Als het werkt, scheelt het weer wat werkdruk.
En wat gebeurd er als de BOT een levens bedreigend antwoord geeft?
Als voorbeeld sommige medicijnen mogen niet in combinatie worden gebruikt, dat kan fataal zijn.
Ik vind het echt link.

Ik snap dat een arts er naar kijkt, maar als het een tijdje goed gaat zal de controle minder worden, en dan gaat het mogelijk fout.

[Reactie gewijzigd door Jan-Will3m op 22 juli 2024 15:44]

Uit het artikel:
De chatbot geeft een antwoordsuggestie, maar een arts of verpleegkundige moet het antwoord nog goedkeuren voordat een patiënt het antwoord krijgt.
Dat is dus ondervangen.
Dat durf ik te betwijfelen, waar zit dat de winst als een arts of verpleegkundige echt elke regel moet controleren?
Als ik een mail moet opstellen als antwoord op een vraag doe ik er toch veel langer over om die te formuleren, na te denken over hoe ik het zal schrijven etc... dan dat ik gewoon een mail moet lezen en eventueel corrigeren.
Hier de dokter.

Precies dit.

Om even helder te hebben hoeveel standaard antwoorden er gemaakt moeten worden: er werd vroeger ook wel gewerkt met genummerde standaard tekstblokken. Als je dan tekstblok 1 t/m 100 uit je hoofd leerde, hoefde je alleen maar te dicteren: blokken, 1,4, 20, 96, "lab invoegen" - en klaar was de brief.

Omdat er natuurlijk weer op secretaresses moet worden bezuinigd gebruiken we als vervanging nu zelfgemaakte standaardzinnen. Heel veel slepen met de muis. En verder korte antwoorden.

Als een chatbot daar een stuk administratief werk uit handen van de dokter kan halen en tegelijk de antwoorden beter/mooier/begrijpelijker kan formuleren (want daar gaat het om), graag!!

[Reactie gewijzigd door HDoc op 22 juli 2024 15:44]

"Omdat er natuurlijk weer op secretaresses moet worden bezuinigd"

Uit mijn eigen beperkte ervaring merk ik ook dat juist die laag mist. Zoveel tijd kost het om een afspraak te maken, juiste info te vinden, uitslag opvragen, uitleg bij de uitslag opvragen, met de daarbij gemaakte foutjes die alles nog eens trager maakt.

Maar ik kan me voorstellen dat een bot hier en daar een arts iets sneller kan laten werken.
Uit mijn eigen beperkte ervaring merk ik ook dat juist die laag mist. Zoveel tijd kost het om een afspraak te maken, juiste info te vinden, uitslag opvragen, uitleg bij de uitslag opvragen, met de daarbij gemaakte foutjes die alles nog eens trager maakt.
Ook dit!

Er wordt zo veel mogelijk werk maar op het bordje van de patiënt en de dokter geschoven om maar te kunnen bezuinigen op de overhead. Maar die overhead dient wel ergens voor: service voor de patiënt, zorgen dat alles goed loopt. Ziekenhuismanagers hebben als droombeeld dat de gemiddelde patiënt geen enkel contact meer heeft met een baliemedewerker of secretaresse, en dat alles behalve het contact met de dokter volautomatisch loopt.

Helaas voor de manager: bij een "gewoon" bedrijf werkt dat zo niet en bij een nog veel ingewikkelder ziekenhuisbedrijf al helemaal niet.

In de jaren '90 ben ik nog wel eens betrokken geweest bij onderzoek naar het functioneren van een polikliniek. Daar werd toen gevonden dat de gemiddelde inwerktijd van een secretaresse bij een "gewoon" bedrijf 2 weken is, in het ziekenhuis een half jaar. Reden: zeer veel verschillende en ingewikkelde bedrijfsprocessen met daarbij ook nog een ruime mate van eenmalige werkprocessen. Onderliggende reden: elke patiënt is anders. (wie had dat nou gedacht..)

[Reactie gewijzigd door HDoc op 22 juli 2024 15:44]

Als je zoon een opstel van het internet trekt en vervolgens controleert en indient (dan is hij tegenwoordig de lul maar dat even buiten beschouwing latende) dan hoeft hij het niet zelf op te stellen. Dat scheelt enorm veel tijd, zelfs als je bekend bent met de materie.

Ja, je kunt stellen: door dat enkel te lezen ontstaat een routine en die is saai dus snel fouten. Zelfde geldt ook voor een dokter die steeds hetzelfde op moet stellen.

Ik heb gewerkt bij een bedrijf dat ML toepast op de zorg, en er zijn allerlei protocollen mbt ML/AI. Bovendien blijft de arts ook verantwoordelijk want die ondertekent het. Hetzelfde bij een brief die op wordt gesteld namens de directeur van een bedrijf; 'wist ik niets van' is dan een slechte verdediging. Je hebt het immers ondertekend.
Mits zij dit ook doen, natuurlijk.

Heb zelf een product waar veel controlemomenten inzitten en deze worden juist sneller en sneller weggeduwd hoe vertrouwder het product raakt. De meeste controlemomenten worden voorbij gegaan in (totaal) onrealistische snelheden.

Er is ook met regelmaat gevraagd deze controle momenten weg te laten. Met een pilot hebben we eens een aantal controle momenten weggehaald, ging er wat fout, en was het opeens "oh doe toch maar wel dan". Vervolgens teruggeblikt en bleek dat dezelfde fouten mét controlemomenten, hoewel minder, nog steeds gemaakt werden. Dit wil dus zeggen dat het controlemoment niet daadwerkelijk gecontroleerd werd.

Een sterke indicatie van of zij dit controlemoment wel/niet goed aanpakken lijkt erg afhankelijk te zijn van de werkdruk. Iets in mij zegt dat dokters geen lage werkdruk hebben...
Het is ind een van de meest gemaakte fouten, routine fouten.

Ik snap dat artsen en chirurgen het druk hebben, maar deze werkdruk is geregeld door de politiek (vooral VVD). En dan een bot inzetten om de werkdruk te verlagen, gaat in de tijd de baan of persoonlijke tijd met de assistente kosten. Ik denk dat de mens liever zo`n persoonlijk contact heeft met bepaalde zaken, en veel std zaken kunnen ondervangen worden.
Maar toch, liever wat empathie dan een koude bot.
Aan de andere kant kan een bot straks wel je hele patientendossier bij elke keuze doornemen, en mogelijk dingen opvangen die een mens niet zou kunnen. Dus als je het beste van beide combineert lijkt me dat juist een toevoeging voor de patient.
En tegelijkertijd ook mogelijk negatief, omdat je een dokter nog kunt vertellen hoe de zaken nou écht zijn gelopen.

Ik ben zelf iemand die eigenlijk altijd negatief test op alles. Hierdoor heb ik jaren lang met een ziekte rondgelopen. Puntje bij paaltje ben ik ervoor behandeld en wijst de effectiviteit van de behandeling wel uit dat het die ziekte was. Er is een soort van 80% zekerheid dat het die ziekte was. Deze staat echter niet in mijn medische dossier, omdat ik er nooit officieel positief op ben getest.

Een dokter kan de links leggen met mijn informatie erbij en aannemen dat het waarschijnlijk toch inderdaad zo was/is. Een bot gaat die relatieve tussenposities niet kennen, enkel absoluten.

Aan de andere kant, misschien zitten de dokters er naast en ziet de bot iets wat de dokters gezamenlijk over het hoofd hebben gezien.

Samenwerking is hier dus waarschijnlijk wel de sleutel. Beiden hebben voor- en nadelen.
Dus dat is eigenlijk exact wat ik zeg ;)
Maar toch, liever wat empathie dan een koude bot.
In het artikel staat juist dat een van de voordelen van de bot is dat die meer empathisch is in geschrift dan de gemiddelde arts die een reactie af moet raffelen, zeker als de patiënt een standaardvraag heeft. Je kunt natuurlijk beargumenteren dat die empathie "nep" is omdat het gebruikte taalmodel niet "echt" met je mee kan voelen, maar van echte empathie zal van een doorsnee reactie van een menselijke arts ook niet echt sprake zijn. Als je een luisterend, empathisch oor wil zul je sowieso de arts gewoon in persoon op moeten gaan zoeken, en dan hopen dat die tijd heeft. Als je dat nodig hebt zul je ook vast geen schriftelijke vragen aan het stellen zijn.
Ik zie weldegelijk meerwaarde in de efficiëntie en ondersteuning die deze AI-chatbot kan bieden, maar ik maak me toch zorgen over de mogelijke risico's van menselijke fouten (die zeker gaan optreden), vooral bij routinematig gebruik zoals je ook bij het huidige traject rondom zelfrijdende autos ziet. Er zijn hierbij dus bepaalde parallellen te trekken met zelfrijdende auto's die de risico's van menselijke onoplettendheid benadrukken. Bij zelfrijdende auto's is gebleken dat testbestuurders, ondanks hun training, soms niet opletten of niet snel genoeg reageren in kritieke situaties, wat heeft geleid tot ongelukken of andere foute handelingen.

Wanneer 95% van de antwoorden correct is, kunnen zorgverleners in een ritme komen waarbij ze mogelijk minder aandacht besteden aan de antwoordsuggesties. Bijvoorbeeld, na honderden correcte suggesties, kan een enkele foute suggestie onopgemerkt blijven. Dit risico kan wellicht worden verminderd door regelmatige trainingen en het inbouwen van extra veiligheidscontroles, om zo de waakzaamheid en nauwkeurigheid te waarborgen. Ook moet je uitkijken in welke mate de AI heeft gehallucineerd in het antwoord, dat kan soms heel subtiel zijn dus je moet als beoordelaar wel genoeg kennis in huis hebben om dit te kunnen ondervangen. Zeker als het lijkt alsof het goed onderbouwd is maar dit het dus eigenlijk niet is of zelfs compleet verkeerd/verzonnen is.

Dit punt benadrukt de noodzaak van voortdurende waakzaamheid en regelmatige training voor zorgprofessionals. Leren van de uitdagingen in andere [technologische) domeinen om zi een veilige en effectieve implementatie van AI in de gezondheidszorg te waarborgen.
Maar wanneer een arts, die tientallen of honderden patiënten heeft en niet bij elke patiënt het hele dossier helder heeft, even tussen de bedrijven door een email moet beantwoorden, is de kans ook groot dat hij iets in het dossier over het hoofd ziet en een niet 100% correct antwoord geeft.

Uiteindelijk zal het net als bij zelfrijdende auto's zijn. Maakt een mens fouten die een zelfrijdende auto niet of een stuk minder zal maken? Ja. Maakt een zelfrijdende auto fouten die een mens niet of veel minder zal maken? Ja, veel voorbeelden die de media halen waarin een zelfrijdende auto de mist in gaat zijn van het niveau waarbij een mens extreem afgeleid, dronken of in slaap gevallen moet zijn om ze te maken.
Het punt waar het om gaat is of de mens in totaal meer of minder ernstige fouten maakt dan een zelfrijdende auto, om te kunnen bepalen wie overall veiliger rijdt. En in dit geval heb je een getrainde arts als 'bijrijder' die de meest opvallende fouten van de AI uit kan filteren.
een dokter heeft een even grote kans om dat te doen, al dan niet hoger want de AI leest het hele dossier gegarandeerd, terwijl een dokter dat een keer kan vergeten. Natuurlijk moet de AI redelijk getrained zijn maar dat hoeft niet op alle combis, dat hoeft alleen te zijn op ieder medicijn zelf met zijn waarschuwingen.

Dus zo'n bot komt dan terug met "de persoon slikt medicijn X, we weten dat we dan moeten oppassen voor medicijn Y en Z" en dan moet de menselijke hand dat dus checken. Velen malen beter dan hopen dat de doktor dat maar voor ieder medicijn aller tijden onthoud...
Bij een fout van een dokter kan je die dokter eventueel verantwoordelijk houden, succes om dat bij een computer te doen.
Dat zal dan de verantwoordelijkheid van het ziekenhuis zijn die het beheert.
Succes met dat. Wie is er dan uiteindelijk verantwoordelijk en zorgt dat er zaken veranderen? Ziekenhuizen zijn nu al slecht met verantwoording nemen.. Luister dit verhaal maar eens
Maar dat probleem is dus los van het gebruik van AI in hun tools. Maar het argument van "het is een softwarefout" kan nu ook al zonder AI gebruikt worden.
Waar mijn punt vooral op neerkomt, is dat de computer niet verantwoordelijk gehouden kan worden en het dan uiteindelijk wordt afgedaan als fout in de software van de AI.
de computer helpt de doc... de doc geeft het antwoord en blijft verantwoordelijk.. geen probleem dus..
De AI schrijft een voorstel voor de dokter. De dokter moet dat goedkeuren voordat het antwoord verstuurd wordt. Daarmee bloijft de verantwoordelijkheid bij de dokter liggen.
Dat zal er ook voor zorgen dat de dokter niet al te routineus doorklikt omdat hij het wel gelooft. Wanneer hij het foute antwoord doorklikt is hij zelf verantwoordelijk.
Een medicijnen combinatie is iets wat een computer veel beter kan doen dan een mens, die hoeft gewoon een hele rij tabellen te vergelijken en kijken of er iets overeenkomt. Het enige wat een arts doet is het invullen in systeem en kijken of er een rood vlaggetje komt.

Een bot hoeft alleen maar exact hetzelfde te doen, of de apotheek die het uitgeeft, of de huisarts die het ondertekend.
Waarom dan een chatbot erbij zetten als er alsnog een arts is.

Laat gewoon de arts zijn werk doen. En niet een chatbot. Ik zou mr ergeren, ik haat nu al de chatbots laat staan in een ziekenhuis

[Reactie gewijzigd door theduke1989 op 22 juli 2024 15:44]

Je ziet het verschil (als het goed is) niet. Daarbij ga je echt een meer empathisch bericht krijgen van de bot dan van de arts (die gewoon geen tijd heeft voor mooie zinnen). Dus de arts voor de medische expertise, de bot voor de begrijpelijke, empathische zinnen. Win-win.
Ja, dan ga je dood. Ik zou gelijk een ander ziekenhuis zoeken, ik zeg nee tegen dit gezeik.
9 vande tien vragen zijn ik heb een rood vlekje/ hoofdpijn, moet ik naar de dokter? Dat kan een bot dus prima opvangen.
Een rood vlekje of hoofdpijn kan kanker zijn.
je een hoofdpijn ook, of dat je hoofd er bijna afvalt.
maar als die bot zegt, kijk het even een dag of wat an, zoals een telefoniste dat ook zou doen, ontlast dat dus al het systeem,
mensen worden meer en meer hypochonder, zeker met die smartwatches die elke abnormaliteit in een grafiekje aangrijpen om maar een arts te bellen.
Ja, ik geef je zeker niet ongelijk, je ziet inderdaad teveel dat mensen of te snel voor een klein bultje naar de huisarts gaan of mensen die een paar dagen met een gescheurde maag thuis in bed liggen voordat ze langs gaan. Ik heb zelf alleen 0 vertrouwen in die AI bots op dit moment.
Same Ik heb zelf alleen 0 vertrouwen in die AI bots op dit moment.
Zeker wat hier ziekenhuis betreft.
Nog even, en we gaan,kunnen niet anders dan AI bots raadplegen.
Dan lul je niet meer met een gescheurde maag hoor.
Dan zeg je dus ook Ja tegen hogere kosten en/of langere wachttijden.

En je hebt gelezen dat het hier gaat om het beantwoorden van schriftelijke vragen? Dat zal op zich geen haast hebben, laat staan dat er onderzoek van de patient nodig is. Juist daarom wil je daar niet heel veel kostbare tijd van een arts aan besteden.

Wanneer je op zoek wil naar een ander ziekenhuis, dan kan dat, maar over een paar jaar zal je dan toch echt ergens in armzalig land moeten gaan zoeken naar een ziekenhuis zonder enige resources waar ze zelfs geen geld hebben om dit soort dingen te automatiseren. Of je in zo'n ziekenhuis wilt worden geholpen, ik heb m'n twijfels.
Ik ben het zeker met je eens, maar vind jouw voorbeeld wel erg slecht.

Juist de combinatie van medicatie staat nadrukkelijk geregistreerd in lange lijsten welke juist mensen neigen minder snel door te lezen.

Iets wat een hele simpele "A mag niet met B" situatie is, is juist sneller een menselijke fout. Het zijn juist de menselijke interacties waar ik mij zorgen om maak. Een dokter kan er bijvoorbeeld bij stil staan om een relevante vraag te stellen vanuit een situatie welke de patiënt omschrijft, tegenover een bot die gewoon een standaard protocol volgt en niet let op enig ander detail.

Tenslotte is ieder mens anders en reageert ook ieder mens anders op een ernstige of minder ernstige situatie. Een dokter kan dit met regelmaat toch beter inschatten dan een bot.
Dat is toch makkelijk te ondervangen? Zelfs als de BOT een medicijn voorstelt, het kan nog altijd geen recept afgeven.
Behalve dat dit soort beperkingen aan het model worden opgelegd omdat je anders bijv. ook met wetgeving rondom Medische Hulpmiddelen (MDR) te maken hebt. Je reactie is heel begrijpelijk maar uiteraard wordt daar in de zorg ook goed over nagedacht.
Ik denk dat een chatbot die gespecialiseerd is in medische dosiers minder fouten zal maken dan een generieke chatbot als ChatGPT.

Wat ook meespeelt is dat je een medische chatbot eigenlijk geen open vragen kan stellen, alles is altijd in de context van het dossier en de patient. Als je ChatGPT als voorbeeld neemt, die kan echt de meest bizarre dingen verzinnen. Een recent voorbeeld waar ik het hallucineren zelf tegen kwam is bij het vragen naar de betekenis van tekst van een specifiek nummer. ChatGPT kende het nummer en kende het eerste refrein, maar begon daarna zelf tekst te verzinnen die niks meer te maken had met het originele nummer. Geef je ChatGPT echter de volledige tekst van het nummer als context, dan gaat het wel foutloos. Iets soortgelijks is er aan de hand met een medische chatbot.
Poeh, ik hoop dat het een beetje een goede is dan, want de meest verschrikkelijke chatbots zijn die van webshops, bij een medisch probleem wil je toch echt exact uitleggen wat er aan de hand is.
Je gaat die van een webshop toch niet serieus vergelijken met technieken die veel geavanceerder zijn zoals chatGPT?

Het zal zeker niet foutloos zijn maar ze zijn voor globale informatie echt wel accuraat genoeg.
Het zijn alleen algemene antwoorden.
Komt op mij over als eerstelijns afschepen in de hoop dat zoveel mogelijk mensen afhaken. Beetje als die chatbot van bol.com waar je het beste direct drie keer enkel 'medewerker' kan typen onafhankelijk van het antwoord. Of de huisartsassistent die enkel de opdracht heeft zo min mogelijk afspraken echt in te plannen.

Als je iets specifieks wilt weten of de faq op thuisarts wel kan raadplegen, dan is zoiets juist een belemmering.
Ik ben bang dat juist voor zorgebehoevenden hiermee de toegang tot zorg beperkt gaat worden, ouderen of minder digitaal vaardigen of gewoon mensen die minder volhardend zijn.

[Reactie gewijzigd door sambalbaj op 22 juli 2024 15:44]

De eerste lijn is nu heel veel tijd bezig met beantwoorden van hele standaard vragen. Zonde van de menscapaciteit om dat daarvoor te gebruiken.
"Als het werkt, scheelt het weer wat werkdruk."
Dat is een illusie. Het scheelt nooit werkdruk, slecht taakverschuiving. In de praktijk krijg je het vaak juist drukker.
Als je er heel erg basaal naar kijkt dan is een arts een persoon die veel (medische) kennis tot zich neemt en deze beschikbaar stelt aan patienten die, via de arts, in normale mensentaal een vraag kunnen stellen over een gigantisch complex en almaar groeiend domein aan kennis.

Op het eerste gezicht lijkt een LLM me perfect voor dit vakgebied. Als ondersteuning, niet ter vervanging van een arts.

Ik denk dat een beetje LLM zo 90% van de vragen bij een huisarts kan afhandelen.
Ik zit hier dus echt niet op te wachten, of ik nou aan de telefoon zit of met een chatbot praat ik probeer altijd zo snel mogelijk er door te komen dat ik een echte medewerker te spreken krijg. Vaak werkt in een chatbot wel 1 of 2 keer medewerker lopen roepen, aan de telefoon is het altijd een drama om langs al die keuze menus te komen.

Nee geef mij toch maar liever een echt persoon, anders had ik zelf ook wel kunnen googlen namelijk. Als ik wil bellen of chatten ben ik dat stadium al voorbij.
Precies dit. Als het al zover is dat ik ga bellen, dan kom ik er dus niet uit met alle online hulpmiddelen die ik tot mijn beschikking heb. Dan wil ik een persoon spreken.

Dat die persoon dan weer wordt bijgestaan op de achtergrond door een AI assistent, prima. Zo lang het een AI assistent is die niet hallucineert - dat lijkt me onhandig in medische kwesties.

Enfin. Gelukkig zijn ze in Groningen wel zo verstandig geweest om hun chatbot geen toegang te geven tot privacy gevoelige patientengege.... oh wacht...
Oh jee... Epic... Nou, dan weet ik wel. Overbetaalde wurgcontracten, uurtje factuurtje met een vork schrijven, het ziekenhuis maar aftikken.
Ik denk dat je in de war bent met Chipsoft: https://www.2doc.nl/docum...22/09/dodelijke-zorg.html

Ik werk bij een ziekenhuis dat van Epic gebruik maakt, en er valt mijns inziens heel veel in het supportcontract. Uurtje factuurtje zie ik dus niet terug. Als je maatwerk wil dan rekenen ze uiteraard wel extra, maar dat zijn vooral Nederland-specifieke functionaliteiten want je kunt echt heel veel zelf customizen.
Chipsoft was inderdaad een overtreffende trap op het gebied van "graaien".

Met je eens dat de Nederlandse financiering van de gezondheidszorg uniek is in de wereld. Het is bijna niet uit te leggen aan een buitenlander hoe complex het systeem is. Dan krijg je inderdaad snel "maatwerk" omdat ze een model niet kunnen kopiëren uit het buitenland.

Er is ook geen "echte" concurrentie op dat gebied, wie gaat er nu een complex systeem bouwen voor een relatief kleine markt? Er is geen een ziekenhuis die "zomaar" overstapt op een andere aanbieder, dus als een ziekenhuis eenmaal "binnen" is, blijven ze langdurig klant. Voor een conversietraject heb je bijvoorbeeld al snel een klein leger aan trainers en consultants nodig.

Meen dat Epic Nederland een financieel gezond draaiend bedrijf is, met iets van 9 of 10 (academische) ziekenhuizen? Dat zegt eigenlijk al genoeg hoe "raar" deze wereld is.
Een "gezond draaiend bedrijf" zijn als je onderdeel bent van een miljoenenbedrijf is natuurlijk niet heel moeilijk, dat is een boekhoudkundig iets en zegt niets over de cultuur of kosten.

Daarnaast heeft ieder land zo zijn wetten en gebruiken, en daarmee maatwerk. De bulk van hun klanten zitten in de USA, dus daar is de "standaard" op gebaseerd. Als ze in Denemarken of Australië dingen anders doen dan moeten zij ook aan maatwerk.

Ik zal niet ontkennen dat er een hoop geld richting Epic gaat (al heb ik geen idee hoeveel), maar in het uurtje factuurtje kan ik me totaal niet vinden.
Goed punt van dat uurtje factuurtje. Ik heb geen idee of ze dat doen of niet.
Omdat de zorgverleners de vragen nu tussen de bedrijven door beantwoorden, doen ze dat vaak wat kortaf. Kunstmatige intelligentie blijkt niet alleen informatievere en uitgebreidere antwoorden te geven, maar AI doet dat ook meer empathisch.
Dus een taalmodel is warmer en menselijker dan een mens?
Al een tijdje niks meer met artsen te maken gehad begrijp ik? ;)

Nee gekheid. Maar idd zoals @langestefan ook zegt.. die hebben vaak geen tijd (meer) en zeker niet voor relatief simpele vragen waar relatief simpele antwoorden op mogelijk zijn.

Maar ik ben wel benieuwd als je bákken en bákken aan medische onderzoeken en journals en (geanonimiseerde) dossiers zou koppelen. Een AI/taalmodel kan toch vaak relaties leggen op zó'n enorme schaal dat de uitkomsten best nog verrassend kunnen zijn, ook voor artsen.

En laten we niet vergeten dat er al best succesvolle proeven zijn gedaan met AI's die röntgenfoto's onderzoeken en zelfs al eerder kwaadaardige cellen hebben kunnen vinden dan menselijke artsen.
de teksten die chatGPT maakt zijn doorgaans vriendelijker en professioneler dan degene die ik opstel :-)
Vaak wel. Zeker als die mens gehaast is en eigenlijk geen tijd voor je heeft.
Gewoon weer ouderwets gaan bellen binnen kantoor uren.

Ik krijg er zelf de kriebels van, maar chatten, emailen doe ik niet meer als het niet nodig is.
Maar dat is dus precies het probleem, bellen is duur. Het zorgsysteem piept en kraakt, mensen tekort, geld tekort, eigen risico loopt uit de klauwen, noem maar op. En ja we wéten inmiddels wel dat dit de schuld is van de politiek. Maar mensen worden ook ouder, de bevolking die medische zorg nodig heeft explodeert door immigratie. Dus als je tegen technologische vooruitgang bent prima, maar dan moet je er straks niet raar van op staan te kijken dat je helemaal niet meer geholpen kan worden.

[Reactie gewijzigd door langestefan op 22 juli 2024 15:44]

.

[Reactie gewijzigd door Wowhead op 22 juli 2024 15:44]

Gewoon weer ouderwets gaan bellen binnen kantoor uren.
Je hebt het artikel niet goed gelezen. Wat was één van de redenen om AI in te zetten?
.

[Reactie gewijzigd door Wowhead op 22 juli 2024 15:44]

-knip.

[Reactie gewijzigd door Wowhead op 22 juli 2024 15:44]

succes met iemand aan de lijn krijgen :p
De chatbot geeft een antwoordsuggestie, maar een arts of verpleegkundige moet het antwoord nog goedkeuren voordat een patiënt het antwoord krijgt.
Win je er dan echt veel tijd mee? Want het klinkt als dat ze dit dan ook even tussen de bedrijven door goedkeuren. En dan ben je terug bij af.

Ik vind dergelijke ontwikkelingen wel fijn. Volgens mij was er ook al een app waarmee je uitslag kon fotograferen, en dan aangaf of je wel of niet naar de dokter moet. Het is handig, snel en leuk totdat je een keer een fout antwoord of diagnose krijgt...
Heb je zelf wel eens een uitgebreid antwoord geformuleert op een vraag?
Heb je wel eens een uitgebreid antwoord van een ander beoordeeld op juistheid?
Wanneer het antwoord op beide vragen 'ja' is, dan weet je ook het antwoord op je eigen vraag.

Zelfs wanneer je alle gegevens moet controleren om een antwoord te beoordelen is dat nog steeds vele malen sneller dan zelf eerst al die gegevens beoordelen en dan zelf een uitgebreid en helder antwoord formuleren.

Bijkomend probleem is dat artsen denken in hun 'jargon'. Een 100% correcte uitleg die voor een vakgenoot 100% helder is kan voor de patiënt volkomen onbegrijpelijk zijn. De omschakeling om het 'jargon' om te zetten in voor een leek begrijpelijke taal kan ook tijdrovend zijn, zeker aan het einde van de dag waarin hoofdzakelijk in jargon is gecommuniceerd met collega's. Een AI doet dat omzetten in begrijpelijke taal on-the-fly. Voor een arts is het begrijpen daarvan vele malen makkelijker dan het zelf produceren.
De chatbot heeft toegang tot het elektronisch patiëntendossiersysteem.
Dat vind ik nogal een dingetje. Hoe weten we zeker dat de chatbot daar zorgvuldig mee omgaat? Is er een opt-out mogelijk?
Wat kan er gebeuren? Een chatbot is niets anders dan een programma op een normale computer toch?

[Reactie gewijzigd door langestefan op 22 juli 2024 15:44]

Een normale computer kan niet met deze taalmodellen omgaan, en je moet heel veel data in stoppen om tot een goed oordeen in normaal ABN te komen; daar is veel power voor nodig. Het zou mij verbazen als het UMCG deze chatbot lokaal draait.
Dit draait zeker niet lokaal, maar in de cloud. Maar dat is niet nieuw, ziekenhuizen hebben al heel veel infra in de cloud draaien.
Een normale computer kan niet met deze taalmodellen omgaan
Dat is niet waar. Ik draai zelf bijvoorbeeld het opensource taalmodel van meta lokaal, op mijn normale PC. Het is niet zo snel als chatgpt, maar wel bruikbaar. Het is vooral het trainen wat heel veel resources vereist, het model zelf gebruiken valt eigenlijk wel mee.

Op dit item kan niet meer gereageerd worden.