Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

DeepMind-algoritmes kunnen vijftig oogziektes correct diagnosticeren via scans

DeepMind, het zusterbedrijf van Google dat werkt aan kunstmatige intelligentie, heeft algoritmes ontwikkeld die meer dan vijftig verschillende oogaandoeningen correct kunnen diagnosticeren. Dat doet de ai op basis van scans van de ogen.

Het systeem van DeepMind is getraind op een dataset van bijna 1000 oogscans. De oordelen van de ai zijn daarna vergeleken met die van acht verschillende artsen die in sommige gevallen extra informatie hadden, zoals extra oogscans en patiëntinformatie. De algoritmes van DeepMind bleken in 94,5 procent van de gevallen een juiste diagnose te stellen. De oogartsen haalden alleen een vergelijkbaar percentage met behulp van de extra informatie. Zonder die extra gegevens, en dus alleen op basis van de oogscans, scoorden de artsen gemiddeld veel lager: ruim 9 procent.

Het gaat om twee neurale netwerken die zijn getraind op scans die zijn gemaakt met optische-coherentietomografie. Het eerste neurale netwerk werd getraind om in de scans de verschillende eigenschappen van oogziekten te herkennen. Experts hebben veel tijd besteed om de aandoeningen in de scans te markeren, waarna de ai ervan kon leren. De kunstmatige intelligentie werd getraind op bijna 15.000 scans afkomstig van 7.500 patiënten die zijn behandeld in Moorfields, een groot oogziekenhuis in Londen.

Het tweede neurale netwerk analyseert de output en geeft een vertrouwensscore in de vorm van een percentage. Hierbij worden de verschillende aspecten van een specifieke aandoening in de scan aangemerkt, zodat een arts hiernaar kan kijken en idealiter snel ziet wat er aan de hand is. Dat laatste is hard nodig, aangezien het aantal oogscans dat wordt afgenomen bij patiënten, snel groeit en op den duur te groot wordt voor een arts om te beoordelen, zo meldt een oogheelkundige van Moorfields.

Optische-coherentietomografie is een techniek die onder meer wordt gebruikt om het netvlies te onderzoeken. Het maken van de scans bij optische-coherentietomografie kan tien minuten duren; hierbij wordt bijna-infraroodlicht gebruikt wat weer wordt teruggekaatst. Zodoende ontstaat een 3d-afbeelding van het weefsel, wat vaak wordt gebruikt bij het ontdekken van oogaandoeningen.

De algoritmes zijn ontworpen om patiënten te helpen die heel snel een arts nodig hebben. Door de resultaten van de kunstmatige intelligentie kunnen aandoeningen eerder worden gesignaleerd, waardoor patiënten in sommige gevallen betere kansen hebben om niet blind te worden. Het onderzoek is gepubliceerd onder de titel Clinically applicable deep learning for diagnosis and referral in retinal disease.

Door Joris Jansen

Nieuwsredacteur

13-08-2018 • 19:52

66 Linkedin Google+

Reacties (66)

Wijzig sortering
Ik ben verward:
Het systeem van DeepMind is getraind op een dataset van bijna 1000 oogscans.
vs
De kunstmatige intelligentie werd getraind op bijna 15.000 scans afkomstig van 7.500 patiënten

[Reactie gewijzigd door semz0r op 13 augustus 2018 20:09]

Tekst is onjuist.

De AI is getrained met die 15.000 scans. Het systeem is beoordeeld op 1000 scans. Dat gebeurde door 4 ervaren specialisten en 4 optometristen, allen gespecialiseerd in retina, twee beoordelingen te laten maken: een alleen op basis van de scan, en een waar de hele medische status en historie wordt meegenomen.

Hier, aan het eind van het stuk, vind je een link naar het oorspronkelijke artikel.

[Reactie gewijzigd door TheekAzzaBreek op 13 augustus 2018 20:45]

Er is dus een training set van 15.000 gebruikt en een test/verification set van 1.000 stuks. Doorgaans is de test set in mijn ervaring rond de 10x kleiner dan de training set, je hebt maar een eindig aantal items ter beschikking en je wilt het netwerk op zoveel mogelijk items trainen om de best mogelijke performance te behalen. Aan de andere kant heb je weer een statistisch probleem bij een te kleine test set.
Je mag niet een item in de training en in de test set stoppen, dan vergroot je de kans op overfitting, waarbij het netwerk zich te veel specialiseert op je training set. Op andere sets waar het netwerk niet op is getraind gaat de performance dan omlaag.

[Reactie gewijzigd door Origin64 op 14 augustus 2018 13:26]

Bij AI trainingen van een dataset worden de volgende stappen ondernomen:

1) Wegfilteren van een deel van de data omdat er teveel ruis/uitschieters in zitten en/of onvolledige data (geen diagnose bijvoorbeeld)
2) Opsplitsen in twee sets: eentje voor optimalisatie en eentje voor validatie

Bij stap 1 zal dus een deel van de 15000 waarschijnlijk zijn weggegooid of onbruikbaar zijn door missende data. Dus stel 5000 datasets (wat nog veel zou zijn qua onbruikbaar, maar ik ken het type scan niet).

Nu twijfel ik over de terminologie van training (of dat validatie en optimalisatie of alleen optimalisatie is). Maar in stap 2 zal de data worden omgezet in optimalisatie (meestal 70+%) en validatie (het overgebleven deel). Dus ja of ze moeten er slechts 1000 hebben gebruikt en dan 9000 hebben weggegooid (de 15000-5000 (stap 1)-1000(gebruikt)), maar dat lijkt mij zeer onredelijk.

Dus TL;DR, ja 1000 lijkt mij ook onwaarschijnlijk als trainingsaantal.

EDIT: typo

[Reactie gewijzigd door Nicael op 13 augustus 2018 20:30]

Het gaat om twee aparte netwerken. De ene analyseert, de tweede vergelijkt de output van systeem 1 met bekende diagnosen en scans.


Erg mooi dit. Hoe meer we in de zorg kunnen automatiseren, hoe beter. Inmiddels is ~60% van de zorgkosten personeelskosten. En reken maar dat een oogarts daar een flink maandloon uit haalt. Als je door deze techniek 1 oogarts minder hoeft te betalen als ziekenhuis, bespaar je zo 2 ton op jaarbasis.
Maar wat mag die beste oogarts dan gaan doen met zijn kennis?

Begrijp mij niet verkeerd, ik droom over een wereld waar werken slechts tijdverdrijf is dan noodzakelijk voor het leven. Maar in de situatie die je schets word de oogarts werkloos omdat ie vervangen word door een machine. Al die jaren scholing foetsie! Lijkt mij als oogarts niet fijn.
Weer daadwerkelijk meer tijd inruimen voor gesprekken met de patiënt, na de diagnosestelling door AI de juiste behandeling kiezen, nazorgtraject, de daadwerkelijke operatie.

Diagnose is maar een klein onderdeel in het werk van een arts. Daarna pas gaat het echte werk beginnen.
Ik denk niet dat het zo gaat uitpakken. Dit soort systemen gaat gebruikt worden om grootschaliger en laagdrempeliger te scannen, bijvoorbeeld standaard bij de opticien of de huisarts. Dat levert meer patiënten op, en die verwijzingen leveren geld op voor de verwijzer.

Dit is niet perse negatief overigens: aandoeningen kunnen zo in een eerder stadium gevonden worden en dat op zich levert vaak kostenbesparingen en/of een betere verwachting voor de patiënt op.

Bron: een paar jaar bij een bedrijf gewerkt dat hier op inzette.

[Reactie gewijzigd door ATS op 14 augustus 2018 21:08]

Dit soort systemen gaat gebruikt worden om grootschaliger en laagdrempeliger te scannen, bijvoorbeeld standaard bij de opticien of de huisarts.
Helemaal mee eens. Dit is soortgelijk aan de ontwikkeling van vroege detectie van kanker via bloedtests.

Uiteindelijk ga ik er vanuit dat je in de wat verdere toekomst een medische APK krijgt. In sommige landen (Japan, USA; mits je goed verzekerd bent) is dit al vrij gangbaar. De potentiële voordelen hiervan zijn enorm in zowel kosten als behandelbaarheid. Indien dat potentieel ook daadwerkelijk gerealiseerd word zou het mij niets verbazen indien overheden en verzekeraars APK's zullen gaan stimuleren of op een gegeven moment zelfs verplicht stellen.

Hierin kunnen AI systemen heel veel bijdragen. Hopelijk kunnen die systemen in de toekomst ook patronen herkennen waar ze niet specifiek op getraind zijn. Stel je hierbij voor dat er op een scan iets abnormaals te zien is dat echter niet valt in een bekend ziektebeeld. Door dit aan te merken kun je dan specifiek vervolgonderzoek starten. Door cross-referencing van het abnormale beeld met je achterliggende APK database zou je in theorie zelfs kunnen nagaan of andere mensen die hetzelfde abnormale beeld in je test laten zien soms bepaalde symptomen/problemen hebben (of hebben ontwikkeld na een tijd). Vooral dat laatste zou heel waardevol kunnen zijn voor vroege detectie van problemen.
Heb je helemaal gelijk in :)

Ik sprak mijzelf voorbij!
Totaal niet waar. De personele kosten zijn al jaren gelijk, en maken ongeveer 5-6% van het zorgbudget uit. Er zit iets stijging in maar dat is lineair met het aantal stijging in personeel.
Kijk eens naar figuur 8 in deze publicatie van de NVZ, de vereniging van ziekenhuizen.

https://www.google.nl/url...Vaw35rNCAGkF1R16RLLy8i3me
Dat zijn de kosten van de ziekenhuizen. Dat staat niet gelijk aan de kosten van de gezondheidszorg in Nederland.
Maar uiteindelijk zal een ziekenhuis dit dus al te graag implementeren, gezien de hoge personeelskosten. Ik had inderdaad niet alle zorgkosten kunnen toekennen aan ziekenhuiszorg.
De meeste specialisten zijn niet in loondienst van het ziekenhuis maar zijn verbonden aan een maatschap. Zij hebben geen directe invloed op de loonkosten van het ziekenhuis.

De redenen om dit systeem te implementeren zijn naar mijn mening; de mogelijkheid om grootschalig en vroegtijdig automatisch te screenen en de hogere kans op opsporen van oogziekten. In eerste instantie zullen de zorgkosten door dit systeem stijgen. Ten eerste zal de inkoop en inzet niet goedkoop zijn en ten tweede zullen er veel meer behandeltrajecten worden gestart. Op de lange termijn zal het hopelijk een daling van de kosten opleveren. Vroege behandeling is vaak goedkoper en de patienten kunnen langer gezond en productief blijven.
Hoe kom je erbij dat specialisten in een maatschap geen invloed hebben op de loonkosten van een ziekenhuis?

Die paar miljoen die naar de huls BV van de maatschap gaat, dat zijn echt flinke kosten voor een ziekenhuis. Je kunt dat natuurlijk anders noemen op de jaarrekening, maar uiteindelijk zijn het natuurlijk verkapte loonkosten.
Een maatschap een op zichzelf staande entiteit is. Het ziekenhuis heeft geen enkele zeggenschap in de maatschap. Andersom hebben de maatschappen flink wat in de pap te brokkelen in het ziekenhuis. De maatschappen zijn voor een groot deel verantwoordelijk voor het genereren van de inkomsten via de behandelingen. Meer dan bijvoorbeeld de ligdagen genereren. Als je denkt dat maatschappen een lege huls bv zijn dan weet je niet echt hoe de zaken werken in een ziekenhuis.

De hele constructie van maatschappen is naar mijn mening ook een van de redenen dat de kosten hoger zijn dan ze zouden kunnen zijn.
Een maatschap is dus wel een lege huls, de afzonderlijke BV'tjes van de specialisten en vakgroepen die eronder hangen, die hebben inhoud.

Het ziekenhuis heeft geen zeggenschap in de maatschap, maar mag wel mooi iedere maand de nota overmaken.

Ben wel met je eens dat de constructie van maatschappen en vrijgevestigde specialisten een zeer perverse prikkel oplevert in de zorg, waarbij meer productie draaien eigenlijk altijd meer geld oplevert voor de specialisten.
De maatschappen zijn de BV'tjes. Ieder specialisme zijn eigen BV. Fucking lastig als je iets geregeld wilt krijgen dat meerdere specialismen raakt. Je moet letterlijk met de hoed in de hand bij ieder opperhoofd langs en daar akkoord krijgen.

Je hebt helemaal gelijk. Aan het eind van de maand gaat het grootste bedrag naar de specialisten. De ziekenhuizen moeten alle faciliteiten regelen. Het vuile werk opknappen zeg maar. Het lastige is dat het allemaal draait om de kennis en kunde van de specialisten. Dat ze een grote hap uit de taart krijgen is te begrijpen. De manier waarop soms niet.
Ik denk niet dat deze nieuwe techniek heel goedkoop is.
Hoe dat zo? Het enige wat je nodig hebt is processortijd op je neurale netwerken.

De scans heb je sowieso al; die heeft de oogarts namenlijk ook nodig voor diagnose stellen. Sterker nog, om even betrouwbaar te zijn als de AI heeft de oogarts meer informatie nodig. Dat kost dus meer geld. Ook de tijd die de oogarts bezig is met het bestuderen van de scan en de overige informatie bespaar je met deze techniek. De oogarts hoeft nu alleen nog maar de diagnose van de AI te controleren en een behandelplan op te stellen. Dit soort systemen hebben dus de potentie om juist veel geld te besparen.
Dan moet de overheid wel zorgen dat dit soort techniek voor een redelijke prijs beschikbaar komt voor iedereen, en dat het niet zoals veel medicijnen voor enorme bedragen verkocht wordt. Het copyright gaat ook een probleem worden.
Ik moet zeggen dat ik het toch wel kon waarderen toen een trauma arts mijn oor er weer aan naaide.
Wat een cynische houding. Veel van onze welvaart hebben we te danken aan dramatische kostendalingen door automatisering. Dit belooft heel veel goeds voor de betaalbaarheid van de zorg.
De belofte van betaalbare zorg bestaat al heel lang (bijvoorbeeld toen Hoogervorst in 2005 het nieuwe zorgstelsel invoerde) maar het is nog nooit uitgekomen.

De zorg wordt jaar op jaar 5% duurder.
Maak je maar niet druk. Dokters worden gebenchmarked over heel Nederland, dus als je dokter je tevaak terug laat komen, dan krijgt hij daarvoor een doelmatigheidsboete.

Zoek maar eens op Logex, dat systeem gebruikt vrijwel ieder ziekenhuis voor de vrijgevestigde specialisten.
Kijk, hier is AI écht geknipt voor. Niet om dokter te spelen, maar wel om dokters te helpen door bijvoorbeeld mogelijke matches met bekende symptomen te highlighten. Ik ben er in elk geval fan van! (Zo lang google enkel de beelden in handen krijgt en niet de bijbehorende patiëntgegevens O-) )
Vind het ook prachtig en fascinerend. Toch is het wel zaak goed op te blijven letten. Laatst was in het nieuws dat Dr Watson van IBM gewoon onveilig tot zelfs gevaarlijke kankerbehandelingen had bedacht https://gizmodo.com/ibm-w...treatments-tha-1827868882

[Reactie gewijzigd door jip_86 op 13 augustus 2018 20:08]

Dat gebeurt ook wel eens bij gewone dokters van vlees en bloed.
De techniek en de toepassing is hartstikke mooi. Er schuilt wel een gevaar in het gebruik. Een false positive is niet erg. Een arts kijkt er naar en besluit niks te doen. Een false negative is een ander verhaal wanneer volledig op het systeem wordt vertrouwd en daardoor de patiënt naar huis wordt gestuurd. Een vorm van steekproef of een andere methode lijkt me wel wenselijk.
Wat is het probleem als AI het statistisch gezien significant beter doet?

Zuur als je dan de uitzondering bent, want de computer maakt je dan plat gezegd blind. Maar wat is het echte verschil met een arts die iets over het hoofd ziet?
Wat is het probleem als AI het statistisch gezien significant beter doet?
Dan is het nog steeds relevant om sanity checks in te bouwen in plaats van vertrouwen op een enkel algoritme
Snap ik. En ik ben er ook voorstander van dat er altijd een controle is door een doktor na de diagnose door de AI.
Tegelijkertijd denk ik: wie controleert eigenlijk de diagnoses van de huidige doktoren, die zonder AI werken? Ik denk dat dat niet vaak gebeurt, tenzij er aanleiding voor is.

Maar dat is wel het mooie van de AI: doktoren hebben meer tijd om dergelijke controleslagen in te bouwen :)
Dan is het systeem pure verspilling. Je zal tijdens de ontwikkeling zowel een machine als een mens de controle laten doen maar op een gegeven moment zal die machine consistent beter presteren als de mens. En op dat moment moet je gewoon die machine gaan vertrouwen.

Ook zijn en blijven artsen duur en beperkt in aantal. Dit soort machines zullen relatief goedkoop worden. Dit zorgt er voor dat je straks een heel ander soort medisch proces gaat krijgen. Als er genoeg verschillende machines zijn kan je straks je hele bevolking jaarlijks preventief keuren in plaats van te wachten tot iemand met klachten naar de huisarts gaat. Alle positives die hier uit komen zullen worden doorgezet naar gespecialiseerde menselijke artsen die verdere testen uitvoeren. En een false negative komt volgend jaar weer terug en wordt dan wel opgemerkt waarna het systeem verder getraind kan worden met de oude data.
Niet mee eens. Het is geen consumenten product wat je even op de werking test. Een fout heeft grote gevolgen. "Sorry man, de machine zat er langs" is dan niet voldoende als uitleg.

Op het vlak van verspilling is dit best vergelijkbaar: Waarschijnlijk gaan 80% van de airbags zo naar de sloop zonder dat ze zijn gebruikt. Pure verspilling van materiaal. Maar ik weet zeker dat je er blij mee bent als het toch nodig blijkt te zijn.
Waarom wordt zo'n controle dan niet uitgevoerd bij gewone dokters, die mogelijk meer fouten maken dan AI?

"Sorry man, de dokter zat ernaast" is gewoon de praktijk van alle dag.
Als het systeem een kleine kans heeft om een fout te maken, al is de kans dat de dokter een fout maakt groter, is de kans dat het systeem en de dokter tegelijk een fout maken nog kleiner. Als ze het niet met elkaar eens zijn -> second opinion. Zijn ze het eens -> Behandeling uitvoeren. Dan is de kans op een fout lager dan de accuratesse van het computersysteem.
Voor het controleren van de diagnoses van doktoren bestaat al een systeem. Het heet second opinion.

Ik denk dat het gebruik van AI zoals deze een goede zaak is. Je kunt er grote aantallen mensen mee screenen en zo in een vroeg stadium al ziektes ontdekken.
De second opinion gebeurt alleen op verzoek van een patiënt die het niet eens is met de arts of op zoek is naar andere mogelijkheden dan geboden door de arts. De meeste patiënten vragen dus niet om een second opinion.

Daarom pleit ik er voor om de artsen in te zetten voor de second opinion: ook AI is blijkbaar (nog?) niet feilloos. Maar wel hoopgevend, gezien de resultaten :)

@SirBlade een jaar wachten na een false negatieve kan erg lang zijn. Sterker nog: in een aantal gevallen kan dat zelfs dodelijk zijn.
Ik ben het met je eens dat artsen niet heel dik gezaaid zijn, maar ik heb de hoop dat zij tijd over zullen houden als de eerste diagnostiek gebeurt door AI. Die tijd kunnen ze gebruiken voor de second opinion :)
Maar artsen hebben zelf ook false negatives. Het aantal is bij gebruik van AI gewoon lager, dus beter.
Met soms de dood tot gevolg. Helaas zelf meegemaakt met een familielid. Toen ze later de oude foto gingen bestuderen was het ook daar al zichtbaar. Bij eerdere controle was dat niet opgemerkt.
Dat is onzin gezien het systeem beter is dan een arts. Laat de arts lekker het slechte nieuws vertellen en een positive extra checken.
Volgens mij draai je een en ander om.
Ik heb wel mijn twijfel over de opzet van het onderzoek. AI zal waarschijnlijk beter zijn in het detecteren van de boomsoort van een bos op een satellietfoto dan een boswachter. Maar dat komt omdat een boswachter nooit een satellietfoto gebruikt om de boomsoort te bepalen. Wel bijvoorbeeld om de grootte van de bos te bepalen. Hetzelfde zal voor een OCT gelden. Een oogarts kijkt eerst met zijn eigen ogen naar het netvlies. En gebruikt de oct voor aanvullende informatie.
Straks gaat Google Photos nog meldingen geven als ze een oogziekte constateren op je selfie :+

/s, ik weet dat dat hier niet de insteek van is

[Reactie gewijzigd door P1nGu1n op 13 augustus 2018 20:05]

Ooit op een dag zal Google Assistent naar een wond kunnen kijken en je kunnen vertellen dat je antibiotica nodig hebt :+
Persoonlijk verwacht ik dat dit wel heel makkelijk zou zijn, een eerste indicatie zou het ontwikkelen van een lokale verhoging van de lichaamstemperatuur (soms zo erg dat je als mens het zelfs kan detecteren met je vingers). Dat zou een fijn afgestelde IR camera nog kunnen bepalen, dus het lijkt mij niet eens het allermoeilijkste.

Het is dan wellicht moeilijker om de juiste antibiotica te kiezen, en false positives door natuurlijke entropie van de lichaamstemperatuur en meetfouten te voorkomen.
denk aan een combinatie, hartslag uitlezen met smartwatch, AI sympthonen laten detecteren en dit doorzetten naar 112 personeel voordat ze op locatie komen, misschien scheeld dit wel cruciale minuten terwijl het niet eens zo spannend is.
Ik ben het met je eens dat het veel potentie heeft.

Alleen er is "one elephant in the room"; False Positives en False Negatives

Stel; je hebt een accuraatheid van 99% dat het goed gaat dan nog gaat één procent dood en zullen omstanders wellicht denken "dat doet zijn smartwatch wel" [False Negatives, zullen mensen het valse gevoel geven dat de techniek het wel oplost maar nog steeds iemand dood].

Punt 2: Het omgekeerde; een ambulance die uitrijd voor helemaal niks (let wel een False Negative is erger dus er zal een bias zijn op "wel een hartaanval"). In de tussentijd kan iemand omkomen die wel echt in de problemen is beland.

Zelf heb ik er een hard hoofd in dat het zaligmakend is, maar in de komende tien jaar zie ik het niet gebeuren.
Die heb je bij artsen ook.
op die dag heeft de assistent het al besteld in ligt het in de brievenbus :+
Tijd om die privacy sticker maar weer van de laptop webcam af te halen :z
De artsen halen ruim 9 procent zonder aanvullende gegevens? Klopt dat wel? Dat is wel een erg groot verschil. Moet daar geen 0 achter?
"de artsen gemiddeld veel lager: ruim 9 procent"
Inderdaad een beetje verwarrend maar ik denk dat ze 9 procent lager dan bedoelen. Dus 94,5 - 9 = 85,5%
Dat is geen 9 procent maar 9 procentpunt lager.
[off-topic]
Dat punt is overgenomen uit het Amerikaans.
"Vroegah" (opa vertelt :+ ) was het gewoon 9 procent. :)

[Reactie gewijzigd door Pietervs op 14 augustus 2018 01:11]

Het verschil is 9 procent. Niet de resultaten van de artsen. Dat zou echt zorgwekkend zijn :+
Ze scoorden ruim 9% lager als ik de zin zo lees, dus dan zouden ze zo'n 85% scoren.
Altijd lastig, dit soort relatieve grootheden. Ik lees het zo: artsen scoren 9% lager. Maar dan ben je er nog niet: want wat is dat dan? 9% van 94,5%, of 9 procentpunt?
... is hard nodig, aangezien het aantal oogscans dat wordt afgenomen bij patiënten snel groeit en op den duur te groot wordt voor een arts om te beoordelen, zo meldt een oogheelkundige van Moorfields.
Dat kan je niet zo maar doortrekken naar andere landen. Moorfields is een ziekenhuis van de NHS, het Britse ziekenfonds, waar door de Tories de laatste 10 jaar zo zwaar op bezuinigd is dat het bijna op instorten staat.
"scoorden de artsen gemiddeld veel lager: ruim 9 procent"

De score van artsen was niet 9 procent, maar 9 procent lager....
Ik heb een gigantische hekel aan complotdenken maar kan het niet helpen om me bij zo'n bericht af te vragen welke projecten DeepMind nog meer heeft lopen die minder publiekelijk bejubeld worden.
"Morgen" als 't niet midden in de nacht is eens kijken of er een manier is mijn oog te laten beoordelen, kan eventueel scans halen bij 't AZM op schijf. M'n rechteroog gaat al een aantal jaren achteruit (symptoom: metamorfopsie) en 't ziekenhuis kan me er geen verklaring voor geven, geen prognose voor 't verloop in de toekomst en geen behandeling bieden.
Doctors en professors zijn allemaal erg nieuwsgierig naar wat met m'n oog gebeurd maar kunnen me niet meer vertellen.
De 9% discussie lijkt sterk op die van de zelfrijdende auto.
Hij doet het een stuk beter dan de automobilist maar oh wee als er doden vallen.

De praktijk zal zijn dat bij een geconstateerde ziekte met AI de arts gericht verder kan gaan kijken en dus een betere diagnose kan maken dan met alleen AI of arts. Daar zit winst.

Keerzijde is dat bij een "eenvoudige" oogscan het volume aan oogscans dermate toeneemt dat je de arts niet hoeft te ontslaan. Je bespaart dan niets maar verbetert wel de oogzorg in zijn geheel.

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True