Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Wetenschappers maken neuraal netwerk dat huidkanker beter herkent dan artsen

Een team van Duitse, Amerikaanse en Franse wetenschappers heeft een neuraal netwerk ontwikkeld dat beter dan artsen in staat blijkt om gevallen van huidkanker te herkennen. De meeste dermatologen werden door de kunstmatige intelligentie verslagen.

Het deep learning convolutional neural network werd getraind door meer dan honderdduizend afbeeldingen van zowel kwaadaardige als goedaardige melanomen. De prestaties van het netwerk zijn daarna vergeleken met de diagnoses van 58 dermatologen uit zeventien landen, van wie ruim de helft meer dan vijf jaar ervaring heeft.

Er werden daarbij afbeeldingen van kwaadaardige en goedaardige melanomen getoond, aangevuld met foto's van moedervlekken. Uiteindelijk bleken de artsen in 86,6 procent van de gevallen huidkanker te herkennen, terwijl het neurale netwerk op 95 procent uitkwam. In een latere fase kregen de artsen nadere medische informatie over de patiŽnten en afbeeldingen met close-ups. Op basis daarvan steeg het accuraat herkennen van melanomen naar 88,9 procent. Het neurale netwerk moest het enkel doen met de afbeeldingen en kreeg geen nadere informatie.

Het neurale netwerk blijkt een hogere gevoeligheid te hebben, omdat het minder melanomen heeft gemist. Daarnaast heeft de kunstmatige intelligentie minder vaak een verkeerde diagnose gesteld, waarbij bijvoorbeeld goedaardige moedervlekken toch als kwaadaardig melanoom werden aangemerkt. Volgens de Duitse professor Holger Haenssle is hiermee aangetoond dat neurale netwerken beter kunnen presteren dan ervaren dermatologen. Hij stelt dat er door de betere prestaties van de ai op termijn waarschijnlijk minder onnodige chirurgische ingrepen zullen plaatsvinden.

Het onderzoek heeft nog enkele beperkingen. Zo wisten de dermatologen dat ze zich in een kunstmatige situatie bevonden en dus geen impactvolle beslissingen hoefden te nemen voor echte patiŽnten. Daarnaast toonden de in de test gebruikte afbeeldingen voornamelijk melanomen en moedervlekken bij mensen met een blanke huidskleur.

Kwaadaardige melanomen komen steeds vaker voor. Wereldwijd zijn er jaarlijks naar schatting 232.000 nieuwe gevallen, waarbij 55.500 patiŽnten aan de gevolgen overlijden. Het onderzoek is gepubliceerd in het wetenschappelijke tijdschrift Annals of Oncology, onder de titel Artificial intelligence for melanoma diagnosis: How can we deliver on the promise?

Door Joris Jansen

Nieuwsredacteur

29-05-2018 • 10:18

93 Linkedin Google+

Reacties (93)

Wijzig sortering
Er wordt 2x gesproken over goedaardig melanoom. Dat bestaat niet. Een melanoom is altijd maligne (kwaadaardig). Maligne melanoom is dus een pleonasme. Benigne (goedaardig) melanoom is een contradictio in terminis. Advies om het artikel aan te passen om verwarring te voorkomen.
Klopt inderdaad. De studie spreekt dan ook over malignant melanomas en benign moles. Goedaardige moedervlekken zou dus de juiste vertaling zijn. Malignant melanoma wordt wel vaak gebruikt in het Engels ipv simpelweg melanoma. Weet niet of dit in het Nederlands ook zo is.
Deze ontwikkeling is super fijn, maar we moeten ook mogelijke keerzijden durven bespreken. Dingen om in het achterhoofd te houden:
- Algoritmes als deze reflecteren de status quo van kennis, maar zullen niet zoals mensen het creatieve vermogen hebben om in het veld geheel nieuwe dingen te herkennen.
- Er kan bias in de data zitten die door het algoritme wordt versterkt. Zo kan het beter zijn in het herkennen van tumoren bij blanke westerse mensen omdat daarvan meer fotomateriaal beschikbaar is.
- Deze systemen geven false positives en false negatives. De vraag is wie er verantwoordelijk is bij misdiagnose. Het stukje "Zo wisten de dermatologen dat ze zich in een kunstmatige situatie bevonden en dus geen impactvolle beslissingen hoefden te nemen voor echte patiŽnten." gaat daarover.
- De 95% die het algoritme herkent bevat niet perse de situaties die artsen nu goed herkennen. Zie het als een Venn diagram: een groot deel overlapt, maar een deel ook niet. Idealiter werken arts en algoritme samen voor optimale herkenning.
- Op de midden lange termijn geven artsen controle uit handen. Net als bij de 'driverless cars' van Tesla gaan mensen toch achterover leunen. Je introduceert in wezen een nieuwe black box in de situatie.
- Op de lange termijn kan dit de algehele autonome positie van artsen aantasten: zij verliezen bijvoorbeeld onderhandelingsvermogen naar verzekeraars wanneer algoritmes belangrijker worden.

Vergezocht? Laten we in ieder geval zoeken naar schaduwkanten voordat we weer verrast worden (Cambridge Analytica, etc).
Ik heb geen toegang tot het artikel zelf, alleen het persbericht.
Ik mis wel een aantal zaken:
- Hoe groot is het aantal false positives bij specialisten en bij de AI
- Een beschrijving van de verschillende foto's (huidtypen, jong/oud, moedervlekken, sproeten, littekens, beharing enz.)
- Wat was het werkelijke percentage melanomen op de foto's
- Hoe goed wordt de minder agressieve vorm ontdekt
- Is er een overeenkomst tussen de gemiste melanomen

Kortom, het is een goede ontwikkeling, maar de algemene toepasbaarheid is niet duidelijk. Het vertrouwen in techniek is mooi, maar zeker als het om diagnostiek gaat, zal je de specialisten nooit moeten uitschakelen. In dit onderzoek blijkt al dat aanvullende gegevens een belangrijke toevoeging kunnen zijn. Door het alleen vertrouwen op techniek zal de kennis van de specialisten afnemen. Specialisten hebben nog altijd het grote voordeel dat ze breder opgeleid zijn en mogelijk ook andere ziektes kunnen herkennen. Een slecht werkende lever geeft een wat gelere huid. Een dermatoloog zal dan direct naar de ogen kijken en als die ook verkleurd zijn zal je doorverwezen worden. De techniek roept alleen "Geen melanoom".

Ik ben het dus volledig met je eens dat er een aantal keerzijden aan dit soort technieken zijn. Daar moeten we onze ogen niet voor sluiten. We moeten dus ook altijd zelf bezig blijven om ook de diagnostiek door mensen te blijven verbeteren.
Het vertrouwen in techniek is mooi, maar zeker als het om diagnostiek gaat, zal je de specialisten nooit moeten uitschakelen
Nee mee eens... maar ik heb liever dat een algoritme met een bewezen true positive/false negative ratio (beter dan een menselijk expert) mijn diagnose stelt dan een expert die er al tig op een dag heeft moeten doen en last begint te krijgen van de menselijke zwakten (vermoeidheid, verveling, etc.). Liever dat deze expert het werk van een machine dubbel checkt.

Een ondersteunende rol van dergelijke rol lijkt mij niet meer dan vanzelfsprekend.
Ik vind wat jij zegt een gigantische open deur, aangezien precies hetzelfde geldt voor MRI-scanners en andere hulpmiddelen die al vele jaren gemeengoed zijn in ziekenhuizen en miljoenen levens gered hebben.
Je mag het een open deur noemen, maar het is wel een groot gevaar dat men te veel op diagnostische technieken te vertrouwen. Vergelijken met hulpmiddelen als een MRI gaat niet op. Deze hulpmiddelen geven wel extra inzicht, maar nemen geen taken van een specialist over. De specialist blijft degene die een oordeel moet vormen over wat er aan de hand kan zijn. Het algoritme om te bepalen of iemand huidkanker heeft (of niet) neemt de diagnose over.
Dat is jouw interpretatie, een algoritme dat iets zegt over een melanoom is mijn ogen niet heel veel anders dan een meting van bloedwaardes waarvan je maar moet hopen dat de apparatuur goed geijkt is. We zijn al tientallen jaren steeds meer afhankelijk van technologie, en dat heeft een exponentiŽle kwaliteitsverbetering opgeleverd van de zorg over de jaren heen.

[Reactie gewijzigd door MarcoC op 29 mei 2018 21:57]

Als je het artikel (en het persbericht) goed leest, is het algoritme wel degelijk bedoeld om zelf de beslissing te nemen of je een melanoom hebt of niet. Bij alle andere hulpmiddelen is dit altijd nog de specialist die aan de hand van beelden en metingen een diagnose stelt. Daarbij is een specialist niet beperkt tot ťťn diagnose, maar kan hij op basis van de gegevens ook op een alternatief uitkomen. Een specialist maakt daarbij ook gebruik van extra informatie (en zelfs in deze test bleek dat al een verbetering van de diagnose te geven).
Mocht je ooit een melanoom hebben gehad en een specialist gaat ter controle je hele huid af om uitzaaiingen te zoeken, dan zijn dit soort algoritmes te verkiezen boven het menselijk ook. Als je 4 m2 af moet zoeken naar een kleine afwijking is de kans dat je een paar keer een concentratiedipje hebt groot. Dan kan je zomaar een beginnend plekje missen. Algoritmes blijven altijd even geconcentreerd doorrekenen.
Eigenlijk moet je zo'n algoritme net zo gebruiken als andere meetinstrumenten. Je meet dan de kans op een melanoom net als bijvoorbeeld de hB waarde van je bloed.
- Algoritmes als deze reflecteren de status quo van kennis, maar zullen niet zoals mensen het creatieve vermogen hebben om in het veld geheel nieuwe dingen te herkennen.
Het eerste stuk van deze zin is helemaal waar: dit is geen eindpunt, maar een moment in de ontwikkeling van diagnose-software. Je kunt er dus van uitgaan dat we steeds betere diagnoses zullen krijgen. Daarom is het laatste stukje van je zin een beetje vreemd: creativiteit is niet per definitie een unieke menselijke eigenschap. Je kunt het ook zien als een handige afwijking die er voor zorgt dat we afwijken van de platgelopen paden. En dat kun je, hoe vreemd het ook klinkt, best inbouwen in software.
- Op de midden lange termijn geven artsen controle uit handen. Net als bij de 'driverless cars' van Tesla gaan mensen toch achterover leunen. Je introduceert in wezen een nieuwe black box in de situatie.
Het grappige is dat een arts nu voor de "gewone" man ook een black box is. Jij geeft als patient de controle uit handen. Of die black box nu een arts is of een algoritme, eigenlijk maakt dat niet uit. Want net zoals aan een arts kun je ook aan het algoritme vragen stellen. Ik neem aan dat de beslis-boom achter het eindoordeel op te vragen en te controleren is. En artsen zijn ook lang niet altijd goed in het verklaren van hun diagnose :)
Ik ben het met je eens. De AI verbeterd ook naarmate dat die meer data krijgt. Er is gewoon een limiet aan hoeveel tijd je kan besteden aan het opvoorhand leren van de software. Zelflerende wordt btw vermeden bij deze zaken omdat het voor regulerende doeleinden overzichtelijk moet blijven hoe het werkt en op welke manier er getraind is (op een pharmacovigilance congres waar ik in januari was werd hier veel aandacht aan besteed ook). Dit net om de black box te vermijden. Je kan veel beter zien hoe er "gedacht" wordt dan bij mensen het geval is.

Verder geeft deze software een bijkomend voordeel waar misschien niet aan gedacht wordt.
Een veel grotere groep patienten kan opgevolgd worden dan momenteel het geval is.
Probeer maar eens een afspraak te maken bij een dermatoloog momenteel ;-)
Met dergelijke software zou een huisarts een eerste analyse kunnen maken bijvoorbeeld om je dan desnoods door te verwijzen naar een specialist.
Gelijkaardig als momenteel met simpele ECGs gedaan wordt waar huisartsen een eerste screening kunnen doen al.
Momenteel zijn er veel mensen waar een melanoom niet opgemerkt wordt simpelweg en het is jammer genoeg een zeer agressieve kanker.
Vreemd in het artikel staat de term AI, dus die moet dit ook herkennen. Of is het hier weer toegepast als een hippe term en is het eigenlijk gewoon een database met tig verschillende huidtypen waar de kanker ooit in geconstateerd is. als ik termen als AI en neuraal netwerk lees denk ik aan hoge scifi, maar eigenlijk is het een domme database thats it. Dus niks boeiends aan.
Een database kun je enkel en alleen bevragen met "heeft deze patient huidkanker of niet" als de patient ook daadwerkelijk in de database zit. Dat is in het onderzoek waar dit artikel over gaat niet het geval, want dit algoritme is getrained op deze dataset zodat het kan generaliseren naar patienten die NIET in de dataset zit.

Wat het doet is eigenlijk patronen herkennen in de dataset en proberen een hypothese te vormen voor wat nou eigenlijk kenmerken zijn van huidkanker (grootte van de vlek, kleur van de vlek, vorm van de vlek, etc.) en probeert dan die hypothese uit op nieuwe data die nog niet in de dataset zit.

Conclusie, dit is dus wel degelijk boeiend en is ook zeker AI te noemen.
Database kan ook plaatjes bevatten en die kun je vergelijken met het nieuwe plaatje en daar een oordeel over vellen in hoeverre de plaatjes overeenkomen. Dat zou je zelfs nog handmatig kunnen doen. Hoe dacht je dat vroeger de opsporing ging?
Klopt - dit is een klassificatie-model dat bekend staat als "nearest neighbour". Dat kan inderdaad toegepast worden voor beeldherkenning.

De reden dat we neurale netwerken gebruiken is omdat deze vele malen minder fouten maken dan nearest-neighbour classifiers.
En toch lagen de oplossingspercentages van misdaden vroeger hoger ondanks al die mooie neurale netwerken van tegenwoordig.
Niet helemaal, als het goed is in ieder geval ;)

Een neuraal netwerk wordt getrained aan de hand van een groot aantal samples die wel of niet behoren tot een bepaalde categorie, in dit geval goedaardig/kwaadaardig.

Door het netwerk te trainen op deze samples kan het algoritme hier een onderscheid in maken.

Het is dus wel iets meer dan gewoon een database.
Wat dus ook mooi is is dat het algoritme of iets een melanoom is dus kan bepalen op een oppervlakkige foto. Terwijl er al extra informatie bekend is bijvoorbeeld uit een biopt. Wat een valkuil is bij dit soort strategiŽn is dat de informatie wel in het plaatje moet zitten. In dit geval lijkt dat zo te zijn maar dat hoeft niet persee. Daarom moeten we goed blijven evalueren wat we met neurale netwerken proberen te bepalen.

Kanttekening is dat het in principe wel gewoon een vorm van statistiek blijft, het klinkt inderdaad veel "fancier" maar het blijft statistiek.
Dit is inderdaad een hele goede toevoeging. Het netwerk gaat ook optimaliseren voor andere dingen, zoals hoe groot iets op de foto staat en welke kleur het heeft. Als je puur foto's met huidkanker wel/niet test gaat dat goed, maar wellicht heeft dit ook overlap met tekenbeten en wespensteken voor het netwerk. Ik noem maar een dwarsstraat. Dat betekent dat de betrouwbaarheid goed kan zijn voor de vraag: is dit wel of geen huidkanker, maar dat het al daalt als je vraagt: is dit huidkanker of een tekenbeet?
- Algoritmes als deze reflecteren de status quo van kennis
Maar daar is natuurlijk wel wat aan te doen. Dit soort algoritmes leveren zelden een ja/nee antwoord op, maar eerder een antwoord in een spectrum. Als alle mensen waarbij het spectrum nipt een 'nee' oplevert toch voor controle doorverwezen worden, dan kan de foto en het resultaat van de controle weer gebruikt worden als nieuwe input om het algoritme te verbeteren.

Naar verloop van tijd wordt de herkenning van grensgevallen dan ook steeds beter.
"Er kan bias in de data zitten die door het algoritme wordt versterkt. Zo kan het beter zijn in het herkennen van tumoren bij blanke westerse mensen omdat daarvan meer fotomateriaal beschikbaar is."

Ik denk eerder omdat het contrast tussen de donkere 'moedervlek' en de lichte kleur van de huid groter is. Bij een donkere huid is een donkere plek veel moeilijker te zien, laat staan te onderscheiden.

Deze tool zou prima werken om na het oordeel van een arts te gebruiken als second opinion, dan kan het voordeel van beide toegepast worden.
Dit zijn geen schaduwkanten, die zijn neveneffecten waarmee omgegaan moet worden. Deze techniek kan helpen bij het vaststellen van diagnoses, en dat is veelbelovend. Deze techniek biedt bijna driemaal minder false negatives dan menselijke artsen (5% tegenover 13,6%). Dat betekent dus dat in 2 op de 3 situaties dat een arts een melanoom als onschuldig inschat dit systeem de arts zou kunnen vertellen dat er een grote waarschijnlijk is dat het wel om een melanoom gaat. Dat kan levens redden, en dat moet het uitgangspunt blijven.

Jouw vragen lijken kritisch, maar ik vind het eerlijk gezegd niet echt relevant voor dit artikel en het neigt naar open deuren intrappen. Elke nieuwe techniek heeft bepaalde beperkingen en zal je op de juiste wijze moeten toepassen. Al jouw vragen en opmerkingen die je noemt zijn evenveel van toepassing op een MRI-scanner of glucosemeter, technische innovaties die jaarlijks miljoenen levens redden.

Er zit trouwens een groot verschil tussen een slim algoritme en kunstmatige intelligentie. In bovenstaand artikel gaat het om een slim algoritme, dat heeft vrijwel niets te maken met kunstmatige intelligentie.

[Reactie gewijzigd door MarcoC op 29 mei 2018 12:42]

- Op de lange termijn kan dit de algehele autonome positie van artsen aantasten: zij verliezen bijvoorbeeld onderhandelingsvermogen naar verzekeraars wanneer algoritmes belangrijker worden.
Als arts en machine samenwerken, dan zijn er 2 lastige situaties.

Arts zegt gezond en machine zegt ziek.
Als arts gezond kiest en later blijkt ziek, dan probleem met patient. Waarom heb de machine niet gevolgd?
Als arts ziek kiest en later blijkt gezond, dan probleem met verzekeraar. Waarom heb je de machine gevolgd?

Arts zegt ziek en machine zegt gezond.
Dan gebeurt het omgekeerde.

Bij het negeren van de uitkomst van de machine, neemt de arts dus een behoorlijk risico. Dat zullen artsen dus vermoedelijk weinig doen.
Wanneer wordt dit beschikbaar in een [extreem privacywaardige] app die verbindt met het neurale netwerk?
Ik vermoed dat het voorlopig een cloud app zal moeten zijn omdat de smartphone zelf niet het volledige neural net snel genoeg kan draaien.
De zware taak met neurale netwerken is het trainen; dat gebruikt GPU's. Toepassen is vele malen efficienter (factor 1000 is gebruikelijk). Realtime is vaak haalbaar, maar het gaat hier over een enkel beeld. Dat classificeren mag best een minuut duren.
Dat hoeft niet perse het geval te zijn. Juist het trainen kost bakken met CPU, 1 foto door het algoritme halen zou misschien wel kunnen, weet ook de details van dit neuraal netwerk niet.

En natuurlijk is het niet te vergelijken, qua foutmarge, maar er kan al best veel op een telefoon:
https://emojiscavengerhunt.withgoogle.com/

[Reactie gewijzigd door KoalaBear84 op 29 mei 2018 10:57]

De app (en dus de smartphone) fungeert in deze puur als een doorgeefluik. Je maakt een foto, stuurt deze met de app door naar de AI van de organisatie en op de achtergrond wordt door de AI met enorme rekenkracht de foto geanalyseerd. Het resultaat (en eventueel advies) kan dan weer via de app en dus je smartphone terug gestuurd worden. Je smartphone hoeft hiervoor dus helemaal geen extreme rekenkracht te hebben.

[Reactie gewijzigd door Tranquility op 30 mei 2018 12:19]

Dat is niet eens een gek idee, crowdfunden?
Ander recent onderzoek: https://arxiv.org/abs/1712.06957

Ook daar zie je dat de uitslagen redelijk vergelijkbaar zijn, maar daar winnen (ervaren) artsen nog. Het feit dat de scores naar elkaar kruipen suggereert dat de limiet in zicht komt. Het is niet noodzakelijk het geval dat 100% van de melanomen op een foto herkenbaar zijn; misschien zitten mens en machien allebei wel dichtbij de maximaal haalbare score. Misschien dat je voor de overige melanomen alternatieve technieken nodig hebt, zoals contrastvloeistof of vergelijkbare hulpmiddelen om ze ebter zichtbaar te maken.
Een Amsterdamse startup is al enige tijd bezig met de combinatie van AI en kanker. Dit is voor detectie van vergroeiingen in longen op basis van medische scans: http://aidence.com/veye-chest
In eerste instantie dus een prima hulpmiddel voor de artsen, die de uiteindelijke beslissing moeten maken. Over enkele jaren is het misschien wel andersom. Dan diagnosticeert de computer en is de arts enkel nodig voor de bevestiging en de menselijke maat.
Hoe snel weet ik niet, maar ťťn ding is zeker, ooit zal het andersom zijn.
Dat is nu al.


We maken de vergissing dat dit een middel is voor ziekenhuizen, maar juist niet.
Het is een middel voor huisartsen, en wij zijn gezegend in ons klein landje,
maar in andere landen noemen ze die vaak general practitioner ed. Ziekenhuiszorg is in landen als VS, AustraliŽ, Nieuw-Zeeland van hoog niveau, maar zo gauw je een beetje afgelegen woont dan is dat eigenlijk de dicht-bijzijnde persoon die een afweging moet maken, en zo iemand is zeker geen dermatoloog.

Dan kan met een foto sneller de afweging worden gemaakt om te escaleren en/of eventueel maatregelen te nemen. Niet elke afwijking is schadelijk en als er sprake is van een melanoom is het vaak te genezen.


Een andere veelbelovende techniek is mbv scannen van de ogen. Naast de symptomen kan ook worden gekeken of het overeenkomt met het fysieke gesteldheid.
Dit is ook echt een mooi vraagstuk voor zoiets, een grote hoeveelheid data waarin mensen door de bomen het bos niet meer zien ( moedervlek? ) en de computer prima het overzicht houdt.
Overzicht is natuurlijk wel een groot woord voor een functie die in essentie een black box is (in de zin dat je niet direct kunt zien wat voor parameters het netwerk nu echt gebruikt om iets melanoma of niet te noemen).
Ik bedoelde dit meer in de zin van, dit heb ik al gehad, dit is anders dan een jaar geleden enz. enz.
Helaas is dat niet wat een neuraal netwerk voor deze toepassing in de praktijk gaat doen.

In theorie is het wel mogelijk om het netwerk te laten herkennen dat iets anders is dan een jaar geleden, maar in de praktijk zal dit niet mogelijk zijn omdat de trainingdata niet aanwezig is voor melanomen. Een melanoom wordt vaak direct verwijdert en is over een jaar dus niet meer aanwezig. Het blijft dus bij het zoeken naar afwijkingen op basis van een enorme berg data.
Helaas wel inderdaad, ik denk dat als dit soort netwerken erg goed gaan werken. Er prima een wetenschap kan gaan ontstaan die probeert uit te zoeken wat ze nou eigenlijk kwantificeren en daar kunnen best interessante hints in zitten naar mechanismen of achterliggende biologie.
Dat geldt voor een menselijke diagnose toch net zo goed? Daarnaast kan je van een algoritme prima de prestaties kwantificeren, dat is van een menselijke arts veel minder. Hoeveel waarde je moet hechten aan de diagnose van een algoritme kun je dus behoorlijk exact maken, bij een menselijke arts is dat veel moeilijker.
m.a.w een first opinion door computer en dan second door mens of omgekeerd.

Maar wie weet straks een app op je telefoon maak foto en ja u heeft kanjer, nee toch maar niet op die manier.
Die apps bestaan toch al? Alleen raden ze aan om naar een specialist te gaan.
Ik ken er ťťn, die van het Nederlandse SkinVision:
https://www.skinvision.com
Zoals het wettelijk nu geregeld is, moet de arts uiteindelijk de beslissing nemen. En deze beslissing moet onderbouwd kunnen worden, meer dan "de machine zegt dat het zo is". Dat is nog een beetje de uitdaging bij het werkelijk kunnen toepassen van neutrale netwerken in de medische wereld.
Het scheelt natuurlijk al heel wat als je weet wat eventueel niet in de haak is, ipv dat je als arts minutieus zelf alle foto's moet doornemen. Met alle gevaren van verslappende aandacht en dergelijke.
Het herkennen is maar de eerste stap. Daarna zal er altijd extra onderzoek worden gedaan.
Dat is een vertrouwd patroon met politici. Vroeger moest er ook iemand met een rode vlag voor je auto uit lopen.

Het punt is dat een arts binnenkort moet zeggen : volgens de machine heeft U kanker, volgens de EU mag ik dat niet zeggen. En in hoeverre rechters daarin meegaan is vooral gebaseerd op hun subjectieve idee van apparaten. Ik zie een rechter nog niet zo snel hetzelfde concept toepassen op alcoholmeters; de politie zal wťl mogen blijven vertrouwen op "machine says no".
Het zou dus interessant zijn om die dermatologen te laten kijken naar de door hun vals positieve/negatieve gestelde diagnoses. Als deze een valse diagnose blijven geven, begrijpen we blijkbaar iets fundamenteels van dit kankertype niet.

Tegelijkertijd zwengel je daar dan de juridische discussie mee aan. Wat als een algorithme het daadwerkelijk beter kan, wat zou dan de rol van de arts moeten zijn?
Dit is de diagnose fase, arts gaat toch ook uit van de bloedtesten van het lab?
Je schijnt te denken dat de computer andere dingen kan herkennen dan de artsen, dat durf ik stellig te betwijfelen. Het vat om dezelfde kenmerken, alleen schijnt de computer in dit onderzoek deze kenmerken beter te herkennen. Ik ben trouwens verbaasd over de lage score van de artsen, mi der dan 90% voor een simpel melanoom is echt niet zo goed
Ik heb het originele artikel niet gelezen, maar uit de tekst maak ik op dat het convolutional neural networks zijn. In dat geval zit de relevante informatie dus wel in de data, maar om wat voor reden dan ook is die in een substantieel deel van de gevallen niet op te pikken door mensen.

De vraag is dan of er in die door mensen mis geclassificeerde diagnoses informatie zit die mensen fundamenteel niet oppikken (en ons iets fundamenteels onbekends vertellen over de tumoren). Anderzijds kan het ook zijn dat verschillende relevante features te matig aanwezig zijn om te herkennen door mensen, maar het algoritme ze wel oppikt.
Kunnen wij hier al gebruik van maken online?.
Hoop het niet. Je lees nog steeds dat er een foutmarge is naar beide kanten.
Beetje lullig als je foto maakt, uploaden en ja u heeft huidkanker. Daar zit je dan alleen zonder support en verdere uitleg, jezelf misschien gek te maken.
Lijkt me dat dit soort zaken toch moeten worden voorbehouden aan medisch personeel.
Dat is denk ik goed te ondervangen door te zeggen dat ze ergens mee naar de doctor moeten voor nader onderzoek.

dus niet gelijk de diagnose aan de gebruiker geven, maar zeggen dat iets 'verdacht' is

snellere en eerdere diagnose red levens dus ik hoop eigenlijk wel dat het straks met een smartphone kan.
Er zijn nu al apps te downloaden/koop. Die zeggen ook al of het verdacht is. Maar hoe goed ze zijn is nog maar de vraag. Ze kunnen net zo goed nep zijn.

[Reactie gewijzigd door darkfader op 29 mei 2018 17:31]

Er moet in geval van twijfel altijd aangegeven worden een arts te raadplegen.

[Reactie gewijzigd door Tranquility op 30 mei 2018 11:57]

Daar ben ik het niet helemaal mee eens. Het advies zal dan eerder luiden "U heeft een verdachte moedervlek, we raden u aan om een bezoek aan de dokter te brengen". Na eigen ervaringen kan ik je vertellen dat je liever preventief die moederplek (of misschien toch melanoom) laat weghalen, dan dat het door kan sudderen.
Ben ik het mee eens.
Mijn moeder is letterlijk doodziek geworden door een melanoom waarvan de toenmalige huisarts zei dat het echt niks was......
Een paar jaar terug heb ik een moedervlek waar vocht uit leek te komen weg laten snijden (5 minuutjes).
Uiteindelijk bleek dit toch geen melanoom te zijn, maar ik heb liever de zekerheid gezien de geschiedenis.
Dat moet toch wel redelijk op te vangen zijn door niet keihard te stellen "Gefeliciteerd u heeft kanker" maar de software te laten antwoorden dat er een hogere bestaat dat het kanker is, neem contact op met je dokter voor verder onderzoek.
Foutmarges zal je altijd hebben, daar gaat het artikel over immers... blijkt nu al dat het systeem beter is dan de dokter waar jij me naartoe reffereert :P. Dus als ik zo een test online zou kunnen doen en het systeem vertelt me dat ik een hoge kans heb op huidkanker dan vlieg ik naar de dokter toe en ga ik een test aanvrage.
Het alternatief is dat je een foute diagnose hebt en doodgaat. Liever een false positive dan een false negative lijkt me.
Zo bot zal de app niet reageren denk ik maar meer in de trant van "wij raden u aan de vlek in de gaten te houden op verkleuring of verandering" of "we raden u aan een arts te bezoeken".
Skinvision app doet zoiets; niet gratis.
Da's raar, artsen zijn doorgaans zeer makkelijk te herkennen. Meestal met een labojas en een stethoscoop en zo.
Ik dacht hetzelfde.. het verschil tussen een arts en huidkanker kunnen de meesten nog wel zien lijkt me..
Goed dat de onderzoekers herkennen dat er nog wel enkele mitsen en maren zitten aan het onderzoek, echter denk ik op de lange termijn dat het herkennen of voorspellen van bepaalde ziektes in de toekomst allemaal over wordt genomen door AI. Door het constant toevoegen van afbeeldingen door artsen en onderzoekers zal het resultaat er alleen maar beter op worden.
Naarmate de database met foto's en juiste diagnoses groeit, zal de nauwkeurigheid alleen maar toenemen. De AI leert constant bij en zo wordt de diagnose alleen maar beter. Een definitieve diagnose dient natuurlijk altijd door specialisten te worden uitgevoerd.
Altijd vet om te zien. Ik voorzie binnen afzienbare tijd dat dit ook de norm gaat worden in beslissen over het behandeltraject van patienten. Neurale netwerken hebben nog zo veel ongebruikte potentie in alle facetten van ons leven.

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True