Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Google: deep learning-algoritme voor kankerdetectie effectiever dan patholoog

Door , 76 reacties

Google heeft een algoritme ontwikkeld dat pathologen moet ondersteunen bij het vaststellen van een diagnose bij borstkanker. Door middel van deep learning-analyse van afbeeldingen is deze methode net zo effectief als of effectiever dan een patholoog.

Google heeft de resultaten van zijn onderzoek vrijdag gepresenteerd, samen met een paper. Het systeem is gericht op het detecteren van tumoren van 100x100 pixels op 400 afbeeldingen van 100.000x100.000 pixels. De gebruikte afbeeldingen van menselijke lymfeklieren op veertigvoudige vergroting zijn afkomstig van het Radboud UMC in Nijmegen. Daarmee was het mogelijk om 89 procent van de aanwezige tumoren te identificeren, stellen de onderzoekers in de paper. Een menselijke patholoog scoort lager, met een percentage van 73,2 procent als er geen tijdslimiet is gesteld.

Het algoritme werd getraind met kleine delen van de afbeeldingen, waarna een heatmap werd opgesteld van de waarschijnlijkheid van de aanwezigheid van kankercellen. Het systeem werkte ook met afbeeldingen van andere ziekenhuizen, die met afwijkende apparatuur waren ingescand. Het is echter niet in staat om taken uit te voeren waarvoor het niet is getraind, zoals het detecteren van andere abnormale verschijnselen.

 Links de ingescande afbeelding met rechts de tumor in het wit en gegenereerde heatmaps

Volgens Google moet het onderzoek bijdragen aan de ondersteuning van het werk van pathologen, door hun efficiëntie en consistentie te verhogen. Zo zou een patholoog bijvoorbeeld zijn percentage niet-gedetecteerde tumoren kunnen verkleinen door de voorspellingen van het systeem te bekijken. Jeroen van der Laak, onderzoeker bij het Radboud UMC, zegt tegen de NOS over het onderzoek: "Het analyseren van lymfeklieren is tijdrovend en repetitief werk. Je moet heel geconcentreerd werken en mag niets missen. Een computer levert constante kwaliteit en kan grote hoeveelheden data snel verwerken."

In Nijmegen werken pathologen al met een eigen algoritme dat verschilt van de Google-variant. Van der Laak zegt verder dat het niet dezelfde precisie heeft, maar dat er aan de hand van het vrijdag gepresenteerde onderzoek wellicht verbeteringen mogelijk zijn.

Reacties (76)

Wijzig sortering
Nu blijft bij mij de vraag: hoe word het percentage als je het combineert?

Als een foto door en de computer en de patholoog word bekeken zou het vindingspercentage dan nog een stuk hoger worden?
Dit is niet de vraag die beantwoord wordt in het paper. Het is interessant als je een 100% accuracy wil, ten kosten van alles. Als de patholoog er genoeg tijd voor krijgt, wordt het vast accurater. Maar dat (tijd/kosten van zo een repetitief onderzoek) willen ze met dit soort systemen juist terugdringen.

De computer wijst hier alleen potentiŽle tumoren aan, waarna deze sample aangeboden wordt aan een patholoog ter review.

Het opsporen van deze potentiŽle tumoren wordt hiermee sneller, beter en goedkoper.

[Reactie gewijzigd door Reynouts op 6 maart 2017 21:13]

Dan moet je kijken hoeveel van die 11% er in de 73,2% zitten.

Denk ook dat computers dit werk beter kunnen doen dan mensen. Mensen scannen kwadranten terwijl een computer de hele foto kan scannen op afwijkingen. Er is geen patholoog die de hele snede kan bekijken onder een microscoop omdat de tijd er niet voor is.
Ja, en daarom worden er tegenwoordig ook honden gebruikt om kanker op te sporen.
Dus de echte vraag is; is deeplearning algoritme ook effectiever(?) dan een hond.
Ben wel nieuwsgierig hoeveel computers hiervoor nodig zijn?
Of supercomputers, iemand een idee?
Dan moet je de paper ook even lezen. TL;DR? Wat dacht je van GPUs?

Implementation Details We trained our networks with stochastic gradient
descent in Tensorflow, with 8 replicas each running on a NVIDIA Pascal GPU
with asynchronous gradient updates and batch size of 32 per replica...

Tensorflow is een open source machine intelligence software pakket.

https://www.tensorflow.org/
Ik ben niet bekend met die terminologie, wat hebben ze nu exact gebruikt?
Als ik het goed begrijp dus 8 exemplaren van een niet nadergenoemde NVIDIA Pascal GPU. Dit kan een van de onderstaande kaarten zijn:
  • GTX1050(Ti)
  • GTX1060
  • GTX1070
  • GTX1080(Ti)
  • Titan X
  • Tesla P4
  • Tesla P40
  • Tesla P100
  • Quadro P400
  • Quadro P600
  • Quadro P1000
  • Quadro P2000
  • Quadro P3000
  • Quadro P4000
  • Quadro P5000
  • Quadro P6000
  • Quadro GP100
Of natuurlijk een nog niet uitgebrachte kaart, wat zou verklaren waarom ze hem niet nader noemen.

Edit: in een Nvidia nieuwsartikel noemen ze zelfs geen model, ik denk dat het inderdaad om een nog niet uitgebrachte kaart gaat. Bron: https://news.developer.nv...o-diagnose-breast-cancer/

[Reactie gewijzigd door leroydev op 5 maart 2017 16:30]

Je hoeft het model maar eenmaal te trainen, en dat vergt wel wat capaciteit, zie de andere reacties.

Het inzetten van het model voor het verwerken van een foto kost geen noemenswaardige rekenkracht.
Een paar systemen met een pak GPU's is vaak al genoeg. Het model opstellen is namelijk de intensieve taak.

Je telefoon doet namelijk ook duizenden predicties met een neuraal netwerk per dag als je de FB App gebruikt.

[Reactie gewijzigd door BieBiepGTR op 3 maart 2017 21:34]

Een model trainen is inderdaad een intensieve klus. Afhankelijk van de grootte van het model is het uiteindelijke gebruiken van een getraind model met minder capaciteit mogelijk.

Echter worden de meeste predicties van facebook niet op je telefoon zelf gedaan, maar op de servers van Facebook. Dat is een stuk sneller, efficiŽnter, beter te onderhouden en zij hebben direct je data. Hetzelfde geldt voor services van Google en Apple.
http://www.philips.com/a-...putational-pathology.html

Dit kan ik linken, ik werk op de digital Pathology afdeling van Philips, ik kan je vertellen dat aangezien er geen miljoenen slides gescanned worden ( per dag ) dit prima kan op een niet super computer. Dan moet ik zeggen dat ik niet weet waar het precies op draait.

Ik hoop dat we iets van een samenwerking gaan zien met google en niet iets parallels.

[Reactie gewijzigd door Gopher op 3 maart 2017 23:16]

Wat voor technieken gebruikt Phillips dan. Die website draait echt overal omheen.

Wordt er gebruik gemaakt van conventionele doelgerichte zelfbedachte algoritmes?
Of ook Deep learning & evolutionary algoritmes e.d.
Uiteraard over specifieke technieken is het best gesloten. Kun je dat bij Google wel achterhalen? Ik ga zo het originele artikel nog eens lezen, deze heb ik nog niet ingezien.

Er is wat informatie te vinden over wat Philips nu doet, maar niet veel qua techniek.

[Reactie gewijzigd door Gopher op 4 maart 2017 08:19]

Bij Google is het wel duidelijk, net zoals bij andere grote bedrijven. Neural Networks.
Ga er wel een beetje van uit dat Phillips daar ook in zit.

Tegenwoordig zit dat echter overal in... in lichte tot zware vorm. Denk aan tekstherkenning wanneer je met een pen letters maakt op een touchscreen, of snelle woorden herkenning en andere zaken. Het is vooral sterk in het herkennen van patronen die voor ons mensen gewoon moeilijk te bedenken zijn of te "creŽren".

Hoop stiekem wel dat Phillips er mee bezig is, dat straks niet software uit Amerika de hele boel gaat overnemen.
Dit is weer een voorbeeld waarbij machine learning goed wordt gebruikt voor het herkennen van ziektes / medicijnen enz. We zijn nu op een punt dat ML gelijk of beter in staat is tot het herkennen van bepaalde ziektes. https://news.brown.edu/articles/2016/10/emt
Ik wordt een beetje moedeloos van de schreeuwende kop boven dit artikel en daarna van mensen die halleluja roepen.

De titel is misleiden omdat je met deep-learning (wat een beetje een modewoord lijkt) de patholoog wel kunt helpen, maar zeker niet vervangen. Computers en algoritmes zijn goed (of zelfs beter dan mensen) in herkennen van geprogrammeerde patronen, en door 'self-learning' variaties daarop. Een mens is echter in staat om in veel meer wisselende omstandigheden een relatie (en koppeling) te leggen tussen wat je ziet en doet. Computers, ook als ze met heel veel sensors uitgerust zijn, kunnen alleen maar op verwachte (=geprogrammeerde) patronen acteren. Dat is een slag lager dan reageren.

Jouw artikel gaat dus over slechts een klein (maar wel belangrijk) deelgebied wat een menselijke patholoog kan doen. In dat opzicht ligt dit in het verlengde van mechanisatie en andere zaken die het leven van (o.a.) medici vergemakkelijkt hebben. Het is nog vele stappen verder dat een patient met een computer een afspraak maakt, die - zoals de titel van dit artikel suggereert - de arts vervangt.

Het is jammer dat tweakers (zo lijkt het een beetje) meer de telegraafmethode lijkt te gaan hanteren. Desondanks is en blijft het een leuke website. Hopelijk zijn (zichzelf over)schreeuwende koppen een uitzondering (of uitglijder).
Ik snap je kritiek over de kop van het tweakers artikel.

Het paper zelf is erg duidelijk over de intentie: de taak om potentiŽle tumoren te detecteren in slides en vervolgens aan te bieden aan een patholoog ter review. Deze specifieke taak is sneller en accurater dan wanneer een patholoog het zou moeten doen.

Het is tof om te zien wat voor optimalisatie er plaats vindt om dit soort taken te verbeteren, maar alleen te begrijpen als je in het vakgebied zit, of je verdiept in ML.

Voorheen waren de modellen overigens ook al 'beter' dan de pathologen. Dit zijn fine-tuning stappen in convolutional neural networks die wellicht ook ingezet kunnen worden in andere domeinen. Google weet het op deze manier natuurlijk weer mooi aan de man te brengen, maar het wordt door verschillende sites wel uit context gehaald. Zonde..
Ik snap niet waar je allergische reactie vandaan komt. Ik ben zelf ook sceptisch over de stand van AI, maar dit is gewoon een goed geschreven artikel over een stukje diagnostiek waarin de computer gewoon vanaf nu veel beter is dan een arts.

Dit is ook vanuit wetenschappelijk oogpunt een logische stap, want beeldverwerking is precies waar wij nu heel goed Deep Learning op kunnen toepassen. Je zou ook kunnen beweren dat eigenlijk een paar gespecialiseerde software engineers nu effecienter en accurater deze kanker kunnen detecteren dan een arts. Het bijkomende voordeel is dat je die software in no-time kunt kopiŽren, terwijl je dat met een arts niet kunt.
Advocaat van de duivel spelende.

Maar ik vind het artikel namelijk helemaal niet goed geschreven. Er wordt slecht ingegaan op hoe de verkregen percentages daadwerkelijk tot stand komen.

De percentages zijn leuk, 89% detectie door de computer versus 73,2% door de arts. Echter... hoe is de 100% accuratesse bepaald om te stellen dat de arts de 73,2% detectie heeft? En de computer de 89% detectie? Wat is gebruikt als gouden standaard?

En doorgaans zal een gouden standaard een consensus standaard zijn, vaak door twee of meerdere artsen. Het artikel geeft hier echter geen uitsluitsel over. Maar in de praktijk is dit simpelweg de enige verklaring. Met andere woorden, de computer legt het af tegen een expert panel en derhalve vervalt dan ook de notie die je stelt dat een paar gespecialiseerde software engineers nu efficiŽnter en accurater deze kanker kunnen detecteren dan een arts.

Een tweede probleem dat je niet dient te vergeten is verantwoordelijkheid. Mist een arts iets dat niet gemist had mogen worden, dan kan dit zich tegen de arts keren. Gelukkig is het aantal tuchtzaken in Nederland nog niet dusdanig hoog als binnen de VS, maar ook hier zijn ze niet ongehoord. En gemiste diagnoses of foutieve diagnoses zijn een frequent onderwerp binnen het tuchtrecht.

Vervang je de arts in zijn geheel door enkel een paar gespecialiseerde software engineers, wie gaat dan deze verantwoordelijkheid dragen? Weinig software engineers zitten daar echt op te wachten.

Met als gevolg dat dit soort software engineers hun software proberen te verkopen als zijnde ondersteuning voor artsen. Maar daar staat vervolgens weer tegenover dat de artsen, in dit geval de pathologen, vele soorten tumoren dienen te detecteren en tot een passende diagnose te komen. En dat terwijl veel van dit soort software er juist op gericht is om ťťn specifieke soort afwijking te detecteren. En zodra je het een afwijking aanbiedt die buiten de dataset valt, dit soort toepassingen veelal veel fout-positieven maken.

En zeg je als arts dus ook al snel "Nee, deze software helpt mijn dagelijkse praktijk niet verder".

Een impasse die de komende jaren zeer zeker nog niet voorbij zal gaan. Pas zodra de verschillende deep learning toepassingen die nu allen als afzonderlijk worden ontwikkeld met een zeer beperkt aandachtsgebied, gekoppeld worden tot ťťn "super applicatie" zal het echt mogelijk worden voor software om betrouwbaarder te worden dan een arts.

Maar bedenk je overigens goed dat ook dit niet zaligmakend is, dit zal namelijk betekenen dat de bedrijven die zich dit soort toepassingen kunnen permitteren (en ook de juridische kosten kunnen dekken wanneer het mis gat) vervolgens volledige toegang zullen hebben tot jouw medische gegevens. En hiermee niet alleen van jou, maar van vele miljoenen mensen ter wereld. Medische gegevens die hiermee binnen de handen vallen van internationale multinationals. En die ontwikkeling zal ongetwijfeld net als met iedere technologische ontwikkeling vooruit lopen op de privacy wetgeving problemen die hiermee gepaard zullen gaan.
Watson (van IBM) wordt al breed ingezet om naar mogelijke diagnoses te zoeken waar de arts niet aan denkt. Ik zie geen enkel probleem bij het inzetten van software, en je hoeft er niet over te discussiŽren wie er straks eindverantwoordelijke is, dat zal een arts zijn. Die kan ook de computer niet geloven, wat het resultaat van de statistische analyse ook is.

Verder over de maat: de mensen die die kanker al dan niet hebben zijn natuurlijk onder behandeling. De foto is een momentopname, je komt er vanzelf achter wat het correcte label is. Het kan natuurlijk dat 100% niet te halen is omdat het label niet altijd klopt, de foto niet goed is, of de kanker op dat moment nog niet te zien was. De maat in de abstract en het Tweakers artikel is een vorm van specificity bij gezette sensitivity, die FROC heet, referentie [5] in het paper. Dit staat gewoon kristalhelder uitgelegd in het gelinkte paper. De evaluatie van een getrainde arts is door anderen gedaan, die ook de data hebben verzameld, referentie [1] in het Google paper.

Jullie verzinnen gewoon dat je het goed hebt gelezen, of in ieder geval dat je het begrijpt.

[Reactie gewijzigd door Jefrey Lijffijt op 4 maart 2017 12:57]

Ik heb het artikel ook doorgelezen, en wat mij betreft draag je een hoop goede punten aan. Er staat inderdaad geen enkele onderbouwing in hoe ze tot de detectiegrens van de patholoog komen en wat ze als gouden standaard gebruiken. Als ik hun methode 'reconstrueer' dan lijkt het erop dat ze een bekende dataset hebben gebruikt, in dat geval zou er 100% detectie door een patholoog in het verleden zijn geweest, maar hoe komen ze dan tot 73,2? Daarbij is het een set met bekende afwijkingen binnen een bepaalde tumorgroep, hoe presteert het systeem als er ook andere tumorsoorten tussen zitten? Ook doen ze een hoop aannamen en proberen ze nieuwe methode, zonder dit verder goed te onderbouwen.

Wat mij betreft een aardige opzet dit artikel. Maar als medisch wetenschappelijk onderzoek zwaar onder de maat. Het artikel had wat dat betreft beter elders gepubliceerd en gereviewd mogen worden dan op hun eigen site. Meer een 'proof-of-concept' dan een bewijs. Maar het geeft hoop op mooie ontwikkelingen in de (nabije) toekomst.
omdat dit oude foto's zijn natuurlijk,
we weten dus welke foto's uiteindelijk kanker hebben ontwikkeld en welke niet,
daaruit is een data set met positieve en negatieve gevallen dus gegeven aan de computer en de artsen, en dan dus de vraag wie het beste kan voospellen welke foto's later kanker zouden ontwikkelen.
Dat er een dataset is gebruikt waarvan bekend is dat dit positieve lymfeklieren en negatieve lymfeklieren betreft, dat lijkt mij logisch ja. Maar aanduiden als positief/negatief alleen is niet het enige dat een patholoog dient te doen. Hij/Zij dient ook aan te geven waar de cellen zich bevinden. Voor een biopt minder relevant, maar in het geval van een resectie wil je weten of de resectie randen vrij zijn.

Dan moet zowel de patholoog als de software dan dus ook met zekerheid kunnen duiden waar de pathologische cellen zich bevinden. En dat kun je niet correleren aan de uitkomst aan de hand van follow-up. Daar moet een gouden standaard voor gebruikt zijn.

Maar ja, ook daarin is dit artikel overigens niet heel erg duidelijk. Het is fijn dat google dit soort dingen zelf de wereld in knalt, maar het lijkt er op dat ook maar enige vorm van peer reviewing ontbreekt en er simpelweg te veel vragen dan antwoorden over blijven om hier als arts ook maar een stap verder mee te komen op dit moment.
De gebruikte maat gaat juist over of er kanker op een specifieke plek in de foto zit. Het gaat dus juist om localiseren.
zoals de meegeleverde fotos aangeven, geeft de computer een heatmat terug waar hij aangeeft waar de tumor zich bevindt.
natuurlijk is het goed voor een arts om dit nog eens te checken maar het is niet een ja nee resultaat
De beelden komen uit de chamelyon grand challenge: https://camelyon16.grand-challenge.org Dat is een wetenschappelijke wedstrijd waarbij iedereen mee kan doen om zo goed mogelijk deze beelden te analyseren.
Als advocaat van de duivel haal je er te veel dingen bij, die niet ter zake doen.
Het controleren van lymfeklieren is een veel terugkomend klusje. Bij een aantal soorten kanker worden er standaard biopten genomen uit lymfeklieren om te kijken of er mogelijk uitzaaiingen zijn. Dit is een standaard klusje, wat zich dus goed leent voor automatisering. Het algoritme is nu niet zelf lerend, maar deeplearning. Daar zit wel een verschil in.

De techniek werkt beter dan wat de analisten doen. Over vals positieven wordt niet gesproken. De analisten missen juist meestal kankercellen (vals negatieven). Het algoritme doet dit ook. Een vals positieve diagnose is niet zo'n probleem. Het geeft een hoop schrik en misschien een onnodige behandeling, maar uiteindelijk is de genezingskans hoger dan verwacht.

Juridisch blijft de analist verantwoordelijk. Voor het maken van een preparaat zijn heel wat handelingen nodig. De beeldherkenning van het algoritme is maar een vervanging van een heel klein deel van het proces. De analist zal nooit helemaal op de techniek vertrouwen en de negatief beoordeelde scans zelf nog eens aandachtig bekijken en ook regelmatig scans controleren.

Privacy speelt geen rol (alleen tijdens het onderzoek), want eigenlijk verandert er weinig. Of je nu een preparaat of een scan daarvan bewaard is maar een miniem verschil. De wet verbied nu al om die gegevens aan derden door te geven.

Indekken tegen missers is in dit soort gevallen gewoon niet mogelijk. De uitslag van een lymfeklier onderzoek geeft lang geen 100% garantie. Zelfs als een lymfeklier met 100% zekerheid schoon is, kunnen er op andere plekken in het lichaam kankercellen ontwikkelen.

Ik vind het een goede ontwikkeling dat de techniek op deze manier voor de medische sector wordt gebruikt. Elke verbetering is er ťťn.
Een vals positieve diagnose is niet zo'n probleem? Verkijk je daar niet op. We zien dit nu bijvoorbeeld ook met het bevolkingsonderzoek naar darmkanker. In het NTvG is vorig jaar een artikel gepubliceerd over enkele nadelige uitkomsten hierbij bij patiŽnten met fout positieven. Waarbij het 1e biopt geduid was als passend bij maligniteit. De resectie is uitgevoerd. Het resectie preparaat echter niet conform de initiŽle bioptie was, geen aanwijzingen voor kanker.

Echter was de patiŽnt inmiddels wel overleden ten gevolge van de complicaties van de operatie. Fout positieve kunnen dan zeer zeker wel drastische gevolgen hebben voor de patiŽnt.


Voor wat betreft de juridische verantwoordelijkheid en privacy verantwoordelijkheid. Verkijk je hier niet in wat de wens van sommige grote medische bedrijven zijn. Vanuit mijn werkzaamheden als arts heb ik tijdens congressen gesproken met vertegenwoordigers van diverse partijen en ze sturen allemaal aan op hetzelfde. Medical imaging (radiologie) en pathologie willen zij naar zich toe trekken in de volledige zin van het woord. Waarbij het ziekenhuis enkel faciliteert binnen het maken van de beelden. Dit vervolgens, inclusief de klinische informatie en relevante gegevens door speelt naar de deep learning software van deze bedrijven, die vervolgens de diagnose terug spelen.

Maar niet alleen voor imaging zoekt men diep learning toepassingen, ook voor de reguliere zorg.

Dit zijn vergaande plannen waarbij zodra dit technisch mogelijk is met een juiste accuratesse, je jezelf toch zeker achter de oren kunt krabben met de vraag of dit echt wel een goede ontwikkeling is geweest. Wie is er uiteindelijk het meest bij gebaat zodra jouw medische gegevens in de handen komen te vallen van bedrijven als IBM, Siemens, Philips, Google, etc?
Ik zie computer en arts juist heel erg goed hand in hand gaan.

Waar de computer grotendeels de diagnose over kan nemen, kan de arts zich beter richten op de behandeling..

Daar zijn we nu nog niet, maar dit zijn stappen in de goede richting.

Ik snap alle kritische noten hier in de commentaren niet zo goed. Deze techniek zal toch alleen maar beter, betrouwbaarder en sneller worden?

edit:

Doet me ook denken aan een TED talk van een poosje geleden dat deze technieken noodzakelijk zijn.
Met de huidige bevolkings groei gaan we verhoudingsgewijs steeds minder doctoren / artsen krijgen (meende in de talk dat ze een grafiek toonden en dat rond 2080 er echt een zwaar tekort aan medisch personeel is). Daardoor moeten ze wel hulp gaan krijgen, willen de ziekenhuizen alle mensen kunnen helpen.

[Reactie gewijzigd door DarkUnreal op 4 maart 2017 15:34]

Mwah, gewoon meer technologie inzetten, maar dan wel decentraal(!) En ja ook (afdwingbaar, controleerbaar ťn hard-treffend beboetbaar) privť. Dan gaan we gelijk minder MRSA en wachtrij-frustratie meegeven aan allerhande mensen.

We gaan ůůk de kant op van thuisonderzoeken met specifiek uitsluitsel middels bloed op een chipje van ťťn dollar (Kan beter trouwens; ťťn euro!!) en meer omvattende bloedonderzoeken voor tien dollar (wederom; dat kan vťťl beter (o.a. privť en transparant v.w.b. beleid) in Noordwest-Europa.)
Een computer kan beter kankercellen herkennen op een foto dan een arts.

Meer staat er niet in de titel en er wordt ook niet gezegd dat een dokter nu overbodig is.
Ga ergens anders een grote zure post maken die eigenlijk contentloos is man.


PS: Je bent vast ook bang voor vooruitgang en ziet niet in dat computers er zijn om je non-core repititieve taken over te nemen. Niet om je job te stelen.

[Reactie gewijzigd door BieBiepGTR op 3 maart 2017 21:36]

De taak van een patholoog is meer dan alleen het herkennen van kanker cellen/ patronen dus het DL/ML wordt de patholoog nog niet vervangen.
Wel is het een goede zaak dat op deze manier automatisch gelijk / beter kanker cellen worden herkend. Dit kan weer tot andere toepassingen leiden, zoals voortijdig ziektes herkennen of een vorm van zelfservice voor ziekte detectie.

Dat zelfservice weer een deur opent voor andere problemen is een ander ethisch vraagstuk.
Het nadeel van een dokter is dat hij zelf een ritme onbewust ontwikkelt en klachten denkt te herkennen en daar zijn oordeel op zet.
Zo ben ik helaas al meerdere mensen verloren, dankzij een verkeerde conclusie.
Een systeem als dit had deze mensen nu nog in leven gehad, zo heb je een oordeel van een dokter en daarnaast een ander oordeel van dit systeem.
Vervolgens kan je het verder onderzoeken wie er nu gelijk heeft.

Het enige nadeel wat de computer nog kent is het vertrouwen, indien blijkt dat dit systeem veel meer mensen in leven houd dan de conclusie van een dokter, dan krijgt een systeem als dit al snel meer vertrouwen.

Mevrouw, u bent oud, af en toe bloed bij de urine hoort erbij.
Dit systeem had gezegd: mevr x heeft blaaskanker + behoorlijke uitzaaiing.
Het is dat wij, wij als dokter zijn gaan functioneren en naar andere doktoren zijn overgestapt, helaas te laat.
Geloof mij maar, indien dit systeem meer mensen zal sparen, de huidige doktoren snel hun vertrouwen zullen verliezen van hun klanten.

Uiteraard vind ik niet dat de huidige dokter dient te verdwijnen, de huidige dokter mag als back-up systeem gaan dienen en bij twijfel alsnog zelf onderzoek gaan doen. Wel dient het systeem veilig en correct te zijn en geen ''test''systeem zoals in het huidige stadium.
De titel is misleiden omdat je met deep-learning (wat een beetje een modewoord lijkt) de patholoog wel kunt helpen, maar zeker niet vervangen. Computers en algoritmes zijn goed (of zelfs beter dan mensen) in herkennen van geprogrammeerde patronen, en door 'self-learning' variaties daarop. Een mens is echter in staat om in veel meer wisselende omstandigheden een relatie (en koppeling) te leggen tussen wat je ziet en doet. Computers, ook als ze met heel veel sensors uitgerust zijn, kunnen alleen maar op verwachte (=geprogrammeerde) patronen acteren. Dat is een slag lager dan reageren.
Er staat toch nergens in de titel dat de patholoog vervangen kan worden? In het artikel staat meerdere keren dat dit algoritme alleen ter ondersteuning dient van een arts. Ik snap je probleem niet.

Per definitie kan de patholoog in combinatie met machine learning niet "vervangen" worden. Uiteraard om de simpele reden dat een patholoog meer doet dan diagnoses stellen voor 1 specifieke variant van 1 specifieke ziekte op 1 specifiek soort plaatjes. Maar ook, omdat je pathologen nodig hebt om het algoritme te trainen.

En dit artikel lijkt me helemaal niet overdreven schreeuwend. Het is nogal wat dat een algoritme binnen een paar milliseconden (aanname) een bepaalde diagnose nauwkeuriger kan stellen dan individuele ervaren artsen zonder tijdslimiet. Dit laatste is belangrijk, want in de echte wereld hebben artsen wel een harde tijdslimiet en ligt het percentage correcte diagnoses waarschijnlijk nog VEEL lager.

Het algoritme heeft dus direct 3 gevolgen: het scheelt de arts een hoop tijd en zorgen, de patiŽnten een hoop geld en het redt significant levens. We hebben het hier over gemiddeld minstens 17% van de zieke patiŽnten die normaal gesproken door een arts als "deze ziekte heb jij niet" bestempeld zouden worden en daardoor later zeer waarschijnlijk in serieuze medische (en financiŽle) problemen komen.
Wat ik leuk vind is dat je niet Direct een dokter meot zien voor gediagnosticeerd te worden over iets.

Secretaresses of verpleegsters kunnen je door basist testen laten gaan, de computer doet dan diagnoses en zegt je bij welke dokters je meot gaan en wat er gedana of gecontroleerd moet worden.

80% van de dokter tijd is patientcontact (spreken met de patient, diagnosticeren van de patient, opzoekingen en een plan opstellen)
Dat kan allemaal opgevangen worden door een computer.
Zo kan de patient gediagnosticeerd worden in Brugge en dan aangeraden worden om naar Brussel te gaan omdat daar de Hartspecialisten zijn. (je moet niet voeral meer specialisten hebben, de patient moet niet overal gaan proberen hulp zoeken)

De andere 20% is de controle van het resultaat en uitvoering
Binnenkort is de patholoog inderdaad overbodig. Net als mensen die straatlantaarns aansteken, kolenboeren en troubadours.
Dit. Dat het nu nog niet zo ver is, lijkt me evident. Gelukkig is er ook niemand die beweert dat alle artsen zich maar vast moeten omscholen.

Al die zurigheid omdat de mens langzaamaan wordt ingehaald door hun eigen creatie is nergens voor nodig. Met toepassing van de juiste technieken kunnen we deze ontwikkeling alleen maar toejuichen.
Nu hoeven artsen zich er nog niet voor om te scholen inderdaad maar je moet de ontwikkelingen ťcht wel bij houden. "Goh, we hebben dit echt niet zien aankomen". Yeah right...

Ik spreek nu ook mensen, vooral ouderen, die spreken over "die moderne toestanden met internet en zo". Kom op, internet bestaat al 50 jaar zowat en voor consumenten nu zo'n 20 jaar. Als je in de afgelopen 20 jaar niet hebt leren omgaan met computers of op z'n minst belastingaangifte kan doen met een computer, kan je de schuld niet aan de "snelle maatschappij" geven.
in de tussentijd, en wat mij betreft ook nog lang daarna, kan het gebruikt worden als beslissingsondersteunend systeem.
De patholoog bekijkt alle beelden zorgvuldig en het systeem vestigt de aandacht op mogelijke hits.
Dat kan veel tijd schelen.

Wel moet de patholoog dan steeds de discipline blijven opbrengen om de beelden zonder hits ook goed te bestuderen.
Ik lees het artikel toch als dat Google probeert AI te testen. En tuurlijk doen ze dat voor zichzelf. Maar om dan gelijk iets van goodwill te tonen is automatisch goede PR.

Deep learning is afhankelijk van een groot database. Tevens is het geen heilige graal maar een verbeterslag als extra tool naast een patholoog. Ik lees hier niet alsof artsen straks thuis zitten.

Daarnaast is die database vast opgebouwd door Pathologen en is de bron informatie toch weer de patholoog. Als je straks alles door Deep learning gaat doen krijg je straks data van Deep learning in je database dat dan weer gebruikt gaat worden door een Deep learning algoritme. Kijk, dan krijg je dus vervuiling. (Zelfde type vervuiling als kinderen maken met je verwante familie)

Daarnaast wil google goodwill creŽren om draagvlak te maken voor ons om zoveel mogelijk data af te staan want... het is goed voor je gezondheid. ;) Maar wie waarborgt dan privacy?

Aan deeplearning zit gewoon een duidelijke keerzijde aan de medaille. En daar moeten we ook rekening mee houden. Met grote hoeveelheden data kunnen zowel goede als foute dingen gedaan worden.

Laten we eerst een systeem of iets bedenken wat dat kan waarborgen.
Wat vind je misleidend aan de titel? Deze stelt immers niet dat de AI de patholoog kan vervangen. Uiteraard niet want diagnose is en blijft mensenwerk. Het enige (en meteen zeer veel belovende) is dat door deze nieuwe techniek zeer kleine tumoren waarschijnlijk niet meer onopgemerkt blijven. Dat is alleen maar win-win en dan natuurlijk met name voor de patiŽnt.

In de laatste twee alinea's wordt ook geschetst hoe de techniek toegepast kan/zal worden en ook dat het goed wordt ontvangen in de medische wereld. Iedere techniek die een arts goed kan ondersteunen in de diagnose verdient het m.i. daarbij om belicht te worden in de media.

Dit vind ik verder een goed geschreven artikel. Het is beknopt maar duidelijk en evenwichtig omdat het vanuit meerdere partijen is bekeken. De titel sluit er prima op aan want deze (b)lijkt gewoon te kloppen.
Het percentage pathologen daalt al fors digitalisering helpt tegen de werkdruk
Het is dan ook best een pittige cursus.
Zal inderdaad zo zijn het werkt lijkt me ook tamelijk saai, zeker de labs waar ze nog met microscoop werken. Gelukkig zijn ze met name in NL al flink gedigitaliseerd
Bijzonder nuttige ontwikkelingen. IBM heeft daarvoor Watson die op oncologie gebied ook reeds hele knappe dingen doet. We moeten heb vooral bekijken als aanvullingen / second opinions. Want wat gaan we nu doen met de overige 11%? die 73% rate van die arts tegen de 89% van de computers zegt niets over de laatste 11%.

Een initiele scan door een computer, gecontroleerd door een pathaloog die valideert of hetgeen de computer gedetecteerd heeft correct is en zelf ook nog even kritisch kijkt. Dan kan de opsporing misschien richting de 100%???
False positives zijn zeer onwenselijk. Helaas lezen we daar niets over in dit jubel-artikel.
False positives hebben we nu al met alleen de mens als patholoog. Daarvoor zijn 2nd opinions nodig bij twijfel. 100% zullen we niet halen zodat we veel meer weten over hoe het menselijke lichaam werkt op celniveau.
Immers we hebben nog steeds een vermoeden waarom kanker ontstaat ("het ophou slaan van ....") maar het is nog bij lange na geen hard bewijs.

Dus dit soort systemen zou op een foto gebieden kunnen aangeven die zorgwekkend zijn, met een kans indicatie. Het is dan nog steeds aan een mens om de daadwerkelijke diagnose te stellen.
Ze worden in de huidige praktijk tot een minimum beperkt. We lezen er niets over in het artikel, dat doet het ergste vermoeden.
Wat als we straks een second opinion krijgen op basis van dezelfde deeplearning algoritme en backend bij twee verschillende pathologen. ....
Zeer nuttig.
Inderdaad is het zeer waarschijnlijk dat het als tool voor de patholoog anatoom gaat worden gebruikt.
Net als bv de echografie, waarvan de sensitiviteit en specificiteit ook veel hoger zijn dan bv. het lichamelijk onderzoek van ons artsen.
Als de farmaceutische wereld alleen zou bestaan uit grote boze managers die alleen geld willen verdienen, dan zou je gelijk kunnen hebben.

Wat je alleen vergeet is dat bij de ontwikkeling van medicijnen en grote medische ontdekkingen tientallen mensen betrokken zijn. Mensen die vaak voor hun vak gekozen hebben uit andere beweging dan puur financieel.

Ik ken wat mensen uit de farmaceutische industrie die bij kankeronderzoek zijn betrokken en geen kans dat die een ontdekking van een dergelijk formaat zouden wegstoppen voor het financieel gewin van hun werkgever.
Dat kan deels waar zijn, maar dit heeft niets met medicijn te maken.

Dit is puur het detecteren van tumoren en kankercellen op een tissue sample.
Hoe verdien een bedrijf dan aan dat medicijn wat ze niet op de markt brengt? |:(
Ze verdienen juist geld door het medicijn niet op de markt te brengen, daardoor krijgen mensen dure en kostbare behandelingen.

Een bedrijf verdient meer aan 6 maanden chemo dan aan een pil die meteen werkt.

Even verder denken vriend ;)
Door de andere medicijnen die bijvoorbeeld pijn verlichten of 'hoop' bieden wťl op de markt te (blijven :X ) brengen.
Kanker is niet echt een ziekte in de normale zin vh woord. Het is een lichaamseigen proces waarbij cellen op hol slaan en zich ongeremd gaan delen en goede delen vh lichaam wegdrukken en aantasten.
Kanker is ook niet besmettelijk voor anderen, behalve dan voor het eigen lichaam waar het zichzelf zal besmetten meestal door het lymfe systeem dat als transportmiddel wordt gebruikt om de kanker te verspreiden. Zo ken ik iemand die via een kleine vorm van huidkanker is gestorven aan longkanker zonder gerookt te hebben. Lymfesysteem is daarvoor verantwoordelijk geweest..
Sommigen zeggen weleens dat de programmering bij die cellen ontbreekt waardoor ze rogue gaan.. Ik denk dat we kanker pas kunnen genezen wanneer we in staat zijn cellen weer van code te voorzien waardoor ze weer in de pas lopen en ze gedragen als de normaal functionerende cellen bij hun in de buurt.. Zover is het nog lang niet.. Kanker zien te voorkomen is nu nog de beste optie, hoewel bij sommige mensen het zich ogenschijnlijk spontaan manifesteert..
Niet helemaal zo simpel. Er is een wetenschappelijke basis die toetsbaar is. Je kunt de paper dus nalezen om naar aanleiding van de wetenschappelijke gegevens tot dezelfde (of een andere) conclusie te komen.

De uitkomst zoals Google die voorspiegelt is echter uitermate plausibel. Uiteindelijk is kanker herkennen niet heel ander dan uit 100.000.000 plaatjes van electriciteitsmasten 10 plaatjes van de Eiffeltoren halen.
Tja, wie moet anders hun paper publiceren? Iedere onderzoeksgroep profileert zich met de eigen publicaties. Het verschil daarbij is misschien dat Google zijn eigen publicatieplatform daarvoor kan inzetten.

Net als met iedere andere publicatie vindt er peer review plaats en zal deze nauwgezet door collega's worden gelezen, beoordeeld en hoogstwaarschijnlijk ook gereproduceerd. Als dan blijkt dat het een puik stukje onderzoek is dan krijgen ze daar erkenning voor uit de wetenschap en de medische wereld, en misschien ook uit de maatschappij.

Bij voorbaat een veer in je eigen reet stoppen is dom en verwaand, niet alleen omdat je later door de mand kunt vallen maar ook omdat je dat veel beter aan andere mensen over kan laten voor als het terecht is.
Omdat ik dat al uitgebreid heb beschreven zal ik dat als een retorische vraag beschouwen. ;) Overigens blijkt wel dat je slecht begrijpend kunt lezen en niet open staat voor opvattingen of inzichten die afwijken van die van jezelf. Ik hoop voor je dat je dat allemaal nog een keertje leert want het maakt het leven een stuk interessanter. En dit is inderdaad tweakers.net, niet FOK...
Dit wordt vaak niet alleen door het bedrijf getest...
Dat is een erg algemene en daardoor irrelevante opmerking. In dit geval staat er duidelijk "Google heeft de resultaten van zijn onderzoek ".
Dat klopt dan. Maar voor dit soort toepassingen voor clinische diagnose gebruikt mag worden is het niet alleen google die er iets over te zeggen heeft. Vooral in de usa overigens.
Dat betekent toch niet dat het gelijk patenten gaat aanvragen hierop? Of datastromen naar zichzelf gaat kanaliseren? Google heeft slechts een keer of negen haar woord gebroken, wellicht dat zij hiermee geen 'evil' zullen beogen? Als ze de boel als FOSS gaan aanbieden maakt het mij niet uit dat ze het alvast wat aanprijzen :*)

Iedereen gelooft toch dat Alphabet dit als FOSS gaat aanbieden? Of, auw!, moet ik dan wakker worden?

Enfin, waarmee ik maar bedoel dat je negatieve directe insteek mensen wat in het verdomhoekje duwt, en daarom wat minder gewaardeerd wordt. Objectief onterecht '-1' Maar je punt is daarmee niet minder relevant. Misschien proberen de start van een discussie wat uitnodigender te maken?
Maar alle ziektes bestrijden is dat eigenlijk wel verstandig ?
we moeten toch ergens dood aan gaan.
Overbevolking is het grootste probleem van de mensheid bij de huidige stand van de technologie en het gebrek aan bereidheid om meer in balans met de mogelijkheden van de planeet te leven.

Oftewel: boven de 80 jaar geen behandelingen meer, ofzo.
Medicijnen hebben bijwerkingen dus daar hoef je je geen zorgen om te maken.
Nope, niemand die zegt dat dat moet. En als iemand mij zegt dat ik dood moet.. de boom in :*)
False positives door deep learning zijn helemaal niet erg. De output is een heatmap waarvan de AI denkt dat daar een tumor zit. Als dat beter gaat dan de arts dat doet hebben we al gewonnen. Als de AI af en toe een false positive geeft is er niks aan de hand. de output wordt tenslotte nog door een arts bekeken en die kan net als voorheen de foto bij langs en de false positive als zodanig herkennen. Als hij dat niet kan en de AI ook niet, dan heb je een probleem, waar nog niemand een antwoord op weet, maar dat is dat niet de schuld van de AI.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*