Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Google verbetert de opsporing van borstkanker met kunstmatige intelligentie

Google zegt dat het erin is geslaagd om de opsporing van borstkanker te verbeteren met behulp van kunstmatige intelligentie. Het techbedrijf publiceerde zijn bevindingen na een twee jaar durend onderzoek rond borstkankerscreening in het wetenschappelijke tijdschrift Nature.

In de voorbije twee jaar werkte Google nauw samen met vooraanstaande wetenschappers in Amerika en het Verenigd Koninkrijk om te kijken hoe kunstmatige intelligentie een vroege detectie van borstkanker kan verbeteren. Door een ai-model in te schakelen voor de analyse van mammogrammen, kon borstkanker volgens Google met een grotere nauwkeurigheid worden opgespoord. Er waren minder false positives en minder false negatives dan bij de mammogrammen die door specialisten waren geanalyseerd.

Alleen al in Amerika en het VK worden jaarlijks meer dan 42 miljoen mammogrammen gemaakt. In het VK krijgen jaarlijks ruim 55.000 vrouwen de diagnose borstkanker. In de VS krijgt een op de acht vrouwen in haar leven met de ziekte te maken. Zelfs voor specialisten blijft het een ingewikkelde opdracht om de beelden te analyseren, waardoor vaak een verkeerde diagnose wordt gesteld. Deze vergissingen kunnen leiden tot vertragingen in de behandeling, onnodige onrust bij de patiënt en een hogere werkdruk voor radiologen. Een snellere en nauwkeurigere analyse van de röntgenfoto’s is volgens Google daarom van groot belang.

Tijdens het twee jaar durende onderzoek werden geanonimiseerde mammogrammen van bijna 120.000 vrouwen geanalyseerd. In de VS verminderde het aantal false positives dankzij het ai-model met 5,7 procent, in het VK met 1,2 procent. Het aantal false negatives daalde in de VS met 9,4 procent. In het Verenigd Koninkrijk werd een daling van 2,7 procent vastgesteld.

Naar aanleiding van de positieve eerste onderzoeksresultaten gaat Google het ai-model verder ontwikkelen. Nieuwe applicaties kunnen de radioloog in de toekomst wellicht assisteren bij de borstkankerscreening zelf.

Ook Microsoft gebruikt kunstmatige intelligentie om kanker in een vroege fase op te sporen. Het bedrijf liet in november vorig jaar weten dat het samen met het Indiase SRL Diagnostics een ai-tool had ontwikkeld om baarmoederhalskanker sneller op te sporen.

Door Michel van der Ven

Nieuwsredacteur

02-01-2020 • 10:49

31 Linkedin

Reacties (31)

Wijzig sortering
Even een nuancering van dit bericht.

Ik wil deze studie zeker niet in twijfel trekken, maar mijn persoonlijke ervaring met dergelijke AI toepassingen voor medisch gebruik zijn tot nu toe telkens teleurstellend geweest, ondanks de enorm veelbelovende aankondigingen.

Mijn laatste ervaring was met de AI paketten van een hoog aangeschreven Israelisch techbedrijf, dat AI toepassingen maakt die automatisch bloedingen in de hersenen opspoort op scanners (een relatief eenvoudige toepassing eigenlijk). De studies hieromtrent waren even veelbelovend als deze in het artikel hierboven, met sensitiviteit/specificiteit >90%, nauwkeurigere detectie dan door artsen, etc. Het bedrijf stond vorig jaar in Time's top 50 genius bedrijven, haalde voor miljoenen investeringen binnen en is momenteel bij de top van de medische AI ontwikkelaars.

Eind deze maand zullen we deze pakketten 12 maand lang in de praktijk toegepast hebben, en de resultaten zijn werkelijk teleurstellend. De beloofde specificiteit/sensitiviteit uit de studies wordt in de verste verte niet gehaald en de workflow wordt door de software zelfs vertraagd ipv versneld.

Dus hoewel ik halsreikend uitkijk naar de grote aangekondigde AI omwenteling in de medische wereld, zijn tot nu toe de grote verwachtingen niet waargemaakt en zijn de resultaten nog steeds teleurstellend.
Eind deze maand zullen we deze pakketten 12 maand lang in de praktijk toegepast hebben, en de resultaten zijn werkelijk teleurstellend. De beloofde specificiteit/sensitiviteit uit de studies wordt in de verste verte niet gehaald en de workflow wordt door de software zelfs vertraagd ipv versneld.

Dus hoewel ik halsreikend uitkijk naar de grote aangekondigde AI omwenteling in de medische wereld, zijn tot nu toe de grote verwachtingen niet waargemaakt en zijn de resultaten nog steeds teleurstellend.
Dat klinkt alsof de studies doelbewust vervalst/gemanipuleerd zijn?

PS: los van bovenstaande vind ik het jammer dat dit AI wordt genoemd. Het is gewoon supervised machine learning. Noem het dan ook zo. Met AI wordt de indruk gewekt dat het om een intelligent systeem gaat dan na kan denken als mensen, wat gewoon niet zo is. Wat dat betreft ben ik het met Judea Pearl eens: alle AI op dit moment is gewoon curve fitting (wiskunde dus) en heeft met intelligentie vrij weinig te maken..
Het probleem met zulke software is dat het moet 'leren' om dingen te herkennen, en er dus duizenden voorbeelden moeten worden gebruikt om de software te trainen. Stel dat je 10.000 plaatjes hebt waar je de software mee traint, en na een lange tijd trainen kan het 90% correct herkennen. Vervolgens introduceer je nieuwe plaatjes, waarvan 10% in identieke omstandigheden zijn gemaakt (licht/donker, resolutie, etc, etc). Opeens is het niet meer 90% wat herkend wordt, maar 15-20% omdat de software niet getrained is op al die andere omstandigheden. Voor de volgende versie/release moet je dus dan een groot aantal nieuwe voorbeelden gebruiken. En de versie daarop weer.
Kan je eerst 10.000.000 plaatjes verzamelen en gebruiken om de software te trainen? Misschien. Maar dan heb je jaren meer werk, en kan niemand tot die tijd baat hebben bij gebruik ervan. Kan je een blinde test doen met nieuwe plaatjes om je software te presenteren? Tuurlijk, maar als je plaatjes van dezelfde bronnen krijgt zal het percentage toch hoog uitvallen (omdat daar de omstandigheden hetzelfde zijn als bij die eerdere set), en als je al van andere bronnen plaatjes kan krijgen heb je nog altijd het probleem dat je niet weet of het representatief is. Dus wordt meestal het test percentage genoemd om reclame mee te maken en wordt vervolgens wanneer het niet klopt de software of verder getrained of wordt hulp geboden om de situatie zoveel mogelijk te krijgen zoals het in de test opstellingen was.

Het bedrijf waar ik werk maakt niet zulke medische software, maar maakt wel gebruik van het trainen van software met duizenden voorbeelden. Hoe verder de ontwikkeling komt hoe beter het gaat, maar je houdt het probleem dat de opstelling van de klant op veel plaatsen kan afwijken en je niet met elke mogelijke variatie rekening kan houden. Dus bieden we altijd aan om de klant te helpen hun opstelling te ontwerpen zodat ze zo goed mogelijke kwaliteit video kunnen krijgen. En als ze al videos hebben kunnen we die (met hun toestemming) gebruiken om de software verder te trainen als het nog niet goed gaat.
[...]
...vind ik het jammer dat dit AI wordt genoemd. Het is gewoon supervised machine learning. Noem het dan ook zo. Met AI wordt de indruk gewekt dat het om een intelligent systeem gaat dan na kan denken als mensen, wat gewoon niet zo is. ...
Is dat niet een definitie kwestie? Als een systeem pas intelligent is als het "kan denken als mensen", dan vermoed ik dat kunstmatige intelligentie niet bestaat en nooit gaat bestaan. Overigens is het ook maar de vraag in hoeverre het denken van mensen intelligent genoemd kan worden, maar dat is een ander verhaal.

Overigens eens met je opmerking dat de cijfers gemanipuleerd lijken. Of het systeem wordt verkeerd gebruikt natuurlijk.

[Reactie gewijzigd door KopjeThee op 2 januari 2020 18:10]

Een groot deel van de bevolking kent de technieken niet, werkt er niet mee en beschouwt het vakgebied als een soort black box - hier komt ook een stukje magisch denken bij kijken. Als je in het vakgebied werkt frustreert dat soms wat, die frustratie denk ik ook in het comment van @GeoBeo te herkennen.

Marvin Minsky beschreef AI ooit als een vakgebied waarbinnen men onderzoek doet naar technieken die in gedrag resulteren waar een mens zijn intelligentie bij in zou zetten. De eerste schaakcomputers heetten ooit AI te zijn, nu zien we dat gewoon als een mooi zoek-algoritme. Van de meedraaiende koplamp is het ook wel eens beweerd, tot iemand daar een mooi mechaniekje voor verzon. 'Artificial General Intelligence'

En tegenwoordig zien we hetzelfde. De klassieke hypothese-toetsende statistiek (T-testen, correlaties, annova's) omvat technieken die we wiskundig goed doorgronden, waarover veel geschreven is en waarover in veel vakgebieden heldere afspraken bestaan over correct gebruik. Veel machine learning technieken zijn ontwikkeld om vergelijkbare kunstjes te doen, op datasets die wezenlijk complexer zijn: streaming data, miljoenen variabelen, of miljarden entries per variabele. De afgelopen 15 tot 20 jaar zijn deze technieken qua ontwikkeling in een stroomversnelling geraakt. We hebben nu de data, de rekenkracht en de tools. We kunnen onszelf inzichten bieden die we 20 jaar geleden niet hadden kunnen krijgen. Maar de standaarden, ons begrip van de werking (en de valkuilen) en de consensus over gebruik, kwaliteit en de presentatie van output volgen pas na de toepassing. Er wordt hard aan gewerkt, maar ze zijn voor deze technieken moeilijker te ontwikkelen dan voor het oude spul: Een relatie tussen drie variabelen kan ik in drie dimensies nog wel tekenen en dan aan mijn oma uitleggen. Hoe doe ik dit met vierduizend interacterende variabelen? Niet zo gek dat het voor veel mensen in een magische AI-doos zit.

Waar @GeoBeo misschien ook op doelt is dat dit allemaal voorbeelden van 'Narrow' AI zijn. De technieken lijken misschien wel intelligent, maar zijn buiten hun minuscule domein weinig effectief. 'Artificial General Intelligence' (AGI) is de domeinonafhankelijke vorm die dierlijke of menselijke intelligentie zou kunnen benaderen of overvleugelen. (Leuke discussie: 'Weak AI vs Strong AI - lijkt
het slim, of is het slim?) Daar zijn we voorlopig nog niet. In een set polls in 2013, afgenomen onder AI researchers, werd de likelihood voor 2050 op 50% geschat. Maar Herbert A. Simon voorspelde in 1965 dat machines binnen 20 jaar al het menselijk werk zouden kunnen doen.

Deep Learning / Neural Nets (zoals gebruikt in dit onderzoek) zijn super moeilijker. In tegenstelling tot veel andere paradigma's is het verdomd moeilijk om uit te leggen waarom het werkt. Welke factoren bepalen dat we output Y krijgen voor input X? En de techniek is, afhankelijk van de structuur van het netwerk en de input data, voor bizar veel toepassingen te gebruiken. Dat zal dus nog wel wat langer in de magische AI-doos blijven zitten.

Het gaat bij papers zoals deze niet om het model zelf. De innovatie in dit paper is het feit dat de onderzoekers een duur, langdurig en arbeidsintensief proces hebben ontwikkeld wat uiteindelijk in een model resulteert dat vrij redelijke voorspellingen doet. Het proces is het eindproduct waar we de mooie cijfers aan mogen wijten. Indien je werkt met andere apparatuur en instellingen, een andere werkwijze, of een andere doelgroep, kun je hun volledige proces herhalen voor jouw situatie. En als je dat met dezelfde hoeveelheid tijd en aandacht doet kun je misschien een vergelijkbaar resultaat behalen.

[Reactie gewijzigd door Archent op 3 januari 2020 16:11]

Bedankt voor de verdieping! Het is zonde dat reacties die wat later geplaatst worden, waarschijnlijk minder vaak gelezen worden. Anyway, ik waardeer het in ieder geval.
Ik ben het deels met je eens, het probleem met deze onderzoeken is dat er vaak een beperkte set referentiemateriaal (mammogrammen) beschikbaar zijn om mee te trainen. Een model trainen op zon beperkte set is geen kunst, maar het "flexibel" houden wel.

Als iemand die heeft meegewerkt (oke oke, meegelift) aan soortgelijk onderzoek bij de Radboud Universiteit/MCU kan ik zeggen dat het trainen van een model voor mammogrammen goed te doen is voor een specifiek ziekenhuis.
Een ziekenhuis gebruikt vaak voor alle mammogrammen (rontgenfotos van de zijkant van een borst) dezelfde technieken, daardoor voldoen alle fotos om en nabij aan dezelfde eisen.
Het trainen van een model voor een ziekenhuis is dus geen kunst, en ook zeker niets nieuws.
Het wordt pas lastig als er mammogrammen van meerdere ziekenhuizen door elkaar gegooid worden, door met verschillende technieken te werken krijg je afbeeldingen met andere eigenschappen en die kan een model niet altijd even goed uit elkaar houden.
Ook is het een probleem als een ziekenhuis waarvoor een model getraind is overschakelt op een andere techniek (bijvoorbeeld een andere röntgen camera).
Mooi te horen. Vaak is er in zulke ontwikkelingen wel enige overfitting (bv. false positives daalt maar false negatives stijgt). Het is erg goed nieuws dat het systeem in beide metrieken goed presteert. Dat wil dus zeggen dat je minder snel te horen krijgt dat je geen kanker hebt (maar het eigenlijk wel hebt), en dat het ook minder snel zal voorvallen dat ze je zeggen dat je kanker hebt terwijl dat niet zo is. Die foute analyses kunnen dramatische psychologische gevolgen hebben voor een patient, terwijl de mentale toestand van patiënten vaak zó belangrijk is

1% lijkt misschien niet zo veel, maar stel je eens voor dat jij één van die honderd bent waartegen ze zeggen dat je kanker hebt (terwijl dat eigenlijk niet zo is) - of omgekeerd. Elke kleine verbetering in dit veld is belangrijk. Goede ontwikkeling dus, dit!

[Reactie gewijzigd door BramVroy op 2 januari 2020 14:53]

Ik neem aan dat zeker als er een positieve constatering is er nog een arts na gaat kijken en niet klakkeloos een smsje met "Je hebt kanker" wordt verstuurd.
Ik heb de bron niet gelezen maar het zou fijn zijn als er ook nog informatie wordt gegeven waar het dan precies zit zodat je het makkelijk kan checken als arts.
False negatives zijn misschien nog wel vervelender en daarom zal het nog wel lang duren voordat een machine alles overneemt. Het zal dus waarschijnlijk ook wordt geoptimaliseerd zodat arts alles wel moeten checken maar het minste tijd eraan kwijt zijn.
Kunnen we kwaliteitsverschillen afleiden tussen de Amerikaanse en VK gezondheidszorg of is er een andere reden voor de verschillen?
Er is inderdaad een verschil tussen de Amerikaanse en Europese manier dat mammogrammen gelezen worden.

Uit het artikel:
In the UK, the screening programme uses double reading: each mammogram is read by two radiologists, who are asked to decide whether to recall the woman for additional follow-up. When there is disagreement, an arbitration process takes place.
[..]
In the USA, each screening mammo-gram is typically read by a single radiologist, and screens are conducted annually or biannually.
Uit ander onderzoek blijkt double reading effectief een groot verschil te maken:
Consensus double reading has been shown to improve performance compared to single reading, and represents the current standard of care in the UK and many European countries
https://pubs.rsna.org/doi/10.1148/radiol.2018171010

Interessant is ook de conclusie, waarin de auteurs aangeven dat deze machine learning aanpak gelijkaardige resultaten geeft dan double reading:
In the UK, the AI system showed specificity superior to that of the first reader. Sensitivity at the same operating point was non-inferior. Consensus double reading has been shown to improve performance compared to single reading, and represents the current standard of care in the UK and many European countries. Our system did not outperform this benchmark, but was statistically non-inferior to the second reader and consensus opinion.
Edit: correcte BB-code
Edit 2: uitgebreider citaat uit de conclusies

[Reactie gewijzigd door Proxikill op 2 januari 2020 11:39]

Uit het abstract kan ik niet zien of er verschil in data bestaat tussen de VK en USA? Wat zou verklaren dat de foutmarges überhaupt zoveel verschilden tussen beide landen? De kwaliteit van de beoordelende experts? De patiënten?
Zoals hierboven (https://tweakers.net/nieu...ction=13850302#r_13850302) aangegeven heeft het verschil te maken met de gebruikte data sets. In de VK worden mammogrammen door meerdere experts beoordeeld, terwijl dit in de VS slechts door een expert is. De kwaliteit van de individuele experts hoeft dus niet noodzakelijk anders te zijn, maar meerdere ogen zorgen voor minder fouten.
Ik fantaseer dat de AI met de data van een Engelse populatie kan zijn getraind die qua fysiek een beetje verschilt van de Amerikaanse.
Ik zou eerder verwachten de werkdruk. Die is in de medische sector nogal hoog in de UK de laatste jaren.
Maar het kan uiteraard vanalles zijn, het zal zowaar een cultureel ding kunnen zijn.
Erg interessant en natuurlijk voor de ontwikkeling van de medische technologie erg goed. Ik heb alleen wel wat vraagtekens bij grote bedrijven (en in het bijzonder databedrijven als Google/Microsoft) wanneer deze zich gaan inmengen binnen sensitieve zaken zoals zorg en de privacy die hiermee gepaard gaat.
Heeft er iemand data over hoe veel deze bedrijven investeren in medisch onderzoek/technologie?
Ik heb alleen wel wat vraagtekens bij grote bedrijven (en in het bijzonder databedrijven als Google/Microsoft) wanneer deze zich gaan inmengen binnen sensitieve zaken zoals zorg en de privacy die hiermee gepaard gaat.
Uit het oorspronkelijke artikel "These findings show that our AI model spotted breast cancer in de-identified screening mammograms (where identifiable information has been removed) ..."

Als (die software van) Google geen manier heeft om de mammogrammen te linken aan specifieke personen, lijkt mij dat er geen sprake kan zijn van privacy-issues.

[Reactie gewijzigd door Brousant op 2 januari 2020 11:06]

Maar Google heeft meer informatie:
  • Ze weten wie op welke dag naar welke afdeling is geweest door je locatie data (Timeline/weer/Android)
  • Ze kunnen uit google calendar data zien wie een afspraak heeft
  • Via google maps weten ze wie waarnaartoe navigeert.
  • Vanuit je zoekgeschiedenis kunnen ze zien wie welke uitslag heeft gekregen (ziektebeeld, onderzoeken, prognoses)
  • En dan met een beetje pech hebben ze zelfs je DNA wat je voor de grap een keer hebt laten uitzoeken om te zien waar je 'oorspronkelijk' vandaan komt (Ancestry en 23andMe onder andere gefund door een Google spin off)
Deze data kunnen ze vervolgens dan gaan koppelen om anonieme data niet meer anoniem te laten zijn. Daarnaast is het nog steeds schadelijk als ze deze data kunnen koppelen aan een anoniem nummer waarvan ze dan alsnog data pakketjes van kunnen verkopen zodat dit 'anonieme' nummer gevolgd en bestookt kan worden met zeer relevante reclame.

Ik acht het nog niet heel waarschijnlijk dat ze dit specifiek doen, maar op algemene locatie data wordt dit natuurlijk al zeer zeker toegepast, al is het maar om aan hun adverteerders te kunnen 'bewijzen' dat mensen nu vaker naar de Kruidvat gaan na x reclames.

Maar ik acht het wel heel waarschijnlijk dat we op een slippery slope zitten en dat we heel goed moeten uitkijken in welk dal we belanden.

[Reactie gewijzigd door walletje-w op 2 januari 2020 13:44]

Voor een proof-of-concept is dat inderdaad niet nodig, ik ben benieuwd hoe het in de praktijk gaat uitpakken als dit gemeengoed geworden is.
Maar omdat het onder hetzelfde bedrijf valt, kan de verbinding van gevoelige medische informatie met de rest in de toekomst gemakkelijk gelegd worden.
Ik moet je eerlijk zeggen, als die zorgt dat ziektes vele malen sneller en beter gedetecteerd en behandeld kunnen worden, dan vind ik dat privacy op de 2e plaats komt, het leven van een persoon gaat voor privacy.
Ik moet je eerlijk zeggen, als die zorgt dat ziektes vele malen sneller en beter gedetecteerd en behandeld kunnen worden, dan vind ik dat privacy op de 2e plaats komt, het leven van een persoon gaat voor privacy.
Je maakt een begrijpelijke denkfout.


De gegevens die worden aangereikt zijn niet van Google maar van de dames icm bestaande literatuur waar Google verder niks mee te maken heeft.

Wat Google vervolgens doet is die mammogrammen onder een scanner stoppen waarbij het menselijk oog wordt vervangen door een logaritme wat minder complex is dan het lijkt. In een gemiddeld ziekenhuis lopen nou eenmaal minder mensen rond die verstand hebben van dergelijke digitale herkenningen.

https://www.newscientist....-by-scanning-your-photos/
Shaw’s own son Noah was diagnosed with a retinoblastoma when just 3 months old, and lost an eye as a result. When Shaw looked back at the family photos, he saw white eye first appeared in photos taken when Noah was just 12 days old.
So Shaw, a chemist at Baylor University in Waco, Texas, created the app with the help of computer science colleagues Ryan Henning and Greg Hamerly and advice from the doctors who treated Noah. “A personal tragedy drove this,” says Shaw.
3 Man sterk waarbij enkele artsen hielpen.

Hier een plaatjesboek,
https://www.amazon.com/Cl...em-Medicine/dp/9283224329
Maar er zijn er nog veel meer. Aan de hand van dergelijke symptomen wordt de volgende stap genomen.


Google doet dus niets speciaal. Er is ook geen reden om google er bij te betrekken omdat die altijd veel mitsen en maren heeft terwijl de achterliggende techniek relatief simpel is. Ziekenhuizen, en (sociale) verzekeringen zijn er bij gebaat om dergelijke software zo snel mogelijk landelijk, benelux, europees te regelen door partijen die niet in persoonlijke data handelen maar eerder in (wetenschappelijke) kennis. En dat wordt deels gedaan door universiteiten en ziekenhuizen zelf, maar daarnaast heb je ook partijen als onder andere Elsevier die ook een deel van gepubliceerd literatuur naar een hoger niveau kan tillen.
Maar waar stopt het dan?
Mag Google van iedereen 24/uur per dag weten waar je iemand zich bevindt zodat ze ontvoeringen kunnen voorkomen?
Mag Google van iedereen 24/uur per dag in de slaapkamer kijken om te voorkomen dat iemand verkracht zal worden?
Mag Google van iedereen alle gezondheid data ontvangen om 2 mensen te redden? Mag het wel als het om 200 mensen gaat? Of om 200.000 mensen?

Het is makkelijk roepen dat een leven voor privacy gaat maar het draait altijd om het grotere perspectief. Hoeveel leed vinden we als samenleving acceptabel in ruil voor privacy?
En de andere vraag waarom moeten we zo vaak privacy inleveren voor functionaliteiten waar privacy helemaal niet voor ingeleverd hoeft te worden?
Waarom kunnen ziekenhuizen dit niet zelf opzetten zodat de privacy gewaarborgd blijft en dat Google ver uit de buurt blijft van dit soort persoonlijke data, dit is vragen om problemen. (means, motive & opportunity).
En toch blijft de beste methode om borstkanker op te sporen een simpel fysiek onderzoek door een goed getrainde arts.
Bent u arts?
Wat als het melanoom te klein is om te worden gevoeld?
En toch blijft de beste methode om borstkanker op te sporen een simpel fysiek onderzoek door een goed getrainde arts.
De wijd verbreide toepassing van mammografie suggereert dat dat ofwel niet waar is, of dat die goed getrainde artsen simpelweg te dun gezaaid zijn.
Zelf regelmatig checken is ook belangrijk, zo kwam mijn vrouw er achter toen ze 29 was.
Normaal zijn de afspraken voor een mammografie pas ergens na je 50e. En ook mannen kunnen het krijgen, dus af en toe ook even checken als man, kan geen kwaad.
Je kan zeggen dat in het onderzoek de AI van Google bevoordeeld was:
"Het algoritme deed het bij het lezen van mammogrammen beter dan zes afzonderlijke radiologen. Normaal gesproken wordt de beoordeling door zeker twee artsen gedaan; in dat geval was de kunstmatige intelligentie even betrouwbaar."
https://www.bnr.nl/podcas...orstkanker-beter-dan-arts
Natuurlijk moet je wel er bij onthouden dat mensen niet 24u scherp zijn.
In de praktijk zijn vaak dit soort doctoren ook veel tijd wekelijks kwijt aan diagnosestelling en turen naar deze plaatjes.

Tenminste, dat is zo voor pathologen, welke naar celstructuren e.d. kijken, ik neem aan ook voor radiologen.
Je kunt het best zorgen dat dit dus op de maandagochtend gedaan word.
Mooi deze ontwikkelingen op AI gebied.
Lijkt dat de artsen in de US -gezien het aantal hogere false neg/pos meldingen tov UK- nog wat kunnen inhalen op gebied van diagnostiek?? Daar is geen AI voor nodig.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True