Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Google ontwikkelt deep learning-algoritme voor detectie hartziekten via oogscan

Wetenschappers van Google en gezondheidstechnologiebedrijf Verily, een dochter van Google, hebben een nieuwe manier ontwikkeld om via het scannen van de achterkant van het oog data af te leiden waarmee de kans op hart- en vaatziekten zoals een hartaanval kan worden voorspeld.

Door het scannen van het netvlies kan er data zoals de leeftijd, geslacht, bloeddruk en of de patiŽnt een roker is worden afgeleid. Dit kan dan worden gebruikt om te voorspellen hoe hoog het risico is op bepaalde hart- en vaatziekten. Het gaat hierbij om een foto van de vele bloedvaten aan de achterkant van het oog.

Tijdens het onderzoek zijn onder meer twee netvliesfoto's van twee verschillende patiŽnten gebruikt, waarbij een patiŽnt in de vijf jaar na de gemaakte foto's een hartprobleem kreeg. Googles algoritme bleek in staat om, zonder andere datapunten te gebruiken, in 70 procent van de gevallen de foto toe te schrijven aan de juiste patiŽnt. Een medicus van de Universiteit van Adelaide heeft tegen The Verge gezegd dat het om een degelijk onderzoek gaat dat het mogelijk maakt om meer uit de beschikbare data te halen dan tot nu toe kon.

Volgens de onderzoekers van Verily is een van de interessante aspecten van dit onderzoek dat er heatmaps zijn gemaakt waarbij bepaalde delen van het netvlies worden gemarkeerd die het meest hebben bijgedragen aan de voorspellingen van het algoritme. De onderzoekers stellen dat dit nieuwe inzichten kan opleveren en medici meer vertrouwen kan geven in het neurale netwerkmodel.

De deep learning-modellen van Google zijn getraind op data afkomstig van meer dan 284.000 patiŽnten. De data voor deze analyses betrof niet alleen oogscans maar ook algemene medische gegevens. Via een neuraal netwerk werden patronen herkend, waarbij data afkomstig van de oogscans kon worden geassocieerd met risicofactoren voor hart- en vaatproblemen. Volgens Google gevalideerd op basis van twee onafhankelijke datasets van 12.026 en 999 patiŽnten.

De onderzoekers erkennen wel dat hun studie nog een aantal beperkingen kent. Allereerst zijn er enkel afbeeldingen gebruikt met een beeldhoek van 45 graden. Daarnaast zeggen de wetenschappers dat de gebruikte grootte van de dataset relatief klein is voor deep learning. Ook zaten bepaalde belangrijke gegevens voor hart- en vaatziekten, zoals de hoeveelheid lipiden in iemands bloed, niet in de gebruikte datasets. Bovendien waren de gegevens over of iemand wel of niet rookte afkomstig van de patiŽnt zelf, waardoor ze misschien niet volledig betrouwbaar zijn.

Het onderzoek is gepubliceerd in het wetenschappelijke tijdschrift Nature Biomedical Engineering, onder de titel Prediction of cardiovascular risk factors from retinal fundus photographs via deep learning.

Een afbeelding van dezelfde retina, waarbij de linkerfoto de standaardafbeelding is. De tweede afbeelding toont een heatmap waarbij de bloedvaten in het groen zijn gemarkeerd die het algoritme heeft gebruikt voor het voorspellen van een hoge bloeddruk.

Door Joris Jansen

Nieuwsredacteur

19-02-2018 • 20:57

33 Linkedin Google+

Reacties (33)

Wijzig sortering
Wat ik mis in dit artikel is hoe goed het algoritme het nu eigenlijk doet. Hoeveel false positives waren er? Hoeveel false negatives? Ik lees alleen dat het algoritme een foto aan de juiste patiŽnt kon toeschrijven. Dit heeft m.i. dan niet perse iets te maken met het voorspellen van het wel of niet krijgen van een hartziekte op basis van een foto (en evt. andere data), maar lijkt meer op een classificatie algoritme.
Als ik het originele artikel lees leid ik er vanuit dat het netwerk risico factoren output voor deze ziektes. Heat maps zullen vast gemaakt zijn door heat maps te maken van de activation outputs om te zien waar het netwerk op activeert. Om het artikel te citeren: "Despite the limited number of events, our model achieved an area under the receiver operating characteristic curve of 0.70 (95% CI: 0.648 to 0.740) from retinal fundus images alone." Dat is dus puur en alleen met de retina foto. Met de medische informatie erbij kunnen ze een nog iets preciezere voorspelling doen.

Bron: https://www.nature.com/ar...TK40ZbWzpoOGfLab-NA%3D%3D
Dan lees je het originele artikel, welke vrij beschikbaar is?
Nee, want ik kom op Tweakers om snel een kort nieuwsartikel te lezen waar ik iets van kan leren. Als ik wetenschappelijke artikelen wil lezen, dan ga ik wel naar andere websites.
Zoekt snel en kort, wil in-depth info :/
Googles algoritme bleek in staat om, zonder andere datapunten te gebruiken, in 70 procent van de gevallen de foto toe te schreven aan de juiste patiŽnt.
Leert het algoritme niet sneller wanneer deze ook beschikt over de andere vaststaande medische gegevens van de patiŽnt?

[Reactie gewijzigd door DeArmeStudent op 19 februari 2018 21:16]

Denk dat je het ook wilt kunnen gebruiken als je die informatie nog niet hebt. En netvliesfoto is vrij goedkoop om te maken, zeker als je daarmee dure onderzoeken of behandelingen kan besparen.
Het is alleen maar een indicatie , daar na komen de dure onderzoeken .
Maar wauw ze kunnen het in een vroeg stadium bij zijn. Preventieve opsporing en voorkomen is zo veel beter en goedkoper dan achteraf genezen als je dan nog leeft.
Duimen omhoog voor google
En verzekeraars van Nederland luisteren jullie ? Grijp je kans deze onderzoeken kunnen ons allemaal veel leed besparen en zijn zo veel goedkoper dan zieken huis bezoeken aan de intensive care.
iedereen elke 5 jaar een foto laten maken :)
"De deep learning-modellen van Google zijn getraind op data afkomstig van meer dan 284.000 patiŽnten. De data voor deze analyses betrof niet alleen oogscans maar ook algemene medische gegevens."

Dat staat er toch?
Ah, daar had ik dus overheen gelezen.
Natuurlijk leert het algoritme wel als het bestaande gegevens heeft. Maar als je het algoritme hebt laten leren, ga je het op een andere dataset testen, op foto's die het nog niet eerder gezien heeft, om te controleren of hij dan correcte resultaten geeft.
Het is echt te laat op de avond om dat vrij complexe onderzoek met bijbehorende statistiek nog eens te gaan bestuderen maar het voorbeeld dat Joris Jansen beschrijft -en ik neem dan aan dat dat dan toch een soort highlight is- vind ik niet zo overtuigend.

Het programma kan in 70 procent van de testen uit twee foto's degene halen die binnen vijf jaar hartproblemen gaat krijgen. Wel, ik kom met stomweg blind raden al aan een score van 50 procent... En ik denk dat een medisch specialist die naar de bloedvaten en conditie van het netvlies krijgt daar vrij makkelijk ver bovenuit stijgt.
Het punt is, dat zodra het model completere data krijgt het vooral veel sneller gaat kunnen analyseren dan een arts en het hierbij de arts dus ondersteunt in detectie. Niet als vevervanging van.
Ik was recent op een congres (medisch) waar er gesproken werd over AI voor het opsporen van aandoeningen. Gelijkaardig aan wat hier beschreven wordt.
Ondanks wat er algemeen gedacht wordt zijn medische experts het in heel veel gevallen ook niet eens met elkaar over een prognose.
Dus ik vrees dat het niet zoveel boven die 70% gaat zijn. 80-90% max, afhankelijk van de complexiteit van de analyse.
1 van de opmerkingen van de spreker was dat je de AI zijn slaagpercentage niet mocht vergelijken met 100% maar moest vergelijken met wat een getraind persoon zijn percentage zou zijn in het vaststellen gebaseerd op de beschikbare info.
Zij toonden een ander voorbeeld waarin ze een panel van experts hadden laten kijken (afzonderlijk) en zij kwamen maar 10% boven de AI uit. Redelijk goed dus voor een AI met beperkte leer uren nog maar.
In het algemeen willen ze btw zelf in de hand houden hoe ze de AI leren. En dus niet het zelf laten leren zoals google gedaan heeft recent met het laten lopen en GO.
Hoe meer tijd je steekt in het leren van de AI hoe beter die wordt. Ze konnen het verschil van de 10% naar de toekomst toe dus nog verkleinen.
En wat als er over een aantal jaren een app is die met dit algoritme, maar ook met een hartslagmeter en andere data over de tijd kan bijhoeden wanneer iemand in de gevarenzone komt. Dit door 1x per week ofzo even in je camera te staren. Zit je in de gevarenzone wordt je doorverwezen naar een test die uitgevoerd wordt door een specialist die ook de vergaarde data kan raadplegen.
Des te eerder je erbij bent, des te beter voor de patiŽnt en voor de maatschappij...
Heel mooi natuurlijk, maar de vraag is wat de andere medische gegevens precies waren.

Tevens komt er ineens een foto voorbij waarin bloeddrukken staan, welke ik niet aan de tekst kan linken.

Ook zou een verwijzing naar IBM Watson welke voor dr. house doorging in Duitste natuurlijk ook leuk zijn geweest.
Lijkt me nogal logisch wat ze met die bloeddruk bedoelen: de gemeten bloeddruk was 148,5 mm kwik, de voorspelde waarde vanuit de foto door het deep learning algoritme is 148 mm kwik, verbazingwekkend nauwkeurig dus.
Ik heb de aanname dat het algoritme aan de hand van de foto van het oog de bloeddruk bepaalde ook gemaakt, echter, de vraag lijkt me wel valide. Het artikel betreft het voorspellen van hartaanvallen, iets wat me van een hele andere orde lijkt dan aan de bloeddruk bepalen.
Het artikel betreft het voorspellen van hartaanvallen, iets wat me van een hele andere orde lijkt dan aan de bloeddruk bepalen.
Het hangt wel samen. Hoge bloeddruk geeft nu eenmaal meer kans op hartproblemen en (hersen)infarcten. Waarbij het afremmen van de hartslag zou kunnen helpen.
Dan nog lijkt me dit een vrij ingewikkelde maniet om bloeddruk te meten, dus ik ga er van uit dat het nog wel meer meet.
Hoezo ingewikkeld. Ontwikkel het door en je kunt over een aantal jaren wellicht je bloeddruk meten door even in de camera van je mobieltje te staren.
Dan nog lijkt me dit een vrij ingewikkelde maniet om bloeddruk te meten, dus ik ga er van uit dat het nog wel meer meet.
Om alleen even de bloeddruk te meten wťl. Maar zoals je zegt, er valt genoeg te zien in een oog, dus zal dat ook mee genomen kunnen worden. Dat maakt het niet minder ingewikkeld, maar wel nuttig.
Ik snap ook wel wat het plaatje betekent en wil beschrijven, maar de link met de tekst is er niet. Dat is exact het punt wat ik opperde.
Bij dit soort onderzoeken denk ik al snel dat er een doel gezocht moest worden voor een methode. Data verzamelen en dan naar een rechtvaardiging zoeken. Liefst iets met disruption.

Veel van de gegevens weet een onderzoekende arts al of kan het aan de patient vragen. Inderdaad ik ben een scepticus voor de noodzaak van toegang tot massale toegang tot patientgegevens, vooral en extra speciaal als de dataverzamelaar dat tot geldgenerend doel heeft verheven en zelf al tot het inzicht is gekomen dat de slogan "don't be evil" niet meer geschikt is.
Wat mij betreft mis je nu iets, namelijk dat dmv deze analyse er vele malen sneller en meer mensen onderzocht kunnen worden zonder dat er direct een gespecialiseerde arts nodig is. Normaal wordt je niet gecontroleerd, nu kan ineens iedereen voor relatief weinig gecheckt worden.Een arts kan dan op basis van bepaalde criteria beslissen wie hij/zij aandacht gaat geven. En dat aantal zal hoogstwaarschijnlijk vele male hoger zijn dan voor deze soort van analyse. Ik denk dat er dus effectief meer mensen een diagnose krijgen die hen helpt op tijd in te grijpen.
Ik had de preprint al eens ergens gelezen. Leeftijd, geslacht en bloeddruk zal ook een auc van 70%geven, ben benieuwd wat dit toevoegd. Het algoritme om te zien wat die netwerken precies leren is ook een beetje vaag en lijkt op cherry picking.
Ik heb de link niet hier op m'n jolla, maar je kunt, volgens mij al 10 jaar, een foto van je retina naar een Engelse ophtalmologist sturen die 'm op tekenen van plaque en calcificatie onderzoekt en je een kans (of calcium score?) op een hartaanval terugstuurt.
Overigens is een calcium score eenvoudig te verkrijgen via een CT scan van je hart.
Als je naar een Aziatisch land gaat waar ze een beetje Engels spreken hoeft zo'n scan minder dan 100 euro te kosten om je calcium score te weten.
Wat ik mij eigenlijk afvraag is of deze grote groep patienten geraadpleegd zijn over het feit dat google toegang had tot hun medische gegevens.
Zonder in te gaan op de specifike resultaten van dit onderzoek:
In mijn ervaring zijn onderzoeken die een positief resultaat boeken van 70% zijn in het algemeen onbetrouwbaar. Er is in de wetenschappelijke wereld een publicatiedruk die er toe leidt dat onderzoekers een bias krijgen naar een positief resultaat (je scoort nu eenmaal niet met de conclusie dat je maar net boven een stochastisch gemiddelde uit komt).
Dus vaak zijn de proefpersonen of testsets bewust of onbewust zodanig geselecteerd dat de kans op een publicatiewaardige uitkomst wordt vergroot.

En stel dat een app echt 70% scoort op het herkenenen van problemen, dan nog moet je niet vergeten dat er ook grote nadelen zijn aan false positives en false negatives bij medische onderzoeken. Een false postive kan grote stress geven (in zichzelf al slecht voor de gezondheid) en leiden tot overbehandeling, en een false negative tot risicovoller gedrag.

Kortom, een flinke korrel zout zou geen kwaad kunnen. Of zoals altijd aan het eind van een onderzoek: "Verder onderzoek is nodig" ;)
Denk dat dit soort 'deep learning' wel de toekomst gaat zijn voor de geneeskunde.

Een gigantische berg data, analyse tool er op los laten, en er komt een onverklaarbare oplossing uit die we niet begrijpen, maar wel werkt (nu wordt er nog specifiek naar hartziekten gekeken, maar je kan het zo breed maken als maar kan).

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True