×

Help Tweakers weer winnen!

Tweakers is dit jaar weer genomineerd voor beste nieuwssite, beste prijsvergelijker en beste community! Laten we ervoor zorgen dat heel Nederland weet dat Tweakers de beste website is. Stem op Tweakers en maak kans op mooie prijzen!

Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Wetenschappers maken algoritme dat afwijkingen in hartritme kan detecteren

Door , 78 reacties

Wetenschappers van de Stanford University hebben een algoritme ontwikkeld waarmee verscheidene soorten afwijkingen in het hartritme gedetecteerd kunnen worden. De software zou net zo goed werken als, en soms beter werken dan, getrainde cardiologen.

Stanford University heeft de bevindingen op zijn eigen website gepubliceerd en in een wetenschappelijke paper. Het ontwikkelde algoritme kijkt naar het hartritme van de patiënt, en kan daarbij veertien verschillende soorten afwijkingen herkennen. In een onderzoek naar de effectiviteit van het algoritme werden de resultaten vergeleken met die van zes getrainde cardiologen. De software bleek het in sommige gevallen net zo goed te doen als, en in sommige gevallen beter te doen dan, de cardiologen.

Om het algoritme te trainen werd een deep neural network opgezet dat zeven maanden lang werd getraind met een grote dataset met ecg-data. De data werd verstrekt door het bedrijf iRhythm. Op een speciale website geven de onderzoekers meer inzicht in de technische achtergrond van de software.

Het algoritme kan vooral van pas komen bij afwijkingen die niet altijd te zien zijn op een ecg, ofwel een hartfilmpje. In zo'n geval moet de patiënt een mobiel ecg-apparaat dragen waarbij over een periode van een aantal weken het hartritme wordt gemonitord. Omdat de data vervolgens handmatig nagekeken moet worden, is dit erg arbeidsintensief.

Eerder kwamen wetenschappers van de Stanford University al met een algoritme dat huidkanker kan detecteren. Ook daar vergeleken ze hun methode met gespecialiseerde dokters, dermatologen, en ontdekten dat het algoritme net zo goed werkte.

Door Bauke Schievink

Admin Mobile / Nieuwsposter

09-07-2017 • 11:28

78 Linkedin Google+

Reacties (78)

Wijzig sortering
Ze hebben de consensus-mening van drie cardiologen als gouden standaard gebruikt, dus of het beter werkt dan getrainde cardiologen blijft hoe dan ook de vraag. Dat de uitkomt van het algoritme de betreffende ritmeafwijkingen vaker overeenkomt met de consensusmening dan het gemiddelde van de zes test-cardiologen laat helaas onduidelijk hoe individuele cardiologen hebben gepresteerd (waren een of twee van de zes test-cardiologen bijvoorbeeld duidelijk slechter en is de gemiddelde cardioloog van het onderzoek daarom slechter dan de cardioloog die een patient in de praktijk tegen zal komen). Die gegevens moeten de auteurs hebben, en ik vind het jammer dat ze daar niet wat meer inzicht in hebben gegeven.

Een cardioloog gebruikt normaalgesproken meer gegevens dan alleen het ECG (en bij ECGs is in NL een multi-lead redelijk laagdrempelig beschikbaar) om een conclusie te bereiken. Hoe dan ook is het denk ik voordehandliggend dat dergelijke hulpmiddelen steeds vaker goed gereedschap zullen zijn in het arsenaal van een arts.

Zeker bij de hier onderzochte single-lead ECGs kan dergelijke technologie ervoor zorgen dat ECG-diagnostiek voor een grotere groep/vaker zinvol worden gebruikt zoals de onderzoekers ook aangeven.

[Reactie gewijzigd door begintmeta op 9 juli 2017 12:41]

Je draagt goede en kritische punten aan. Het is echter zeer bemoedigend dat juist een single lead onderzoek als dit al zulke positieve resultaten boekt. In de toekomst zullen deze onderzoekers met meer leads en mogelijk meer cardiologen soortgelijke onderzoeken doen om nog meer afwijkingen met nog grotere precisie te kunnen voorspellen. De grootste winst zit in het feit dat een cardioloog niet meer hoeft te zoeken in de uren of dagen aan data, maar dat het algoritme kan aanwijzen waar mogelijk welke afwijking zit.

Ik vind het juist prijzenswaardig van de onderzoekers dat ze het algoritme hebben geleerd waar afwijkingen zitten a.d.h.v. een panel van drie cardiologen. Drie is een absoluut minimum om een weloverwogen beslissing te kunnen krijgen: ťťn cardioloog mist af en toe iets, twee cardiologen kunnen elkaar nog redelijk eenvoudig overtuigen, maar drie betekent al dat er regelmatig discussie zal hebben plaatsgevonden over de daadwerkelijke afwijking op hun scherm. De belangrijkste aanname die ze hier doen is dat drie cardiologen tot een uitkomst zijn gekomen die minstens zo goed is als een gemiddelde cardioloog. Zo verwoorden ze het ook: 'We exceed the average cardiologist performance'...

Door op deze manier de data te labelen, kunnen ze vrij eerlijk vergelijken met het oordeel van echte cardiologen. Door er zes te nemen, wat een goed aantal is voor dit soort labelling studies, krijgen ze een zeer goed beeld van wat een gemiddelde cardioloog had moeten zeggen (gouden standaard) en wat deze zegt.

Ik ben het met je eens dat het jammer is dat ze niet ingaan op de variatie in de beoordelingen door de individuele cardiologen, maar dat is simpelweg niet hun vakgebied. Dit zou prima materiaal zijn voor een aparte publicatie door de cardiologen zelf. Echter, ik denk dat er al genoeg studies zijn gedaan in de cardiologie naar interobserver variability, dus was dit geen interessante bevinding om in dit artikel op het gebied van computer science te publiceren.
De aanname die ze doen is dat de consensus van drie cardiologen juist is (ground truth/gouden standaard) Ze hebben drie panels van drie cardiologen laten kijken naar drie delen van de test-set (de trainingsset is door speciaal getrainde 'Certified Cardiographic Technicians' bekeken)

Vervolgens is het dan dus zaak om het algoritme te vergelijken met de gouden standaard (het oordeel van de cardiologen). Daarnaast is, eigenlijk voor 'marketingdoeleinden' zoals je zelf ook al impliceert ook de gemiddelde score van zes andere cardiologen bekeken, ondanks dat het zoals je dus aangeeft uit computerscienceoogpunt minder interessant is, lijkt het toch gepast om altijd als je gebruik maakt van dergelijke van geaggregeerde gegevens afgeleide metingen iets meer informatie over de oorsprong van die gegevens te geven.
3 cardiologen lijkt geen goede sample size, maar cardioloog wordt je niet zomaar, en de kans dat alledrie slecht zijn is miniem (je spreekt waarschijnlijk eerder van goede cardiologen en heel erg goede cardiologen dan van 'slechte'). Ze hadden er inderdaad meer dan 3 moeten vragen, maar veel meer niet.
Het gaat me niet echt om de sample size, in mijn ogen is het consensusoordeel van drie ervaren cardiologen op zich een prima gouden standaard (tenzij de interrater reliability heel laag is, dan zou het misschien beter zijn meer cardiologen (of een andere gouden standaard) te gebruiken omdat er kennelijk substantiele ambiguiteit is). Het punt is dat het algoritme het per definitie nooit beter kan doen dan die gouden standaard, hat kan hooguit even goed zijn. Daarom kan je ook niet stellen dat het algoritme het beter doet dan 'cardiologen'(meervoud), omdat cardiologen samen de gouden standaard vormen.

Als de interrater reliability tussen de beoordelingen van de betreffende ECG-afwijkingen door cardiologen heel hoog is, zijn alle cardiologen (de drie gouden-standaardcardiologen en de zes testcardiologen) even goed. Hoe hoger die interrater reliability hoe verder ook de sensitiviteit en specificiteit van de zes testcardiologen de perfectie zou moeten benaderen.

Op zich is het als je gemiddelden gebruikt (zoals gemiddelde score van cardiologen in het artikel) altijd heel interessant om de onderliggende verdeling te kennen. Ook is het interessant om de interrater reliability binnen de twee groepen cardiologen onderling te kennen. De onderzoekers moeten die gegevens hebben, en ik vind het dan in dit geval jammer dat ze het niet laten zien.

[Reactie gewijzigd door begintmeta op 9 juli 2017 16:22]

Hallo, hier een voormalige verpleegkundige van de hartbewaking,

Hartfilmpjes (ECG) beoordelen is een beetje te vergelijken met bladmuziek, de bladmuziek van Katy Perry is net iets makkelijker dan dat van Bach.

Dat een computer het beter kan dan ik of een algemeen cardioloog verbaast mij totaal niet, Iemand die een massaal hartinfarct heeft is erg makkelijk te beoordelen. Echter exotische afwijkingen als:
- Long QT syndroom
- Brugada (ik vermoed Nouri zijn oorzaak gezien zijn afkomst)
- Sgarbossa cirteria
- Of nog gekker "R-waves" bij atrium fibrillatie.

We praten dan over met een linaal of passer op het ECG, minisecondes bij elkaar op- of aftrekken om vast te stellen of dit mogelijk de oorzaak is.
Natuurlijk kan een algoritme dit beter!!! alleen moet je er niet blind op varen als een computer dit roept is het nog steeds aan mensen de taak om dit daadwerkelijk te bevestigen.

Tot die tijd zullen jullie het met ons moeten doen.
Dat zullen we steeds meer zien. Computers berekenen het (geprogrammeerd door mensen met kennis van zaken aka 'experts'), experts zullen het bevestigen. Gevolg: minder experts nodig. Gevolg: prijs kan omlaag. Gevolg: mensen leven langer/gezonder.
Als cardioloog lijkt het mij vooralsnog vooral handig. Het opsporen van hartritmestoornissen is vaak een lang proces. Op dit moment worden vaak Holtermonitors gebruikt die 24 tot 72 uur kunnen worden meegegeven. Of zogenaamde cardiobeepers die langer kunnen worden gebruikt maar bij klachten een druk op de knop nodig hebben. Die data wordt nu voorgeselecteerd door data-analyse-algoritmen, vervolgens geprocessed door hartfunctielaboranten om tenslotte voor eindbeoordeling bij de cardioloog te komen.

De algoritmen die op dit moment gebruikt worden zijn matig tot hooguit redelijk te noemen. Op dit moment kijken wij standaard NIET naar de computerbeoordeling. Als deze beoordelingen beter worden kan ook de detectie van ritmestoornissen beter worden.

Hoop dan ook dat de nieuwe algoritmen snel kunnen worden ingezet :Y)
Dus door automatisering leef je gezonder. Mooi, ipv 1x in de week naar de friettent voortaan dagelijks.
Nee, daar hebben we straks ook robots voor.
Is maar net hoe je er mee omgaat. Is een keuze.

Je kunt ook met je vrije tijd cardio en yoga doen. De techniek (HRM, GPS, 4G, enz) kan jou daar bij verder ondersteunen voor relatief weinig geld en relatief onafhankelijk. Yoga kun je tegenwoordig via Youtube volgen. Cardio kun je prima doen via rennen ipv sportschool (en dan toch met diverse hulpmiddelen een idee hebben wat je bijv verbruikt).

De friettent bezorgt overigens via een drone gewoon bij jou. Dat zit er wel aan te komen. Maar qua eten gaat het er vooral ook wel om hoeveel je eet. Daarom worden in de hoofdzaak mensen dik. En relatief gezien eten armere mensen ongezonder. Ze sporten minder. Enz.
Niet alleen minder maar experts kunnen ook meer.
Zat landen waar niet genoeg cardiologen zijn, en hier mee los je het op.
Ik vond dit wat te vaag omschreven: De software bleek het in sommige gevallen net zo goed, en in sommige gevallen beter te doen dan de cardiologen.
Daaruit zou ik concluderen dat het er meestal naast zit met de diagnose...
Maar als je dan originel engelse zin leest:
They found that the algorithm is competitive with the cardiologists, and able to outperform cardiologists on most arrhythmias.
Klinkt het toch een stuk positiever.
Mooie ontwikkeling. Wat moet dit geweldig zijn als je dit 'standaard' zou kunnen laten draaien op slimme apparatuur. Denk aan op dit moment de smartwatches en dergelijke. Persoonlijk moet ik dan altijd gelijk aan het onderwerp 'privacy' denken. Want je steeds meer van die data wordt ook steeds interessanter voor verzekeringsmaatschappijen en whatnot.

Goed, laten we het hoofdstuk 'privacy' even voor wat het is dan kan ik niet wachten tot dergelijke algoritmes gewoon op je eigen devices mee draaien om je gezondheid te monitoren.
Je kan geen ecg's maken met alleen een hartslagsensor. Er zijn meerdere meetpunten nodig (daarom ook altijd een dozijn aan kabels aan je vastgeplakt voor halrtfilmpjes) en je mag je ook niet bewegen of praten (en soms niet adhemhalen) om een goede meting te doen.
Ja hoe zit dat dan. Ik heb nu bijvoorbeeld 2x een 24 uurs ECG gehad. Dan krijg je dus inderdaad een flinke hoeveelheid sensoren onder je kleding opgeplakt. Volgens jou is 90% van die data dan onbruikbaar?
Het onderzoek lijkt over een compact apparaat te praten met, als ik het goed begrijp, maar een meetpunt op de borst.

Uit de abstract:
The group trained their algorithm on data collected from iRhythm’s wearable ECG monitor. Patients wear a small chest patch for two weeks and carry out their normal day-to-day activities while the device records each heartbeat for analysis. The group took approximately 30,000, 30-second clips from various patients that represented a variety of arrhythmias.
Uit de paper zelf (De paper vind je trouwens hier):
We collect and annotate a dataset of 64,121 ECG records from 29,163 patients. The ECG data is sampled at a frequency of 200 Hz and is collected from a single-lead, non-invasive and continuous monitoring device called the Zio Patch which has a wear period up to 14 days (Turakhia et al., 2013).

Each ECG record in the training set is 30 seconds long and can contain more than one rhythm type. Each record is annotated by a clinical ECG expert: the expert highlights segments of the signal and marks it as corresponding to one of the 14 rhythm classes.
Er wordt over een hele lange periode gemeten ten opzichte van een klassieke ECG in het ziekenhuis. Ik kan mij voorstellen dat de lange meetduur nauwkeurigheid toevoegt aan het resultaat. Ook kan de doelstelling van deze meting een hele andere zijn dan die van een ziekenhuis ECG. Het doel van zo'n veldmeting lijkt mij meer kwantitatief, inventariserend. Een ziekenhuis meting is door de vele meetpunten meer kwalitatief. Erover nadenkende vraag ik mij af of de momentopname die een ziekenhuismeting is niet de hele nauwkeurigheid ervan ondergraaft.

Voor de training van het algoritme is een neuraal net gebruikt dat is gevoed met ECG informatie. Wat mij hierbij niet duidelijk wordt uit die paper is of hierbij over klassieke ECG informatie wordt gesproken die is opgenomen met meer meetpunten. Is dit het geval dan moet in het onderzoek een uitgangspunt worden gekozen hoe deze met meer meetpunten opgenomen informatie kan worden vertaald naar informatie afkomstig uit een enkel meetpunt.

edit: typo's

[Reactie gewijzigd door teacup op 9 juli 2017 16:44]

Ik zat die 24 uur echt niet in het ziekenhuis hoor :) Kreeg hem gewoon mee, dus de basis van je verhaal leunt op een verkeerde aanname. Verder wel goed verhaal!

Niet ik:
https://upload.wikimedia..../200px-Holter_monitor.JPG
Thanks :). Van jouw situatie begreep ik dat inderdaad wel. Laten we zeggen dat je de old school mobiele techniek hebt moeten verduren. Zelf refereerde ik meer aan die full blown ziekenhuissituatie. Dank je trouwens voor die wiki link.
'Een enkel meetpunt' is te kort door de bocht. Zie de video behorende bij deze publicatie:

https://youtu.be/XVDDEsmbjuE?t=63

Daarin zie je de patch waarmee gemeten wordt, doorzichtig, dus duidelijk zichtbaar dat er twee elektrodes in zitten die elk de oppevlaktepotentiaal van de huid meten. Het verschil tussen deze twee is dan het ECG zoals je het in het filmpje ziet. Er zijn minstens twee elektroden nodig, omdat het ECG informatie moet bevatten over de richting van de potentiaal van het hart, niet alleen de grootte van deze spanning. De stromen in het hart stromen immers in verscheidene richtingen gedurende ťťn hartslag: http://www.blobs.org/science/anatomy/ecg1.gif

Dus: twee meetpunten, ťťn verschil = een 1-dimensionaal signaal in de tijd.
Dank je voor het attenderen op de film. Mijn vrouw vond dat ene meetpunt ook al onwaarschijnlijk (heeft als researchverpleegkundige op de cardiologie van het VU in A'dam gewerkt) omdat dit alleen frequentie informatie zou opleveren. Zij vertelde mij trouwens ook dat uit de informatie afkomstig van de klassieke meerpuntsmetingen de informatie die relevant is voor deze meettechniek is te isoleren. Die informatie kan dus goed gebruikt kunnen worden voor de training van het algoritme.

Edit
Mijn vrouw liet mij net wat literatuur zien welke leads (afleidingen) er in een ziekenhuis ECG worden uitgemeten. Naast een drietal op beide armen en een been (naast aarde) bevinden zich er zes op de borst. Bovenin de paper zie je de plaatsing van die Zio-XT unit. Wat mijn vrouw opviel was dat die plaatsing niet overeenkwam met de plaatsing van die zes borst afleidingen van een normale ziekenhuis ECG. Nu zijn de contactpunten als ik het begrijp de positieve en negatieve pool van 1 afleiding

Haar associatie was dat die plaats meer overeenkwam met waar een pacemaker vaak wordt geplaatst. Mogelijk is naar pacemaker techniek gekeken, ook een klein apparaat dat inputs van elektroden nodig heeft voor zijn aansturing.

[Reactie gewijzigd door teacup op 9 juli 2017 21:35]

De lange meettijd voegt 'nauwkeurigheid' toe doordat het meer observaties van afwijkingen toevoegt: een ECG dat je in het ziekenhuis op je polibezoek meet duurt nooit zo lang dat een stoornis precies optreedt gedurende die periode. Grote infarcten, continue afwijkingen, etc. wel, maar een stoornis die zelden optreedt zul je dan toevallig kunnen missen. Daarom wordt langdurig met dit soort wearables gemeten. Dit is soms een eenvoudige wearable (met 1 lead, zoals in dit onderzoek), maar soms ook veel uitgebreidere systemen met meerdere leads (potentiaalverschillen / reconstructies van hartvectoren). Een machine-learningalgoritme kan niks leren zonder events om te klassificeren, dus vandaar langdurige meetperioden.
Als deze apparatuur zowel op het vlak van kosten als op het vlak van patiŽntenbelasting drempelverlagend gaat werken dan kan dit tot een toename van informatie over langdurige metingen leiden. Dit kan dan bij onderzoek naar hartkwalen tot nieuw/verbeterd inzicht leiden. Het gebruik van een machine learning algoritme lijkt mij ook de enige geloofwaardige manier om een dergelijke hoeveelheid data ook echt eenduidig te interpreteren.

Het zou mij verbazen als dit het enige team is die mobiele sensortechniek en machine learning inzet voor het maken van lange duur ECG's. Ik vind dit een mooi voorbeeld hoe doorontwikkeling en combineren van bestaande technieken grensverleggend kan zijn voor een vakgebied.
Volgens jou is 90% van die data dan onbruikbaar?
Nee, de huidige software detecteert ook al afwijkende waarden (die jouw arts dus weten wilde).. Hier gaat het over afwijkingen die veel subtieler zijn.
Voor mijn eigen onderzoek heb ik in het verleden met 24 uur EEG (hersenfunctie) rondgelopen/gefietst/gefeest. Mijn taak was om vervolgens de 24 uur aan data zo te filteren dat een specialist alleen de bruikbare stukken kreeg te zien en niet 24 uur aan data met bewegingsartefacten moest doorbladeren. Dit verminderde zijn werk van zo'n 2 uur tot zo'n 10-12 minuten (in theorie). Dus ja 90% is imo een aardige schatting voor data die onbruikbaar is.
Ja maar met die holteronderzoeken met ECG is het toch meestal de bedoeling dat de patient op een knop drukt als ze iets van de klachten merken? Dan krijg je een enorme spike op de ECG en dan kan je makkelijker filteren. Dat scheelt een hoop gelazer. :P
Klopt en dat scheelt zoeken. Een hartpatiŽnt vragen om even een paar extra signalen in het ECG te genereren is wat lastiger... :+
Je bedoelt een hersenpatient op de EEG, of heb ik nu kortsluiting? :P
Oh wacht, jij had het ook over ECG en niet EEG. :9

Op de knop laten drukken kan natuurlijk bij zowel EEG als ECG.. Natuurlijk is dat nog altijd minder sensitief dan automatische detectie, want een patiŽnt voelt ook niet altijd wat er plaatsvindt (stel je voor dat je dat kon, je zou gek worden!).
Die data is zeker niet onbruikbaar. Maar veel mensen kennen alleen het ECG als het PQRS-complex met de T-top erachteraan (de bliep die je ook op ziekenhuismonitoren ziet en die altijd in TV series voorbij komen). Dit is, zoals ze dat noemen, de 2e afleiding. Echter verplaatst een electrische impuls van je hart, zich in de ruimte en niet in 2D of 1D. 3 electroden meten maar in 1 richting, in 2D dus.
Een ECG in het ziekenhuis is een hele uitgebreide, maar tegenwoordig krijg je met zo'n mobiele ECG holter ook aardig wat plakkers op je lichaam. Dit is om verschillende afleidingen te kunnen monitoren, zodat verschillende geleidingsstoornissen aan het hart gevonden kunnen worden. Een cardioloog kan met de 1D data van verschillende afleidingen, in zijn hoofd een 3D reconstructie maken van waar de geleiding fout gaat in het hart.

Jij kreeg een 24 uursmeting, omdat je verdacht werd van een hartafwijking, die zich niet continu vertoond op een ziekenhuis ECG. Door 24 uur te meten komt die afwijking een paar keer voor en door een dagboek met jou activiteiten bij te houden, kan een cardioloog bepaald activiteiten aan afwijkingen koppelen en beter bepalen wanneer, waarom en hoe een afwijking tot stand komt.
Ja dat klopt wel zo ongeveer. Ik weet niet of je nieuwsgierig bent/was maar uiteindelijk bleek ik een voor mijn leeftijd (toen ~20) en, ik geloof, formaat van hart nogal flexibele hartklep te hebben. Daardoor komt er soms zuurstofarm bloed in een kamer waar zuurstofrijk thuishoort (of andersom, don't pin me down, het is meer dan 10 jaar geleden) en dat kun je ervaren als kleine pijnlijke steekjes (wat ik dus had).

Seems the doc was legit want nu ik wat ouder ben en het kraakbeen in de kleppen dus wat stijver is geworden heb ik er eigenlijk ook geen last meer van gehad. Grappig, nooit meer aan gedacht eigenlijk.
Dat 'niet bewegen of praten' geldt natuurlijk niet voor een monitoring over een paar weken. Dan gaat het juist om monitoring van het hart bij 'normaal' gedrag van de patiŽnt.
Mijn kleding die over die sensor schuurt maakt de data al onbruikbaar, ik heb de output zelf ook live gezien. Op basis van wat @mesabjorn zegt wordt er dus eigenlijk alleen data gebruikt van die momenten dat je toevallig goed stil zat. Nog steeds genoeg data, 10% per dag is meer dan voldoende om bruikbare info uit de destilleren.
De waarheid ligt dus in het midden. Je mag wel bewegen en praten gedurende die twee weken testen, alleen is niet 100% van de data bruikbaar. Betekent dus dat het algoritme nog bruikbaarder is, omdat het ook sneller in staat zal zijn om het 'kaf van het koren' wat betreft data te scheiden. Ook mobiele apparaten als smartphones zouden in theorie gebruikt kunnen worden, mits gecombineerd met extra sensoren (input) en dus niet zoals ze nu zijn. Los van dat dit door allerlei veiligheids- en privacyredenen en andere potentiŽle risico's naar alle waarschijnlijkheid nooit tot de werkelijkheid zal behoren.
Natuurlijk gaat dat, dat heet dan een 1-lead ecg en kan perfect in een armband geÔntegreerd worden met 2 contactpunten op een paar cm afstand. Dit soort toestellen zijn gewoon op de markt te krijgen.

Echter voor diagnostische doeleinden is een meting met meerdere meetpunten vereist (meestal 12), maar dit is helemaal geen vereiste om een ecg af te nemen.
Dit onderzoek betreft interpretatie single-lead ECGs.
Dat is gebaseerd op de kennis en technologie van nu. Dat betekent niet dat het nooit in bijvoorbeeld wearables zou kunnen worden ingebouwd.
Lijkt me aan de ene kant heel mooi op het smartwatches te draaien. Kan er voor zorgen dat een hoop kwalen al in een vroeg stadium ontdekt kunnen worden en de behandeling snel gestart kan worden. Maar lees nu al verhalen over artsen die het heel druk hebben met mensen die zich druk maken omdat een consumenten apparaat iets zegt. Je kan nu bijvoorbeeld al bij privť klinieken een checkup laten doen. Maar een hoop testen hebben false positives of hebben extra tests nodig om vast te stellen of het echt iets is. PatiŽnt maakt zich erg ongerust en de privť kliniek stuurt ze weer vrolijk terug naar de reguliere zorg.
Die moeten dan vervolgens een hoop testen doen om er zeker van te zijn. Dit geeft een hoop druk op de reguliere zorg en geeft ook een hoop kosten voor de maatschappij. Ik zou dit natuurlijk zelf ook wel willen. Maar als maatschappij moeten we er over nadenken of dit mogelijk is voor iedereen.
Ik kan me voorstellen dat als dit op de smartwatches zit de fabrikanten ook aan de veilige kant gaan zitten. Je zal dan dus sneller een alarm krijgen dat er iets mis is.

[Reactie gewijzigd door Mr_gadget op 9 juli 2017 11:44]

Dit is ook een markt.

Je kunt veel geld verdienen aan de ongerustheid van mensen. Dit soort health tools spelen daar deels op in. In de toekomst zal het alleen maar meer worden, omdat we denken/willen dat ons leven geheel maakbaar moet zijn.

Gister Ghost in the Cell gezien. Matige film, maar mooi beeld van een toekomst dat niet eens zo onrealistisch is.
De zorg is sowieso een markt. Altijd al geweest. Historisch gezien is zorg pas heel kort voor bijna iedereen (in de westerse wereld) beschikbaar.
De smartwatch zit juist net op de meest ongunstige positie van je lichaam om je hart goed te meten, je beweegt teveel door de dag heen om precies te kunnen meten. Denk dus niet dat dit ooit gaat komen.
Mijn Apple watch geeft op momenten dat ik even in een stress situatie zit of als ik net fiks gesjouwd heb al een melding dat ik op mijn ademhaling moet letten. In het begin dacht ik dat dit op vaste tijden was, maar na verloop van tijd kwam ik er achter dat hij gewoon op je hartslag let icm beweging.

Het is geen full blown ecg maar het helpt wel degelijk om een beetje te letten op wat je doet.
Eens, maar dan nog ben ik wel van mening dat specialistische apparatuur hiervoor beter geschikt is dan een random smartwatch van een tech fabrikant. Dit kan dus ook een speciaal hiervoor ontworpen horloge zijn natuurlijk. Het gaat er meer om dat het echt gemaakt is voor diagnose en niet ter indicatie (wat de huidige smartwathes van Samsung en Apple nu dus absoluut niet zijn).

Het helpt voor jezelf om er extra aandacht aan te geven, maar nauwkeurig is het absoluut niet.
Ik zal de vraag dan maar stellen, kan het van nut kunnen zijn voor sporters die opeens in elkaar storten?
Een ding is zeker, een band en een sensor voetbalt een stuk makkelijker dan een man van 45 en een hele klos apparatuur om je middel.
Ja, zou best kunnen als de sporter tijdens training de hartslag realtime gemonitord kan worden en een waarschuwing afgeeft als er afwijkingen voorkomen.
Ik zou dit liever voor het inzakken willen weten aangezien als iemand ineens collabeert je toch al weet dat er iets ernstigs aan de hand is. Bovendien maakt een defibrillator al een eigen ECG analyse en zorgt er voor dat je alleen kunt 'schokken' als er een afwijkend ritme is. Als je een goede artefactvrije analyse van een ECG kunt doen tijdens inspanning dan is dit mogelijk uit te rekenen.
Euhm. Een defibrillator schokt "als het goed is" alleen als er helemaal geen hartslag is. Anders doe hij namelijk precies datgene waarvoor je hem niet gebruikt: je hart stopzetten door iedere vorm van gestuurde signalen om zeep te helpen.
Dat is een veelvoorkomende misvatting - bij totaal geen hartslag ("flatline") kan een defibrillator niets doen - deze kan enkel een 2-tal specifieke, acute, hartritmestoornissen oplossen. (bron: EHBO opleiding + wikipedia)
Aha ik zie het ja. Punt is nog wel dat een normaal functionerend hart wel degelijk van spag kan raken hierdoor en daar kun je dus wel iemand mee omleggen. Klopt de medic class in BF2 dus toch wel ;-)
Mooi dat daar progressie in word gemaakt. Gisteren nog een Ajax speler, de 20 jarige Abdalhak Nouri, tijdens een oefenpot gereanimeerd op het veld door een hartritme stoornis.
wat is hier zo speciaal aan? ECG interpretatie software bestaat al tientallen jaren
Die software bevatte dit algoritme niet en in de toekomst dus mogelijk wel.
maar die software bevatte wel een ander klinisch gevalideerd algoritme, dus ik snap het punt niet helemaal
Ervaring leert dat de oude algorithmes totaal onbetrouwbaar waren, zeker met zeldzamere ziektes, en zodoende volledig genegeerd dienden te worden. Zelfs ik als student die een beetje onderzoek erbij deed voor de afdeling elektrofysiologie was aanzienlijk betrouwbaarder (werd wel vaak steekproefgewijs geŽvalueerd en bij twijfel overleg gepleegd).
De wereld draait zo langzamerhand om het verbeteren van algoritmen. Soms wordt er beetje voor beetje verbeterd, soms wordt er een echte stap gemaakt. Dan kan een auto zelfstandig van a naar b, een pc de beste go speler verslaan of een apparaat efficienter een bepaald type diagnose stellen dan een cardioloog. Dan is het nieuws.
Bestaat al jaren, maar die interpretatie is vaak alleen in staat om simpele basis afwijkingen te herkennen, geen ingewikkeldere afwijkingen, daarin is de software vaak maar wat aan het roepen wat totaal niet klopt en heb je de menselijke factor nodig
Dit komt voor Nouri net te laat. Maar wel een prima ontwikkeling. En dan valt het 'privacy' verhaal van Perkouw geheel in het niet. Weet zeker dat dat Nouri even een worst geweest zou zijn
Dit soort uitvindingen van universiteiten zijn ook niet direct toepasbaar, dat duurt meestal nog jaren als niet decennia's voordat het op de markt is.
Nou nee. Met de komende generatie smartphone kan een goed deel van de analyse gewoon op het apparaat en is helemaal geen server nodig. Het is niet meer dan terecht dat we kritisch zijn op wat waarheen verdwijnt en wie daar inzicht in heeft.

Voorbeeld 1: Gezichtsherkenning is tegenwoordig lokaal in iOs en MacOS
Voorbeeld 2: https://www.theverge.com/...ngine-ai-chip-iphone-ipad

Voor iemand me een Apple fanboy noemt, doe lekker normaal. Daarnaast zou ik ook best geintresseerd zijn in dergelijke inzet van een andere partij.
Opzich ook een logisch gevolg van de huidige groei in CPU kracht. De huidige iPhones hebben een dusdanige hoeveelheid power onder de motorkap dat het heel dom zou zijn om die niet in te zetten voor dergelijke berekeningen. Naast het privacy oogpunt is het voor Apple een enorme einst aan servercapaciteit. Met de miljoenen fotos die per dag worden gemaakt scheelt het zo ontzetten veel rekenpower "in de cloud" dat die nu voor andere doeleinden beschikbaar blijft of niet eens ingekocht hoeft te worden. Het datacentrum wat google hiervoor gebruikt is enorm. Bij android toestellen met google foto heb je alleen ook nog wat kleiner bemeten smartphones met minder presterende hardware en dus kan dat niet zomaar. Een galaxy S7 of 8 kan het prima aan, maar een j3 is een ander verhaal
Je zou het sowieso 's nachts aan de lader kunnen doen maar inderdaad - het hoeft niet voor elk toestel een optie te zijn. Ook hierom is er baat bij een strenge regeling omtrent wat een bedrijf wel en niet mag met dergelijke gegevens.
Ik doe em ook 's nachts aan de lader. Het punt is meer dat een J3 gewoon niet de rekenkracht heeft om dergelijke berekeningen te doen.
De hele privacydiscussie is sowieso iets wat continu aan verandering onderhevig is. Dingen waar we nu moeilijk over doen was in het verleden geen probleem en andersom.

Denk bijvoorbeeld aan het telefoonboek: daarin kon je van vrijwel iedereen de gegevens vinden. En toen de digitale variant kwam kon je ook reverse zoeken. Niemand die daar destijds moeilijk over deed. Maar stel je voor dat iemand nu een openbaar telefoonboek met mobiele nummers zou gaan maken....
Dat omgekeerd zoeken kan nu ook gewoon met Whatsapp. Dat is het probleem als een mobiel nummer je Identifier wordt in je datamodel.
Dit soort ontwikkelingen zorgt toch voor een behoorlijke omslag in de toekomst. Als deze apparatuur het gem. beter doet dan een arts, waar heb je de medische specialist dan nog voor nodig? In het begin nog het menselijk aspect dat gevoelsmatiger 'beter' aanvoelt maar dat zal met een nieuwe generatie zo anders kunnen zijn.
Begreep dat kanker in sommige gevallen al beter te herkennen is. Fantastische zaak maar gaat banen kosten.

Hopelijk is de overheid er op tijd bij, de maatschappij gaat met al deze automatisering compleet veranderen.
Banen kosten onder medici? Dat gaat echt niet gebeuren, voorlopig dreigt er eerder een tekort. Je moet dit soort algoritmes en software zien als een aanvulling aan het gereedschap van een arts. Het kan de arts veel tijd besparen bij het maken van diagnoses, zodat die meer tijd overhoudt voor het uitstippelen van een persoonlijke behandeling. De beste behandeling hangt van zoveel factoren af dat het ontwikkelen van een universeel algoritme dat dit kan bepalen voorlopig onbegonnen werk blijft.
Het klinkt inderdaad ver weg, en ik denk ook niet dat volgende week zover is maar ik denk dat het sneller kan gaan dan we denken.
Dat bepaald soort werk gaat verdwijnen mag nooit reden zijn om innovaties tegen te houden. Dat is in het verleden ook nooit gebeurd en er is nu meer werk dan ooit.
Dat is mijn punt ook niet, ik juich dit alleen maar toe. Wel moeten we als maatschappij en overheid zijnde hier op voorbereid zijn.
Naja, dat algoritme zal leuk zijn.
Dit aapje mag morgenvroeg om 8:50u aanwezig zijn bij de cardioloog want; overslag en ruis.
Voor nu vertrouw ik eerst op de kunde van van iemand die er verstand van heeft.. :)
Cardioloog zal altijd zelf in staat moeten zijn om een hartritme stoornis op te merken. Dit is een goed hulpmiddel voor de persoon die er verstand van heeft :p Zoals te lezen is zijn niet alle stoornissen op te merken uit de ECG.

Succes, overigens. :)
En een cardioloog (en iedere andere arts) werkt ook volgens een bepaalde structuur om een diagnose te stellen. Het zijn geen TV-artsen die "magische gaven" hebben en in een split second iets onverklaarbaars kunnen verklaren.
Het zijn geen TV-artsen die "magische gaven" hebben en in een split second iets onverklaarbaars kunnen verklaren.
Quote

Dat stel ik toch ook niet? :?

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*