Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 87 reacties

Wetenschappers van de Universiteit van North Carolina hebben een algoritme ontwikkeld dat de diagnose autisme kan stellen bij baby's tussen de 6 en 12 maanden oud. Op basis van hersenscans bleek het algoritme in 81 procent van de gevallen de diagnose juist te voorspellen.

Dit blijkt uit een onderzoek dat is gepubliceerd in het tijdschrift Nature. De accuraatheid van de voorspellingen van 81 procent is volgens IEEE Spectrum relatief gezien erg hoog, aangezien diagnoses van autisme die gesteld worden op basis van gedragsonderzoek, veelal slechts in 50 procent van de gevallen accuraat zijn. Bovendien worden deze tests veelal pas afgenomen als het kind een jaar oud is.

Het algoritme in het onderzoek maakte gebruik van drie factoren: de oppervlakte van de hersenen van het kind, het volume van de hersenen en het geslacht van het kind. Uit het onderzoek blijkt dat het algoritme in staat was de toename van hersenoppervlakte te detecteren van kinderen die nog maar zes maanden oud waren.

De onderzoekers zijn zelf nog wel sceptisch over de praktische bruikbaarheid van het algoritme. Het blijkt volgens een van de onderzoekers lastig en duur te zijn om hersenscans van jonge kinderen te bemachtigen voor onderzoek. Bovendien zijn de tests niet noodzakelijkerwijs geschikt voor alle kinderen. Daarom lijkt het onwaarschijnlijk dat het praktisch bruikbaar is om te worden toegepast voor elke geboren baby.

Wetenschappers weten dat de eerste tekenen dat een kind autisme heeft, al kunnen optreden op heel jonge leeftijd, maar het is nog lastig om ook een betrouwbare diagnose van autisme te kunnen stellen bij zeer jonge kinderen. Uit eerdere onderzoeken bleek al dat mensen met autisme een vergroot hersenvolume hebben en dat deze 'overgroei' al vroeg plaatsvindt. Hoe groter deze 'overgroei', des te sterker zijn de latere symptomen van autisme.

Moderatie-faq Wijzig weergave

Reacties (87)

Van een paper gepubliceerd in een beroemd tijdschrift als Nature verwacht je als leek dat de conclusies goed zijn onderbouwd. Bij dit artikel blijkt dat niet het geval te zijn. Op de schaal van 0 tot Stapel scoort dit paper best hoog.

Bij een studie al deze hoor je de dataset te splitsen, en een gedeelte apart te houden om je uiteindelijke algoritme te evalueren (de testset), om overfitting te voorkomen. Bij dit artikel wordt daarover niets gerapporteerd. In het bijzonder wordt niet gerapporteerd hoe men iteratief tot het uiteindelijke machine-learning model is gekomen. Weliswaar is er 10-fold cross validation toegepast, maar het lijkt erop dat het model is getuned op de uitkomst van deze cross validation, en dus op basis van de testset. Uit de Supplementary Information blijkt bovendien dat verschillende modellen zijn vergeleken op basis van de testset, en dat alleen het beste model is gerapporteerd. Ook dit leidt tot overfitting.

De conclusie dat het algoritme in 81 procent van de gevallen juist werkt, wordt dus niet in het gepubliceerde paper onderbouwd. De lezer van het artikel wordt dus misleid.

@zkots nee dat bedoel ik juist niet. Als je telkens naar de uitkomst van de 10-fold cross validation kijkt en op basis daarvan je model aanpast, wat hier lijkt te zijn gebeurd, gebruik je de testset als trainset. Door het best scorende model te selecteren, maak je die fout nog een keer. Het is methodologisch gebruikelijk bij k-fold cross validation nog een holdout set achter de hand te houden voor de uiteindelijke evaluatie, en dat is hier niet gebeurd.

@pegasus heel korte samenvatting: de lezer wordt misleid omdat het onderzoek niet deugt.

@Joecatshoe waar jij spreekt van een 'nieuw model' zou ik enkel spreken van 'nieuwe parameters'. Die worden bij k-fold cross validation inderdaad slechts gebaseerd op de trainset. De feature engineering en modelstructuur zijn gebaseerd op de testset; daar slaat mijn kritiek op. Het model tunen op cross validationresultaten is weldegelijk een grote wetenschappelijke fout.

@J_Gonggrijp je bent toch echt degene die het niet goed hebt begrepen. Kijk bijvoorbeeld in de SI op pagina 69: "These parameters were (..) experimentally refined using only the training data." Je zou dan 10 verschillende parameterwaarden verwachten (één voor elke k-fold), maar toch staat er slechts één waarde voor elk van de parameters. De structuur van het model (learning rate, aantal nodes per layer) is dus op de volledige dataset gebaseerd.
Je opmerking over verschillende methodes raakt kant nog wal. Misschien zie je het niet omdat er maar vier methodes zijn getest, maar als het er vier miljoen waren geweest en ze daaruit de beste hadden geselecteerd, is het toch duidelijk dat het model en de daarbij horende mooie resultaten zijn gebaseerd op de testset?
upd de 'prediction pipeline' komt volledig uit te lucht vallen en is bijzonder specifiek. Als deze op basis van de trainingset in eerste 10-fold was ontwikkeld, hadden ze dat wel gerapporteerd. Dit is een wetenschappelijk artikel van 50(!) wetenschappers gefinancierd met 6(!) verschillende beurzen dat is gepubliceerd in één van de beste wetenschappelijke tijdschriften, en 39 minuten na het nieuwsbericht begint deze discussie waarmee de geloofwaardigheid van de conclusies compleet in twijfel wordt getrokken.

@Jefrey Lijffijt been there done that (bij een vergelijkbaar artikel). Aanvankelijk volgde een desk rejection omdat de editor meende dat ik slechts aangaf hoe het onderzoek beter had gekund ipv scherpe kritiek had. Na een appeal-procedure stuurden de oorspronkelijke auteurs een reactie à la J_Gonggrijp, en verdween alles in een la zonder dat er een expert-reviewer werd geraadpleegd.

[Reactie gewijzigd door GlowMouse op 21 februari 2017 19:41]

Sorry dat ik het zo recht voor z'n raap zeg, maar je hebt het artikel en de supplementary information niet goed begrepen. Bij een 10-fold cross-validation doe je precies wat jij beschrijft als "hoe het hoort" (dataset splitsen, ene deel gebruiken voor training en andere deel voor evaluatie) en dat dan 10 keer, onafhankelijk, steeds met de data op een andere manier gesplitst. Dus voor elke splitsing doe je de hele training en de hele evaluatie opnieuw. Tenslotte middel je de resultaten van de 10 evaluaties uit. Dus als één van de 10 evaluaties erg goed was, zie je dat in het eindresultaat niet terug omdat die uitslag is uitgemiddeld tegen de andere, minder goede resultaten. Dit lijkt een beetje op bootstrapping, wat eveneens een volkomen valide methode is.

Bij cross-validation is het belangrijk dat alle folds uit dezelfde populatie komen. Daar is in dit onderzoek aan voldaan. Verder moet menselijke bias uitgesloten zijn; ook daaraan hebben ze voldaan. De onderzoekers schrijven bijvoorbeeld dat ze hebben opgelet dat in elke fold de verhouding tussen kinderen uit de hogerisicogroep en de lagerisicogroep gelijk was. Let op: "hoog" en "laag" risico betekende hier het a priori risico, waarbij hoog risico was gebaseerd op het gegeven dat er al autisme was vastgesteld bij een ouder broertje of zusje, terwijl laag risico was gebaseerd op de afwezigheid van autisme in de familie. Het classificatiealgoritme voorspelde vervolgens niet tot welke a priori groep ieder kind behoorde maar tot welke a posteriori groep; dus de latere werkelijke diagnose van het kind zelf.

Het apart houden van de training- en testset is trouwens niet om overfitting te voorkomen, daar heeft het niets mee te maken. Als je training- en testset niet gescheiden houdt is je test gewoon niet geloofwaardig. Leuk dat je model klopt voor de data waarop je getraind hebt (en nogal wiedes), maar je wilt zien dat het daarbuiten kan extrapoleren. Nogmaals, dat hebben ze hier gewoon goed gedaan. Ze hebben trouwens in eerste instantie ook een "gewone" 50/50 gedaan en daar kwam ongeveer dezelfde uitslag uit. Zie ongeveer 2/3 van het populaire artikel.

Dan schreef je nog dit:
Uit de Supplementary Information blijkt bovendien dat verschillende modellen zijn vergeleken op basis van de testset, en dat alleen het beste model is gerapporteerd. Ook dit leidt tot overfitting.
Nee, er zijn verschillende methodes vergeleken. Degene die in het artikel voorkomt bestaat uit twee stappen: eerst een diep neuraal netwerk (NN), dan een support vector machine (SVM). Ze hebben het ook zonder SVM geprobeerd, met gewone lineaire regressie in plaats van het NN en met PCA in plaats van het NN. Uit de supplementary information blijkt inderdaad dat NN+SVM het beste werkte, maar dat is gewoon een valide onderzoeksresultaat. Het is net zoiets als mie proberen te eten met stokjes en een lepel, alleen stokjes of alleen een vork en dan vaststellen dat stokjes plus lepel het beste werkt.

Wederom heeft dit niets met overfitting te maken. Overfitting krijg je als je model erg goed past op je trainingsdata maar daarbuiten niet goed generaliseert. Meestal is dat het gevolg van een overmaat aan parameters in je model.

Edit naar aanleiding van jouw edit: zoals ik al zei, is er in eerste instantie een eenvoudiger setup gedaan, waarbij de ene helft van de data werd gebruikt voor de training en de andere helft voor de evaluatie. Het is die eerste helft waarnaar ze verwijzen in "experimentally refined using only the training data" (dat was trouwens op p. 9, niet p. 6). Dus niet de hele dataset, maar alleen het gedeelte dat in dit stadium was gereserveerd voor training.

Heel hoofdstuk 2 t/m sectie 2.3 (eindigend halverwege p. 12) gaat over deze oudere fase van het onderzoek. Pas in sectie 2.4 noemen ze dat ze de hele procedure nog eens herhaald hebben met een 10-fold cross-validation. Die sectie is heel kort. Ze noemen niet expliciet dat ze de "experimental refining" ook voor elke fold opnieuw hebben gedaan, maar ze suggeren het wel heel sterk: "The prediction pipeline (including the DL network generation) is fully re-trained in all its steps using the high dimension feature vector data [in every fold]". Ik denk daarom dat je te voorbarig concludeerd dat de architectuur, de momentum en de learning rate vooraf globaal waren bepaald.

Als je gelijk zou hebben (maar dat denk ik dus niet), dan zou dat inderdaad wel een zwakte zijn in de procedure. Dit moet echter ook niet overdreven worden, want het staat in ieder geval vast dat ze voor elke fold opnieuw alle wegingen en support vectors hebben getraind. De kans dat de ene fold gebaat zou zijn bij een erg andere architectuur of learning rate is klein, want de keuze van deze parameters hangt in principe alleen af van de structuur van de data en die kwam sterk overeen tussen de folds. Architectuur en learning rate etcetera hebben vooral effect op de snelheid en de precisie waarmee het netwerk convergeert. Zou het toch zo zijn dat de optimale instellingen per fold heel sterk verschillen, dan hebben de onderzoekers zichzelf alleen maar in de voet geschoten door dit gelijk te trekken, want dan verwacht je dat de resultaten gemiddeld slechter zijn.

Wat de alternatieve methodes betreft: stel dat het zo was dat ze in eerste instantie alle vier de methodes hadden geprobeerd, en op basis van de uitslagen van de cross-validation hadden besloten om de NN+SVM methode te publiceren; dan zou je een punt hebben dat dit op zichzelf de kans op succes heeft vergroot. Alles wijst er echter op dat ze dit niet hebben gedaan. De cross-validation zelf is al een stap die ze achteraf hebben gedaan op verzoek van de reviewers. De vergelijking met de andere methodes doen ze pas daarna, en alleen op basis van cross-validation.

[Reactie gewijzigd door J_Gonggrijp op 21 februari 2017 16:43]

Ik heb het artikel niet gelezen, maar GlowMouse heeft (voornamelijk) gelijk en J_Gonggrijp niet. Als je uit X resultaten de beste kiest dan is de score van die methode geen unbiased estimate. Dit is een elementair resultaat uit de statistiek. Om dat te overkomen gebruik je dan normaal gesproken een train, een validation en een test set:

Je leert de beste hyperparameters (waar ik nu modelkeuze onder schaar) door te leren op de train set, te evalueren op de validation set, en uiteindelijk het beste model te kiezen. Om vervolgens een zuivere schatting van de performance te krijgen, heb je nog een derde set nodig, de test set.

J_Gonggrijp heeft gelijk dat cross-validation een prima evaluatievorm is, en ook dat je dit geen overfitting moet noemen. Echter, je mag niet meerdere learning algoritmes evalueren met cross-validation, de beste kiezen, en er vervolgens vanuit gaan dat je gemeten utiliteit klopt. Dit is namelijk gewoon een klassiek geval van multiple testing.

[Reactie gewijzigd door Jefrey Lijffijt op 21 februari 2017 09:38]

Nee, dit gaat dus mis als je het artikel niet gelezen hebt. Ze hebben cross-validation gedaan binnen één methode, niet tussen methodes. Ze hebben de best werkende methode gekozen voor het hoofdgedeelte van hun publicatie maar dat is gewoon prima. Er is geen sprake van dat ze resultaten hebben geselecteerd.
Ik reageer alleen op de principes. Ik zei al dat ik het artikel niet heb gelezen en kan dus niet beoordelen of de auteurs een fout maken. Ik zeg alleen dat de opzet zoals GlowMouse die beschrijft de juiste is, en die jij beschrijft niet.

Uit GlowMouse' zijn verhaal begrijp ik dat ze een methode selecteren uit meerdere keuzes. Dat is multiple testing.

[Ik heb het artikel alsnog (snel) gelezen, inclusief de supplement. Er staat een vergelijking in met andere methoden en hoe ze de hyperparameters van de Support Vector Machine (SVM) en het Deep Neural Network (DNN) leren staat er niet in. Het is mogelijk dat er niets mis is, mits ze (1) de vergelijking met andere methoden daadwerkelijk post-hoc uitgevoerd hebben, en dus geen cherry-picking hebben gedaan wat betreft methodes, en (2) de hyperparameters van zowel het DNN als de SVM puur geoptimaliseerd zijn op de train set. Ze hebben dan dus de train set _per fold_ gesplitst in train and validation en zijn dit vergeten te vertellen.

Een DNN ontwerpen is heel complex, een goed ontwerp komt niet uit de lucht vallen en voor een SVM heb je ook hyperparameters die je moet kiezen. Aangezien ze over beide _niets_ schrijven ben ik het 100% met GlowMouse eens dat dit naar een Stapeltje ruikt.]

[Reactie gewijzigd door Jefrey Lijffijt op 21 februari 2017 12:06]

Nee. De "opzet die GlowMouse beschrijft" is dat je een aparte trainingsset en een testset hanteert. Dat is niet anders dan wat ik beschrijf, ik heb alleen uitgelegd dat dit onderzoek daar gewoon aan voldaan heeft.

Multiple testing is alleen een probleem als je significantie-effecten probeert aan te tonen. Dat is niet wat de auteurs hier probeerden te bewerkstelligen met machine learning. Ze hebben onderzocht in hoeverre het mogelijk is om door middel van machine learning voorspellingen over de diagnose te doen op basis van hersenscans. De conclusie is dat dat met de combinatie van een neuraal netwerk en een support vector machine aardig lukt. De effecten van parameters hebben ze in het eerste deel van het artikel besproken; machine learning is het tweede deel.

Edit naar aanleiding van jouw edit: ze hebben inderdaad de dataset gesplitst per fold. Dat zijn ze helemaal niet vergeten te vertellen, het staat gewoon in het hoofdartikel en ook in de supplementary information. Blijkbaar heb je daar overheen gelezen. Het ontwerp van het DNN en de SVM hebben ze ook gewoon netjes beschreven, ik zou aan de hand van de publicatie en de data gewoon het onderzoek kunnen herhalen.

[Reactie gewijzigd door J_Gonggrijp op 21 februari 2017 12:39]

Er is een effect dat je inflatie hebt als je iets meerdere keren test en je de meest extreme statistiek kiest. Ik noem dat multiple testing omdat er geen betere term voor bestaat. Niet geheel toevallig heb ik een doctoraatsthesis geschreven tussen data mining en statistiek in.

[Reactie op jouw bovenstaande edit: in het artikel staat "All training was performed purely on the training data in each fold. Once training was achieved, this prediction model was applied to the testing data in each fold." Twee sets dus, te weinig om het correct te doen. Wellicht is 'training data' eigenlijk train en validatie, waarmee je dus ook hyperparameters kunt optimaliseren, maar dat staat er niet. Je data in drie stukken verdelen is al de standaard procedure in de neurale-netwerkenliteratuur minimaal sinds de jaren 80.]

[Reactie gewijzigd door Jefrey Lijffijt op 21 februari 2017 14:30]

Ik begrijp wat je bedoelt, maar er is een nuanceverschil. Als je iets probeert te schatten (wat je meestal doet met een statistische toets), dan wordt je uitslag inderdaad minder waard naarmate je meer pogingen doet. Maar dat was niet het doel van het machine learning gedeelte van dit onderzoek.

Het (ultieme) doel van het machine learning gedeelte was het ontwikkelen van een techniek: stel dat je op basis van hersenscans een diagnose van autisme wilt voorspellen, hoe kun je dat dan het beste aanpakken. Het is te vergelijken met de uitdaging om een computer zo goed mogelijk de beste zet te laten kiezen in een bordspel. Je gaat dan verschillende methodes proberen en uiteindelijk kies je degene die het beste werkt. Dit is technologische ontwikkeling, geen statistische analyse. Alle technologische ontwikkelingen gaan op deze manier, met veelvuldig uitproberen en bijschaven. Edit ter verduidelijking: de "mindere" methodes zijn waarschijnlijk sowieso pas achteraf uitgeprobeerd op verzoek van de reviewers; zie mijn andere posts.

Nu treed er waarschijnlijk conceptuele verwarring op omdat neurale netwerken en support vector machines "statistische leermethodes" zijn. Maar het zijn geen statistische toetsen, ook al wordt het trainingsresultaat vaak wel een model genoemd.

Voor wat het waard is: ik heb een MSc in AI.

Edit naar aanleiding van jouw edit:
Je data in drie stukken verdelen is al de standaard procedure in de neurale-netwerkenliteratuur minimaal sinds de jaren 80.
In twee stukken kan volstaan, als je valideert op basis van de training data. Dit maakt je iets te optimistisch over de gekozen instellingen, maar dat betekent alleen maar dat je misschien nog betere instellingen had kunnen vinden. Het belangrijkste is dat je niet gaat sleutelen aan je model nadat je het hebt uitgeprobeerd op de testdata. Hier houden de onderzoekers zich gewoon netjes aan. Helemaal aparte validatiedata hanteren is misschien nog iets schoner, maar het gaat tever om te stellen dat dat de enige "correcte" manier is.

[Reactie gewijzigd door J_Gonggrijp op 21 februari 2017 17:06]

Het punt van GlowMouse was dat de accuracy, en de andere dingen die ze hebben gemeten, gemeten door cross-validatie dus geen goede schatting is van de accuracy op ongekende data, omdat je (het beste model) selecteert op basis van de resultaten gemeten op de testdata. Kortom, je hebt een optimaliseringsproces waarbij de testdat meegenomen wordt om een beslissing te maken. We hebben dus geen verwachting voor hoe goed het uiteindelijke model presteert op nieuwe data. Dit is echt een domme fout, want het hele punt van machine learning is om modellen te bouwen die generaliseren.

Ik zie zelf na al vele jaren onderzoek geen verschil meer in het schatten van een p-waarde / accuracy / F-score / lift / etc. etc etc. Het zijn allemaal utiliteitsfuncties die je optimaliseerd. [p-waardes optimaliseren klinkt misschien alsof je een algoritme verzint om te Stapelen, maar het is heel nuttig om bijvoorbeeld om de meest interessante variabelen of patronen in data te zoeken.]
Het punt van GlowMouse was dat de accuracy, en de andere dingen die ze hebben gemeten, gemeten door cross-validatie dus geen goede schatting is van de accuracy op ongekende data, omdat je (het beste model) selecteert op basis van de resultaten gemeten op de testdata.
Er is niets geselecteerd of geoptimaliseerd op basis van de cross-validation, zelfs niet de methode (zie beneden). De uitslag van de cross-validation is de einduitslag, punt. De evaluatie is in iedere fold gebaseerd op data waarop niet getraind is. Daarmee is in principe aannemelijk gemaakt dat de methode wél generaliseert naar nieuwe data. Dat neemt niet weg dat er andere beperkingen aan het onderzoek kunnen zitten, maar wat machine learning betreft is het onderzoek echt in orde.

De andere methodes zijn pas later ter vergelijk uitgeprobeerd, waarschijnlijk op verzoek van de reviewers. Dat blijkt uit het gegeven dat op de andere methodes eveneens cross-validation is toegepast, wat de onderzoekers pas in tweede instantie hebben gedaan omdat de reviewers daarom vroegen. De evaluatie van de gepubliceerde methode was in eerste instantie alleen 50/50. In dit verband zal ik ook nog een edit doen bij mijn oorspronkelijke reactie op GlowMouse.
Er staat een vergelijking in, er staat niet dat die pas achteraf gedaan is; en dat je het design van een neuraal netwerk plus een SVM erachter kunt doen zonder te testen, is echt extreem onwaarschijnlijk. De beschrijving is gewoon slecht en ongeloofwaardig. Het is natuurlijk geen machine learning paper, dus het is waarschijnlijk dat er ook geen expert is geraadpleegd om dit te beoordelen. Ik had me er als reviewer niet bij neergelegd zoals het nu beschreven is.
Alhoewel jouw kritiek iets te veel uit mijn kennis gebied ligt, gingen er bij mij ook al een set alarm bellen rinkelen:

Allereerst:
- Voor dergelijke diagnoses, is het van belang om deze na de leeftijd van ca een jaar of 7 te bevestigen. Ik lees hier niks over in het onderzoek, als ik het goed lees (correct me if I am wrong) hebben ze huidige (inaccurate) test op 24 maanden, gebruikt om hun methode op jongere leeftijd te verifieren. Dat lijkt me sloordig.

Ten tweede:
- De uitingsvormen van ASD's (Soms gebruikt het artikel ook op ongepaste plaatsen enkelvoud bij verwijzing naar ASD), zijn erg intelligentieprofiel afhankelijk. Zeker op latere leeftijd. Ik ben dan ook wel benieuwd wat de jeugd intelligentie quotiënt was van deze kinderen.

Ten derde:
- Er wordt veel informatie over de moeder verteld, terwijl er geen enkele indicatie is dat de moeder primaire oorsprong is van de afwijking. Nog beter: er zijn juist aanwijzingen dat de vader een grote invloed heeft in overdracht.

Ten Vierde:
- Zijn de hogere inkomens en "white people" erg oververtegenwoordigd. Autism awareness en prestatie/perfectiedruk neemt toe naar mate het inkomen stijgt.

Ten vijfde:
- De DSM is van oorsprong primair bedoeld als hulpmiddel voor het toedienen van medicatie. Niet als richtlijn om lichamelijk onderzoek op voort te bouwen. Dit wordt ook bevestigd door de vele herclassificaties en herzieningen binnen de DSM.

Ten zesde:
- Ze gebruiken een rare mengelmoes van DSM-IV-TR en DSM-V onder de noemer DSM-IV-TR. Aan de ene kant lopen ze vooruit door het schappen van onderliggende stoornissen binnen ASD, maar dit is geen classificatie uit de DSM-IV-TR maar uit de DSM-V. Feitelijk gebruiken ze de standaarden van uit de DSM-V, met de diagnose omschrijvingen uit de DSM-IV-TR. Waarbij ze wel een uitzondering maken voor toetsen voor PDD-NOS volgens de eisen uit de DSM-IV-TR, terwijl ze juist alles op de hoop ASD gooien zoals de DSM-V.

Dit had beter onderbouwd kunnen en moeten worden. Ze gebruiken al diagnose middelen waarvan het nog maar de vraag zijn of deze geschikt zijn voor lichamelijk onderzoek en vervolgens gaan ze ook nog eens cherrypicken in verschillende versies door een versie te kiezen en daarop zelf wijzigingen aan te brengen uit de volgende versie.


Al met al neem ik dit onderzoek niet heel erg serieus, nog zonder inhoudelijke toetsing van de daadwerkelijke achterliggende algoritmen en onderzoeksuitvoer. De opzet is op zichzelf al heel erg discutabel.

*edit*
Ter achtergrond:
Diagnostiek voor ASD staat nog altijd in de kinderschoenen en is voornamelijk gebaseerd op het gegeven "Kind vertoont sociaal afwijkend gedrag, binnen enkele kaders".

Daarom is ook het onderscheid in de DSM-IV-TR zo belangrijk, Klassiek autisme (vaak ookwel gezien als de meest zware vorm) heeft de heftigste "uitingsvormen". Maar opvallend genoeg komt dit ook overeen met elke vorm van autisme gecombineerd met zwakbegaafdheid.

Als je als grundung voor je onderzoek de DSM-IV-TR gebruikt, is het zeer relevant om te vermelden welke sub-diagnoses binnen ASD de personen binnen jouw studie uiteindelijk gekregen hebben en wat het intelligentie profiel van die personen was. Dan kun je namelijk veel meer correlaties leggen tussen bepaalde gedragskenmerken (waar de DSM op gebaseerd is) en het lichamelijk onderzoek.

De 24 maanden diagnoses zijn ook echt een partij natte vinger werk, omdat de DSM nooit geschreven is om te worden toegepast op deze doelgroep. Daarnaast zijn communicatieve vaardigheden niet voldoende ontwikkeld om onderscheid te maken tussen ASD en andere ontwikkelings/contactstoornissen.

Vanaf een leeftijd van 7 a 8 jaar, kun je een betere diagnose stellen, omdat je naast het constateren van het gedrag (wat) ook de (waarom) na kunt gaan. Een kind kan bijv. ook contact uit de weg gaan door een angststoornis, iets wat op 24 maanden niet vast te stellen is.

Ook moeten we niet vergeten dat sommige andere contact stoornissen, zoals de anti-sociale persoonlijkheidsstoornis, pas na (uit mijn hoofd) 18 of 21 met enige nauwkeurigheid gediagnostiseerd kunnen (en mogen) worden. Dit heeft tot gevolg dat deze kinderen vaak op jonge leeftijd (door afwijkend gedrag) maar op PDD-NOS gediagnostiseerd worden.

De onderzoeksvraag is dus:
" Kunnen we een model maken, dat nauwkeurig werkt op de test van 24 maanden"
Terwijl de vraag die we echt willen weten is:
" Hoeveel procent van de 24 maanden diagnose blijft overeind op latere leeftijd bij herdiagnose, hoeveel is dit bij dit model en hoe is dit verdeeld over de verschillende stoornissen en intelligentieprofielen"

gebruiken nu als uitgangspunt een test die bekend inaccuraat is als grundung voor hun werk, waardoor eigenlijk hun hele werk zonder verdere informatie over diagnostisering op latere leeftijd net zo inaccuraat is en ons eigenlijk niks nieuws verteld.

[Reactie gewijzigd door Ornias op 21 februari 2017 09:14]

Ik kan dan weer niet ingaan op het overgrote deel van jouw post. Zo te zien heb je veel meer verstand van psychiatrie dan ik. Maar dit stukje aan het einde klopt niet:
(...) en vervolgens gaan ze ook nog eens cherrypicken in verschillende versies door een versie te kiezen en daarop zelf wijzigingen aan te brengen uit de volgende versie.
Dit is niet waar. Ze gebruiken cross-validation, maar dat houdt in dat ze tien keer onafhankelijk trainen en testen en dat het resultaat van de tests uitmiddelen. Dat maakt hun resultaten alleen maar betrouwbaarder. Ze hebben een methode waarin ze eerst die dimensionaliteit van de data verlagen door middel van een diep neuraal netwerk en dan de uiteindelijke classificatie maken door middel van een support vector machine, maar het is voor dit soort algoritmes best normaal dat ze uit meerdere stappen bestaan. Ze hebben ook andere methodes geprobeerd, en degene die ik in de vorige zin beschreef, werkte beter, maar het is wetenschappelijk gezien gewoon prima om meerdere methodes met elkaar te vergelijken.

Qua machine learning is het hele onderzoek dus prima in orde. Ik ben het wat dat betreft dan ook niet eens met GlowMouse. Zie ook mijn directe reactie op GlowMouse.

(Edit: tests, niet test.)

[Reactie gewijzigd door J_Gonggrijp op 21 februari 2017 01:39]

Ik doel natuurlijk op het cherrypicken binnen de verschillende versies van de DSM.
Het lijkt, again: somoneone correct me if I am wrong, alsof ze onderdelen van DSM versies bij hun onderzoek hebben gezocht ipv het onderzoek op de DSM-IV-TR (danwel DSM-V)
Kan gebeuren, was ook laat toen ik het poste. Niet mijn duidelijkste verhaal ever :P
Tweakers.net samenvattingen kun je niet heel serieus nemen als het gaat over dit soort onderwerpen omdat geen van de schrijvers opgeleid is om dit soort onderzoeken te lezen en te begrijpen. Ze zullen het dus kopiëren van een andere bron, dus uit derde hand.

Maar het wordt gepubliceerd omdat het techno-optimisme bevordert. "Kijk eens wat we nu weer kunnen!'

Een betere bron voor wetenschappelijk nieuws is sciencedaily.
Klopt, daarom heb ik grotendeels maar even zelf het onderzoek doorgelezen.

Moet persoonlijk zeggen dat ik niet zo'n voorstander ben van het plaatsen van nieuws omdat het techno-optimisme bevordert. We mogen wat mij betreft eigenlijk best wat minder optimistisch zijn soms en wat langer nadenken over wenselijkheid van bepaalde ontwikkelingen. Maar dat is een andere discussie alltogether ;)
Allereerst:
- Voor dergelijke diagnoses, is het van belang om deze na de leeftijd van ca een jaar of 7 te bevestigen. Ik lees hier niks over in het onderzoek, als ik het goed lees (correct me if I am wrong) hebben ze huidige (inaccurate) test op 24 maanden, gebruikt om hun methode op jongere leeftijd te verifieren. Dat lijkt me sloordig.
Ze schrijven het mijns inziens heel zuiver op. Ze voorspellen op 9 maanden de uitkomst van de test die ze bij 24 maanden doen. Ze schrijven niet dat die kinderen dus autistisch zijn.
Mijn punt is dus dat er geen enkel nut is aan dit onderzoek. Een algoritme ontwikkelen die (deels) een flawed test kan voorspellen.

Daarnaast was het juist onwijs interessant geweest om WEL te zien wat de accunatie is naar mate de leeftijd van de proefpersonen toeneemt.
Je hebt een goed punt, maar wil het toch even nuanceren. Er is voor zover ik kan zien geen sprake van overfitting, wel van een bias.

Het feit dat er 10-fold cross validation gebruikt wordt voor de validatie nuanceert het verhaal zeker en vast, maar helemaal foutief is het niet. Het is zeer gebruikelijk dat bij preliminair onderzoek men de dataset niet vast opsplitst in een test en training set, maar validatie met k-fold cross validation doet om zo eerst een idee te krijgen over de performantie van de gebruikte modellen. Het model tunen op de uitkomst van de cross-validatie is ook niet zo vreemd, opnieuw om te kijken hoe goed een model kan presteren.

Wat je zegt over data die in zowel test als training set zit is niet helemaal juist en voor zover ik het begrijp is er geen sprake van overfitting. Men schrijft dat per fold de data wél mooi gescheiden is in training en test data. Het model wordt dan enkel getraind met de trainingsdata, en daarna getest met de testdata. Dit doet met dan 10 keer, en per keer traint en test men een nieuw model en op het einde neemt neemt men het gemiddelde van de performantie over alle modellen.

Het klopt dus dat over de folds heen data in zowel de test and training set zit, maar aangezien men per fold een nieuw model traint waarin de data wel gescheiden is, is er geen sprake van overfitting. Er is wel sprake van een bias in de performantie omdat data in beide sets zit over de folds heen, maar dit is op zich niet zo'n vreemde manier om je data te valideren en is zeker acceptabel want je weet op voorhand niet op welke manier je je data moet onderverdelen tussen training en test.

Ik ben echter wel akkoord dat de conclusie van de paper nogal enthusiast is, zeker de claim dat men met 81% nauwkeurigheid kan detecteren moet sterk genuanceerd worden want men heeft inderdaad nog geen model gevalideerd op een klassieke manier zonder cross-validatie. Maar fout of misleidend is het zeker niet.
Je bedoelt met '...en dus op basis van de testset.' ws '...en dus op basis van de trainset.' Het is juist de bedoeling om een model (gebouwd op een trainset) uit te scoren op een testset van 'nieuwe' data die het model nog niet heeft gezien.

Dat het best scorende model (that is, beste resultaten op de testset, dus het best in voorspellen op 'nieuwe' data) wordt geselecteerd lijkt me logisch, dat heeft niet veel met overfit te maken.
Als de 'testset' onderdeel uitmaakt van je trainingsdata (wat gebeurt bij 10-fold x-validation), en je pakt de beste cross-validation, kan je model gaan fitten op die testset ipv een zo goed mogelijk (generaliserend!) model te vormen.
Wellicht een hele domme opmerking, maar ik weet niet beter dan dat de auteur van de paper de zelfde persoon van het onderzoek is. Wordt de lezer nu misleid, is de paper onvolledig, of deugd het onderzoek niet?
De saaie en/of tijdrovende onderzoeken worden toevallig vaak uitgevoerd door 'mindere' functies: postdocs, studenten, etc. Het idee c.q. design van het onderzoek kan ook weer door iemand anders bedacht zijn. Deze overige personen staan vaak wel (ergens) in het lijstje van auteurs, waarbij hoofdonderzoekers ook regelmatig elkaar als mede-auteur opgeven. Zo hebben ze op een makkelijke manier een extra publicatie binnen.

Welkom in de wetenschappelijke wereld :)
Van Nature verwacht ik dat als een paper niet klopt, mensen commentaar kunnen leveren en er een correctie of retractie komt. Volgens mij functioneert dit uitstekend, in iedere editie van Science, Nature en PNAS zitten wel 2-3 correcties op eerdere artikelen. Een retractie betekent natuurlijk meestal dat de reviewers hebben zitten slapen en/of de auteurs bewust dingen hebben verzwegen of verkeerd gedaan.

Ik moedig je vooral aan om dit in te sturen als je er van overtuigd bent dat het niet goed is.

[Reactie gewijzigd door Jefrey Lijffijt op 21 februari 2017 09:37]

Woorden uit mijn mond! Ik vermoed dat het hier weer gaat om een onderzoek die extra in het daglicht gezet wordt vanwege...je weet waarom.

[Reactie gewijzigd door martijntechno op 20 februari 2017 23:45]

Als ze inderdaad het model updaten aan de hand van de test-set predictie performance, dan zouden ze toch net zo goed een model kunnen fitten op de gehele dataset in één keer?

Ik zou het artikel zelf kunnen lezen, maar dit is wellicht sneller en voor andere lezers ook interessant.

EDIT Ik zie de reacties van J_Gonggrijp en Joecatshoe nu pas. :D

[Reactie gewijzigd door DrSnuggles op 21 februari 2017 00:30]

Bullshit van dezelfde soort lui die beweren dat autisme aangeboren is , net als veel andere vermeende psychische aandoeningen , die nooit objectief te bewijzen zijn en ook niet te "genezen".
Psychiatrie is nooit meer geweest dan een excuus om te kunnen experimenteren met de menselijke geest. Zij verzinnen ziektebeelden , op verzoek , en stemmen daar gewoon over met handjes in de lucht. Zo stellen zij de DSM samen. En verklaren zij ongewenst gedrag of denkmethoden tot "ziekte". Hilarisch. Verdiep je eens in de DSM i.p.v. iets zomaar te geloven omdat het de zogenaamde "wetenschap" is die het beweerd.
Vooral het feit dat veel mensen met exact dezelfde "symptomen" gewoon in de politiek zitten , in de overheid of bij de politie werken , zegt genoeg.
Eigenlijk had ik graag gezien dat tweakers.net nog een 2x2 tabelletje postte, waarop je het aantal false positives, false negatives, correcte diagnoses, en correcte negatives ziet. Ik kan ook wel een algoritme verzinnen die in 100% van de gevallen een correcte diagnose stelt, simpelweg door in alle gevallen autisme vast te stellen. Zo'n algoritme is natuurlijk niet erg bruikbaar. Idealiter zou je enkel correcte diagnoses en correcte negatives hebben, zonder enige false positives of false negatives. Natuurlijk gebeurt dat nooit bij medische tests, maar je wil wel zoveel mogelijk die richting op.

Als de false negatives heel hoog zijn is het al minder nuttig, want veel gevallen van autisme zie je dan nog steeds niet. Maar als dan je false positives laag zijn heb je zekerheid bij een diagnose. Of andersom, als je false negatives laag zijn, maar je false positives hoog, dan weet je tenminste bij een negative redelijk zeker dat er geen autisme is. Zijn allebei erg hoog, dan is je algoritme flut.

Kortom, het aantal correcte diagnoses is maar een klein deel van het verhaal.
Uit het artikel:

http://imgur.com/2qby5tB

Dat zit wel redelijk snor dus.
Eigenlijk had ik graag gezien dat tweakers.net nog een 2x2 tabelletje postte, waarop je het aantal false positives, false negatives, correcte diagnoses, en correcte negatives ziet.
Buiten dat zou het Tweakers ook sieren om niet overal het (gehypte) woord AI onder te hangen. Het woord wordt overigens ook nergens genoemd in het onderzoek...

De ontwikkelaars hebben een gemengd (machine learning; neuraal netwerk + SVM) algoritme ontwikkeld, geen intelligentie. En zelfs die algoritmes zijn niet nieuw, maar worden al jaren toegepast.

Daar komt nog bij dat (ook in dit onderzoek) een correlatie is gevonden, wat letterlijk in de tekst staat. Een correlatie is géén oorzaak-gevolg redenering, dus de voorspelbaarheid van deze 'ai' valt te betwijfelen. Daarnaast zijn woorden als 'suggest', 'correlation', 'relationship', 'linked' en 'may' genoeg reden om een kritische blik te werpen op de aannames en gevolgtrekkingen die gemaakt worden.

Nog een kleine nuance; er is enkel 'getest' door middel van 10x cross-fold validation. Oftewel er is niet getest op een aparte subset. Met genoeg overfitting bereik je ook een hoge nauwkeurigheid zonder te testen op 'nieuwe' data.
Kleine toelichting: als je trainingsdata (en dus cross-validation) een bepaalde bias/afwijking bevat, kan je algoritme puur op die afwijking gaan modelleren en dus classificeren. Met andere woorden; bij nieuwe/verse data gaat 'ie op z'n bek.

[Reactie gewijzigd door geekeep op 20 februari 2017 21:23]

Lees je even in voordat je uitspraken doet over wat wel of niet AI is. Er wordt hier patroonherkenning gedaan door een computer die voorheen alleen door mensen kon worden gedaan, en dan nog beter dan tot nu toe mogelijk was ook. Ja, de gebruikte technieken zijn oud, maar waarom zou een techniek per sé gisteren uitgevonden moeten zijn om als AI te kwalificeren? Dat zou het hele vakgebied op z'n zachtst gezegd nogal vluchtig maken. ;)

Misschien wordt het woord AI in de artikelen niet genoemd, maar dat komt gewoon doordat het de auteurs niet op de eerste plaats om AI te doen is maar om de diagnose van autisme. Daar heeft Tweakers vast geen tag voor. Feit blijft dat ze machine learning technieken hebben gebruikt en die vallen nog altijd onder de AI.

Natuurlijk is het een correlatie en niet een causatie. Het zou wat zijn als de classificatie door het statistische model invloed zou hebben op de latere ontwikkeling van het kind! Gelukkig is dat niet zo. Dat die correlatie er is, dus tussen classificatie en latere diagnose, betekent echter dat er dus wel sprake is van een voorspelling. De auteurs verpakken het allemaal in nuancerende woorden, maar dat is omdat het in dit soort publicaties geboden is om voorzichtig te zijn met je claims.

Ik heb de indruk dat je je oordeel over cross-validation baseert op de post van GlowMouse. Die heeft het echter niet goed begrepen.
Correct is ook echt correct, false positives zijn niet correct, false negatives zijn niet correct. Als jij bij iedereen vaststelt dat die persoon autisme heeft is dat dus niet 100% correct, maar misschien 50% of waarschijnlijk nog minder.
Echter als alle correcte waardes komen van alle juist-negatieven heb je alsnog er niks aan met een betrouwbaarheid van iets meer dan 80%.
"Je kind heeft waarschijnlijk geen autisme." Nee, dat heeft het sowieso niet, tenzij een arts al onterecht wel die diagnose heeft gesteld. Dus ja, ook voorselectie maakt nog uit. Vooralsnog weten we met die bericht nog niks.

[Reactie gewijzigd door RalphM. op 20 februari 2017 20:09]

Accuracy, specificity, sensitivity... m.a.w. kan een test een conditie aantonen als die daadwerkelijk aanwezig is, en/of is de test in staat om een negatieve uitslag te genereren als de conditie niet aanwezig is. Accuracy is het gewogen gemiddelde van beide measures.

https://en.wikipedia.org/wiki/Sensitivity_and_specificity
Nog een keer lezen: Het gaat hier over accuraatheid van de voorspelling. Die is 81%.

Dus niet 81% van de gemeten gevallen heeft autisme, maar 81% van de voorspellingen zijn juist.
Dit zijn dus gevallen van autisme en gevallen van geen-autisme.
Dit betekent dus automatisch dat 19% niet juist is voorspeld (zijnde false positives of false negatives).

[Reactie gewijzigd door DaManiac op 20 februari 2017 20:11]

19% van de positives zijn false positives.
het percentage false negatives is maar 3% van alle negatives.

de gemiddelde nauwkeurigheid is ongeveer 94%, maar omdat het uiteindelijke doel een correcte diagnose is ligt de nadruk hier op het percentage true positives.
De studie is uitgevoerd bij kinderen die erfelijk zijn belast ('high familial risk'). In de studie had ongeveer 1/5de daadwerkelijk autisme. De false negative rate is dus wat minder belangrijk dan bij een studie op de gehele populatie (waar slechts 1-1.5% autisme heeft).

De true positive rate is 30 uit 34, en de true negative rate is 138 uit 145. Bij deze groep wordt dus bij 37 voorspeld dat ze autistisch zijn, en daarvan waren er 30 daadwerkelijk autistisch (81%). Tegelijkertijd werd bij 142 kinderen voorspeld dat ze niet autistisch zijn, waarvan er 4 toch autisme hadden (97% goed geclassificeerd).
81% correct vind ik best een nette score anders.
81% correct vind ik best een nette score anders.
En hoe hebben ze die diagnose geverifieerd? Baby's van nog geen jaar oud zijn niet echt in staat tot sociale ontwikkeling, en dat is precies waarin autisme zich in uit. Je kan pas na een aantal jaar vast stellen dat het gedrag door autisme wordt veroorzaakt of niet.

Het is niet voor niets zo dat autisme een ontwikkelings stoornis is, die kun je dus bij pasgeboren kinderen niet direct vaststellen. Daarvoor moet je het ontwikkelingstraject van het kind over een aantal jaar volgen.
Je impliceert hiermee dat je autisme zou kunnen "remmen" door er op een bepaalde manier mee om te gaan. Dat is niet zo.

De stoornis is er of hij is er niet.
Dat kan deze test aantonen (met een accuraatheid van 81%).

De uitwerking en de invloed op het gedrag, danwel sociale omgang is een heel andere vraag. Die is van veel factoren afhankelijk (bijvoorbeeld intelligentie, comorbiditeit, etc.).

[Reactie gewijzigd door DaManiac op 20 februari 2017 20:12]

ADHD is pas bekend sinds de jaren zestig. Daarvoor bestond de ziekte niet.
Wel had je soms drukke kinderen die hun gedrag niet zelf konden reguleren. (onaangepaste kinderen zo werden ze genoemd)

In 1968 dook de ziekte voor het eerst op als hyperkinetic impulse disorder in de bekende manual uit de VS (Diagnostic and Statistical Manual of Mental Disorders - DSM) Pas in de jaren 80 wijzigde de naam in ADD (eentje met en eentje zonder hyperactivity)

Ritalin (methylphenidaat) is al sinds 1955 op de markt. De scheikundige noemde het naar zijn vrouw Rita die het middel gebruikte tegen lage bloeddruk. Begin jaren zestig begonnen ze het ook aan die onaangepaste kinderen te geven. In de jaren 90 kwam pas de echte "boom" en de ziekte werdt steeds meer geaccepteerd door de psychiaters. Ritalin ging als warme broodjes over de toonbank en er zit nog steeds een flinke groei in. Van 2010 tot 2015 was sprake van een totale stijging van 8%. In 2015 groeide dit echter met 13 percent tot $12.9 miljard . Volgens projecties zal de verkoop nog eens verder groeien met 6% per jaar tot $17.5 Miljard in 2020. Dit is wat ze in het jargon noemen een "blockbuster" drug.

Is het nu zo dat iedereen opeens ADHD heeft? Maakt technologie ons gestoord of is er iets anders aan de hand? Luchtvervuiling? E nummers in ons eten? Of is de ziekte "in de mode" en is het modern te roepen dat je kind ADHD heeft?

[Reactie gewijzigd door Fastfreddy666 op 20 februari 2017 21:04]

Waarschijnlijk allemaal tegelijk. Of het leven van de holbewoners nu minder gestoord was dan het type samenleving waar we nu in leven is moeilijk te beoordelen en vooral een kwestie van opinie, maar dat onze samenleving soms krankzinnig valt te noemen zal niemand onderkennen. Problemen zijn van alle tijden, van alle culturen. Met ons gelul over 'ontwikkelingssyndroom' zijn we trouwens nog steeds in de minderheid, een groter deel van de aardbevolking zal bijvoorbeeld eerder aan een Djinn denken, een boze geest die zich in je schuilhoudt.

Het is dus allemaal maar een kwestie van cultureel bepaalde verklaringsmodellen van fenomenen die altijd al bestaan hebben: het feit dat volwassenen moeite hebben met hoe sommige kinderen zich gedragen. Maar nooit heeft het darwinisme beloofd: na x generaties homo sapiens gaat het eigenlijk allemaal wel goed en zijn de problemen weg.

Het is namelijk wel bijzonder opvallend dat de westerse diagnostische verklaringsmodellen zo'n gelijke tred houden met de technologie die op dat moment hot is. We ontwikkelen de eerste hersenscanners, et voila, plotseling is al het klinisch leed een kwestie van verstoorde hersenprocessen. Toevallig he? In de middeleeuwen leerden we voor het eerst over de bloedsomloop en het hart: et voila, ineens werden stoornissen allemaal verklaard aan de hand van de 'doordringbaarheid' van 'het weefsel', iemand die we nu een autist zouden noemen had vermoedelijk in die tijd een mentale traagheid en een gebrek aan souplesse voor zijn kiezen gekregen die het gevolg was van een te geringe 'permeabiliteit' van zijn 'weefsel'.

Mooi cultureel produkt van dit moment is 'rust' vinden in de 'hectische' samenleving. Wij staan te weinig 'stil' bij 'onszelf' (whatever that is), en nemen te weinig tijd voor 'onszelf'. Onze oude breinen zijn gemaakt op rustig nootjes verzamelen in een mooi groen zonnig bos, en nu zitten we onder TL-buizen naar schermen te kijken met 50 agendapunten in ons hoofd. Logisch dat we daarom "aan onszelf voorbij gaan" en moeten "onthaasten". De mindfulnesstrainingen en yoga en noem maar op schieten als paddestoelen uit de lucht, en je kan tegenwoordig haast geen riagg of PsyQ meer binnenlopen of je krijgt Mindfulness Based Therapy voorgeschoteld omdat er zulke indrukwekkende onderzoeken naar gedaan zijn. Liefst natuurlijk aangevuld met Virtual Reality.

En ja, mindfulness bij autisme schijnt inderdaad te werken, en degenen die die training krijgen ervaren het als een waanzinnig nuttige oefening die veel rust en acceptatie brengt in hun leven. Het is niet moeilijk om dit standpunt te verdedigen voor een zaal vol mensen, en je hebt de onderzoeksresultaten mee.

Maar je hebt volkomen gelijk, we moeten niet al te snel doen alsof we vroeger ooit dom waren en we 'nu pas weten' dat ADHD door 'het brein' komt en dat al onze voorgangers wellicht wel goede ideeen hadden maar natuurlijk nooit zo goed als wij etc etc. Die denkfout heet in de wetenschapsfilosofie 'historicisme', en dan onderschat je in hoeverre ook wij, net als onze voorgangers, slaaf zijn van onze eigen gekke cultureel bepaalde denkkaders.
Daarom dat autisme sowieso als handicap wordt herkent.

Je hebt het of je hebt het niet. Dat je je kan aanpassen aan je autisme wil niet zeggen dat het weg is.
Het is ook een nette score, het is alleen niet de enige score die telt. Als je ook nog 81% false positives krijgt, dan heb je er niet veel aan. Dan is het alsnog 50% kans dat het klopt.

[Reactie gewijzigd door Amanoo op 20 februari 2017 20:00]

Onderzoek van Henning Tiemeier aan de Erasmus gaat hierop aansluiten: Wat doen externe invloeden zelfs al voor de geboorte met de hersenontwikkeling van een kind?
Erg interessant.

Heeft al geleid tot dit, maar er komt nog meer gezien hij er net een budget voor heeft gewonnen.

Als ik het goed begrepen heb is er bijvoorbeeld al een correlatie vastgesteld tussen licht verminderde schildklierwerking bij de moeder (maar niet zodanig dat ze het zelf merkt) en autisme bij het kind.

Edit: Juiste link: Vici voor medisch onderzoek naar depressie bij adolescenten

[Reactie gewijzigd door kakanox op 20 februari 2017 20:35]

"al een correlatie vastgesteld tussen"
Wat autisme betreft zijn er zo veel correlaties vastgesteld dat je je af moet vragen wat een volgende correlatie daaraan toevoegd.

"Onderzoek van Henning Tiemeier aan de Erasmus gaat hierop aansluiten"
Ik mag hopen van niet, dit onderzoek is nou niet echt goed uitgevoerd en nogal sloordig kwa opzet met een berg aannames (zie andere reacties).

Naar zijn resultaten ben ik overigens WEL benieuwd, vooral omdat hij het zorgvuldig genoeg meer open houd dan zich focussen op 1 van vele mogelijke kwalificaties van een constatering.

"Heeft al geleid tot dit, maar er komt nog meer gezien hij er net een budget voor heeft gewonnen."
Dat artikel is echt zo veel simplistische AD Bullshit dat ze zelf niet inzien dat ze zelf al vertellen dat het bullshit is.
Hij heeft geconstateerd dat er bij een KLEINE steekproef enige correlatie bestond tussen vroeg diagnose (de vraag is overigens nog maar of die betrouwbaar genoeg zijn voor dit doel) van autisme en vitamine-D tekort.

Hij geeft zelf ook al aan tegenover het AD dat extra supplementen met vit D geen merkbare kansverkleinging tot gevolg heeft. Waarom? Omdat er vele en vele factoren meespelen en zijn steekproef te klein was.

Wel heel mooi om te zien dat dhr. Tiemeier, wel zelfkritisch is en geen uitlatingen doet of conclussies trekt eer hij tot de bodem van het verhaal is gekomen. Dat is wel redelijk wat er in dit huidige nieuwsbericht/onderzoek is gebeurd.
Klopt. Ik wilde iets linken om meer info te geven, ad artikel was wat ongelukkig gekozen.

Zijn onderzoek sluit met name aan op het onderwerp.
Kijk ik naar uit, is zeker iemand om kwa onderzoeksrichting en nuance in de gaten te houden! :)
Thanks for the tip!
Hoe onderzoekt de AI die mensen, hoe analyseren ze of kinderen cq mensen wel of geen liefde hebben gehad in hun opvoeding? Geen of weinig liefde is toch grootste oorzaak van autisme?!
Nee, die verklaring was inderdaad ongeveer een halve eeuw erg populair (de zgn ijskastmoeder) maar is inmiddels als achterhaald beschouwd. Ze was gebaseerd op de observatie dat bv moeders van kinderen met autisme hun kind minder knuffelden, en dus dachten ze 'dat moet het zijn, het is die koude kille moeder'. Er zijn tienduizenden kinderen met autisme uit hun gezin getrokken op basis van deze verklaring, met desastreuze gevolgen uiteraard. Totdat het op een gegeven moment doordrong dat die moeders zich aangepast hadden aan hun kind: veel kinderen met autisme schijnen er namelijk een hekel aan te hebben om geaaid te worden etc - sensorische overprikkeling, wie zal het zeggen. Toen zijn ze maar weer heel gauw met dat weghalen gestopt... inmiddels is wel duidelijk dat het ontstaan van autisme niet heel veel te maken heeft met de liefde die je al dan niet krijgt in je eerste levensjaren... je wordt ermee geboren, en je gaat ermee dood.

Over een diagnose wilde ik nog kwijt dat een diagnose op het gebied van psychisch leed een keus is van een samenleving, nooit iets anders. Het hele essentiele punt dat bepaalt of je een diagnose krijgt is: heb ik er last van, wil ik iets veranderen, en roep ik daarvoor de hulp in van een dokter. Als je veel problemen ervaart is de kans dat je, als je je laat nakijken op psychische klachten, geen diagnose krijgt zo goed als nihil. Dit komt simpelweg omdat hulpverleners graag mensen willen helpen, en zonder diagnose kunnen ze je niet helpen. Conceptueel weten ze dan niet waar ze aan moeten werken, en bovendien komt er geen geldstroom op gang vanuit de verzekering om je uberhaupt te mogen helpen.

Het doel van een diagnose moet dus goed duidelijk zijn. Vaak zijn de doelen dus:
- een werkbaar en bespreekbaar model creeren dat handvatten biedt voor de hulpverlener
- geld voor hulp rechtvaardigen tegenover de ziektenkostenverzekeraar
- stomweg gewoonte binnen de klinische psychologie.

Het lijkt dan heel vaak alsof het doel 'waarheidsvinding' is, en elke psychodiagnosticus zal zichzelf dat proberen te vertellen en er hopelijk naar streven, maar er zijn dus andere belangen.

Een autist die door zelfstudie vermoed dat hij autisme heeft, maar verder eigenlijk zich best redelijk redt in zijn leven (niemand heeft het altijd makkelijk, integendeel) en niet het besluit neemt om het hele circus van hulpverlening en diagnostiek in gang te zetten en zichzelf dus redt -heeft- dan ook geen ontwikkelingsstoornis. Er is geen onderliggende feitelijk meetbare observeerbare objectieve waarheid in het wereldje van psychische klachten: diagnostiek is een keuze die genomen wordt binnen een cultuur.

De beste definities staan hieronder:
Intelligentie is wat een intelligentietest meet.
Een diagnostische stoornis is wat een klinisch DSM-gebaseerd interview meet, evt aangevuld met heteroanamnese in het geval van autisme.

Hoofdcriterium van elke diagnose (maar hij staat in de DSM telkens achteraan, eigenlijk op de verkeerde plek dus) is dat er 'significant lijden' aanwezig is door de stoornis. Dit is wat je rechtvaardigt de stoornis te stellen. Maar omdat iedereen die in geestesnood zit en bij een hulpverlener / riagg aanklopt dat doet omdat hij lijdt en hulp wil, is dit altijd uit te leggen.

Ik ben enkele jaren werkzaam geweest als psychodiagnosticus, en heb niet 1 keer meegemaakt dat ik of een intaker of wie dan ook bij iemand die zich aanmeldde heeft gezegd: het spijt ons, u bent helaas kerngezond, we kunnen niets voor u betekenen. Misschien is dat omdat ik werkte bij een tent die over het algemeen wat hardnekkiger gevallen binnenkreeg, maar ik denk het niet. Als iemand om hulp vraagt wil je die hulp in principe ook bieden. Hulpverleners KUNNEN niet behandelen als er geen diagnose is, ten eerste omdat ze niet zouden weten waar ze dan 'aan moeten werken' en welke 'behandeldoelen' er dan zijn en welke 'klachtenlijsten' ze dan moeten inzetten om te 'benchmarken' welke 'verbetering' en 'klachtreductie' er dan plaats gaat vinden (ze moeten natuurlijk tenslotte hun 'behandelsucces' en 'effectiviteit' kunnen verantwoorden'), en ten tweede dus gewoon omdat de instelling geen cent van de zorgverzekeraar zal krijgen bij een nuldiagnose.

Dit soort zaken legde ik altijd het allereerste uit bij een diagnostisch interview, zodra ik merkte dat het etiketje belangrijk was - en dat was het vaak. Goed je had ook mensen die zeiden: het maakt me geen flikker uit hoe het heet, als ik maar weer gewoon naar mijn kleinkinderen kan want ik durf de straat niet meer op uit angst een paniekaanval te krijgen, dat waren de 'gelukkigen', maar veel vaker waren de klachten al veel langer aanwezig en was iemands grootste probleem 'wat heb ik nou', 'wat is er mis met mij'.

Verder (ik kan nog wel even doorgaan) moet een diagnose niet worden verward met een verklaring. Oh, ik weet nu waarom ik me altijd zo moe voel en zo slecht slaap en zo negatief denk: dat is omdat ik Een Depressie heb, dat zei de dokter! Nee, je hebt dat labeltje gekregen op basis van de klachten die je noemde, er is niets verklaard. Al die nachtmerries, al die herbelevingen, al die angst voor mannen, ik weet nu hoe het komt - ik heb PTSS! Nee, het labeltje PTSS wordt gegeven aan iedereen die met nachtmerries/herbelevingen en traumagerelateerde angsten binnenkomt: de diagnose veroorzaakt niet de symptomen oid, het is andersom: de symptomen veroorzaken (+ het hulp zoeken) veroorzaken een diagnose. En of een diagnose helpend is of een nieuw symptoom wordt - daar moet je een beetje mazzel mee hebben, in ieder geval komt er geld beschikbaar om je te helpen, maar blijf zelf ook vooral opletten of je het nog een beetje logisch vind klinken allemaal.
En dan?
Je weet dat je kind autisme heeft?

Ze moeten zich bij ziektes concentreren op preventie zodat het ooit eens kan "verdwijnen", maar goed symptomen bestrijden zit het geld in, oplossingen niet.

http://www.ad.nl/gezond/m...ns-zwangerschap~a32becc9/
Ok, dus autisme is geen ziekte, autisme is een ontwikkelingsstoornis.
Simpelweg, onze hersenen zijn anders verbonden dan normale (neurotypische) mensen.

Er is ook niks mis met autistisch zijn. De grootste problemen die ik persoonlijk ondervindt, zijn dingen die de maatschappij niet 'aanvaardbaar' vindt.

Bijvoorbeeld: het maken van oogcontact is één van de veel voorkomende symptomen. Er is objectief gezien niks mis met geen/weinig oogcontact maken, maar het is sociaal gezien niet (volledig) aanvaardbaar om geen/weinig oogcontact te maken in een gesprek.

Het weten dat je kind autisme heeft is trouwens super belangrijk. In mijn voorbeeld duurde het tot ik 25 was tot ikzelf maar een vermoeden had dat ik autisme zou kunnen hebben. Ik heb pas een officiele diagnose sinds ik 30 ben. Als mijn ouders dit op vroegere leeftijd zouden hebben geweten, dan had ik veel eerder hulp kunnen ontvangen. Hoe eerder je hulp krijgt, hoe beter. Om nog niet eens te spreken over het feit dat de meeste autisten waar ik al contact mee had, tenminste wisten wat er 'mis' met ze was. Dit brengt een soort peace of mind met zich mee, terwijl het ervoor alleen maar giswerk was. Toen ik mijn diagnose ontving, was ik bijna euforisch.

Ik kan dit soort onderzoeken alleen maar toejuichen.
Ikzelf heb ook autisme en vervelend vind ik het niet, maar als ik dan lees dat jij pas op je 30ste erachter bent gekomen kan ik me heel goed voorstellen dat er momenten zijn geweest dat je de kluts kwijt was.
Overigens is de hulp inderdaad goed als die optijd gekregen kan worden. Bij mij is het heeel vroeg vast gesteld, maar als ik je vertel wat ons door andere personen is aangedaan dan ga je van ergernis over je nek. En trouwens, dat stukje van oog contact komt me vrij bekend voor, maar het grappige is dat ik vrij vaak te horen krijg dat ik erg sociaal ben.

Dit is al een heel mooi iets, maar anderen mensen moeten zich er ook wel eens aan gaan aanpassen, want ik mag vaak alles zelf doen en dat is niet helemaal lekker kan ik je vertellen.. :(
"Er is ook niks mis met autistisch zijn. De grootste problemen die ik persoonlijk ondervindt, zijn dingen die de maatschappij niet 'aanvaardbaar' vindt. "

Tja, je kan natuurlijk zeggen dat het moeilijk inschatten van emoties van mensen echt wel een hindernis vormt. Dat er dan iets "mis" met je is is natuurlijk een waarde-oordeel; dat is maar net hoe mensen er tegen aankijken.

Zelf probeer ik mensen gelijkwaardig te behandelen - wat niet betekend dat mensen gelijk zijn, gelukkig. Het enige waar ik een hekel aan heb zijn mensen die zelf niet tolerant of asociaal zijn. Nou ja, en mensen die niet voor rede/wetenschap vatbaar zijn, maar dat is een probleem van mij, niet van hun.

Het lijkt me vreselijk lastig om zonder zelf te weten dat je autistisch bent door het leven te gaan. Ik kan me helemaal voorstellen dat dat een enorme opluchting is.

Sowieso zien we steeds meer dat er fysieke verschillen gevonden worden voor brein-gerelateerde symptomen. Dat zal bij de meeste mensen eerder leiden tot het aanvaarden dat mensen verschillend zijn dan het verketteren van het verschil.

Leve de nieuwe tijd - kan niet wachten tot de volgende ontdekking binnen het brein :)
Ik heb 'gewonnen' :P Bij mij is de diagnose pas geweest toen ik 34 was :P
Helaas:
Ik kwam er pas achter dat ik Asperger heb toen ik 45 was, toen bij mijn zoontje de diagnose Asperger gesteld was.

En je kunt er inderdaad eigenlijk geen fuck mee.
Maar zoals mendax al schreef, was ook ik redelijk euforisch omdat ik EINDELIJK wist waarom sommige dingen mij zo verrekte veel moeite kosten.
;)
Autisme is een ontwikkelingsstoornis, geen ziekte. Een 'stoornis' die bovendien gevolgen heeft die juist erg goed kunnen uitpakken, zoals een hoge intelligentie, oog voor detail en totaal op kunnen gaan in een bepaalde belangstelling. Van diverse wetenschappers en uitvinders uit het verleden wordt vermoed dat ze een vorm van autisme hadden.
Sterker nog autisme is een hele grote tak van gedragsstoornissen. Zelfde als ADHD, pddnos of asperge; het valt onder een bepaalde aspect van eigenschappen. Elke autist is namelijk anders.
Yippie, kunnen we mensen straks nog eerder in hokjes plaatsen. Ben ik nu de enige die aan al dit soort ontwikkelingen ook een negatieve kant ziet?

Ik snap dat de onderzoekers dit voor iets positiefs ontwikkelen, maar gelijkertijd zijn er zoveel minder vriendelijke partijen die hier ook iets mee kunnen.
Ik denk dat het vooral de kunst is om de oorsprong van autisme te vinden, zodat je het kan voorkomen of misschien zelfs tot op zekere hoogte kan veroorzaken.
Als je een paar van de sterke kanten van autisten toe zou kunnen voegen aan een gezond* brein door bijvoorbeeld het juiste voedsel te eten tijdens de zwangerschap en vanaf het begin halve dagen te werken, nemen we op relatief natuurlijke wijze de volgende horde na de groei van onze hersenen (vermoedelijk door het eten van verhit vlees).

Als we het huidige kapitalistische model in stand houden hebben we namelijk vrij snel mensen nodig die zowel creatief kunnen denken als een zeer hoge mate van intelligentie hebben. De slimsten van nu zijn waarschijnlijk scherp genoeg, maar het gemiddelde moet omhoog om te zorgen dat mensen over 100 jaar ook nog werk hebben.

*voor ik hier gelynched word: dit is geen waardeoordeel over autisten, integendeel. ik wist even niet hoe het anders te verwoorden.

[Reactie gewijzigd door kakanox op 20 februari 2017 19:59]

*voor ik hier gelynched word: dit is geen waardeoordeel over autisten, integendeel. ik wist even niet hoe het anders te verwoorden.
De correcte term hiervoor is 'neurotypisch'.

Overigens is je hele gedrag gaan bepalen tijdens de zwangerschap natuurlijk niet altijd een haalbare kaart. Het leven gaat ook door, als alleenstaande moeder kun je bijvoorbeeld niet zeggen 'Ik wil geen stress tijdens de zwangerschap' en dus vanaf dag 1 na de bevruchting maar verlof op gaan nemen.

[Reactie gewijzigd door Stoney3K op 20 februari 2017 20:06]

Niet altijd, maar als blijkt dat een kind bijvoorbeeld 10% kans heeft op autisme t.o.v. 1% wanneer de vrouw na 12 weken zwangerschap 100% verlof krijgt, dan lijkt het me niet alleen "beter" maar ook nog eens goedkoper (on the long run) om de laatste optie te kiezen.
Zo onhaalbaar vind ik dat daarom niet. Ik bedoelde echter vooral verbeteringen aan voeding etc.
Ik denk dat het vooral de kunst is om de oorsprong van autisme te vinden
Dat zijn de ouders met autisme.
Als je theorie klopt, dan waren er dus geen autisten geweest ;)

Zie m'n eerdere link naar Henning Tiemeier en deze link even.
De precieze oorzaak van autisme is niet bekend. Maar waarschijnlijk spelen psychische, fysiologische en sociologische factoren een rol bij het ontstaan van autisme. Ook zou het kunnen dat autisme ontstaat door een infectie.

Op autisme lijkend gedrag komt ook voor bij kinderen met het fragiele-X-syndroom (een genetische stoornis, veroorzaakt door een afwijkend X-chromosoom en gekenmerkt door geestelijke ontwikkelingsachterstand), fenylketonurie (een aangeboren stofwisselingsdefect) en virale encefalitis (door een virus veroorzaakte ontsteking van de hersenen).
Die ouders zijn een fysiologische factor.
Ja. Er worden ook psychische en sociologische factoren genoemd als mogelijke oorzaken.

Het ligt heel veel genuanceerder dan "de autistische ouders"
Ja. Er worden ook psychische en sociologische factoren genoemd als mogelijke oorzaken.
Als je het met 6 maanden al kan zien dan lijkt me dat sterk.
Ook dat is niet waterdicht, zowel mijn vrouw als ik hebben geen autistische kenmerken, maar onze zoon wel.
Yippie, kunnen we mensen straks nog eerder in hokjes plaatsen. Ben ik nu de enige die aan al dit soort ontwikkelingen ook een negatieve kant ziet?
Ik zit er met gemengde gevoelens in. Zonder het nu specifiek over autisme te hebben, kan ik zo een tiental 'aandoeningen' opnoemen die bewezen onzin zijn, maar waar de halve maatschappij in meegezogen is dan wel wordt.

Eén van de meest bekende is bijvoorbeeld wel de bekkeninstabiliteit. Hele hordes vrouwen hadden in Nederland in de jaren 80 en 90 van de vorige eeuw van bekkeninstabiliteit. De grap was dat het wel erg regiogebonden was: in Duitsland en Frankrijk had vrijwel niemand er last van.

Ik wil niet zeggen dat autisme dat specifiek is. Ik ken ook gevallen in mijn omgeving waarbij er overduidelijk 'iets' aan de hand is. De één zal dat autisme noemen, de ander zal het weer iets anders noemen. Het enige wat ik zie is een compleet ontspoord gezin met als gevolg daarvan een kind dat zichzelf niet kent, en daardoor ook niet gesnapt wordt.
Ik snap dat de onderzoekers dit voor iets positiefs ontwikkelen, maar gelijkertijd zijn er zoveel minder vriendelijke partijen die hier ook iets mee kunnen.
Yep.
Helemaal mee eens. Straks kunnen ze bij een embryo al zien dat er iets niet klopt en nog op tijd de ontwikkeling onderbreken. Dan worden er een stuk minder van die zeldzame types als Einstein geboren.
Ik denk dat die minder vriendelijk partijen het net zo onvriendelijk kunnen maken zonder deze kennis.
Waar ik wat moeite mee heb is hoe de term 'autisme' hier (en op een heleboel andere plaatsen) gebruikt wordt. In de medische wereld spreken ze inmiddels over 'een afwijking in het autistisch spectrum'...dit omdat de diversiteit en de mate van 'afwijking' erg brede ranges kennen. Bij een vriend van me is een afwijking in het autistisch spectrum vastgesteld. Zijn reactie was "als je die testen zou laten maken door degenen die hier studeren (TU Delft) dan zou bijna iedereen de diagnose autisme krijgen". En volgens mij heeft hij volkomen gelijk. Als je een technische studie op universitair niveau hebt afgerond, zou er waarschijnlijk een afwijking in het autistische spectrum uit degelijke testen rollen. Er wordt immers getest op een afwijking ten opzichte van een norm en tja, erg ver richting 'beta denken' noemen we 'autisme'.

Is zo'n 'afwijking' erg? In het overgrote deel van de gevallen niet. Sterker nog, je zou kunnen stellen dat de hedendaagse mens te empatisch is en dat de klassieke autist op een gezondere manier naar de wereld kijkt (het Heider-Simmel experiment toont dit mooi aan).

Dus wat moeten we denken van een test / algoritme als dit? In het gunstigste geval kan het helpen de gevallen die op latere leeftijd echt problemen gaan krijgen met 'normale sociale interactie' te identificeren zodat die goed begeleid kunnen worden. Wellicht kan er mee bepaald worden dat sommige kinderen ander onderwijs moeten krijgen dan wat de norm is. Maar ik hoop toch echt dat het geen middel gaat worden om meer labeltjes op kinderen / personen te plakken. Daar zijn er al veel te veel van.
Er is inderdaad veel overlap tussen symptomen bij mensen met Autisme Spectrum Stoornissen en zogenaamd neurotypische mensen. Het verschil tussen de twee is dat bij ASS een paar (er is veel variatie hier omdat het inderdaad een spectrum beslaat) van die symptomen zodanig veel last bezorgen in het dagelijkse leven, dat je levenskwaliteit effectief achteruit gaat.

Voorbeeld: Vele mensen hebben last van angst om te parkeren (vooral parallel). Maar er is een groot verschil tussen een beetje angst hebben en toch kunnen functioneren (in dit geval effectief parkeren) en iemand dat zoveel angst hiervoor heeft, dat hij niet meer in steden durft komen.

Sorry als dit niet duidelijk is, een ander nadeel bij vele autisten is het niet goed kunnen uitleggen van interne gedachten, hier heb ik ook last van. :)
Ik snap het wel hoor =)

Perfectionisme is ook z'n eigenschap die veel voorkomt onder 'autisten'. In veel gevallen een hele goede eigenschap...met mate. Als je in je werk dingen nooit af krijgt omdat alles perfect moet (ook datgene dat voor je baas / klant / eindgebruiker totaal niet belangrijk is), dan zit het in de weg en kun je spreken van 'storing'. Daarbij kan ook weer opgemerkt worden dat het erg van het werk afhangt waar die grens dan precies ligt. Een hoge mate van perfectionisme is wel handig als je bv. in de lucht- en ruimtevaart bezig bent...als je snel en goedkoop apps maakt is het niet zo handig.

OCD is ook zoiets. Iedereen heeft het tot op zekere mate; zonder dat mechanisme zou ons brein ten onder gaan aan de chaos van de buitenwereld. Maar teveel gaat problemen opleveren in de huidige maatschappij...als je er niet tegen kan dat er blikjes bij de supermakt niet netjes recht staan, wordt boodschappen doen lastig.

Zo is er ook een mate van empathie die in de huidige maatschappij gezond is, waarbij zowel te veel als te weinig empathisch vermogen problematisch zijn. Van te veel empathie wordt je waarschijnlijk depressief, te weinig en je bent 'niet sociaal'.
Lijkt me perfect uitgelegd. Zelfs nog met een auto-analogie op een tech-forum om het compleet te maken.

Wist alleen niet dat autisten last hebben met parkeren :Y) (ik heb het sterke vermoeden dat autisten geen probleem hebben met het "lezen" van smileys).
Ik vind het een mooie prestatie, maar in de praktijk heb je ook bij autisten te maken met mensen. Ze kunnen nog zo vaak een diagnose krijgen, maar dat betekent nog niet dat de behandeling voor allemaal hetzelfde is. Sterker nog, ik zie bij autisten meer diversiteit dan bij non-autisten. Maar goed, misschien kan het voor effectieve begeleiding in de eerste levensjaren zorgen waar ze anders pas later erachter komen dat het kind autistisch is.
Het doel is juist om autisme in een veel eerder stadium te kunnen voorspellen, zodat er vroegtijdig actie ondernomen kan worden. Dat staat natuurlijk verder helemaal los van jouw verhaal.

Ik vind het in ieder geval ook een mooie prestatie. Ik kan zo twee personen aanwijzen waarvan mijn onderbuikgevoel zijn dat ze een stoornis in het autistisch spectrum hebben, maar waarbij de ouders zeggen dat dit niet het geval is.
vraag me af hoe ze aan die 81% komen. pas als ze ouder zijn kan je zien of je gelijk hebt. als je bij de geboorte al een stempel op ze plakt kan je niet zien wat er zou gebeuren als ze normaal werden opgevoed(meestal als de ouders weten dat het kind autistis is word die anders opgevoed of ze dat nou express doen of niet)
Wat een onzin weer.
Mijn mening uit persoonlijke ervaring is toch nog altijd dat je iedereen gewoon als een mens moet behandelen.
Ga je iemand in een box plaatsen en anders behandelen verminder je hun vermogen om zich aan te passen aan de maatschappij en later normaal te functioneren in die maatschappij.
Vraag je dus niet af of iemand ziekte a of b heeft maar probeer gewoon iedereen hetzelfde te behandelen en te integreren in deze kromme wereld...

We zijn helemaal doorgeslagen in het labeltje plakken en vinden het dood normaal maar we hebben totaal geen besef wat labeltjes met mensen doet.

Het programma van j de mol is een goed voorbeeld.
Kids met downsyndroom die niets anders willen dan normaal behandeld worden ondanks dat ze goed weten dat ze een afwijking hebben maar door al onze labeltjes tegen gehouden en afgezonderd worden waardoor hun ontwikkeling tegen gehouden word.
Als iemand met het IQ en de gedachtegang van trump president kan worden en daarmee beslissingen voor honderden miljoenen mensen kan maken dan kan iedere autist of persoon met down syndroom dat ook.
Mits je ze de kans geeft om zich te ontwikkelen ipv ze af te schermen van de wereld.

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Samsung Galaxy S8+ LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One (Scorpio) Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True

*