Advertorial

Door Tweakers Partners

Tweakers-community aan de slag met modelleren covid-19-data

07-12-2020 • 07:57

33

Dit najaar organiseerden IBM en Tweakers een workshop over het verkennen en modelleren van corona-data. Het verslag hiervan stond enige tijd op Tweakers, maar vanwege de snel veranderende situatie rond het coronavirus in Nederland kozen we ervoor om het offline te halen. Omdat we de kennis niet verloren willen laten gaan (het modelleren van de genoemde gegevens kan de Nederlandse gezondheidszorg immers veel opleveren) en hem graag willen delen met onze community zetten we het verslag weer online. Dit is de eerste keer dat we dit doen. Mocht je hierover ideeën met ons willen delen dan horen wij dat graag. Hierover kun je met ons in gesprek gaan via [Discussie] Reclame algemeen. Hieronder kun je het artikel lezen:

Voor datascientists zijn de grote hoeveelheden data over het coronavirus zeer bruikbaar voor het verkrijgen van belangrijke inzichten. Tijdens een online workshop van IBM en Tweakers leerden deelnemers hoe zij deze gegevens kunnen verkennen en modelleren, en wat dit kan opleveren voor Nederlandse ziekenhuizen.

Meld je aan voor het Tweakers & IBM Choirless webinar

Op dinsdag 8 december organiseren Tweakers & IBM een webinar over de toepassing Choirless. In een live codingsessie laat het core-devteam zien hoe dit is mogelijk gemaakt.

Meld je hier aan!

Tijdens het door Tweakers en IBM georganiseerde event over machinelearning en modelleren op 22 september kon de Tweakers-community aan de slag met de modellen van IBM’s developer advocate Damiaan Zwietering. Die modellen zijn nog volop in ontwikkeling, maar ze zijn nu al zeer leerzaam. Het grote verschil met andere modellen en statistische analyses is dat Zwietering op basis van voortschrijdend inzicht het verloop van afzonderlijke besmettingsgolven kan analyseren. Dit geeft antwoord op een belangrijke vraag: zijn nieuwe cijfers het gevolg van een nieuwe megagolf, of zijn ze het resultaat van een optelsom van verschillende kleinere golven?

De workshop begon met een interactieve discussie onder leiding van Justin Halsall, hacker en oprichter van Record Once. Het panel werd gevormd door Zwietering, Frank Everaardt (techjournalist van Tweakers) en intensivist dr. Piet Melief. Als landelijk coördinator van de intensivecare-capaciteit stond Melief enkele maanden geleden voor een grote uitdaging omdat het aantal coronabesmettingen in Nederland weer snel toenam. Het verplaatsen van patiënten kan ervoor zorgen dat in alle ziekenhuizen voldoende ic-bedden beschikbaar blijven. Maar hiervoor is natuurlijk wel inzicht nodig in hoe uitbraken zich ontwikkelen. Melief toonde zich geïnteresseerd in de (door)ontwikkeling van de modellen van Zwietering, die hiervoor cijfers van het EU Center for Disease Control (CDC) en data van het RIVM gebruikt.

Het verschil tussen rapportages en werkelijkheid

Data rond ziekenhuisopnames lenen zich niet zomaar voor modelleren, daar is een kritisch oog voor nodig. Dit heeft bijvoorbeeld te maken met de manier waarop deze gegevens worden verzameld. In veel gevallen gebeurt dit niet aan de hand van ‘real-time’ reporting in moderne databases. Doorgaans vullen ziekenhuizen Excel-bestanden in en worden ze nagebeld door de GGD en het RIVM, zo legde Melief tijdens het event uit. Daarmee kwam naar voren dat er een verschil is tussen de ‘rapportage-werkelijkheid’ en de ‘werkelijke werkelijkheid’. In de praktijk worden nieuwe opnames die plaatsvinden in het weekend vaak bijvoorbeeld pas op dinsdag geregistreerd. Zonder correctie leidt dit tot opvallende pieken in modellen.

Zwietering heeft dit meegenomen in zijn werk. Met datasets van in totaal 180 landen moest hij tal van keuzes maken om bias in zijn modellen te voorkomen. De datascientist gaf als tip mee om altijd met een minimale dataset te beginnen. “In mijn geval telde hij drie kolommen: datum, aantallen besmettingen en locatie. Vervolgens praat je met experts over de afwijkingen die je ziet, bijvoorbeeld het zojuist genoemde rapportage-effect.”

In de modellen van Zwietering is duidelijk zichtbaar dat er verschillende ‘onderstromen’ zijn die samen een grotere golf kunnen vormen. In de discussie kwam de vraag naar voren aan welke informatie de meeste behoefte is bij het plannen van ic-capaciteit. Dat bleken gegevens te zijn waarmee stijgingen en dalingen in nieuwe besmettingsaantallen vroegtijdig worden gezien.

Cijfers zijn gevolg van menselijk gedrag

Zwietering maakte onder meer gebruik van de Gumbel-distributie en modellen uit predictive maintenance en het verzekeringswezen. Het resultaat is overigens geen predictie, zo legde Zwietering duidelijk uit: “De cijfers zijn een gevolg van menselijk gedrag op basis van de omstandigheden waarin zij zich bevinden. Daarbij heb je te maken met een enorme hoeveelheid variabelen, waardoor giswerk nodig zou zijn om te kunnen voorspellen. Wél kan ik zien hoe we tot de huidige situatie zijn gekomen en waar we in de curve zitten, en ik kan dit vervolgens projecteren naar de toekomst.”

Een datascientist is vaak bezig met het tegenwerken van zijn eigen interpretatie. Een bepaald inzicht kan immers leiden tot nieuwe (overheids)maatregelen die er op hun beurt voor zorgen dat zo’n mogelijke curve er niet komt. Zwietering nam een Amerikaanse staat als voorbeeld, waar een plotselinge lockdown zorgde voor de helft minder nieuwe besmettingen dan de 30.000 die Zwietering in zijn modellen zag ontstaan. Zulke scenario’s zouden in Nederland tot vragen kunnen leiden over de genomen maatregelen, denkt Melief. “Als we het straks met z’n allen goed hebben gedaan, kan het zijn dat er kritische vragen komen. Maar met die manier van denken kun je ook wel alle vaccinatieprogramma’s stopzetten.”

Twaalfde golf

In de online workshop gebruikten deelnemers Jupyter Notebooks die ze in de IBM Cloud of lokaal konden draaien. Modellen en datasets waren in te laden vanaf een git repository. Vervolgens was het mogelijk zelf nieuwe data van onder meer de EU CDC in te laden en output te genereren. Zo werd zichtbaar dat we in Nederland niet in de tweede golf zitten, zoals in de media vaak wordt gesteld, maar er inmiddels al sprake is van twaalf duidelijk van elkaar te onderscheiden golven.

Middels een clustering-algoritme maken de modellen onderscheid tussen golven. Zwietering: “Elke uitbraak vertoont in statistisch opzicht dezelfde verdeling, dat is de Gumbel-distributie. Deze groepeer ik zodat ze een goede representatie geven.” Over het algemeen leken de deelnemers de materie goed bij te benen en in de chat kwamen enthousiaste reacties binnen. Na enkele opstartproblemen (vooral adblockers bleken een boosdoener) kon vrijwel iedereen verder met de default Python-runtime in de IBM Cloud. Er werden interessante vragen behandeld, bijvoorbeeld over waarom Zwietering absolute aantallen in zijn modellen verkiest boven percentages (hier bleek hij voor te kiezen omdat kleine landen, zoals het Vaticaan, percentueel grote uitschieters kunnen vertonen). Hier en daar kwamen bizarre uitschieters in modellen aan de orde, zoals een piek in Chinese cijfers die het gevolg was van het plotseling registreren van grote aantallen niet eerder geregistreerde gevallen. Wie hierover meer wil weten, kan kijken naar de replay. Developers en/of datascientists zijn welkom om op basis van de curves hun eigen analyses verder uit te werken.

Geen waardeoordelen

Tot slot kwamen privacy en ethiek tijdens de workshop en het rondetafelgesprek veelvuldig aan de orde. Achter elk cijfertje schuilt immers een mens. “Ethiek en bias zijn geen ticks in the box”, gaf Zwietering mee. Zelf blijft hij daarom het liefst ver uit de buurt van waardeoordelen. “Dat is niet aan mij. Wel hoop ik straks met de kerst te zien dat de golf kleiner is dan die tijdens het voorjaar, omdat we dan geleerd hebben hoe we ermee om moeten gaan.”

Dit artikel is geen redactioneel artikel, maar een advertorial en tot stand gekomen dankzij IBM en Tweakers Partners. Dit is de afdeling binnen Tweakers die verantwoordelijk is voor commerciële samenwerkingen, winacties en Tweakers-events zoals Meet-ups, Developers Summit, Testfest en meer. Kijk hier voor een overzicht van alle acties en events. Mocht je ideeën met ons willen delen over deze vorm van adverteren, dan horen wij dat graag. Hierover kun je met ons in gesprek via [Discussie] Reclame algemeen].

Reacties (33)

33
31
20
2
0
8
Wijzig sortering

Sorteer op:

Weergave:

Helaas is ook hier het uitgangspunt weer dat de achterliggende gegevens bruikbaar zijn. Niets is minder waar....

Bij het analyseren van data moet je er van uit kunnen gaan dat alle gegevens een zelfde, of soortgelijke, basis hebben. De COVID gegevens hebben niets van dat.
- Ieder land heeft een andere definitie van besmetting en een andere definitie van "COVID dode". Daarmee is data tussen verschillende landen absoluut onvergelijkbaar.
- Maar nog veel erger: Voor de meeste landen geld dat de definitie over de loop van het jaar verandert is. Daarmee is data binnen een land dus ook niet vergelijkbaar.
- En als laatste: De onderliggende manier van testen is door de loop van het jaar verandert. Daarmee is de meta-basis, die dus al verandert is, ook nog eens instabiel.

Al met al kunnen er gerust 2 tot 3 ordergroottes verschil zitten in de definitie van de data. Daarmee is iedere statistische analyse van de getallen die hier als basis gebruikt worden complete nonsense. Ik kan vergelijkbare resultaten krijgen door het verloop van de kleur van een appel te vergelijken met de windrichting in radialen.

Ofwel: Het is leuk om met deze getallen te spelen maar de betekenis van de getallen is er niet. Je hebt data die onmogelijk tot informatie te verwerken is.
Een dergelijke "can't do" houding is natuurlijk niet productief.

Je kritiek is niet onredelijk. Trends zijn lastig te meten als de onderliggende definities niet stabiel zijn. Maar zoals het artikel al noemt, er zijn wiskundige methoden om het te ondervangen. Het voorbeeld van de week-cyclus is te ondervangen door een voortschrijdend 7-daags gemiddelde.

Landen verschillen in definitie van "covid code", ja. Ze verschillen ook in definitie van "covid besmetting". De criteria voor de opname op een IC zullen ook verschillen. Oversterfte tenslotte is een niet heel erg nauwkeurige maat. Maar deze getallen hebben wel een sterke onderlinge correlatie, die het gevolg is van de ziekte en niet van toevallige definities. Dit maakt normalisatie mogelijk.

Het is voor iedereen duidelijk dat je Covid nooit met een precisie van 1 persoon kunt gaan meten, maar dat is ook niet vereist. Een voorspelling kan ook met minder nauwkeurigheid nog steeds bruikbaar zijn.
Een dergelijke "can't do" houding is natuurlijk niet productief.
Wat niet productief is, is proberen conclusies te trekken uit gebakken lucht. Soms is het beter om niets te zeggen dan iets te zeggen wat onderbouwd is met nonsense.
Landen verschillen in definitie van "covid code", ja. Ze verschillen ook in definitie van "covid besmetting". De criteria voor de opname op een IC zullen ook verschillen. Oversterfte tenslotte is een niet heel erg nauwkeurige maat. Maar deze getallen hebben wel een sterke onderlinge correlatie, die het gevolg is van de ziekte en niet van toevallige definities. Dit maakt normalisatie mogelijk.
Het probleem is dat de definities dusdanige ver uit elkaar liggen dat er geen correlatie meer mogelijk is. Als één land in één week als definitie van "Covid dode" gebruikt: Iemand die overleden is na een positieve test, en vervolgens weigert de grootste risico groep te testen, terwijl een ander land "Alle oversterfte" gebruikt voor hetzelfde getal, vervolgens dat per week kan veranderen, dan is er geen correlatie, dan is er alleen drijfzand.
Het is voor iedereen duidelijk dat je Covid nooit met een precisie van 1 persoon kunt gaan meten, maar dat is ook niet vereist. Een voorspelling kan ook met minder nauwkeurigheid nog steeds bruikbaar zijn.
Er wordt hier gesproken over het voorspellen van een verloop in één land door te kijken naar een verloop in een ander land. Echter is niet alleen de definitie binnen het ene land anders dan die binnen het andere land, ook de definitie binnen één land is niet stabiel. Daarmee is het verloop van een land dus geen gegeven meer omdat zelfs het vergelijk van week op week mank gaat.

De data is op zoveel niveaus vervuild dat iedere gevonden correlatie een hogere waarschijnlijkheid van toeval dan één van patroon heeft. En als je al een hoge waarschijnlijkheid in een model weet te krijgen dan is dat meer waarschijnlijk te wijten aan overfitting dan aan een daadwerkelijk gevonden patroon. Maar ook dat is weer niet te controleren omdat er niet genoeg betrouwbare test data is.

Het grote gevaar aan al dit soort "analyses" is dat men er conclusies aan gaat verbinden. Conclusies die vervolgens twee weken later weer aangepast moeten worden omdat er een andere meet methode is die andere cijfers laat zien. Het resultaat is dat het vertrouwen in de maatregelen ondermijnd wordt door onbetrouwbare brondata. En dat is veel gevaarlijker dan te zeggen "We weten het niet maar ons idee is dat deze maatregelen het beste zullen werken"
(nog los van het feit dat er ook een probleem zit bij de vraagstelling en analyses daardoor ook sterk vermindert toepasbaar worden. We weten niet welke vraag we aan de data willen stellen dus schieten we er maar met hagel op en hopen dat er iets blijft plakken)
Interessant dat je dat voorspellen erin leest, terwijl dat juist expliciet ontkend wordt. De sessie ging juist over alles wat je in de praktijk tegenkomt en hierboven ook noemt.
Dit maak ikzelf in de praktijk ook te vaak mee.
Getallen vergelijken zonder dat je daadwerkelijk weet wat die getallen nu inhouden.

Daarnaast moet je ook bij de analyse kunnen toetsen of je uitkomsten wel kunnen kloppen.
Voorbeeld: wat al je constateert dat er in Nederland 100 miljoen unieke bestemmingen zouden zijn. Tenminste dat zegt je analyse.

Daarvan kun je nu al zeggen dat dat waarschijnlijk niet klopt.

Het is leuk om mee te stoeien, maar voor een goed onderbouwde analyse is meer nodig dan alleen maar een 'bak' aan data.
Yup. Teveel mensen zijn hier mee bezig die helemaal niet de vraag stellen "Wat is een besmetting nou eigenlijk?". Als men dat wel zou doen zouden de honderden antwoorden al heel snel duidelijk maken dat er niet zoiets bestaat als "Een Besmetting" en dus ook niet zoiets als bruikbare "COVID-19 gegevens"

Dit is overigens ook de voornaamste reden dat het COVID-19 dashboard van de overheid er nooit gekomen is (tenminste niet in een dusdanige vorm dat het ook gebruikt wordt); er is simpelweg geen basis om zo'n dashboard met werkelijke gegevens te vullen.

[Reactie gewijzigd door Croga op 24 juli 2024 11:39]

Zo is het, maar dat was nou juist de discussie. Wat kan je er wél van leren? Misschien wel precies wat jij zegt, maar als je dat van tevoren al aanneemt kom je nooit ergens. Kijk gerust nog eens naar de replay en dan discussieer ik graag verder.
Een twitter draadje van de IC over wat er achter de cijfers gebeurd en waarom deze neit zoveel zegge:

https://twitter.com/about.../1335900859616669696?s=20
Wordt er ook covid data gekoppeld aan een database met weer? Om zo te kunnen zien of temperatuur of luchtvochtigheid invloed heeft?
Dan kom je bij het verschil tussen correlatie en oorzaak.
Als je een correlatie vindt (die is er vast) dan is het de vraag wat het mechanisme is. Mensen wandelen niet meer buiten, maar zoeken elkaar thuis op bijvoorbeeld.
(De vorige data-analist die het op luchtvochtigheid gooide had het overigens niet helemaal begrepen. Die ging zoeken naar parameters totdat er 'een fit' was en had daar de absolute luchtvochtigheid voor nodig.
Nou gebruikt niemand in de biologie de absolute luchtvochtigheid, dus dat wordt heel onwaarschijnlijk. Op dezelfde manier kan je ook werkende medicijnen ontdekken. Doe een steekproef en "ontdek" dat het werkt voor mensen met een achternaam die begint met de letters f, j of p, en die geboren zijn in een oneven jaartal.)
Het is niet erg om op die manier op zoek te gaan naar mogelijke oorzaken in een dataset, maar die hypothese moet je dan wel toetsen in een compleet onafhankelijke dataset.

En ik kan me inderdaad voorstellen dat de eerste letter van de achternaam een correlatie heeft met de werking van medicijnen. Beiden correleren met etniciteit.
Bij de test van medicijnen is men (terecht) veel strenger. Men kiest het te behalen resultaat (endpoint), bijvoorbeeld "overleving na 6 maanden". En de testpopulatie wordt samengesteld.
En na 6 maanden wordt gekeken wie er placebo had en wie niet.
Naderhand selecteren (het werkt alleen bij ...) leidt niet tot een goedkeuring maar tot een nieuw onderzoek (zodat heel duidelijk is dat die onafhankelijke dataset niet 'ook al bekeken' is).
Op die manier voorkom je (bijvoorbeeld) het afbreken van de test op het moment dat de resultaten eventjes gunstig zijn. Of het maken van al-dan-niet relevante selecties achteraf.
Vond de sessie van 22 september niet al te best...

IBM heeft zijn cloud omgeving, waarin alles had moeten werken.

Enkel de code door Zwietering op git geplaatst had nog lokale verwijzingen in de code staan.

Hierdoor moest ik eerst bekend worden met de cloud omgeving en daarna de code debuggen. Uiteindelijk wel gelukt, maar voor mij als noob op dit gebied en waardeloze ervaring. Je zou toch verwachten dat een bedrijf als IBM zoiets zeer goed voorbereid, althans ik wel.
Jammer dat je dat zo ervaren hebt. Het idee was juist discussiëren en experimenteren, hoe raak je thuis in een nieuwe dataset, hoe zet je een omgeving op, etc. en zeker niet om te laten zien hoe het volgens ons zou moeten. Fouten in de code zijn er altijd, veel deelnemers vonden het juist erg interessant om te zien hoe we die live hebben rechtgezet op basis van hun opmerkingen.
Dit vind ik zelf één van de beste voorstellingen van COVID19 data:
https://www.youtube.com/watch?v=eeiguFaRil0

Naargelang de bewegingen op de grafiek kan je aan de hand van de andere landen zien hoe waar je heen gaat. Hier in België is er discussie geweest over de interpretatie van de cijfers en of er een tweede golf zou komen.

Die is er dus duidelijk gekomen, maar als je enkel naar de cijfers van 1 land kijkt, is het moeilijker om een trend te zien. Tenzij je gewoon naar de economie kijkt en cijfers gewoon gaat interpreteren op de manier die je het beste uitkomt. De lande die het streng aangepakt hebben, zien minder weerslag op hun economie. Niet dat dit uit dit grafiekje blijkt, maar ze kunnen meer onder normale omstandigheden opereren.
Interessant, die had ik nog niet gezien. Mijn doel is voorlopig om te begrijpen hoe een uitbraak eruit ziet en daarvoor naar de overeenkomsten tussen landen te kijken, met het idee dat als je overeenkomsten kan vinden tussen twee totaal verschillende landen, dat die overeenkomst waarschijnlijk een algemene waarheid is. Omdat ik die nog niet sluitend gevonden heb heb ik me even gericht op een 'alert level' per regio, van waaruit je kan doorklikken naar een curve fit van de onderliggende data. Allemaal erg experimenteel nog, maar je kan eens rondkijken op https://dzwietering.gitlab.io/coralwmc/zzcoralwmc.html. Source is beschikbaar op https://gitlab.com/dzwietering/coralwmc.
Nice!

Waarschijnlijk zou je ook nog moeten rekening houden met uitgevaardigde maatregelen, of eerder, afleiden aan de hand van de data wanneer de maatregelen ingevoerd werden.
Ik zou later de video bekeken. Maar waarom is er minder dood in Belgie tijdens 2de golf ?
- Eerst in elke landen gebruikt men niet meer automatische "entubatie" (lucht pijpen in de longen met zware gevolgen), dit behandeling was vaak niet noodzakelijk en zelf gevaarlijk. Kans van overleving is overal gestegen. Hetzelfde redenering geldt voor een drugs die nu is standart procedure.
- Nu in Belgie zijn de oudste mensen niet meer in de steek gelaten zoals in maart, ze krijgen toegang to ziekenhuizen.
- Men spreekt over 1500 covid doden zonder namen in de data van maart in Belgie. Ze zijn toch opgenomen.
- Groepsimmuniteit in Belgie is blijkbaar begonnen 4 dagen voor de 2de lockdown. Volgen een beslissing 2 weken eerder, worden mensen niet meer getest als ze geen symptom tonen. De besmetinggrad heeft toch gedaald. Logish want we testen alleen antistof/ b cell voor immuniteit. 1° T cell bestaan (elke student arts ken dat) 2° veel genezen mensen tonen laag antistof. Een voorstudie voor een vaccijn op basis van antistof moest dit weten. Op 143 genezen uit het ziekenhuis tonen een maand later 33% geen antistof en 50% zeer laag antistof.
De lande die het streng aangepakt hebben, zien minder weerslag op hun economie.
Wil je over China spreken? Genetiek verschillen tussen asiaten en westerse was hot topic in augustus. Nu het is nooit meer gesproken. Zuidkorea heeft geen lockdown moeten eisen. Hetzelfde voor Vietnam enzovoort.

[Reactie gewijzigd door Xavvv op 24 juli 2024 11:39]

Voor de tweede golf zaten we op net geen 10.000 doden. Van juni tot oktober zaten we ongeveer aan 5 per dag.

Nu zitten we aan 17.000 doden en nog steeds aan meer dan 100 doden per dag. Ik zou niet durven zeggen dat het in de tweede golf beter gaat, niet in het minst omdat er in de eerst golf in de rusthuizen een echte ravage werd aangericht.

Men is gestopt met testen in de tweede golf omdat er teveel besmettingen waren en de labo's het gewoon niet meer konden bijhouden. In de eerste golf was er al helemaal geen testmateriaal. Testen heeft enkel zin als je niet met een wijdverbreide uitbraak zit. Door contact tracing kan je dan preventief mensen in quarantaine zetten.

De behandelingsmethoden werden inderdaad aangepast. Als je daarmee mensen van de dood redt gaan ze waarschijnlijk wel langere tijd in het ziekenhuis verblijven.
Ik heb hier totaal geen vertrouwen in die corona tests en al helemaal niet in de Apps.

1 Het is laatst gebleken dat de corona tests slechts voor 40% betrouwbaar zijn. In het nieuws was dat er een test was gedaan bij een proefpersoon die niets mankeerde hij liet zich twee maal testen op dezelfde dag resultaat 1x positief en 1x negatief.

2 Die app is ook omstreden omdat bluetooth signalen dwars door glas en muren heen gaan en dus iemand in een andere ruimte of gebouw kan waarnemen die vervolgens wel besmet kan zijn.

Bluetooth heeft een bereik tot 30 meter laten we 10 meter nemen dat is nog een hele afstand.

Dus de vraag hoe betrouwbaar is het allemaal. Voor dat je het weet zit je 2 weken voor niets in corona quarantaine.
1 Het is laatst gebleken dat de corona tests slechts voor 40% betrouwbaar zijn. In het nieuws was dat er een test was gedaan bij een proefpersoon die niets mankeerde hij liet zich twee maal testen op dezelfde dag resultaat 1x positief en 1x negatief.
Welke test ? PCR in nozen zijn vaak valse positief. Er blijft stuk virus hangen lang na genezing. Antistof in bloed zijn vaak valse negatief. Genezen mensen testen vaak negatief. Er is ook minder betrouwbaar testen met saliva.
Yep dat bedoel ik die testen zijn niet te vertrouwen de enige test die betrouwbaar is, dat is bloed onderzoek in het laboratorium.
Precies, daarom is objectieve analyse van data zo belangrijk. Zoals in de sessie ook benoemd, je komt eerst problemen met de data tegen (vervuiling, aannames, etc.) dan effecten vanuit het verwerkingsproces (meer aannames, meetmethodes, correcties, etc.) en als je die in beeld hebt kom je er wellicht achter wat er echt aan de hand is. Soms blijf je in de eerste of tweede stap hangen, maar dan heb je in ieder geval een objectieve reden om te concluderen dat de data niet bruikbaar is voor de derde stap en kan je wellicht actie ondernemen om ervoor te zorgen dat dat wel zo wordt. Met alleen maar roepen 'ik vertrouw het niet' kom je niet veel verder, en al helemaal niet als je vervolgens anekdotisch bewijs aanvoert om je onderbuikgevoel te ondersteunen.
Ik snap niet dat je gedownmod wordt omdat je naar het grootste 'modelleren van data' subreddit verwijst...

Ter info: Deze subreddit heeft als doel: A place to share and discuss visual representations of data: Graphs, charts, maps, etc.

Meer on-topic kan het niet...
Je wordt gedownmod omdat je niets aan de discussie bijdraagt met een linkje naar een generiek forum over data zonder enige tekstuele toelichting.

Alsof iemand er wat aan heeft wanneer er hier Wikipedia linkjes naar COVID geplaatst worden. Meer on-topic kan het toch niet :+ !?

[Reactie gewijzigd door unglaublich op 24 juli 2024 11:39]

Nog een mooi data modelleer artikel uitgewerkt over verspreiding van Covid-19:
https://english.elpais.co...read-through-the-air.html
"het virus verplaatst zich wel door de lucht maar er zijn geen gevallen bekend waar dit over meer dan 1,5m is gebeurd" :+

En ohja.. "kinderen lijken het virus niet of nauwelijks te verspreiden"

En voila... Met zulke tunnelvisie bij de beleidsmakers hebben data-analyses ineens zeer weinig nut meer.

[Reactie gewijzigd door Sergelwd op 24 juli 2024 11:39]

Precies..
Alleen 1,5 meter is niet voldoende....

Wellicht kan Rutte ook eens het verhaal van Aerosolen en ventilatie noemen dan alleen maar 1,5 meter en handen stuk wassen.....
Niet dat dit de plek voor die discussie is maar 6 personen mag niet en ventileren word ook al tijden geadviseerd.
dankje ik wacht op update . :) :)

Op dit item kan niet meer gereageerd worden.