Tumblr bleek bij audit kinderporno te bevatten

Bij een audit is er op blogplatform Tumblr kinderporno gevonden. Dat heeft het bedrijf zelf bekendgemaakt. Het is kinderporno die nog niet eerder online was aangetroffen. De vondst is de reden dat Apple de Tumblr-app uit de iOS App Store heeft verwijderd.

De kinderporno is inmiddels verwijderd, zegt het blogplatform in een statement. Het bedrijf gaat er niet op in om wat voor materiaal het gaat en wat er is gebeurd met de gebruikers die het op Tumblr hebben gezet. Het materiaal stond niet in databases van organisaties als het Amerikaanse Nationaal Centrum voor Vermiste en Misbruikte Kinderen, zo zegt het bedrijf.

De kinderporno kwam naar boven tijdens een reguliere audit van dingen die op Tumblr zijn verschenen. Omdat het niet in de kinderpornodatabases staat, kwam het tijdens gewone scans niet naar boven. Het is onduidelijk of het gaat om een interne audit of eentje van een extern bedrijf.

Apple heeft naar aanleiding van de ontdekking de Tumblr-app verwijderd uit de App Store. Dat gebeurde rond het weekend, maar het was eerder onduidelijk waardoor het kwam. Nu het materiaal is verwijderd, zal de iPhone-maker vermoedelijk Tumblr weer toelaten in zijn downloadwinkel. Tumblr was enkele jaren van Yahoo en is nu onderdeel van Oath.

Door Arnoud Wokke

Redacteur

20-11-2018 • 06:30

143 Linkedin

Reacties (143)

143
130
77
19
1
32
Wijzig sortering
Ik en vele anderen die ik ken hebben meerdere malen melding gemaakt van zulke content op het platform, echt schrikbarend hoeveel er op te vinden is, maar het support team heeft er nooit iets mee gedaan. Nu is het "ineens" gevonden bij een audit?

edit: Ik zie in de reacties heel veel mensen die niet weten waar ze het over hebben en reageren alsof dit geen probleem is, en het weer eens wordt opgeblazen door de media. Ik kan persoonlijk vertellen dat dit absoluut niet het geval is. Er zijn al jarenlang echt schrikbarende foto's en filmpjes van kinderen en adolescenten te vinden (niet je "tasteful, suggestive modefoto's" of hoe je het ook wil verdedigen.
Ja, dit probleem speelt op meerdere platforms dan alleen tumblr, maar dat betekent niet dat het geen probleem is, sommige platforms zijn vrij serieus in het verwijderen van zulke content (voordat het aan het licht komt). Bij tumblr is dat niet het geval, het is al tijden bekend dat dit soort content gedeeld wordt op het platform en zeer veel gebruikers hebben er dus medling van gemaakt, maar ik heb in 2 jaar, nog nooit één van die gebruikers gebanned zien worden. NUL! Dat is in mijn ogen niet een ongeluk, of dat ze erover heen hebben gekeken. Dat is gewoon faciliteren van.

[Reactie gewijzigd door muvori op 20 november 2018 12:44]

Nu haalt het de media aandacht.

Dat is ook met FB zo, er staat van alles wat tegen de regels ingaat.
Maak je er melding van als individu, dan gebeurt er zeer waarschijnlijk helemaal niets mee.
Maar haalt het de media....
Ligt er ook aan wat je precies rapporteert. Wat de een ziet als kinderporno, ziet de ander niet zo. Foto's van kinderen in een badje bijv, mag dat? Of mooie professionele modefoto's zonder naakt maar wel suggestief? De grens is te grijs in veel gevallen, dus veel zal gewoon blijven staan ofwel omdat het simpelweg legaal is, ofwel omdat ze het niet eens zijn met de claim.

[Reactie gewijzigd door _Thanatos_ op 20 november 2018 12:27]

Laten we zeggen dat wat ik voorbij heb zien komen verre van legaal was (verkrachting etc.). Ik vind het echt walgelijk dat men hier in de reacties het maar voor laten komen alsof het niets was en iedereen maar overreact, maar dit is gewoon echt een probleem.
Dat het een probleem is, sure. Maar het enige dat je kunt doen, is het aangeven bij Tumblr.
Tumblr als bedrijf aansprakelijk houden voor de kinderporno vind ik onterecht, omdat zij dit niet zelf willens en wetens op de servers hebben gezet. Je kunt ze hooguit aansprakelijk stellen voor nalatigheid.
Lees je niet wat ik zeg? men heeft het al aangegeven bij tumblr, maar zij doen er niks mee. Als je als bedrijf niet actief meewerkt aan de verwijdering van zulke content, dan ben je zeker aansprakelijk voor die content. Nalatigheid is niet van toepassing als ze zelfs terwijl ze weten dat er zulke content is, de content nog in de lucht houden.
Nee, dan nog vind ik aansprakelijk stellen onterecht. Als jij geen tijd hebt (of whatever) om te getuigen voor een moord, ben je ook niet opeens de dader.

En ik heb wel degelijk gelezen wat je schreef. Ik geef gewoon aan dat dat het enige is dat je kunt doen. Dus je hebt je best gedaan, en meer kun je niet doen. Je bent overgeleverd aan de wil, kunde en tijd van Tumblr om het probleem verder op te pakken. De wereld is nou eenmaal niet perfect.
Nee, dan nog vind ik aansprakelijk stellen onterecht. Als jij geen tijd hebt (of whatever) om te getuigen voor een moord, ben je ook niet opeens de dader.
Is het dan niet zo dat als je het niet meld of niet meewerkt/tegenwerkt aan het onderzoek dat je dan ook indirect schuldig ben? Of is dit echt een fabel van de tv wereld?
Geen idee hoe dat zit in de USA, maar er zitten sowieso allerlei mitsen en maren aan. Zolang een bedrijf kan hardmaken dat ze alle beschikbare middelen hebben gebruikt om het probleem te bestrijden, kun je ze eigenlijk niets kwalijk nemen, hoe slecht die prestatie ook was. Want wie weet hebben ze gewoon weinig middelen.

Als je een probleem ziet op youtube, krijg je helemal nul op het rekest. En daar zit een nog veel groter bedrijf achter. Dus wat Tumblr ook doet, is beter dan wat je van Google kunt terugverwachten :)

[Reactie gewijzigd door _Thanatos_ op 20 november 2018 20:23]

'Je bent overgeleverd aan de wil, kunde en tijd van Tumblr.

Ja hallo, dat is makkelijk. Ik mag toch hopen dat de werknemers het ethisch besef hebben dat de wil ertoe tot bestaat. Bij het laatste vind ik dat je redelijk overtuigend kunt beargumenteren dat je hiervoor in ieder geval alle nodige middelen ertoe aanwendt.

In beide gevallen mag je hiervoor het bedrijf, wellicht het bestuur, verantwoordelijk en zo niet aansprakelijk houden. In het eerste geval nog sterker dan het laatste.

Als dit wellicht een boel geld kost, en daardoor je verdienmodel minder interessant is; dan moet je op andere plekken investeren. En wat muvori terecht aankaart is, dat het sterk lijkt dat zelfs de wil om dit serieus aan en op te pakken ontbrak.

Onze samenleving is niet overgelaten aan cowboy ondernemers en bestuurders die denken dat ze alles kunnen maken en ermee wegkomen.
Het is anderzijds onredelijk om te verwachten, of zelfs te eisen, dat een bedrijf alles opzij legt om jouw klacht te behandelen. Want bedenk wel: op het moment dat jouw klacht binnenkomt, is er nog niets bewezen. Alleen het tekstje "die en die gebruiker heeft kinderporno", met misschien een linkje erbij. Dat gebeurt vast vaker als gebruikers proberen elkaar zwart te maken.

Als je een klacht stuurt naar welk bedrijf dan ook, komt je bericht gewoon onderaan de stapel. Het duurt dan gewoon X tijd voordat ze naar je bericht kijken. Dat kun je leuk vinden of niet, maar resources zijn nou eenmaal niet oneindig.
Je doet net alsof het organiseren van een ordentelijke klachtendesk met realistische doorlooptijden van dit soort klachten onmogelijk is voor een groot bedrijf met resources als Tumblr. Dit zou binnen 24 uur moeten en kunnen worden opgepakt. Niet iedereen werkzaam daar hoeft hiervoor `á la minute' zijn werk te laten liggen.

Je voorbeeld dat gebruikers anderen onterecht zwart maken is natuurlijk geen reden om dit niet te doen, bovendien kun je ook hier tegenop treden, Mocht dit zo vaak bij een specifieke gebruiker voorkomt.
Je doet nu alleen wel veel aannames die je niet kunt verifiëren.
Ik denk dat dit ook deels is omdat politiek en veiligheidsdiensten de term "kinderporno" nog wel eens willen gebruiken om privacy schendende regels goed te praten. Ook nieuwsberichten waaruit blijkt dat er compleet onschuldige of historische foto's van Facebook worden gehaald helpen niet mee. Als er dan in het nieuwsbericht geen verder informatie staat is het voor de lezers maar gissen om welk soort foto's het hier gaat.
Ik verbaas me altijd dat mensen dit dus tegen komen, als je er niet expliciet er op zoek naar bent.
Nu zit ik eigenlijk al vanaf de eerste dag internet in Nederland aanwezig is op het net, en kom deze crap nooit tegen met normaal gebruik, en ik zit toch soms echt naar soms laten we het netjes zeggen, op het randje van legale/illegale zaken te zoeken online, dat me soms echt naar vunzige sites brengen waar je echt rode oortjes van krijgt, toch Kinderporno kom ik GELUKKIG nagenoeg nooit tegen.

Nu ligt mijn interesse ook niet echt bij Porno en Seks en zoek daar ook niet gericht op, maar zeker als je je bezig houd met de wat de schaduwkant van online aanbod van kennis, iets wat onvermijdelijk is om tegen te komen, maar toch ondanks ik het meest vunzige ondertussen wel heb gezien, kinderporno is me gelukkig bespaart gebleven

Uit antwoorden hier lijkt het dus voornamelijk weer met Mainstream sociaal media voornamelijk voor te komen, waar ondanks diverse controle systemen etc, dus niets mee word gedaan.
Terwijl het gedeelte waar ik vaak tussen loop te surfen in de volksmond word gezien als het duistere en gevaarlijke gedeelte van het net, en ook idd alles is te vinden, behalve dat dus.

Apart.
Ik zat vroeger heel vaak op de art en gaming boards van 4chan, voor 4chan meteen geassocieerd werd met de beerput van het internet.

Op een avond wat aan het rondklikken tussen de categorieen, kom je bij een categorie 'random', het befaamde /b/ board.

Random? Klinkt niet vreemd, gewoon wat content die nergens anders thuishoort. Eerste 5 pics op het scherm was naakt, waar ik me toen van afvroeg of dit wel wettelijk was.

Board gesloten, nooit meer teruggegaan om het nader te onderzoeken, maar dit maar om aan te tonen dat je met user generated content op 2 clicks naar iets kunt gaan waar je ECHT niet wil zijn, zonder verkeerde intenties.
Ik verbaas me altijd dat mensen dit dus tegen komen, als je er niet expliciet er op zoek naar bent.
Nu zit ik eigenlijk al vanaf de eerste dag internet in Nederland aanwezig is op het net, en kom deze crap nooit tegen met normaal gebruik, en ik zit toch soms echt naar soms laten we het netjes zeggen, op het randje van legale/illegale zaken te zoeken online, dat me soms echt naar vunzige sites brengen waar je echt rode oortjes van krijgt, toch Kinderporno kom ik GELUKKIG nagenoeg nooit tegen.
Je bent het dus wel eens tegen gekomen.

Nu ik ben het ook op Tumblr tegen gekomen en daarvoor niet eens heel gekke zoekopdracht gebruikt.
Ik kwam een mooie foto tegen van een kind in een herfstbos niks mis mee gewoon een leuke plaat.
In de tags stond "child model" die klikte ik aan en ineens had ik daar ook al kinderen in badkleding. Toen ik een blog daarvan aan klikte en keek wat die zoal deelde was dat al iets minder netjes, nog altijd zwemkleding maar de focus lag toch op "cameltoe" en de billen. Als ik keek bij de likes van dat blog waren daar ook nudisten foto's van kinderen en zelfs hardcore kinderporno foto's. Dat blog heb ik natuurlijk aangegeven.

Zo doorklikken is niet lastig toch? Doe ik altijd onder fandoms zoals bijvoorbeeld Merlin, King Arthur, Harry potter, etc.

Het is nu veel makkelijker om kp te maken en te distribueren dan vroeger.
Als kinderen zichzelf al online profileren in hun ondergoed op sociale media maakt het dat natuurlijk wel heel makkelijk. Mannen/vrouwen hoeven ze alleen maar aan te moedigen om andere handelingen te doen.
Nu ligt mijn interesse ook niet echt bij Porno en Seks en zoek daar ook niet gericht op, maar zeker als je je bezig houd met de wat de schaduwkant van online aanbod van kennis, iets wat onvermijdelijk is om tegen te komen, maar toch ondanks ik het meest vunzige ondertussen wel heb gezien, kinderporno is me gelukkig bespaart gebleven
Niemand heeft interesse in Porno en Seks, daarom heeft hun registratie pagina als achtergrond een foto gericht om iemands kruis.

Ze leven gewoon van iets waar niemand interesse in heeft. (de stap naar KP is dan al snel gemaakt want daar heeft ook niemand interesse in)
Als je het hebt over verkrachting of echte kinderporno, dan zou ik het niet bij Tumblr rapporteren maar bij de politie.
Hier hetzelfde: toen ik in het verleden Tumblr gebruikte heb ik ook meerdere malen melding ervan gemaakt, maar ze hebben er nooit wat mee gedaan.
Zou het "helpen" om dit soort vondsten ook direct aan de (nieuws)media te melden?
Goed bezig, rapporteren. Maar, in welk land staan de servers? In het ene land ben je op je 15e volwassen, in het andere 18. In het ene grijsgebied van heb ik jou daar, de andere harde, keiharde grenzen. Afhankelijk dus van waar het is, is de wettelijke definitie misschien niet eens van toepassing.
Ligt het aan mij of lijkt er een flinke toename van dit soort materiaal op het 'clearnet'?
Tenminste kan me niet herinneren dat ik het 'relatief vaak' tegen kwam circa 5 jaar geleden.
Nu kan je, je kont nauwelijks keren of je loopt er weer tegen aan op mediums zoals
Instagram/Tumblr/Live.me/Musical.ly etc etc

Hoeveel links ik al niet heb gedeeld met EOKM (Meldpunt)
Moedeloos word je ervan. Lijkt wel dweilen met de kraan open

Justitie en politie hebben niet voldoende mankracht in huis momenteel.
Dat is één ding wat mij wel duidelijk is geworden

[Reactie gewijzigd door osmosis op 20 november 2018 07:36]

Ik deel je mening. Waar ik vroeger eigenlijk niks tegen kwam kun je nu bijna geen zoekterm ingeven zonder dat je wel porno tegenkomt op Tumblr. kwa KP, eerst waren het kinderen in zwemkleding in soms wulpse poses. Daarna nudisten foto's waar ook kinderen op voorkwamen en nu zelfs hardcore KP. Daar hoef je echt niet heel erg naar te zoeken, als je een blog hebt welke de twee eerst genoemde deelt en dan kijkt naar zijn likes kom je het al hardere dingen tegen(0-10 jaar). Ook staan er enorm veel 'gelekte' naakt foto's/filmpjes van tieners op, zowel meisjes als jongens. Dat valt natuurlijk nog onder KP. Ze gebruiken allemaal tags.

[Reactie gewijzigd door Daniel_Elessar op 20 november 2018 09:11]

Volgens mij heb je hier het probleem te pakken. Want wat is KP? Immers heb ik thuis vast foto's van mezelf liggen als kind ergens naakt.

Sterker nog nog niet zo lang geleden een data recovery van een nichtje gedaan van haar kids en dat waren dezelfde soort onschuldige foto's.

Pas als ze op internet op de verkeerde plek staan is het KP. Ouders moeten dus goed oppassen. Maar zo is er mogelijk veel "KP" zonder misbruik van het kind.
Klopt, een onschuldig bad foto of op ene nudisten strand maakt geen kp. Dat moet ook kunnen voor privé vind ik. Je moet er inderdaad voor zorgen dat het niet op het net komt.

Wat ik echter op Tumblr tegenkwam is soft/hardcore porno met kinderen. Dat is zonder enige twijfel kp :X
Het gaat ook zeker om context. Een jong meisje in enkel een onderbroek in een pose kan degelijk kp zijn. Maar zoals gezegd, je hoefde er niet eens moeite voor te doen en dat is zeker een onderzoek waard.

Moeite doen is hierin zoals je ook verder zoekt op een fandom als King Arthur of Harry Potter etc.
Het lijkt een steeds groter probleem te worden. Natuurlijk is het nu ook een makkelijker dat iedereen een redelijke camera altijd bij zich heeft. Kinderen ook al live uitzenden op wat voor media dan ook waar ze complimenten krijgen etc. Het is zo lastig en zeker een duister nadelig effect van altijd en overal online zijn.

[Reactie gewijzigd door Daniel_Elessar op 20 november 2018 10:05]

Dat is een probleem dat ook nudisten vaak tegenkomen, dat foto’s van hun kinderen opeens op KP-sites rondzwerven. Een naakt kind is natuurlijk niet direct kinderporno. Ook niet perse als het “op de verkeerde plek staat”, immers heb je ook mafkezen die gewoon naar die nudisten websites gaan en zich daar op afberen. Daar doe je niets tegen en dat houdt niet in dat het dan KP is; anders zou een foto van een vrouw in bikini ook al porno kunnen zijn, daar worden ook zat mannen (en vrouwen :P) opgewonden van. Dus dat is iets anders. Het ligt aan ‘t een en ander. Wat ook meespeelt is de mate waarin de ziekte gevorderd is natuurlijk, als je al opgewonden wordt van een foto van een kind in badpak dan ben je al heel erg ver heen denk ik.

[Reactie gewijzigd door WhatsappHack op 20 november 2018 10:13]

Een naakt kind is natuurlijk niet direct kinderporno.
Afhankelijk van je opvattingen... Een foto van mijn 6mnd oude zoon die in bad alles nat spettert, en mijn vrouw en ik vinden dat schattig/leuk/lief. In sommige streken van de wereld wordt zo'n foto direct als KP geclassificeerd, want oh jee, er is een bloot kind te zien!

Misschien (en nu speculeer ik) is Tumbler van mening dat foto's X en Y nog door de beugel kunnen, maar zit de audit-instanite net aan de andere kant van de lijn. In dat geval kunnen de partijen in onderling overleg hebben besloten de lijn van de audit-instantie aan te houden, en de betreffende foto's alsnog te verwijderen en het KP stempel er op plakken. Geen man overboord, gewoon de nieuwe lijn aanhouden in het vervolg en hier strict op toezien. Dit zou dan enkel een wijziging in beleid zijn.

In het geval dat de content vrij nieuw is, en niet eerder is opgemerkt, hoop ik dat deze ook zonder audit snel was opgemerkt en de procedures met overheden snel in gang zouden zijn gezet. Dan kan de audit de procedure hebben ingehaald, en is er eigenlijk nog geen man overboord. Dan zou de procedure van melden/verwijderen/vervolgen toch wel in gang zijn gezet.

In het geval dat er hardcore troep al langere tijd op stond, of deze was al eerder gemeld, dan vind ik dat Tumbler gelijk er van langs hoort te krijgen en verwijderen uit de app store nog maar het begin hoort te zijn.
Het is het laatste geval..
Ik dacht dat ik wel eens de krochten van het internet bezocht (4chan.org) maar daar kom ik juist nooit wat tegen (toegegeven, ik zit wel op de "worksafe" boards). Staan de platforms die juist meer op "normale" mensen zijn gericht echt zo vol met kp?
Staan de platforms die juist meer op "normale" mensen zijn gericht echt zo vol met kp?

Ja en nee.

Ik kwam een merkwaardige Instagram profiel tegen.
Geen KP, maar wel heel erg suggestief. Viel me op dat de #hashtags nogal apart waren.
Termen waarvan ik nog nooit eerder van had gehoord of betekenis ervan wist.
Je gaat eens zoeken op één van de termen en je komt weer in een cirkel met iets heftiger materiaal.
Net als pellen van een ui laag voor laag kom je steeds verder.
Ook zie je bepaalde profielen constant weer terugkomen in de vriendencirkels.
Deze profielen leken wel de KP VVV

Zo lijken ze te opereren op het clearnet.

suggestieve profielen -> hashtags -> lokale VVV -> nieuwe hashtags -> duisterder materiaal -> nog suggestieveren profielen -> hashtags....

[Reactie gewijzigd door osmosis op 20 november 2018 09:02]

Staan de platforms die juist meer op "normale" mensen zijn gericht echt zo vol met kp?

Ja en nee.

Ik kwam een merkwaardige Instagram profiel tegen.
Geen KP, maar wel heel erg suggestief. Viel me op dat de #hashtags nogal apart waren.
Termen waarvan ik nog nooit eerder van had gehoord of betekenis ervan wist.
Je gaat eens zoeken op één van de termen en je komt weer in een cirkel met iets heftiger materiaal.
Dat is het onzinnige 'gateway drug'-argument: Alcohol leidt tot experimenteren met roken, roken leidt tot wiet, wiet leidt tot harder spul. In werkelijkheid is het echt niet zo dat het op die manier gebeurt.

Hetzelfde geldt voor kinderporno: Als je "suggestieve" porno tegen komt van 18+ dames die in kamers met knuffelbeertjes en veel roze worden gefotografeerd, dan word je daar niet spontaan pedofiel van, dus de prikkel om naar kinderporno te gaan zoeken is er echt niet.
Helaas klopt deze redenering niet. Het merendeel van de mensen die KP kijkt, is geen pedofiel. Misschien gek om voor te stellen. De meeste mannen die KP bekijken, doen dat bijvoorbeeld omdat ze op zoek zijn naar extremer pornografisch materiaal. Ze worden daar wel degelijk in ‘gezogen’. Suggestieve 18+ advertenties verleiden je te klikken en wanneer je door blijft klikken kom je uiteindelijk op material wat overduidelijk geen 18+ is. Omdat je al in een staat van opwinding bent (je zit immers op een pornosite) en verboden materiaal nu eenmaal og opwindender kan zijn, zien we dat mannen vaak terug komen om die spanning terug te krijgen. Dat begint zeker niet met afbeeldingen van kinderen, maar veel eerder van pubers. Vanuit daar zakt men weg naar steeds jonger materiaal.
Daarmee hou je de vraag en dus het aanbod in stand. We weten dat zeker 30.000 mannen in Nederland kinderporno bekijken, waarschijnlijk veel meer.
Meer info stopitnow.nl

Arda Gerkens
Directeur Expertisebureau Online Kindermisbruik (EOKM)
Beste Arda, bedankt voor je bijdrage hier!

We zijn hier een kritisch zooitje met elkaar en houden van bronnen. Zou je ons een klein beetje op weg willen helpen met studies die wat jij zegt onderbouwen?

Ik heb je site bekeken maar kon slechts kiezen uit 'ik heb seksuele gevoelens voor kinderen' en 'ik kijk kinderporno'. Beide is niet het geval (ben trauma-georienteerd psycholoog/onderzoeker), en ik vond dus niet 'meer info'.

Ik kan me wel voorstellen dat de teller gauw op 30.000 staat als de website zo ingericht is - maar ik neem aan dat het getal niet op die wijze tot stand is gekomen. Dit is een groot onderwerp en alhoewel ik er goed inzit schrik ik behoorlijk van wat ik hier hoor over Tumblr. Walgelijk.

[Reactie gewijzigd door Znorkus op 20 november 2018 13:17]

Heel goed om kritisch te zijn. De cijfers komen van de politie. Zoals jullie weten geldt er in de VS de Patriot Act. Dat betekent dat als er overtredingen worden geconstateerd er melding van gemaakt moet worden. Ik bespaar jullie de route, maar alleen vanuit de VS krijgt de politie al ruim 20.000 IPadressen van mensen die kijken. Dat is al een selectie, laaghangend fruit doet men niets mee. Vorig jaar was dit 12.000, je ziet hoe snel het groeit.

Overigens gaan we die openingspagina aanpassen, je bent niet de enige die dit zegt :)
Meer info kun je wel vinden bij ‘ik kijk KP’.

Kijken we naar onze eigen cijfers dan groeien wij ieder jaar met 50%. Van 63000 in 2015, naar 15600 in 2017 aan meldingen van KP.

Als laatste spreken we dagelijks met mensen op onze hulplijn, We zien overduidelijk twee groepen. Mensen die seksuele gevoelens voor kinderen hebben en mensen die om allerlei andere verkeerde redenen naar dit materiaal op zoek gaan. Binnenkort publiceren wij onze cijfers over een paar jaar en een analyse ervan.

[Reactie gewijzigd door Arda op 20 november 2018 16:40]

De groei van het aantal meldingen kan je niet direct in verband brengen met de hoeveelheid MENSEN (niet alleen mannen,al geloof ik dat het voornamelijk mannen zijn) die zich met kp bezig houden. Dat er elk jaar meer data doorgezocht wordt en het feit dat jullie organisatie ook bekender word tellen daar ook in mee.

Dat ter zeide, kan je niet beter EOKM als site doorgeven als info naar buitenstaanders? Op https://www.eokm.nl/kennisbank/ kan je meer info vinden zonder dat je op niet toepasselijke knopjes hoeft te drukken.

[Reactie gewijzigd door AfroBob op 4 december 2018 10:24]

Misschien is het ook goed te begrijpen dat het materiaal lang niet altijd dat is wat men denkt dat het is. Men heeft vaak het idee dat het hier gaat om kinderen die (seksueel) gemarteld worden, maar veel vaker is het materiaal erotisch of seksueel van aard.

Het gaat hier vaak om tieners, pre-puberaal of puberaal. De details voeren ver, maar als je weet hoe veel mannen er zitten in die Telegram groepen, duizenden, dat zijn echt niet allemaal pedofielen. Die worden getriggerd door heel iets anders dan kijken naar naakte meisjes.
Ben benieuwd of daar statistieken en wetenschappelijk onderbouwde onderzoeken naar zijn gedaan.
Ik kan me niet voorstellen dat een weldenkend gezond persoon omdat ze doorklikken opeens KP willen gaan kijken. Als men "te ver doorklikt" zoals je suggereert en zien dat het KP is, dan klik je dat gewoon weer weg... Al zal het natuurlijk afhankelijk zijn van het materiaal. Blijkt het een 17-jarig meisje/jongetje te zijn die er uit ziet als 21 en zegt dat ze 18 is, dan is dat in de VS technisch gezien kinderporno; maar dat is een lastige grens die heel moeilijk in te schatten kan zijn; zeker als je zelf rond die leeftijd zit (Eg: 16-20) - en in sommige staten kan het volgens mij zelfs zo zijn dat als het model onder de 21 is dat het dan technisch gezien al KP is; terwijl elders de grens op 16 of 18 ligt. Vanuit dat oogpunt is het logisch dat er soms misschien onbewust en onbedoeld "kinderporno" wordt gekeken, maar dat is iets heel anders dan er zelf actief naar op zoek gaan; en veelal gaat het dan juist niet om 'kinderen' die (bijna) volwassen zijn of er zo uit zien, maar juist hoe kleiner en hoe kinderlijker: hoe beter zij het vinden. En dat is ziekelijk en ik geloof het niet zo dat je naar dat soort materiaal op zoek gaat als je geen pedofiele gevoelens hebt. (Uitgezonderd mensen en organisaties die KP bestrijden natuurlijk! De FBI heeft een heel team dat het net afspeurt naar die troep. :)) Dus afhankelijk van je definitie van kinderporno en welke grens je hanteert geloof ik er weinig van dat dit zo zou zijn, als je alle "grensgevallen" eruit filtert: is het dat nog steeds het merendeel van de mannen die KP kijkt die geen pedofiel zouden zijn...? Lijkt me een raar verhaal en nogal stug.

Zie je dus dat het een kind van 12 is, of nog erger: nog veel jonger dan dat, dan is het heel overduidelijk kinderporno en klikken weldenkende mensen natuurlijk gewoon weg en zullen waarschijnlijk zelfs schrikken dat ze daar opeens zijn uitgekomen en verdwijnt de opwinding wellicht juist direct. Doe je dat niet dan zou ik toch eens overwegen om professionele hulp te zoeken, dan moet je wel heel erg verslaafd zijn aan een kick voor "het illegale" als je met zulk materiaal iets wilt doen om je "kick" te bevredigen.

Ik geloof dus overigens ook niet dat "de meeste mannen" dat doen zonder dat zij pedofiel zijn. En op het moment dat ze kinderporno downloaden en daar het een en ander mee doen denk ik dat dat al flink grenst aan pedoseksuele gedragingen... Als het al niet over de grens is. Misschien ontkennen ze het te zijn, maar dat is een ander verhaal.

Normale porno als soortement van gateway-drug naar kinderporno zoals @Stoney3K het omschrijft geloof ik dan ook echt helemaal niets van, als we het over gezonde mensen hebben. Zelfs niet de extremere varianten. (En nu moet ik meteen denken aan een bepaalde South Park aflevering :+)

[Reactie gewijzigd door WhatsappHack op 20 november 2018 12:16]

Normale porno als soortement van gateway-drug naar kinderporno zoals @Stoney3K het omschrijft geloof ik dan ook echt helemaal niets van, als we het over gezonde mensen hebben. Zelfs niet de extremere varianten. (En nu moet ik meteen denken aan een bepaalde South Park aflevering :+)
Nu ben ik een tijdje werkzaam geweest in een groothandel van normale porno en spelbenodigdheden :+
Als ik hoorde van collega handelaren en winkel eigenaren/bedienden was er over de laatste jaren een duidelijke trend zichtbaar voor hen. Klanten vroegen naar steeds extremere films. Waar SM ooit wat slaan was misschien een kaars. Is dat nu toch andere koek. Daarvan zijn de "actrices" soms ook nog aan de behoorlijk jonge kant. En doen die het echt enkel voor het geld, het zijn veelal Oost-Europees/Russische vrouwen die blijkbaar het geld echt nodig hebben.

Nu die trend is er ook met "gewone" porno, het moet steeds harder en extremer.
Blijkbaar is die trend ook bij kp gaande als ik het zo hoorde van een kennis die bij de politie op die dienst werkt. O.a. hard sm materiaal wordt ook gevonden met kinderen van schoolkind leeftijd.
De makers zijn lang niet altijd zelf pedofielen maar zien een markt om geld te verdienen. :X

Hoe we dit aanpakken is natuurlijk een heel goede vraag.
Ik hoop dat we er als samenleving iets mee kunnen doen en de mensen die het nodig hebben hulp aan kunnen bieden, zij die echt vallen op minder jarigen want dat is nodig om dit probleem op te lossen.

Daarbij is een pedofiel niet perse een pedoseksueel, de laatste heeft een seksueel contact gehad met een kind de eerste niet perse.
[...]


Nu ben ik een tijdje werkzaam geweest in een groothandel van normale porno en spelbenodigdheden :+
Als ik hoorde van collega handelaren en winkel eigenaren/bedienden was er over de laatste jaren een duidelijke trend zichtbaar voor hen. Klanten vroegen naar steeds extremere films.
Dat is nog altijd iets anders dan de overgang van gewone porno naar kinderporno als een "extremere" stap, want bij kinderporno is het ontbreken van secundaire geslachtskenmerken toch vaak de doorslaggevende eigenschap. En daar kun je ook nog redelijk op selecteren. Bovendien heeft het een duidelijk doel: Voor kinderporno moeten kinderen het slachtoffer worden.

Als je ook fictieve 'kinder'porno wil aanpakken met volwassen acteurs die spelen alsof ze minderjarig zijn, of als het om getekende personages gaat, dan zit je op een enorm hellend vlak, want daar valt niets te bewijzen. Tenzij je de leeftijd van een gespeeld of getekend personage overtuigend kan bepalen, maar dat verwacht ik niet.

Een goed voorbeeld van een teken aan de wand is Australië, waarbij porno niet is toegestaan als de actrices een te kleine cupmaat hebben. Dus als je op tenger gebouwde vrouwen valt, dan heb je in Australië pech, want je wordt gewoon op één hoop gegooid met de pedofielen. Anders zou je nooit naar vrouwen kijken met een platte borstkas, toch? |:(
Het zal zeker voorkomen dat mensen extremer willen en afzakken naar kp en dieren en..?
Blijkbaar is er onder pedofielen een willekeur aan voorkeuren. Sommigen vallen op pubers, die hebben geslachtskenmerken. Anderen op pre-pubers en andere op nog jonger.

Getekende is inderdaad lastig maar dingen waarbij duidelijk getekende babies gepenetreerd worden met voorwerpen.. :X

Dat van Australie, ja. Dat is inderdaad een rare wet die niks gaat uithalen. Enkel dat die meiden die in een film willen spelen naar het buitenland gaan.
Getekende is inderdaad lastig maar dingen waarbij duidelijk getekende babies gepenetreerd worden met voorwerpen.. :X
En wat dan nog? Je gaat dan verbieden dat mensen perverse fantasieën hebben, dat schiet compleet het doel van de anti-kinderpornowetgeving voorbij, namelijk het beschermen van kinderen. Geen enkel kind wordt er slechter van als één of andere mafkees op zijn zolderkamer naar een filmpje kijkt waarin alles overduidelijk nep is.

Het enige argument wat je zou kunnen maken is dat het kijken naar 'kinderporno' ervoor zorgt dat het vergrijpen aan echte kinderen eerder gebeurt, maar dat is dus een gateway drug-argument: Normale porno kijken zorgt er ook niet voor dat je eerder volwassen vrouwen verkracht, en gewelddadige films en games zijn niet de oorzaak van schietpartijen. Je kan net zo goed een contra-argument maken, dat fictieve kinderporno een uitlaatklep is waardoor een pedofiel zich niet aan echte kinderen hoeft te vergrijpen.
Het hebben van deze gevoelens of fantasien daarover is niets mis mee. Er op acteren echter wel. Wat mag of niet mag is bij wet vastgelegd. De wet zegt dat virtuele KP ook verboden is. het OM gaat verder, ook niet realistische beelden zijn niet toegestaan, echter komt dit zelden tot een veroordeling.

Ik heb het echter hier niet over. Ik refereer aan beelden die sterk suggereren dat het om een minderjarige gaat enkel en alleen met het doel om er op te klikken om vervolgens naar extremer materiaal gelokt te worden. NIet om materiaal met roleplay erin.

Ik bepleit ook niet om dit materiaal strafbaar te stellen, in vele gevallen is het al strafbaar, ik beschrijf alleen een proces.
Je bechrijft eigenlijk heel goed het proces zoals het plaatsvindt. Eerst zie je materiaal waarvan iemand 17 of 19 kan zijn. Dan denk je dta het wel goed zal zitten. Als je dan jonger krijgt voorgeschoteld, kun je wegklikken (en velen doen dat zeker ook en melden het dan ook nog) of doorgaan. Vaak is er sprake van een pornoverslaving, of een internetverslaving. Ook een sociaal isolement speelt hier vaak een rol.

Ik snap dat het lastig te geloven, maar het is zo belangrijk dta we dit gaan zien en erkennen. Want nu denken we dat het slechts een handjevol mannen zijn met een afwijkende seksuele voorkeur. Niets is minder waar. Het is een maatschappelijk probleem. Zoals iemand hier zei: er is steeds meer materiaal te vinden, dat is echt niet alleen omdat een handjevol pedofielen op zoek is daarna.
Arda Gerkens
Directeur Expertisebureau Online Kindermisbruik (EOKM)
Met dit onderschrift kan ik een bericht als dit nauwelijks als 'neutraal' en 'objectief' beschouwen.

Ik ben zeker van mening dat kinderporno verwerpelijk is omdat het onschuldige kinderen tot slachtoffer maakt, maar als je "pseudo"-kinderporno gaat verdoemen die niets anders is dan fantasie, omdat het mogelijk de deur open zet naar extremer materiaal, dan ben je niets anders aan het doen dan de gedachte van het seksualiseren van kinderen aan het uitbannen.

Daarmee kun je ook expliciet (en bewijsbaar) 18+ materiaal gaan bestraffen omdat het volgens subjectieve normen de suggestie wekt dat het "jonger" lijkt. Dat is een enorm hellend vlak, en het gaat ook nog eens enorm schuren met fantasieën die normale volwassenen ook met elkaar kunnen hebben. Met andere woorden: Je gaat dan een heksenjacht krijgen op alles wat maar een beetje kinderlijk lijkt, want het idee van kinderen seksualiseren is jakkie-bah. Het schiet dan zijn doel (het belang van al gemaakte slachtoffers) totaal voorbij.

En als je die heksenjacht wil beginnen, dan zou ik vooral eens boeken als Lolita van Nabokov en A Song of Ice and Fire van George R.R. Martin er bij pakken. Bestsellers, maar daar mag het blijkbaar omdat het alleen om tekst gaat en geen plaatjes. Double standard?
Hi Stoney,

De wet verbiedt het tonen van materiaal waarvan de afgebeeldene de kennelijke leeftijd van 18 jaar nog niet bereikt heeft. Expliciet 18+ materiaal valt daar niet onder. Bewijsbaar ligt wat lastiger, als de suggestie gewekt wordt dat degene 18- is, en dat heeft er dan ook alle schijn van, dan valt het onder KP. Overigens is dit een van de lastigste taken van Meldpunt Kinderporno, deze grensgevallen beoordelen.

Het gaat absoluut niet om het hebben van fantasien, of wat volwassenen met elkaar doen. Er bestaat overigens niet zoiets als pseudo kinderporno, dan is het nl geen KP. Ook verdoem ik niets, ik beschrijf een proces.

Wat wel zo is, is dat zoektermen als ‘teen’ en ‘stepsister’ populair zijn. Natuurlijk is iemand van 18 en 19 ook een teen, maar zodra je op die zoektermen zoekt en dat regelamtig doet, zul je vanuit de advertentie omgeving suggesties krijgen om uit de omgeving van YouPorn of Pornhub te treden in een schimmigere wereld.
Dat wil niet zeggen dat op die sites geen materiaal van minderjarigen wordt geplaatst. Wij krijgen regelmatig de vraag of men er vanuit kan gaan dat het materiaal op die sites 18+ is. Het antwoord is nee.

Overigens zijn kinderen ook seksuele wezentjes en dat is zeker niet jakkie-bah.
En vervolgens ben je hoop ik even op werkbezoek bij het lokale politiebureau geweest?
Ik zou het breder zeggen, en de stelling nemen dat er een toename is van materiaal op het "clearnet", wat proportioneel ook de hoeveelheid KP vergroot. Echter lijkt het me geen abnormale toename (ik moet ook zeggen dat ik maar weinig links heb gezien die ik zou hoeven rapporteren. Wel bedankt voor de tip waar ik dit kan doen). Wereldwijd neemt de hoeveelheid UGC (user generated content) alleen maar toe, en zeker in landen met minder toezicht zoals derde-wereld-landen zie je dit nu gebeuren.
Ga je er moedwillig naar op zoek, of kom je het gewoon tegen? Ik ben het zelf (gelukkig) nooit tegen gekomen. Wel geweld van het niveau waarbij je bijna kotsend boven je toetsenbord hangt. Bijvoorbeeld dat ze met kettingzagen op journalisten ingaan, en dat soort onzin. Echt verschrikkelijk.

In mijn ogen mag dit best achter een 18+ muur. KP is een ander verhaal, daar moet gewoon de doodstraf op. Wel vindt ik dat er een verschil is tussen mensen die KP posten, en kinderen van 15 die zelf van alles online slingeren. De eerste is onvergeeflijk, de tweede gebrek aan opvoeding.

[Reactie gewijzigd door JackJack op 20 november 2018 10:48]

Ik weet niet voer wat voor materiaal het gaat, dus alles wat ik zeg is een gok.

Maar ook omdat het materiaal in geen enkele database voorkomt, acht ik het goed mogelijk dat het kinderporno is die door kinderen zelf gemaakt en verspreid is: 15 jarigen die sexten, en de foto's die dan uitlekken en op het internet komen. doordat kinderen steeds vroeger een smartphone hebben wordt die drempel voor velen steeds kleiner en is er dus meer materiaal. En aangezien darknet niet bepaald superhip is en tumblr etc wel, is dat waar het materiaal soms terecht komt.

Dat lijkt me een meer voor de hand liggende verklaring voor de stijging in dit soort voorvallen, dan dat er plots meer pedo's zijn die kinderen ontvoeren of familieleden mishandelen en dat dan op het gewone internet gooien.
De vraag is wel degelijk toegenomen. Ja er zijn jongeren die foto’s maken, maar deze jongeren worden ook dagelijks meerdere malen benaderd door vreemden om materiaal te sturen.

Arda Gerkens
Directeur Expertisebureau Online Kinderrmisbruik
De vraag is wel degelijk toegenomen. Ja er zijn jongeren die foto's maken, maar deze jongeren worden ook dagelijks meerdere malen benaderd door vreemden om materiaal te sturen.
Jammer genoeg wordt het vaak wel door het kind (onbewust!) veroorzaakt.
Veel ouders laten de kinderen te vrij, houden geen toezicht of treden helemaal niet op als het scheef dreigt te gaan.
Nee? Wacht tot foto's van je naakte dochter overal op het internet te zien zijn... dat is wel degelijk misbruik!
Dat is eigenlijk schending van privacy. Je bent vrij om dat misbruik te noemen, maar dat is het niet. Dat wil niet zeggen dat het mag of dat ik het goedkeur. Ik zeg alleen dat het technisch gezien geen kindermisbruik is. Maar we hadden het over foto's van kindermisbruik, volgens mij, niet over het feit dat het verspreiden van wat voor foto's dan ook bestempeld wordt (door jou) als misbruik. Want met jouw redenatie is íedere foto van je dochter die ongewild op internet komt, hetzelfde als misbruik, en dat durf ik wel te weerleggen als ze op die foto's wél netjes gekleed gaat.
Het materiaal van 15-jarigen is niet zelden door dwang tot stand gekomen. Dan is er op zijn minst sprake van exploitatie. Dat is misbruik maken van de positie van het kind.

Is er fysiek misbruik aan vooraf gegaan? Nee.

Maar weet dat de gevolgen van deze vorm van misbruik maken van een kind ernstige psychische gevolgen heeft, tot zelfmoord aan toe.

Het materiaal is dus niet onschuldig en bij wet verboden.
Zijn natuurlijk wel de Amerikaanse standaards. Bloot spelend kindje in de zandbak is kinderporno en een blote vrouwenborst met een zogend kind gewone porno.
Dat soort foto's gaat het hier niet om, deze kun je beter niet posten, waar dan ook. Die foto's zijn worden ook door pedofielen gezien, en dat heeft niks met amerikaanse standaarden te maken.
De foto's die in dit artikel bedoeld worden zijn gewoon echt kinderporno, en niet acceptabel waar dan ook.
Dan ken jij Tumblr niet. Daar staat meer porno op dan de gemiddelde porno site. Dat heeft Apple al die tijd toch maar mooi toegelaten.
Ik vind het optreden van Apple wel erg flauw. Oh op jullie platform waar gebruikers content kunnen uploaden is content gebonden die niet onder de Apple guidelines vallen: Delete.

Het klinkt ook een beetje alsof het er alleen opstond omdat het niet automatisch gedetecteerd kon worden.

Zouden ze dat bij iCloud ook gaan doen :Y) :Y)

[Reactie gewijzigd door itarix op 20 november 2018 07:16]

Misschien doen ze het wel op iCloud?

En Ik vind het gewoon terrecht. Als je dit wilt minderen (uitroeien zal vast niet lukken) dan ben je extra streng op platforms waar je dit kunt delen.
Eigenlijk geef je nu aan dat alle platformen waar afbeeldingen gedeeld kunnen worden verwijderd moeten worden uit de app stores. Simpelweg omdat je het met de huidige (automatische) filters niet allemaal kan detecteren en treffen kan houden. Dat lijkt mij ietwat ver gaan? Zeker als het platform na uiteindelijke detectie snel en correct handelt.
Ik denk dat juist door dit soort maatregelen bedrijven er extra scherp op zijn. Kijk eens hoe snel het weg is na ontdekking. Je moet je afvragen of ze ook zo snel zouden zijn als er geen sancties tegenover stonden. En laten we wel wezen, de schade voor een dag niet in de Appstore staan zal ook wel meevallen. De installerbase is er nog gewoon.
Nee vind dit optreden echt niet kunnen van Apple. Het platform laat een audit uitvoeren (geen idee wat de reden was), maar getuigd wel dat ze op hun platform / software bezig zijn met verbeteren. Je doet niet zomaar een audit om vervolgens de uitkomst in de wind te slaan.
Met deze audit is er kinderporno geconstateerd. Wat zijn de vervolg stappen? Autoriteiten inschakelen, instanties die gaan hierover informeren, mogelijk de database aanvullen van de genoemde organisatie zodat de filters sneller dit materiaal gaan vinden ook bij andere organisaties. Hier gaat simpel weg gewoon wat tijd overheen. Wat moet je in de tussentijd doen? Alle content verwijderen, met mogelijkheid tot gevolg dat andere bedrijven dezelfde content hebben en niet door het filter gedetecteerd worden?

En waaruit blijkt (staat niet in het bericht althans) dat Tumblr niet welwillend heeft willen meewerken aan onderzoeken, of acties en stappen niet heeft genomen die het wel had moeten nemen? Ik heb niet het idee dat Tumblr (of elk ander bedrijf) voor kinderporno is, zodat dat een reden is voor Apple om ze te verwijderen. Dus in dit geval zal ik toch echt zeggen: Wat een slechte actie van Apple.
Het is een prima actie van Apple. Er zitten ook kinderen op, die hoeven dat al helemaal niet te zien. De app wordt even suspended in de store en komt nu gewoon weer terug nu het probleem is opgelost.

Wat is er zo op tegen om ervoor te zorgen dat het zekere voor het onzekere tijdelijk wordt genomen omdat er in die app soms willekeurig kinderporno verschijnt? Denk niet dat het Apple is dat overtrokken reageert in dit geval. Ze constateerden dat de app soms spontaan KP-serveert en ondernemen actie... Top!
Tumblr zelf snapt het ook, die passen de algoritmen voor herkenning ook iets aan.

Het verbaast me dat hier aardig wat mensen zijn die het blijkbaar okee vinden als een app af en toe spontaan kinderporno serveert en juist boos worden als Apple daar tijdelijke maatregelen tegen onderneemt om de gebruikers te beschermen. Dan moet de Apple-haat denk ik écht heel diep zitten als je liever hebt dat een app dat ongestoord mag doen dan dat Apple actie onderneemt, wow. oO

[Reactie gewijzigd door WhatsappHack op 20 november 2018 09:57]

Het verbaast me dat hier aardig wat mensen zijn die het blijkbaar okee vinden als een app af en toe spontaan kinderporno serveert en juist boos worden als Apple daar tijdelijke maatregelen tegen onderneemt om de gebruikers te beschermen. Dan moet de Apple-haat denk ik écht heel diep zitten als je liever hebt dat een app dat ongestoord mag doen dan dat Apple actie onderneemt, wow. oO
Nee ik vind het zeker niet oke dat een app spontaan kinderporno serveert, maar ik ben realistisch genoeg dat een platform als tumblr daar weinig aan kan doen als het gaat om "nieuwe" beelden die nog niet in de bestaande database zitten.

Ik ga er dan eigenlijk ook vanuit dat op elk platform waar gebruikers zelf beelden kunnen uploaden dit voorkomt.

Dus dan zou Apple geen enkel van die apps toe moeten staan in de appstore.

Ook lees ik in het artikel dat Apple de app heeft verwijderd uit de app store nadat tumblr zelf met het nieuws naar buiten kwam terwijl ik er vanuit ga dat tumblr de beelden heeft verwijderd. Dat doet mij geloven dat het dus een beetje vanuit Apple is van kijk hoe goed wij zijn dat wij dit doen voor de media. Terwijl de gevonden beelden op dat moment al weg zijn.
Niemand die zegt dat Tumblr een failsafe systeem moet hebben, dat is ook nogal logisch. Het probleem was dat er dus af en toe kinderporno voorbij kwam in suggesties. Dát gaat natuurlijk net even iets verder dan "ergens op het platform zal vast wel ergens kinderporno gehost worden". Want ja ook op Facebook, G+, Twitter, et cetera zal vast wel eens KP staan of gelinkt worden. Het is onrealistisch te denken dat dit 100% afgevangen kan worden. Als de app het echter onder sommige omstandigheden zélf gaat aanbieden als "relevant": dan gaat er iets mis en snap ik dat Apple actie onderneemt.
Ook lees ik in het artikel dat Apple de app heeft verwijderd uit de app store nadat tumblr zelf met het nieuws naar buiten kwam terwijl ik er vanuit ga dat tumblr de beelden heeft verwijderd. Dat doet mij geloven dat het dus een beetje vanuit Apple is van kijk hoe goed wij zijn dat wij dit doen voor de media. Terwijl de gevonden beelden op dat moment al weg zijn.
Dat klopt absoluut niet en dat is zeker niet de timeline. De Tumblr-app was verwijderd voordat er ook maar iets in de media is gekomen over de reden. Sterker nog, het zou wel eens zo kunnen zijn dat Apple de reden is dat Tumblr überhaupt op de hoogte werd gesteld van het probleem en daarop actie is gaan ondernemen.

Zie o.a.: https://news.softpedia.co...-pornography-523872.shtml
Ik citeer:
The official Tumblr app for iOS went dark all of a sudden a few days ago, and while neither the parent company nor Apple provided statements on what exactly happened, it was believed the app served some sort of illegal content that violated the App Store guidelines.

...

And as it turns out, this is precisely the cause of the app removal, with Tumblr revealing in a statement for CNET that their official iOS client was taken down by Apple after it was discovered the app served child pornography.
En dat CNET artikel meldt dan ook:
This confirmation helps explain why the Tumblr app was removed so suddenly and why there was little explanation from Tumblr or from Apple, since child pornography is a matter that needs to be coordinated with law enforcement.

...

Initially, neither Tumblr nor Apple publicly revealed the nature of the "issue." But speculation from a marketing professional on Twitter and 9to5Mac suggested the app was removed due to inappropriate content in violation of Apple's App Store guidelines.
M.a.w.: Apple heeft Tumblr niet verwijdert naar aanleiding van dit nieuws. Nee, Apple heeft het verwijderd omdat het erachter kwam dat Tumblr die content serveerde, heeft de app daarom suspended en Tumblr ingelicht. En het is Tumblr die nu naar buiten komt met de reden waarom Apple ze uit de store had verwijderd.

Apple had Tumblr-app dus verwijderd van de App Store vóór dit allemaal in de media is gekomen, niet achteraf als een of andere mediastunt. Daarnaast heeft Apple dus in eerste instantie helemaal niets gezegd over *waarom* het de Tumblr-app heeft verwijderd en heeft daar nog altijd geen commentaar op geleverd. Het is Tumblr zelf die hier nu mee naar buiten is gekomen... Dus hoe kan dit dan een mediastuntje zijn van "kijk hoe goed we zijn"? Apple heeft niets gezegd, Apple heeft enkel tijdelijk verwijdert en nog voor dit in de media kwam - het is Tumblr die nu de reden naar buiten brengt, niet Apple en het is niet Apple dat achteraf handelt maar deed dit juist preventief.

Ergo: Apple had dus al gehandeld ver voor dit in de media kwam en had zelf met geen woord gerept over de reden voor verwijdering. Hoe is dit dan een marketingstunt van Apple? :P

[Reactie gewijzigd door WhatsappHack op 20 november 2018 11:48]

Ah kijk, ik ging uit van deze tekst in het artikel van tweakers:
Apple heeft naar aanleiding van de ontdekking de Tumblr-app verwijderd uit de App Store.
Waarin ik dacht op te maken dat het dus als reactie was op het nieuws van tumblr zelf. Bedankt voor de verduidelijking!

Het is dat ik niet kan modden op reacties op eigen reacties anders kreeg je een +2.
Ah juist, het artikel nog eens lezende snap ik je verwarring wel - en die van anderen die reageren. :)
Nu ik het op die manier lees lijkt het inderdaad een beetje alsof Apple het heeft verwijderd "na ontdekking", in de zin van: toen Tumblr het bekend maakte. Ik snap hem.

Het staat wel beschreven in het artikel overigens:
Apple heeft naar aanleiding van de ontdekking de Tumblr-app verwijderd uit de App Store. Dat gebeurde rond het weekend, maar het was eerder onduidelijk waardoor het kwam.
Maar ik begrijp dat het wel een beetje verwarrend kan zijn als je de eerste 2 stukjes leest, misschien kan @arnoudwokke dat iets verbeteren om verwarring te voorkomen gezien er zo te zien aardig wat mensen zijn die de timeline omgedraaid interpreteren. :)

[Reactie gewijzigd door WhatsappHack op 20 november 2018 11:54]

Ik vind het eerder overkomen als een soort mediastunt van Apple. Stel nou dat er op Facebook ook ineens ergens kinderporno wordt gevonden, denk je dat ze dan de Facebook app uit de app store gaan weren?

Er is vast ergens op een één of andere website kinderporno te vinden. Gaan ze dan alle webbrowsers uit de app store halen? Google heeft vast ook wel iets in z'n image cache, enz. enz.

Als Tumblr er voor gebouwd is om (in Apple's ogen) verwerpelijke content te hosten, dan snap ik prima dat ze dat willen weren. Zo heeft ieder bedrijf z'n eigen filosofie/morele identiteit, los van wat we er persoonlijk van vinden. Maar feit is natuurlijk wel dat Tumblr een zeer groot (het grootste?) blogsysteem is waar ongetwijfeld ook heel veel narigheid op staat, maar het hosten van kinderporno is zeker niet het doel van het platform.
Op Facebook is er inderdaad ook kinderporno en links naar kinderporno te vinden.
Een app uit de Apple Store serveert kinderporno -> app wordt verwijderd -> lenwar noemt het een mediastunt van Apple. |:(

Denk alsjeblieft even na voor je zoiets opschrijft. Als jij er anders mee om was gegaan, kan je dat prima delen. Maar doe eerst even dat aluminium hoedje af Lennard.
Sowieso is Tumblr niet een app maar een blog-platform. Tumblr heeft uiteraard ook apps voor toegang tot hun eigen platform. Echter: Je kan bij Tumblr komen met iedere browser. Er zijn in de app store alleen al zat 'alternatieve apps' die puur als doel hebben om toegang tot Tumblr content te verlenen (en veelal niks anders), en alleen de app van Tumblr zelf wordt geweerd.

Nou snap ik dat uiteraard dat Apple niet alle browsers uit de app store gaat weren omdat er op Tumblr of een andere website toevallig wat rottige dingen staan, maar het is natuurlijk op z'n best inconsequent te noemen dat ze alleen die ene Tumblr-app verwijderen. Wat mij betreft gaat deze actie dus helemaal nergens over.

Als de betreffende content nou echt specifiek via de iOS-app geserveerd wordt, of dat er wat anders aan de hand was met de app (dat het NSFW-filter van de app niet werkt ofzo), dan snap ik het wel, maar dit gaat in mijn optiek helemaal nergens over.
Correctie:
"De app wordt even suspended in de store nadat het probleem opgelost was en komt nu weer terug zonder dat verdere verandering nodig was."
Correctie:
Dat is dus niet waar, dus mijn tekst klopt gewoon en heeft geen correcties nodig. ;) De app was verwijderd voor dit ook maar in de media is geweest of wat dan ook en vóór het probleem was opgelost.
Zie: WhatsappHack in 'nieuws: Tumblr bleek bij audit kinderporno te bevatten' voor de bronnen en lees ook de laatste paragraaf van het artikel hier waaruit dat blijkt.

[Reactie gewijzigd door WhatsappHack op 20 november 2018 12:21]

Jij quote een "suspicion", dan vind ik de andere tekst waar je naar refereert (maar die niet aansluit bij wat je hierboven zegt, waardoor een correct wel nodig zou zijn ;-)) interessanter:
Tumblr: “A routine audit discovered content on our platform that had not yet been included in the industry database. We immediately removed this content. Content safeguards are a challenging aspect of operating scaled platforms. We’re continuously assessing further steps we can take to improve and there is no higher priority for our team.”
Dit statement is namelijk tot dusver niet tegengesproken door Apple (zover mij bekend heeft Apple nog nergens aangegeven dat zij zelf de content hebben gevonden / gezien; mogelijk wachten we daar nog op?).
Nee, ik quote geen “suspicion”. Er staat in beide artikelen dat het eerst een suspicion was (omdat Apple en Tumblr beiden niet hadden gezegd wat er aan de hand was) dat dit de reden is, en dat Tumblr het nu bevestigd heeft. Daarmee is het dus geen “suspicion” meer, maar gewoon “the facts.”. ;)
Relevant stukje dat ik ook in die andere reactie al heb gepost:
And as it turns out, this is precisely the cause of the app removal
(Dus: men heeft bevestigd dat de “suspicion” juist was, daarmee is het nu een feit. Het staat er letterlijk. :P)

En wat jij nu quote bevestigd het toch ook alleen maar meer? Apple deed een routinematige inspectie (wat ze bij alle apps doen), de Tumblr-app toonde tijdens die inspectie kinderporno en dus heeft Apple de app even uit de store gehaald. Het is dus niet “interessanter”, het bevestigd precies wat ik zeg. ;)
Dat dit kwam doordat de filters het niet herkende is bijzaak, dat kan Apple ook niet ruiken en die nemen gewoon actie op basis van hun policy en de wet. Nu het opegelost is komt de app vast terug.
Ik zie niets dat de timeline die ik plaats tegenspreekt in dat artikel, die van CNET noch op Tumblr’s blog zelf. Enkel bevestiging dat het exact zo gegaan is.

Dat gebeurt wel vaker trouwens hoor. Er zijn zelfs wel eens nieuwsapps even verwijderd omdat een van de artikelen pornografische content vertoonde op het hoofdscherm. Als Apple op exact dat moment een inspectie uitvoert: ja dat is pech hebben, de regels zijn nu eenmaal zo.

[Reactie gewijzigd door WhatsappHack op 20 november 2018 13:18]

Tumblr is al meerdere keren op de vingers getikt, o.a. door gebruikers van het platform maar die waarschuwingen hebben ze allemaal links laten liggen. Dat noem ik niet welwillend meewerken, maar faciliteren van kinderporno.
Dus de app wordt automatisch weer geïnstalleerd en geconfigureerd bij de gebruikers? Indien die niet het geval is denk ik dat er wel degelijk een deuk zal zijn in het aantal gebruikers. Daarnaast vermoed ik dat Apple iCloud echt niet down zou brengen bij een dergelijke detectie en kunnen we niet uit het artikel afleiden dat Tumblr "te traag" was met verwijderen (sterker nog: de originele tekst lijkt aan te geven dat de content al verwijderd was meteen na detectie tijdens een "routine audit"; dat is "een sanctie om tot actie over te gaan" dus te laat).
Nee de app wordt niet verwijderd als je deze al geïnstalleerd had. De app is alleen niet meer te vinden (en te updaten) via de App Store
Met alle respect, maar je bent duidelijk aan het speculeren op iets zonder dat je weet hoe het werkt en waar het over gaat. Wat @Sinus_rhythm en @bernardV zeggen klopt. Ik snap ook niet waarom je iCloud hierbij haalt en waarom dat “down” zou moeten.
Ik haal iCloud erbij omdat deze gerefereerd wordt in het bericht waarop ik reageer (het lijkt mij handig als je de thread leest voordat je reageert ;-)). Daarnaast heb ik het bronartikel gelezen (dat geeft soms betere informatie dan T.net):
A routine audit discovered content on our platform that had not yet been included in the industry database. We immediately removed this content.
Verwijderen uit de app-store betekend niet dat het op toestellen verwijderd wordt. Iedereen die het reeds geïnstalleerd heeft kan het blijven gebruiken.
Dus het probleem wordt eigenlijk totaal niet opgelost door Apple (zelfs al zou de content nog niet verwijderd zijn)? In dat geval snap ik helemaal niet waar Apple mee bezig is: een maatregel nemen om een bedrijf te dwingen reeds verwijderde content nogmaals te verwijderen of om een bedrijf te dwingen een onmogelijke filter te maken (filters met huidige technieken houden simpelweg nog niet alles tegen)? Alleen in het geval dat Tumblr geen actie had ondernomen zou een dergelijke actie correct zijn in mijn ogen.
Het probleem wordt ook niet opgelost door Apple, maar Apple moet het probleem ook helemaal niet oplossen. Het is de verantwoordelijkheid van Tumblr. Apple heeft, waarschijnlijk, een eigen policy waarin zij stellen geen toegang tot kinderporno te faciliteren. Als ze erachter komen dat een derde partij content host waar ze het niet mee eens zijn, dan mag Apple zich uitspreken hierover met bijvoorbeeld als maatregel het niet meer aanbieden van een app die toegang geeft tot deze content.
Ik ben blij dat Apple daarmee niet meteen de app van je telefoon af gooit, die telefoon is van de persoon zelf en mag zelf bepalen wat hij er (d.m.v. bijvoorbeeld de appstore) erop zet.
Er staan wettelijk sancties op. Haal je het er niet af dan ben je kinderporno aan het aanbieden en verspreiden. Ik denk dat je je niet kan verdedigen al je weet dat het op je platform staat.
Dat zal zeker ook meespelen. Des te meer reden om te snappen waarom deze acties gedaan zijn.
Zal apple icloud tijdelijk deleten als er blijkt dat er op icloud kp zit?
Onzinnige vergelijking. Bij Tumblr kon het zomaar verschijnen, bij iCloud moet iemand het specifiek met je delen. Je kan er ook niet op zoeken binnen iCloud. Dus nogal logisch dat de app even suspended wordt om te zorgen dat niemand spontaan kinderporno te zien krijgt terwijl ze onschuldig een beetje aan het scrollen zijn. Wel zo netjes van Apple.

Ten tweede, als ze erachter komen dat er kinderporno in een account staat dan laten ze het staan, geven ze je direct aan bij de autoriteiten en verwijderen het pas als die het groene licht geven (ivm mogelijk digitaal forensisch onderzoek, is aan zeer strenge regels gebonden dus als Apple daar iets aan wijzigt kan dat al bewijsmateriaal verloren doen gaan). Wat ze wettelijk verplicht zijn trouwens.
App wordt alleen niet verwijderd van apparaten, alleen nieuwe gebruikers konden het niet downloaden. Alle miljoenen (veilige aanname denk ik met Tmbler) installs kunnen dus nog steeds KP geserveerd krijgen als dat de reden is.

Verder heb ik een paar keer redelijk ver in de rabbithole lopen rondklikken bij Tmblr en ik ben nog nooit zonder expliciet naar bepaalde onderwerpen te zoeken op NSFW content terecht gekomen (Gevalletje n=1, I know, maar ik wil in ieder geval het beeld wat je schetst nuanceren).

[Reactie gewijzigd door Chrotenise op 20 november 2018 10:21]

Ik vermoed dat die een reactie op gjmi was; daarnaast vermoed ik dat het antwoord "nee" is ;-).
Het wordt nog veel erger met nieuwe Europese wetgeving ... dadelijk ben he als hoster aansprakelijk voor de content die mensen op jou site plaatsen .dus staat er kinderporno op kun je nog veroordeeld worden ook ....
Ja, dat klopt eigenlijk wel.
Alle platformen waar willekeurige gebruikers willekeurige afbeeldingen kunnen delen.

[Reactie gewijzigd door gjmi op 20 november 2018 09:01]

We hebben hier echter binnen heel korte tijd al meerdere statements van gebruikers die aangeven dat ze e.e.a. wel degelijk gemeld hebben, maar dat er niets mee is gedaan. Dat is zeer zorgelijk.
Wat ik bizar vind is dat ze niet alle accountgegevens hebben overgedragen naar justitie, aangifte hebben gedaan etc. Dat het materiaal verder niet bekend is zou kunnen dat het origineel is, dwz geproduceerd door de uploader of het netwerk van de uploader.
Je hebt je recht om deel te nemen in onze samenleving wel goed verspeeld wat mij betreft als je hier aan meewerkt.
Ik denk dat het hier niet gaat over een pedofiel netwerk. Ik denk dat het hier eerder gaat over kinderen die zelf hun seksleven naar Tumblr uploaden. Toen ik nog een T account had viel het me op dat jongeren er wel heel los met hun seksleven omgingen.
Dan spreken ze echt niet over kinderporno.
Als een minderjarige seks heeft met een minderjarige (of meerderjarige) en daar een foto van upload is het kinderporno.
Het bedrijf gaat er niet op in om wat voor materiaal het gaat en wat er is gebeurd met de gebruikers die het op Tumblr hebben gezet.
Heb jij ergens iets gelezen wat ik mis? :?
"Het bedrijf gaat er niet op in om wat voor materiaal het gaat en wat er is gebeurd met de gebruikers die het op Tumblr hebben gezet."

Vind ik raar. Als ik kijk naar facebook dan is de consequentie van het plaatsen van illegaal materiaal of materiaal van strafbare feiten hooguit dat je account geblokkeerd wordt. Doordat tumblr het niet bekend maakt doet het mij vermoeden dat zij er net zo mee om gaan, anders hadden ze wel gezegd dat ze aangifte hadden gedaan.

Heeft er misschien mee te maken dat ze alleen je ip adres hebben, zou kunnen.
Wat is er flauw aan? Als ze het niet doen bij Tumblr hebben ze straks een rechtszaak voor discriminatie als één of andere pedofielen organisatie een app online zet die gedelete wordt.

Je moet Apple niet door een Nederlandse bril bekijken maar door een globale bril. Men kan niet voor NL de regels minder strikt navolgen omdat NL tot een klein deel van de wereld behoort dat progressiever is dan de rest.
Tumblr biedt duidelijk wel kinderporno aan volgens de audit. Apple doet wat het moet doen, de voorwaarden van hun winkel naleven. Als een audit aanduidt dat Facebook, intstagram of snapchat kinderporno aanbieden dan zullen die apps ook verwijderd worden.
Wel dat maakt geen verschil of de gebruikers of Tumblr het aanbieden. Het is tegen de regels van de store. Ik heb geen weet van kinderporno op Facebook.
NL progressiever dan de rest van de wereld? Behalve dat ik dat de laatste jaren erg vindt tegenvallen...Wat heeft het te maken met KP? Het is niet alsof progressieve mensen KP goedkeuren of zo hoor
Dat heeft veel met KP te maken. Neem nu het voorbeeld van de film Girl. Een Belgische film met een 15 jarige acteur die in één scene even naakt gaat. Bij ons wordt die film overladen met prijzen. Netflix haalt de bewuste scene er uit om dat het als kinderporno kan worden beschouwd.
Dit artikel en het daarin genoemde probleem gaat ook niet over je voorbeeld, maar over echte kinderverkrachting. Dit is geen dingetje van "preuts Amerika", dit is gewoon walgelijk.
Jij zegt nu kinderverkrachting, maar in het artikel hierboven staat duidelijk het volgende:
Het bedrijf gaat er niet op in om wat voor materiaal het gaat
hoe jij dan "opeens" het over verkrachting kunt hebben is mij een raadsel.

Verder geef ik alleen een voorbeeld van Nederland progerssiver dan de rest van de wereld. conform waar OddesE het over had.
Bron: ik ben het zelf tegen gekomen op tumblr (en heb het gerapporteerd), tevens staat in het bronartikel (waar dat linkje in het T.net artikel naar verwijst) dat het om zaken als Child Sexual Abuse (aka kinderporno) gaat.
dat van je zelf kan ik niet ruiken :-) ( gelukkig niet btw... ) maar ook niet controleren.

maar onder Child Sexual Abuse valt ook het 14 jarige meisje met fotos van zichzelf, of trotse vader met foto zoontje leunend tegen wc met bloote billen enz onder.
Child sexual abuse, also called child molestation, is a form of child abuse in which an adult or older adolescent uses a child for sexual stimulation. Forms of child sexual abuse include engaging in sexual activities with a child (whether by asking or pressuring, or by other means), indecent exposure (of the genitals, female nipples, etc.), child grooming, or using a child to produce child pornography.
Je voorbeelden zijn niet echt van toepassing, want een 14-jarig meisje die zelf foto's gemaakt heeft betekent dat het niet door een volwassene is gedaan. Maar als het in de handen van een ander/pedofiel valt richt het dezelfde schade aan.

[Reactie gewijzigd door muvori op 20 november 2018 13:31]

[...]Maar als het in de handen van een ander/pedofiel valt richt het dezelfde schade aan.
Welke schade heb je het dan over? Indirecte schade van een pedofiel die misschien opgewonden raakt van een 14-jarig meisje die een naaktfoto van zichzelf laat zien?

Moeten we dan echt zo ver gaan als dat 14-jarige meisje te beschuldigen van "]child sexual abuse"] omwille van mogelijke toekomstige slachtoffers van een anonieme toeschouwer? Is ze dan tegelijkertijd slachtoffer en dader van haar eigen misdrijf?

Ik denk niet dat we die beerput open moeten gaan trekken want dan kom je uit op wetten die gaan eisen dat je de gordijnen van je slaapkamerraam potdicht houdt, want de overbuurman zou nog wel eens kunnen gaan gluren.
Nee zo ver moeten we inderdaad niet gaan, dat meisje weet zelf ook niet wat ze haarzelf aandoet (mogen die foto's uitlekken ga je geen leuk leven tegemoet). Wel moet deze content, mocht deze op dergelijke publieke sites, verwijderd worden. Ik zeg ook dat de voorbeelden die Flander noemt, géén voorbeelden zijn van CSA.

[Reactie gewijzigd door muvori op 20 november 2018 14:09]

Helemaal met je eens. Erg flauw van Apple... Tenzij Apple degene was die de Audit deed?

Als Tumblr meldt dat ze KP hebben gevonden en verwijderd en Apple reageert daar op door de app uit de store te gooien vindt ik het zelfs meer dan flauw; begint op trollen te lijken dan.

Mij lijkt het normaal dat je het bedrijf een tijdje de kans geeft om maatregelen te nemen. Maar ja Apple rekent grof geld voor elke store publish dus...

[Reactie gewijzigd door OddesE op 20 november 2018 09:14]

Apple had de tumblr app verwijdert voordat alles in het nieuws kwam, dus lijkt me stug dat ze al daarvoor de content verwijdert hadden.
Tsja, bij Tumblr zal het lastig blijven. Volgens mij "ontdek" je nieuwe content/accounts niet, tenzij ze gedeeld worden door mensen die je volgt, dus het blijft redelijk binnen een besloten kring. Je hebt volgens mij geen dashboard met nieuwe random meuk, zoals op fora, reddit en imageboards.

Geen idee of de moderator tooling dit wel heeft, maar gezien ze wat gemist hebben denk ik van niet.
Ik denk dat ze gewoon nieuwe uploads scannen tegen de databases van het Amerikaanse Nationaal Centrum voor Vermiste Kinderen, daarvoor zal de gebruiker ze niet moeten delen. Natuurlijk als het nieuw materiaal is dat nog niet in die database staat zal dat lastiger zijn, in dat geval neem ik aan dat ze het er nu aan hebben toegevoegd en een re-upload dus niet meer zal lukken.
Het is kinderporno die nog niet eerder online was aangetroffen
Als dit stukje klopt dan kom je er nooit achter tenzij iemand alle prive foto's overal bekijkt. Dat is dus wat iedereen wil blijkbaar. Dat alle foto's ten alle tijden waar dan ook beoordeeld worden.
Men gebruikt Project VIC / C4P doorgaans

Kortom hash tables van bekend materiaal. De hashes worden aangeleverd door o.a inlichtingendiensten

Echter de daders passen zich erop aan. Een filter of twee eroverheen, croppen/resizen
Gevolg de hash is totaal anders. Deze passeren de hash detectie engine(s)

Daarnaast is er natuurlijk deeplearning en geavanceerde AI
Probleem daarmee is, het is verre van 100% betrouwbaar. Gevolg veel false-positives
Gaat apple nu google ook niet meer als standaard zoekmachine aanbieden?

Edit* hoezo is dit off topic? Met de juiste zoektermen krijg je bij google afbeeldingen ook kinderporno te zien. Dit is gewoon een overtrokken reactie van Apple, ik durf te wedden dat het ook op Facebook en andere platformen te vinden is.

[Reactie gewijzigd door Finger op 20 november 2018 07:29]

Yep, Google/DuckDuckGO/Bing

Werd er jaren geleden bewust van toen ik bij afbeelding zoekopdracht een typefoutje maakte.
Weet niet meer exact waarop ik zocht maar het was iets heel alledaags. Wat totaal geen samenhang had met expliciet materiaal

Drukte op Enter voordat ik me spelfout zag.
Allemachtig zeg.... Niet 1 of 2 afbeeldingen, nee een hele pagina resultaten vol ermee.

[Reactie gewijzigd door osmosis op 20 november 2018 08:07]

Wanneer je in Bing het adult-filter uitschakelt zie je bij het zoeken op afbeeldingen bij elke zoekterm enorm veel porno/ bloot voorbij komen.
Totdat je iets van buurman en buurman zoekt en ineens buurman met buurman voor je kiezen krijgt
Duckduckgo is beter
Nou ja beter weet ik niet, maar dat je in 99% van de gevallen wel vind wat je zoekt is wel voldoende.
Wat ik zelf wel handig vind aan ddg is dat je kan blijven scrollen en de reacties blijven komen, hoef je niet steeds te klikken.
Inderdaad, kinderporno is de plaag van internet. Het is bijna op elk platform aanwezig.

Ik ben een aantal jaar een YouTube "Sheriff" geweest. Heb dagelijks vele honderden video's met kinderporno verwijderd. Veelal zit/zat het ook verstopt in video's die legitiem lijken maar het dus niet zijn omdat er kinderporno in verstopt is..
Dat valt mee waar je zit. Heb enorm leuke tijden gehad met schrijvers en zelfs historische discussies over Shakespeare en de Legenden van Koning Arthur. Of over Harry Potter en andere fandoms.Helaas werd porno steeds meer en meer zichtbaar. Het maakt tegenwoordig niet uit of je nu op "sex" zoekt of "Forest" je krijgt toch wel porno te zien, soms op de meest vreemde tags.

Dus ja, helaas is het steeds erger aan het worden.
Ik zie steeds minder porno op tumblr, sinds ze een safe search hebben gemaakt, waardoor je zonder in te loggen geen fapmateriaal meer ziet. Aangezien ik geen zin heb om een apart mightyfistpumper account aan te maken, sla ik tumblr steevast over op mijn kruistocht met de spijkerbroek op de enkels.
True, maar dat gaf filter doet ook wel dingen onzichtbaar maken wat niet terecht is.
Nee. De app uit de store verwijderen is niets beter dan China die Youtube blokkeert omdat er één filmpje (bij wijze van spreken) op staat dat ze niet aanstaat (lees: illegaal is).

Je weet niet of ze expres niets hebben gedaan. Wellicht hadden ze het druk met andere rapportages. Je kunt nou eenmaal niet verwachten dat ze gelijk het probleem oppakken en binnen 0 seconden oplossen. Zo werkt de wereld gewoon niet. En dan kun je nog zo hard vinden dat kinderporno het allerergste is dat er bestaat, ik beloof je, er zijn altijd wel dingen die hogere prio krijgen. Bijvoorbeeld het verwijderen van andere illegale content.

Ik vind het een zware beschuldiging, dat "expres" wat je noemt. Je kunt maar beter zorgen dat je zoiets hard kan maken, anders kun je het maar beter voor je houden.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee