TransIP pauzeert HashCheckService na onterecht verwijderen van afbeeldingen

TransIP zet zijn dienst HashCheckService tijdelijk stil. Het hostingbedrijf doet dit nadat onterecht standaardafbeeldingen van WordPress werden aangemerkt als kinderporno, waarna die mogelijk zijn verwijderd.

De mogelijk verwijderde afbeeldingen zijn bestanden die WordPress automatisch aanvult bij het uitvoeren van updates. TransIP adviseert gebruikers deze WordPress-update handmatig uit te voeren en benadrukt in een melding aan klanten dat er geen persoonlijke afbeeldingen verwijderd zijn. Het incident betreft de gratis dienst HashCheckService, die TransIP vorig jaar introduceerde. Klanten kunnen deze activeren bij hun webhostingpakketten om er zeker van te zijn dat hun servers niet misbruikt worden voor het stallen en verspreiden van kinderporno.

De dienst werkt op basis van een database van het Expertisebureau Online Kindermisbruik met hashes die zijn afgeleid van afbeeldingen met kindermisbruik. Als bij scans een match ontstaat, verwijdert de dienst de afbeeldingen. Bedrijven zoals hostingaanbieders kunnen gratis toegang tot de database krijgen via een api. Politiediensten vullen de database aan. Zo stelde de Nationale Politie bij de start 1,4 miljoen hashes beschikbaar met betrekking tot eerder gedetecteerde afbeeldingen met kindermisbruik.

Waar het misging, is volgens TransIP-woordvoerder Marco Edelman dat per ongeluk hashes van standaardafbeeldingen van WordPress-installaties en plug-ins zijn toegevoegd. Uit voorzorg heeft TransIP de dienst daarop stopgezet. Het bedrijf is in overleg met het EOKM om te waarborgen dat dit niet nog eens gebeurt. Edelman: "De intentie is wel om door te gaan met de dienst. We staan nog steeds achter het initiatief."

Het bedrijf noemt de garanties op de integriteit van de data vanuit het EOKM 'onvoldoende'. Niet bekend is welke waarborgen TransIP stelt voor verbetering. De HashCheckService ging vorig jaar van start op initiatief van het ministerie van Justitie en Veiligheid, de Nationale Politie, de Stichting Digitale Infrastructuur Nederland en het Expertisebureau Online Kindermisbruik, waarna TransIP een van de gebruikers werd.

Door Olaf van Miltenburg

Nieuwscoördinator

08-06-2021 • 15:58

73

Reacties (73)

73
72
51
9
1
17
Wijzig sortering
Op zich het zelfde principe waarom ik en vele anderen tegen een copyright "filter" waren: wie bepaalt/cureert de lijst met te filteren dingen, en hoe word gezorgd dat het filter niet te breed toegepast word.

Wel slecht dat dit nu met een anti-kinderporno initiatief gebeurd, maar het toont wel overduidelijk de gevaren met filteren gebaseerd op een database beheert door derden: de enorme macht om ook legitieme dingen neer te halen.
Die macht valt mee zolang alle betrokkenen die de lijst willen gebruiken zorgen voor controle en herstellen.

Wat ik hier lijk te lezen is dat een bedrijf het eerst vertouwd alsof er niets mis kan gaan, waarna het door dat vertrouwen mis gaat en ze willen dat een ander gaat wijzigen. Ten eerst is het al niet redelijk om een filter zomaar te vertrouwen. Ten tweede niet om dan slechts te lijken willen dat een ander hun voorstel maar doorvoert en zelf voorlopig maar weer niets zelf te wilken doen.
Maar hoe controleer je? Het zijn hashes, die kan je niet zomaar snel even nakijken. Enkel als mensen komen klagen kan je nagaan of er misbruik plaatsvindt en dan is het eigenlijk al te laat.
Ik weet niet hoeveel afbeeldingen er normaal worden verwijderd, maar als dat niet veel is zou je de afbeelding naar de politie door kunnen sturen/via beveiligde omgeving bekijken. Op het moment dat het echt KP is dan verwacht ik wel dat de politie daar ook wat mee gaat doen, klantgegevens navragen, onderzoek doen, etc.
De verantwoordelijkheid om te controleren of iets wel of niet KP is moet niet liggen bij een hostingbedrijf. Daarvoor is specifiek het meldpunt kinderporno aanwezig, die dit kunnen nakijken en verifiëren.

De politie zou dit dus 'vooraf' moeten doen via die hash database, zodat medewerkers van een zulk bedrijf dit niet zelf moeten bekijken - Dat kan nogal traumatiserend zijn, om het zacht uit te drukken. Het is de hele bestaansreden van een zulk systeem.

Verder ga je niet proactief bestanden van klanten nakijken, dus vertrouw je op meldingen van buitenaf. Die kun je dan inderdaad wel doorsturen, maar alsnog doet het bedrijf zelf er verder niets mee tot men terughoort van de politie of het meldpunt.

[Reactie gewijzigd door Khrome op 23 juli 2024 08:39]

het is een handige functie bij virussen en malware natuurlijk, maar hiermee gaaje als bedrijf wel over de schreef idd. ik neem aan dat transip zo slim zal zijn om ze in quarantaine te zetten ipv helemaal te wissen, dan moet de klant handelen.
Als je het negatief gaat benaderen ben je met hashes controleren hoe dan ook ergens te laat en het kent hoe dan ook mogelijke fouten. De vraag is wat (on)acceptabel is en waarom.

Als je fouten kan verwachten lijkt me niet dat je dan kan stellen dat dat onacceptabel is. Dat is onredelijk bij mensenwerk en zoveel bestanden. Maar vergaande gevolgen bij fouten zijn ook niet redelijk. Meestal zorg je dan dat iedereen verantwoordelijkheid neemt om schade te beperken, in plaats van alleen naar anderen te wijzen. Ik lees niet dat het bedrijf zorgt dat als er duizenden zelfde bestanden bij heel veel klanten een probleem zouden zijn er op tijd een lichtje bij zichzelf gaat branden om ongewenste gevolgen te voorkomen. Of dat ze hebben gezorgd dat ze fouten zo snel mogelijk ongedaan kunnen maken voordat iemand gaat klagen. Of dat ze rekening hebben gehouden om de organisatie die een verkeerde hash leverde de klachten ontvangt.

[Reactie gewijzigd door kodak op 23 juli 2024 08:39]

Je komt er gauw genoeg achter, als de verkeerde content geblockt blijkt. Zoals hier dus ook gebeurd is.
Geen probleem vind ik voor dit soort content.
Je doelt op het net verwijderde plaatje.
Lastig te bekijken, maar ik ben dan ook dom
De wetgever stelt het verwerken strafbaar, dus kan je als bedrijf die plaatjes niet zomaar gaan bekijken en als het bijvoorbeeld volgens de politie ook nog eens om dat verboden materiaal zou gaan is dat bekijken ook niet zomaar wel redelijk. Als je zou stellen dat een bedrijf bij redelijke twijfel (zoals opvallend veel klanten met een zelfde hash of desnoods veel klachten met aanwijzingen) wel wat legale controle kan doen dan geef ik je gelijk.
En ik verbaas me altijd hoe mensen vaak direct wat roepen zonder even verder na te denken. Over dom gesproken... Misschien is het geheel wel veel complexer dan even "naar het fucking plaatje kijken".
Jij kan dat ja, maar computers kunnen dat (nog) niet (zo goed). Vandaar dat er hashes gebruik worden want een hash vergelijken met een hash uit een database is iets wat een computer juist heel erg goed kan. Alleen aangezien een hash een willekeurige reeks tekens is valt daar voor een mens dus juist weer niets aan te zien.
Een andere optie is om een heel kantoorgebouw vol mensen neer te zetten die alle plaatjes op het internet bekijken en melden als er kinderporno tussen zit, maar dat is dus lastig te automatiseren.
Maar als deze afbeeldingen aangepast zijn (formaat, resolutie) dan werkt het checken op basis van de hash toch niet meer? Dan is deze HashCheckService voor criminelen toch makkelijk te omzeilen?
Ik weet niet wat HashCheckService achterliggend gebruikt maar als ze slim zijn is het gebaseerd op PhotoDNA dat geen problemen heeft met zo'n aanpassingen: https://en.wikipedia.org/wiki/PhotoDNA
Dit is het systeem dat alle grotere bedrijven gebruiken om kinderporno automatisch te detecteren.
PhotoDNA werkt ook niet waterdicht.

Deze medetweaker en anderen hebben een vervelende ervaring aan false positives van PhotoDNA overgehouden.
Als ik de uitleg lees vanop de wikipedia pagina lijkt het me dat ze perceptual hashing (pHash) gebruiken: https://en.wikipedia.org/wiki/Perceptual_hashing
In tegenstelling tot klassieke hashes waarbij een kleine verandering je hash compleet verandert is dit bij pHashes niet het geval. Wijzigingen zoals resolutie, kleine kleurcorrecties etc.. zorgen voor een (bijna) identieke pHash.

Daarbij kan je dan een zekere gradatie van 'match' op toepassen. Exact match geeft natuurlijk de grootste zekerheid. Maar als je naar lagere matches gaat dan krijg je veel snel false positives.
En zoals ook al aangegeven: hashes zijn niet uniek en er kan altijd een collision optreden.
Hoe gaat dit systeem met spiegelen van een foto om ?
De hash zelf niet maar het algoritme dat de vergelijking doet kan daarmee rekening houden. In princiepe zou je je elke transformatie die je op de foto doet ook op je vergelijkingsalgoritme kunnen toepassen.

Bij pHashes wordt de foto opgedeeld in vakken waarbij een waarde van ieder vak in de hash geplaatst wordt. Neem het simpele geval van een 2x2 matrix abcd waarbij a linksboven, b linksonder, c rechtsboven en d rechtsonder encodeert. cdab is dan de gespiegelde pHash van je oorspronkelijke foto. Je kan dan ook links/rechtsom gedraaide foto's detecteren (bdac voor linksom, dacb voor rechtsom).
Bij kleurcorrecties kan je kijken naar de waardes van je foto. stel je heb 2445 als waardes in je matrix; dan is 1334 een donkerdere versie en 3556 een heldere versie. Enz...

Dit is puur theoretisch hoe het kan; geen idee hoe PhotoDNA of pHash het exact doet maar de beschrijving van PhotoDNA sluit hier heel goed op aan.

Het mooie aan de techniek is dat je een redelijk unieke hash kan berekenen die toch vergelijkbaar blijft bij lichte wijzigingen aan je media. pHashes zijn trouwens niet beperkt tot foto's. Je kan dit ook toepassen op andere media zoals films of muziek, verandering van formaat (raw -> jpeg etc...).

[Reactie gewijzigd door niqck op 23 juli 2024 08:39]

Via de API worden alle beschikbare hashlijsten gecheckt. De technische kant verloopt door middel van MD5, SHA1 en/of PhotoDNA hashes.
Bron

Conclusie: Ze gebruiken PhotoDNA, maar het is ook mogelijk MD5/SHA1 te gebruiken.
HashCheckService pagina zegt:
doorloopt vervolgens de mappen en bestanden en checkt de eerste bytes van een bestand. Als het een afbeelding betreft wordt er een MD5-checksum gemaakt voor het bestand en sturen we deze via een proxy door naar de EOKM API
Dit is ook gewoon gedoemd te mislukken.
1. Hash collision https://en.wikipedia.org/wiki/Hash_collision
2. Als ik een foto upload in WordPress wordt deze automatisch aangepast en is de hash anders
Er wordt hier (deels) gebruik gemaakt van Microsoft's PhotoDNA. Die maakt niet zo maar simpele hashes. Daar gaan heel wat algoritmes en AI/ML aan vooraf, die op basis van relevante informatie een hash bouwen. Het is geen simpele hash van de rouwe pixels en metadata van een foto.
Er wordt hier (deels) gebruik gemaakt van Microsoft's PhotoDNA. Die maakt niet zo maar simpele hashes. Daar gaan heel wat algoritmes en AI/ML aan vooraf, die op basis van relevante informatie een hash bouwen. Het is geen simpele hash van de rouwe pixels en metadata van een foto.
Maar... dan is de kans op een collision dus ook heel anders dan bij een directe MD5; SHA-2; etc. hash.
De collision-rate is dan direct afhankelijk van hoe goed dat model ingetraind wordt en wat voor mapping methode er gebruikt wordt. Dwz. wat voor points of interest er uit een foto geextraheerd worden en waarop het AI/ML model scoring toepast.

[Reactie gewijzigd door R4gnax op 23 juli 2024 08:39]

Ik weet niet het fijne van HashCheckService, maar Microsoft is er al meer dan 10 jaar mee bezig en werkt samen met vele politiekorpsen en andere instanties, waaronder de Nederlandse Politie. Ze passen het ook al jaren toe op foto's die op Onedrive staan (wat vooral in het begin veel conflicten gaf met gewone familie foto's).

PhotoDNA hashed de foto's niet, het geeft ze een signature. Waarmee het ook vergelijkbare foto's kan vinden. Het beoordeeld daadwerkelijk de plaatjes en doet dit grotendeels op basis van bekende foto's.

Ik weet niet hoe HashCheckService PhotoDNA toepast, of het een hulp tool is of dat ze alle plaatjes er ook doorheen halen.

Dit zijn de dingen waarom ik wel een beetje Microsoft fanboy ben en niet zo snel van andere bedrijven. Ik heb echt veel respect voor dit stukje filantropie, daar zit geen enkel eigen gewin bij, ze gebruiken het niet eens als "kijk ons eens feelgood" marketing.
Het geeft helaas nog steeds false positives getuige de diverse Tweakers waarbij hun MS account is geblokkeerd en flink wat moeite hebben om door de helpdesk van MS heen te komen.

Microsoft account vergrendeld / geblokkeerd

Hoe fijn ik MS producten ook vind, ik wordt hier wel huiverig van en het weerhoudt mij ergens om Onedrive als foto back-up te gebruiken. Eén foto die, onterecht, geflagged wordt en je bent gelijk je gehele MS account (incl, Skype, Xbox, etc) kwijt. Helemaal leuk in combinatie met de auto back-up feature van de mobiele Onedrive app.

[Reactie gewijzigd door Caayn op 23 juli 2024 08:39]

Hash collision is niet echt het probleem, maar de reactie op een match ...

Overigens is hashing maar één techniek, als ik een stukje van de afbeelding bewerk of inknip is de hash ook anders...

[Reactie gewijzigd door svennd op 23 juli 2024 08:39]

Al verander je 1 pixel. Dat is het hele idee van hashes
Een collision op een 128+ bit hash is niet heel waarschijnlijk.
Dit is ook gewoon gedoemd te mislukken.
1. Hash collision https://en.wikipedia.org/wiki/Hash_collision
Onzin. Of is het concept van UUID volgens jou ook gedoemd om te mislukken?

[Reactie gewijzigd door Djordjo op 23 juli 2024 08:39]

We zijn in overleg met het EOKM om te waarborgen dat dit niet nog eens gebeurt.
:')

Ik weet het antwoord al: Het is niet te waarborgen tenzij je een persoon erop zet om het handmatig te beoordelen. En nog twee extra personen als Second & Third opinion.

Begrijpelijk dat hashes van afbeeldingen van het standaard thema van ieder willekeurig CMS in zulke databases kunnen belanden, aangezien niet iedere pedo-website een goede UX designer kan strikken. Daarnaast kunnen die plaatjes achter blijven als de webdesigner zelf met het standaard thema gaat knoeien.

De conclusie die uit dit nieuws getrokken kan worden, is dat de politie en andere instanties pompen lukraak (hashes van) afbeeldingen in die database.
Je politiefoto o.i.d. zou door een ongelukkige drag-en-drop door een digibete agent dus ook in de database kunnen belanden.... :/

[Reactie gewijzigd door RoestVrijStaal op 23 juli 2024 08:39]

Ik vermoed iets superknulligs zoals het plaatje right click saven en er dan niet meer naar kijken, geen rekening houdend met overlays en js trucjes.
Veel te ingewikkeld ik gok dat KP sites door een scan zijn getrokken en alle afbeeldingen aangemerkt zijn als KP, dus ook het logo van Wordpress etc.
Ik weet het antwoord al: Het is niet te waarborgen tenzij je een persoon erop zet om het handmatig te beoordelen. En nog twee extra personen als Second & Third opinion.
Zoals facebook doet met haar content controle fabrieken in India en tal van andere derde wereldlanden?
Veel dichter bij huis, een van de grootste content moderation centra zit in Berlijn.

https://www.nytimes.com/2...etion-center-germany.html
[...]
Ik weet het antwoord al: Het is niet te waarborgen tenzij je een persoon erop zet om het handmatig te beoordelen. En nog twee extra personen als Second & Third opinion.
Dit is ook de fout van de politiek geweest die de term "waarborg" heeft uitgerekt.

Vroeger betekende het: "Er is een duidelijk proces en certificatie waardoor <X> niet meer kan gebeuren"
Nu betekent het: "We roepen dat het gewaarborgd is als antwoord op lastige vragen, maar geven verder geen enkele tekst en uitleg". Zie Ivo Opstelten, Schippers enz. "Privacy? Geen zorgen joh, is allemaal dik gewaarborgd (y) (y) ".

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 08:39]

De plaatjes waar die database op is gebaseerd zijn dan ook handmatig beoordeeld, anders mogen ze in de vervolging geen rol spelen. Het een van de ergste k.. klussen die je kan krijgen bij de recherche.

Edit: je suggestie slaat echt nergens op. Misschien heb je het idee dat hashes uniek zijn? Dat zijn ze namelijk niet, en dat lijkt me de meest voor de hand liggende verklaring te zijn: onschuldige plaatjes die toevallig dezelfde hash op leveren als een foute.

[Reactie gewijzigd door TheekAzzaBreek op 23 juli 2024 08:39]

Misschien heb je het idee dat hashes uniek zijn? Dat zijn ze namelijk niet, en dat lijkt me de meest voor de hand liggende verklaring te zijn: onschuldige plaatjes die toevallig dezelfde hash op leveren als een foute.
Als het over 1 enkele afbeelding zou gaan uit de standaardafbeeldingen van WordPress waarvan de hash toevallig collidet met een KP afbeelding dan zou ik daar inderdaad vanuit gaan. Maar aangezien het hier een set afbeeldingen betreft van WP die allemaal een hash krijgen die als KP aangemerkt zijn, dat kunnen statistisch gezien niet allemaal toevallige collisions zijn.

Oftewel: @RoestVrijStaals suggestie slaat echt wel ergens op.
Hashcollisions zijn toch ook echt een dingetje... ik weet niet welk algoritme ze gebruiken om hashes te maken, maar met zoveel afbeeldingen in de wereld vermoed ik dat md5 toch echt niet meer voldoende is :)

[Reactie gewijzigd door cappie op 23 juli 2024 08:39]

MD5 is 128 bits. Ik weet niet wat ze een acceptabele false-positive ratio vinden, maar als je 10^-9 (dus 0,000000001%) acceptabel vindt heb je 10^14 (10 met 14 nullen) plaatjes nodig. Dat is best veel. Natuurlijk is SHA-2 een betere optie en dat zullen ze tzt. wel gaan gebruiken maar de kans op een hashcollision lijkt me vooralsnog kleiner dan de kans dat iemand per ongeluk de verkeerde foto's in de database opneemt.
De kans dat iemand per ongeluk de afbeeldingen van de hele website heeft gehashed waar de pinderkorno op stond is waarschijnlijk groter dan een hashcollision inderdaad...
Staat in de tekst, MD5, kans op een collision is niet écht groot hoor: https://www.avira.com/en/blog/md5-the-broken-algorithm
Waarom ook meteen verwijderen? Dat klinkt als fout ontwerp, je weet dat false-positives en bugs zouden kunnen voorkomen. Maak de bestanden gewoon niet toegankelijk via permissies of plaats ze in quarantine. Meteen naar /dev/null is zelden een strak plan tenzij je back-ups hebt waarvan je weet dat ze werken.
Dat is achteraf natuurlijk makkelijk te zeggen. Zoals op de website van het meldpunt beschreven staat:
Deze hashlijsten zijn afkomstig uit de databases met bekende en geverifieerde slachtoffers van seksueel misbruik van minderjarigen van de Nationale Politie (TBKK), Interpol (ICSE) en het National Center for Missing & Exploited Children (NCMEC).
Dus natuurlijk worden deze afbeeldingen daarna direct verwijderd. Je wilt niet tegen een gebruiker zeggen 'hey, dit is mogelijk kinderporno, wil je het even checken?'. Dan wordt het namelijk een manier om kinderporno te vinden in plaats van te verwijderen.
Het lijkt me ook niet de bedoeling om bij mogelijke hits direct naar je gebruiker te communiceren dat er kinderporno gevonden is. Ik zou deze afhankelijk van de hoeveelheden hits simpelweg flaggen en door een medewerker laten checken. Naar de klant kun je indien je deze bestanden ontoegankelijk maakt alsnog kunnen communiceren dat het bestand is 'gemarkeerd als verdacht' (oid) en gecontroleerd wordt. Indien niks aan de hand, weer vrijgeven.

Hoe dan ook ben ik het met WhatsappHack eens; meteen verwijderen is echt not done, helemaal als hosting bedrijf.
Hoe dan ook ben ik het met WhatsappHack eens; meteen verwijderen is echt not done, helemaal als hosting bedrijf.
De dienst is opt-in, dus je kunt stellen dat de klant daar zelf mee akkoord gaat?
Als duidelijk in de voorwaarden genoemd wordt dat bestanden met een match onherroepelijk verwijderd worden, dan eens :)
Op https://www.transip.nl/kn...t-is-de-hashcheckservice/ staat het volgende:
We bieden klanten aan om hun webhostingpakketten te scannen op beeldmateriaal van kindermisbruik. Dit is vrijblijvend en moet gezien worden als extra dienst. Je kunt dan ook zelf de functie aan- en uitzetten via het controlepaneel. Zet je de service aan en is er een match tijdens een scansessie, dan wordt het ongewenste bestand automatisch verwijderd.
Geen woord over hoe het bedrijf om gaat met fouten. Het lijkt wel alsof ze er gewoon geen rekening mee hebben gehouden en ze er nu mee stoppen terwijl de gevolgen niet zo vrijblijvend zijn (nogal veel klachten van klanten afhandelen).
Ja lekker idee. Ik zie de vacature voor professioneel kinderpornokijker al voor me |:(
Wat denk je dat meldpunten de hele dag aan het doen zijn..

Anyway, is inderdaad geen taak voor Transip, daar zijn die hele hashes ook voor bedoeld. Om dit te herkennen zonder het beeld zelf in te zien.
Nou ja, niet hun werk dus. Ik zou niet graag willen ruilen hoor, maar als de aangeleverde database van hashes zo slecht is dat een hostingbedrijf alsnog een handmatige controle zou moeten doen, kun je net zo goed die service helemaal stopzetten.

Edit: wat TransIP dus ook (gelukkig) gedaan heeft.

[Reactie gewijzigd door mcDavid op 23 juli 2024 08:39]

Helemaal mee eens, maar gelukkig bestaan veel succesverhalen ook uit faal momenten.
Het iniatief heeft iedere geval groot potentie.
Klagen dat mensen hun werk niet doen omdat er een keer iets fout gaat klinkt niet redelijk. Mensen maken nu eenmaal fouten, zelfs als ze hun werk goed proberen te doen. De vraag is dus wat zowel de organisatie als het bedrijf acceptabel vonden en waarom dat nu plotseling voor het bedrijf wijzigt door een fout die je mag verwachten.

Nergens uit blijkt dat een lijst slecht is als een bedrijf kennelijk bij een fout al kiest om te stoppen. Dat zegt eerder iets over het bedrijf om het te willen gebruiken zolang het ze geen problemen geeft.

Daarnaast laat het bedrijf niet zien wat er redelijk aan is om het filteren bij een fout al helemaal te stoppen. Alsof voorkomen alleen gewenst is als het aan hun voorwaarden voldoet.
Eens, het zijn verschrikkelijke banen, maar toch zijn ze nodig. NRC had hier een tijd geleden nog een artikel over, specifiek over de moderatoren van Facebook (en wat voor hel dat is).
Anoniem: 1532362 @pixeled8 juni 2021 16:40
Ik was laatst letterlijk opzoek naar deze exacte vacatures van facebook moderator. Lijkt mij een relatief leukere baan dan ik nu heb. Zou die baan best willen uitvoeren, als iemand de vacature of een linkje heeft, graag!

[Reactie gewijzigd door Anoniem: 1532362 op 23 juli 2024 08:39]

Lijkt mij een relatief leukere baan dan ik nu heb. Zou die baan best willen uitvoeren
Geen idee wat je nu doet, maar zo'n leuke baan is het niet.
https://www.theverge.com/...-scola-ptsd-mental-health
Anoniem: 1532362 @Christoxz8 juni 2021 18:26
Ja heb het gelezen, maar ik kan 24/7 naar zelfmoord en andere gruwelijke dingen kijken en dat doet me echt helemaal niets. Dus ja die baan is niet voor iedereen dat is duidelijk.

Plus natuurlijk een leuk artikel voor de news media om artikel over te schrijven. Zijn genoeg andere banen die ook heel schokkend kunnen zijn, politie werk kom je ook de meest nare dingen tegen, of als je in medisch velt werkt. krijg je ook PTSD van.

Politie komt er direct mee in aanraking, voor hun zijn die dingen veel 'echter', als moderator is het toch allemaal op een afstandje van je dat je het nog van je af kunt zetten.

De echte fout is dat Facebook die mensen niet goed screened voordat ze hun dat werk geven.

[Reactie gewijzigd door Anoniem: 1532362 op 23 juli 2024 08:39]

Lijkt mij een relatief leukere baan dan ik nu heb.
Mja dat weet ik zo net nog niet. Behalve kinderporno wordt er ook een heleboel gore en andere shit op facebook gepost en daar mag je dan dus ook een oordeel over vellen.

Dus tenzij je baan nu bestaat uit de hele dag nóg ergere dingen bekijken…

[Reactie gewijzigd door CyBeR op 23 juli 2024 08:39]

Precies, iemand post een foto van een klein kind spelend op het strand. Die mag je dan als "kinderporno" gaan flaggen en verwijderen omdat de tepels niet bedekt zijn.
Ik heb door dat soort onzin juist het idee dat dit soort mensen juist overgevoelig zijn.
Of je kiest om direct te melden aan het meldpunt of je verifieerd zelf nog eens... de hele dag ... ik mag hopen van niet ...
Hoe dan ook ben ik het met WhatsappHack eens; meteen verwijderen is echt not done, helemaal als hosting bedrijf.
Het zijn de site/serverbeheerders die er voor kiezen deze dienst in te schakelen, niet TransIP. Als die er voor kiezen liever potentieel te veel te verwijderen (die kans is er altijd, want hashes zijn niet uniek) om gedonder en reputatieschade te voorkomen zie ik niet wat het probleem is.
Vernietigen ze op deze manier geen bewijsmateriaal? Dat ze het niet zomaar aan de klant teruggeven snap ik, maar verwijderen is ook wat vreemd.
De ironie van dit verhaal samen met het eerdere artikel omtrent artikel 17 is toch wel pijnlijk.

TransIP dacht even een eenvoudige oplossing te bieden, maar laat meteen zien dat het zo eenvoudig niet is.
En waarom geen gebruik maken van een extra whitelist?
Alle bekende en vertrouwde afbeeldingen whitelisten. Lijkt me ook fijner voor de mensen die de afbeeldingen moeten controleren.
Hoe zie je dat in hemelsnaam voor je? Waar zou die magische lijst van "alle" vertrouwde afbeeldingen vandaan moeten komen? En als ik zometeen een net nieuw gemaakte foto ergens upload, hoe zou je daarvan dan moeten weten of die goed of slecht is?
Ik dacht dat het in dit artikel ging over "standaard" afbeeldingen. Daar kun je dus, in mijn ogen, makkelijk een lijst van maken die je eenmalig controleert. Alle nieuwe afbeeldingen gaan gewoon mee in de check zoals dat nu ook is. En alle rommel wordt hopelijk geblokkeerd.
Ik vind persoonlijk dat we alle wapens in de strijd moeten gooien om meuk als kp van het web te weren. Het zou dus zonden zijn als we dit soort filters niet meer kunnen gebruiken.
Het artikel gaat over afbeeldingen die standaard meegeleverd worden met één softwarepakket (WordPress), die per ongeluk in de KP blacklist terecht waren gekomen. Er is (uiteraard) geen whitelist die alle "goede" afbeeldingen bevat, terwijl dit juist ook gaat over "user-created content".

"Alle nieuwe afbeeldingen gaan gewoon mee in de check"? En wie gaat van die nieuwe content dan bepalen of het wel of geen KP is? Heb je enig idee hoeveel user-created content er dagelijks bij komt?

De huidige aanpak met een "blacklist" van bekende KP is de enige haalbare manier om dit enigszins geautomatiseerd te kunnen checken, om in elk geval te voorkomen dat "bekende" KP verder verspreid wordt.

Nieuwe KP hou je er niet mee tegen en een whitelist van alle plaatjes die toegestaan zijn op internet is natuurlijk ook geen haalbare kaart.
Dus je mag geen nieuwe afbeelding toevoegen aan je site zonder deze eerst te laten controleren? En wie gaat dat allemaal controleren?

Een blacklist is een goed idee en werkt maar je moet niet de verkeerde afbeeldingen toevoegen dat is gewoon amateuristisch.
Precies, of zonder whitelist, maar met een mogelijkheid om false positives te melden en dan die hashes uit de database verwijderen. Als je actief preventief verwijdert is het wel handig om ze nog ergens te hebben.
Vooral in deze tijd dat o.a. whatsapp, mail clients maar ook webrowsers(opera) foto's automatisch verkleint bij het doorsturen heb je hier dus bijna niets aan.
Doet me denken aan die overspannen content chat filter van AliExpress. Dat ding blokkeerde, zonder enige melding terug, een foto van mijn klacht over een versleten rolpunt van een taststok die ik in mijn hand had. Na een keer of 3 proberen (he, wat is er aan de hand") keek er schijnbaar iemand naar, toen mocht de foto wel via de chat naar de verkoper.

Voor hetzelfde geld krijg je dus een automatische ban.

Je zou maar rustig rondlopen op straat en door zo'n overspannen systeem als "engert" worden gevlagd. Krijg je meteen een stapel boa's in je nek.

Op dit item kan niet meer gereageerd worden.