Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 183 reacties

Net als Google scant Microsoft de bijlagen van e-mail op kinderporno, zo blijkt uit een nieuwe zaak waarover de BBC bericht. Een Amerikaan is onlangs opgepakt toen hij via zijn Live.com-account kinderporno probeerde te versturen.

MicrosoftHet is onbekend of de softwaregigant uit Redmond van alle gebruikers de mailbijlagen scant of alleen van accountbeheerders van wie het al vermoedt dat ze kinderporno in bezit hebben; dat is aan de hand van deze zaak niet vast te stellen. Microsoft kwam de man op het spoor, toen hij de afbeelding van een jong meisje die door Microsofts PhotoDNA-software werd herkend als kinderporno opsloeg op zijn OneDrive-webopslag, schrijft de BBC.

Google bevestigde dinsdag dat het de bijlagen van e-mail die gebruikers versturen via Gmail scant op kinderporno met een eigen systeem. Beide bedrijven tippen een door het Amerikaanse Congres opgerichte non-profitorganisatie als ze kinderporno aantreffen. De bedrijven zijn dan verplicht die info door te spelen.

Microsoft heeft ook in zijn voorwaarden voor Nederland staan dat het geautomatiseerde systemen inzet om te scannen op kinderporno. Tot voor kort was het echter veel gebruikers niet duidelijk dat daarbij ook afbeeldingen in privédiensten als OneDrive worden gescand.

Moderatie-faq Wijzig weergave

Reacties (183)

De vraag is natuurlijk wat precies kinderporno is. Als jij je pasgeboren baby in bad doet en je stuurt daarvan per e-mail je vrouw een foto lijkt me dat niet onder kinderporno vallen.

Waarschijnlijk zal de scanner die ze gebruiken dit onderscheid niet kunnen maken waardoor er vervolgens een medewerker naar die foto gaat kijken. Wat gebeurt er als je 15-jarige dochter een pikante foto naar haar vriendje stuurt (die bijvoorbeeld ook 15 is)? Gaat er dan ook een medewerker naar kijken? Niet echt een prettige gedachte allemaal.
De technologie die Google gebruikt, 'hashing', probeert de unieke kenmerken van een afbeelding te matchen met een bekende database van afbeeldingen van kindermisbruik die het systeem eerder online vond.
nieuws: Google bevestigt dat het afbeeldingen in Gmail-bijlagen scant op kinderporno
Het is dus niet zo dat er een medewerker actief kijkt naar de afbeeldingen en deze beoordeelt. Het gaat om bekende afbeeldingen waar een geautomatiseerd systeem naar kijkt.

Microsoft gebruikt een vergelijkbaar systeem: https://www.microsoft.com/en-us/news/presskits/photodna/

[Reactie gewijzigd door JanW op 7 augustus 2014 10:20]

De vraag is natuurlijk wat precies kinderporno is. Als jij je pasgeboren baby in bad doet en je stuurt daarvan per e-mail je vrouw een foto lijkt me dat niet onder kinderporno vallen.
Er wordt gebruik gemaakt van PhotoDNA, dat botweg een manier van hashvergelijking is. Als jij een foto van je eigen kind maakt en dat doorstuurt, dan is die hash natuurlijk nog niet bekend in welk systeem dan ook, en zal dus geen match opleveren. Dat geldt dan ook voor andere zelf gemaakte (prive) foto's.
Once NCMEC assigns PhotoDNA signatures to known images of abuse, those signatures can be shared with online service providers, who can match them against the hashes of photos on their own services, find copies of the same photos and remove them. Also, by identifying previously “invisible” copies of identified photos, law enforcement may get new leads to help track down the perpetrators.
bron
nee.
ik denk dat de software dat niet kan herkennen. stel dat ik nu een naakt foto van een 14 jarig meisje of jongen zou maken en die gelijk zou versturen. ik weet bijna zeker dat er dan nog niks gebeurd.

ik denk dat de kinderporno eerst "verzameld" moet worden bij bepaalde websites / uit oud bewijs van daders / andere plekken waar kinderporno te krijgen is.

vervolgens daar een database van gemaakt word en de plaatjes dan in het systeem zitten. verstuur je vervolgens een plaatje wat in het systeem zit. of een versie die er op lijkt. dan zal er een alarm af gaan.

net als google reverse image search. die vind bijvoorbeeld deze foto :

https://www.google.nl/sea...Q2A4oAQ&biw=2560&bih=1315

en alles wat daar op lijkt en alle mogelijke formaten.
maar probeer je een onbekende foto van jezelf of die je net gemaakt hebt te uploaden.
https://www.google.nl/sea...C9u-DODOzEzxwmqGDuzFR0dec

dan vind die geen gelijke afbeeldingen.

Het is maar een gok. maar ik denk dat het zo werkt.
Zou je volgende keer NSFW erbij kunnen vermelden? ;))
Het systeem herkent alleen foto's die al geclassificeerd zijn als kinderporno (ofwel images die al bekend zijn).. Er wordt niet (in iedergeval bij MS) naar de plaatjes zelf gekeken.. Het systeem werkt (op dit moment) dan ook alleen met kinderporno foto's die al bekend zijn.

Maar als er wel gekeken zou worden, dan zouden er nog veel meer punten naar boven komen, hoe weten ze bv wat de leeftijd zou zijn van degene op de foto (genoeg mensen die er jonger uit zien dan dat ze zijn), tevens verschilt het ook nog eens per land wat de leeftijdgrens is, en het voorbeeld wat je zelf al aangeeft, minderjarigen die foto's sturen naar andere minderjarigen..
Voor zover ik weet maakt het systeem van google gebruik van een database met bekende kinderporno foto's en probeert dat binair te matchen met de verstuurde foto. Er wordt (voor zover ik weet) niet gedaan aan beeldanalyse. Wat dus de kans erg klein maakt dat de voorbeelden die je er uit pikt, worden aangemerkt als kinderporno...
Volgens de voorwaarden mag je geen materiaal publiek op OneDrive zetten waarin naakt voorkomt. Volgens de terms & conditions:
iv. Don't publicly display inappropriate images (e.g. nudity, bestiality, pornography).

Het gaat dus niet alleen om kinderporno, maar ook om content die publiekelijk beschikbaar is gemaakt.
Het is handiger dat je je eerst even informeert over de technologie voordat je je zorgen gaat maken en/of onjuiste stellingen gaat posten.

PhotoDNA herkent geen pasgeboren baby's nog 15 jarige blote tieners. Het analyseert de inhoud niet, kiijkt niet naar gezichten, herkent geen objecten. Het kijkt slechts naar pixels en bepaalt de fotos hash/signature. De signature blijft hetzelde zelfs als de foto's zijn veranderd.

PhotoDNA is geen KP detectie algoritme, alhoewel deze toepassing wel de reden was voor de ontwikkeling. De reden dat PhotoDNA wordt gebruikt voor KP detectie is dat de gebruikte database signatures met KP bevat. Gelukkig heeft Microsoft de plaatjes niet. De database wordt onderhouden door een overheids instantie die de signatures beschikbaar stelt aan elk bedrijf dat KP detectie wil inbouwen in hun email programma. Het is enigzins vergellijkbaar met virus scanners die worden gevoed door een database die centraal wordt onderhouden en door meerdere bedrijven wordt gebruikt.

Ik weet niet precies wat de protocollen zijn maar er is geen enkele reden voor Microsoft om naar de foto's te gaan kijken als er KP is gedetecteerd. Het enige wat ze hoeven doen is de detectie doorgeven aan die overheidsinstantie en daarmee is de kous af. Het is een beetje vergelijkbaar met het tippen van de politie over iets illegaals: je hoeft (mag?) niet zelf even te gaan kijken wat er precies aan de hand is.
De vraag is natuurlijk wat precies kinderporno is. Als jij je pasgeboren baby in bad doet en je stuurt daarvan per e-mail je vrouw een foto lijkt me dat niet onder kinderporno vallen.

Waarschijnlijk zal de scanner die ze gebruiken dit onderscheid niet kunnen maken waardoor er vervolgens een medewerker naar die foto gaat kijken. Wat gebeurt er als je 15-jarige dochter een pikante foto naar haar vriendje stuurt (die bijvoorbeeld ook 15 is)? Gaat er dan ook een medewerker naar kijken? Niet echt een prettige gedachte allemaal.
Terechte vragen,

Daarnaast blijft de vraag als ze hier al op scannen, waar scannen ze nog meer op? En als in het nieuw bericht staat dat er al 1 hele persoon door is opgepakt vind ik dit vergelijkbaar met een atoombom gooien om 1 vlieg te verjagen.
Daarnaast blijft de vraag als ze hier al op scannen, waar scannen ze nog meer op?
  • Malware
  • Spam
  • Phising
  • Content voor targetted reclame.(iig Google)
Ze vergelijken toch met een database waarvan vastgesteld is dat het om kinderporno gaat.
Bovendien ben ik nog niet opgepakt, toen ik een badfoto doorstuurde van mijn kind :D
Bovendien ben ik nog niet opgepakt, toen ik een badfoto doorstuurde van mijn kind :D
Wellicht sta je nu wel op een volglijst?

Zou me niets verbazen, ondanks dat je niets misdaan heb
Een foto van een kind in bad heeft niks met kindermisbruik of kinderporno te maken. Beetje jammer hoe de ernst van die zaken hier steeds geminimaliseerd wordt. Een kind een bad geven is GEEN misbruik, en ga er maar vanuit dat ze bij een zaak als NCMEC prima dat onderscheid kunnen maken.
Je mist mijn punt hier in dus. Het is het ook gewoon niet. Maar als je net verkeerd beoordeeld word sta je wel op een lijst gereistreerd. En dat is imo nu juist 1 van de groote problemen met dit systeem
Wat zou je dan niet verbazen? Het enige wat ik dan nog uit je bericht kan opmaken, is dat het je niet zou verbazen dat NCMEC het verschil niet weet tussen een foto van een kind in bad en kindermisbruik. Of dat het je niet zou verbazen dat ze daar met hash-lijsten werken van kinderporno waartussen vakantiefoto's staan en foto's van Kim Jong-Un?

Nogmaals, je komt niet zomaar op een lijst van misbruikers te staan, ook niet wanneer Microsoft of GMail samenwerken met NCMEC.
Microsofts PhotoDNA-software
Deze software werkt met hashes van bekende kinderporno afbeeldingen. Afbeeldingen van je eigen kinderen staan daar hopelijk niet in en zullen dus niet aangemerkt worden door de software.

[Reactie gewijzigd door DaManiac op 7 augustus 2014 10:20]

De scanner gaat geen nieuwe afbeeldingen herkennen. Er is ergens een heel grote database met zulke afbeeldingen die ze buit gemaakt hebben bij verzamelaars. Via een check is het heel makkelijk te achterhalen of een afbeelding in je bijlage, ook in die grote database zit.
Ja dat is en blijft imho ook een probleem. De cultuur in de USA en hoe hier mee om te gaan is volgens mij nogal anders dan dat we die hier in Europa. Dit soort systemen kunnen dan problemen gaan geven.

En zoals boven ook al word aangegeven wisten we toch al dat Microsoft PhotoDNA gebruikt in OneDrive? Heb even gezocht en in 2012 was er zelfs een internationaal nieuwsitem waarin een Tweaker zijn volledige live account op zwart ging. Linkje.
PhotoDNA werkt op basis van een soort van hash van bestaande foto's. Foto's worden alleen tegen deze hashes vergeleken. Als je zelf een foto schiet zal hier geen hash voor zijn in de PhotoDNA archief. Er komen dus niet eens medewerkers aan te pas. De politie zoekt uit wat kinderporno is maakt hier hashes van en bedrijven checken foto's tegen deze hashes. Geen enge dingen dus.
De scanner kijkt niet naar bloot, maar vergelijkt de foto's met een database aan in beslag genomen materiaal.

Als je badfoto er niet exact hetzelfde uitziet als een foto die ten huize Dutroux gevonden is dan zit je wel snor.
De vraag is natuurlijk wat precies kinderporno is. Als jij je pasgeboren baby in bad doet en je stuurt daarvan per e-mail je vrouw een foto lijkt me dat niet onder kinderporno vallen.
Daar heb je gelijk in, maar ik denk dat dat wel mee zal vallen. PhotoDNA doet de vergelijking immers op basis van hashing, jouw foto zal dus moeten matchen met een hash in hun database.
Dus als jij een foto van jouw pasgeboren kindje ergens post of verstuurd, zal die niet automatisch in een database komen te staan.

Dus ik denk niet dat foto's met naakt gelijk alarmbellen zullen laten rinkelen dat 't kinderporno zou kunnen zijn.
- reactie op de verkeerde plaats -

[Reactie gewijzigd door DaManiac op 7 augustus 2014 10:20]

Technisch gezien is dat dus ook bij wet verboden. Dus zou ze daar ook voor opgepakt kunnen worden.
De gebruikte techniek gebruikt niet de afbeelding van het plaatje, maar de mate waarin het op reeds bekende kinderporno lijkt, middels een hash.
Hiermee wordt dus geen nieuwe kinderporno ontdekt, maar alleen reeds bekende kinderporno herkend.
Heel simpel, elke foto van een kind op de PC van iemand die als PEDO veroordeeld is.

Dus mogelijk (door onzorgvuldig gedrag) ook die foto van die 15 jarige (waarbij de 15 jarige nog schuldig is ook) en ook die van de baby, waarbij de ouders schuldig zijn.

Tja KP is deels een kwestie van waar wordt het gevonden. Ik heb hier foto's van een gecrashte schijf gehad waar ook mijn achternichtjes naakt in het zwembad zaten. Die foto's heb ik zelf ook van mezelf (analoog nog ;)).

Zolang alles prive blijft is er niks aan de hand. Maar zodra je cloud systeem gehacked word of je e-mail doorgestuurd wordt naar de verkeerde persoon dan ben je ineens fout bezig.
PhotoDNA is in 2009 geÔntroduceerd en een jaar later doorgevoerd in de e-mail diensten van Microsoft:

https://www.microsoft.com/en-us/news/presskits/photodna/
Tweakers bericht uit 2009: nieuws: Microsoft ontwikkelt software om kinderporno te herkennen

Sinds 2011 gebruikt Facebook deze technologie:

http://www.huffingtonpost...pornography_n_864695.html

En daarna heeft Twitter zich aangesloten.

http://www.theguardian.co...tter-photodna-child-abuse

En ook ons eigen NFI heeft er een test mee uitgevoerd:

nieuws: NFI test Microsofts PhotoDNA om kindermisbruik op te sporen

Dus ik zie niet precies in wat de nieuwswaarde van dit artikel is? Inhaken op het nieuws van gisteren over Gmail?

Verder nog een aankondiging van vorig jaar dat Google en Microsoft gaan samenwerken op dit gebied. Daarmee lijkt het nieuws van gisteren dat Google onze afbeeldingen scant ook wat achterhaald.

http://www.microsoft.com/...MicrosoftandGooglest.aspx

Google is zelfs al sinds 2008! bezig met zijn eigen hashing technologie voor de opsporing van kinder porno.

http://techcrunch.com/201...-not-a-privacy-violation/

[Reactie gewijzigd door Maxcim op 7 augustus 2014 10:39]

Dit is inderdaad een ongelooflijk onzinnig 'nieuws' artikel met 'nieuws' dat jaren komt nadat Microsoft dit al via voor de pers bedoelde publicaties bekent heeft gemaakt.
Bovendien is ook uitvoerig genoemd in de comments bij het vorige artikel over Google dat Micrsoft dit in 2009 heeft geintroduceerd.

Microsoft heeft de technologie van PhotoDNA in 2009 ontwikkeld en toen gedoneerd aan National Center for Missing & Exploited Children (NCMEC) die het sinds 2010 via een programma beschikbaar stellen aan alle amerikaanse on line service providers.

Misschien morgen een artikel dat Facebook dit ook gebruikt ? (sinds 2011 !!) Dan is Tweakers al weer twee jaar beter bij het nieuws dan vandaag.

En overmorgen dat Twitter dit gebruikt. Dan ligt tweakers nog maar ene jaartje achter met het nieuws.
.

[Reactie gewijzigd door 80466 op 7 augustus 2014 10:29]

Facebook en NCMEC zoeken (hopelijk) op openbare foto's. In ieder geval in meer of mindere mate. Maar deze foto's zijn nooit prive. Een e-mail is in mijn ogen altijd prive.
Een facebook account is vaak genoeg ook prive voor alleen 'vrienden' en facebook berichten zijn zeker prive en ook de facebook chat is prive.
Reken maar dat facebook ook daarvan de images scant

[Reactie gewijzigd door 80466 op 7 augustus 2014 10:57]

Nope, ik (en dus wss ook anderen) ben niet van plan om hierop te reageren omdat ik mijn argumenten tegen automatisch scannen al duidelijk heb gemaakt bij het Google topic.
Goeie zaak als de scanner zich beperkt tot kinderporno.
Het is helaas een kleine stap naar het scannen van andere dingen die men niet 'leuk' vindt en voor je het weet heb je censuur op een grote schaal.

Ik heb absoluut tegen kinderporno en dit is ook een effectief middel om het op te sporen. Maar we moeten waken dat de technieken niet worden misbruikt
Die stap is er al. dit staat er in de voorwaarden van MS:

n veel gevallen wordt bij schendingen van de gedragscode Microsoft gewaarschuwd via klachten van klanten, maar we zetten ook geautomatiseerde technologieŽn in om kinderporno of beledigend gedrag dat schade kan toebrengen aan het systeem, onze klanten of anderen kan detecteren. Tijdens het onderzoeken van deze zaken zal Microsoft of haar partners Inhoud bekijken om het probleem op te lossen. Dit is een aanvulling op de toepassingen die worden beschreven in deze Overeenkomst en de Privacyverklaring.

Beledigend gedrag wordt ook gescand. voor mij is dit heel heel erg subjectief en betekend dus dat ze alle inhoud van e-mails scannen. Waarop ze scannen en wat een belediging is, dat is niet duidelijk.
Bij kinderporno scannen ze op afbeeldingen, dat is duidelijk maar belediging is onduidelijk. een provider moet helemaal niet scannen, ze zijn doorgeefluik net als de post.

Stel je voor dat al je brieven worden geopend om te kijken of er kinderporno in zit maar ook brieven met beledigende teksten. Denk als de post dat zou doen half Nederland op zijn kop staat. Digitaal mag het schijnbaar wel volgens sommigen. Raar die moraal van de gemiddelde Nederlander.
In principe gebeurt met post natuurlijk al precies hetzelfde. Indien het vermoeden bestaat van een illegale inhoud (door drugshond, verdachte afzender, steekproefsgewijs, etc.), wordt een pakje door een douanebeambte gewoon geopend. In dit geval ontstaat dat vermoeden door een scanproces. Indien dat 'aanslaat' (zoals bijv. een drugshond bij een pakketje met drugs) wordt er verder gekeken naar de inhoud van een mailtje. Niets nieuws onder de zon, dus.
Er is een groot verschil tussen alles scannen of verdacht.
een drugshond slaat aan en dan is er een reden.
een pakketje door een infrarood scanner laten lopen laat de inhoud zien en kan een reden zijn.

Als je de MS voorwaarden goed leest kijken ze ook naar de inhoud. Er staat beledigend en daarvoor moet je toch echt de inhoud scannen.
Ik zie je punt niet echt. Wat doet een drugshond anders dan een pakketje "scannen" en dan eventueel als verdacht aanmerken? Het is echt niet alsof zo'n automatisch scanproces een mailtje woord voor woord leest en de inhoud begrijpt. Hij zoekt enkel naar verdachte patronen en "slaat aan" wanneer hij een verdacht patroon vindt. Pas dan zal er een persoon ingeschakeld worden om dat mailtje nader te bekijken.
Het is echt niet alsof zo'n automatisch scanproces een mailtje woord voor woord leest en de inhoud begrijpt.
Heb je het over beledigend zul je de tekst toch echt moeten begrijpen, hoe weet je anders wat beledigend is ?

Een drugshond scant van de buitenkant zonder de binnenkant te zien, groot verschil.

Daarnaast gaat het in zijn algemeenheid om de afglijdende schaal. Het begint met kinderporno en wat is de volgende scan stap ?

Keer op keer zie je dat men een begin maakt en dat zet de deur voor de rest open.

klein voorbeeld, verplicht Kenteken parkeren (laatst gelukkig afgeschoten door rechter), we weten nu dat die gegevens naar de belastingdienst gaan, moeten we daar blij mee zijn.
Sorry, maar nog steeds: die mail wordt aanvankelijk enkel gescanned door software. Software begrijpt niets. Punt. Net zoals een drugshond geen enkel besef heeft van het concept pakket of de inhoud daarvan. Dat zal hem ook een zorg zijn. Totdat hij drugs ruikt. Dat stukje software zal het ook een rotzorg zijn wat de exacte inhoud van dat mailtje is, want die begrijpt hij toch niet. Enkel de beledigende woorden en termen die hij tegen komt en die hij vergelijkt aan de hand van een lijst, database of wat dan ook.
Als bij jou het verschil niet duidelijk is, ben ik bang voor de toekomst. Gewoon niet meer gebruiken om belangrijke info te verzenden of de boel gewoon encrypteren . Het feit dat dit al kan zegt al hoe onzinnig het scannen van de berichten is. Wat ik al eerder zei, je vangt er misschien een mee maar er zijn wel 400 miljoen gebruikers die gecontroleerd worden.
Als jij je mail gaat encrypteren is dat waarschijnlijk juist een reden om jou extra in de gaten te houden. ;)
ja onzinnig he, veel bedrijven doen dit al. Zeker als het gaat om gevoelige data en mails. 10 jaar geleden zag ik het gebruik van pgp al in e- mail cliŽnt.
Software is tegenwoordig stukken intelligenter dan jij doet overkomen. Het kan dus meer dan alleen woorden zijn, context en andere zaken.

zoals gezegd gaat het om de glijdende schall hier. Nu belediging wat is het volgende waarop gescand wordt.

Daarnaast het feit dat de inhoud gescand wordt zou al niet mogen.
Totdat de software gebruikt wordt om mensen eruit te filteren die kritiek op de overheid hebben. Om maar een voorbeeld te noemen. Sociale onrust kunnen ze op deze manier ook op grote schaal bij houden, de software is al zeker slim genoeg (en beter in het detecteren ervan dan mensen, puur door op welke schaal het gebeurt). Ideaal middel om het volk onder controle te houden.
Sowieso vind ik het raar dat ze op beledigende inhoud controleren, valt dat niet onder de vrijheid van meningsuiting?

[Reactie gewijzigd door RebelwaClue op 7 augustus 2014 16:19]

Het kan en het gebeurd, so what..
In dat opzicht is een stuk software net zo onbevooroordeeld als een drugshond.
Kinderporno is ziek, zelfs de zwaarste criminelen verachten kinderverkrachters.

Ja het is wellicht op het randje maar het is goed dat dit mogelijk is.
Je bent toch vrij om GEEN gebruik te maken van die gratis diensten.

[Reactie gewijzigd door damanseb op 7 augustus 2014 16:59]

Ik zie je punt niet echt. Wat doet een drugshond anders dan een pakketje "scannen" en dan eventueel als verdacht aanmerken?
Knappe hond als deze beledingingen kan ontdekken in een pakketje. Beledigd raken is trouwens voor de minderen van geest. Gekwetst of gekrenkt, oke.
Ik ben dan ook helemaal niet ingegaan op waarop er gescanned wordt, daar ging de discussie tussen mij en bbob1970 niet over.
Wat een onzin. Er is een groot verschil tussen elke brief laten openen en lezen door een persoon, en een geautomatiseerde scan door een machine die geen mening of interesse heeft in jouw plaatjes.

Plaatjes zijn ook "inhoud", net als tekst, dus waarom is het nou zo erg dat ze de tekst wel lezen maar de plaatjes niet?

Google leest zowieso je tekst al, nl. om gericht te adverteren, en een profiel van jouw op te bouwen. Dat lijkt me toch echt een stuk meer privacy schendend dan alleen maar het maken van hashes van je plaatjes en die vergelijken met de hashes uit een pornodatabase.

Elke zichzelf respecterende email provider scant alle attachments ook op virussen trouwens, dus gescand wordt je zowiezo.
Een scan door een machine heeft wel een mening. De mening van de programmeur die zegt waar er op gezocht moet worden. Daarnaast ai komt steeds dichterbij en software kan dus zelfstandig meer begrijpen.

Ik lees bij MS duidelijk belediging en dat is heel breed omschreven en dus erg onduidelijk.

google is idd het toonvoorbeeld van de grootste privacyschender die er rond loopt.

Ik ben benieuw of iedereen die er nu zo luchtig over doet over 30 jaar ook nog zo denk. Tegen die tijd zullen je rechten steeds minder geworden zijn. digitale controle door de overheid nog groter, profielen helemaal compleet zijn en dan, tja daar wordt je niet blij mee.

Oeps ik vergis me heb je niets te verbergen heb je niets te vrezen is het standaard verhaal. Beetje geschiedenis zal je dan leren dat dat toch iets anders in elkaar zit.
Ik lees bij MS duidelijk belediging en dat is heel breed omschreven en dus erg onduidelijk.
Ja, "beledigend gedrag" is inderdaad erg breed, maar volgens mij bedoeld Microsoft daarmee -en meer indien niet duidelijk genoeg- racisme, discriminatie, haat, aanzet tot haat en dergelijke.
Toegegeven, dat is allemaal wat lastig onder een noemer te plaatsen, al vind ik een term als "beledigend gedrag" wat kort door de bocht.
Is niet helemaal te vergelijken. Niet alle post wordt geopend om te zien of er iets in zit wat niet mag (foto per post verzenden kan dus wel zonder ontdekt te worden). Met digitale post wordt gewoon 100% gescand ongeacht of iets verdacht is (zonder openen van de "brief") of niet.
Je hebt gelijk natuurlijk; waar houdt het op ?
Maar als je denkt dat je content, wanneer je gebruik maakt van zulke diensten, niet gescand word ben je wel naÔef denk ik. Ongeacht wat de voorwaarden zeggen.
Scannen van de inhoud van e-mail is in mijn ogen altijd slecht. Zelfs voor een nobel doel.

Zoals ik ook bij de google deel zei. Het doel heiligt nooit de middelen.

Scannen van e-mail zou altijd via de rechter moeten.

En daarbij is emotie een slechte raadgever. Want als het je kind overkomt dan wil je zo'n persoon opgehangen hebben (terecht). Maar laten we voorzichtig doen met het beschuldigen van mensen want een keer een foutje kan een persoon voor zijn leven vernietigen. En dat allemaal omdat een persoon een e-mail heeft gekregen (misschien wel spam) van een foto die hij/zei niet wil

Overigens een andere reŽlere optie. Je kinderfoto's staan ergens in de cloud. Deze wordt gehacked. Ik weet niet van jou, maar de meeste hebben wel ergens naaktfoto's van zichzelf als baby. Gezien de huidige hetze is dat al kinderporno (we zijn hierin ongelofelijk door geslagen).

Deze komt in de database, en over 10 jaar mail je je zoon/dochter voor de lol zo'n foto. Wat moet er dan gebeuren? Ben je dan schuldig, jarenlang de cel in, immers kindermisbruik en kinderporno (je hebt het immers gemaakt).

Laten we dit soort acties nu niet van een of andere geautomatiseerd proces af hangen. En eerst met bewijs komen, en om dat kracht bij te zetten iemands privť leven uitpluizen. Niet andersom.
Scannen van e-mail zou altijd via de rechter moeten.
Er wordt al massaal gescand op spam, phishingmail en malware. Je kan dus enorm emotioneel worden, maar dit is al jaren een gepasseerd station.
Overigens een andere reŽlere optie.
Ook al oud nieuws. Er zijn in Amerika al tieners opgepakt omdat ze naaktfoto's van zichzelf hadden verstuurd. Je kan er dus zeker van zijn dat er over 10 jaar voldoende jurisprudentie is. :)
En achteraf hadden we deze spam filters misschien niet zo makkelijk moeten accepteren.

Echter is er wel ťťn groot verschil. Spam is altijd ongevraagd, foto's in zijn algemeenheid niet

Verder voor veel spam hoef je waarschijnlijk niet de e-mail zelf te lezen, maar te kijken naar de manier van verzenden (veel/locatie)
Echter is er wel ťťn groot verschil.
Scannen van de inhoud van e-mail was altijd slecht.

Je kunt dan wel de hoop hebben dat het gefilterd wordt op adres, maar aangezien spam veel via botnets komt zal toch echt op inhoud gefilterd moeten worden. Alleen bewezen spammers gaan in een lijst, maar voor de scanner ben je potentieel schuldig tot je schuld bewezen is.
Het zal vast geen automatisch proces zijn. En ik denk dat de foto's in zo'n database ook wel gecontroleerd worden of er echt KP op staat. een onschuldige baby foto zal je echt geen flag op leveren voor KP.

En als iemand gewoon een net leven lijd. Niets raars doet maar zich wel bezig houd met KP hoe wil je daar achter komen?
Ik heb liever dat Microsoft/google/andere dienst mijn bijlage scanned dan dat iemand ontkomt aan zijn straf voor het bezitten van KP.
En als ze bij mij voor de deur staan door die baby foto heb ik niets te verbergen.
En als jij spam krijgt waar KP instaat dan ben je zoiezo niet zuiver bezig geweest want die mensen die daar bezig mij zijn gaan echt niet zomaar spammen.

Als je er echt zo moeilijk over denk ga dan bij deze diensten weg.
Als je je echt zoveel zorgen maakt over je Privacy maak dan geen gebruik van gratis diensten en vooral niet die in Amerika.
Scannen van de inhoud van e-mail is in mijn ogen altijd slecht. Zelfs voor een nobel doel.
Nobele uitspraak, maar zoals al aangehaald vergeet/negeer je wel het feit dat e-mails en hun bijlagen al sinds het ontstaan ervan gescand worden - tot ieders grote tevredenheid trouwens.

Vertel mij het wezenlijk verschil in het volgende: software die automatisch code van een e-mail (lees: dagelijks miljoenen e-mails) scant op phishing of een bijlage op virus/malware... en een foto scannen op bekende kinderporno? In beide gevallen is er geen brute schending van privacy. De enige uitkomsten in beide gevallen zijn: geen of wel phishing, wel of geen virus, geen of wel kinderporno. Niet je persoonlijk medisch dossier dat verschijnt op de Google startpagina.

De spam aan complottheorieŽn die ik lees over Google (of Microsoft) die gegevens doorverkoopt aan verzekeraars of Noord-Korea zijn echt cartoonesk en deze website intellectueel onwaardig.

[Reactie gewijzigd door Mlazurro op 7 augustus 2014 16:36]

Het probleem is: wie controleert dat. Wie zegt me dat google niet alle afbeeldingen waar Kim Jong-Un belachelijk wordt gemaakt scant en doorstuurt naar Noord-Korea.

Daarnaast zijn de grenzen vaak onduidelijk. Een onschuldige familiefoto van een kind in bad is in het ene land kinderporno, en in een ander land niet. In sommige landen is zo'n foto geen kinderporno als hij naar een gezinslid gaat, maar wel kinderporno als hij naar een ander gaat. Hoe wordt dat dan afgevangen?

[Reactie gewijzigd door Magic op 7 augustus 2014 10:20]

Hoe wordt dat dan afgevangen?
Ze maken gebruik van een database met hashes van bekende KP. Dus de foto van je kind dat je naar opa en oma stuurt wordt gewoon doorgelaten, die hash is niet als KP bekend.
Nieuwe KP zal dan ook niet gevonden worden totdat het gevonden is en in de database toegevoegd is.
Als het op basis van een hash zou gaan, zo de betreffende foto na een aanpassing niet meer herkent worden. Ze zullen wel hashes gebruiken, maar ze kijken ook naar de % "naakt" en nog een paar kenmekren. Dus het kan wel gebeuren als je een bad foto van je kind naar oma stuurd, dat je aangemerkt wordt als zijnde verstuurder van KP.
Het algoritme wat Microsoft heeft ontwikkeld herkent de afbeeldingen ook nog na aanpassingen van kleuren en andere aanpassingen.
  • Sizing the image to a standard size for processing,
  • Converting the image into black and white (otherwise referred to in the photo world as “greyscale”) and breaking the image into sections,
  • Calculating a unique number to represent each section, and then
  • Placing all those numbers together to create a single code that uniquely represents that image.
Meer informatie: https://www.microsoft.com...todna/docs/photodnafs.pdf
Ja, leuk trucje, maar de oplossing om dit te omzeilen is al jaren geleden bekend: invert color, send, invert colour nogmaals.
PhotoDNA is juist vrijwel niet gevoelig voor kleurwijzigingen
Kan er online niets over vinden dat dit werkt. Heb je er een bron voor?
Nope, was een jaar of 15 geleden op een verjaardagsfeestje, ging over het automatisch herkennen van blootplaatjes, in de tijd van filternet. Maar als ze greyuscale gebruiken, zoals jij stelt:

•Converting the image into black and white (otherwise referred to in the photo world as “greyscale”) and breaking the image into sections,

dan doe ik de aanname dat ze kleurinformatie nog wel gebruiken. Al zouden ze best naar het absolute kleurverschil kunnen kijken (overgang zwart - wit telt voor hetzelfde als overgang wit-zwart)
Of je versleutelt de boel gewoon.
Nee, het werkt puur op basis van hashes van databases met BEKENDE kinderporno-afbeeldingen. Materiaal dat ergens in beslag genomen wordt, wordt gebruikt om nieuwe fingerprints te genereren, en dat vergelijken ze dan met de afbeeldingen die langskomen in de mail e.d. Denk niet dat kleine aanpassingen genoeg zijn om zo'n systeem te omzeilen, er zijn geavanceerde algoritmes die veranderingen in kleur/contrast of zelfs crops nog kunnen koppelen aan het origineel.

Wat niet wegneemt dat er waarschijnlijk ook relatief onschuldige foto's in de database zullen zitten, een tijd terug is er nog iemand veroordeeld als 'kinderpornoproducent' omdat een foto waar zijn zoontje naakt opstond (gewoon een familiefoto, niks creepies aan) door een kp-verzamelaar toegevoegd was aan zijn 'verzameling'..
Maar als het photo-dna algoritme open-source is, kunnen ze natuurlijk wel een algoritme gebruiken dat de foto aanpast totdat de hash verandert...
Hmm. Dat is een behoorlijke aanname. Reken maar dat dit niet open source is, verder is de database met hashes uiteraard niet publiek, en tenslotte zou een foto elke keer aangepast moeten worden.. Wat de beeldkwaliteit ook niet ten goede komt. Maar het versturen van dezelfde dingen in een truecrypt volume of zelfs gewoon een password protected zip file is afdoende om dit te omzeilen. Vandaar dat ik denk dat dit helemaal geen succesvolle aanpak van het kinderporno-probleem is: na enkele initiele arrestaties zorgen ze er echt wel voor niet onversleuteld dit soort spul online te hebben. Maar deze privacyschending, die wordt straks niet meer teruggedraaid..
Je moet flink wat aanpassen voordat zo'n foto niet meer herkend wordt.
Probeer maar eens (op google dan) een reverse image search te doen op een gecropte afbeelding.
Iedereen die slim genoeg is om daar aan te denken, is ook slim genoeg om zijn KP te encrypten voor verzending.

Daarnaast zou een algoritme dat naar naakt zoekt 99,99% false positives krijgen. Zeker in het strand/zwembad seizoen. Dat maakt het waardeloos.
Probeer maar eens (op google dan) een reverse image search te doen op een gecropte afbeelding.
Een foto "croppen" zal google search idd nog altijd kunnen herkennen. Maar daar stopt het. Voeg een stuk tekst doe aan een foto, en ineens kan het die niet meer herkennen.

Iets dat ik regelmatig doe, als ik voor Immo zoek, is de foto's van de hotel / zaak via google search in te geven, en zo gewoon gans die "we geven het adres niet tot u ons contacteert" immo gedoe omzeilen. Maar als ze hun eigen tags op de foto zetten ( of de foto manipuleren met andere kleuren enz ), is het vaak al veel lastiger om de originele foto's van de hotel/zaak te vinden.

De algoritmes zijn niet zo "slim" zoals een mens, om stukken te herkennen in een gemanipuleerde foto.

Nu, in geval van KP, zullen ze wel tegen de lamp lopen, want het zal niet beperkt blijven tot 1 foto ... en iedere keer dat iemand iets doorstuurt naar de andere persoon, gaan ze de foto's niet bewerken.

Nu, gans het KP argument ter zijde, heb ik toch mijn twijfels over de legaliteit hiervan voor MS, Google enz ... Het is en blijft privť communicatie, dat over hun diensten verloopt. Zelf al is er niet een "echte" persoon dat de mails leest, op een bepaald moment zal de algoritme een mail markeren voor inspectie, en een "mens" aan te pas komen, dat de privť communicatie open doet.

Wat als men in een Afrikaans / Arabische land zegt: We willen niet enkel KP, maar ook dat alle Homo's aangegeven worden aan de politie, dat elkaar foto's doorsturen. Tja ... de wet is de wet nietwaar... Hoe kan je als bedrijf het argument voeren dat je KP wilt aanpakken, maar niet de "zonden / illegale zaken" dat wet zijn in andere landen.

Op hetzelfde moment, brengt het ook meer & meer de Net Neutraliteit in gevaar, want men gaat meer & meer politie spelen met de gebruikers hun data. Wat dan als gebruikers meer & meer encryptie gaan toepassen... Gans Google hun zakenmodel valt op hun gat, want wat ze niet kunnen lezen, kunnen ze niet op adverteren... Persoonlijk ben ik verbaast dat Google niet inziet hoe dit gedoe best wel gevolgen kan hebben voor hun eigen zakenmodel.

Het is niet zo moeilijk, want als een aantal open source email clients beginnen met het standaard inbouwen van encryptie, kan het vrij snel gaan.
Hoe kan je als bedrijf het argument voeren dat je KP wilt aanpakken, maar niet de "zonden / illegale zaken" dat wet zijn in andere landen.
Naar mijn mening moet je hoe dan ook de verantwoordelijkheid niet bij bedrijven neerleggen.

Laat de overheid maar doen waarvoor ze is, o.a. handhaven van het strafrecht. In een goede wereld heeft een commerciŽle onderneming daar niets in te zoeken behalve het verstrekken van informatie wanneer een rechtbank daarom vraagt.

Het lijkt er steeds meer op dat commerciŽle bedrijven meer en meer macht krijgen, en commerciŽle bedrijven hebben niet het beste met ons voor. Sterker nog, het kan ze geen zier schelen, zolang het ze maar geen geld/klanten kost.

Maar eens zal dat wel duidelijk worden, het is alleen de vraag hoeveel ellende daar straks aan vooraf moet gaan en of het dan Łberhaupt nog te keren is.

Een bedrijf dat voor eigen rechter en officier van justitie speelt, wie had dat 20 jaar geleden voor mogelijk gehouden. Maar kinderporno en terrorisme zijn tegenwoordig de carte blanche voor allerhande activiteiten die in feite niet door de beugel kunnen. Bedrijven zijn er maar wat blij mee, die gaan er lekker hele andere dingen mee doen dan waarvoor wij onze rechten inleveren.
Het gaat wel degelijk om een hash http://en.wikipedia.org/wiki/PhotoDNA
Maar wel een die op de een of andere manier robust gemaakt is tegen het doorvoeren van beperkte beeldbewerking.

Neemt niet weg dat er ongetwijfeld kans is op vals positieve meldingen. Dan zal er in een zeker stadium toch een mens naar zo'n foto moeten kijken om 't te beoordelen. En dat is dan weer precies waar ik mijn bedenken bij heb: dat iemand van Microsoft / Google straks mogelijk naar mijn foto's zit te kijken. Wellicht is de kans op vals positieve meldingen miniem, maar het lijkt mij lastig een hash te vinden die wťl robust is tegen beeldbewerking maar nul kans geeft op vals positieven...
Ach, het is allemaal relatief, ook kansen. Bijvoorbeeld: als de kans op een false-positive kleiner is dan de kans dat een er een meteoriet op je huis landt, dan zou ik zeggen dat de kans klein genoeg is.
Houd dat niet in dat Google zelf beschikt over een grote hoeveelheid kinderporno? In hoeverre zijn zij niet strafbaar bezig? Ze zijn tenslotte geen opsporingsdienst. Of gaan burgers die betrapt worden op kinderporno straks gewoon het argument van Google gebruiken: "ik heb het alleen in bezit om andere afbeeldingen mee te vergelijken zodat ik die aan kan geven bij justitie".

Weten Google en Microsoft bovendien welke foto's precies strafbaar zijn? Krijgen ze informatie van justitie (inclusief foto's) zodat ze weten welke beelden ze moeten vergelijken, of zit er gewoon een medewerker van Google willekeurige afbeeldingen naar eigen inzicht te keuren?

Toevoeging
Zoals hiostu zegt en de Wikipedia van PhotoDNA ook aangeeft gaat het om hashes en niet om afbeeldingen zelf. De vraag blijft echter wel wie die hashes dan aanlevert. Is er een publieke database met hashes of genereren Google en Microsoft deze zelf?

[Reactie gewijzigd door 3raser op 7 augustus 2014 12:12]

Nee, zoals al meerdere keren is aangegeven in dit topic vergelijken ze met een database met hashes en niet de afbeeldingen zelf.
Naar wat ik heb kunnen opmaken uit een gesprekje enkele jaren geleden met iemand van Microsoft komen deze hashes van de instanties die ze gebruiken. Bijvoorbeeld de Cyber Crime Unit gebruikt de software van Microsoft om computers van verdachten te scannen op KP. Foto's die de software niet herkent in een bestaande hash maar die aan bepaalde voorwaarden voldoet (% naakt en nog wat zaken) moeten manueel geverifieerd worden door een bevoegde persoon bij de Cyber Crime Unit. Foto's die als KP worden aangeduid worden dan toegevoegd in de database door de software zelf.
Bij meldingen vanop bijvoorbeeld OneDrive is het ook niet een medewerker van Microsoft die deze foto gaat verifiŽren maar dit gaat rechtstreeks naar de bevoegde instanties die dan bepalen of de melding terecht is of niet.
Dit lijkt me ook vrij logisch en toch ook wel de best mogelijke manier. Of het in het echt zo loopt weet ik natuurlijk niet.
Totdat op de een of andere manier, via social media een foto niet goed afgeschermd is bij een of andere malloot komt die het wel tot kinderporno maakt omdat hij toevallig wordt opgepakt, kom je dus wel in het filter en ga jij de volgende keer voor gaas als opa en oma de foto weer nodig hebben als ze hem kwijt zijn en jij hem opnieuw mailt :)
En stel dat er wel poses erop staan als zijnde gehuwd ....om het netjes uit te drukken. Welke leeftijd wordt gehanteerd 16, 18 of 21 daarnaast is het soms ook nog moeilijk in te schatten. Mijn jongste heeft een vriendinnetje ze is meende ik zestien maar dat zal je haar echt niet geven.
Dus hoe wordt het eea bepaald.....naar wie zijn maat staf? Het ruimdenkend van godlos zijnde Nederland of het achterbakse ogenschijnlijke preutse amerika maar waar wel de meeste porno geproduceerd wordt.
Er wordt wereldwijd redelijk algemeen 18 jaar gehanteerd. Meerderjarig dus.

http://en.wikipedia.org/wiki/Age_of_majority
Dat is meerderjarigheid voor de wet. Sexuele meerderjarigheid kan hier weer van afwijken. In Nederland bijvoorbeeld is de eerste 18 jaar en de tweede 16.
Welke ga je dan kiezen?
En zelfs als je kiest voor de "age of consent" dan zitten er nog een heleboel verschillen tussen landen:
http://en.wikipedia.org/w...e_of_Consent_-_Global.svg

En dan hebben we het nog niet gehad over de verschillen tussen kinderporno en efebofilie. En natuurlijk homofilie dat in sommige landen volledig verboden is ongeacht de leeftijd.

Het probleem blijft dat algoritmes voor het uitfilteren van 'ongewenste' afbeeldingen en ander materiaal altijd het meest beÔnvloed worden door de meest dominante sociaalmaatschappelijke visie, die vaak niet gedeeld wordt (en beÔnvloedbaar is) door andersdenkenden.
Zoals wiki ( als je dit een serieuze bron mag noemen ) al zegt,

//Most countries set majority at 18//
en dan...........
//Age of majority should not be confused with the age of sexual consent, marriageable age, school leaving age, drinking age, driving age, voting age, smoking age, etc., which all may sometimes be independent of, and set at a different age from, the age of majority.//

Dus eigenlijk geen duidelijkheid.
Als ik in een land woon waar 16 de grens is...........dan kan ik mijn muur er mee volhangen.
Want het gaat er om in het bezit hebben.
Dan de definitie van in bezit hebben.
Als ik het eea opgeslagen heb in een land waar het toegestaan is om 16 jarigen te aanschouwen en ik woon in NL ben ik dan te vervolgen.
In principe wel, het is mijn content maar elders opgeslagen.
Maar je hoeft het niet in bezit te hebben om bepaalde content te zien.
Men kan immers een willekeurige afbeelding linken inplaats van daadwerkelijk toevoegen dan zijn de afbeeldingen te benaderen maar zijn niet in eigendom van zowel de verzender als de ontvanger.
Ben je dan ook te vervolgen.
Advocatenvoer..........................
De verenigde staten mag dan wel zogenaamd als moeder Teresa willen optreden,
maar de handhaving en vervolging is natuurlijk een geheel andere materie.

Tot hoever moeten we gaan.
Mail wordt gescreent op steekwoorden ivm terrorisme, afbeelding worden gescreent op kinderporno.
Let wel ik heb met beiden niets, maar de gedachte dat het eea gescreent wordt door derden maakt het wel gevoeliger.
Zeker nu ze hier bezig zijn om E-Mail gelijk te stellen aan het zogenaamde briefgeheim.
Daarnaast wordt het in de cloud werken ook steeds meer en meer gepushed door aanbieders, denk aan G-drive, One Drive e.d.
Men gaat simpelweg te ver hierin.
Wie zegt me dat google niet alle afbeeldingen...
Misschien geheel ten overvloede... Je weet dat dat Microsoft een andere organisatie is dan Google? Het lijkt me stug dat Google de afbeeldingen voor Microsoft mag scannen.

Als je het vorige nieuws had gelezen dan had je geweten dat beide bedrijven gebruik maken van een handtekeningen database, die ze niet zelf onderhouden.

Het zou natuurlijk kunnen, maar ik acht de kans klein dat daar handtekeningen over Kim Jong-Un in zijn opgenomen.
en hop! gelijk in de eeste post wordt mijn punt die ik maakte in het topic van google bevestigd. (Lednov in 'nieuws: Google bevestigt dat het afbeeldingen in Gmail-bijlagen scant op kinderporno') je zegt dat het om kinderporno gaat en opeens is het 'goed'
Zoals hieronder aangegeven zijn deze partijen er open over geweest dat ze scannen op zaken als kinder porno. Je hoeft echter geen zaken te doen met deze partijen, je kan zelf een e-mailserver neerzetten. of een provider kiezen die niet aan deze zaken mee doet.

Allemaal scannen ze je mail toch al om er reclame bij te plaatsen en daarmee ben je akkoord gegaan. Dus waarom hier nu zo'n hele heisa over wordt gemaakt?

Ik draai mijn eigen webserver en hierop wordt niets gescant. Deze gebruik ik voor bankzaken en zakelijke correspondentie. Daarnaast heb ik een gmail account voor alle onbelangrijke meuk.

Dit is een heel ander (en veel kleiner) probleem dan een overheid die alle ISPs verplicht om al het verkeer te scannen of zelf af te tappen. Dit laatste kan je niet voorkomen. Je kan er hoogstens met encryptie voor zorgen dat ze het niet kunnen lezen. Maar tenzij je naar iets als TOR grijpt kunnen ze wel altijd je meta data opslaan.
omdat het verre van het punt is dat er op Kinderporno wordt gescanned. het hele punt is dat er er gescanned wordt. en dat wordt dan weer goed gepraat ( "hele heisa over wordt gemaakt") doordat er gezegd wordt dat juist om de kinderporno gaat.
oh hoe nobel
en oh dit moet aangepakt worden
en oh jij bent er tegen? dan ben je zeker een vieze pedo

scannen ze email? prima! dan wel om de juist en eerlijke redenen.

want zoals ik stelde, durf eens in het geweer te komen....
Ik durf wel in het geweer te komen. Heb ik ook diverse malen gedaan (ook onder mijn echte naam). Ik erger mij namelijk dood aan het excuus kinderporno om wetten door te voeren.

Een politicus die kinderporno als argument aanvoert voor een wet weet namelijk dat de wet controversieel is en doet dit om de discussie de mond te snoeren. Dat is kwalijk, maar niet kwalijker dan je hierdoor daadwerkelijk de mond te laten snoeren.

Dat minderjarigen die niet of minder handelsbekwaam zijn echtra bescherming krijgen van de wet is terecht. Die extra bescheming uit zich in verboden of geboden op zaken als er minderjarigen bij betrokken zijn. Dit doet recht aan de positie van minderjarigen.

Er is echter geen enkel logisch argument waarom er anders gehandeld zou moeten/mogen worden bij het opsporen van overtredingen van deze ver-/geboden dan bij andere misdaden. Het gaat dan immers niet meer om bescherming van de minderjarigen, maar opsporing en vervolging van criminelen. De enige argumenten zijn emotioneel en dat is een heel slechte grond om wetten op te baseren.
Aldus Microsoft:
In veel gevallen wordt bij schendingen van de gedragscode Microsoft gewaarschuwd via klachten van klanten, maar we zetten ook geautomatiseerde technologieŽn in om kinderporno of beledigend gedrag dat schade kan toebrengen aan het systeem, onze klanten of anderen kan detecteren. Tijdens het onderzoeken van deze zaken zal Microsoft of haar partners Inhoud bekijken om het probleem op te lossen. Dit is een aanvulling op de toepassingen die worden beschreven in deze Overeenkomst en de Privacyverklaring.


Beledigd gedrag dat schade kan toebrengen? Ik vind dit eigenlijk best wel ruim geÔnterpreteerd.
Ik ben hierover sceptisch, omdat naar mijn idee Google en Microsoft en al die andere bedrijven geen overheidsinstanties zijn. De taak van die bedrijven bestaat uit het aanbieden van hun diensten.

Het actief scannen op kinderporno is geen dienst die daar in mijn ogen bij hoort. Dit is een taak van de overheid. Wanneer de overheid iemand verdenkt van het bezitten/verspreiden van kinderporno vind ik het niet meer dan terecht dat de mail-account(s) van die persoon worden gescand op kinderporno.

Ik, en 99,999% van de gebruikers van deze diensten zijn echter geen pedofielen en verspreiden/bezitten geen kinderporno. Ondanks dat worden al onze afbeeldingen en berichten gescand en langs hashes gehaald om te achterhalen of wij niet toevallig schuldig zijn aan het verspreiden van kinderporno.

Wat mij in dit geval vooral tegen staat is dat ze nu beginnen, want dit wordt uitgebreid, daar kan je wel vanuit gaan, met kinderporno. Zo'n beetje de meest verwerpelijke daad die er bestaat, zodat we als burgers onze onderbuik horen roepen "Dit is goed, kinderporno is slecht, goede zaak dat dit gebeurt". Terwijl we eigenlijk zouden moeten denken "Hť, dus ook mijn afbeeldingen/mails worden gescand, terwijl ik niks in die categorie heb. Wat komen ze hierdoor van mij te weten en wat wordt er met die informatie gedaan?".
Dit is in mijn optiek nou juist het probleem en vergelijkbaar met andere zaken. Doe je dit niet, dan vindt iedereen het raar dat er niet gescand wordt. Doe je het wel, dan hoor je iedereen over de privacyinbreuk die het mogelijk heeft.

Dat 99.999% van de gebruikers geen pedofielen zijn dat is natuurlijk geen argument. Je wilt de pedofielen aanpakken, of het er nou 10 zijn, of 10.000.

Het probleem hierin ligt dat je de afweging moet maken. Dat het mogelijk een inbreuk op je privacyrechten is, dat kan, maar iets wat niet bewezen is, daar kan je lastig rekening mee houden.

Als je de "maar wat als" dus even vergeet, dan zet je privacy en kinderporno recht tegenover elkaar. Ik weet niet hoe je daar over denkt, maar ik geef graag mijn privacy op (voor een bepaalde kleine bevolkingsgroep) om kinderporno tegen te gaan.
Het probleem wat ik ermee heb is dat nu eigenlijk kinderporno wordt "misbruikt" om zo maar in bestanden van gebruikers te zitten.

Laten we het eens extremer trekken. De woningstichting stuurt wekelijks iemand langs om even je huis door te lopen op zoek naar verdachte zaken. Geen probleem, bij mij zullen ze niks vinden, maar als ze hiermee twee mensen wel kunnen oppakken is het goed. In de tussentijd komt die persoon van de woningstichting wel allemaal andere zaken tegen. Hij kijkt er naar, maar doet er verder niks mee. Tot je op een gegeven moment bijvoorbeeld de belastingdienst op de stoep hebt staan voor iets wat gezien is door die man van de woningstichting.

Mijn mail en mijn data die ik opsla in clouddiensten is privť. Tenminste, dat wil ik dat 't privť is, ik weet ook wel dat het al lang niet meer privť is en dat Google en Microsoft (en de NSA waarschijnlijk ook) al lang toegang tot mijn data hebben. En iets wat privť is, mag pas te benaderen zijn nadat een rechter hier toegang toe geeft. Zelfde principe als met een huiszoeking.

We gaan nu langzaam toe werken naar een cultuur waarin je te allen tijde verdacht bent van een misdrijf.
Jouw afbeeldingen en attachments worden ook gescand door een virusscanner. Vind je het verpreiden van virussen niet een computer crime die alleen door de overheid mag worden bestrijd? En een inbreuk op je privacy? Het scannen van KP hashen is net zo goed/slecht als het scannen van virus signatures en over het algemeen vind ik het toelaatbaar.

Ik ben het met je eens dat de echte vraag is of de grens niet elke keer wordt verlegd en of de privacy inbreuk niet gewoon steeds erger gaat worden. Echter, ik heb er bij Microsoft meer vertrouwen in dan bij Google, wat natuurlijk erg subjectief van me is, maar MS heeft nog wel eens een nobel initiatief (en heeft ook een erg nobele ex-CEO) terwijl privacy inbreuk bij Google feitelijk het business model is.
Wat men in Nederland wel eens vergeet is dat er een heleboel 'kinderporno' in omloop is die volkomen legaal gemaakt is. Gelukkig staat deze niet op het internet en zijn er dus niet een heleboel onschuldige slachtoffers van de jacht op een steeds uitbreidende definitie van kinderporno. Hoe dit komt?

De leeftijdsgrens voor classificatie als kinderporno was ooit in Nederland 16 jaar. Dit leidde internationaal natuurlijk tot steeds meer problemen. Dit was wel in de tijd dat alles nog op papier verspreid werd en er zijn dus grote hoeveelheden blaadjes geproduceerd die met een latere wetswijziging opeens 'kinderporno' werden.

Het is een trend dat mensen steeds langer als 'kind' worden beschouwd. Zie bijvoorbeeld ook de minimum leeftijd voor alcohol consumptie die steeds meer omhoog gaat. Ik vraag me wel eens af of dit een reactie van volwassenen is op het feit dat middelbare scholieren zich steeds 'volwassener' kleden. Als ik zaterdagavond door Amsterdam loop, zie ik soms echt niet meer of iemand 16, 18 of zelfs 20 is.

Als ik in mijn foto albums kijk vind ik daarin fotos van mijzelf in bad, en aan het strand die vandaag de dag waarschijnlijk als verdacht zouden worden aangemerkt, louter vanwege de naaktheid. Je zou er niet op veroordeeld worden omdat de erotische poses en seksuele handelingen volkomen afwezig zijn. Maar wel tekenend dat wat vroeger een doodnormaal familie album was nu al 'verdacht' is.
Een ander voorbeeld is het album 'Virgin Killer' van de Scorpions. Toen het uitkwam was er geen vuiltje aan de lucht. In 2008 werd echter de wikipedia pagina over het album geblokkeerd omdat de cover kinderporno zou zijn! (Hoe gaat zo'n automatische scan dit ondervangen)

Veel mensen zijn bang voor normvervaging, ik maak mij meer zorgen over het totale gebrek aan perspectief en relativeringsvermogen in de hedendaagse maatschappij en in de politiek. Alles is tegenwoordig zwart/wit en bij enige twijfel wordt het al gauw zwart. Want stel je voor dat er een groep gaat protesteren dan kom je negatief in de publiciteit.

Een mooi voorbeeld van dit gedrag is de filmkeuring. Ik las ooit (op papier) een artikel waarin een ex medewerker uitlegde dat bepaald efilms 16 jaar en ouder mee kregen die dat vroeger niet zouden hebben gekregen. Omdat de filmkeuring weet dat er vanuit bepaalde groepen protest zou komen bij een lagere keuring en dit wil voorkomen. Het gevolg is dat de gehele bevolking de moraal van een kleine erg vocale groep wordt opgelegd. De bioscopen zijn verplicht zich aan deze keuring te houden, als je als ouder het niet met deze keuring eens bent heb je pech en moet je wachten tot je deze op DVD of Bluray kan kopen (of downloaden uiteraard).
natuurlijk worden die foto's in.eerste instantie als kinderporno gekwalificeerd.
Een onderzoek moet dan uitwijzen of het inderdaad zo is.
het gaat namelijk om het doel dat de foto"s hebben.

is het een leuk kiekje voor opa en Oma als hun kleinkind in zijn blote komt op het strand speelt, dan is het een heel ander doel dat als de foto's van datzelfde kleinkind de bedoeling hebben een pedo aan zijn trekken te.laten komen.

dus een naaktfoto is niet per definitie kinderporno, maar kan dit wel zijn/worden door de verstrekker en ontvanger.

en die leeftijdsgrens is natuurlijk gewoon een grens punt. de ene 15 jarige is de ander niet, naar dat is lastig te beoordelen. Er is gewoon een grens gekozen en daar moeten we ons gewoon aanhouden.
de wet gaat ervan uit dat een 18 jarige "volwassen" is en.zelf de juiste keuzes kan maken. maar dat scheelt dan ook weer per persoon. en deze was ooit 21...dus niet alle grenzen worden omhoog getrokken, sommigen worden naar beneden bijgesteld.

Laten we alleen hopen dat diegene die de.foto's beoordeeld hier echt capabel voor is. Al blijft het een mens met een subjectieve kijk op de zaak.
Eigenlijk is dat ook een soort van normvervaging. Als we nu nudisten en trotse ouders van het internet afjagen omdat ze dankzij Amerikaanse preutsheid in de eerste instantie verdacht worden van een van de ergste misdaden.

Ik vind het maar een enge gedachte dat iedereen nu in weze constant onderworpen wordt aan een 'politieonderzoek' van Google en Microsoft. En er nu een klimaat ontstaat dat onschuldige mensen het gevoel krijgen dat ze op hun tenen moeten gaan lopen. Ik denk dat iedereen met zulke scans lastigvallen niet echt proportioneel is.

Daarnaast zijn emails prive dus ze moeten in de eerste plaats ook als zodanig behandeld worden. Maar daar hebben de Amerikanen blijkbaar geen boodschap aan.
Wat die laatste alinea betreft, je gaat akkoord met het scannen van je e-mail als je een Gmail account aanmaakt.

Wat ik me wel eens heb afgevraagd is hoe het zit met mensen die jou een e-mail zenden. Die zijn nooit met dat scannen akkoord gegaan.
Dit maakt het relatief makkelijk om iemand de cel in te krijgen. Het enige dat je nodig hebt is een wachtwoord en wat kinderporno. Upload stilletjes een paar 7z bestanden (of een ander formaat dat door de automatische scanner niet geopend kan worden) met kinderporno in een hoekje van een OneDrive account over een periode van enkele weken/maanden. Upload daarna enkele plaatjes met kinderporno zonder compressie als trigger. Bonuspunten voor het synchroniseren van de kinderporno naar de computer(s) van het slachtoffer.

"Kijk, edelachtbare. Kinderporno. En de verdachte is hier al langdurig mee bezig. Wij hebben zijn computer uitgespit en ook daar kinderporno op gevonden."

[Reactie gewijzigd door The Zep Man op 7 augustus 2014 10:19]

De melding van Microsoft hoeft niet meteen een veroordeling tot gevolg te hebben. Het kan een reden zijn voor de politie om diegene verder te onderzoeken. Als er dan nog meer bewijs gevonden wordt kan er een zaak gemaakt worden tegen deze persoon.
Het kan een reden zijn voor de politie om diegene verder te onderzoeken. Als er dan nog meer bewijs gevonden wordt kan er een zaak gemaakt worden tegen deze persoon.
Dus een slachtoffer van zo'n aanval is aangemerkt als verdachte, waardoor je in een aantal landen automatisch rechten verliest. Zo kan je bijvoorbeeld verplicht worden om je cryptografische sleutels af te staan. Doe je dat, dan vindt de politie ook kinderporno op je computer dankzij de synchronisatie.

Zelfs als het niet een veroordeling als gevolg heeft, kan het toch iemand zijn leven volledig op zijn kop zetten.

[Reactie gewijzigd door The Zep Man op 7 augustus 2014 10:22]

Volgens mij kan de politie een onderzoek naar je doen zonder dat je officieel een verdachte bent. Drugdealers worden meestal na een periode van observatie pas opgepakt als verdachte en daarna veroordeeld.
Precies, als je voor KP / Pedo acties wordt vrij gesproken wil nog altijd niemand je hebben in de buurt. En wordt je weg geplaagd.

Veel mensen zijn te dom om in te zien dat (en dat komt steeds meer vrees ik) niet overal waar rook is ook altijd vuur is.
[...]
Zo kan je bijvoorbeeld verplicht worden om je cryptografische sleutels af te staan.
Dit is in Nederland nog niet het geval, hoewel daar nu wel plannen voor zijn. De vraag is echter of deze wet de toets doorstaat in het kader van jurisprudentie, verdragen en andere "hogere" wetten.

Daarnaast heb je natuurlijk nog zaken als plausible deniability.
Hoe is dat anders dan bij iemand thuis inbreken, dergelijke foto's in een kast verstoppen en de politie tippen?
Hoe is dat anders dan bij iemand thuis inbreken, dergelijke foto's in een kast verstoppen en de politie tippen?
Dezelfde reden als dat bankovervallers tegenwoordig niet meer gaan voor de kluis van een bank. Fysieke aanwezigheid en het zelf tippen van de politie zijn veel grotere risico's voor de aanvaller dan dit anoniem doen via Internet en een gerespecteerde partij (Google/Microsoft) de politie te laten tippen.
Wat hij denk ik bedoelt is dat jouw methode om iemand van KP te beschuldigen veels te ingewikkeld en overbodig is.
En toevallig zijn enkel die bezwarende afbeeldingen die de overtreder betwist dat ze van hem zijn, geupload vanaf een exotisch ip adres of tor exit node. Dat bewijs gaat niet lang stand houden.
En toevallig zijn enkel die bezwarende afbeeldingen die de overtreder betwist dat ze van hem zijn, geupload vanaf een exotisch ip adres of tor exit node. Dat bewijs gaat niet lang stand houden.
Het kan ook andersom: een geÔnfecteerde computer die via OneDrive synchronisatie kinderporno upload. Daarna de malware zichzelf laten verwijderen. Goed idee! Zo heb je niet eens een wachtwoord meer nodig als aanvaller. En de politie hoef je ook niet te tippen.

[Reactie gewijzigd door The Zep Man op 7 augustus 2014 10:26]

Ik neem aan dat het toch wel om een aanzienlijk aantal plaatjes moet gaan wil men iemand kunnen veroordelen, 1 plaatjes kan natuurlijk nooit genoeg zijn (dat is in iedergeval mijn mening). IMHO moet er ook intentie bewezen kunnen worden, want wat als er iemand dus per ongeluk 1tje in zijn/haar folder krijgt, of dus de situatie die jij aangeeft..
1000 afbeeldingen zijn net zo makkelijk te uploaden als 1. Zeker wanneer ze in lage resolutie zijn.
Tien jaar geleden kon je hetzelfde doen door stiekem mp3's te downloaden. Voor zover ik weet, is het nooit gebeurd.
Tien jaar geleden kon je hetzelfde doen door stiekem mp3's te downloaden. Voor zover ik weet, is het nooit gebeurd.
MP3's geven als (mogelijk) illegale content niet dezelfde maatschappelijke onrust als kinderporno en krijgen daardoor niet dezelfde strafrechtelijke reactie. Je vergelijking gaat hierom niet op.
Dit is voor de ik heb niets te verbergen vinexwijk mentaliteit.

Dit ding gaat natuurlijk ook foto's van je dochter scannen.

Aan de andere kant wie stuurt er nu nog foto's via hotmail. Juist die onwetende groep. Vind het alleen niet de taak voor mij om voor andere beslissingen te gaan maken. Zo lang er alternatief is, geen schokkend nieuws.
Alleen gebasseerd op hashes van foto's die al bekend zijn in een centrale database. Worden artikelen ook nog gelezen tegenwoordig?

Als je niet weet wat PhotoDNA is, zoek het dan even op:
http://en.wikipedia.org/wiki/PhotoDNA
De technologie is dat die probeert te matchen op bekende hashes, waarschijnlijk is het algoritme dan ook dat het kan bereken in hoeverre een andere hash overeenkomt met een bekende hash. En dat is te complex. Tekst op wiki is gewoon een microsoft sales praatje.

Begrijp me niet verkeerd ik ben niet anti microsoft of facebook of gmail. Ik vind het belangrijk dat er vrijheid en vrije keuze is.

Vind het daarom ook geen schokkend en wat ik las blijkbaar ook oud nieuws.
het is geen algoritme die kan bepalen in hoeverre een hash overeenkomt met een bekende hash. Dat is overigens sowieso lastig om te doen, daarom is het een hash. De intelligentie zit in het proces voor het berekenen van de hash(es) zoals dat ook op de wiki vermeld staat. Het converteren naar een zwart/wit plaatje en het daarna opdelen in een grid.

Waar het om gaat is dat het vergelijkingen met reeds bekende foto's. Het gaat niet om het automatisch identificeren van nieuwe foto's.
Oke ik denk er anders over.
Hoezo denk je er anders over? Toch gewoon een feit hoe de technologie werkt.

https://www.microsoft.com...todna/docs/photodnafs.pdf
Ik wilde men reactie nog wijzigen, bespaar me verdere links. Haha.
tja, en gmail doet dat dus ook...... En wie zegt dat een tussenliggende relayserver dit ook niet doet..
Zie mijn reactie hierboven ;).
Ik blijf toch een dubbel gevoel houden bij dit soort dingen. Enerzijds dikke duim omhoog dat ze actief kinderporno bestrijden, anderzijds: ze zijn geen overheid/politie en waar trekken ze de grens met scannen?

(PS: ik doe sowieso nauwelijks aan cloud; een paar kleine dingen op Google Drive, verder hou ik het liever in eigen hand)
Microsoft krijgt hashes van foto's aangeleverd door het National Center for Missing & Exploited Children. Ze vergelijken op basis van deze hashes. Dat is dan dus ook direct de grens die getrokken wordt bij het scannen: geen hash, geen match.
Wat nu als je tegen Obama bent en pamfletten tegen hem verspreidt?

Obama kan dan ook hashes aanleveren en Microsoft of google verplichten de namen door te geven van iedereen die dit in zijn account heeft staan. Dit kan zelfs door deze hashes gewoon tussen de andere van het National Center for Missing & Exploited Children te stoppen. Wat als Rusland, China en SyriŽ ook hashes aan gaan leveren onder het mom van anti kinderporno?

We vinden allemaal dat kinderporno gestopt moet worden, maar dit is in mijn ogen een gevaarlijk middel.

[Serieus 2 keer -1 gemod? Ik kan me echt niet bedenken wat er ongewenst zou zijn aan deze reactie!]

[Reactie gewijzigd door gwie op 7 augustus 2014 11:28]

Obama kan dit officieel helemaal niet verplichten, tenzij hij een rechter zover krijgt een uitspraak te doen dat deze pamfletten illegaal zijn.

Ik wens hem daarin dan veel succes, gezien het eerste amendement.

Zelfs al zou hij het clandestien door de NSA wel laten doen, geen enkele rechtbank in de VS zal iemand veroordelen voor het verspreiden van zijn mening via pampletten. Dat is namelijk zo'n beetje het standaard voorbeeld van het recht om anoniem je vrijheid van meningsuiting in de VS te gebruiken.

Het wordt een ander verhaal als het pamphlet laster bevat, dat mag ook in de VS niet.
Stel dat Obama alles netjes via rechtbanken zou doen.

Kan je hier ook nog van uit gaan als het om Rusland, China of SyriŽ gaat? Wat als er iemand anders aan de macht komt in de VS die het allemaal niet zo volgens de regeltjes doet?

En juist daarom is dit een gevaarlijke techniek. Zo lang iedereen alleen netjes naar hashes van kinderporno zoekt is er niets aan de hand. Dit is echter niet te controleren en het is voor veel andere doelen in te zetten.
En daarom heeft Amerika de grondwet waarin staat dat als een president zich niet aan de regels houd van de grondwet deze moet worden afgezet(eventueel met geweld).

En ja in rusland en china zullen ze deze techniek graag willen gebruiken voor die doeleinden maar ik denk dat ze Google en Microsoft echt niet zover krijgen.
Ik ben er liever zeker van dat dit niet wordt gebruikt dan dat ik er op moet vertrouwen dat iedereen eerlijk is en de grondwet zijn werk doet.

Noem het overdreven, maar ik ben in ieder geval niet naÔef.
Ik begrijp je aan de ene kant zeker. maar je gaat wel van een doem scenario uit.
Rusland en China zijn dictaturen, wat die doen is niet interessant voor de situatie in Nederland of de VS. Die doen namelijk toch wel wat ze willen.

En wat als er wel iemand aan de macht komt die de regels met voeten overtreed? Of we zijn dan zelf een dictatuur geworden en hebben een groter probleem, of we zijn nog steeds een rechtsstaat en partijen als MS en Google kunnen hun medewerking aan de uitbreiding van wat ze scannen weigeren. Wat mensen vergeten is dat deze bedrijven niet verplicht zijn om dit te doen!
Het probleem is dat zij niet kunnen zien van welk materiaal de hashes zijn. Anders hadden ze wel gewoon het materiaal waarop gescand moet worden gekregen ipv de hashes.

Het is dus heel makkelijk om deze partijen ook aan te laten slaan op andere hashes dan alleen die van kinderporno.
Vooraf kunnen ze de hashes inderdaad niet beoordelen. Ze kunnen wel degelijk het bestand bekijken waarop de hash een alarm geeft!

Het is nalatig als men dat niet doet, anders blokkeert men mogelijk legale bestanden bij een false positive en doet valse aangifte.
Daar ben ik het roerend mee eens.

Dit gaat mij te ver.
Ik dacht dat iedereen onschuldig is totdat het tegendeel bewezen is. Dat wordt mede met deze methode flink onderuit geschoffeld.

"Ik heb niets verbergen" Veel gehoorde kreet.
Ja hoor, je hebt wel wat te verbergen. Je zou niet willen dat een willekeurige foto van een van je kinderen door die hashes er toch uitgepikt word. Daarom neem je die foto maar gewoon als een stukje papier mee naar het familiebezoek.
Vreemde redenatie.
Als iemands politieke pamflet door Google of Microsoft tgeblokkeerd zou worden zogenaamd wegens kinderporno dan zou dat toch juist veel eerder het nieuws halen en daarmee veel meer aandacht schenken aan zo'n pamflet.

En ook aan de wijze waarop de hash in het systeem gekomen zou zijn wat ook heel negatieve publiciteti zou opleveren.
Waar slaat dit nou weer op.
Jij gaat er vanuit dat het pamflet geblokkeerd wordt en dat dit bekend wordt en in het nieuws komt.
Ik denk er meer aan dat er zo gekeken kan worden wie allemaal politieke tegenstanders zijn en dat hun leven dan heel moeilijk gemaakt kan worden, of zelfs beŽindigd kan worden. Dit is nu natuurlijk helemaal niet aan de orde in Amerika, maar niemand weet wat er in de toekomst gaat gebeuren en in andere landen gaat het er al heel anders aan toe.
Dan gebruik van een proces dat loopt met communicatie kanalen tussen providers en het NCMEC over detecties van kinderporno zeker niet een handig methodiek hoor.

Verder is het onzinnig om je ideeen dan juist op dit onderwerp te projecteren, een veel betere tooling daarvoor is namelijk ze al veel langer bestaande antimalware scanner.
Die worden zowel door providers en bedrijven als door particulieren gebruikt.
Antimalware scanners scannen op veel meer soorten content (ook documenten) en zijn veel voor veel situatie beter geschikt om op content te scannen.
Ook spam en anti phising scanners zijn beter in scannen op inhoud van berichten.
De gebruikte technologie vergelijkt geŁploade data met een database aan inbreukmakend materiaal. Hiermee kan Google of Microsoft je dus niet bespioneren. Het enige dat ze weten, is dat je wel of niet specifiek materiaal XYZ op je drive hebt staan.

Dit betekent natuurlijk niet dat de NSA niet op een andere manier kan spioneren, maar als ze de knooppunten of onderzeese kabels kunnen aftappen dan ben je toch de banaan of je nu clouddiensten gebruikt of niet.
Ze kunnen je wel bespioneren door ook op andere hashes te controleren dan alleen die van bekende kinderporno.
Maar dan moeten ze wel de hash hebben, dus ze kunnen enkel zoeken naar documenten die ze reeds hebben.
Handig bijvoorbeeld als je iedereen met een afbeelding van een jodenster in zijn account zoekt.
Waarom zou je daarvoor een kinderporno filter misbruiken. Dat controleert alleen palatjes en is dus totaal niet praktisch. Lijkt nogal onzinnig.

Een malware filter daarintegen controleert daarintegen wel alle attachements. Kun je dat beter misbruiken.
Klopt, maar de politie heeft zoveel middelen en bevoegdheden waar misbruik van gemaakt kan worden, maar toch laten we dat toe. Er is altijd een zeker nivo van vertrouwen nodig anders is geen enkele wereld leefbaar natuurlijk.

Ik acht de kans dat de regering gaat zoeken op (bijv.) politiek geladen plaatjes erg klein. Waarom? Omdat ze altijd al politiek geladen *tekst* konden detecteren. Foto herkennings technologie voegt daar weinig aan toe.
Je doet weinig aan cloud?

Heb je een eigen mailserver?

Vanuit Google en Microsoft bezien maakt het geen verschil of je documenten 'opslaat' in hun cloud of dat deze documenten in een e-mail staan op jou e-mail account. In beide gevallen gebruik je hun cloud infrastructuur. Veel mensen gebruiken dus permanent cloud diensten zonder zich daar direct bewust van te zijn. Heb je een gesynchoniseerde agenda of contactpersonen? Ook allemaal cloud tenzij je een eigen systeem runt.
Heb je een eigen mailserver?
Ja.
Heb je een gesynchoniseerde agenda of contactpersonen?
Een gedeelde agenda inderdaad, dat wel. En zoals gezegd een paar dingetjes op Google Drive. That's it.

En het is natuurlijk ook maar net waar je de grens trekt he. Cloud is een buzzwoord zonder duidelijke afbakening wat het is. Ik stream bijvoorbeeld ook muziek/video, dat valt volgens sommigen ook onder cloud. En apps downloaden vanuit Google Play, is dat cloud? Tsja...
Volgens sommige definities is alles wat met internet te maken heeft cloud. En dan zit er nog een verschil tussen "private cloud" en "public cloud" (en hybrid). Volgens die definitie kan je in de Westerse wereld nauwelijks leven zonder cloud.

Waar het hier echter over gaat is bestandsopslag/uitwisseling. Niet over agenda, contactpersonen, etc.
Op GoT was ooit een gebruiker die foto's van zijn blote kindje op Skydrive had (kan automatisch met een Windows Phone) en die zijn account was geblocked. Dit is al zeker 2 jaar geleden, dus dit is enorm oud nieuws.

Interessanter is de veroordeling in Engeland van 2 mannen die ongewild (zeggen ze) via What'sapp kinderporno op de telefoon kregen(van een voor hen onbekende)
tja, mij lijkt het toch raar dat je veroordeelt kunt worden als jij een paar plaatjes van een onbekende via whatsapp krijgt, maargoed, je kunt toch ook die plaatjes dan verwijderen en de afzender blokkeren (ken niet de mogelijkheden van whatsapp)..
Een geblocked account kan alleen gebeuren door naakt foto's als de folder waarin deze staat publiek toegankelijk is gemaakt door de gebruiker. En op zich is het dan niet zo raar als de foto van zijn naakte kindje publiek toegankelijk is.

Zie ook de terms & conditions van de MS diensten:
iv.Don't publicly display inappropriate images (e.g. nudity, bestiality, pornography).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True