Apple implementeert functie om berichten aan kinderen te scannen op naaktbeelden

Apple heeft een functie om berichten gericht aan kinderen te scannen op naaktbeelden geïmplementeerd in de tweede bèta van iOS 15.2. Daarmee lijkt de release van deze functie dichterbij te komen.

De functie is opt-in, schrijft 9to5Mac. Als een iPhone of iPad gekoppeld is aan het iCloud-account van een kind dat jonger is dan 13, dan kunnen ouders via Family Sharing de optie inschakelen om inkomende berichten te scannen op naaktbeelden. De software blurt die dan automatisch en zet een waarschuwing in beeld.

De monitoring en analyse van afbeeldingen vindt op het apparaat zelf plaats met behulp van machine learning. Daardoor blijft de encryptie van iMessage in stand. De functie werkt niet bij andere berichtenapps, zoals WhatsApp of Snapchat. De functie lijkt vooralsnog alleen uit te komen in de Verenigde Staten.

De scanfunctie wijkt af van het scannen van beeldmateriaal dat gebruikers uploaden naar iCloud. Die beide maatregelen maakte Apple tegelijkertijd bekend deze zomer. De bedoeling was dat iPhones en iPads beeldmateriaal automatisch zouden gaan scannen op basis van databases van bekende beelden van kindermisbruik. Die functie is na kritiek uitgesteld.

Apple Communication Safety

Door Arnoud Wokke

Redacteur Tweakers

11-11-2021 • 13:56

132

Lees meer

Reacties (132)

132
125
49
6
0
65
Wijzig sortering
Het beschermen van kinderen is onwijs belangrijk, goede zet!
Ookal is het scannen van foto's of videos wellicht niet een al te fijne gedachte. Maargoed, iets als privacy is in deze tijd bijna niet meer te vinden.
Met deze reden, of terrorisme, wordt alles geïntroduceerd.
Na verloop van tijd blijkt dat het voor meer zaken wordt gebruikt dan alleen de eerder benoemde, waarom verbaasd dat niet?

De monitoring en analyse van afbeeldingen vindt op het apparaat zelf plaats met behulp van machine learning. Daardoor blijft de encryptie van iMessage in stand.

Dit gedeelte uit het artikel lijkt te zeggen dat alles lokaal gebeurd, ik ben benieuwd wat er met de informatie gebeurt die wordt vergaard. Stel er wordt wat gevonden, wat dan? Wordt er alleen een lokale melding gedaan?

Ik ben ooit van SailfishOS overgestapt naar IOS omdat ik een volwassen os wilde met goede privacy functies. Helaas lijkt dat stapje voor stapje minder te worden.

[Reactie gewijzigd door Bongoarnhem op 25 juli 2024 01:01]

Als er kwade intenties zijn kunnen ze ook gewoon al je berichten lezen en zou enkel het scannen van plaatjes natuurlijk een beetje nutteloos zijn. Je gehele smartphone in de basis, zelfs enkel een bel/sms-functie, kan al “voor meer zaken worden gebruikt dan alleen de eerder benoemde”; dus wat dat betreft… Afijn. Het hele zooitje valt en staat met vertrouwen. Uiteraard moet je waakzaam en kritisch zijn, maar het risico op overdrijven en paranoia loert.

“ Ik ben ooit van SailfishOS overgestapt naar IOS omdat ik een volwassen os wilde met goede privacy functies.”

Hoe doet dit afbreuk aan je privacy? :) Het scannen binnen iMessage is lokaal en opt-in. Het staat niet verplicht aan, is optioneel. En bedoeld voor minderjarigen.

En je wist toch denk ik ook al dat iPhone lokaal sowieso al al je foto’s scant met ML vanwege de gezicht- en objectherkenning in de Foto’s app? Dit gebruikt dezelfde lokale techniek, maar dan om naakte mensen te detecteren in foto’s gericht aan minderjarigen ALS de functie ingeschakeld wordt.

[Reactie gewijzigd door WhatsappHack op 25 juli 2024 01:01]

Ja dat weet ik. Maar ik ben van dat soort functies niet zo’n fan. Helaas kijkt het allemaal langzaam aan toch stukje bij beetje meer te worden toegepast. Een kwestie van tijd verwacht ik.
Dit gedeelte uit het artikel lijkt te zeggen dat alles lokaal gebeurd, ik ben benieuwd wat er met de informatie gebeurt die wordt vergaard. Stel er wordt wat gevonden, wat dan? Wordt er alleen een lokale melding gedaan?
Het is opt-in. Nou ja, door de ouders dan.
Communication Safety is a Family Sharing feature that can be enabled by parents, and it is opt-in rather than activated by default. When turned on, the Messages app is able to detect nudity in images that are sent or received by children. If a child receives or attempts to send a photo with nudity, the image will be blurred and the child will be warned about the content, told it's okay not to view the photo, and offered resources to contact someone they trust for help.

When Communication Safety was first announced, Apple said that parents of children under the age of 13 had the option to receive a notification if the child viewed a nude image in Messages, but after receiving feedback, Apple has removed this feature. Apple now says that no notifications are sent to parents.
Dus je krijgt alleen maar een "dit plaatje is geblokkeerd omdat we denken dat het een naaktfoto is", als ontvangend kind.

Oorspronkelijk wilden ze de optie geven dat je het kon bekijken, maar dat dan wel de ouders zouden worden genotificeerd. Dat hebben ze eruit gehaald, juist om kinderen te beschermen tegen (gewelddadige) ouders, die hun kind zouden gaan straffen omdat Apple verklikt dat ze naar naaktplaatjes hadden gekeken.

[Reactie gewijzigd door Keypunchie op 25 juli 2024 01:01]

Misschien advocaat van de duivel, Apple gaat het niet uitbreiden op verzoek van overheden.

https://www.itpro.co.uk/s...ests-child-image-scanning

https://www.cnbc.com/2021...em-for-surveillance-.html

Met Iphones van terroristen heeft Apple in het verleden oa de FBI geweigerd voor speciale software voor unlock of "backdoors".

https://www.adn.com/natio...ure-company-in-australia/

Het zijn vooral de overheden met een varkensachtige rol.
Het beschermen van kinderen is onwijs belangrijk, goede zet!
Het zelfredzaam maken van kinderen is dat óók. Je kan kinderen ook overmatig beschermen en het lijkt me onwijs belangrijk dat we dat juist niet gaan doen.
Je kunt echter wel de blootstelling zoveel mogelijk proberen te beperken. Het zal toch nooit nul zijn. En van die enkele keren dat het wel erdoorheen glipt leren ze al genoeg. Het zijn echt nog kinderen. Die ook absoluut geen idee hebben wat voor impact dat heeft (ook op veel latere leeftijd...!). Jong (veelvuldig) shockeren is ook echt niet de beste manier om kinderen op te voeden. Dingen komen gewoon veel harder binnen bij kinderen dan bij volwassenen. En dragen dat ook veel langer mee dan volwassenen. Onderschat de impact niet.
Helemaal vermijden kan natuurlijk niet. Dat betekent niet dat we het niet moeten proberen.
In Nederland hadden we vroegah niet zo'n angst voor bloot. Er zit een behoorlijk verschil tussen bloot en porno.

Ondertussen nemen we die kuisheid van de Amerikanen een beetje over.

Volgens is hier ook geen generatie compleet getraumatiseerde door het bloot dat je vroeger op TV bv nog wel eens tegenkwam.
Want nu loopt iedereen in een boerka op TV? Ik denk dat jij een heel idyllisch beeld hebt over "vroegah". Als er naakt op TV was was er altijd wel iemand tegen. Wat je vandaag kan zeggen en laten zien op TV is echt wel een pak minder preuts dan dat bloot waar jij naar verwijst want dat was dan ook maar het tonen van vrouwen als lustobjecten. Blijkbaar had dat toch wel een sterke invloed als je bekijkt hoe bewust het vrouwen vandaag heeft gemaakt
Naakt kwam vroegah gewoon op de publieke omroep. Sex films kwam je in de late uurtjes nog op tv tegen.

Het artistieke of educatieve naakt is al vele jaren van de TV af en volgens mij zijn seksfilms ook al jaren compleet verdwenen van de buis.

Ik heb het niet over vrouwenonderdrukkende boerkas. Maar onze TV is echt belachelijk preuts in verhouding met de jaren 90 en begin 2000.

Purno de Purno was een villa achterwerk programma. Spuiten en slikken was een voorbeeld in deze context die de laatste jaren ook preutser werd en ondertussen al wat jaartjes niet meer op de buis is.

Volgens mij heb je de vrijheid op tv van de jaren 90 niet meegekregen met zo'n comment.
Hier is een fantastische black mirror aflevering over 🙃 s4 : Arkangel

[Reactie gewijzigd door BCC op 25 juli 2024 01:01]

Seizoen en aflevering alstublieft haha.

Maar inderdaad dit klinkt voor mij als enorm zinloos. Toen ik kind was en zoiets te zien zou krijgen zou ik gewoon op laat maar zien hebben geklikt. Zoals velen hier vroeger ook videobanden van de ouders vonden of boekjes.

Ik vind eerlijk gezegd dat t lijkt alsof Apple hun machtigste wapen (privacy) steeds meer aan het opgeven zijn voor ridicule zaken. Jammer imho en zeker nu Google en Samsung het laatste jaar juist steeds meer op privacy aan t focussen zijn.
Ik zie niet hoe Apple hier iets opgeeft aan privacy? De nieuwe functie is opt-in, niet opt-out. Het scannen is lokaal op jouw apparaat, niet via de cloud of jouw data in de cloud.

Verder ook weinig gehoord over Google en Samsung. Wat aan privacy werken omdat het moet en goed smoelt zal vast wel ergens, maar waar blijkt uit dat die twee bedrijven focussen op privacy?

Die Bixby assistent van Samsung en alle niet te verwijderen apps op Samsung toestellen zullen het alvast niet zijn. Je kunt ook bepaalde toestel instellingen niet doen zonder Samsung account. Heel veel lokt je toch naar Samsung dataverzameling, of zijn ze werkelijk een draai aan het maken daar?

Google is één groot advertentie festijn die draaien op persoonlijke profielen. Android basis OS is natuurlijk prima, maar dat draait bijna niemand zonder Google diensten. Google Play Services en Google Play Store dat haast iedereen gebruikt heeft nu privacy focus, heb ik iets gemist bij ze?
Heel Android 12 gemist? En Samsung die alle ads uit haar eigen apps gehaald heeft? Natuurlijk is het geen situatie van "de rollen zijn ineens omgedraaid", ik merk alleen dat er in Android ietsje meer privacy is dan voorheen en in iOS een beetje minder.

Dat Google een groot advertentie en persoonsgegevens verzamelingsplatform is, dat is nu uiteraard al tig jaar bekend. Maar het wordt al wel ietsje beter. Samsung idem dito. Apple doet het hier (gelukkig) nog altijd vele malen beter. Maar was t ook opt-in geweest als niet iedereen hierover geklaagd zou hebben? Ik denk het namelijk niet. Als je denkt dat Apple jouw data niet wilt heb je t denk ik toch echt mis. Dat ze minder data verzamelen is een gegeven, maakt het niet dat ze het niet zouden willen. Siri is een groot voorbeeld waarom Apple jouw data juist wel wilt hebben. Siri kwam uit met de iPhone 4S, destijds was Apple niet vd privacy die ze nu hanteren en Siri was destijds jaren verder dan de concurrentie. Waar Siri nu ergens onderaan bij Bixby bungelt, omdat ze te weinig data vergaard hebben in de jaren erna om de assistent te verbeteren.

Wat ik ermee wil zeggen is dat Apple hier echt wel van baalt en een veel mooiere toekomst had bedacht voor Siri. Ook al zullen ze dat ontkennen.
iOS komt nog steeds standaard met Google als de standaard zoekmachine. Vertel mij maar hoe veel Apple dan daadwerkelijk om privacy geeft?

Neemt niet weg dat van de grote jongens Apple de beste keus blijft als je meer privacy wilt. Als gebruiker van beide OSen kan ik persoonlijk ook niet zeggen dat de een beter is dan de andere gezien ze beide hele sterke en hele zwakke punten hebben.

Maar de vraag is, hoeveel mensen geven nu daadwerkelijk iets om hun privacy? Leuk dat mensen vanwege privacy iOS willen, maar er vervolgens Facebook, Instagram, TikTok en Snapchat op zetten. ..
Sorry, maar ik volg nog steeds niet.
Heel Android 12 gemist? En Samsung die alle ads uit haar eigen apps gehaald heeft?Dat Google een groot advertentie en persoonsgegevens verzamelingsplatform is, dat is nu uiteraard al tig jaar bekend.
https://www.computerworld...samsung-selling-data.html
https://www.privacyintern...-actually-care-about-your

Nogmaals, komt op mij over als oppoetsen van imago terwijl de kern van de privacy schending intact blijft, zo niet steeds verder gaat. PR zijn ze kennelijk heel goed in, want ook al zijn die marketing profielen en gegevens die ze van iedereen hebben completer en daarmee enger dan ooit, er komen wat sliders bij voor camera privacy en andere zaken die overal op de voorpagina's belanden, en het gevoel van de gemiddelde mens is weer in balans. Ze verkopen ondertussen de advertentieprofielen nu op zo'n grote schaal buiten, dat ze een paar basis apps switchen van advertenties tonen naar profielinformatie verzamelen.

Dat het al tig jaar bekend is, maar niet veranderd, maakt het helaas vandaag nog altijd zeer relevant :Y)
Tevens krijgen de ouders ook geen bericht hiervan, alles blijft op telefoon van het kind.
Black mirror season 4 : Arkangel
Dit is nogal een raar bericht in de context van het delen van naakt fotos en videos
Het gebeurd lokaal op het apparaat zelf, zoals in het artikel staat. Dus het heeft geen enkel invloed op je privacy.
Verder met je eens, goede ontwikkelingen.
Tuurlijk is er wel invloed op de privacy. "Your parents will get a notification".
Valt mij nog mee dat ze niet gelijk de foto meesturen naar de ouders.

Ik snap wel dat je het wil met al die naaktfoto's die doorgestuurd kunnen worden en die dan weer op internet belanden en dat handjevol mensen die zaken met kinderen willen doen wat je liever niet hebt. Maar als puber zijnde zou ik er toch niet zo blij van worden.
Dus het wordt wel een afweging als ouder vanaf welk moment je dit niet meer wilt doen en je kind zijn eigen vrijheid geeft om die beslissingen te maken.
Dat is volgens mij oud nieuws, Apple heeft die notificatie naar mijn weten eruit gesloopt na kritiek. Dus enkel de in-app waarschuwing blijft en ouders die willen weten wat hun kind zoal uitspookt en ontvangt zullen zelf op het toestel moeten kijken of moeten afspreken dat ze als ze zo’n melding krijgen het met hen moet overleggen; zeker indien van onbekend nummer.

[Reactie gewijzigd door WhatsappHack op 25 juli 2024 01:01]

Tuurlijk is er wel invloed op de privacy. "Your parents will get a notification".
Dit hebben ze eruit gehaald. Ouders krijgen geen notificatie.
Dat geldt voor nog 100.000 andere zaken. Als ouder weeg je af welke vrijheid je denkt dat je kind op welk moment aankan. Dit is daar alleen een hulpmiddel bij.

Als ouders laat je je kind van onder de 13 waarschijnlijk ook niet tot 4 uur 's nachts opblijven om netflix te kijken en op de telefoon bezig te zijn. Daar worden pubers vast ook niet blij van. Volgens mij kunnen ouders vaak sowieso weinig goed doen in de ogen van pubers ;)
Als je een kind geen vrijheden geeft dan werkt dat meestal averechts , ik vind het nog al stuitend dat ouders bigtech nodig hebben om hun kind op te voeden , ze normen en waarden te leren.

psssst : ze kijken dan wel bij dat ene vriendje/vriendinnetje ( stiekem natuurlijk ) die geen Apple heeft die papa of mama hun geeft , zo gaat dat.
Niet geheel mee eens. Als dat algoritme bij iedere hit dat logt op Apple servers, dan is het nog steeds relevant voor je privacy. Het ene kind heeft misschien 10 hits per dag, het andere geen.

Tweakers screenshot klopt niet, er gaat geen notificatie naar de ouders. Dus er is geen aanleiding om te geloven dat Apple servers van het event hoeven af te weten.

[Reactie gewijzigd door Verwijderd op 25 juli 2024 01:01]

Als mijn tante vleugels had, dan was het misschien een vliegtuig. Ze heeft echter geen vleugels, evenals dat deze functie geen metrics logt op Apple’s servers.
Er gaat wel een notificatie naar de ouders toe. Zie het screenshot. Ook dat kan privacygevoelige data zijn en dat loopt wel degelijk via Apple servers

[Reactie gewijzigd door Verwijderd op 25 juli 2024 01:01]

1) Dat is er uitgesloopt na kritiek,
2) Dat ging end-to-end encrypted.
Ah, Tweakers gebruikt dus een oude screenshot.

En dat het E2E encrypted is wil niet zeggen dat het niet privacygevoelig is. Als ik een E2E bericht van jou met de wrattendokter heb weet ik nog steeds dat je waarschijnlijk wratten hebt, om maar eens een suf voorbeeld te geven.
Uiteraard, maar berichten uitwisselen met je ouders lijkt me toch vrij normaal en is niet zo specifiek als een specialist :)
Als dat algoritme bij iedere hit dat logt op Apple servers, dan is het nog steeds relevant voor je privacy.
Als.

Alleen, dit gebeurt niet. Anders is het niet meer 'on-device'.

[Reactie gewijzigd door Keypunchie op 25 juli 2024 01:01]

En hoe komt die notificatie dan bij de ouders terecht?

[Reactie gewijzigd door Verwijderd op 25 juli 2024 01:01]

Niet. Er is geen notificatie naar de ouders.

(Daarnaast kun je best dingen doen zonder ze te loggen.)

(ik zie dat er een oud plaatje bij het artikel staat. Ik heb al een topic gestart om dat te laten fixen door @arnoudwokke https://gathering.tweaker...message/69390214#69390214 )

[Reactie gewijzigd door Keypunchie op 25 juli 2024 01:01]

Graag zou ik de kinderen beschermen tegen geweld, gewelddadige foto's en eventueel tegen vuurwapens.

Kinderen afschermen tegen bloot vind ik beslist niet reëel. Bloot is onderdeel van het leven. Sex is onderdeel van het leven.

Natuurlijk ben ik ook tegen gewelddadige seksueel getinte plaatjes, maar dat is vooral tegen het geweld.
Het beschermen van kinderen is onwijs belangrijk, goede zet!
Ookal is het scannen van foto's of videos wellicht niet een al te fijne gedachte. Maargoed, iets als privacy is in deze tijd bijna niet meer te vinden.
Sorry ben ik NIET mee eens, een bedrijf of mega bedrijf hoort onze kinderen niet te beschermen, dat is de ouders hun werk, steeds meer ouderlijk rollen gaan naar grote bedrijven toe, steeds meer woorden de bedrijven de ouders, en dit is absoluut niet goed wat steeds meer bedrijven doen, want ze geven geen bal om je kinderen, het gaat hun om geld meer niet, snap nog steeds niet dat mensen dat nog steeds niet weten.
Het beschermen van kinderen is onwijs belangrijk
Uiteraard, kun je het onmogelijk niet mee eens zijn.
goede zet!
Nou, dat weet ik zo net nog niet. Vooral niet omdat ik niet kan beoordelen wat dit algoritme nu verstaat onder "naakt". Want hebben we het dan over poedelnaakt of is een zwembroek/bikini voldoende om alarm te slaan?

Zwemkleding is hier echt een stuk kleiner dan in Europa of de VS, daar waar de algoritmes zijn gemaakt en worden onderhouden. Wanneer m'n zoon een foto maakt op het strand en deze doorstuurt naar z'n vrienden, is er bijna een garantie dat er flink wat billen op staan. Alleen heeft dat niets met naakt te maken... Je kunt moeilijk eerst het strand leeg maken.

Ben benieuwd hoe dit zich gaat ontwikkelen.
Het beschermen van kinderen is onwijs belangrijk, goede zet!
Tegen pornographies naakt ok, maar tegen naakt in het algemeen?
Ik denk eigenlijk dat daar te krampachtig over doen zelfs schadelijk is voor kinderen.
Het kan ook doorslaan. Vroeger ging ik ook stiekem naar de boekenhandel om in de ‘rode oortjes’ boekjes te kijken of later in de andere blaadjes, zo onopvallend mogelijk.

Hoort bij het opgroeien naar mijn mening. Maargoed.
Yeah right. Eerst alleen op je device scannen naar kinderporno. Ging ff niet door na kritiek, ook al zouden ze het heus nooit uitbreiden. Hopla, nieuwe feature, we scannen wat jij verstuurd naar kinderen. Dat zijn dus ook de selfies van 16 jarigen naar elkaar. Gelukkig hebben Apple om ons te behoeden /s
Ik vind dit een goede zaak als het juist wordt toegepast. Ik ben totaal niet gediend met een hoop troep op mijn devices en dit is voor mij een no brainer. Een kwaadwillige die op je telefoon nummer dit soort inhoud stuurt op je mobiel. Begin het maar uit te leggen als dit soort dingen op je telefoon gepusht worden zonder dat je daar vraag naar hebt. Ze zouden alles van dit soort content op telefoons moeten bannen. Een ziekelijke pervert of geesteszieke krijgt zijn verdiende loon. Zeker als een toestel door heel het gezin gebruikt wordt. Nee jongens dit moet ergens ophouden.
Je zult maar een dataset met dick pics moeten samenstellen om die AI te trainen :+
Mijn (treurige) vermoeden: bijna iedere willekeurige vrouw met een beetje online profiel kan je waarschijnlijk al snel een aardige verzameling voor de dataset aanleveren.

Mijn aanpak zou zijn: vrouwelijk profiel op Tinder aanmaken met stockfoto van een model en alles naar rechts swipen.

[Reactie gewijzigd door Keypunchie op 25 juli 2024 01:01]

Lijkt in eerste opzicht goede implementatie (on device, zonder ontsleuteling). Zou als ouder geneigd zijn dit aan te zetten, alles om je kin te beschermen. Toch wat vragen… Weet iemand hoe groot dit probleem daadwerkelijk is? Hoe fundamenteel is dit probleem? Is het nodig dat een tech bedrijf dit type data analyses kan doen? Vinden we het probleem groot genoeg? Wordt het een hellend vlak voor toekomstige acties? Wat vinden we van de techniek t.a.v. false positives, negatives, positief voorspellende en negatief voorspellende waarden bij een (ik neem aan?) enorm lage incidentie? Waarom passen we dit soort technieken niet toe om advertenties of (schadelijke) social media algoritmen te blokkeren :)?

Het boek “Age of Surveillance Capitalism” is het eerste wat in me op komt bij dit type berichten: https://en.wikipedia.org/...f_Surveillance_Capitalism
Jazeker is dit nodig.

Toen mijn zusje 10 jaar oud was (ze is nu 21) was de telefoon en computer al algemeen goed en op school werd er gewerkt met tablets. Er vond 1x in de maand controle plaats door mijzelf en mijn ouders om te kijken wat er allemaal op haar tablet stond en wat ze allemaal deed.

Ik heb een aantal keren meegemaakt dat ze in contact was met een onbekend personen die zich voordeden als haar vrienden. Na nader onderzoek en het uitlokken van gesprekken kwamen wij al snel op het spoor dat die onbekende personen pedofielen waren.

Nu ik zelf een zoontje van 3 heb wil ik hem beschermen. Als hij wat ouder is en hij mag van ons een telefoon hebben, wil ik natuurlijk wel weten wat er allemaal afspeelt totdat hij 18 jaar oud is.
Tot de 18de? Dat lijkt me een beetje ver gaan en kan je volgens mij echt vergeten. Tenzij je een kind wil hebben die echt alles uit de kast haalt en leert om dingen te verbergen.
Relax, laat je kind alsjeblieft de ruimte om de fout in te gaan. Praten met kinderen blijft altijd te prefereren boven fysiek checken. Zorg dat ze weten dat ze bij je terecht kunnen als je tegen iets aanlopen, dat je niet meteen kwaad wordt als er iets fout ging. Dat kost tijd en aandacht maar is voor mij de essentie van opvoeden. De rol van technologie zou voor mij tot een uiterste beperkt moeten blijven. Alsof iedere 'naaktfoto' meteen tot schade zou leiden bij een kind, mijn ervaring is toch echt wel anders.
Uh, ik zou misschien toch wat eerder dan 18 het een beetje loslaten. Een kijk hebben op wat je kind doet is belangrijk maar als je hem/haar geen privacy geeft dan ga je ze aanleren geheim te doen. Dingen zoals exploratie van de eigen seksualiteit bij homoseksuelen bijvoorbeeld, gebeurt vaak in de puberteit en is niet iets waar je 24/7 inzicht op moet hebben, het moet vanuit het kind zelf komen om dat aan je te vertellen als hij/zij er klaar voor is.
Zelf ben ik opgevoed met meerdere culturen. Dus het is een cultuur dingetje.

Tot het 18de een oogje in het zeil houden is natuurlijk niet verkeerd. Maar om je kind meteen in het wilde los te laten... nee dankje.
Correct correct, ik denk ook niet dat het liberale "doe maar wat je wilt" perfect werkt, er is natuurlijk een reden waarom je pas op je 18de officieel als volwassen wordt gezien. Het is, zoals alles, een balans.
Ik vind dat ouders inderdaad zelf mogen bepalen wat er met de telefoon en data van hun kind gebeurt. Wat Appel doet klinkt heel leuk, echter moeten we wel kritische blijven op deze surveillance technologie. De salami techniek van deze tech giganten werkt immers uitstekend (steeds een stapje verder tot je hebt wat je wilt).
Dit is zeker niet nodig. Als je kinderen 10 jaar oud zijn dienen ze niet zonder supervisie rond te hangen op deze apparaten. En maandelijks controleren is niet genoeg. Mijn dochters zijn 12 en 7 en ik kijk nog net niet dagelijks mee op de oudste haar telefoon. Het is gewoon afgesproken dat we samen af en toe door haar chathistorie lopen om te kijken of daar geen rare dingen gebeuren. Dan heb ik tevens de kans om toe te lichten hoe je soms met bepaalde mensen om kan gaan.

Ik zie grote delen van haar klas zonder supervisie op TikTok en/of Facebook rondhangen. Lekker makkelijk de opvoeding van de kinderen overlaten aan devices. Ik blijf me er over verbazen.
Wanneer denk je erover om dit te minderen? Zeker zoals jij het omschrijft zal je dochter van 12 nu wel doorhebben hoe het wel en niet hoort.
Nou ik denk dat ik tot minimaal 14 wel blijf meekijken. Daarnaast zijn en blijven TikTok, Facebook en Instagram etc. gewoon een no-go. Ze mag zelf het gesprek een keer aan met ons om aan te geven dat ze niet meer wilt dat we meelezen en dan zie ik wel verder.
Een no-go als in een eigen account?
Zodra ze bij vriendjes/vriendinnetjes gaat spelen kan je niet voorkomen dat ze daar op deze socials meedoet of kijkt.
Ze kijkt af en toe wel mee met anderen ja. Maar voorlopig krijgt ze geen eigen account. Meestal vertelt ze dat aan ons. En ze geeft ook aan dat ze het (nog) niet mist.

edit: ik praat er ook gewoon open over met haar, het is niet zo dat ik roep je mag niet zonder dat ik dat toelicht.

[Reactie gewijzigd door Verwijderd op 25 juli 2024 01:01]

Ik denk dat je goed bezig bent!
Ik hoop het!
Toen mijn zusje 10 jaar oud was (ze is nu 21) was de telefoon en computer al algemeen goed en op school werd er gewerkt met tablets.
In 2010 al op school met tablets? Dat is wel heel vooruitstrevend, want zoveel keuze was er toen nog niet. :)

Verder is het uiteraard goed dat je je kinderen beschermt, maar (ook zoals @HMC noemt) het lijkt mij sterk dat het jou gaat lukken om te weten wat er allemaal afspeelt totdat een kind de leeftijd van 18 jaar bereikt. Mogelijk kan je beter mikken op een goede balans (controleren als het kind jong is, het kind leren dat als het gek voelt dat ze altijd bij de ouders mogen aankloppen, etc.).

[Reactie gewijzigd door The Zep Man op 25 juli 2024 01:01]

Wil niet zeggen dat je er dan niet kritisch over na moet denken of het handje vasthouden tot de 18e niet een beetje overdreven is natuurlijk :P Uiteraard kan je alsnog tot de conclusie komen dat je kind niets ongezien mag (al loop je dan ook een verhoogd risico op een stiekem kind, mede-afhankelijk van hoe je omgaat met wat je dan wel vindt), maar het meteen al wegwuiven als “is cultuur” zonder er over na te denken… Afijn, ieder z’n ding I guess. Ik vind je kind tot zijn/haar 18e totaal geen privacy gunnen ook erg overdreven en zou dat als kind echt megakut vinden, zeker als je een onzekere puber bent. Dat kan averechts werken, maarja - risico ouder zullen we maar zeggen. :)

Overigens is supervisie niet erg he, begrijp me niet verkeerd. Zeker bij jonge kinderen zelfs van groot belang. Maar tot hun 18e, pfoe… Leef met het kind mee.

[Reactie gewijzigd door WhatsappHack op 25 juli 2024 01:01]

Privacy is vanaf hun geboorte al belangrijk, vanaf een jaar of 14 langzaam aan minder toezichthouden moet prima kunnen.
Vroeger in het analoge tijdperk kreeg je ook niks mee wat vriendjes en vriendinnetjes met elkaar uitspookten.
Als kritische noot is wel de vraag hoe die onbekenden überhaupt met haar in contact kwamen? Die zijn niet zomaar aan elkaar gekoppeld, maar daar is een openbaar contactpunt voor geweest. Waarbij de kern van het probleem dus eigenlijk was dat er te weinig toezicht was op de openbare activiteiten van je zus, waardoor deze in de privésfeer konden komen.
Precies. Apple komt met een functie en kan het niet eens met feiten onderbouwen. Wat is het percentage van kinderen die hier last van ondervinden? Apple lijkt hiermee niet op discussie af te wachten maar bepaalt het eigenhandig.
Apple bepaalt niets. Het is een optionele optie die je als gebruiker aan of uit kan zetten als familiebeheerder. Elke ouder kan voor zichzelf bepalen of hij/zij dit aan of uit wil zetten.

De controle vindt lokaal op het apparaat plaats. Prima functionaliteit wat mij betreft.

[Reactie gewijzigd door Naafkap op 25 juli 2024 01:01]

Dat mag iedereen zelf weten.
Maar ik zie wel een tendens dat Apple meer controle gaat uitvoeren.
Toen ze dit wilden uitvoeren in je iCloud bij volwassenen was de wereld te klein.
Dit past volledig binnen de marketing van Apple op dit moment. Ze zijn volledig op de privacy+veiligheid gesprongen omdat dat gewoon populaire issues zijn nu. Alle features die ze uitbrengen sluiten daar dan ook naadloos op aan. Dit soort features zijn natuurlijk ook uitstekend geschikt om meer mensen binnen hun ecosysteem te houden. Een belangrijk kenmerk voor Apple want als niemand hun apparaten koopt, koopt ook niemand meer (via) hun diensten. Zolang die koppeling zo hard is, moeten ze wel met dit soort dingen doen.

Een ander voordeel hierbij voor Apple is nog dat ouders dan vanwege een vaag gevoel van veiligheid eerder geneigd zijn Apple spullen te kopen voor een kind en als een kind opgroeit met Apple spul, wisselen ze op latere leeftijd niet meer zo makkelijk naar iets anders. Het gezegde "wat de boer niet kent, eet 'ie niet" gaat nog steeds op. Dat is precies waarom Google en in mindere mate Microsoft zo duidelijk een focus heeft op scholen met hun producten, waar een kind mee opgroeit, raakt 'ie aan gewend. Apple doet het alleen via de consumentenroute en Google en MS via de zakelijke route.
Ik vind dat je een punt heb.
Apple bepaalt niet of de optie wel of niet aan staat maar als de optie aan staat bepaalt Apple wel wat acceptabel is en wat niet. Alle naaktbeelden zullen geblokkeerd worden terwijl onderscheid gemaakt zou moeten worden tussen erotiek/porno en gewoon naakt. Ooit was er in Europa een gezonde scheiding tussen die twee maar de Amerikaanse preutsheid heeft alle naaktheid tot pornografie "bevorderd". Apple gaat dat onderscheid niet maken.
Wat is het percentage van kinderen die hier last van ondervinden?
Vrijwel elke 12-13 jarige meid die online actief is. Radar heeft hier eens een Topic over gemaakt en hun lok accounts op Insta, waar ze zich voordeden als een 12-13 jarig meisje werden gewoon direct lastig gevallen met de meest schunnige fotos en berichten.
Dit werkt sowieso alleen in de chatapp van Apple.

Overigens lijkt het me sowieso al best kansloos dat je je kind van 12-13 op Instagram laat.
Het is nog erger, die kids zitten tegenwoordig volop op TikTok. Vergeleken met TikTok is Instagram een Baptistenkerk. Ik snap niet dat ouders het toestaan dat zulke jonge kinderen ongelimiteerd op een app met die content mogen zitten. Ja want pietje mag het van zijn ouders en ja fransje kan dan niet achter blijven. Amehoela, denk gewoon voor jezelf en je eigen kind na. :/

[Reactie gewijzigd door WhatsappHack op 25 juli 2024 01:01]

Er is wel iets voor te zeggen dat je kinderen begeleid kennis laat maken met de idiote buitenwereld, al dan niet online. Ze tot hun 18de afschermen en ze dan ineens de volle lading laten krijgen is ook niet gezond.
Hoe is een ingebouwde backdoor en extra attack vector een goede implementatie? Dit breekt versleuteling doordat het niet meer ontsleuteld hoeft te worden, daar is niets maar dan ook niets goed aan.
Kan je uitleggen hoe dit een backdoor is en hoe de versleuteling wordt verbroken?

Zoals ik het lees wordt de foto op het apparaat zelf pas ontsleuteld (wat sowieso zou gebeuren anders kon je de foto niet bekijken) en wordt er dus juist niets verbroken, maar als jij meer informatie hebt zijn er vast meer tweakers naast mij die geïnteresseerd zijn.
Het idee is dat als je versleuteling omzeilt, je het dus niet hoeft te verbreken, maar je het net zo goed verslaat. Het punt is dat dit nu is ingebouwd. Apple kan straks ook niet zeggen dat het een en ander onmogelijk is als een overheid bepaald beeldmateriaal niet aanstaat, zoals een bepaalde tank op een bepaald plein in China of als Saudi Arabië naaktfoto's van mannen wil laten rapporteren (om homo's te outen). Ik noem die twee voorbeelden omdat ze twee overheden beslaan waar Apple al eerder aan heeft toegegeven.

Apple in 2016:
Specifically, the FBI wants us to make a new version of the iPhone operating system, circumventing several important security features, and install it on an iPhone recovered during the investigation. In the wrong hands, this software — which does not exist today — would have the potential to unlock any iPhone in someone’s physical possession.

The FBI may use different words to describe this tool, but make no mistake: Building a version of iOS that bypasses security in this way would undeniably create a backdoor. And while the government may argue that its use would be limited to this case, there is no way to guarantee such control.
Apple bedacht vervolgens een manier voor de FBI om toegang te krijgen tot gegevens zonder versleuteling te hoeven breken, namelijk het omzeilen ervan:
The tech giant’s reversal, about two years ago, has not previously been reported. It shows how much Apple has been willing to help U.S. law enforcement and intelligence agencies, despite taking a harder line in high-profile legal disputes with the government and casting itself as a defender of its customers’ information.

Had it proceeded with its plan, Apple would not have been able to turn over any readable data belonging to users who opted for end-to-end encryption.
Ik heb het niet over ondenkbare gedachte-experimenten, dit zijn herhaalde patronen in uitgebrachte software. Bovendien betekent het ook dat als criminelen hier exploits in ontdekken ze native functionaliteit kunnen inzetten om te bespioneren, het is al praktisch spyware. Dit soort ontwikkelingen moet je gewoon niet willen, maar Apple vindt de veiligheid van het voortzetten van hun bedrijfsprocessen (als ultiem doel het blijven verkopen van iPhones en bijbehorende diensten) belangrijker en komt dus overheden al lachend tegemoet.

[Reactie gewijzigd door Blizz op 25 juli 2024 01:01]

Ik kan je nog niet vertellen hoe fundamenteel het "probleem" is. Wel kun je je afvragen of het uberhaupt een probleem is. Mogen kinderen geen bloot zien? Is dat zo erg? In Amerika wel, maar we leven hier in Europa. Ik zou het prettiger vinden als dat algoritme een afbeelding tegenhoudt waarin iemands harses wordt ingeslagen met een botte bijl. Maar dat is in Amerika weer niet zo erg, dus daar voorzien de algoritmes niet in. Daarom is daar ook meer geweld op de scholen.
Het is ook gezond voor kinderen om een natuurlijk schild te ontwikkelen voor dingen die ze niet willen zien. Dat moeten ze zelf leren doen en niet een of ander mislukt algoritme. Anders voelen ze zich straks beledigd bij ieder onvertogen woord/beeld in de media en dan krijg je hele enge toestanden. Straks worden er nog eeuwenoude tradities en kinderfeesten omzeep geholpen omdat men niet geleerd heeft een schild te ontwikkelen voor dingen die ze zelf liever niet zien.
Sexting en mogelijke chantage is een groter wordend probleem.
https://www.noordhollandsdagblad.nl/cnt/dmf20191129_48017640
Dus ik ben als ouder van een dochter blij dat dit gedaan gaat worden.
Op het moment dat zij een mobiel krijgt gaat dat een Apple worden en dit gaat aangezet worden.
Niet omdat ik haar wil controleren, maar wil beschermen tegen de idioten.
Ik denk dat veel ouders anders ermee omgaan als zij een dochter hebben. Zonen worden meestal vrijer gelaten, maar hebben daarbij minder last van dickpics en dergelijke.
Dat zou vreemd zijn omdat jongens hier juist meer last van hebben tegenwoordig.
https://nos.nl/artikel/22...chanteerd-met-naaktfoto-s
Vermoedelijk omdat meisjes eerder gewaarschuwd worden (of wellicht gewoon omdat ze toch al verstandiger zijn)
Dacht gelijk aan een aflevering van Black Morrir, Arkangel : https://www.youtube.com/watch?v=QFe9hpKV-U0
Meisje krijg chip in hoofd en die block alle slechten beeld, zoals bloed, naakt, enge honden, enz.
Hoop niet dat we die kant op gaan.
Mijn persoonlijke antwoorden. (niemand hoeft het met me eens te zijn natuurlijk :) - gewoon puur mijn mening / ideëen hierover. )
Weet iemand hoe groot dit probleem daadwerkelijk is?
Ik heb een keer een documantaire gezien over dit onderwerp gemaakt door seksuologen en (kinder)psychologen.

Hierin werd gesproken dat porno (is niet hetzelfde als bloot natuurlijk) voor kinderen daadwerkelijk voor problemen kan zorgen. Het creëert een onrealistisch zelfbeeld. Er zijn heel veel meisjes onzeker over hun geslacht omdat die van hen er niet 'perfect uit ziet'. De actrices hebben vrijwel allemaal schaamlipcorrecties gehad. Hetzelfde geldt voor jongens die denken dat hun geslacht te klein is, of als hij wat scheef is dat ze denken dat hij 'misvormt' is. Ook zijn geslachtsvergrotingen bij mannelijke acteurs niet ongebruikelijk.
Denk ook aan zaken dat borsten die 'platvallen' als ze op de rug liggen in plaats van dat ze 'mooi overeind' blijven staan.

Bovenstaande is voor volwassenen uiteraard prima te bevatten, maar kan bij (jonge) kinderen en pubers erg in de weg zitten bij hun zelfbeeld met alle consequenties vandien.

Ook de vanzelfsprekendheid van bloot en seks in de industrie kan verwarrend zijn voor die groepen. Het is niet dezelfde soort vanzelfsprekendheid dat 'wij vroeger naar actiefilms keken' en nu ook niet massaal mensen aan het neerschieten zijn.


Het probleem is volgens die specialisten dus zeer fundamenteel, als die kinderen niet de juiste informatie er omheen krijgen. Kinderen tot een bepaalde leeftijd kunnen niet makkelijk het emotionele onderscheid maken tussen wat 'echt' en wat 'nep' is als het gaat om seksualiteit.
Is het nodig dat een tech bedrijf dit type data analyses kan doen?
Dat weet ik niet. Misschien wel. Misschien is het alleen al een methode om een gesprek te forceren. Seksuele voorlichting is bij veel ouders (en de kinderen) nog steeds erg ongemakkelijk. Het is natuurlijk wel iets dat erbij hoort, maar het is niet altijd even makkelijk om te bepalen wanneer welk kind klaar is voor welk onderdeel.
Vinden we het probleem groot genoeg?
Ik vind van wel. Ik heb zelf twee kinderen en ga ze zeker proberen zo snel mogelijk duidelijk te maken dat bovenstaande beelden veelal acteurs zijn, en dat het net zo nep is als Star Wars of Harry Potter. Maar tot die tijd dat zij de leeftijd hebben dat ik denk dat zij dat gesprek nodig gaan hebben, zou ik het fijn vinden als er een soort automatisch filter dat het leeuwendeel kan helpen verbergen.
Uiteraard leef ik niet naast de wereld. Als ze er naar op zoek gaan, dan vinden ze het toch wel. En ook weet ik dat er geen één filter waterdicht is.
Wordt het een hellend vlak voor toekomstige acties?
Dat verwacht ik van niet. Mogelijk dat er nog een factor extreem geweld bij zou komen, maar iets anders kan ik niet denken wat je lokaal op een telefoon zou willen filteren.
Wat vinden we van de techniek t.a.v. false positives, negatives, positief voorspellende en negatief voorspellende waarden bij een (ik neem aan?) enorm lage incidentie
Daar heb ik nu geen mening over. Daar kan je pas wat van zeggen als het eenmaal draait. Dat er valspositieven en valsnegatieven komen ontkom je niet aan. Is dit vervelend "Ja". Is dat verschrikkelijk "Niet echt". Het is een optioneel iets dat je aan kan zetten voor je kinderen.
Waarom passen we dit soort technieken niet toe om advertenties of (schadelijke) social media algoritmen te blokkeren
Omdat dit een techniek is om lokale foto's op een telefoon te controleren door een telefoonverkoper. Een advertentieverkoper heeft hier geen baat bij. Dit interesseert alleen maar de advertentieverkopen in volumes.
Weet iemand hoe groot dit probleem daadwerkelijk is?
Ieder slachtoffer is er één teveel
Mijn kinderen mogen best naakt zien. Waar bemoeit Apple zich mee??
Het is ‘opt in’ voor ouders om dat in te schakelen op accounts van kinderen… waar maak je je druk om??
Nice! Maar natuurlijk alleen maar functioneel in iMessage. Dat vind ik wel écht jammer.

[Reactie gewijzigd door prodygee op 25 juli 2024 01:01]

en alleen in de VS, ook best jammer.
iMessage wordt in Europa, zeker door kinderen, niet gebruikt. Zo'n systeem zou eigenlijk niets bereiken. daarnaast is de Amerikaanse opvatting over naaktheid toch wel anders dan de Europese. In Europa maken we toch meer onderscheid tussen natuurlijk naakt en seksueel naakt. Ik zit er niet op te wachten dat Europeanen nóg preutser gemaakt worden via de Amerikaanse moraal.
Wacht maar, over 15 jaar zal een AI al je berichten in de gaten houden.
Wellicht dat dit een goede zet is en bedrijven als WhatsApp aansluiten.
Kan deze functie ook omgekeerd gebruikt worden om naaktbeelden te vinden in een berg met foto's? Ik vraag dit voor een kennis.
Mogen ze ook invoeren voor volwassenen, denk dat er genoeg vrouwen zijn die ongewenste dickpics wel zat zijn, ideale oplossing :+
Think of the children!
Nog meer vertrutting van de maatschappij. Goed in openhartig gesprek met je kinderen blijven is veel belangrijker.
Hoewel als ik tegenwoordig naar ouders om mij heen kijk is er van een goede opvoeding ook weinig meer over. Veel te druk met zichzelf ipv het gezin.
en hoe voorkomen ze dan at een kind, niet zijn leeftijd op 18+ zet bij het maken van een account?
Opvoeding.

En daarmee komt ook vertrouwen. Vertrouwen dat ze dit soort dingen niet doen en dat ze ook begrijpen waarom ze dat niet moeten doen. Wanneer ze een jaar of 16, 17 zijn en zich voordoen als 18, kun je dat verwachten maar dan vliegt het vertrouwen ook heel snel de deur uit en volgen er dagelijkse controles. Maar wanneer je een goede relatie met je (puberende) kinderen houdt en onderhoudt, blijken ze verbazingwekkend open te zijn over wat zich in hun (online) leven afspeelt. Veel online accounts kun je zo instellen dat niet iedereen zich zomaar kan voorstellen, dat scheelt een enorme bak ellende. Als ik zie hoeveel ongewenste uitnodigingen de kinderen krijgen...
Als ouder stel je je apparaat zo in dat het kind geen nieuwe accounts kan aanmaken op het apparaat en ook zijn eigen accountgegevens niet kan wijzigen.
een Digibeet ouder, weet vaak niet hoe dit werkt
Als ouder dien je wel een beetje moeite te doen om je kind in goede banen te leiden, als het je zelf niet lukt dan is Google een logische stap, en anders heb je vast wel iemand in de familie die dit kan. Ik kan niet voor Android spreken, maar op iOS vindt ik dit toch wel heel erg gemakkelijk en simpel om te doen.
Knul, ik ben oud genoeg om Opa te zijn en ik weet prima hoe het werkt. Waarom zouden ouders van nu Digibeet zijn? Dan heb je echt de boot gemist.
Dan gaat digibeet-ouder naar de z'n neefje of naar de winkel waar hij z'n toestel heeft gekocht.... Dat komt helemaal goed.
Leeftijd verificatie via bank/creditcard/digid whatever.

Op dit item kan niet meer gereageerd worden.