Rechter VS zet streep door wetten voor filteren content voor minderjarigen

Een rechter in de Amerikaanse staat Texas heeft op het laatste moment delen van een nieuwe wet tegengehouden die grote sociale netwerken zou verplichten om content te filteren voor minderjarigen. De wet, bekend als de Scope Act, zou op 1 september in werking treden.

De rechter oordeelde dat de vereisten voor het monitoren en filteren van content in de wet een bedreiging vormen voor de vrijheid van meningsuiting online. Dat blijkt uit een rechtbankdocument dat The Verge kon inkijken. De wet zou platforms hebben verplicht om minderjarigen te beschermen tegen ‘schadelijk materiaal’, waaronder content die onder meer zelfmoord of drugsgebruik zou promoten. De rechter wees erop dat vage termen echter teveel ruimte lieten voor selectieve handhaving. Sommige delen van de wet, zoals regels rond leeftijdsverificatie voor websites met volwassen inhoud, zijn niet geschrapt.

Vergelijkbare wetten in Californië, Arkansas, Ohio en Mississippi zijn eerder al deels of volledig tegengehouden. Op federaal niveau wordt nog gewerkt aan de Kids Online Safety Act, die soortgelijke zorgen over censuur oproept.

Door Andrei Stiru

Redacteur

03-09-2024 • 14:59

51

Reacties (51)

51
50
25
1
0
18
Wijzig sortering
Als de sociale media verstandig zijn komen zij vrijwillig met een filter wat door de ouders beheerd kan worden. Tot 13 jaar zijn de ouders volledig verantwoordelijk en op een aantal leeftijdsgrenzen zouden de kinderen dan ook delen van het filter moeten kunnen beheren, totdat dat op de 18e verjaardag helemaal naar de kinderen zelf gaat.
Het filter kan ook best aan volwassenen worden aangeboden om content die zij niet willen zien ook buiten te houden. Het mopper, scheld en bedreigingsplatform X zou daar een stuk beter door worden.
Het lastige van een filter is dat dan ook alle content voorzien moet zijn van correcte tags. Dit is gemakkelijk bij een dienst als Netflix omdat alle materiaal reeds een rating heeft en er geen inbreng van gebruikers is.. Bij een Twitter of Facebook is dit niet te doen tenzij je wereldwijd een heel stel kantoorpanden vol met moderators neerzet.
Er bestaan al lang filters die teksten screenen op allerhande taalgebruik en foto's op sexueel getinte afbeeldingen. Met AI zijn die filters nog gemakkelijker te maken en zijn de tag's nu eigenlijk overbodig.
Een deel van de teksten zou je zelfs automatisch kunnen laten herschrijven zodat grof taalgebruik of het aanzetten tot haat en geweld wordt weggelaten, maar de boodschap overeind blijft.
Er is wel meer mogelijk in theorie, maar de implementatie gaat niet zomaar even. Vaak komt er pas bij het maken van zo'n filter naar voren wat voor haken en ogen er aan zitten, en wat eventuele neven-effecten er van zijn. Vind het wat voorbarig om te zeggen dat AI het "wel zal oplossen".
Er bestaan al heel veel filters die zonder aanpassing best een heel eind komen.
Implementeren zal wat werk zijn en zeker als je filters op basis van AI gaat bouwen. Het hoeft ook niet van vandaag op morgen aangeboden te worden en als het aangeboden wordt hoeft het nog niet volledig te werken.

Het is wel een keuze die de verschillende platformen kunnen gebruiken en sommige platformen zouden daar heel erg op vooruit gaan.
Tot het wettelijk verplicht is. Dan moet je eens zien hoe snel het kan, en aangepast kan worden...

Natuurlijk zal er naast AI nog een 'menselijke laag' tussen moeten zitten om het systeem te controleren en bij te sturen.
Kunnen we niet met de opkomst van AI dit veel sneller gaan beoordelen? Ik snap dat het screenen van video's een taak is die enorm veel rekenkracht met zich mee gaat brengen (gezien de hoeveelheid content die bekeken moet worden) maar ik zou denken dat dit uiteindelijk wel een mogelijke oplossing kan zijn?
Niet tenzij je oke bent met een hoop false positives, een aantal false negatives, en mensen die massaal gaan proberen AI filters te ontwijken (zie dingen als "unalive").
En vergeet dan de wedstrijd TTP niet :) :)
want dan wordt het weer wedstrijdje om de filter te omzeilen :)
Tuurlijk kunnen we dat. Maar gaat niet gebeuren.

AI gaat niet gebruikt worden waar het hulpzaam is. Maar waar het kosten bespaard. Waarom geld uitgeven aan een AI die dit doet terwijl je ook gewoon kan zeggen "sorry te moeilijk. We gaan niks doen"? Het is niet alsof deze apps concurrentie hebben. En zelfs als ze dat hebben is dit niet iets om op te concurreren.
Daar is een simpele oplossing voor. Geen tag is niet geschikt voor minderjarigen. Dan hoeft alleen nog maar de content en leveranciers gecontroleerd te worden die een tag voor minderjarigen toe past. En wie het onrechtmatig toe past moet verantwoordelijk te houden zijn, dus dat taggen kan niet zomaar door ieder gedaan worden. Niet ideaal, maar bij gewone diensten voor minderjarigen eisen we ook vooraf verantwoordelijkheid en voldoende betrouwbaarheid.
Is dit niet precies wat de algoritmes allang doen? Content filteren en aan je voorstellen omdat het overeen komt met of je voorkeuren, of wat het bedrijf denkt dat bij die voorkeuren hoort.
Iedereen die een foto/film of text bericht plaatst eerst laten selecteren of het voor alle leeftijden is of 13+, 16+,18+
Bij social media gaat het om 2 dingen:

1. Get them while they are young (net als bij religie)
2. Expand your revenue

Ik schat de kans dat ze vrijwillig omzet derving gaan creeeren niet heel groot.
Je geeft met de mogelijkheid voor filters die jezelf (of je ouders) wel de mogelijkheid een veilig platform te creëren, ongeacht hoe anderen het gebruiken of misbruiken.
Zelf heb ik alle social media bijvoorbeeld verlaten en ook heb bedrijf waar ik voor werk doet nog nauwelijks iets op social media omdat er te veel negatievelingen en trollen actief zijn. Ik ben daar zeker niet de enige in. Doodsbedreigingen van "leuke" grappenmakers heb ik ook gehad.

Met filters om tegen te gaan wat je (je kind) niet wilt (laten) zien kan ook best een winstgevende toevoeging zijn. In mijn geval misschien een rede om (professioneel) weer social media te gebruiken.

Veel nieuws sites die reacties op het nieuws toestaan gebruiken ook filters en je wilt echt niet weten wat die filters allemaal tegenhouden. Nu.nl en de NOS de mogelijkheid als er te veel negatieve opmerkingen komen (een nette, maar negatieve mening is toegestaan). Bij een aantal onderwerpen zit de redactie al direct na plaatsing klaar om de reactiemogelijkheid te blokkeren.

Musk heeft van X een platform gemaakt dat alles toelaat. Veel bedrijven en personen zijn daar niet meer actief omdat de inhoud daar voor 60 tot 80% zeer negatief is, complottheorieën of allerhande bedreigingen bevat.
Volgens mij bedoelen we 2 verschillende dingen.

Jij wilt kunnen filteren op content, ik wil de hoeveelheid advertenties terugdraaien. Dat laatste is kurk van social media. En adverteren werkt, anders zou je meer uitgeven aan reclame dan je eraan verdient. Dat is niet vol te houden.
Ik wil niet dat kinderen van jongs af aan getraind worden om consumptie zombies te worden.

Daarnaast weet ik niet wat een goede route is. Als je met filters een 'veilige' bubbel creeert, worden ze niet voorbereid op de werkelijkheid van social media. Maar andersom is ook niet haalbaar. En hoe leren ze dan dat met name de vuilspuiterij op social media meestal niet in relatie is tot de werkelijkheid.

Sowieso is het met de hoeveelheid media een race voor aandacht. Daarom word het in mijn ogen steeds extremer beide kanten op. En aandacht levert advertentiegeld op. Vandaar dat ik denk dat social media niet veel vrijwillig zal doen qua filtering. Nog los van de hordes psychologen die ze in dienst hebben om de aandacht te (blijven) maximaliseren.
Advertenties zijn een heel ander probleem. Ook daar kunnen filters een rol spelen. Niet zozeer om het aantal advertenties te beperken (dat zit het verdien model te veel in de weg), maar om voor kinderen bepaalde advertenties tegen te houden (en te vervangen door andere). Onder de 13 jaar zouden advertenties helemaal uitgeschakeld moeten kunnen worden.

Over het leren dat vuilspuiterij niet normaal is hoeft je je geen zorgen te maken. Als ze daar op het internet niet mee in aanraking komen wordt dat automatisch als "niet normaal" beschouwd. Hopelijk heeft dat op den duur ook een opvoedende waarde en neemt die vuilspuiterij helemaal af.
De vraag is echter of een commerciëel bedrijf dit ook zou willen.
Het is natuurlijk allemaal heel erg nobel om dat te doen, maar een ander zal het niet doen, en dan raak je je publiek kwijt aan concurrenten.

Zoiets implementeren kost geld (iemand zal het moeten ontwikkelen), en je moet veel mensen inzetten om dit te onderhouden. Terwijl de concurrent dit allemaal niet hoeft te doen.
Een wet met verboden, gebaseerd op "vage definities", is natuurlijk vragen om problemen. Mooi dat dat is afgeschoten. ^O^
Dat ben ik niet met je eens, want het alternatief is in mijn ogen niet per se beter.
“Terms like ‘promoting,’ ‘glorifying,’ ‘substance abuse,’ ‘harassment,’ and ‘grooming’ are undefined, despite their potential wide breadth and politically charged nature,” (zegt de rechter)
Als je dat soort termen nog verder moet specificeren om te kunnen handhaven, dan ontstaat er een onleesbaar uitgebreid document met een enorme opsomming van wat er precies niet is toegestaan, ofwel er worden dingen overgeslagen die wel onder de term ‘harassment’ zouden vallen, maar de wetgever niet had voorzien.

Of een uitspraak / social media post grensoverschrijdend is of niet, hangt sterk af van de context waarin woorden of handelingen worden geplaatst. Juist daarom is een wat bredere formulering van de bedoeling van de wet nuttiger dan proberen uitputtend te zijn, wat volgens mij een illusie is. En dan is het aan de rechter om te bepalen of een bedrijf naar de letter én naar de geest van de wet heeft gehandeld, gelet op de context van een voorval.

Tegelijkertijd hebben FIRE en de rechter wel gelijk als ze zeggen dat
terms like “grooming” have been applied to all forms of LGBTQ content
en het lijkt me dat je niet álle content over LGBTQ van bijvoorbeeld een Amerikaanse variant van de Rutgersstichting achter een 18+ muur wilt zetten. Jongeren hebben wel degelijk belang bij voorlichting, maar moeten beschermd worden tegen uitwassen zoals grooming.

Kortom, wellicht had de rechter wel een punt dat-ie de wet op dit punt tegenhield, maar iedere punt en komma definiëren is in mijn ogen niet dé oplossing.

[Reactie gewijzigd door ZwolschBalletje op 3 september 2024 15:35]

En wet moet concreet zijn. Juist volledig uitgeschreven zodat er geen oordeel is of iets wel of niet voldoet. Indien dat niet kan is het niet te handhaven en word het misbruikt of misoordeeld.
En indien de definities wijzigen moet de wet worden aangepast of verwijderd.

[Reactie gewijzigd door Possemaster op 3 september 2024 15:48]

En wet moet concreet zijn. Juist volledig uitgeschreven zodat er geen oordeel is of iets wel of niet voldoet.
Je stelling klinkt plausibel, maar als dat realiteit zou zijn, dan zou er in Amerika (waar dit artikel over gaat) niet zo’n heisa gemaakt hoeven worden van het samenstellen van een jury. Dan zou immers iedere jury hetzelfde oordelen over de vraag of een verdachte/gedaagde schuldig is of niet. Het gegeven dat juryselectie een heel ding is, toont aan dat wetten niet zwart en wit zijn, maar ook grijs bevatten. De vraag is, waar leg je de grens.

Belastingwetten in Nederland zijn heel gedetailleerd: pagina’s vol met beschrijvingen van wat je wel en niet mag/moet opgeven bij je inkomsten. Maar is dat dan ook een goede wet?
Het effect is in elk geval dat Jan en alleman (en @ZwolschBalletje) braaf zijn aangifte invult en tussen de 30 en 53% belasting betaalt, terwijl de écht rijken iemand inhuren die de gaten en uitzonderingen van de wet opzoeken, en zo minder betalen. Die maken gebruik van mogelijkheden die de wetgever niet expres in de wet heeft gestopt, maar waar niet aan gedacht is, of iets inconsequent is opgeschreven oid.

Hoe meer details je opneemt in een wet, hoe meer rafelranden en grijs gebied je introduceert. In het algemeen oproepen tot volledig zijn klinkt logisch (en is een goed startpunt), maar de uitwerking is niet altijd beter.

Ik ben benieuwd of @Possemaster en @MC Taz Man een voorbeeld kunnen geven van hoe je zo’n wet als deze, over het blokkeren van content voor jongeren, in hun ogen wél zou moeten definiëren. Want ik zie die silver bullet zo gauw niet.
Het probleem is, als ik de berichtgeving goed begrepen heb, dat er helemaal geen definitie in de wet staat. Maw; alles is geoorloofd, want niets is hard.

Een definitie is voldoende. Zie bijv. de door mij eerder aangehaalde definitie van "moord". "Hij die opzettelijk en met voorbedachten rade een ander van het leven berooft, wordt als schuldig aan moord". De enige feitelijke constatering hier is 'een ander van het leven berooft'. De rest is interpretabel. Wie bepaald "voorbedachte rade"? Wie bepaald "opzettelijk"? De rechter, tenzij de verdachte bekend.

De rechter moet dus, subjectief, bepalen of het bewijs voldoet aan de gegeven definitie.

Niet het beste systeem, maar da's nu eenmaal het systeem waar wij in het westen mee werken. Hier, maar ook in de VS. Ik zie niet in hoe je definities op een andere manier in een wet krijgt.

Belastingwetten negeren we ff, want daar heb je minimaal 4 studies voor nodig om die te snappen :')
En wet moet concreet zijn. Juist volledig uitgeschreven zodat er geen oordeel is of iets wel of niet voldoet. Indien dat niet kan is het niet te handhaven en word het misbruikt of misoordeeld.
En indien de definities wijzigen moet de wet worden aangepast of verwijderd.
Dit is het exact. Zodra je dat niet doet dan ben je overgeleverd aan de willekeur van de moderator.

Het probleem is ook dat we, op een aantal hele heftige zaken na, het met zijn allen over ontzettend veel onderwerpen en interpretaties helemaal niet eens zijn. Dus dan is de inhoud van de wet continue mee schuivend met de politieke kleur van het land op dat moment. En dat is puur censuur.
Nee, juist niet. Want dan moet je met elke innovatie of verandering in de maatschappij de wet herschrijven of een nieuwe wet maken. Wetten moeten juist ruimte voor interpretatie overlaten, zodat bekwame rechters, ook in nieuwe situaties, uitspraak kunnen doen.
Probleem is dat de moderatie niet door rechters gedaan word.
Dat gaat in eerste instantie AI worden en die word heel scherp afgesteld. Want uiteraard worden providers en/of websites ervoor verantwoordelijk gesteld. Daarmee hebben die dus rechtstreeks belang bij de moderatie, namelijk uit de problemen blijven.

Dat zie je dus nu ook al op diverse platformen, vanalles word offline gehaald, ook al slaat het nergens op.
Persoonlijk had ik een filmpje van mijn hond snuffelend aan bloempje die dus offline gehaald werd, want "tegen" de voorwaarden.

Dit word echt gewoon zwaar censureren wat niet in de politieke waan van de dag past.
Net zoals de verboden middelen lijst in NL? Waar je gewoon een extra ingredient kan toevoegen aan de meest verslavende drugs en het legaal kan verkopen. Want het voldoet niet precies aan de omschrijving in de wet.
Juist een wet die bepaald gedrag criminaliseert/verbied moet specifiek zijn in z'n definities. Dat deze definities buiten het wetboek niet gelden, is niet relevant. Maw; De wetmaker kan gewoon definities opnemen in de wet. Of deze nou stroken met de realiteit, of niet.

Voorbeeld uit een andere tak van sport; In de wetenschap heeft het woord theorie een HELE andere betekenis (definitie) dan in spraak taal. Wat wij "theorie" noemen, heet in wetenschappelijke taal een "hypothese".

Zo is wettelijk (in Nederland iig) "moord" gedefinieerd als "Hij die opzettelijk en met voorbedachten rade een ander van het leven berooft, wordt als schuldig aan moord". In de rest van de samenleving spreekt men van moord in een veel bredere definitie.
Het is toch een wet wat even helder is als het bekladden van een muur met verf vs het bekladden van een muur met hakenkruizen.

Is het strafbaar om de hakenkruizen willens en wetens op je muur te houden? En zelfs na veel gedoe pas schoonmaakt?

Verbaast mij telkens dat een social media met genoeg lobby wegkomt met schuine zaken, daar waar een vandaal of hufter voor onderuit zou worden geschoffeld in de echte wereld.
Dit lijkt mij nu ook precies waarom dit soort wetgeving echt niet goed is. Als de definitie breed is, kan het op allerlei manieren worden uitgelegd en gaat het niet werken. Als het heel specifiek wordt gedefinieerd, zijn er tal van mogelijkheden om er langs te gaan.

En de rechter heeft gelijk dat het ook nog eens allemaal mogelijke beperkingen van de burgerlijke vrijheden betekent. De staat die probeert de rol van ouders over te nemen.

Heb zelf twee pubers dus ik weet een klein beetje hoe het in de praktijk er aan toe gaat.. beste recept is met je kinderen praten over wat ze online (net zoals IRL) zien en beleven, en dat duiden waar nodig.
Je voorbeeld is precies de reden dat dit afgeschoten is: het hellend vlak naar selectief censuur is gewoon te steil.
De definitie hoeft niet te alle mogelijke situaties te bevatten, maar wel duidelijk maken wat het doel is van de wet.

Ik neem substance abuse even als voorbeeld. Dit is erg breed, wat voor "substance", wat voor "abuse"?
Kunnen we hier ook schoonmaak azijn gebruiken voor onkruid onder rekeken? Want dit is officieel niet een toegestaan gebruik van dit materiaal.

Je zou dit kunnen definieren door te verduidelijken dat je verslavende middelen bedoeld zoals alcohol, niet voorgeschreven drugs etc. dat negatieve effecten kan hebben op de ontwikkeling en groei van het kind. Het is niet nodig om alle mogelijke soorten drugs te benoemen, je moet echter wel zorgen dat de intentie erg duidelijk verwoord is. Dat wanneer iets wat niet expliciet genoemd is herleid kan worden naar de intentie zoals geschreven in de wet.
Mooi, kunnen de tieners in Texas eindelijk ook weer voorlichting over abortus enzo krijgen, mochten ze de andere voorlichting gemist hebben. Oh wacht....
(Blijft een dom land)

On topic: filteren op wazige termen is onbegonnen werk, want wat de één gewoon constructieve content vindt, is voor de andere (vaak conservatieve geesten) 'schadelijk materiaal'.

Content die onder meer zelfmoord of drugsgebruik zou promoten, of aan zetten tot haat jegens een groep is nu al aan te pakken. Ik vrees echter dat deze wet, als die er doorgekomen was, door conservatieven gebruikt zou worden om ook goede voorlichting over zaken als abortus en euthanasie lastiger te maken

[Reactie gewijzigd door divvid op 3 september 2024 15:54]

Ik wil gewoon dat ze sites effectief gaan leeftijd checken, is echt heel simpel met een privacy bewarende "zero knowledge proof".
Kan in Nederland gegarandeerd binnen een halfjaartje effectief worden geimplementeerd om te werken met DigID,en het enige wat ze van jou als gebruiker zouden weten is dat je boven de 18 bent, niet eens je echte leeftijd!

Uiteindelijk zijn we er allemaal beter af mee, geen enkele 18+ sites die legaal opereren WILLEN minderjarige op hun site hebben.

[Reactie gewijzigd door sdziscool op 3 september 2024 15:29]

DigID voor sociale media en 18+ sites?

Dat zijn precies de laatste plekken waar ik mijn DigID voor wil invoeren.
Dat is ook niet nodig. Ken je bijvoorbeeld Yivi.

Na installeren van de app kun je via DigID je gegevens ophalen. In de app is een scherm met leeftijd en daar staat.

Ouder dan 12: ja
Ouder dan 16: ja
Ouder dan 18: ja
Ouder dan 21: ja
Ouder dan 65: nee

Dat is info die je prima kunt delen. De website kan zo bepalen of de persoon toegang kan krijgen maar krijgt verder geen privacy gevoelige data.

Aanvulling: dit blijkt ook via een website te werken als ze daar een Yivi knop toevoegen.

[Reactie gewijzigd door Sepio op 3 september 2024 16:47]

Dit is precies waar Yivi voor bedoeld is, maar ik heb het nog nooit ergens voor kunnen gebruiken. Echt zo van onbekend maakt onbemind. Jammer, want het idee is voortreffelijk. Overigens, ouder dan 65: ja. (bij mij dan :) )
Heb net even naar Yivi gekeken en kon er niet echt blij van worden. Zelfs 'zonder password aanmelden' (bij anderen) ondersteunen. Ik ben het voor de belasting e.d. helaas verplicht maar ben er absoluut niet blij mee.

Mijn geslacht gaat niemand iets aan, behalve een dokter als ik voor bepaalde zaken bij hem kom. En als hij dat niet sowieso kan vaststellen dan heb ik hem ook liever niet aan mijn lijf. Mijn zorggegevens en zorgverzekering gaan ook niemands iets aan. Heb ook geen Nederlandse zorgverzekering, dus wat dat betreft zit ik veilig.

Niemand, afgezien van vrienden en (bepaalde) familieleden, krijgt mijn mobiele telefoonnummer. Een die hebben echt geen app nodig om dat te vernemen.

Mijn BSN gaat eveneens niemand wat aan, dus daar heb ik ook geen app voor nodig.

Gegevens van iDeal, really? Is iemand zo gek om dat te delen? Mijn bank heeft geen BIC (het hoofdkantoor heeft wel een swift-code).

Wat betreft mijn leeftijd betreft, ik heb op onze telefoon onze geboortedatum als pincode ingesteld. En op mijn telefoon heb ik voor haar gezichtsherkenning ingesteld, want het unlocken was lastig. Neen, dat gaat Social Media absoluut niets aan. Laten we het houden op: oud genoeg (om pensioen te hebben).

Maar goed, kleine kans dat sociale media yivi gaan ondersteunen. En als dat wel het geval is, dan maak ik wel een account aan vanuit mijn woonadres. Daar doen ze niet aan massale registratie en dus is de informatie niet beschikbaar.
Dus dan weet digid c.q. de overheid altijd waar je naartoe bent geweest... Hoezo 'zero knowledge'
En binnen datzelfde halfjaar ook compleet zijn uitgestorven, compleet misbruik van gemaakt zijn (hallo zuid korea), maar deze weet gaat 10x breder dan alleen die paar 18+ websites, dit gaat om 'grote sociale netwerken', facebook, X, dat soort jongens die zelf actief moeten gaan filteren.

Maar dat terzijde, je 'verplicht' vervolgens diezelfde grote platformen meer informatie te gaan verzamelen, leuk 'for the cause', maar gelijktijdig voed je daarmee hun grootste bron van inkomsten.. informatie. Het is simpel 2 stappen van een portal die zegt 'deze persoon is 18' tot 'geef akkoord voor meer informatie' en deze harken het met bakken binnen. Want leuk die '18+ IDIN', maar deze ondersteund namelijk ook de complete informatie voorziening van de bevestiging, simpel even een 'je kan facebook niet op zonder al deze informatie' en je hebt cookiewall 2.0.

Beschermen is beter? Opvoeden is beter. Niemand leert van 'bescherming', iedereen leert van fouten en ervaring. De flinterdunne lijntjes tussen 'schadelijk' en 'informatie', 'verheerlijking' en 'ophemeling', wie gaat bepalen wat wel/niet mag? Natuurlijk is dat simpel bij simpele zaken, maar content is geen zwart/wit, dat is 150 'shades of grey'.

[Reactie gewijzigd door SinergyX op 3 september 2024 16:51]

Ja, laat de overheid dat voor je regelen, dan weten ze meteen exact wat je uitspookt.

Dat klinkt echt als een geniaal idee :facepalm
De roep om een strenger gecontroleerd internet is een regelrechte aanval op onze vrijheid. Het is teleurstellend om te zien dat dergelijke uitspraken op een platform als Tweakers verschijnen, waarvan de gebruikers vroeger altijd voorstanders waren van een open en vrij internet.

Strengere leeftijdscontroles op websites zijn een farce, een slechte oplossing die enkel dient om meer controle te geven over ons leven. Als je je vrijheid opgeeft in ruil voor schijnveiligheid, ben je een slaaf van de staat. De verantwoordelijkheid voor de bescherming van kinderen ligt bij de ouders, punt. Als ze dit niet doen, zijn ze zelf verantwoordelijk voor de gevolgen.

Wie echt bekommerd is om de veiligheid van kinderen, moet zich richten op het ondersteunen van ouders en het bevorderen van mediawijsheid. Dit is de enige manier om kinderen echt te beschermen, zonder onze vrijheid op te geven. De keuze is simpel: vrijheid en verantwoordelijkheid, of controle en onderwerping.

Censuur en controle zijn geen oplossing voor de problemen van het internet. Ze zijn een symptoom van een dieper probleem: de weigering om verantwoordelijkheid te nemen voor ons eigen leven. Als we onze vrijheid willen behouden, moeten we ons verzetten tegen elke vorm van controle en censuur.
Ik snap dat een provider daar niet aan wilt beginnen , om z'n webservices te filteren .. ivm rechtzaken
Registreren voor de onder 18 zijnde .. is ook te omzeilen als tiener

[Reactie gewijzigd door Metallize op 3 september 2024 15:20]

Gaat volgens mij niet om providers maar om sociale platformen zoals x, Facebook en noem maar op.
^Correct.
Het gaat om de sociale netwerken, niet de providers.
Gedeeltelijke motivatie van de rechter (uit 't gelinkte stuk);
But Pitman was highly critical of the monitoring and filtering rules. “Terms like ‘promoting,’ ‘glorifying,’ ‘substance abuse,’ ‘harassment,’ and ‘grooming’ are undefined, despite their potential wide breadth and politically charged nature,” he writes, echoing criticism from FIRE, which noted that terms like “grooming” have been applied to all forms of LGBTQ content. “At what point, for example, does alcohol use become ‘substance abuse?’ When does an extreme diet cross the line into an ‘eating disorder?’” An attorney general enforcing the law could end up doing so selectively — by, say, deciding that posts or videos about marijuana were glorifying substance abuse “even if cigarette and alcohol use is not.”
Anoniem: 454358 3 september 2024 18:22
Beter wordt social media gewoon verboden tot 21 jaar oud. Die koppies ,ijn nog niet dermate ontwikkeld dat ze kunnen zien wat echt is, wat echt belangrijk is, en ze zijn erg beïnvloedbaar.
Ik kocht mijn eerste huis op 21 jarige leeftijd maar u vindt dat je dan een kleuter bent.
Gelukkig hebben mijn ouders mij anders opgevoed.
Mijn 14 jarige zoon is zich zeer bewust van de gevaren van het net en sociale media.
Denk dat je veel meer kan bereiken met je kind te informeren en zelf na laten denken dan dat je dingen gaat verbieden.
Dat gaat natuurlijk niet lukken met 1 uurtje informatica op school en ouders thuis die het zelf niet begrijpen, dus misschien daar eens wat meer effort in steken?
Gegeven dat het de VS is vind ik het ronduit vreemd dat er uberhaubt een wet was gemaakt voor censuur. Was die rechter de enige het eerste amendement heeft gelezen ofzo? Over het algemeen wordt het eerste amendement zeer ruim ingezet om wetten aan te toetsen in dat land.

Op dit item kan niet meer gereageerd worden.