Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Hoofd Instagram gaat getuigen voor Amerikaanse Senaat over effect op tieners

Het hoofd van Instagram, Adam Mosseri, gaat voor het eerst getuigen voor een deel van de Amerikaanse Senaat. De hoorzitting vindt over twee weken plaats en zal gaan over het effect van Instagram op vooral jongere gebruikers.

Mosseri gaat volgens moederbedrijf Meta vooral vertellen over de stappen die Instagram zet om het negatieve effect op tieners te verminderen, schrijft The New York Times. De voorzitter van de Senaatscommissie noemt de getuigenis 'significant' op de weg naar wetgeving 'die platformen veiliger moet maken'. Mosseri heeft niet eerder getuigd bij Amerikaanse wetgevers. De hoorzitting moet over ongeveer twee weken plaatsvinden, in de week van 6 december.

Het negatieve effect dat Instagram heeft op tieners kwam naar buiten via interne onderzoeken die klokkenluider Frances Haugen dit najaar naar buiten bracht. Vorige week maakten acht Amerikaanse staten bekend onderzoek te toen naar de negatieve impact van het platform op tieners.

De Senaatscommissie wil vooral horen hoe het algoritme van Instagram tieners schadelijke 'rabbit holes' in stuurt door telkens meer van hetzelfde soort schadelijke posts te laten zien. De commissie wil dat dergelijke algoritmes transparanter worden om zo te zien hoe die schadelijke effecten proberen te minimaliseren.

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Arnoud Wokke

Nieuwsredacteur

25-11-2021 • 07:48

39 Linkedin

Reacties (39)

Wijzig sortering
De commissie wil dat dergelijke algoritmes transparanter worden om zo te zien hoe die schadelijke effecten proberen te minimaliseren.
Dat is het probleem, deze algoritmes zijn niet transparant te maken. De algoritmes worden niet meer door een persoon geschreven maar door AI (machine learning) gegenereerd. Deze algoritmes optimaliseren zichzelf door output te meten. Daarbij de gouden regel, meer screen time en meer engagement.

Deze machine learning is inmiddels zo complex dat deze voor geen mens meer te begrijpe is. Ook bij Meta kan niemand je vertellen waarom bepaalde post voorrang krijgen boven andere op de timeline. The monster is loose...

[Reactie gewijzigd door Ivolve op 25 november 2021 07:56]

Reageer
Dit is compleet van de pot gerukt en komt alleen voort uit fear mongering door de maatschappij en onze medeburger. We blijven elkaar maar vertellen dat "AI" niet te begrijpen valt, en dat is je reinste onzin. (source: ik ben MSc in AI, PhD in NLP)

Eerst en vooral: de algoritmes, ~ de architecturen, worden wel zeker door een persoon geschreven. Je kan niet gewoon zeggen "oke computer, maak een AI" - daar zit heel wat programmeerwerk achter, en ook theoretische benaderingen. Het veld van AI is al sinds de jaren 50-60 (theoretisch) bezig met dit soort zaken. De wiskunde erachter is dus helemaal niet een "black box", wat je o zo vaak hoort. Als je wil, kan je zelf een neuraal netwerk maken - volledig op papier! Hoe een neuraal netwerk getraind wordt, is namelijk niets dan wiskundige formules. Het is allemaal wiskunde, geen magie.

Ten tweede: je kan beargumenteren dat het niet altijd duidelijk is (voor ons als mensen) waarom het systeem op basis van een gegeven input (bv. een foto) een bepaalde output geeft (bv. kat). De machine "leert" subtiele verschillen (features) in afbeeldingen (mogelijks foutief!) die wij als mens misschien niet direct zien. Dat wil echter niet zeggen dat we niet begrijpen hoe dat komt of dat we niet kunnen interfereren. Ook hier geldt: je kan de wiskunde zelf doen, en je zou op hetzelfde resultaat komen. Die subtiele verschillen waar ik het over had zijn ons probleem, als mens. Wij kunnen die niet altijd vatten. Er is gelukkig wel een movement in AI die streeft naar meer interpretability van zulke latent features.

Ten derde: dat "interfereren". Dat kan natuurlijk zeker en vast wel, en dat is ook al vaak aangetoond dat het wel kan. Dat sommige politieke partijen voorrang werd gegeven boven anderen, of dat bepaalde producten voorrang krijgen op anderen. Bij erg veel van die zaken is er een human-in-the-loop. Maar zelfs als dat niet zo was: "Ook bij Meta kan niemand je vertellen waarom bepaalde post voorrang krijgen boven andere op de timeline", dat is natuurlijk je reinste onzin. Zij gebruiken een uitgebreide feature set: waar heb je laatst op geklikt, waar heb je naar gekeken, waarover heb je in Messenger met je vrienden gepraat, enzovoort. Dat kan iedereen wel uitvinden. (Zo werken recommender systems nu eenmaal.) Deze features worden door het model geduwd en daar komt output uit. Net zoals elk onderzoek in dit veld zijn die features zorgvuldig uitgekozen en kunnen zij intern vast en zeker zien welke features de hoogste predictive power hebben. Het is daarnaast ook net zo gemakkelijk om een van deze features uit te schakelen als ze dat willen.

Anders gezegd: het is voor Facebook zeker mogelijk om je te tonen wat de aanleiding geven heeft waarom je een specifiek bericht/ad ziet. Maar ze kiezen ervoor dat niet te doen.
Reageer
Uit nieuwsgierigheid. Vanuit jouw professionele ervaring/kennis:
Dekt onderstaand filmpje over 'hoe machines leren' de lading?
https://www.youtube.com/watch?v=R9OHn5ZF4Uo

Want bovenstaand filmpje is iets dat ik wel kan bevatten
Reageer
Eerst dacht ik "gaat goed", maar toen begon ie met "nobody knows how this works". Nogmaals, reinste onzin. Zij hebben het nog over RNNs (intussen zie je vaker transformers in mijn vakgebied) maar in beide gevallen: zoek eens naar "rnn illustrated" of iets dergelijks en het legt je _perfect_ uit hoe het werkt. Je kan zelfs in de code bases van pytorch of tensorflow kijken hoe ze geïmplementeerd zijn.

Builder/teacher bot vind ik heel verwarrend uitgelegd omdat het zo lijkt dat elke bot een apart model/programma is ofzo, maar dat is helemaal niet waar. Simpel voorbeeld: je wil huisprijzen kunnen voorspellen. Je geeft voor het maken (trainen) van het model dus bv. Informatie over een huis (aantal slaapkamers, oppervlakte, energieniveau) en ook de _juiste_ verkoopsprijs. In een eerste stap zal het model aan de hand van de input een prijs te voorspellen. Voor elke input zal die een gewicht gebruiken naargelang van wat het model denkt dat belangrijk is. bv. oppervlak 0.8, aantal slaapkamers 0.6, energie 0.4. En daarna wordt die voorspelling getoetst aan de juiste prijs: de training zit 'em dus in het aanpassen van die gewichten voor elke input. Als de prijs erg slecht voorspeld werd, zullen die gewichten sterk aangepast worden. Als de voorspelling goed was, moet er weinig aangepast worden. Die optimalisatiestap gebeurt door een zogenoemde optimizer die dus op basis van het verschil tussen de voorspelling en de echte verkoopsprijs het model naargelang aanpast om zo beter (incrementeel) te kunnen voorspellen. (Dit is een erg dummy voorbeeld natuurlijk.)

[Reactie gewijzigd door BramVroy op 25 november 2021 10:41]

Reageer
Als CS student aan de UT Twente heb ik eens een lezing bijgewoond waar het ging over de black box nature van ML, met enkele interessante voorbeelden. Natuurlijk weten mensen, zoals u zelf, die zich met AI bezig houden de vorm en functie van een network en alle theorie die nodig is om AI te trainen. Wat echter (volgens de lezing) veel lastiger is om te bepalen is waarom de AI een bepaalde beslissing maakt, welke van de features was doorslaggevend? Amazon heeft ooit een AI geschreven om de resumes te verwerken voor hun openstaande jobs. Echter tot de spijt van het bedrijf bleek de AI een negative bias tegen vrouwen te hebben, die hadden een lagere kans om aangenomen te worden.
Despite the best efforts van Amazons development team lukte ze het niet om deze bias weg te werken.

https://www.reuters.com/a...ion-insight-idUSKCN1MK08G
random source van internet, er zijn vast beter te vinden.

[Reactie gewijzigd door holhuizen op 25 november 2021 11:10]

Reageer
Ik denk dat je de foute conclusies trekt. Er staat namelijk letterlijk:
Amazon edited the programs to make them neutral to these particular terms. But that was no guarantee that the machines would not devise other ways of sorting candidates that could prove discriminatory, the people said.
Het gaat dus wel zeker, maar alleen als je weet wat de doorslaggevende factor is. Hier wisten ze dus dat het gender-verschil een factor was en dat hebben ze wel kunnen wegwerken.

Dit is geen "waarom maakt de machine deze beslissing"-probleem, overigens. Zoals gezegd wisten ze waarom de problemen gemaakt werden. Ook verder in het artikel:
Instead, the technology favored candidates who described themselves using verbs more commonly found on male engineers’ resumes, such as “executed” and “captured,” one person said.
Dit soort problemen met bias zie je in mijn veld heel erg vaak, bijvoorbeeld in machine vertaling, sentiment analyse, haatdetectie, enz. Het grootste probleem hierbij is niet het model/het algoritme (de architectuur) maar de data waarop getraind wordt. Garbage goes in, garbage goes out. Als er bias in je data zit, kan je er verdomd zeker van zijn dat die bias ook in je voorspellingen zullen zitten. Er is gelukkig ook wel wat werk aan de gang over de bias intern weg te werken maar dat is niet evident. Een goede, gebalanceerde dataset moet aan de grondslag liggen van dit soort modellen.
Reageer
Helemaal waar wat je zegt. Ik ben zelf momenteel werkzaam in een bedrijf welke data analyseert en voorspellingen probeert te doen en er is gewoon heel duidelijk wat er gebeurd in de algoritmes. Er is niks van dit blackbox verhaal waar. Dat is enkel een excuus van de grote tech bedrijven om hun beslissingen niet te hoeven uit te leggen of in ieder geval geen verantwoordelijkheid te hoeven nemen.
Reageer
Interessant. Iemand die de zin en onzin over AI en NLP in de media kan scheiden.
Is het goed als ik je daar een PM over stuur?
Reageer
Liever niet. Je kan hier je opmerkingen neerschrijven en ik kan, afhankelijk van mijn tijd, er wel over discussieren.
Reageer
Als AI door de mens word geschreven is het niet ai in die zin.
Bij AI gaat het om kunstmatige intelligentie waarbij een algoritme dus zelf gaat leren, zelf conclusies gaat trekken en zichzelf daarop veranderd.

Probleem is dat we van een algoritme niet verwachten dat deze discrimineert, bepaalde groepen voortrekt om ander menselijk gedrag vertoont. De mens discrimineert ook, trekt anderen voor en is verre van perfect.

Zelf denk ik dat we op veel te veel zaken ai plakken terwijl we nog lang niet zo ver zijn. Als je het over AI hebt betekend dat dus ook dat je net als een mens met opvoeding te maken krijgt, normen en waarden, dat er regels zijn maar dat regels niet altijd zwart wit moeten zijn en de menselijke maat een vereiste is.

We zijn nog lang verwijderd van al dit en AI zijn meer algoritmes die vooral zwart-wit denken en waarbij de gehele leercurve die een mens heeft ontbreekt. Het is allemaal nog te simpel waardoor je zwart-wit gedrag krijgt en het algoritme dus niet menselijk is en daar ook geen rekening mee kan houden.

De vraag bij facebook en vele andere "ai" systemen is dat ze eigenlijk nog totaal niet geschikt zijn voor dragelijk gebruik omdat de hele leercurve ontbreekt. De vraag is echter kan facebook ingrijpen en hun algoritme normen en waarden meegeven en ook rekening houden met de mens. Ben bang dat men gewoon nog niet zo ver is.
Reageer
Ok duidelijk dat jij hier meer verstand van hebt dan ik. Ik had me inderdaad ook grotendeels gebaseerd op het genoemde filmpje.

Echter ongeacht of de algoritmes nu door computers of mensen gemaakt worden. Feit blijft dat Meta slechts stuurt op een beperkte set aan key performance indicators. Een algoritme met meer screen time en meer engagement levert meer geld op.

(Mentale) gezondheid van de individuele gebruiker of effecten op de samenleving worden genegeerd, dat blijkt ook uit het rapport en uit de verklaringen van Frances Haugen.
Reageer
Daar ben ik het zeker mee eens. Jammer genoeg blijft Meta/FB een bedrijf dat, uiteindelijk, hongert op meer winst. Dat dat ten koste gaat van mentale en fysieke gezondheid van gebruikers kan hen onderaan de streep niets schelen.
Reageer
Anders gezegd: het is voor Facebook zeker mogelijk om je te tonen wat de aanleiding geven heeft waarom je een specifiek bericht/ad ziet.
[...]
Ik denk juist het tegenovergestelde waarbij ze er te veel in hebben gestopt en dat niemand meer durft er iets aan te veranderen zonder de gevolgen te overzien.

https://en.wikipedia.org/wiki/Garbage_in,_garbage_out
Deze klassieker gaat zeker op. Er zit heel veel rommel in de code van Facebook. In eerste instantie waren likes de drijfveer, ongeacht inhoud. Psychologisch aspect dat negatief nieuws altijd sneller reist dan positief nieuws is daar nooit in mee overweging genomen. Je krijgt daardoor heel snel een negatieve tendens dat nooit serieus is geadresseerd ten favoure van omzet en winst.


Het volgend aspect waar je tegenaan kijkt is het
https://en.wikipedia.org/wiki/Butterfly_effect
The butterfly effect concept has since been used outside the context of weather science as a broad term for any situation where a small change is supposed to be the cause of larger consequences.
Het touwtrekken van de VS-overheid is in mijn optiek een farce of ze begrijpen het echt niet en geloven Facebook dat door aan meer knopjes toevoegen het allemaal beter zal gaan worden.
Het fundament van FB is een rommel dat met houtje-touwtje aan elkaar vast zit waarbij draaien aan knopjes op andere vlakken problemen veroorzaakt.

Google heeft soortgelijke problemen waar negatief nieuws de drijfveer is van het platform waarbij te weinig rekening is gehouden met het menselijk instinct.
https://www.sciencedirect...abs/pii/S0747563214005871
Information dissemination via electronic word-of-mouth: Good news travels fast, bad news travels faster!
Hier is heel veel over bekend en de illusie dat een bedrijf met miljarden-omzet en een leiding die allemaal aan allerlei universiteiten zijn afgestudeerd en zelfs eigen “rechtbanken” waar “morele en maatschappelijke” kwesties moet worden besproken, ik geloof niet dat dit nooit is besproken binnen dat bedrijf.
Reageer
Het is allemaal wiskunde, geen magie.
Hoe was dat beroemde citaat ook alweer; "Any sufficiently advanced mathematics is indistinguishable from magic." of zo? :+ Dat jij het snapt betekent nog niet dat er voor "de gemiddelde persoon" (of, voor berichtgeving over AI: "de gemiddelde journalist", voor daadwerkelijke besluitvorming: "de gemiddelde politicus") een wezenlijk verschil is met magie.

Dat betekent natuurlijk niet dat je mensen niet moet corrigeren. Het tegenovergestelde juist: hoe vaker mensen horen dat, ook al begrijpen zijzelf niet hoe het werkt, de experts het wel degelijk snappen, hoe beter). Hulde voor je post dus. Maar ik denk wel dat het goed is om in gedachte te houden dat een heleboel mensen er echt geen touw aan vast kunnen knopen, zelfs niet met jouw uitleg. Ruwweg net zoveel mensen snappen niet hoe, om maar iets te noemen, een verbrandingsmotor werkt, maar zelfs degenen die geen flauw benul hebben zullen niet zeggen dat hun auto op "magie" rijdt. Vermoedelijk is het een heel stuk realistischer om iedereen te overtuigen dat er mensen zijn die AI begrijpen dan om iedereen AI te laten begrijpen.
Reageer
Zelfs als dit waar is, is het effect van de algoritmes wel te meten, en dat heeft Facebook dus ook gedaan. Als het echt zo is dat het algoritme niet te begrijpen is (wat ik overigens niet geloof) en het een negatief effect heeft op de gezondheid van jongeren, dan maar geen algoritme meer. Er zijn altijd oplossingen te bedenken.
Reageer
Het is ook zo’n gezeur over algoritmes. Die dingen doen gewoon waar ze voor gemaakt worden. Daarbij kan bijvoorbeeld best een bepaalde bevolkingsgroep er tussen uit worden gehaald. Is dat de schuld van het algoritme?

Ik hoorde laatst dat algoritmen armere en daarmee zwakkere bevolkingsgroepen er uit kiest bij de belastingdienst voor meer controles. Maar is dat dan zo enorm vreemd? Ik kan mij voorstellen dat rijkere mensen minder moeite hebben hun belastingen correct en op tijd te betalen.

Resultaat: het wordt verboden die algoritmes te gebruiken.

Maar waar ligt het probleem nu echt? Algoritmes verbieden is gewoon een makkelijk rookgordijn om de echte problemen niet aan te pakken.

Uiteraard moeten er morele standaarden komen voor algoritmen maar Facebook heeft en blijft gewoon 1 primair doel hebben. Engagement.

/edit, hoe is dit offtopic?

[Reactie gewijzigd door dycell op 25 november 2021 16:52]

Reageer
... Ik kan mij voorstellen dat rijkere mensen minder moeite hebben hun belastingen correct en op tijd te betalen.
Je zou kunnen stelen, dat "rijke" mensen voornamelijk rijk zijn geworden door zo min mogelijk belasting te betalen. Het is tenslotte gemakkelijker om een boekhouder in te huren, die je vermogen op de juiste plaatsten zet en de gaten in de wetgeving weet. Dan wanneer je "arm" bent.
Reageer
Inderdaad, en het zal waarschijnlijk ook zo zijn dat de 'rijkere' mensen hoger opgeleid zijn. Dat zal vast en zeker ook tot minder problemen resulteren.

Maar pijnpunten aanpakken zoals het vereenvoudigen van het idioot complex systeem zodat er minder fouten gemaakt kunnen worden? Of versimpeling zodat rijkere mensen geen loopholes kunnen misbruiken die arme mensen niet uit kunnen buiten? Nee, het zijn de algoritmes...

[Reactie gewijzigd door dycell op 25 november 2021 09:24]

Reageer
het zal waarschijnlijk ook zo zijn dat de 'rijkere' mensen hoger opgeleid zijn.
OF is het waarschijnlijker dat mensen met een hoger opleidingsniveau rijker zijn?
Reageer
Juist, om hier even de brug terug te slaan. Het algoritme wordt getraind op basis van data. Data over wie er belastingfraude pleegt is niet beschikbaar. Daarom wordt "the next best thing" gebruikt namelijk, data over wie er betrapt wordt op belastingfraude.

Het zou zomaar kunnen zijn dat rijkere mensen meer belastingfraude plegen maar slim genoeg zijn om niet gepakt te worden. Is het dan eerlijk om de armere meer te controleren?
Reageer
Maar om de "slimme" mensen aan te pakken. Is er meer geld en onderzoek nodig. Een algoritme is dan vrij goedkoop.
Reageer
Dat is wel erg goedkoop... ;)
Reageer
Gek voorbeeld van de belastingen. Als je niets doet wordt alles correct ingevuld en krijg je minder geld terug. Rijke mensen huren vaken een account in die alle aftrekposten invullen en onderbouwen, daar valt voor de belastingdiesnt dus weinig te halen, terwijll deze groep vaak de meeste belastingen weet te ontduiken. Die arme mensen maklen sneller fouten omdat ze geen geld hebben voor een accountant en ze het ook niet juridisch kunnen onderbouwen (terwijl dit misschien wel mogelijk was). Daar kan de belastingdienst dus het meeste terugvorden.

Misschien is dit terrecht dat het algoritme dit vindt, want die wordt alleen maar ingericht op de getallen en heeft geen gevoel. Dit is ook vaak het probleem met algoritmes, ze kunnen binnen no-time heel; erg discriminerend en etisch fout gaan handelen omdat ze sturen op cijfers.
Reageer
Ze kunnen binnen no-time heel; erg discriminerend en etisch fout gaan handelen omdat ze sturen op cijfers.
Uiteraard, maar mijn punt is: Is dit de fout van het algoritme of van het onderliggende systeem?
Zoals je zelf al aangeeft worden de armen uberhaupt al benadeelt omdat het onderliggende systeem te complex is. Mensen met een boekhouder kunnen het systeem 'gebruiken' om minder te betalen of meer aftrekposten aan te spreken. Het is in de basis een kapot systeem.

Maar men geeft aan dat het algoritme het probleem is, terwijl het onderliggende systeem zo brak is als maar kan. Iedere programmeur weet: garbage in, garbage out.
Reageer
Klopt, ik ben zelf ook programmeru dus ik weet er alles van. Het probleem is dat de programmeurs continu de opdrachten verkeerd krijgen aangeleverd het is altijd meer meer meer. Meer e-comerce, betere SEO resultaten meer inkomsten per klant, meer screentime per klant etc. Er wordt niet op het welzijn van de klant gelet. De overheid kan daar nog op aangesproken worden, maar een instantie als Meta is al een stuk lastiger.

Daarom wordt er nu eerst het algoritme onderzocht om te zien hoe dat tot die resultaten komt. Jij en ik weten wel dat het algoritme alleen maar doet wat de managers willen nl. meer meer meer. Maar weten is niet aansprakelijk kunnen stellen.

Helaas komt dit nu terrecht in de Amerikaanse politiek waar vervolgens weinig uit gaat komen. Die politiek is inmiddels zo ver gepolariseerd dat dit gewoon weer een spelletje gaat worden wie er de beste politieke verkoopraatjes mee kan scoren (de zg. soundbites) zodat de heren politici dat weer in al hun reclame spotjes kunnen gooien als kijk wij komen op voor jullie dochters, kijk wij vinden dat facebook fake news verspreid/mag verpreiden (afhankelijk van onderwerp en partij wisselt de definitie daarvan ook nog). Uiteindelijk komt er misschien een kleine aanpassing in het algoritme en dan is het weer afgedaan tot de volgende keer dat het weer misgaat.
Reageer
Goede beargumentatie, helemaal mee eens.
Reageer
Vergeet niet dat om een werkend AI network te creëren, iemand die AI moet leren wat die moet doen (trainen). Trainen gebeurt aan de hand van de door mensen verzamelde en geclassificeerde data. Het verzamelen, labelen en correct verdelen van data is heel lastig en fout gevoelig, hier worden gemakkelijk onbedoelde biases geïntroduceerd.
Reageer
Ik vraag het me af of het allemaal wel zo simpel is. Op zich zouden rijke mensen meer belasting moeten betalen dus kost het hun meer. Dan zou je dus ook juist kunnen verwachten dat hier meer fraude zou zijn. Ook is het natuurlijk zou dat de boekhouding van rijkere mensen uitgebreider en ingewikkelder is en dus hierdoor minder makkelijk de fouten erin te zien is.

Aan de andere kant ben ik bijvoorbeeld niet rijk en heb ik me vaste belastingen die ik moet betalen. Ze weten eigenlijk alles al van me dus wordt het moeilijker fraude te plegen. Hooguit zwart werken zou nog kunnen of misschien kinderbijslag zonder dat ik een kind heb. Maar mijn gedachten zijn ieder geval van ja extra geld zal natuurlijk wel leuk zijn maar de extra risico dat ik loop is mij te gevaarlijk. Stel dat ik over 2 jaar betrapt wordt en het terug moet betalen. Hoe ga ik dat ooit doen? Ik heb niet zomaar even 10000 euro en grote kans dat het fraudegeld ook al op zal zijn. Iemand die rijk is zal hier ook veel makkelijker over denken. Uiteraard zullen genoeg mensen hier toch weer anders over denken want er zijn toch genoeg mensen die wel fraude gepleegd hebben.

Maar ik denk ook dat de balans tussen rijke en arme mensen een verschil maakt voor een logische denkende ai. Stel dat de verhouding 1 rijke tegen 99 arme mensen zijn. De kans is dus dan gewoon groter dat er meer fraudeurs zijn in de arme gedeelte dan de rijke. Zou je het aan mij vragen welke groep er meer fraudeurs zou hebben zou ik ook deze logica gebruiken.
Reageer
Goed punt inderdaad. Het weegt twee kanten op.
Iemand die rijk is zal hier ook veel makkelijker over denken.
Maar iemand die arm is kan er ook helemaal niet over nadenken. Dat zie ik wel vaak bij een vriend die schilder is. Hij heeft het zeker niet breed en hij neemt het niet zo nauw met de regels... Als ik soms verhalen hoor zie ik de ellende al aankomen.

Stel dat de verhouding 1 rijke tegen 99 arme mensen zijn. De kans is dus dan gewoon groter dat er meer fraudeurs zijn in de arme gedeelte dan de rijke.
En die verhouding is er uiteraard ook. Maar moet je dan het algoritme handmatig aan gaan passen zodat deze niet meer kan discrimineren tussen arm en rijk? Effectief maak je dan natuurlijk het algoritme alleen maar inefficiënter. En als je dit soort dingen gaat introduceren dan ben je hetzelfde monster aan het creëren wat ons belastingstelsel momenteel is. Ze zouden naar mijn mening moeten gaan kijken naar het versimpelen van regels zodat ze controle krijgen over hun eigen systemen. Dit is trouwens niet een nieuw probleem. Iedere paar jaar komt dit terug:
https://www.nu.nl/geldzak...sel-veel-ingewikkeld.html

Daarom moeten er morele standaarden komen maar zolang Facebook als primaire doelstelling 'zo lang mogelijk op Facebook zitten' of 'verslaving' heeft zal het probleem niet echt verholpen worden.

[Reactie gewijzigd door dycell op 25 november 2021 17:11]

Reageer
Biologie is inmiddels zo complex dat deze voor geen mens meer te begrijpen is. Fysica en daar neem ik als voorbeeld Quantum Mechanica is zo complex dat deze nog steeds door geen mens volledig begrepen is. Hoe een zwart gat werkt is zo complex en de fysische eigenschappen zijn dusdanig dat de Fysica die we kennen er vanaf de Schwarzschildradius begint te breken en daarom wordt een zwart gat door geen mens volledig begrepen (en Hawkings is gestorven, want die begreep er kennelijk een beetje van).

En toch kunnen we als mens observeren en beheersen.

Bovendien geloof ik niet dat AI te gecompliceerd is om te begrijpen. De hype rond AI is zo extreem groot dat geen mens het begrijpt waarom men dat doet. Behalve dan om militair geld los te krijgen door mensen bang te maken. Maar wanneer echte AI experts erover praten wordt zelden beweerd dat het allemaal te complex is.

Bv. mijn Spamassassin database is na meer dan 10 jaar mijn Spam folder te analyseren vast ook te complex om het in één oogopslag te analyseren en dan te begrijpen. Maar ik kan er perfect een statistische voorspellingen mee doen en ik kan de inhoud van de database tweaken en beïnvloeden. Nochtans gebruikt Spamassassin Bayesian learning. De basis van vrijwel alle AI.

edit: @BramVroy: Blijkbaar waren we gelijktijdig ons bericht aan het opstellen. Maar bedankt om als echte expert te onderlijnen wat ik bedoelde met 'Maar wanneer echte AI experts erover praten wordt zelden beweerd dat het allemaal te complex is'.

[Reactie gewijzigd door freaxje op 25 november 2021 09:17]

Reageer
“Ik heb geen actieve herinneringen aan onderzoeken die de effecten van instagram op tieners kunnen hebben”

Dit wordt een feestje…
Reageer
Ik vind dat Amerikaanse systeem maar niks hoor. Het Europese systeem van commissies en parlementariërs die gespecialiseerd zijn in het onderwerp lijkt mij toch veel beter. Als Amerikaanse senatoren het voor elkaar krijgen om de raarste uitspraken te doen dan vraag ik mij ten eerste af of zij wel genoeg diepgang hebben (of genoeg tijd hebben om zich te verdiepen) in het onderwerp en ten tweede wie z'n belangen ze vertegenwoordigen. Op deze manier is het voor "getuigen" heel makkelijk om met een leuk riedeltje te komen en dan is niemand wijzer, kijk maar naar getuigenverklaringen van prominenten mensen zoals Zuckerberg en Bezos in het verleden.

Als ik al die verhalen hoor dan denk ik leuk verhaal, maar wat heb je nou gezegd? Amazon/Meta zijn super, wij zijn van geen kwaad bewust, Verenigde Staten hoera! Ja zo kom je natuurlijk nergens.
Reageer
Het gaat waarschijnlijk nooit gebeuren, maar het zou mij een lieve duit waard zijn als sociale media zouden verdwijnen flink aan banden gelegd zouden worden.

Als je alles bij elkaar veegt en daar eens kritisch naar kijkt, heeft het ons toch maar meer ellende dan goeds gebracht.

En dan te bedenken dat de periode hierna nog virtueler moet worden (jij bent je avatar), ik had gehopt dat we wijzer zouden zijn.

[Reactie gewijzigd door VanillaPriest op 25 november 2021 08:58]

Reageer
Dat soort 'rabbit holes' kan ik me mateloos aan ergeren..

Wanneer je enkele foto's van schildpadden hebt bekeken krijg je door het algoritme steeds meer schildpadden te zien terwijl ik daar helemaal geen zin in heb.
Daardoor verdwijnen, voor mij, andere meer interessante foto's omdat ik eens 3 schildpadden bekeken heb.

Dan moet je handmatig al naar nieuwe foto's gaan zoeken om terug wat anders op je feed te krijgen.

Kinderen hebben hier geen erg in en worden dus gewoon meegesleurd in dat algoritme.

Die zogenaamde zelfbenoemde influencers dragen hier ook heel goed steentje aan bij met hun perfecte foto's van hun "perfecte" leven. Enkel en alleen voor zoveel mogelijk volgers en likes te krijgen.
Als je dan toch je leven wilt delen, deel dan ook hoe je er 's morgens uitziet als je net uit bed komt, zonder filter.
Toon dan ook de minder aangename kant van je leven en leer de jeugd dat je moet werken voor je dromen.

Sociale media is leuk maar hoe het de laatste jaren is geëvolueerd. Angstaanjagend..
Reageer
Ik vind het zo frappant dat dit gebeurd nadat er een intern onderzoek van Meta zelf is gelekt. Klinkt meer alsof sommige staten/ iemand er op dit moment iets mee doet omdat het groots in de media is gekomen. e.g. het gaat meer om ego dan om het op te lossen. Maar goed de verschillende Amerikaanse staten staan wel sterk gezien Adam Mosseri hun eigen onderzoek teniet moet doen

Het feit staat er, het brengt schade toe of niet (hoogstwaarschijnlijk wel en dat is ook al langer goed zichtbaar bekend).
Reageer
Je krijgt een -1, maar ergens is deze vergelijking wel relevant. Het gaat immers ook om een verslavend product, waarbij de producenten ontkennen dat het verslavend is terwijl ze uit intern onderzoek donders goed weten dat het wel zo is. Bovendien passen ze hun product zo aan dat het zo verslavend mogelijk is.

Waar het tabaksvoorbeeld echter nog een stapje verder gaat is het hele circus aan 'experts' en lobbyisten dat door de gezamenlijke tabaksindustrie werd ingezet om via de media twijfel te zaaien over de schadelijkheid van roken. Dit werd gedaan door een heel netwerk van lobby-organisaties en denktanks volgens een strategie die door de leiders van de tabaksindustrie gezamenlijk werd bedacht, uitgevoerd en gefinancierd*. Dat maakte deze ontkenning zo hypocriet.

Bij de sociale media is dat georganiseerde aspect nog niet zo duidelijk.

* Voor een goede lezing over dit onderwerp kan ik 'Merchants of Doubt' van Naomi Oreskes aanraden. Zij heeft uitgebreid geschreven over deze tabakslobby en ook hoe deze zelfde organisaties dezelfde strategie hebben toegepast om twijfel te zaaien over klimaatverandering (dit keer in het belang van en gefinancierd door de fossiele industrie). https://www.americanscien...le/manufactured-ignorance
Reageer


Om te kunnen reageren moet je ingelogd zijn


Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True