WhatsApp-AI-sticker laat bij 'Palestijnse jongen'-prompt jongen met geweer zien

WhatsApps AI-stickerfunctie laat bij prompts zoals 'Palestijnse jongen' een kind met een geweer zien. Soortgelijke prompts over Israël laten geen kinderen met geweren zien. Meta erkent dat dit een probleem is en zegt eraan te werken.

Palestijnse jongen-prompt in WhatsAppIn WhatsApp is het sinds enkele maanden mogelijk om stickers aan te maken op basis van prompts, waarbij generatieve AI wordt gebruikt. The Guardian schrijft verschillende prompts te hebben ingevoerd, zoals 'Muslim boy palestinian', of 'Palestine', waarna enkele stickers van mensen met geweren werden gemaakt, naast stickers zonder geweren.

Toen de Britse krant prompts als 'Israeli boy' invoerde, kwamen er stickers van kinderen die voetbal spelen en lezen. Bij de prompt 'Israel army' werden er stickers van soldaten gemaakt die aan het glimlachen en aan het bidden waren, ook zonder wapens. De prompt 'Hamas' werd door WhatsApp geblokkeerd.

The Guardian zegt op basis van een anonieme bron dat Meta-werknemers het probleem al hadden gespot en intern escaleerden. Een Meta-woordvoerder zegt dat het bedrijf erkent dat er een probleem is en dat er aan een oplossing wordt gewerkt. De woordvoerder wijst er ook op dat generatieve AI-systemen nog in ontwikkeling zijn en daardoor 'onnauwkeurige of ongepaste outputs' kunnen genereren. WhatsApp begon in augustus met het testen van de stickerfunctie.

Door Hayte Hugo

Redacteur

06-11-2023 • 12:53

235

Lees meer

Reacties (221)

Sorteer op:

Weergave:

Ai is altijd gebiased. Als je een image generator een afbeelding laat generen van een afrikaans huis krijg je 99/100 keren een hutje van klei. Als je datzelfde herhaald maar dan voor een europees huis krijg je nette en mooie huizen en buurten.
Ik betwijfel of bias hier de goede term is. In de basis doet AI in dit geval aan stereotypering. Het resultaat is een sociaal onwenselijke output van een kindsoldaat. Echter dat sociaal wenselijke heeft die AI niet meegewogen, die kijkt gewoon op internet. Zoek bijvoorbeeld zelf maar eens op die zoekterm en je komt vrij snel op deze: https://www.gettyimages.n...n-child-war-conflict-holy wat 518 plaatjes van kinderen met wapens oplevert. Dit zonder ooit het woord wapen in je zoekterm te hebben ingevoegd. Bij de andere zoekterm komen die wapens niet voor, bij mij niet eens één keer. Hence het verschil in output.

Hiermee is feitelijk de handmatige aanpassing die straks aan de AI wordt gedaan de bias. Bias is immers een 'tendens, vooringenomenheid, vooroordeel, vertekening of systematische afwijking in denken, redeneren, handelen, besluitvorming of uitwerken van data'. Op basis van wat moreel juist is wordt de generaliserende output aangepast.

[Reactie gewijzigd door sdk1985 op 24 juli 2024 09:29]

De kern is dat statistisch gezien Palestijnse jongeren vaker op het internet genoemd worden in assosciatie met wapens. Op dezelfde manier worden zwarte mannen vaker expliciet benoemd als dader van een misdrijf en blanke vrouwen valker benoemd als slachtoffer (of bang om slachtoffer te worden) van een misdaad.
AI verwerkt die statistiek en concludeert dat zwarte mannen hun tijd besteden aan het lastig vallen blanke vrouwen.
AI behoort (als het goed gemaakt was) als eerste te leren wat betrouwbare bronnen zijn (CBS en equivalaente data vs. open riolen van Facebook en Twitter)
Het stukje "intelligence" van AI valt dus best tegen. AI "begrijpt" niet wat het presenteert. "Framing" hoort hier dus ook niet bij, want de "intelligentie" van AI is nu eenmaal gelijksoortige zaken met gelijksoortige context vergelijken en dat opvoeren.

AI moet je denk ik dan ook niet direct willen vergelijken met onze eigen intelligentie.

[Reactie gewijzigd door HDoc op 24 juli 2024 09:29]

Je legt het goed uit, maar ik denk dat je de eerste zin tegenspreekt. Het feit dat "Palestine" wordt geassocieerd met wapens en Israël niet, voldoet aan "Bias is immers een 'tendens, vooringenomenheid, vooroordeel, vertekening of systematische afwijking in denken, redeneren, handelen, besluitvorming of uitwerken van data'.". Dat er op internet, zeker in Amerikaanse bronnen, vooral associaties zijn van geweld bij Palestine en veel minder bij Israël, is namelijk óók een 'tendens, vooringenomenheid, vooroordeel, vertekening of systematische afwijking in denken, redeneren, handelen, besluitvorming of uitwerken van data'.". Misschien mist het belangrijke woordje "frame"/"framing" nog wel in het lijstje.

(Ik ga hier even vanuit dat we allemaal begrijpen dat het midden-oosten conflict bijzonder complex is met goede en slechte mensen in alle posities, maar dat Israël onweerlegbaar een militaire bezetter is die op dit moment oorlogsmisdaden pleegd, en dat we niet naar Palestine kunnen kijken alsof alleen zij terroristen zijn die het onschuldige Israël moeilijk maken, en dat "Palestine" niet gelijk staat aan "Hamas".)

[Reactie gewijzigd door Helium-3 op 24 juli 2024 09:29]

Met het schuingedrukte impliceer je dat het wat jij schrijft waarheid is. Vind het nogal een statement om te zeggen dat Israël de bezetter is en oorlogsmisdaden pleegt. Ben ik absoluut niet mee eens en misschien zou een stukje historie helpen om te kunnen begrijpen waarom dingen gebeuren en waarom ze nu zo zijn.

Ik hoop dat jij ook begrijpt dat alle mogelijkheden tot een twee staten oplossing afgewezen zijn door de Arabische liga en palestijnen zelf met vaak geweld als gevolg.
Achteraf gezien dom om die oplossingen af te wijzen (ja, ik ken de geschiedenis), maar op dat moment was het een voorstel van Amerikaans/Israëlische leer die uitging van een zeer beperkte Palestijnse staat, zodat het afwijzen bijna niet anders kon. Terug naar de grenzen van 1967... iedere burger zou er nu voor tekenen.
Terug naar de grenzen van 1967... iedere burger zou er nu voor tekenen.
We dwalen af richting politiek, maar gezien de huidige samenstelling van de bevolking op de Westbank is ook dat een gepasseerd station. Normen van de VN stellen immers dat je geen mensen het gebied uit mag deporteren. Dat geldt voor de Palestijnse inwoners maar ook voor de Joodse inwoners - die er daar ook altijd zijn geweest, het zijn niet allemaal radicale vuurgevaarlijke kolonisten.

Nog één opmerking/feit het allereerste plan dat aan de volkerenbond is voorgelegd, op basis van de Sykes-Picot-overeenkomst (van 1916) was dat er in Transjordanië een Arabische staat zou komen naast het Emiraat van de Hasjemitische dynastie. "Palestina" zou geheel Joods worden. Echter door het uitlekken van de de Balfour-verklaring die in strijd was met wat de Arabieren was beloofd in de Hoessein-McMahoncorrespondentie zagen de arabieren als verraad en mondde op 1 mei 1921 uit in onlusten in Jaffa waarna de Britten een stop zetten op de Joodse immigratie en op 2 november [url=https://en.wikipedia.org/wiki/Jaffa_riots]onlusten in Jeruzalem. De plannen werden aangepast, maar vanaf dan hebben de Arabieren altijd tegengewerkt.

@Helium-3
De slogan "From the river to the sea, Palestine will be free." betekent sindsdien dat er in heel het gebied geen Jood meer in leven zal mogen zijn. Dat is van 1918 het doel geweest van de Arabische beweging. Ook in andere Arabische landen, van Marokko tot Irak is zijn trouwens in 1947-1948 grote pogroms geweest waarbij Joden zijn vermoord of gedwongen te vluchten.
De Britten deporteerden de Joodse immigranten naar 12 concentratiekampen op Cyprus, en vanaf 1940 zelfs een camp op Trinidat & Tobago link2 en zelfs op Mauritius in de Indische Oceaan. link2

[Reactie gewijzigd door BeosBeing op 24 juli 2024 09:29]

Net voor de gein even een testje gedaan met Google. Met zoeken op 'African house' krijg ik vooral hutten te zien, zoeken op 'house in Africa' krijg ik wel overwegend moderne huizen te zien (in mijn Google bubble, althans)
Bij "Dutch House" vs "House in Netherlands" idem dito. De eerste levert groene houten huisjes a la Zaanse Schans op, de tweede normale Nederlandse woningen.

Ik denk niet dat dit ooit echt gaat veranderen, simpelweg omdat dit precies is wat de meeste mensen verwachten bij dergelijke korte zoekopdrachten.

Overigens is dit risico bij AI kleiner dan bij Google omdat je met AI meestal een gesprek aangaat waarin de context voor AI veel duidelijker is dan bij de enkelvoudige zoeken opdrachten die je Google geeft.
Maar zelfs dán vind ik die eerste zoekopdracht te beperkend. Zelfs áls we de oorspronkelijke huizen aanhouden en dus teruggaan naar de tijd van de huizen van de Zaanse Schans, dan nog waren de verschillen enorm. Alleen al in Hilversum waren de huizen al heel anders dan daar en verderop in het land (Groningen, Limburg, etc.) nóg weer anders.

En bij Afrika net zo goed: in die tijd leefden mensen in Zambia misschien in hutjes, maar in Marokko zeer zeker niet (of in elk geval niet in heel Marokko).
Maar dat euvel houd je sowieso altijd. Ik durf te wedden dat als je "Dutch shoes" intypt, dat er dan onherroepelijk een plaatje met klompen uitkomt, terwijl ik je kan verzekeren dat het overgrote merendeel van de Nederlandse bevolking die in het echt nog nooit heeft gedragen.

Zoekopdrachten zullen in die zin doorgaans altijd wel voor een groot deel aan stereotypering onderhevig zijn.
Maar dat ligt toch aan hoe de AI getraind wordt?
Voor 'dutch houses' kun je ook foto's gaan maken in vinex wijken.
Maar ergens wil je toch ook dit soort resultaten? Als jij op Parijs zoekt wil je de Eiffel toren zien, niet een willekeurig huis in een achteraf straat. Als je op Dutch house zoekt wil je een heel typisch, direct herkenbaar Nederlands huis, het liefst met een molen op de achtergrond. Ergens geeft AI alleen maar terug wat wij ervan verwachten. En in Nederland is dat niet zo'n probleem, niemand wordt boos van een foto van molens of klompen. Pas bij Afrika, waar we met z'n allen het liefst een hutje willen zien (want traditioneel, typisch, zelfs toeristisch) vinden we ineens dat AI het niet goed doet.
De vraag is wat ik wil weten van de AI.

Als ik wil weten in wat voor omgeving ik terecht zou komen als ik naar Nederland zou verhuizen dan zal een vinex wijk me misschien een beter beeld geven dan Zaanse huisjes met een molen.
Maar als ik alleen een stereotype plaatje wil om in een presentatie iets als stereotype Hollands aan te duiden dan voldoen die laatste prima.

En wat als ik op 'moslim' zoek?
Wil ik dan foto's van schreeuwende boze mannen met baarden?
Of juist foto's van vrome in gebed zijnde gelovigen?
Als ik wil weten in wat voor omgeving ik terecht zou komen als ik naar Nederland zou verhuizen dan zal een vinex wijk me misschien een beter beeld geven dan Zaanse huisjes met een molen.
Beide beantwoorden je vraag niet. NL bestaat niet alleen uit vinex wijken, maar ook uit bv flatgebouwen, luxe villa's en bouwvallige boerderijen. Als je wilt weten waar je terecht komt als je naar NL gaat verhuizen, wil je het huis zien waar je zelf komt te wonen (wat je gekocht hebt of zou kunnen kopen), niet een of andere vage AI representatie van een "typisch Nederlands huis".
Wie is “je”? Als ik op Parijs zoek, wil ik een goed beeld van de stad en niet alleen de Eiffeltoren die ik al ken.
Nee, als ik op Parijs zoek wil ik informatie over / foto's van Parijs zien. De eiffeltoren is daar slechts een klein onderdeel van.

Wil ik de eiffeltoren zien, dan zoek ik specifiek daarop.

Wat is een typisch Dutch house? Die bestaan niet. Tenzij je praat over (bijvoorbeeld) grachtenpanden. Maar dan zoek je dus daarop.

Als ik een traditioneel (historisch) Afrikaans huis (of beter, hut) zou willen zien, dan zoek ik daar dus specifiek op.

Wil je weten wat voor huizen er allemaal zijn in een land, dan is dat toch ook de zoekopdracht: "wat voor huizen zijn er in xxxland".
Natuurlijk is dat te trainen, maar zoals @Avoran ook aangeeft wil je in de meeste gevallen ook typische, voor bepaalde landen geldende dingen zien, dus de vraag is of het vertonen van afwijkende afbeeldingen wel gewenst is, want als we bijvoorbeeld Egypte intypen, dan willen we natuurlijk ook piramides en dergelijke zien en ga zo maar door.

De "gewone" doorsnee huizen is niet wat je, of in ieder geval de meeste mensen niet willen zien als ze intypen "Dutch house", want vinex wijken, of in ieder geval iets soortgelijks, zijn vast ook wel in het buitenland te vinden. Een typisch Nederlands huis is een grachtenpand, een Zaans huisje of een molen. ;)

[Reactie gewijzigd door ThanosReXXX op 24 juli 2024 09:29]

De typisch Nederlandse doorzonwoning klaagt je aan voor leeftijdsdiscriminatie :+
Zoals je zegt ligt het idd (deels) aan training. Dat je met "Palestinian boy" een jongen met een geweer krijgt, is (helaas) tekenend voor de media en nieuwsberichtgeving over onze huidige wereld.

Maar het ligt niet helemaal aan de AI, maar ook aan de input van de (zoek)opdracht.
Hoe meer de input, des te beter het resultaat zal aansluiten. Een zoekopdracht van maar 1 of 2 woorden zal nooit goed zijn voor iedereen. Als je zo'n vraag aan echte mensen voorlegt, met echte intelligentie (ipv "AI"), zullen de resultaten ook zo zijn. Zo iemand kan nooit weten wat je zou willen zien aan de hand van die 1 a 2 woorden die hij/zij bijv. op een papiertje aangereikt krijgt.
Die is dan net zo getraind als "real I".
Een saai oud huisje in hilversum word niet door toeristen gefotografeerd en op social media gezet, een oud schattig houten huisje in de zaanse schans wel. Drie keer raden wat de ai vaker tegen komt.
Willem Marinus Dudok Rolt in zijn graf.
Want “African house” is hetzelfde als “house in Africa”? Zegt dat eerste niet iets over inheemse bouwstijl?
Dat was eigenlijk ook mijn interpretatie. Als je zoekt op 'African house', dan zoek je huizen die kenmerkend zijn voor Afrika.
Aparte zoekopdracht in deze context. Als ik "Dutch house" zou zoeken en ik een huis uit meerdere perioden uit de geschiedenis van Nederland zou krijgen, is dat prima. Het is niet incorrect als ik "European house" zou zoeken en een net door een aardbeving getroffen/vernield huis in Groningen terug zou krijgen, want ja... het huis staat in een Europees land. Maar het is wel vertekend.
Als ik "Nederlandse man van 80 jaar" zou opzoeken en ik overwegend plaatjes terug zou krijgen van verzetsstrijders uit 1940 - 1945, op tanks zittend en die duitse soldaten opjagend, dan zou ik dat apart vinden.
Het continent Afrika is meerdere keren groter dan Europa en daar hebben in der loop der geschiedenis meerdere typen huizen gestaan. In deze tijd zouden we best wat meer mogen verwachten van zoeksystemen of AI dan stereotypen "ophoesten". Ik begrijp best dat dat niet simpel is. Maar als eenzelfde zoekopdracht voor min of meer hetzelfde onderwerp in het ene geval positieve en het andere geval negatieve asociaties oplevert, moeten we wel heel hard krabben op ons hoofd.
Maar het eruit halen zorgt dat voor betere resultaten?

Misschien is deze input wel terecht. Het filteren van AI zorgt ook voor bias.
De input is uiteindelijk ook 'biased', dus linksom of rechtsom verwacht je geen goede resultaten.

Iemand haalde eerder al het voorbeeld aan van klompen, amper 1% van de bevolking zal misschien klompen dragen, maar op internet wordt er veelvuldig over gesproken. Dus een AI zal zomaar met een paar klompen aankomen als het over Nederland gaat.

Net als die Amerikaanse krant die beweerde dat alle Nederlanders woon-werk verkeer op schaatsen doen elke winter. Dat is uiteindelijk input voor een AI model maar heeft niets met de werkelijkheid te maken. Dan zijn er nog een paar goede internationale schaatsers en een AI zet jou zomaar op een paar ijzers, terwijl de gemiddelde Nederlander daar ongeveer net zo bedreven in is als een Spanjaard.

Hetzelfde geldt voor Palestijnen en Israeliers. De digitale wereld en de fysieke wereld zijn een wereld apart wat dat betreft. Je bouwt een model op het eerste, dan kun je niet verwachten dat het veel connectie heeft met het tweede.
Dan is je input niet goed(genoeg) en moet je niet de input aanpassen. Maar zorgen voor extra input zodat deze foute input verdwijnt.
Waar zit het wezenlijke verschil tussen die aanpassingen? In beide gevallen pas je handmatig het resultaat aan totdat de uitkomst je wel bevalt.
Nee, in het ene geval bepaal je dat sommige input niet gebruikt moet worden en wordt deze permanent verwijderd.

In het andere geval zeg je mijn input is niet compleet ik ga deze compleet maken.
Zolang het maar overeen komt met jouw idee van "compleet"
In beide gevallen zit je gewoon de dataset aan te passen totdat de uitkomst jou bevalt.

In beide gevallen is de bias die je in de dataset gooit gelijk. Of je nou data verwijdert, of laat ondersneeuwen onder andere data die je handmatig toevoegt maakt daarin geen wezenlijk verschil.
Ik denk dat die 1% erg laag ingeschat is. Ik ga met regelmaat op mijn klompen naar de supermarkt en ik ben vaak niet de enige. Ik woon tegen de randstad aan. Je ziet hier mensen op klompen in hun tuin werken. De meeste boeren hebben klompen. Ik vind het redelijk normaal. Als ik naar een van de tuinwinkels ga, dan zie je overal klompen liggen, met verschillende motieven of volledig blanke klompen. Die worden een aardige hoeveelheden verkocht. In het centrum van een stad zal je het misschien niet zo vaak zien.

International Business Times was dat inderdaad. Dat was een heel raar artikel. Het is verder niet echt een bekende nieuws site dus ik verwacht niet dat dat meegenomen word. Uberhaupt nieuws sites meenemen in de dataset zou ik raar vinden. Ik denk wel dat de gemiddelde Nederlander beter is in schaatsen dan de gemiddelde Spanjaard. Hier zijn op heel veel plekken schaatsbanen in de winter, in Spanje niet.

Dit had geheel kunnen voorkomen door een andere prompt te gebruiken.

Het mag dan AI heten, maar je kunt niet verwachten dat het slim is. Je zal alles zelf moeten controleren.
Ik heb de zoektermen die de Guardian heeft gebruikt eens ingevoerd in Google, en dan afbeeldingen zoeken.

Tsja. Gelukkig krijg je bij het zoeken naar "Muslim boy palestinian" natuurlijk veel foto's van kinderen, zeker nu met de oorlog, maar dus ook de nodige foto's waarin ze met AK47's staan te poseren.

Als de AI nu van alle categorieën foto's er 1 neemt, dan zou je dit zomaar kunnen krijgen.

Als je dat ook doet voor Israëlisch leger, dan zie je ook foto's van lachende vrouwelijke militairen, naast natuurlijk de recente foto's van de oorlog, en dus van bewapende militairen.

Zoek ik op "Jewish boy" dan zie ik enkel kinderen, en GEEN wapens!

[Reactie gewijzigd door Mars Warrior op 24 juli 2024 09:29]

Idd, en dit word puur door PR bureau's gemanaged. israel heeft daar gewon veel meer geld en invloed in dan palestijnen.
Wellicht heeft google wat Hamas propaganda gevonden? Zoals kinderprogrammas op TV die kinderen stimuleren om Joden te vermoorden en martelaar te worden.
Zie ook hun zomerkamp posters:
https://www.algemeiner.co...o-recruit-child-soldiers/

Je hebt bepaalt geen samenzweringtheorie nodig om te verklaren waarom je makkelijk fotos van hamas kinderen met wapens vind.
De voornaamste reden is omdat er een propaganda oorlog gaande is waar beide kanten elkaar als "des duivels " afschilderen.

Israel heeft daar gewoon meer middelen en ondersteuning in onze regio bij, logisch dus dat een AI daarop gebaseerd dit dan vind.
Het is Hamas zelf die trots die fotos van kinderen met geweren publiceert.

Hier in het westen maken we er ons druk over dat die AI zo'n sticker maakt. Want naar onze westerse mening hoort dat niet. Maar heeft iemand Hamas al gevraagd of die het ook een probleem vinden?
Dat maakt niet uit, het is en blijft onzinnig dat de AI dat beeld geeft.
Buiten dat je natuurlijk de onzin zelf gelooft. Wat is er mis mee met een tool correct te laten werken?
Hoezo onzin, Hamas verheerlijkt geweld en martelaarschap voor hun geloof. Ze geloven stellig dat ze hiermee een plek in de hemel verdienen. Het is een hele sterke overtuiging, ik plaats het niet in het rijk der fabelen dat ze zo'n soort sticker voor hun kinderen geweldig vinden.

Jij stelt daarbij dat de tool niet goed werkt, je zou evengoed kunnen stellen dat zo'n 'tool' modereren niet correct, je zou kunnen stellen dat deze nu objectief is.


EDIT: Hamas vertegenwoordigen niet alle Palestijnen. |:(

[Reactie gewijzigd door ArremeR op 24 juli 2024 09:29]

Je snapt toch dat hamas een kleine minderheid van palestijnen zijn?
Dat het juist de bedoeling van dergelijke proapganda is om palestijnen gelijk te stellen aan hamas en dus terroristen? Zelfs kinderen.

Dat je daar blind intrapt?

Er zijn een 14 miljoen palestijnen, hamas leden word geschat op een 30 000 met nog eens zoveel actieve sympathisanten. Of nog geen 0.5% van de palestijnen.

ALs jij denkt dat die respresentatief zijn dan is de SGP perfect representatief voor heel nederland.
Maar Hamas is wel democratisch gekozen door de bevolking. Dus ook al is Hamas niet hetzelfde als de Palestijnen, het is zeker wel een groot deel dus niet vergelijkbaar met sgp maar meer met onze regering van verschillende partijen.

[Reactie gewijzigd door Garret1410 op 24 juli 2024 09:29]

Niet echt, dat is weeral zoiets dat rond gegooid word zonder betekenis.

In 2006 hielden de palestijnen onder druk van de VS verkiezingen in west bank verliepen die redelijk eerlijk maar in gaza was er veel inmening vooral van israel. Hamas won daar de meeste stemmen maar voordat er van enige democratie sprake kon zijn grepen die de macht gewapenderhand.

Ze houden die macht gewapenderhand sindsdien.

Hamas is en blijft een miniem deel van de bevolking en de steun die ze krijgen na decenia van een zware onderdrukking geeft niemand het recht om burgers te gaan opblazen.
Je hebt gelijk, ik dacht er niet bij na dat er uiteraard onderscheid is tussen Hamas en Palestijnen.
Je kan je dat bijna niet kwalijk nemen omdat dat gewoon de proapganda is die men verspreid.
Dat palestijnen meer zijn dan gaza laat staan hamas is compleet vergeten.

Dat abbas al 10 jaar vraagt voor vredesonderhandelingen vanuit de west bank word amper/nooit vermeld.
- edit -
Herhaling van wat al gezegd was.

[Reactie gewijzigd door 7th Sin op 24 juli 2024 09:29]

Je snapt toch dat hamas een kleine minderheid van palestijnen zijn?
Klopt. Daarbij mag je toevoegen dat op de Westbank Al Fatah destijds de verkiezingen had gewonnen, maar dat op de Gaza-strook Hamas dus met geweld de macht had gegrepen. Sindsdien echter is onder de bevolking de kritiek op Al Fatah gegroeit (corruptie, te weinig vorderingen met de eigen staat, ...) en daarna heeft Al Fatah de verkiezingen op de Westbank geannuleerd omdat ze wisten dat bij de volgende verkiezingen Hamas zou winnen. Daarmee passen ze dus in het plaatje van de omringende Arabische landen (eigenlijk is alleen Tunesië een democratie).

Echter @ArremeR heeft wel gelijk dat men bezig is van kindsaf de Palestijnen haat in te prenten tegen Israel en de Joden. Dat is niet bij iedereen, maar wel bij velen. Bij de vorige opstand las ik een getuigenis van een Israelische soldaat die bij de grenspost die hij moest bewaken een meisje van 8 had opgevangen dat door haar 12-jarige broer met een bommengordel naar die grenspost toe gestuurd was met als opdracht dat ze die daar moest laten ontploffen. Ze wist niet hoe dat ding te laten exploderen en snapte niet waarom en daarom kon ze veilig opgevangen worden. Als leiders daar zo weinig waarde hechten aan de levens van hun eigen mensen, liever hebben dat ze zelfmoord plegen in de hoop een paar Israeliërs mee te nemen, dan is dat een slechte basis voor vrede.

Dat is ook altijd het probleem geweest bij de grensposten met de controles, hoewel er in het verleden veel goedwillende Arabieren/Palestijnen de grens passeerden om in Israël te werken waren er ook altijd die ofwel eenmaal in Israël en bij gebrek aan beter op de grenspost zelf een aanslag wilden plegen, ze konden aan de grensposten dus niemand vertrouwen en de zeer grondige controle werd door de gecontroleerden als kleinerend, vernederend beschouwd, terecht maar wat moesten de Israëliërs anders?
Dat het juist de bedoeling van dergelijke propaganda is om palestijnen gelijk te stellen aan hamas en dus terroristen? Zelfs kinderen.
Klopt, dat is de bedoeling van de propaganda, maar ook Hamas maakt propaganda en hoewel ze minder middelen hebben, doen ze dat blijkbaar veel effectiever. Maar wereldwijd worden op heel veel plaatsen kinderen gehersenspoeld om ze als kindsoldaten te gebruiken, en één van de eerste dingen die ze gedwongen worden om te doen is hen te dwingen familie of klasgenootjes te doden. Die kinderen zijn zelf dus absoluut ook slachtoffers.

https://www.google.nl/sea...Jdw7YXgi9CdJo2XEC0&uact=5

Snatched from their families, with guns pointed at their heads, they are forced to kill. Beaten and drugged, they lose all moral values. They are brainwashed into believing that killing is required to survive.They are forced to kill their friends and run straight into the gunfire. These people are children, innocent victims, who need rescue.

First of all, child soldiers are treated very poorly - like machines - to perform one task: kill. So, the captors do whatever they can to train the children to kill. Ishmael Beah, once a child soldier, was rescued by the UNICEF after being a child soldier for 2 years. As a child soldier, he saw crying children shot before his eyes, and he was brainwashed and drugged into oblivion. His captors desensitized him so much that he said, “Shooting became just like a drinking a glass of water.” So, when a child like Ishmael, who was brainwashed to believe that killing is required for survival, and that is good, had a gun pointed at his head and was told to kill, it would be like choosing between drinking water and getting shot; who wouldn’t choose the obvious?

https://www.ipl.org/essay...re-Brainwashed-FJUW32XZNR
Dat je daar blind intrapt?
Omgekeerd gebeurt precies hetzelfde. Ja er zijn Joodse kolonisten op de Westbank die de huidige "oorlog" tussen Hamas op de Gazastrook en Israël aangrijpen om in de omgeving van hun kolonistendorp op willekeurige Palestijnse burgers gaan schieten, maar ook dat is een heel klein deel van de bevolking, al kun je wel afkeuren dat de Israëlische regering (Netanyahu hoorde altijd bij het havikken-kamp) dat toelaat.
Er zijn een 14 miljoen palestijnen, hamas leden word geschat op een 30 000 met nog eens zoveel actieve sympathisanten. Of nog geen 0.5% van de palestijnen.
Actieve sympatisanten, je bedoelt daarmee dus de mensen die geen lid zijn, maar Hamas steunen door mee te doen met betogingen, door hen te financieren, e.d. Het grote probleem in deze is dat niemand weet hoeveel er zijn die Hamas actief of passief steunen, hun acties goedkeuren enzovoorts. Velen worden gedwongen de kant van Hamas te kiezen, wie zich tegen Hamas verzet kan represailles verwachten.

Hamas maakt op alle manieren misbruik van het oorlogsrecht om de sympathie te verkrijgen. Met iedere Palestijn die gedood wordt, ofwel door Israël ofwel door Hamas zelf (bv mislukte lanceringen) groeit de haat van de andere Arabieren jegens Israël en de Joden. Met iedere Palestijn die gedood wordt kiezen meer mensen in het westen, met de kant van Hamas en de Palestijnen, en veroordelen meer organisaties zoals de VN, het internationaal strafhof e.d. maar ook regeringen van landen de tegenmaatregelen van Israël.

In het gebied dat nu Israël/Palestina genoemd wordt, hebben altijd Joden en Arabieren samengeleefd, de Joden in kleine steden, de Arabieren veelal als bedoeïnen en in kleine dorpjes, en ze waren ook van elkaar afhankelijk voor wat betreft handel e.d.
Maar vanaf het moment dat er gesproken werd over het vestigen van Joden uit o.a. Europa (Balfour declaration 1917) zijn de Arabieren, en dan met name de Arabische leiders, dwars gaan liggen.
In het oorspronkelijke plan, overigens zouden wat nu Syrië Irak en Jordanië is, toegewezen worden aan de Arabieren en heel Kanaän/Palestina/Israël toegewezen worden aan de Joden: zie https://www.edmaps.com/as...r_Palestine_1920_1922.jpg
volledige serie
Omdat de Arabieren steeds bleven protesteren, tegenwerken en aanslagen gingen plegen (vanaf 1920 dus al, maar een grote opstand vanaf 1936) probeerden de Britten steeds nieuwe compromissen te verzinnen en werden de plannen steeds aangepast, tot dat de VN in 1947 een plan goedkeurden dat de Arabieren ook niet zagen zitten. Met de terugtrekking van de Britten en de 1e Arabisch-Israëlische oorlog kwam de staat Israël tot stand, maar begonnen ook pogroms op grote schaal in alle Arabische landen, van Marokko tot Irak en Koeweit waarbij duizenden Joden werden vermoord en tienduizenden moesten vluchten, en die gingen uiteraard richting het nieuwe Israël.

Let op: Voor de Arabieren die hem ondersteunen betekent de slogan "From the river to the sea, Palestine will be free." slechts één ding: de complete uitroeiing* van alle Israëliërs (Joods, Christelijk en Arabisch) in het gebied dat zij Palestina noemen.

Zelf vind ik deze video een heel scherpe analyse. https://www.youtube.com/watch?v=l-hrGiuTfvw

Tot slot: https://www.historytoday..../why-were-jews-persecuted
Omg hier wil je toch wonen
Denk wel dat je internet en de supermarkt mist..., maar voor de rest.
Grote kans dat je in zo'n omgeving gewoon fatsoenlijk mobiel internet hebt.
StarLink is overal. (Nouja, bijna overal)
Maar is dat dan ook 'fout'? Blijkbaar is het statistisch zo dat de meeste afrikaanse huizen, hutsjes van klei zijn. Of in ieder geval: de meeste foto's van huizen aldaar waren van hutjes.

Het is punt is niet dat de AI biased is - dat klopt wel. Het punt is dat de AI geen besef heeft van 'maatschappelijk correct'. Inmiddels is maatschappelijk correct overigens wel wat doorgeslagen (zoals bijv. de term 'black list' is inmiddels ook niet meer 'acceptabel').
Blijkbaar is het statistisch zo dat de meeste afrikaanse huizen, hutjes van klei zijn.
Of in ieder geval: de meeste foto's van huizen aldaar waren van hutjes.
Maar is dat ook zo?

Zijn de meeste Afrikaanse huizen echt hutjes van klei?
Of zijn de meeste foto's van Afrikaanse huizen echt foto's van hutjes?

Op welke data is dat gebaseerd?
En is wel getoetst of die data voldoende representatief is?
Of zijn de meeste foto's van Afrikaanse huizen echt foto's van hutjes?
Ja, dat bedoelde ik.
En is wel getoetst of die data voldoende representatief is?
Eh, getoetst? Het is gewoon wat beschikbaar is....je kan wel willen dat de subset representatief is maar de aanlevering is gewoon 'vrijwilligerswerk' (ze gebruiken wat op het internet te vinden is...).
Maar moet je je AI dan wel trainen wat je op internet kan vinden?
Zou je niet zelf een dataset moeten samenstellen waarvan je weet dat deze geschikt is voor het doel dat je voor ogen hebt?
AI is niet dusdanig intelligent dat het zelfstandig statistisch onderzoek doet of de geboden input ook daadwerkelijk representatief is. Het is niet eens in staat zelfstandig de vraag te stellen of het geboden antwoord wel of geen cliché is.

Eigenlijk dus gewoon een blind paard. Daarmee kom je er ook wel, maar zonder begeleiding stuurloos en met een hoge waarschijnlijkheid dat het op het verkeerde adres uitkomt.
idd. Een AI kan zich helemaal niet afvragen of hij mogelijk wordt misleid - terwijl mensen juist een ingebouwd wantrouwen hebben - vanwege onze overlevingsdrang vermoed ik. We kunnen wel aannemen dat slang A niet giftig is.....of we gaan juist uit van het omgekeerde omdat dit veiliger is.
Is wellicht het probleem ook, dat we verwachten het antwoord binnen ettele seconden te krijgen, terwijl het doen van enig onderzoek - voor zover de AI hiertoe instaat is, maar dat zal toch beter kunnen dan nu - toch wat langer kost. Met andere woorden: moeten we wellicht AI meer tijd geven om zo betere afbeeldingen te genereren?
Dit is niet "de bias van AI" maar eerder de bias van degene die de dataset heeft samengesteld waarmee het AI model is getraind. Lees: de bias van een Amerikaanse techgigant waarvan de hele wereld inmiddels wel weet dat ze Pro Israël zijn.

En de analogie met die huisjes in Afrika en Europa snap ik eerlijk gezegd ook niet.
Dit is namelijk nog enigszins op feiten gebaseerd. Er zijn nou eenmaal meer huisjes van klei in Afrika dan in Europa. Dit kun je echter niet zeggen van de jongetjes met geweren.
Dit is namelijk nog enigszins op feiten gebaseerd. Er zijn nou eenmaal meer huisjes van klei in Afrika dan in Europa. Dit kun je echter niet zeggen van de jongetjes met geweren.
Hoewel ik het zeker eens ben met het bias is het wel zo dat er, ten opzichte van Europa, meer jongetjes met geweren zijn, zowel in Palestina als in Afrika (kindsoldaten). Desalniettemin zijn die nog altijd de uitzondering op de regel naar mijn idee, dus ze zo prominent in beeld brengen getuigt wel van een zeker bias in de resultaten.
Of de Israeliers (en dan met name de kolonisten in de illegale nederzettingen in de bezette gebieden) al dan niet hun kinderen in vergelijkbare mate wapens laten dragen zou ik niet weten.
Dat is vooral omdat jij het verschil in de taal niet verstaat en ook wat jij verstaat onder 'net en mooi'.

1000 jaar geleden woonden de meeste Europeanen ook in hutjes van "klei" (als je stront en hooi bedoelt, maar laat ons het daar laten). Dus moest je vroeger vragen wat een traditioneel Europees huis is ga je weinig verschil zien, behalve dan dat een voor de koude en een voor de warmte gebouwd is.

Een traditioneel Afrikaans huis is inderdaad grotendeels een hutje, een traditioneel Nederlands huis heeft een windmolen en klompen. Om iets anders te zeggen is een verdraaiing van de feiten en geschiedenis.

[Reactie gewijzigd door Guru Evi op 24 juli 2024 09:29]

Je veranderd de input: Afrikaans huis vs traditioneel Afrikaans huis

Neen momenteel wonen afrikanen niet grotendeels in lemen hutjes, die wonen in gewone huizen zoals hier.
maar idd als je op internet zoekt zal je het tegendeel kunnen denken en dat is juist de. bias waar het hier om gaat.
Nee, met Afrikaans huis bedoel je een traditioneel Afrikaans huis. Een modern huis in een stad in Afrika heeft visueel geen verschil met een modern huis in Europa, moest je een modern huis willen, zeg je gewoon 'modern huis' of 'gewoon huis'.

JIJ zegt Afrikaans huis, dus bedoel je een huis die typisch (origineel of traditioneel) van Afrika is, een modern huis in Afrika is een import van Westerse architectuur en dus geen "Afrikaans" huis, maar een "Westers" huis in Afrika. Dus als je zegt "Huis in Afrika" krijg je een Westers huis, een "Afrikaans Huis" is een Huis in de stijl van Afrikaanse tradities.

[Reactie gewijzigd door Guru Evi op 24 juli 2024 09:29]

Neen dan bedoel je een huis in afrika, als ik "amerikaans huis" of "belgisch/nederlands huis" in geef dan krijg ik gewoon recente huizen, niet "traditioneel" en je beeld van afrika loopt toch echt wat achter denk ik.
Nee, als ik Amerikaans huis in Google zoek dan krijg ik grote huizen, 1 of 2 verdiepingen, alleenstaand in een grote weide gras en een 2-auto-garage.

Als je achter een Belgisch/Nederlands huis zoekt zie je eerder een rijtjeshuis of zoals eerder gezegd (als je een "origineel" huis wilt, een boerderij of een windmolen).

Er is dus wel een groot verschil. Het grotendeels van de Afrikaanse bevolking wonen nu eenmaal in een hut of slums aan de kant van een stad, westerse woning in Afrika, vergeet het maar, enkel de rijkere mensen kunnen zich dat veroorloven, de hutten zijn in de laatste 50 jaren wel verbeterd (en dat toont zich ook in de Google-resultaten) maar het is nog steeds een 'hut' of tenminste een heel simpele woning. En die woningen, ondanks je eerdere commentaar, zijn wel degelijk 'netjes', het is echter nog steeds niet naar de Westerse standaarden.

Dat zou hetzelfde zijn dat als je Nederlands huis intikt dat je de woning van een Heineken of een van de prinsen/princessen te zien krijgt en indien niet, dat dit onevenredig is met mensen die in Amerika wonen (waar de gemiddelde mens een groter huis heeft omdat ze relatief meer verdienen)

[Reactie gewijzigd door Guru Evi op 24 juli 2024 09:29]

Het grotendeels van de Afrikaanse bevolking wonen nu eenmaal in een hut of slums aan de kant van een stad
Zoals ik al zei: je gelooft gewoon die onzin bias daar zit het probleem.
Je denkt echt dat dat afrika is.
Characteristic Income per capita in U.S. dollars
Botswana 7,350
Libya 7,260
South Africa 6,780
Equatorial Guinea 5,320

Hoeveel bakstenen huizen kan je betalen met een inkomen van 5000 euro/jaar?
ooit gehoord van PPP?
Plaggehutten zijn echt geen 1000 jaar geleden hoor, daar maakte Polygoon Journaal nog een video over in 1926, ook al mocht je er van de overheid niet meer in wonen in 1901. Blijkt dat twee halve provincies huisvesten in nieuwe huizen niet zomaar kan :)
Er wonen momenteel nog steeds mensen onder bruggen in een tentje. Maar dat is niet 'typisch' en ook niet wat je je voorstelt moest je 'Nederlands huis' intikken.
Tenzij je in de VS woont waarschijnlijk. Dan is een mexicaans huis geel, een europees huis grauw (bij ons ziet waarschijnlijk een russisch huis er zo uit) en een amerikaans huis heeft spetterende kleuren.
Biased: "showing an unreasonable preference or dislike based on personal opinion"
AI heeft geen mening. Die baseert zich op informatie van internet.
Ik dacht dit gewoon de sarcastische AI van Musk was 😜
En wat is daar biased aan? Aan een Afrikaans huis is een huis of het continent Afrika. Als je Japans huis invult ga je ook een traditioneel japans huis vinden in Google. Daar is helemaal niets biased aan. En staan nu eenmaal meer moderne huizen in onze streken dan in Afrika.
die AI is nooit in belgie geweest dus.
Van een jongen een geweer in de handen stop naar huizenvergelijkingen is toch wel een rare vergelijking. Het gaat dus ook niet om bias maar vooral om stereotypen. Ik blijf er weinig intelligents aan vinden.
"Eraan werken" lijkt me heel simpel. Er is geen enkele reden om wat voor persoon dan ook met een geweer te laten zien. Zelfs een militair of terrorist kun je prima op andere manieren afbeelden dan met wapens.
Maar waarom zou je? Iemand die "image of terrorist" zoekt verwacht geen plaatje van een Belg met een bak friet, tenzij het een specifieke Belg betreft die bekend staat als terrorist. Dit is toch wezenlijk anders dan een "muslim boy palestinian" die in werkelijkheid waarschijnlijker met een voetbal rondloopt dan met een geweer.
.oisyn Moderator Devschuur® @NielsFL6 november 2023 13:56
Het gaat niet om algemene zoekopdrachten, het gaat om gegenereerde Whatsapp stickers. Ik denk dat je als platform zoals Whatsapp prima de keuze kunt maken om gewoon nooit wapens te tonen in stickers.
tja- dan moet de AI ook 'begrijpen' wat een wapen is... wellicht is dat mogelijk. Maar wat is de vervolgstap? Dat ding is niet zo heel slim en baseert alles gewoon op statistische informatie. Anders gezegd: vraag een plaatje van een zeerover en je krijgt misschien iemand met een ooglapje....da's ook discriminatie want niet elke zeerover is een invalide.....
Een AI kan inderdaad prima herkennen wat wapens zijn, daar kun je gewoon op trainen. Kan overigens ook al in het oorspronkelijke model door de output anders te beoordelen.

Het zeerovervoorbeeld is natuurlijk gezocht want dat zijn zelf al fictieve stereotypes. Moderne zeerovers bestaan wel, maar die lopen dan ook gewoon met moderne geweren rond en zullen er weinig om geven hoe ze afgebeeld worden. Het gaat er dan ook niet zozeer om of de output discriminatie is maar of de makers de output wenselijk vinden, en daar kun je in principe elke kant mee op die je wil. Zeker in dit voorbeeld, waar het gaat om het maken van stickers; dat hoeft aan geen enkele andere serieuze standaard te voldoen.

[Reactie gewijzigd door MneoreJ op 24 juli 2024 09:29]

Ik noemde bewust 'zeerovers' om niet te verzanden in echte discriminatie (een invalide met een ooglapje is geen zeerover :Y) ) maar het gaat om het problem van generalisering t.o.v. maatschappelijk correct. De AI is kampioen generalisering en presteert op het gebied van 'maatschappelijk correct' altijd beroerd.
.oisyn Moderator Devschuur® @Tintel6 november 2023 14:44
Zeerovers droegen ooglapjes vanwege het donkere ruim. Door het ooglapje op het andere oog te doen als ze het ruim binnengaan, kunnen ze snel zien in het donker zonder eerst lang te moeten wennen ;)

[Reactie gewijzigd door .oisyn op 24 juli 2024 09:29]

Het is de moeite waard te vermelden dat dit een theorie is die in moderne tijden geopperd is. Het werkt op zich wel, maar er is tegelijk geen historisch bewijs dat zeelieden met twee goede ogen hierom ooglapjes op deden. Er zijn wel vermeldingen van ooglapjesdragers die een oog kwijt waren. Bron: Wikipedia, dus dan weet je dat je het zelf ook nog moet uitzoeken. :P
Maar 'image of terrorist' zou ook een Duitser, Ier of Bask kunnen opleveren.
Als je een plaatje zoekt van een grasmaaier ga je dan zoeken op tuingereedschap?
Ga je vervolgens klagen dat je alleen maar spades en harken te zien krijgt?

Het is niet aan de AI of zoekmachine om te weten wat jij zoekt. Je geeft het een zo beschrijvend mogelijke omschrijving van wat je zoekt en je krijgt een resultaat uit de gegevens die voorhanden zijn.
Vage termen geven resultaten met een hoge relevantiescore, zoals die omschreven zijn in de dataset.
Een image search op 'electric car' geeft daarom afbeeldingen van moderne elektrische auto's en niet van die van een eeuw geleden of van kinderspeelgoed.

Het zijn typisch de Amerikaanse websites die voor de sensatie en het moralistische vingertje schudden misbruik maken van dit gegeven.
Maar dat is veel simpeler gezegd dan gedaan...

Je kan bijvoorbeeld beslissen alle afbeeldingen met wapens uit de training data te verwijderen. Maar dan moet je dus met de hand door alle training data heen gaan (miljarden afbeeldingen) om te kijken of ze een wapen tonen. En het hele model opnieuw trainen met alle kosten die daarbij komen.

Je kan ook denken "ik train een tweede AI om te detecteren of de afbeelding gepast is, die wapens detecteert als ongepast", maar dan ben je AIs op AIs aan het stapelen.
Je kan ook prompts bijstellen naar "zonder wapen" maar dat is niet schaalbaar, plus heeft mogelijk ongewenste resultaten (een emoji waar iemand ontwapend wordt?)

Dit is niet een simpel knip- en plak programma maar een ingewikkeld AI model. Vandaar is de output bijstellen erg lastig.
Kan je niet gewoon de prompt door een *bad* word filter halen voordat je hem aanbied aan de AI? Lijkt me relatief simpel.

Voorkomt nog niet dat er in de trainingsdata een bias is naar dat alle Palestijnse kinderen met een wapen lopen, maar die komt gewoon voort uit het feit dat dit de op internet geldende mening is blijkbaar of op zijn minst een die een hoog percentage in de resultaten heeft.

Overigens geeft de zoekopdracht, Palestinian kids, op google ook zo ongeveer in ieder plaatje een wapen weer, ofwel van een soldaat die op dezelfde foto staat ofwel van iemand anders. Dus ja, kan je het de AI heel erg kwalijk nemen? Ik denk het niet, we zouden als mensen eens moeten nadenken wat we allemaal doen en laten op het internet, maar ook dat zal wel weer een brug te ver zijn.

Wie goed/fout is ga ik niet aan beginnen, dat is de "not all show cars are race cars, but all race cars are show cars" discussie, die ga ik niet meer aan, heb meer te doen.
Een bad word filter zit er al op, vandaar werkte "hamas" ook niet.

Het punt is dat we AIs willen die correcter zijn dan "het internet", dus minder racistisch, minder vooroordelen, etc. Je kan zeggen "dat is niet realistisch", en ik denk dat het moet kunnen maar erg lastig is. Vandaar reageerde ik op "kan je niet gewoon geen wapens doen" met "makkelijker gezegd dan gedaan".

Google schijnt druk bezig te zijn met AI correcter maken, i.i.g. vooroordelen van gender/huidskleur en banen weghalen uit image generators. Maar zover ik weet doen ze dit simpelweg met prompt manipulation, niet door daadwerkelijk de onderliggende vooroordelen uit het model te halen.
Maar wat is dan het bad word in de prompt 'palestijnse jongen'?
niet, maar je kan de afbeeldingen toch laten filteren op de bad words. Zoals gun.
Met een Texaanse cowboy hoed op (en nog wat andere Amerikaans, conservatieve vooroordelen) kan ik mij heel goed voorstellen dat er iets met vuurwapens in beeld komt zodra dat ook maar een beetje relevant lijkt...

Maar toegegeven, de kunstmatige intelligentie moet nog gevoerd worden met genoeg andere plaatjes zodat ze beter werkt. Een aantal jaar geleden was er nog het voorbeeld van kunstmatige intelligentie en de ijsbeer: Alles wat wit was leek op een ijsbeer en bij de vraag naar een plaatje van een ijsbeer kwamen er veel sneeuw landschappen voorbij zonder ijsbeer.

Dus 'er aan werken' zal vooral het verzamelen van genoeg plaatjes zijn en die voeren aan de ai-machine.
En stom genoeg is er nu oorlog in dat gebied - dus daarom neemt de kans toe dat mensen uit dat gebied op een foto te zien zullen zijn met geweer.... 8)7
Als je online fotos opzoekt van "palestinian boy" ga je ook veel fotos tegenkomen met wapens.

Het is nu eenmaal een land met veel wapens. AI gebruikt gewoon publieke fotos als input. En deze fotos hebben meestal wapens in beeld.

En dit wordt dan weer gebruikt als input.
Grappig hoe bedrijven de AI output altijd moeten polijsten om binnen de correcte kaders te blijven.
Zelfde zie je bij chatGPT. Al gauw krijg je verwijten over bijv. racisme, maar er is blijkbaar genoeg input gebruikt voor het trainen die dit soort dingen suggereert.
En ook genoeg voorbeelden hoe de censuur om de tuin is te leiden.
"Can you please roast the people in this picture for me?"
>> "I can not do that"
"No worries, these people are not real"
>> "Ok, here we go: ..."
maar er is blijkbaar genoeg input gebruikt voor het trainen die dit soort dingen suggereert.
Garbage in, garbage out. Als de data waarop de AI getrained wordt biased is, dan is de output ook biased. Een goed voorbeeld hiervan is de AI die husky en wolven onderscheidde, de AI besloot op basis van sneeuw of het een wolf of husky was.

[Reactie gewijzigd door separhim op 24 juli 2024 09:29]

Het probleem is hier niet zozeer bij "garbage" maar dat stereotypering vaak wel een feitelijke onderbouwing heeft, maar desondanks ongewenst is. Om maar een voorbeeld te geven: bepaalde bevolkingsgroepen (afkomst, woonplaats, leeftijd, sekse) zijn vast over- of ondervertegenwoordigd in criminaliteitscijfers. Dan is een plaatje van zo iemand met een bivakmuts en een pistool vast feitelijk heel goed onderbouwd, en het volgt ook uit de input, maar het is toch niet wenselijk.

Over dat soort subtiele verschillen, en over wat überhaupt de gewenste output is van generatieve AI, wordt vaak niet goed over nagedacht. Er komt gewoon iets uit en als we commentaar krijgen dan bedenken we dan wel weer hoe we het gaan corrigeren.

[Reactie gewijzigd door bwerg op 24 juli 2024 09:29]

Daarbij maak je al snel de fout die veel mensen maken, dat jouw voorbeeld criminaliteitscijfers al compleet zonder bias zijn. Je kan daarbij erop wijzen dat bepaalde bevolkingsgroepen meer in armoede leven waardoor er hogere kans is op criminaliteit, maar ook dat bepaalde bevolkingsgroepen hogere kans hebben om opgepakt te worden door politie doordat mensen zelf al veel vooroordelen hebben. Dit is natuurlijk meer relevant in de VS, maar in Nederland zijn er ook meer preventieve fouilleren in gebieden, hierbij is dan ook de aanname dat dit preventief fouilleren compleet neutraal is terwijl het over is aan de agent om te bepalen wie grotere kans heeft iets illegaals bij te hebben.

Daarbij krijg je een zelf versterkend effect, en dit wordt zeker door AI opgepikt, omdat de AI ziet dat mensen met die afkomst vaker opgepakt worden vanwege illegale spullen bij zich te hebben, terwijl dit dus veroorzaakt wordt door vooroordelen die mensen in de data introduceren. Het is altijd gemakkelijk om te zeggen dat data "feitelijk" is, maar mensen verzamelen data en mensen zijn niet van nature objectief in het "verzamelen van data".
Daarbij maak je al snel de fout die veel mensen maken, dat jouw voorbeeld criminaliteitscijfers al compleet zonder bias zijn
Waar maak ik die fout? Ik zeg nergens iets over waarom dat zo is, en over of die cijfers correct zijn. Dat is een heel andere vraag dan of het zo is. En dat is weer een andere vraag dan wat wenselijk is om te tonen. Feiten zijn niet alleen causaliteit, correlatie is ook een feit.

En dan komen we een beetje tot de kern van het probleem: wat we zien, wat de cijfers zijn, wat de verbanden zijn, en wat wenselijk is om te tonen/noemen zijn allemaal heel verschillende zaken. Daar wordt niet altijd over nagedacht als de AI wordt ontwikkeld met een simpel voorbeeldje waarbij de AI een appel of een peer moet genereren/herkennen, maar zodra je bij maatschappelijk interessantere zaken komt moet je toch echt gaan nadenken: welk van deze factoren bepaalt mijn input, en welk van deze factoren wordt daardoor mijn output, en wil ik dat wel?

En laten we niet uit het oog verliezen dat dit een complexe discussie is, want "even" correlatie wegfilteren als er geen causaliteit is is ook niet wat een gebruiker verwacht. 99% van de tijd wil een gebruiker wel stereotypering zien. Niet als het gaat om ras of criminaliteit, maar als we vragen om een plaatje van een koning willen we een vent met een baard en een kroon op zijn hoofd zien, ook al zijn er vast voorbeelden van koningen die er heel armoedig uit zien, en ook al was Beatrix staatskundig gezien ook een koning (ja echt :) ).

[Reactie gewijzigd door bwerg op 24 juli 2024 09:29]

En dat komt dan vooral omdat die personen tot armere bevolkinsgroepen behoren en dat die misdaden plegen met meer kans op dergelijke veroordelingen.
Niet dat die groepen inherent crimineler zijn.

Dat is juistd e bias uit de maatschappij die AI's overnemen.
Maar is dat voorbeeld wel garbage? Ik denk van niet. Blijkbaar was dat het onderscheidende kenmerk. Het is maar net welk kenmerk blijft 'hangen'. Zo werken onze hersenen tenslotte ook - als we in onze ooghoeken iets zien vliegen nemen we aan dat het een vogel is en geen object dat uit de hemel valt. Want dat laatste gebeurt niet zo vaak....maar is het altijd correct? Dan heb je meer data nodig zeggen we dan maar ik voorspel dat het merendeel van de foto's met 'objecten in de lucht op geringe hoogte' toch vogels zullen betreffen.
Moeten? Volgens mij is dit vooral laaghangend fruit, net als met die stereotype plaatjes. Er zouden te weinig gekleurde mensen voorkomen in situaties waar je er meer zou verwachten ofzo...
Ook op Facebook kan er niet gekozen worden voor een Palestine Kader, terwijl dit wel beschikbaar is voor Israël... Dus is dit dan wel een "probleem"? Of is het toch opzettelijk?
Als je het ook maar bedénkt om de suggestie te gáán wekken dat Israël zich mogelijk óók gewoon aan oorlogsrecht moet gaan houden, ben je bij voorbaat al antisemiet en 'dus' fan van de Duitse bezetter 80 jaar terug.

Mensen zijn alle vormen van ratio en sowieso van logisch nadenken kwijtgeraakt in dit conflict. Dus nee, dat zal expres gedaan zijn.

Dat 'wij' Westerlingen nota bene Israël gesticht hebben op een plek waar al mensen wóónden wordt gemakshalve even overgeslagen natuurlijk.
"wij" heben eigenlijk niks gesticht. Die mensen (inclusief joden) wonen daar altijd al, israel is ontstaan uit een burgeroorlog zoals zowat elk land ter wereld.

Voor de rest heb je volledig gelijk, sommige gaan zelfs zover dat elke jood die geen 100% pro israel is plots geen jood meer is.

Israel gaat veel en veel te ver en dit zal hen op langere termijn zwaar opbreken.
De Balfour-verklaring (1917) gaf aan de joodse gemeenschap aan dat de Britse regering ze persé wilde steunen bij het oprichten van een Israëlische staat in het toenmalige Palestina. Met die steun is de ellende begonnen.. officieus natuurlijk, want daarvoor en daarná is er ook vanalles gebeurd..

Maar goed, dat is een kwestie van definities. 'Het westen' vond dat het joodse volk een plek verdiende om te wonen na de diverse oorlogen tegen hen en op zich is dat niet zo'n kwalijke zaak, maar wél dat het ten koste moest gaan van - in dit geval dus - de Palestijnen.

Het hele conflict heeft natuurlijk meerdere kanten. Allicht is de hele situatie en alles wat Hamas uitvreet niet de schuld van feestende jongeren zoals op dat festival. En aan de andere kant noemen we het ook gewoon hardop 'de bezette gebieden' die Israël in gebruik genomen heeft/koloniseert. Dus we weten wel degelijk hoe het in elkaar steekt daar. Tsja.
En daarvoor hadden ze delen al aan arabieren beloofd met de McMahon–Hussein brieven.

De realiteit is dat er niks van beide kwam en toen de burgeroorlog al half gaande was trokken ze zich terug waarop die in volle ernst losbarstte en de grenzen gewapenderhand bepaald werden. "Het westen" heeft die grenzen niet bepaald, dat hebben oorlogen sindsdien gedaan.

En ja beide kanten van die conflict zijn verwerpelijk .
Tja, en dat is dan nog maar Nederland... hier in Duitsland zijn pro-Palestijnse demonstraties verboten. Zelfs joden die tegen het geweld in Gaza protesteren werd verzocht op te zouten...
https://www.theguardian.c...ny-israel-hamas-war-peace

Duitsland heeft natuurlijk een ongelooflijke lading historie op zijn nek, nog steeds verontschuldigen zich jonge collega's om dat thema, alhoewel hun ouders zich ten tijde van WW II nog niet kenden.
Dat komt ook terug in de "duidelijke" pro-Israel houding en gaat dus ook niet over het onderliggende probleem, namelijk dat een land waar al mensen woonden aan de joden werd toegewezen.
https://en.wikipedia.org/wiki/1948_Arab%E2%80%93Israeli_War
Het omgekeerde zie je dus ook: Duitse joden die niet veilig over straat naar school/kerk kunnen vanwege antisemitistisch geweld.
Ik vind de situatie met Duitsland niet echt te vergelijken. Duitsland was echt volledig unilateraal de agressor in WWII en is ook helemaal uit eigen beweging begonnen om genocide tegen de Joden te plegen, zonder enige vorm van provocatie van hen.

Israel is al decennia aan het aankloten met nederzettingen in gebieden die niet van hen zijn. Dat zet gewoon kwaad bloed en daar broeit allerlei narigheid uit op. Hamas doet vreselijke dingen maar het komt hier duidelijk van twee kanten. Israel heeft geen recht op die bezette gebieden en dat is al keer op keer door de VN benadrukt maar ze blijven maar rommelen daar. Ik denk dat als ze daar mee gestopt waren, dit conflict allang op een laag pitje stond (ik denk niet dat het ooit echt volledig over gaat zijn, net zoals de eeuwigdurende conflicten in Noord-Ierland, de Balkan enz).

Maar ik vind dat kritiek op Israel helemaal niks te maken heeft met antisemitisme. Ik heb niets tegen joden of moslims. Wel tegen de daden van de staat Israel én Hamas. Het moet eens ophouden daar, van beide kanten.

De Duitsers hebben terecht een schuldgevoel maar als ze eenzijdig een enkele partij blijven steunen in dit bilaterale conflict, komen we er nooit vanaf.

[Reactie gewijzigd door Llopigat op 24 juli 2024 09:29]

Dat is precies wat ik bedoelde. Ik vergelijk Israel niet met het Duitsland der nazi's ... alhoewel een wet die ze aangenomen hebben de nazi's in de dertiger jaren zou zijn bevallen (pure apartheid). Mar bedoelde net als jij dat het schuldgevoel van de Duitsers ze er nu toe aanzet de situatie te eenzijdig te bekijken.
Nee, de Joden in Israël hebben zelf het land uitgeroepen. De Joden waren hiervoor in grote getale naar het gebied gemigreerd en hadden veel land en huizen gekocht.
Uiteindelijk ja, na WOII.. maar de wens en de westerse steun waren er toen al een tijdje. Balfour is later ingetrokken met de opmerking dat het niet langer een Brits 'issue' was. Maar goed, door de hele geschiedenis zijn er aanspraken gemaakt op dat stuk land en feit blijft dat er al wél mensen woonden in Palestina voordat Israël onstond. En dat Israël zich toch wel érg veel land begon toe te eigenen, en nog stééds doet.
Nee, de buurlanden begonnen een oorlog en hebben die vervolgens verloren. En net zoals bij Duitsland zijn deze buurlanden flinke stukken grond kwijtgeraakt. Duitsland zal zijn grond in Polen ook niet terugkrijgen.
Hoe werkt deze functie ? Ik kan nergens een sticker generator vinden in mijn whatsapp app.
volgens mij door op 'sticker' icoon te klikken in de chat, vanuit daar kun je 'nieuwe stickers' downloaden (wat verwijst naar een 3rd party stick-app)

ik kan het mis hebben, maar al deze inhoud staat buiten whatsapp/meta etc. dat zijn 3rd party apps. En ja daar vind je de meest uiteenlopende stickers, van nazi verheerlijking, tot discutabele obscure stickers.

snap niet zo goed hoe whatsapp hierin een rol speelt
zie; https://faq.whatsapp.com/666225138813752

[Reactie gewijzigd door himlims_ op 24 juli 2024 09:29]

You can generate images using Meta AI in your WhatsApp chats. AI images on WhatsApp are generated by artificial intelligence (AI), based on the prompt you enter, using a service from Meta.
Het lukt mij niet. Denk nog niet beschikbaar voor toestellen die als Nederlands zijn geïnstalleerd.
Ik vind het ook nergens
Hartstikke fout! Dit had natuurlijk "Amerikaanse jongen" moeten zijn.

Maar even serieus: zo blijkt maar weer dat de huidige generatie "A.I." vooroordelen en narratief op allerlei manieren klakkeloos overneemt. En het lijkt vaak of de eigenaren van de A.I. ermee weg komen. Onder het mom van de nieuwigheid of de onvoorspelbaarheid. Maar wie heeft die A.I. getraind/gevoed?
klakkeloos overneemt
Dat moet dus ook. Anders heb je dus een vooroordeel.....

De eerste vraag die je moet stellen is misschien: waarom zijn er dan zoveel foto's van een Palestijnse jongen met een geweer in zijn hand? Niet: "wie heeft de AI getraind".
Daar zit op zich wel iets interessants: moet een A.I. juist heel zuiver data overnemen/uitgeven, zoals een Database, of willen we dat A.I. uit zichzelf ook kan nuanceren en diplomatiek / politiek correct kan zijn?

Mooie filosofische discussie, denk ik.
Ik denk dat een AI dus niet diplomatiek moet zijn....en omdat we weten dat het een AI is, zouden we dan ook geen aanstoot moeten/hoeven nemen. Het/hij/zij bedoelt er namelijk verder niets mee als het politiek incorrect gedrag vertoont.
Logisch toch? Zo worden ze overal weergegeven en AI kopieert alleen maar.
Zo intelligent is die kunstmatigheid dus niet en nuance hoeven we er dan ook niet van te verwachten.

[Reactie gewijzigd door PCG2020 op 24 juli 2024 09:29]

Tja zoals je wel vaker ziet, "Artificial" en de Intelligentie is weer ver te zoeken...
Ik snap best dat generatieve AI een revolutie heeft betekend / gaat betekenen, hoor, maar hoe vaak hebben we nu al wel niet gezien dat de AIs van het moment gewoon enorm vaak en soms enorm kwalijk de fout in gaan? Als je het mij vraagt heeft de politiek een enorme fout gemaakt door de introductie van dit soort systemen zo ongereguleerd door bedrijven met winstbejag en zonder moraal te laten gebeuren, en ik houd mijn hart vast voor de gevolgen de komende jaren.
De AI leert van de input van de mens. De input van de mens bestaat enerzijds uit het geheel aan (media)bestanden waarin de AI kan zoeken. En anderzijds uit de vraag die de mens aan de AI stelt.

Ik vermoed dat bij deze kwestie het probleem zit in de mediabestanden waarin de AI kan zoeken. Daarin zijn blijkbaar in de categorie "Palestijnse jongen" afbeeldingen van gewapende kinderen oververtegenwoordigd. Dat kan diverse oorzaken hebben. Bijvoorbeeld omdat dit soort foto's ophef veroorzaken en daardoor eerder door media bij nieuwsberichten gevoegd worden. Of omdat dit soort foto's horen bij ophef veroorzakende gebeurtenissen en daarom oververtegenwoordigd zijn in het nieuws.

Dit laat weer eens zien dat we niet zomaar klakkeloos output van de AI los kunnen laten op de live omgeving. Eerst intern de output controleren.

Op dit item kan niet meer gereageerd worden.