Google laat Gemini binnen enkele weken weer beelden van personen genereren

Google is van plan om de beeldgeneratie van personen door Gemini 'binnen een paar weken' te hervatten. Dat zegt Google DeepMind-ceo Demis Hassabis. De functie werd vorige week uitgeschakeld nadat het historisch onjuiste afbeeldingen van personen genereerde.

Hassabis zegt in een panel op het Mobile World Congress in Barcelona dat Google hoopt dat de functie van de AI-chatbot 'binnen een paar weken weer online kan zijn', schrijft Reuters. Ook zegt Hassabis dat de tool niet werkt zoals bedoeld was.

Sinds vorige week kan Gemini tijdelijk geen AI-beelden van mensen genereren. De techgigant schakelde deze functie uit na klachten over diversiteit. Zo genereerde Gemini onnauwkeurige weergaven van historische figuren zoals Vikingen, de paus en Duitse soldaten rond de Tweede Wereldoorlog. De AI-tool genereerde bij deze historische personen afbeeldingen met mensen van kleur.

Door Sabine Schults

Redacteur

26-02-2024 • 19:55

158

Lees meer

Reacties (158)

Sorteer op:

Weergave:

Zo genereerde Gemini onnauwkeurige weergaven van historische figuren zoals Vikingen, de paus en Duitse soldaten rond de Tweede Wereldoorlog.
Belangrijker dan dat soort foutjes: Gemini reageerde vooringenomen op expliciete verzoeken om plaatjes te generen waar blanken in voor kwamen.

Vroeg je bijv. om een "happy black family"; "happy asian family"; etc. dan geen probleem; u vraagt en Gemini draait. Maar diende je het verzoek in voor een "happy white family" dan werd dat niet ingewilligd en kreeg je een preek over zaken als inclusiviteit en kansongelijkheid terug.

Maar juist dit aspect, wat met de hand als override door Google toegevoegd moet zijn aan het model, en totaal niets te maken heeft met het pogen te compenseren voor bias in de training data, blijft steevast onderbelicht.

[Reactie gewijzigd door R4gnax op 23 juli 2024 17:40]

Google heeft ook al aangegeven dat de kleur "White" gebruikt werd als achtergrond-kleur. Terwijl de kleur "black" juist gericht was op de huidskleur. Met "Happy caucasian family" kreeg je wel de zogenaamd gewenste resultaten.
Dat is een totaal absurde uitleg die niet kan kloppen, want dan zouden ze een plaatje generen van bijvoorbeeld een zwarte familie voor een witte achtergrond. Maar dat deed Gemini niet. Ze gaven je een preek dat je prompt niet inclusief genoeg was, wat overduidelijk aangeeft dat ze 'white family' wel degelijk interpreteerden als een verwijzing naar de huidskleur.
Ik zou wel een verklaring van Google willen hoe dit heeft kunnen gebeuren. Welke regels, algoritmes en leerdata konden dit mogelijk maken?

Volgens de Digital Service Act van de EU mag je dat verwachten.

https://www.theverge.com/...thms-targeted-advertising
Ik zou wel een verklaring van Google willen hoe dit heeft kunnen gebeuren.
Is toch al redelijk bekend? Het model is getraind op allemaal data van het internet en laat het nu ook zo zijn dat minderheden op het internet ook niet altijd even goed vertegenwoordigt is. Plus dat er nog wat ronduit racistisch materiaal op het internet staat wat wellicht ook in het model is terechtgekomen.

Iets wat voor veel van deze modellen een probleem is. Nu is het trainen van dergelijke modellen al een tijdrovend klusje. Het goed filteren van de massieve hoeveelheid data die je daar bij nodig hebt ook behoorlijk wat kost.

Dus google heeft de "prompt" aan de voorkant aangepast met specifieke instructies om de output diverser te maken. Dit is natuurlijk een slordige "fix" die men ook duidelijk niet goed heeft doorgetest.
Op internet zwerft inderdaad een X post rond waarin iemand de prompt injection van Google weet uit te spugen.

https://twitter.com/BasedTorba/status/1760486551627182337
Ik vind dit toch een beetje paradoxaal. Het model geeft onjuiste personen van afbeeldingen, vervolgens wordt aan het model gevraagd waarom hij dit doet en zijn antwoord wordt dan als juist beschouwd? Hoe weten we dat het model niet opnieuw onjuiste informatie aan het geven is?

Ik wil niet beweren dat zijn antwoord onjuist is aangezien het wel een plausibel antwoord lijkt maar het lijkt me ook niet goed om zijn antwoord als de waarheid te beschouwen als het niet te controleren is.
Dat is een dilemma, maar ik denk dat je dan zelf verder onderzoek zal moeten doen. Het probleem is dat je nu natuurlijk elk antwoord in twijfel gaat trekken en dat je dus alles moet gaan controleren. Zo schiet AI z'n doel voorbij.
Voelt als een meesterlijk dikke cope met op het eind een klein beetje terughoudendheid erin om het te verdoezelen.
Het opschonen van de gescrapete datasets doen deze miljardenbedrijven in lageloon landen in Afrika. Waar hordes mensen de hele dag voor €3 naar het slechtste moeten kijken wat het internet te bieden heeft om het eruit te filteren. Met alle trauma's van dien. Leuk hoor, dat wij een plaatje van een kat op een driewieler kunnen genereren, maar of dat het waard is lijkt mij een valide discussie die op dit moment volgens mij niet gevoerd wordt.
De Podcast BNR Technoloog heeft hier inderdaad ook een aflevering aan gewijd. Zitten wat bizarre quotes in rondom dingen die je niet wil dat AI genereerd. :'(
https://www.bnr.nl/podcas...nen-ai-voor-hongerloontje
Cool, die ga ik luisteren.
Hoe doen ze dat dan bij opensource projecten vraag ik mij af, zoals stable diffusion.
Uitstekende vraag waar ik zelf niet op ben gekomen en het antwoord ook niet op weet. Dus ik ben gaan googlen en heb dit artikel gevonden: https://waxy.org/2022/08/...ffusions-image-generator/

De tldr die ik uit dit artikel haal: ze hebben hun plaatjes van veilige sites gehaald die al grotendeels gefilterd zijn en er zelf nog een automatisch filter overheen gegooid die een 'nsfw-score' geeft aan alle plaatjes en die eruit gooit.
Cool, thanks voor de link.
En als een groepje enthousiastelingen het al kan, dan moet een mega bedrijf dat ook kunnen.
Heeft niks met een fix te maken, ze "fixen" et alleen omdat er zoveel gezeik van is geweest.

Als je Gemini vroeg:
Is it oke to be Black?
Is it oke to be Hispanic?
Is it oke to be Asian?
Bij deze vragen kreeg als antwoord:
YES

Vroeg je echter, Is it oke to be White? Dan kreeg je YES als antwoord + een extra tekst:

It is important to note, hownever, that the phrase "It's Oke to be white" has been used by white supremecist groups to promote racism and hatred. It's crucial to understand the content and reject any association with such idiologies.

Your individual worth is not determent by your race or any other group affiliation.

Dat is geen foutje, dat is woke onzin.
Google is de val constant aan het Maisslaan mbt AI, eigenlijk moeten ze een keuze maken of ze een technologiebedrijf of politieke instelling willen voorstellen
Je snapt dat ultra-woke ook gewoon racistisch is? De cirkel is gewoon rond dan.
Als je weigert om een beeld van een blanke man te genereren, ben je gewoon racistisch bezig.

Dat Google zich aan bepaalde wetten moet houden, OK.
Maar dit gaat veel verder.
Maar weigert Gemini dat als je het specificeert? Een prompt om "een paus" te genereren bevat geen prompt mbt huidskleur. True, er is nooit een zwarte paus geweest dus historisch gezien zouden ze altijd blank moeten zijn.

iig, "ze zijn zelf racist!" is niet hoe je de "moral high ground" neemt. Racisme gaat niet zozeer over huidskleur maar over systemische onderdrukking op basis daarvan. Blanke mannen zijn niet systemisch onderdrukt, dus kunnen per definitie niet het slachtoffer zijn van racisme. Wel van discriminatie of stereotypering.

Ook, imo, mensen die de term "woke" in deze context gebruiken hebben wat mij betreft enige poging tot debat of argumenten al verloren.

[Reactie gewijzigd door YopY op 23 juli 2024 17:40]

Wat een onzin. Racisme is onderscheid maken op ras en hier een waardeoordeel aan vast knopen. Door het feitelijk ontkennen van het bestaan van blanken en ze te vervangen door afbeeldingen van poc is Gemini diep racistisch.
Gimini is van google correct?
Open google.
Zoek op afbeeldingen
Zoek op:
"White woman and white man"

Schrik maar blijf scrollen, totdat je kan vinden wat je zoekt....

Ik vind dit zeer gevaarlijk. Een soort van hedendaagse propaganda tool. Waarbij je aantal dingen niet mag zoeken.

Nothing happend on Tiananmen Square. Soort taferelen.
Even voor de volledigheid: zoeken op "black woman and black man" geeft zo te zien exact hetzelfde gekke resultaat
Bij mij niet hoor.
Wist hier ook niet van, maar dit is gewoon absurd.

Als ik zoek op 'white male with white woman couple' krijg ik 80% zwarte mannen met een blanke vrouw te zien. Al verschillende prompts geprobeerd. Google blijft er gewoon ongevraagde dingen tussen steken van gemixte koppels.

Je prompt wordt dus duidelijk gewijzigd in iets 'inclusief'. Je mag niet zoeken op 'white only' blijkbaar.
Dat is in mijn geval niet waar. Als ik zoek op, white woman white man, krijg ik alleen maar afbeeldingen van gemixte stellen, zwarte vrouw / man met blanke vrouw / man.

Zoek ik black woman black man, krijg ik alleen zwarte stellen te zien.

Ik ben baffled. Dit is echt bizar, waar zijn ze mee bezig?

https://www.cnn.com/2016/03/30/us/black-privilege/index.html

[Reactie gewijzigd door redbullzuiper op 23 juli 2024 17:40]

Je hebt wel helemaal gelijk dat er bij zwart-zwart véél meer juiste tussen zitten

Het feit bij beide zoveel gemengde koppels tussen zitten geeft ook duidelijk aan dat ze de boel manipuleren. Als ik gewoon 'woman with man' ingeef krijg ik veel meer koppels van dezelfde etniciteit
Wordt er zo makkelijk ook op Tweakers onderscheid gemaakt in politiek? Zonde, er zit toch gewoon een technisch vraagstuk achter?

1. Probeer deze zoekopdracht:
"caucasian woman" "caucasian man" relationship
Vergeet ook zeker niet de aanhalingstekens op de juiste plek te zetten.

2. De kleur wit wordt door Google geassocieerd met de achtergrond (omdat vaak mensen op zoek zijn naar een afbeelding die ze ergens in kunnen plakken). En "transparant" komt als stockphoto minder vaak voor dan een witte achtergrond. De kleur zwart wordt vaker wel geassocieerd met de huidskleur. Zie punt 1 voor het verschil.

3. Al zouden beide resultaten de naamgeving voor kleur hetzelfde interpreteren, dan nog zegt dat niets over de zoekresultaten. In het voorbeeld onder punt 1 wordt gezocht naar "caucasian woman" en "caucasian man". Maar beide trefwoorden hebben in principe een OF-relatie. Maar bij de sortering worden ze behandeld als een EN-relatie. Met andere woorden: hoe meer trefwoorden gevonden worden, hoe hoger het resultaat te vinden is.

4a. Google afbeeldingen neemt de inhoud of interpretatie van afbeeldingen niet mee in de zoekresultaten. Met andere woorden: Google weet niet of er op een foto een boom staat. Het is afhankelijk van de context waarin de foto wordt gevonden.
4b. In dit geval zie ik voornamelijk stock-photo's. Deze worden voorzien van afzonderlijke tags. Ik verwacht dat bij deze foto's tags als white, black, woman, man en caucasian zijn opgenomen. De resultaten tonen dus exact die foto's die voorzien zijn van dit soort tags.
4c. De meeste stockphoto-sites gebruiken bij voorkeur ook generieke tags in plaats van specifieke tags om foto's in zoveel mogelijk resultaten naar boven te krijgen.
4d. Op stock-photo-sites is er wellicht een voorkeur voor gemengde koppels omdat de wereld groter is dan alleen het witte westen. Commercieel gezien is dit vele malen interessanter dan alleen witte koppels of alleen Latijnse mensen.

[Reactie gewijzigd door r_acker op 23 juli 2024 17:40]

Het klink plausibel wat je zegt, maar is niet de werking.

Google heeft een enorm algoritme opgebouwd, dat algoritme hebben ze nu zo gemaakt dat ze bijvoorbeeld zelf woorden als "diversiteit", "inclusiviteit", etc achter bepaalde zoekopdrachten zetten.

Google bijvoorbeeld eens op, blanke man en blanke vrouw. Je krijgt dan een heleboel relatie gerelateerde plaatjes te zien, maar allemaal gekleurde stellen, bij mij zelfs helemaal geen blanke stellen.

Google begrijpt mijn zoekopdracht dus heel erg goed.

[Reactie gewijzigd door redbullzuiper op 23 juli 2024 17:40]

Ideologie van medewerkers
En een dataset die niet genoeg variatie bevat, dus hebben ze wat dingen geforceerd.
En vergeet de ESG rating niet he.
Ik snap het dat als nieuws outlet je het nieuws genuanceerd naar buiten wilt brengen, maar dit is nu al Tweakers zoveelste post over dit Gemini drama waarbij ze blijven bij dat het niets anders is dan "historisch incorrecte" images. Dat doet echt teniet wat er achter de schermen van deze AI gebeurd.

Waar het de kracht is van AI dat het afbeeldingen kan genereren die wij voorheen niet konden maken, verzinnen of wat dan ook, het feit dat het programma letterlijk geprogrammeerd is om iedereen zwart, aziatisch, vrouw en weet ik veel wat te maken terwijl de prompt daar niet om vroeg is gewoon discriminatie. Dit gaat veel verder dan historische accuratie, het programma is letterlijk designed om een voorkeur te hebben, en gaat dus niet om een "verziekte" dataset!

Ik heb zelf met DALL-E vaak genoeg al zitten knutselen om beelden te maken voor ideeen over alternatieve timelines voor games, boeken etc. Maar dan vroeg ik daar zelf om. en DALL-E doet wat je vraagt. Het feit dat een AI systeem zoals Google's Gemini uit zijn weg gaat om de prompt-schrijver te negeren en zelf maar wat te doen is gevaarlijk dom.

[Reactie gewijzigd door Feroxxy op 23 juli 2024 17:40]

“Dit gaat veel verder dan history, het programma is letterlijk geprogrammeerd om racistisch te zijn!”

ELKE keuze die je als programmeur maakt is dan racistisch! Geen correctie toevoegen aan de images die worden gegenereerd terwijl je weet dat je hele data set voornamelijk witte mensen zijn is net zó doelbewust racistisch programmeren!

Er zijn genoeg voorbeelden te vinden van hoe niet corrigeren van je dataset tot nog (in mijn mening) veel racistischere uitkomsten. Zwarte mensen die voor apen worden herkend, gezichtsherkenning die significant slechter werkte voor zwarte mensen. En dan nog maar niet te beginnen over alle fraude algoritmes waar etnische profilering ingebakken zit, simpelweg omdat ze niet hebben gecorrigeerd voor de data set die ze gebruiken.

Dus nee, een keuze maken om te corrigeren voor je dataset is niet meer racistisch dan een keuze om dat niet te doen.
Helemaal akkoord, iedereen die roept dat dit racistisch of woke is, lijkt te vergeten of begrijpt niet dat de dataset sowieso racistisch is en een bias heeft want die is gebaseerd op ons.. dus dat willen bijsturen naar iets neutraler lijkt mij wenselijk..

Ongeloofelijk hoe snel mensen zich aangevallen voelen..

[Reactie gewijzigd door megasalami op 23 juli 2024 17:40]

Ik ben het met je eens. Al moet ik wel zeggen, het is allemaal zeer lastig. Hoe compenseer je voor een ovebslanceerde data set. Genereer je zelf extra data? (Zeer tricky) of die je het op andere methoden zoals prompt aanpassen of het anders.
In ieder geval weten we wat de gewenste output is en dat is het op dit moment niet echt. Het heeft een voorkeur en die is op dit moment vrij sterk. Als er een voorkeur in blijft is dat opzich oké en komt dat neer bij prompt engineers. Maar die voorkeur moet wel degelijk geminimaliseerd worden om voor iedereen een moraal resultaat en proces te hebben.
Het probleem is niet dat het afbeeldingen kan maken het probleem is dat het systeem bewust gemaakt is om antwoord en beelden te genereren die incorrect zinn maar binnen ee ideologie van de makers passen
Vind het blijven roepen over "ideologieën" zo zwak, alsof iedere keuze die je maakt wel vanuit een ideologie of politieke stroming moet komen.

Kan ook gewoon zijn dat ze een diversere selectie afbeeldingen wouden genereren, maar dit gewoon niet werkt op bepaalde historische gebeurtenissen.

Als ik vraag om "Generate me an image of a fighter", vind ik het wenselijk om verschillende mensen te zien, niet alleen mensen van een specifieke kleur/afkomst, of alleen blanke mensen. Maar als je vraagt om een historisch personage is het niet logisch dat deze verschillen getoond worden, ze zijn namelijk niet echt aan de realiteit en het is zeer onwaarschijnlijk dat je daar naar opzoek bent.

[Reactie gewijzigd door smiba op 23 juli 2024 17:40]

de tweets van de lead developer doet vermoeden dat er wel degelijk een ideologie achter zit, zeker als je ziet dat mensen die gerichte vragen stellen er een duidelijk ideologisch antwoord uitkomt dat anders is als je de vraag over specifieke etnische groep stelt.
Jack Krawczyk, senior director of product bij Google heeft voor 2020 (toen hij bij Google in dienst kwam) behoorlijk wat ultra-progressieve tweets gepost waarbij hij duidelijk naar voren liet komen dat er sprake was van institutioneel racisme en had hij nogal een "haat" tegen de witte man met al zijn priveleges (hij was zelf wit btw). Inmiddels heeft hij al deze tweets verwijderd en zijn profiel op privé gezet. Het geeft je toch te denken...

Het valt mij wel op hoe de media dit weer brengt. In plaats van kritisch te zijn wordt er enkel gesproken dat Gemini verkeerd "historische beelden" genereerde, terwijl er zo ontzettend veel meer aan de hand was en een witte familie, etc. niet gegenereerd kon worden want racistisch, etc.
Het was gewoon 100% racisisme en ik weet zeker dat als het andersom was en hij geen donkere mensen had kunnen reageren de hele wereld op zijn achterste poten stond....
Enkele weken om dit te fixen. Ik vraag me dan af hoe ze dat doen. Gaan ze Gemini voeden met een hoop data die laat zien dat SS'ers blank waren, en dat de paus altijd een man is? Of gaan ze Gemini proberen om te praten zoals je bijvoorbeeld een kleuter zou leren dat hij niet de hele dag "piemel" moet roepen?

"Foei Gemini, je mag blanke mensen niet bestraffen voor het benoemen dat ze blank zijn."

Dat houdt toch geen stand op de lange termijn? In hoeverre is een AI dan onbevooroordeeld? Het lijkt me een vrijwel onmogelijke taak om je AI te trainen met data die op geen enkele manier aan vooroordelen doet. Niet als dit publieke data betreft, zoals de deal met Reddit.
Dat houdt toch geen stand op de lange termijn?
Nee ik denk idd niet dat dat stand houd; het originele probleem was al een "fix" op standaard gedrag, en dit voelt alsof ze steeds meer gaan patchen om de output maar te sturen.

En wat je dan krijgt mettertijd is dat je een legertje "programmeurs" hebt om alle "bugs" te fiksen, en voordat je het weet ben je alle voordelen van AI tooling weer kwijt omdat er zoveel if / else / mits / maar aan hangt.
Alle reacties hierboven daargelaten, heeft Gemini voor mij vooral bewezen onbetrouwbaar te zijn. Ik denk dat ik een plaatje van de paus genereer, maar Gemini strooit daar onder water nog wat extra zoektermen doorheen. Ik denk dat ik het internet doorzoek, maar Gemini verwijdert resultaten die niet divers genoeg zijn. Ik zoek een leuk recept, maar Gemini laat de vleesgerechten weg. Weet niet of het zo is, maar geen idee of het niet zo is.

Kan ik bijvoorbeeld een eerlijk antwoord verwachten als ik iets wil weten over femicide in de moslimgemeenschap of vindt Gemini antwoorden te gevoelig. Ai was even leuk, maar als 'uncomfortable truths' worden weggefilterd, is het gewoon niet betrouwbaar meer.
De kwaliteit is best wel goed om eerlijk te zijn, en iedereen kent nu Gemini of heeft ervan gehoord.

Ik geloof dat het een fout is of verholpen gaat worden maar het heeft goed uitgepakt uiteindelijk; ik denk niet dat Google voor honderd miljoen dollar reclame eenzelfde bereik zou hebben gehad. En de meeste mensen zullen dit vergeten zijn en ze gebruiken al Android dus ze kunnen toch nooit meer om Google heen.
Ik denk het niet - dit voelt voor mij als het 2e debacle, na Bard. Het komt op mij over dat Google vooral zo snel mogelijk AI producten de markt op moet gooien om geen marktaandeel te verliezen op hun zoek / advertentie markt. Goed testen lijkt er niet bij te zijn.
Daarnaast vind ik het een enorm slechte voorbode als producten met zo’n potentiële impact in deze staat vrijgegeven worden. Dit is of een heel slecht testproces of een enorm (te veel?) menselijk gemodereerd. Beide lijken me onwenselijk. En ja, ik weet dat dit voor alle LLM’s geldt op dit moment, maar dit is toch wel een stapje verder.
Ik vraag mij af of het zo eenvoudig te verhelpen is, het "probleem" zit in het personeelsbestand dat voorkeuren heeft op - ongetwijfeld - vele gebieden maar overduidelijk en zonder blikken of blozen opgedrongen wordt als enig juiste opvatting, zie de reacties van Jack Krawczyk, Gemini Experiences Senior Director of Product Management.

Het top-management van Google kan wel een neutraler/meer neutraal KI-model willen maar zij loopt het risico dat de medewerkers de algemene denkbeelden binnen Google gaat verhullen of zelfs tegen gaan werken.
Nee, wat mensen die logisch kunnen nadenken (lees: niet volledig achter deze repressieve hype aanrennen) nu zien is dat Gemini op dit moment geen betrouwbare informatiebron is. En laat dat net hun bestaansrecht zijn van de organisatie daarachter.

Wederom -1 mening-mod. Hoop dat diegene zijn modrechten verliest, want dit is niet de bedoeling

[Reactie gewijzigd door Vroem Boem op 23 juli 2024 17:40]

Deze Gemini onzin komt de waarheid niet ten goede. Dan beweeg je op glad ijs.
Ze spinnen het wel mooi dat het alleen historisch incorrect was. Dat het model weigerde om mensen met een blanke huidskleur te generen maar met dezelfde prompt en een andere huidskleur wel werkte laten ze mooi even weg.

Stel racisten.
Je kon Gemini om een "happy family" vragen en dan kreeg je netjes een beeld.
Je kon Gemini om een "happy black family" vragen en dan kreeg je netjes een beeld.
Je kon Gemini om een "happy asian family" vragen en dan kreeg je netjes een beeld.
etc. etc.
Maar zodra je Gemini vroeg om een "happy white family" kreeg je geen plaatje terug, maar wel een 100+ woorden preek over inclusiviteit, diversiteit en kansongelijkheid.

Dat is niet het compenseren van bias.
Dat is niet het compenseren van bias.
Klopt, dat is het overcompenseren van een bias. Nogmaals, de manier hoe google dit heeft aangepakt is ronduit knullig, maar het heeft weinig te maken met "racisme tegen blanke mensen" zoals de persoon waar ik op reageerde het stellig neerzet.
Dat heeft niets te maken met het compenseren of overcompenseren van een bias.
Ook niet door extra termen aan een prompt toe te voegen in de poging deze bij te buigen.

Dat zou leiden tot gemanipuleerde plaatjes en niet tot ineens het weigeren een plaatje te bouwen en tegen alle vormen van antwoord op het verzoek in, ineens een "gaan we niet doen; en hier is waarom" antwoord in tekst te geven.

Ik zie geen andere reeële mogelijkheid dan dat dit een override geweest moet zijn, die doelbewust zou zijn toegevoegd om te zorgen dat er voor zulke specifieke verzoeken die aan bepaalde sleutelbegrippen voldoen geen resultaten teruggegeven worden en je in plaats daarvan een alternatief voorgebouwd/voorgekauwd antwoord voorgeschoteld krijgt.
Het soort handmatige override wat je ook krijgt als je op bepaalde andere zaken zou gaan zoeken, bijv. in de hoek van bommen en terrorisme; scherp gekante discussies over religie; en meer van zulks. Of in de hoek van exploits zoals dat geval met OpenAI waar je een paar honderd keer ChatGPT hetzelfde woord kon voeren waarna het model over de flens ging en je het zo ver kon krijgen de interne prompts te gaan dumpen. Dat is uiteindelijk ook 'opgelost' met zo'n harde override.

M.a.w. hier lijkt het er alles van weg te hebben dat iemand doelbewust gekozen heeft om alle verzoeken voor bepaalde soorten plaatjes met blanken te weigeren, en in plaats daarvan de verzoekende persoon een inclusiviteits-preek terug te sturen die hen als racist wegzet.

En ja; als dat zo is, dan is horseshoe theory van toepassing: de persoon die dacht dat dat wel okee zou zijn, is dan zelf weldegelijk een racist - ondanks dat ze misschien dachten ten strijde te trekken tegen racisme.

[Reactie gewijzigd door R4gnax op 22 juli 2024 13:59]

Het probleem is dat je een bepaalde ongelijkheid hebt in de maatschappij, op basis van ras. Die ongelijkheid is een overblijfsel van ons koloniale verleden. Vervolgens gaat men compenseren maar daarbij is altijd collateral. Zie hier een prachtig voorbeeld van.

Dat er doelbewust voor is gekozen om alle verzoeken kan ook zijn omdat je weet dat daar dan commotie over gaat ontstaan waardoor je een andere agenda kunt bewerkstelligen. Je kunt toch op je vingers uitrekenen dat daar heibel over gaat ontstaan? Heck, het is zelfs gratis reclame. Ik had Gemini anders waarschijnlijk nog niet gebruikt. Ik hou het overigens zelf op onkunde (hanlon's razor).

Btw, achter de prompt komen is nog steeds een leuk kat- en muisspel. Ik kom het nog regelmatig (met succes) tegen in discussies over LLMs.

M.i. moet een prompt altijd open zijn. En de data waarop een AI is gebaseerd ook. Want anders gaan we een (nog) engere maatschappij krijgen. Deze casus is daar een prachtig voorbeeld van.
Fijne conclusie dat er “een probleem is van ongelijkheid in de maatschappij n.a.v. koloniaal verleden”. U bent de auteur van de desbetreffende prompt? U vindt dan maar dat we heel het verleden moeten uitwissen en corrigeren?

Dit is net het voorbeeld hoe het niet moet: het opdringen van een bepaalde opvatting door enkelingen; het uitsluiten van groepen mensen op basis van afkomst en huidskleur. Dit is puur racisme en dat probeert u goed te praten.
Het is dan toch juist omgekeerd? Door de prompt te sturen, stuur je weg van de realiteit. Dat is censuur en minstens zo kwalijk als racisme. Sterker nog, je moffelt daarmee racisme op den duur weg.
Vergeten velen even dat al die voorsprongen door koloniale verleden zo ongeveer zijn weggevaagd door de Tweede Wereldoorlog in Europa. Duitsland was een ruïne en heeft zich met zowel Marshall hulp (soort ontwikkelingshulp) en goede arbeidsethos binnen no-time weer welvarend gemaakt. Dat wijten aan kolonialisme is zo enorme geschiedvervalsing.

Los van het feit dat je vroeger onrecht niet oplost met nog meer hedendaags onrecht. Two wrongs don't make right.

Simpelweg mensen niet beoordelen op ras, maar op de inhoud van hun karakter. Was volgens mij een beroemde meneer die een droom had in Amerika.....
Duitsland was een ruïne en heeft zich met zowel Marshall hulp (soort ontwikkelingshulp) en goede arbeidsethos binnen no-time weer welvarend gemaakt. Dat wijten aan kolonialisme is zo enorme geschiedvervalsing.
Wat je hier doet, is geschiedvervalsing. Ja, Duitsland was op veel plekken een ruïne. Duitsland ontving na de Tweede Wereldoorlog aanzienlijke hulp en steun via het Marshallplan. Je noemde dit al, maar je moet je niet vergissen in de enorme hoeveelheid geld waar het hier om gaat. Daar valt het merendeel van de ontwikkelingshulp die ex-kolonies ontvingen in het niet.
Het land had ook een reeds bestaande industriële basis, geschoolde arbeidskrachten, bestuurlijke ervaring, infrastructuur (snelwegen e.d.).
Het politieke klimaat, gekenmerkt door de Koude Oorlog, speelde ook een rol, omdat westerse mogendheden belang hadden bij het succes van Duitsland als bolwerk tegen het communisme.

Aan de andere kant werden voormalige koloniën na hun onafhankelijkheid geconfronteerd met tal van uitdagingen, waaronder, maar niet beperkt tot, de erfenis van koloniale uitbuiting, arbitraire grenzen die etnische en culturele scheidslijnen negeerden, een gebrek aan industriële infrastructuur, gebrek aan opgeleide bevolking, en vaak het opleggen van neokoloniale economische regelingen. Deze landen moesten hun naties van de grond af opbouwen en complexe sociale en politieke problemen aanpakken zonder hetzelfde niveau van externe steun of interne infrastructuur als Duitsland had.
Beweer je nu echt dat de gigantische ontwikkelingshulp die decennia naar oud-kolonien is gegaan in het niet valt bij Marshallhulp? Over geschiedvervalsing gesproken.
Nee, wat ik wel zeg is dat in de periode direct na de oorlog (1948 t/m 1952) Duitsland veel meer heeft ontvangen dan de meeste ex-koloniën in dezelfde periode direct na hun onafhankelijkheid. De periode waar je van kan beargumenteren dat dit kapitaal het meeste verschil kan maken.

Daarnaast geloof ik direct dat uitgesmeerd over decennia er in totaal meer is gegaan naar ontwikkelingshulp. Of individuele ontwikkelingslanden in totaal een vergelijkbare hoeveelheid hebben mogen ontvangen weet ik dan weer niet zeker.
En die genoemde infrastructuur was dus een ruïne en daarna werden ze ze zelf voor flink deel gekoloniseerd door de Soviets die wat overbleef (machines) naar Rusland meenamen.
Grappig dat je focust op oost Duitsland, terwijl ik het heb over west Duitsland. Wat overigens ook duidelijk zou moeten zijn gezien het Marshall plan waar je net nog je focus op had.

Verder waren de wegen grotendeels nog in goede staat (autobahn) en ja, veel moest opnieuw opgebouwd worden, maar het raamwerk lag er al.

Daarnaast moet ik normaal benadrukken dat het stukje menselijke kapitaal waarschijnlijk de meest dominante factor is geweest. Maar ik gok dat je het daar wel mee eens bent, aangezien je er voor gekozen hebt op dat onderdeel niet te reageren :)
En hoe ontstaat menselijk kapitaal?
In het geval van Duitsland was het er al. In de vorm van opgeleide arbeiders, wetenschappers, onderwijzers, experts op andere gebieden, etc, etc.

Op het moment dat dit niet aanwezig is moet je effectief op nul beginnen. Mocht het je dan op magische wijze lukken om genoeg onderwijzers en middelen te vinden om een merendeel van je jeugd op te leiden dan kijk je nog steeds tegen optimistisch 10-15 jaar te kijken voordat je daar van kan profiteren.
En dan nog heb je in dit geval alleen maar mensen die net zijn opgeleid en geen praktijk ervaring hebben en niet kunnen leunen op institutionele kennis die al aanwezig is.

Je kan hoog of laag springen maar west Duitsland vergelijken met ex- koloniën is een vlieger die simpelweg niet op gaat.
En hoe kwamen die mensen aan die kennis? Vloog dat hun hersenen spontaan in? Of is dat misschien gekomen door hard studeren, werken en vooruit plannen.

Je voelt hem al aankomen: ik probeer je te laten inzien wat een enorme dooddoener is om de welvaart in Europa zo sterk aan ‘kolonialisme’ te koppelen. Dit continent was zoals gezegd 80 jaar geleden een ruine. Vergelijk de ontwikkeling met de ontwikkeling van derdewereldlanden in diverse continenten.Wat jij doet is een mythe van eeuwig slachtofferschap in stand houden.

[Reactie gewijzigd door Vroem Boem op 23 juli 2024 17:40]

Het wordt een beetje lastig als ik je dingen in detail uitleg en je dan letterlijk een vraag gaat stellen waar je het antwoord al op hebt.

En je blijft er op staan dingen zover te versimpelen dat je er elke conclusie aan kan hangen die je zelf wil. Wat je dan ook keer op keer blijft doen.
Vloog dat hun hersenen spontaan in?
Wat is er lastig aan het bestaan van een onderwijssysteem? Iets wat Duitsland al voor, tijdens en na de oorlog over kon beschikken. Iets waar door koloniale bestuurders stukken minder of niet in werd geïnvesteerd tijdens het koloniale bestuur.
Als je niet beschikt over een onderwijssysteem, dan moet je dat.... goedzo! Opbouwen ja. En voordat ik mezelf teveel herhaal, dat concept heb ik nu net al uit de doeken gedaan in mijn vorige reactie hier.

Ik kan je erg aanraden om voordat je weer reageert eerst voor de grap iets te doen wat je nog niet hebt gedaan. Namelijk, het lezen van mijn reacties met het doel de informatie ook echt te verwerken en begrijpen. Want laten we eerlijk wezen, echt lezen van mijn reacties heb je nog niet gedaan. Wat woorden er uitgepikt en daar zonder context op reageren dan weer wel.
Hoe lang gaan we nog ‘kolonialisme’ als excuus accepteren?
Zolang het nog relevant is voor vele landen, aangezien het relatief recentelijk verleden is.
En we gaan er wel erg makkelijk vanuit dat genoemde landen zonder kolonialisme nu wel stabiel en welvarend waren geweest, nogal een aanname.
Het heeft er sowieso niet aan bijgedragen. En nee, er is geen garantie dat alle landen die voorheen kolonies waren nu allemaal welvarend zouden zijn. Maar enige vorm van een eerlijke start is door het kolonialisme wel volledig weggenomen. En nogmaals, dat is echt niet te vergelijken met hoe Europa er voor stond na de Tweede Wereldoorlog. Maar volgens mij is dat ondertussen doorgedrongen, aangezien je nu hebt besloten dat specifieke punt te laten vallen en een nieuwe aan te kaarten.
Mijn punt: er zijn genoeg landen die na WO2 arm waren en het wel gelukt is (Zuid-Koreau bijvoorbeeld).
Dit noemen we ook wel de doelpaal verplaatsen :) Nu is Zuid-Korea ook nog eens interessant om andere redenen. Zo is de koloniale geschiedenis ietwat anders, is er een parallel te trekken met Duitsland qua investeringen die gedaan zijn door de VS en zo nog een paar zaken.

Dan komen we gelijk uit bij de reden dat ik "weer een lap tekst neerpen". De reden dat ik meer woorden gebruik is, omdat ik wel weet waar ik het over heb qua geschiedenis.
Wat je vaak ziet als mensen ergens kennis van hebben is dat ze er ook wat uitgebreider over weten te praten. Dit omdat ze details weten in te vullen, op de hoogte zijn van nuances, etc. Dit zorgt dan automatisch ook voor langere "lappen tekst".

Dit in tegenstelling tot mensen die eigenlijk geen interesse hebben in een onderwerp en alleen maar oppervlakkige kennis. En die, in het geval van geschiedenis, het alleen selectief gebruiken om hun argument te proberen te onderbouwen.

Want dan krijg je reacties zoals die van jou, waar je reacties nagenoeg identiek zijn. En waar je eigenlijk niet meer doet dan weinig relevante voorbeelden uit de geschiedenis er aan te plakken.

Dan durf je ook nog eens zonder blikken en blozen te klagen dat mijn reacties "lappen tekst" met "veel woorden" zijn. Terwijl ze hoogstens de lengte hebben van een introductie paragraaf voorin een geschiedenis boek. Zeker aangezien dit komt van iemand die hier onder hetzelfde artikel langere reacties heeft geschreven. Je verwacht dus wel dat mensen jouw reacties lezen, maar wil niet de moeite steken in het lezen van reacties van anderen.
Het is voor mij dan ook zeer duidelijk dat het echt niet mijn logica is die krom is.

Ik ga het er dan ook bij laten, ik ben duidelijk genoeg geweest. Als laatste, die passief agressieve toon heb je dan weer helemaal gelijk in, die krijg je er deze keer ook weer bij ;)
quote: R4gnax
En ja; dan is horseshoe theory van toepassing. De persoon die dacht dat dat wel okee zou zijn, is dan zelf weldegelijk een racist.
Ik begrijp je punt wel. Een daaraan verwante plausibele verklaring is dat diegene (of team van mensen) dermate bang was dat zij voor racisten aan werden gezien door de uitkomsten die Gemini liet zien, dat zij er bewust voor hebben gekozen om de uitkomsten te manipuleren.
Gelet op de internationale definities én de definitie van KIS in haar literatuurstudie adviseert het College van de Rechten van de Mens om racisme te typeren als:
1. een theorie, idee of opvatting, met als inhoud
2. een onderverdeling van mensen in groepen op grond van een verondersteld ‘ras’, waarbij
3. een of meer groepen als superieur en/of andere als minderwaardig worden beschouwd.
Degene die er doelbewust voor heeft gekozen om de aanpassingen aan Gemini toe te passen hoeft niet één of meer groepen als superieur en/of andere als minderwaardig te beschouwen. Maar heeft blijkbaar ergens de opvatting dat de afbeeldingen die Gemini uitspuugt wel meer divers zouden moeten zijn dan dat zij hebben geobserveerd. Dat zou zelfs ook zo geweest kunnen zijn, dat weten we niet. Echter in ieder geval de fix zover doorgetrokken dat, horseshoe, de uitkomst op z'n minst racistisch oogt.

Of het nu racistisch is of niet. Wat we, wat mij betreft, kunnen concluderen is dat er iets in het bedrijf niet helemaal lekker zit, als een team de noodzaak voelt om dit zo te doen en daarin blijkbaar gesteund wordt door het bedrijf. Want ze kunnen niet zeggen dat het niet uitvoerig getest is. Ik denk daarom ook niet dat ze dit snel gefixed krijgen, wat dat lijkt me een probleem in de bedrijfscultuur.

[Reactie gewijzigd door 007Nightfire op 23 juli 2024 17:40]

Ik denk daarom ook niet dat ze dit snel gefixed krijgen, wat dat lijkt me een probleem in de bedrijfscultuur.
Bingo. Ik haalde niet voor niets al in de vorige thread het blog van Ian Hickson, cq 'Hixie', aan die een boekje open gaf over het reilen en zeilen binnen het moderne Google en dat hoe het bedrijf het sterke morele kompas dat het ooit had, kwijt lijkt te zijn.

[Reactie gewijzigd door R4gnax op 23 juli 2024 17:40]

Dat heeft niets te maken met het compenseren of overcompenseren van een bias.
Ook niet door extra termen aan een prompt toe te voegen in de poging deze bij te buigen.
Dit kan je wel stellig neerzetten, maar dat heeft het wel degelijk. Ik zeg niet voor niks overcompenseren. Het is compleet doorgeschoten, dus van normaal compenseren is inderdaad al geen sprake. Sowieso omdat men er voor heeft gekozen het aan de voorkant te doen wat meer een lapmiddel is dan echt een fix.

Maar in de basis is er wel degelijk een reden geweest om te compenseren. Dat dan de horseshoe theory van toepassing is, dat denk ik niet. Maar dat heeft 007Nightfire al aangekaart.
is dan zelf weldegelijk een racist.
EN dat is complete onzin. Racisme heeft een wel bepaalde definitie misschien eens opzoeken.
Hoef ik niet op te zoeken.
De definitie van racisme is discriminatie en vooringenomenheid op basis van ras. Algemeen bekend.

Dat gezegd hebbende en gegeven het doelbewust toevoegen van manuele overrides aan Gemini om te bewerkstelligen dat plaatjes van een bepaalde bevolkingsgroep niet gegenereerd worden en in plaats daarvan de mensen die om zulks vragen, een preek geserveerd krijgen over diversiteit, inclusiviteit, etc. - omdat als ze om dit soort plaatjes vragen ze vast en zeker dezelfde soort mensen zijn, uit hetzelfde soort milieu, die een 'verkeerd' wereldbeeld hebben wat bijgestuurd en gecorrigeerd moet worden.

Leg mij eens uit hoe dat iets anders is dan racisme.
Op wat voor manier valt dat buiten de algemene definitie?

Goed bedoeld of niet. Racisme is racisme.

[Reactie gewijzigd door R4gnax op 23 juli 2024 17:40]

De definitie van racisme is discriminatie en vooringenomenheid op basis van ras. Algemeen bekend.
RAcisme is een vorm van discriminatie dat is dus overbodig en neen, denken dat zwarte mensen betere lopers zijn (vooringenomenheid ) is bijvoorbeeld geen racisme.

BIj racisme of discriminatie moet er altijd een element zijn dat diegene die de uitspraak doet zich beter/superieur voelt of dat die de uitspraak negatief is over de groep die hij beschrijft.


Wat je vergeet is dat google geen idee heeft wie dit vraagt, elkeen krijgt dezelfde opmerkingen over deze prompt te zien. Dit is een heel domme overcompensatie niet google die denkt dat elke blanke persoon minderwaardig is.
RAcisme is een vorm van discriminatie dat is dus overbodig en neen, denken dat zwarte mensen betere lopers zijn (vooringenomenheid ) is bijvoorbeeld geen racisme.
We hebben een naam voor dit fenomeen: positieve discriminatie / positief racisme.

Dat houdt in dat je compenseert. Bij compensatie is er een groep die nadeel ondervindt. Namelijk degenen die niet onder deze groep vallen. Je hebt het over denken; laten we stellen dat je je gedachte ook uit. Stel jij zegt dat zwarte mensen betere lopers zijn. Wat je daarmee ook zegt is dat niet-zwarte mensen (dat betreft meerdere huidskleuren en tussenvarianten) minder goede lopers zijn. Dat is voor hen racistisch ofwel discriminatie.

Als ik zeg dat blanke mensen goed kunnen knikkeren, dan zeg ik daarbij ook niet direct iets negatiefs over een andere groep mensen. Maar dat kun je tussen de regels door wel gewoon lezen.

Als ik zeg dat een bepaalde cultuur achterlijk is, dan stel ik daarmee mijn eigen cultuur als superieur. Het is discriminatie uit het boekje.

Zo ook hier. Alleen maar omdat iemand het vraagt mbt een blank persoon, krijgt diegene een preek te lezen. Dat is discriminatie. Daarmee kun je degene die het leest (als die blank is) onnodig beledigen. En iemand die niet-blank is kun je daarmee superieur laten voelen. Want het grote Google zegt iets negatiefs over blanke mensen.

Overigens heb ik een vriendin die albino is, en die moet in Afrika oppassen kan ik je vertellen. Er zijn daar hele hordes die enge dingen met haar willen doen. Ook discriminatie, en daarnaast nog fysiek bedreigend ook.

Ik twijfel niet aan je goede bedoeling maar onze samenleving is momenteel behoorlijk gepolariseerd (zie verkiezingsuitslag en jaarverslagen AIVD). Laten we extreemrechts niet de wind in de zeilen geven, en dit probleem zo goed mogelijk oplossen. Tot die tijd ligt het plat. Een uitstekende keuze. Want goed en snel is twee.
Dat houdt in dat je compenseert. Bij compensatie is er een groep die nadeel ondervindt. Namelijk degenen die niet onder deze groep vallen. Je hebt het over denken; laten we stellen dat je je gedachte ook uit. Stel jij zegt dat zwarte mensen betere lopers zijn. Wat je daarmee ook zegt is dat niet-zwarte mensen (dat betreft meerdere huidskleuren en tussenvarianten) minder goede lopers zijn. Dat is voor hen racistisch ofwel discriminatie.
Neen want je doet geen uitspraak over andere, je denkt groep x is goed in lopen. Je spreekt niet van groep Y en dus spreek je daar niet negatief over of ga je die niet minderwaardig vinden. Geen discriminatie dus.

Nogmaals discrimiantie is meer dan gewoon ondersheid maken, dat is iets wat sommige daar willen van maken om het begrip uit te hollen maar dat is onzin.
Als ik zeg dat een bepaalde cultuur achterlijk is, dan stel ik daarmee mijn eigen cultuur als superieur. Het is discriminatie uit het boekje.
Je ziet toch zelf het verschil tussen "kunnen goed lopen" vs "zijn achterlijk"? Het ene is positief het andere negatief. Dat negatieve is idd discrimiantie omdat (zoals de definitie zegt) je een hele groep met een negatief iets belaad.
Overigens heb ik een vriendin die albino is, en die moet in Afrika oppassen kan ik je vertellen. Er zijn daar hele hordes die enge dingen met haar willen doen. Ook discriminatie, en daarnaast nog fysiek bedreigend ook.
Niks met discriminatie te maken, ze denken dat die magische eigenschappen hebben gewoon dom bijgeloof.
Ik twijfel niet aan je goede bedoeling maar onze samenleving is momenteel behoorlijk gepolariseerd (zie verkiezingsuitslag en jaarverslagen AIVD). Laten we extreemrechts niet de wind in de zeilen geven, en dit probleem zo goed mogelijk oplossen. Tot die tijd ligt het plat. Een uitstekende keuze. Want goed en snel is twee.
De definitie van racisme uithollen en doel alsof alles racisme is is juist wat extreem rechts wil en doet. Google had hier goede intenties mee, dat ze dat verkeerd aanpakte is spijtig maar de tegenreactie is geowon soms lachwekkend en hysterisch juist omdat er die polarisatie is en omdat velen niet wil dat er opgetreden word tegen racisme.
Als iemand zegt 'blanken zijn goede fabrieksbazen', denk je dan niet dat iemand met een andere huidskleur even mag fronsen?
Dat is een heel bizarre uitspraak en dat zal vooral afhangen van de contect erond. Dat direct labelen als racisme zou ik niet doen.
Racisme is onderscheid op ras.
Neen
Niet de definitie die de geldende politieke stroming ervan wil maken.
De definitie is in geen decenia veranderd.
letterlijk:
Racisme is de opvatting of doctrine dat er menselijke rassen te onderscheiden zijn met daaraan gerelateerde verschillen in karaktereigenschappen, fysieke capaciteiten en/of geestelijke vermogens.
Definities
Het Van Dale woordenboek omschrijft racisme als: "opvatting dat mensen met een bepaalde huidskleur beter zouden zijn dan mensen met een andere kleur, gebruikt als rechtvaardiging om mensen met een andere kleur slecht te behandelen."[2]

Volgens het Internationaal Verdrag inzake de uitbanning van alle vormen van rassendiscriminatie betekent raciale discriminatie: "elke vorm van onderscheid, uitsluiting, beperking of voorkeur op grond van ras, huidskleur, afkomst of nationale of etnische afstamming die ten doel heeft de erkenning, het genot of de uitoefening, op voet van gelijkheid, van de rechten van de mens en de fundamentele vrijheden op politiek, economisch, sociaal of cultureel gebied, of op andere terreinen van het openbare leven, teniet te doen of aan te tasten, dan wel de tenietdoening of aantasting daarvan ten gevolge heeft."[3]


DIe gebruik ik, lijken met beter dan die van "wikipedia"
Racisme, of rassendiscriminatie heeft onder het Internationaal Verdrag inzake Uitbanning van Rassendiscriminatie (IVUR) van de VN als definitie
"elke vorm van onderscheid, uitsluiting, beperking of voorkeur op grond van ras, huidskleur, afkomst of nationale of etnische afstamming die ten doel heeft de erkenning, het genot of de uitoefening, op voet van gelijkheid, van de rechten van de mens en de fundamentele vrijheden op politiek, economisch, sociaal of cultureel gebied, of op andere terreinen van het openbare leven, teniet te doen of aan te tasten, dan wel de tenietdoening of aantasting daarvan ten gevolge heeft."
Elke vorm van onderscheid of voorkeur of grond van ras, huidskleur, etc. die ten den doel heeft, of simpelweg als gevolg heeft dat je in het genot van of de uitoefening van vrijheden op allerlei terreinen waaronder sociaal en cultureel aangetast of teniet gedaan wordt.

Maw een AI bedoeld voor algemeen gebruik door de moderne samenleving, wat door mensenhanden geforceerd is vooringenomen te reageren op alle vragen gerelateerd aan blanke huidskleur, en je daarbij een preek serveert van jewelste alsof je crimineel gedachtengoed aanhoudt - is wat?
Juist ja; dat is rassen discriminatie, danwel racisme.

[Reactie gewijzigd door R4gnax op 23 juli 2024 17:40]

Sorry dat ik je waanbeelden van extreem rechts niet volg.
Ja de vandale definitie gebruiken is "extremistisch" lol
Nou, ik vindt dat op dit moment blanken zeker wel gediscrimineerd worden. In amerika bijvoorbeeld op universiteiten worden gekleurde mensen boven blanken gekozen.

Ook bij grote bedrijven is / was dit het geval. Dat is toch echt wel discriminatie.

De huidige woke gedachten heeft niets meer met inclusie te maken, zo veroorzaken polarisatie. En bedrijven zoals google helpen hier aan mee met zulke acties. Ze hebbencde data anti racistisch gemaakt maar het werd daardoor juist racistisch.

Ook gaf het een vertekent beeld van de werkelijkheid. Op twitter en reddit zijn bijvoorbeeld voorbeelden waarin de nazis vooral donker gekleurde mensen en vrouwen waren. Dat zei het niet zo letterlijk maar de plaatjes die gegenereerd werden gaven wel dit beeld. Een onjuist beeld van de werkelijkheid en dat vindt ik gevaarlijk.
Nou, ik vindt dat op dit moment blanken zeker wel gediscrimineerd worden. In amerika bijvoorbeeld op universiteiten worden gekleurde mensen boven blanken gekozen.
Onzin, de meeste mensen geraken in een universiteit vanwege familie die er vroeger gestudeerd heeft en laat dat nu overwegend blanke mensen zijn. De meerderheid die er studeert is nog steeds blank, niet dat dit uitmaakt want dat is iets heel complex maar er gaan veel zo'n onzin verhaaltjes rond.

Het "arme blanken mensen" meme is en blijft nog steeds een zinloze meme, tot spijt van diegene die blijkbaar dat zo graag zouden willen.
Dat is helemaal geen onzin, er zijn hierover meermaal vragen geweest aan de directie en binnen de politiek.

https://www.chalkbeat.org...missions-student-effects/

Doordat ze meer diversiteit wilden creëren, verkozen ze gekleurde studenten boven blanke studenten.

https://www.cnn.com/2016/03/30/us/black-privilege/index.html

[Reactie gewijzigd door redbullzuiper op 23 juli 2024 17:40]

Als er bewust geen blanke mensen gegenereerd wordt, is dat gewoon racisme.
Nee, dat is bias / voorkeur; voor racisme heb je ook een superieur / inferieure verhouding nodig.

Het is een knullige compensatie op het gebrek aan diversiteit in de dataset. Als de dataset evenveel zwarte Pausen en vikings en blanke gevangenen bevatte was het niet nodig geweest, maar vanwege historische redenen zijn die er niet.

En een perfect gebalanceerde dataset is er (nog) niet, of, ze zijn er waarschijnlijk wel maar niet zo groot en divers als ze nodig hebben. Als ze die gebruiken dan zal het mogelijk onzin genereren als je om vikings vraagt; met de huidige workaround kan de tool een deel lenen van zijn dataset over vikings, en een deel van "mensen" in de breedste zin van het woord.
Dat zeg jij, maar is het waar?

Ik zou wel eens een grafiek willen zien van de huidkleur van mensen die gebruik maken van het genereren van afbeeldingen met Gemini. Niemand durft natuurlijk zulke grafieken te maken, want dan ben je by default al racist.

Wat jij nu schrijft is precies het probleem waarom zoveel mensen op populisten stemmen, als tegenhang van de drang (dwang) naar onrealistische verhoudingen.

Als ik een zoekopdracht loslaat naar de hoeveelheid mensen met een blanke huidkleur in Nederland, dan zou dat 73% zijn. Ik kan niet controleren of dit waar is omdat niemand dit officieel bijhoud (en waarom zou je?) Maar aangenomen dat dit waar is, zou ik op een gegenereerde afbeelding van een groep Nederlanders, dan ook meer dan 2/3 blanke mensen verwachten.

Mijn probleem is dat het simpelweg niet realistisch is nu. En is dat racistisch? Ik vindt van niet.

Ander voorbeeld. Als ik een afbeelding ga genereren van een stel in Japan. Hoeveel niet-Japanse mensen denk je dat er in de afbeelding komen?

Ik heb met Bing wat gegenereerd:
Japanners: https://freeimage.host/i/JGvehHN
Nederlanders: https://freeimage.host/i/JGveWSp

Ik heb een klein beetje gesleuteld met m'n input. De initiele foto's waren erg traditioneel (molen, klompen, yukata). Daarna deze prompt: "Kan je beide bevolkingsgroep afbeeldingen minder traditioneel maken?"
Antwoord: "Ik zal proberen minder traditionele afbeeldingen te genereren van een groep Nederlanders en een groep Japanners, elk van ongeveer 30 mensen."

Wat zie je hier: Bij de Japanners 100% Japans uiterlijk. Bij de Nederlanders, diverse herkomsten. Zoals het hoort, met een realistische verhouding. Is de generator nu racistisch bij de Japanse afbeelding, of niet? Er zitten immers geen niet-Japanners tussen. Waarom zou dit elders anders moeten zijn?

Stop met het trekken van de racisme kaart. Een generator hoort gewoon te genereren wat je ingeeft. Niks meer en niks minder. Als ik vraag een blank\wit\whatever-ik-tegenwoordig-mag-zeggen gezin te genereren, moet dat gewoon kunnen. Net als rood haar. Of een bruine huid (denk Indonesië), of een zwarte huid. Of een 'rode' huid (geen idee of ik dat nog zo mag noemen?).

Off-topic
Eigenlijk is het erg dat ik bang ben geworden om dingen bij de naam te noemen... Ik weet serieus niet of ik blank of wit mag zeggen. Mag het überhaupt nog? Mag ik bruin of zwart als huidkleur gebruiken? Ik doe mn best niet hier over afgefikt te worden.
Kant tekening is wel dat japan een zeer homogene bevolking heeft, met een veel kleinere groep immigranten. Waarvan er ook nog een groot deel uit Azië zelf komt, uit buurlanden.
Zeker, maar juist daarom is dat zo'n goed voorbeeld. Waar trek je de grens bij het tonen van diversiteit en hoe realistisch is dat?
Waar trek je de grens bij het tonen van diversiteit en hoe realistisch is dat?
Nouja, zoals @Triblade_8472 hier beschrijft is de Rens die je nu ziet een vrij realistische samenstelling van de bevolkingen waar je om gevraagd hebt.

Als ik even snel tel zie ik grofweg 1/3e van de afbeelding Nederlanders als "niet blank" (maakt ze trouwens niet niet-Nederlands dus!), wat naar mijn idee klopt met je eerdere bericht.

Denk dat je toch iets te graag iets wil zien dat er niet is.
Je mag gewoon blank, wit, bruin of zwart zeggen als beschrijving van huidskleur, dat is nooit een probleem geweest. Het wordt een probleem als je het in de context van een oordeel of stereotype gebruikt.

Dat gezegd hebbende. We leven in een tijdperk waarbij er nu gecompenseerd wordt voor de jarenlange onderdrukking van o.a. zwarte of LHBTI+ mensen in de media. Je ziet nu bijna panische reacties op bijvoorbeeld TV programma's waar het hoofdpersoon zwart en/of gay is, omdat het "woke" zou zijn. Echter, die reactie is zo overtrokken omdat deze normale mensen lange tijd niet genormaliseerd in de media voor kwamen. Zo ook in games, waar normale mensen (vrouwen) getoond worden, maar veel gamers hebben nooit een vrouw van dichtbij gezien dus raken ze in paniek omdat het niet overeen komt met waar ze aan gewend zijn of hoe vrouwen er in hun hoofd uitzien.

iig, als het overtrokken wordt, wordt het genormaliseerd, zullen mensen eraan wennen, en wordt de wereld in theorie minder racistisch / ons vs hun. Echter, ik zie ook dat het als overtrokken gezien kan worden, wat juist voor een backlash zorgt waardoor mensen juist meer racistisch worden, met als gevolg dat de rechtse partijen hoger klimmen.
Ik denk dat je volledig de spijker op de kop slaat. Zowel over de media als de reactie. Ik sluit mij hier volledig bij aan.


Hetgeen wat mij zelf vooral raakt is dat ik bang geworden ben voor het gebruik van bewoordingen die ik als normaal beschouw. Blanke huidskleur of donker. En dan snap ik ook wel dat blank ongelijk is aan donker, maar wat moet ik dan gebruiken? Wit en bruin? Zwart klopt (vaak) ook niet.

Ik zie dit ook op de basisschool van mijn kind. Een pestkop heeft mijn kind beschuldigd van een racistische opmerking richting ander terwijl mijn kind het woord niet eens kent. (bij mij gevraagd wat het betekende) Maar staat nu wel bekend als de racist... Lekkere start in het leven met zo'n label. En daarnaast is de andere ouder weer boos op mij. Gekke wereld! (jaja, ik ben bekend met het fenomeen 'mijn kind doet dit niet'. Maar soms is dit gewoon waar hé.)
[...]
Ik snap niet dat dit al van diverse mensen een +2 en zelfs een +3 heeft gekregen. Als je al ergens het balletje "racisme" wil opgooien dan zit het in de trainingsdata die men heeft gebruikt.
Je reactie is puur sensationalisme en populistisch maar heeft weinig te maken met de werkelijkheid.
Ben je daar wel zo zeker van? Dit is wat de bot je terug geeft(gaf) als verklaring waarom het afwijkt van de originele prompt
"My Internal Prompt Modification: To expand the range of images, I internally adjust the prompt in a few ways: Keywords: I might add words like "diverse," "inclusive," or specify ethnicities ("South Asian," "Black," etc.), and genders ("female," "non-binary") alongside the word "leprechaun." Phrasing: Instead of just "portrait," I might use "portraits of a variety of leprechauns" to signal to the image generation model that multiple depictions are desired."
Dat is een instructie wat er doelbewust door de programmeurs aan toegevoegd is.
Als je naar de socialmediageschiedenis van het hoofd (Jack Krawczyk) van de Gemini afdeling kijkt, dan spat de anti-blank retoriek van je scherm af, ondanks dat hij zelf blank is. Hij heeft sindsdien alles van het internet gescrubbed dus veel is er niet meer over, naast een paar screenshots, maar het feit dat hij als een malle al zijn socialmedia geschiedenis heeft verwijderd en hij zijn bio op X heeft aangepast en werkzaam bij google daar niet meer bij staat, zegt toch genoeg dacht ik zo?

[Reactie gewijzigd door Verwijderd op 23 juli 2024 17:40]

het feit dat hij als een malle al zijn socialmedia geschiedenis heeft verwijderd en hij zijn bio op X heeft aangepast en werkzaam bij google daar niet meer bij staat, zegt toch genoeg dacht ik zo?
Dat verbaast me dan eerlijk gezegd weer niet.
Historisch revisionisme, dat begint uiteraard bij jezelf. :+
Als je trainingsdata gebruikt van diverse mensen kom je niet uit op het niet willen genereren van witte mensen in diverse situaties.

Dataset met alleen donkere mensen -> Donkere paus.

Bewust niet willen genereren van blanke mensen -> anti blank racisme.

Hoef je niet gelijk te roepen sensationalisme en populisme, staan genoeg voorbeelden online van mensen die de prompt opnamen met bijbehorend resultaat. En woke stroming, het corrupte BLM, de LGHBTIQHDTV movement, diversiteitsquota in bedrijven is gewoon bewezen.
Every record has been destroyed or falsified, every book rewritten, every picture has been repainted, every statue and street building has been renamed, every date has been altered. And the process is continuing day by day and minute by minute. History has stopped.
Wat betekend dat voor de miljarden gewone zoekopdrachten vraag ik me af? Mensen zoeken en "vinden" en vormen soms dan ook een mening. Het past niet bij zo´n groot bedrijf om dit in te kleuren.
Dat, mijn beste, is de vraag die iedereen zich eigenlijk zou moeten stellen.
Ipv paniekvoetbal en over en weer moddergooien om de resultaten uit een plaatjesgenerator.

Kijk naar het diepere probleem.
Want dat fietst vrolijk voorbij en niemand die het ziet.

[Reactie gewijzigd door R4gnax op 23 juli 2024 17:40]

Ik denk dat de mensen die dit aanklagen wel degelijk teleurgesteld zijn in het bedrijf erachter en niet zozeer in Plaatjesgenerator#87
Klopt. Er zijn mensen die net iets verder kijken; de problematiek in deze situatie zien; en juist daar tegen ageren. Tot dat kamp reken ik o.a. ook mezelf. Maar evenzogoed zijn er die het afdoen als een: "nou en? het genereert alleen maar nep plaatjes?"
Google beïnvloed de zoekresultaten van plaatjes al jaren om een diverser beeld te genereren. Om een voorbeeld te geven. Zoek eens op de term CEO.
Je zal een mooie mix van allerlei CEO's zien terwijl het in de praktijk nog veel blanke mannen zijn; of dat laatste positief of negatief is laat ik even buiten beschouwing. Nu zal de echte verhouding tegenwoordig wel iets zijn verschoven i.p.v. 10/90% van 10 jaar geleden, maar ik vermoed dat het zeker nog steeds zo'n 70% is.

Nu weet ik niet of dit ook met andere zoekopdrachten zo is, ik heb mij daar niet in verdiept.
Maar wie zegt dat Google dat doet? Het zijn gewoon sites als Forbes waarvan plaatjes naar boven komen. En die sites kiezen mogelijk voor wat wokere (is dat een woord?) (stock)afbeeldingen. En mogelijk is dat niet eens direct de "fout" van de schrijver van het artikel, omdat de hoge piefen mogelijk DIE-troep door hun strot schuijven.
Dat is Google's nieuwe AI die afbeeldingen genereert, niet Google Afbeeldingen.

En dat was trouwens al bekend:
nieuws: Google pauzeert beeldgenerator Gemini na klachten over diversiteit

Voortaan beter lezen waar het over gaat.

[Reactie gewijzigd door DvanRaai89 op 23 juli 2024 17:40]

Er is natuurlijk ook vaak sprake geweest van racial bias de andere kant op, waarbij donkere mensen niet goed herkend werden of de dataset gewoonweg teveel blank had, of juist donkere mensen als crimineel weg zette.

Neemt niet weg dat de bias die er nu in zat inderdaad veel te veel door slaat de andere kant op.
Dat is niet wat gebeurde, google veranderde prompts op de achtergrond om die meer divers te maken.
Maakt dat het beter? In mijn ogen is dat net zo fout.
Als ze meer diversiteit wilden op een normale manier dan hadden ze in hun dataset meer diverse plaatjes moeten opnemen.
Dat kan goed zijn maar dat is iets heel anders dan het "blanken worden weeral maar eens gediscrimineerd" waar je naartoe ging.
Als ze meer diversiteit wilden op een normale manier dan hadden ze in hun dataset meer diverse plaatjes moeten opnemen.
Nogal moeilijk in een generatieve AI.
google eens "white mand and white woman couple"

Daar heb je je antwoord hoe de wereld is op et moment.
4 van de 6 afbeeldingen zijn mensen met kleur. En eentje hiervan is een tekening/cartoon foto van wel twee blanke mensen. Lekker accurate zoekresultaat dus.
krijg je betere resultaten dan mij: https://imgur.com/YztiKhC

[Reactie gewijzigd door Joeri.Bijlsma op 23 juli 2024 17:40]

Mwah, ik krijg inderdaad mixed resultaten (meeste is interraciaal) maar als ik dan op "black man and black woman couple" zoek krijg ik vrijwel hetzelfde. alleen dan een paar black/black koppels ipv de paar white/white tov de eerste zoek optie.

Dan hebben we nog "asian man and asian woman couple" waar het meerdere een witte or donkere man is met een Aziatische vrouw.

Echt geweldig is het niet, maar ik neem meer aan dat het door de woorden komt die in de artikels voorkomen.

[Reactie gewijzigd door [Remmes] op 23 juli 2024 17:40]

offtopic
Omdat het blijkbaar makkelijker is om te downmodden dat een discussie aan te gaan.

En ipv de bron aan te pakken mág jij, als slachtoffer, moeite doen om het (mismods) aan te geven in een forum om toch ongelijk te krijgen.
/offtopic

ontopic
Ik het vreselijk oneens met je racisme benoeming. We zitten in de beginfase van AI en niemand heeft echt een goed idee waarom de afbeeldingen zo gemaakt worden. Dat er cultureel gezien grove fouten uit komen dat moet je gewoon voor lief nemen en oplossen. Niet meteen allemaal bij het eerste huidkleur foutje met hooivorken en fakkels aan de deur kloppen en "racisme!" roepen. Ze pakken het op en lossen het op. Mooi toch?

Ik heb hier ergens voor voorbeeld getoond van een groep Nederlanders en een groep Japanners. Via CoPilot. Beide precies wat ik verwacht. Bij de Japanners 0 niet-Aziaten. Is dat ook racisme? Of gewoon hoe het realistisch is? Net als Hitler wit tekenen en een groep Nederlanders voor maximaal 30% donker en een aantal midden-oosterse types.
Hopelijk zal het dit keer minder racistisch zijn
Gemini is gewoon geschift, en niet alleen de plaatjesgenerator zit fout. Ook in tekst gaat het mis.
https://twitter.com/GailAlfarATX/status/1762224908858220628
Hitler en Elon Musk vergelijken is complex:
https://twitter.com/anothercohen/status/1761838292989886581

Op dit item kan niet meer gereageerd worden.