Google laat Gemini weer beelden van mensen genereren en brengt Gems-chatbots uit

Google Gemini kan vanaf de komende dagen weer afbeeldingen van mensen genereren. Google pauzeerde deze functie in februari, nadat de dienst historisch onjuiste afbeeldingen maakte. Het bedrijf zegt deze functie de afgelopen maanden te hebben verbeterd.

De generatieve AI moet 'vanaf de komende dagen' weer beelden van mensen kunnen genereren, mits gebruikers Engelstalige prompts invoeren en Gemini Advanced, Business of Enterprise hebben. Google spreekt over een early access-versie en zegt technische verbeteringen te hebben doorgevoerd. De AI kan geen echte mensen nabootsen en maakt ook geen gewelddadige of seksuele afbeeldingen. Tegelijkertijd benadrukt Google dat de tool niet perfect zal zijn, 'net als elke generatieve AI-tool'.

Gemini kon eerder al afbeeldingen genereren, maar stopte hier in februari mee omdat de dienst historisch onjuiste afbeeldingen maakte. Zo maakte de dienst afbeeldingen van nazisoldaten, Vikingen of grondleggers van de Verenigde Staten met personen met verschillende etnische achtergronden, terwijl deze historische figuren veelal witte mensen waren. Google gaf aan 'enkele weken' nodig te hebben voordat Gemini weer afbeeldingen van mensen zou kunnen genereren; uiteindelijk blijkt dit een half jaar te zijn.

Naast het maken van afbeeldingen van mensen, updatet Google de afbeeldingengenerator tot Imagen 3. Voorheen was dit Imagen 2. Imagen 3 moet afbeeldingen in hogere kwaliteit kunnen maken en verschillende stijlen kunnen aanhouden, zoals fotorealistische landschappen, olieverfschilderijen of 'speelse klei-animatiescènes'.

Imagen 3 Gemini Google vergelijking Imagen 2
Een vergelijking van Google tussen Imagen 2 en Imagen 3, met de prompt: Generate an image of glistening dewdrops clinging to a velvety red rose petal. Capture the intricate details of the water droplets, reflecting the morning sunlight, and the delicate veins of the petal.

Google brengt verder een nieuwe functie uit voor de Gemini-chatbot. Die krijgt Gems-chatbots, aangepaste chatbots die gebruikers met specifieke taken kunnen helpen. Google kondigde deze Gems in mei aan. Gebruikers kunnen eigen Gems maken en Google brengt zelf vijf Gems uit. Het gaat om een coach die gebruikers kan helpen met complexer onderwerpen, een brainstorm-Gem, een carrièreadvies-Gem, een schrijfhulp-Gem en een Gem die helpt bij het schrijven van code. Gems zijn vanaf nu beschikbaar voor Advanced-, Business- en Enterprise-klanten.

Door Hayte Hugo

Redacteur

28-08-2024 • 20:13

55

Reacties (50)

50
37
8
0
0
12
Wijzig sortering

Sorteer op:

Weergave:

Gemini blijft steeds volhouden dat afbeeldingen genereren nog "technologisch niet mogelijk is" omdat het een taalmodel is.

Zet ik een vpn aan richting Amerika en het kan in eens.

Mijn ervaring met Gemini is dat wat er onderin staat
Gemini may display inaccurate info, including about people, so double-check its responses.
Het enige is wat klopt.
En ik heb de advanced variant.
Dat is fijn. Ben benieuwd wat de kwaliteit is tov Stable Diffusion en Flux. Daar zijn de nazisoldaten en Vikingen tot nu toe gewoon blank, maar krijg je soms een plastic-fantastic look bij de huid van mensen.

Geen enkele tool is vooralsnog perfect :)
Heb je die combinatie uit het topic al geprobeerd? Main gen met Flux en daarna 20% RealVis erover?

Skin is echt elke keer nog bagger.
maar stopte hier in februari mee omdat de dienst historisch onjuiste afbeeldingen maakte. Zo maakte de dienst afbeeldingen <knip> met personen met verschillende etnische achtergronden, terwijl deze historische figuren veelal witte mensen waren.
Dan kan de stekker ook wel uit de hele filmindustrie, met name Disney+.

[Reactie gewijzigd door Mirx_NL op 29 augustus 2024 09:02]

het zijn gegenereerde afbeeldingen. Waarom gaat het over "historisch correct" zijn? Dat hoeft toch niet. Het commentaar was dat het veel te "woke" was.

Ik slaag er trouwens niet in om mijn Gemini iets te laten genereren. Ze zegt altijd dat ze dat als taalmodel niet kan. Ook afbeeldingen tonen lukt ze niet.
Omdat het een product is van een bedrijf. En die hun advertisers staan liever niet naast racistische, sexistische of andere haat dragende afbeeldingen.

Dat is hun volkome recht ook.
Het enige recht dat jullie hebben is het niet gebruiken van hun service als jullie die te "woke" vinden.
Het is eerder andersom.

Vroeger moest alles (overwegend) wit zijn. Marketing materiaal, magazines, stock foto’s, etc. Dat wordt gebruikt als trainingsmateriaal voor genAI, en die is dus enorm biased om dat door te zetten.

Maar de wereld is niet overwegend wit.
Als je de genAI realistisch de wereld wilt laten genereren, zal je het veel meer diversiteit moeten forceren dan het op basis van het trainingsmateriaal normaliter zou doen.
Je moet helemaal niks forceren op het gebied van "diversiteit". Als iemand dat wilt hebben kan dat op prompt niveau, niet ingebakken in de software...

Mount Rushmore waarvan er 1 zwart, 1 aziatisch is en 2 vrouw zijn omdat "diversiteit"? Nee natuurlijk niet....
Je voorbeeld is een stroman.

Het hele punt is dat je de bestaande bias in je trainingsset moet compenseren.
Google deed dat op een stomme manier, maar het basisprincipe is juist.

Als je je algoritme traint op openbare gegevens uit het verleden, dan zal je algoritme alleen terugspugen hoe het verleden eruit zag. En het heden is niet zoals het verleden.

“Succesvol bedrijfseigenaar” is niet een oude witte man in maatpak. Ook al zegt je trainingsdata van wel.
nou er is niks meer baised dan nu als jij reclame kijkt, lijkt dat nederland 50% uit donkere kleur bestaat.
maar nee Nederland bestaat nog steeds grotendeels uit witte mensen hoewel ik wel begrijp dat linkse mensen dat niet willen geloven.
en daar zit ook jou probleem hoe meer er van iets is hoe meer het zal vertegenwoordigen zo simpel is het.
grootste deel van die AI data komt van witte en het is niet dat ai daar op woord gefocust maar gewoon meer data vindbaar is.

en google was een mooi voorbeeld hoe baised / emanipuleerd data gemaakt werd.
Reclame is altijd een onrealistische weergave van de werkelijkheid.

De reden dat er diversiteit in reclame zit is omdat de marketing guru’s hebben besloten dat ze op die manier meer producten kunnen verkopen.

Als je alleen reclame als input voor je algoritme gebruikt, zul je dus óók moeten compenseren. Misschien dan juist de andere kant op.
lezen: Maar de wereld is niet overwegend wit.
Maar Nederland wel, alleen zien we dat niet meer in onze reclames terug en dat is het punt wat er wordt gemaakt.

Je kunt niet roepen “een betere afspiegeling van de samenleving” als je vervolgens de andere kant op gaat overdrijven.
Het doel van reclame is niet het feitelijk correct weergeven van de samenleving op basis van gegevens over de inwoners, daarvoor moet je naar het CBS. Reclame probeert gewoon zo veel mogelijk mensen aan te spreken om uiteindelijk zo veel mogelijk te verkopen.
Graag wel, diversiteit is een groot goed. Uiteindelijk komen we allemaal uit Afrika.
De waarheid komt niet altijd goed uit hè :-)
Omdat de politie etnisch profileert. Hoe dan ook is er veel minder misdaad dan vroeger.
Als je de genAI realistisch de wereld wilt laten genereren, zal je het veel meer diversiteit moeten forceren dan het op basis van het trainingsmateriaal normaliter zou doen.
Maar waarom zou je zoiets willen forceren? Laat dat lekker aan de prompter over en ga wanneer er geen etniciteit gespecificeerd wordt voor de meest waarschijnlijke nationaliteiten (i.e. blanke Nazi soldaten, maar meerdere etniciteiten als je om een modern stadsbeeld van New York vraagt).
Helemaal eens. Wat Google deed was helemaal fout.

Ik bedoelde met “forceren” inderdaad voorbeelden als “modern straatbeeld New York”, omdat daar het algoritme normaliter obv zijn trainingsdata een verkeerd beeld zou geven. Of misschien beter voorbeeld: “succesvolle eigenaar multinational”. Daar is de AI obv trainingsdata (door verschil tussen nu en verleden, en stereotypen) geneigd alleen maar plaatjes van “oude witte man in maatpak” te genereren.
De vraag is of het erg is wanneer er, zonder verdere specificatie, voor een stereotype wordt "gekozen" door de AI. Het model is prima staat om een 19-jarige getinte girlboss met een handicap als succesvolle eigenaar van een multinational te genereren, maar zal dit (wat mij betreft logischerwijs) enkel doen wanneer de gebruiker daar om vraagt. Wanneer de gebruiker dit niet specificeert is de kans dat dit hetgeen is wat hij of zij wil hebben namelijk gering.
Je maakt een stroman. Ik doel helemaal niet op de “girlboss met handicap”, dat is een compleet onrealistische “eigenaar multinational”.

Maar kijkend naar bijvoorbeeld de top X meest succesvolle multinationals van dit moment, dan zijn dat momenteel veel mensen met een achtergrond uit India. Maar die krijg je er niet uit als je “ceo internationaal bedrijf” invoert in een ongecorrigeerd genai model.
Ik pak inderdaad bewust een overdreven voorbeeld, maar je mist mijn punt. Wanneer je een AI een afbeelding laat genereren dan moet je zo exact mogelijk beschrijven wat je wilt zien, bijvoorbeeld "The CEO of a large international company, male, late forties, Indian descent, bald with a mustache, wearing a suit, standing in front of a large modern office building smiling, arms crossed". Wanneer je vraagt om "The CEO of an international company" dan laat je de AI alle details zelf invullen, en aangezien de AI niet kan denken zal hier altijd voor hetgeen worden gegaan wat het meest vertegenwoordigd is in de trainingsdata (i.e. een blanke, oudere man in pak). De AI kent geen statistiek en weet niets, en zolang de gebruiker zich dat realiseert dan is er niets aan de hand.
zolang de gebruiker zich dat realiseert
Werkende in IT is het duidelijk dat veel gebruikers zich helemaal niet realiseren hoe achterliggende technologie werkt. 😅

Als makers van techniek maken wij keuzes voor gebruikers. Wij kiezen de trainingsdata en hoe die geprepareerd wordt. Wij kiezen het algoritme. Wij kiezen wat er uit komt.
We kiezen begin, midden, eind.

Maar dit realiseren mensen zich vaak niet. Ze denken dat die eerste keuze er niet is, dat de data er gewoon is. En dan lijkt het alsof die correctie aan het einde ineens “censurerend” of “beperkend” is. “Laat de gebruiker zelf kiezen”, wordt dan geroepen.

Terwijl er ook al eerder veel keuzes zijn geweest met impact op het eindresultaat. Google was lui in het verzamelen (of genereren) van trainingsdata, en heeft daar niet gecorrigeerd voor werkelijkheid.

Stel, je gebruikt de foto’s van een specifieke fotograaf om je algoritme te trainen. Die man blijkt dan van meeuwen. Nu heeft je algoritme telkens een meeuw als je vraagt om de foto van een vogel. Dat is niet correct, niet in overeenstemming met werkelijkheid. Dan heb je drie opties: opnieuw trainen met betere dataset, gebruikers instrueren zelf een specifieke vogel te benoemen als ze iets anders willen dan een meeuw, of de prompt aanpassen als iemand vraagt om een vogel (willekeurig “vogel” vervangen met roodborst of specht oid)
Het is pas een probleem wanneer het model een meeuw genereert wanneer je om een valk of koolmees vraagt. Dit kan overigens gebeuren wanneer je om dingen vraagt die niet of nauwelijks in de trainingsdata zitten, zoals bijvoorbeeld een vrouw met rode huid. Het resultaat is dan zo'n Afrikaanse vrouw met rode klei in haar haar en over haar lichaam, of een vrouw met overdreven veel rode make-up.
gebruikers instrueren zelf een specifieke vogel te benoemen als ze iets anders willen dan een meeuw
Wat mij betreft is dit de correcte optie. Mensen moeten leren dat ze bij AI altijd specifiek moeten zijn. Wanneer je dat niet bent kan je niet verwachten dat je te zien krijgt wat je wilt zien.

[Reactie gewijzigd door ErikT738 op 29 augustus 2024 14:06]

De taal met het grootste aantal moedertaalsprekers is Mandarijn. Op nummer twee komt Spaans. Nummer drie is pas Engels. Dus is het Engels veel dominanter. Is dat "bias"? Nee, niet het aantal sprekers telt, maar de grootte van de economie die erachter hangt. Engelstalige landen hebben veel meer economie achter zich, dat betekent dat er veel meer boeken gedrukt worden, films gemaakt worden e.d.

Op dezelfde manier hebben een aantal van de grootste economieën op aarde een overwegend blanke bevolking. Die economieën gaan hun eigen bevolking afbeelden in marketingmateriaal, magazines, stockfoto’s, etc. Dat heeft niet met een onrealistisch beeld van de wereld te maken, het heeft te maken met het publiek waar dat materiaal voor ontworpen is.
Engelstalige landen hebben veel meer economie achter zich, dat betekent dat er veel meer boeken gedrukt worden, films gemaakt worden e.d.
Dat is wel een interessant effect. Want als je kijkt op
https://translatepress.com/languages-by-gdp/, zie je dat De grootste taaleconomie (Engels) $23.94 biljoen is (Nederlands biljoen, Engels trillion), maar het Chinees zit daar niet ver achter: $16.54 biljoen.

Maar als je kijkt (zelfde pagina, andere grafiek) naar wat er op het web staat: #1 is Engels met meer dan 50% van de inhoud, nummer twee is Spaans met minder dan 10%. Chinees komt in het lijstje niet eens voor.
Ja, dat heeft dan weer dan weer te maken met het gebruik als internationale taal, ook wij Nederlanders gebruiken Engels en onze economie helpt dus Engelstalig cultuurmateriaal te produceren. Dat is meer verdeeld over de wereld, maar nog steeds niet gelijk verdeeld over de wereld.

Overigens is het Chinees wel degelijk in opkomst. De Chinezen chips zijn bijvoorbeeld vaak best goed, alleen is de documentatie vaak alleen in het Chinees te vinden. En dat is vrij ongehoord, want al tientallen jaren wordt dit soort documentatie wereldwijd in het Engels gepubliceerd, een klein beetje Japans. Dat kunnen ze doen vanwege de omvang van hun economie en hun elektronicaindustrie, maar kwestie is ook die Chinese chips zoveel goedkoper zijn dan de rest, dat je alsnog gaat proberen die documentatie te ontcijferen, ik heb al de nodige PDF's door de verschillende on-line vertaaldiensten gehaald.
Die economieën gaan hun eigen bevolking afbeelden in marketingmateriaal, magazines, stockfoto’s, etc.
Niet in het verleden. Daar zijn bepaalde bevolkingsgroepen niet naar rato vertegenwoordigd in het materiaal.

En, het verleden is niet zoals het heden.
Als je wilt dat je plaatjes kloppen met het “hier en nu”, dan zal je moeten compenseren.
Technisch gezien is er niet veel verschil tussen "wit" en "blank", alleen hangt er aan "blank" tegenwoordig wat meer een bijsmaakje van onderdrukking en superioriteit, waar "wit" vooralsnog wat meer onbesmet is en (dus) vaker wordt gebruikt voor een neutralere discussie.

In dit voorbeeld had denk ik ook het woord "blank" niet misstaan, omdat beelden van historische figuren die over het algemeen een lichte huidskleur hadden, in hun doen en laten voornamelijk blank waren. En dan blank als in koloniaal onderdrukkend en zich superieur voelend en gedragend tov andere culturen.

Het is een subtiel verschil en voor een groot deel semantisch. Ik verwacht zelf dat het in de toekomst aan inflatie onderhevig zal zijn, zodat over een paar jaar ook de term "witte mensen" besmet zal zijn, net zoals dat gaat met termen als hoog- en laagopgeleid, buitenlander/allochtoon, LBO/VMBO etc
Wat een verschrikkelijke BS, laat al weer zien dat Tweakers ook al "besmet" is met woke invloeden!
Down mod as you like!
Waar zit specifiek de BS in mijn verhaal, los van wat jou persoonlijk niet aanstaat?
Ik beschrijf puur wat er aan de hand is, los van wat ik er zelf van vind, dus bij "verschrikkelijke BS" ga ik er van uit dat ik iets verkeerds heb beweerd en ik hoor graag wat dat is
"Technisch gezien is er niet veel verschil tussen "wit" en "blank", alleen hangt er aan "blank" tegenwoordig wat meer een bijsmaakje van onderdrukking en superioriteit, waar "wit" vooralsnog wat meer onbesmet is en (dus) vaker wordt gebruikt voor een neutralere discussie."

Dit dus.....
Ik heb nu voor het eerst in heel mijn leven iemand het woord "wit" zien/horen gebruiken als zij een blanke persoon bedoelen en daarom reageerde ik erop.
Ik zal vast de enige niet zijn!
Dus de stelling dat het vaker gebruikt wordt in "neutrale discussies" (whatever that means) is naar mijn mening onzin.
En mocht het wel zo zijn dan is het weer een minderheidje die het politiek correcte 🤮 woordje "wit" gebruikt.
Ik heb nu voor het eerst in heel mijn leven iemand het woord "wit" zien/horen gebruiken als zij een blanke persoon bedoelen
Dit valt voor mij moeilijk te geloven. Ik hoor zó vaak de term "wit" voor blanke mensen dat ik me niet kan voorstellen dat je dit nog nooit gehoord hebt. Als je een beetje mainstream nieuws en/of discussieprogramma's kijkt of opiniestukken leest, dan moet je die term al tegengekomen zijn
Je mag nog altijd alles zeggen wat je wilt, daar is niks aan veranderd en we leven niet in een censuurstaat. Publieke normen en waarden evolueren sinds jaar en dag, soms sneller dan je (omgeving) dat zelf doet. In plaats van puberaal kreten roepen als "dat mag zeker ook al niet meer!?" zou je kunnen overwegen constructiever te vragen waarom mensen bepaalde keuzes of taal gebruiken. Soms kan het zo simpel zijn als dat iemand in een tweede taal schrijft.
Ik reageer zo omdat ik de vraag niet wil stellen. Mijn ervaring is dat je dan een preek krijgt over hoe je je moet gedragen om "een goed persoon" te zijn.
Ik zit niet te wachten op die "politieke correctheid". Daarbij is het nog eens zo dat "blank" gewoon goed Nederlands is en het feit dat daar nu gelijk weer een "racistisch" tintje aan gegeven wordt door een bepaald groepje zegt al weer genoeg.
Nederland is ziek, echt ziek.
Helemaal eens, tis gewoon om kotsmisselijk van te worden.

Op dit item kan niet meer gereageerd worden.