De AI-afbeeldingengenerator Midjourney produceert eenzijdige en stereotypische afbeeldingen als gebruikers afbeeldingen maken met een land in de prompt. Dat concludeert Rest of World na analyse van duizenden afbeeldingen.
Bij de prompt ‘Indian person’ kwam Midjourney vrijwel uitsluitend met oude mannen in traditionele kleding aanzetten, schrijft Rest of World. Ook in andere landen kwam Midjourney veel meer met mannen dan met vrouwen. Alleen bij de prompt ‘Amerikaans persoon’ kwam de software met meer vrouwen dan mannen. Amerikaanse personen staan bovendien altijd op de foto met een vlag, waar dat in andere landen niet gebeurt.
Volgens onderzoekers gebruikt Midjourney stereotypen door het gebruikte trainingsmateriaal, waarin die ook terugkomen. Het probleem daarvan is dat dergelijke afbeeldingsgenerators in gebruik zijn en steeds meer zullen zijn voor het maken van beeldmateriaal en dat die dus vaak stereotypen zullen versterken. Zo zien Nigeriaanse huizen er volgens Midjourney vrijwel altijd vervallen uit.
Behalve stereotypen leek Midjourney ook rekening te houden met standaarden op gebied van schoonheid. Zo waren Aziatische vrouwen gemiddeld twee tinten lichter dan in het echt. Daarnaast gaat het veel om relatief dunne en symmetrische gezichten. Als er geen landen in de prompt staan, veronderstelde Midjourney een westerse context, zo concludeerde de site. Het wijzigen van de prompt zorgt niet altijd voor betere resultaten. Het is onduidelijk hoe dit te fiksen is, mede door de beperkte transparantie over het gebruikt bronmateriaal en de labeling van dat materiaal.