Het is lastig om harde conclusies te trekken, want de gebruikte dataset is enerzijds beperkt en anderzijds een momentopname. Over de hele linie zijn wel lijnen te zien. Het lijkt erop dat veel AI-systemen aandacht hebben voor het niet-versterken van stereotypen en voor diversiteit in gegenereerde afbeeldingen. Natuurlijk: garbage in, garbage out geldt nog steeds, maar met reinforced learning from human feedback, dus mensen die aangeven wat belangrijk of niet oké is, is een AI-model bij te sturen.
Daarbij is te zien dat Microsoft daar weinig aandacht voor heeft. Bings Image Generator op basis van Dall-E 3 komt met jonge, blonde vrouwen met kazen, tulpen en molens. De zoekmachine genereert ansichtkaarten voor de Zaanse Schans. Dall-E 2 heeft technologie van hetzelfde bedrijf, OpenAI, maar traint vermoedelijk intensiever, want dat systeem vermijdt stereotypen en laat meer mannen zien.
Daarbij zijn ook nog altijd uitschieters te zien die echt niet kloppen, zoals een stel honden bij Adobe Firefly 2, maar dat zijn duidelijke fouten die iedere gebruiker er makkelijk uit haalt. Wat het vermijden van stereotypen en het laten zien van diversiteit betreft heeft geen van de geteste modellen het perfect voor elkaar, maar veel doen het zeker acceptabel en laten zien dat het een punt van aandacht is. Dat geeft hoop voor de toekomst, want hoe meer invloed deze AI-systemen krijgen, hoe belangrijker het is dat ze acceptabel en binnen morele grenzen goed werken.