AI-bedrijf Stability AI gaat zijn Stable Diffusion 3-model voor het genereren van beelden op woensdag 12 juni uitbrengen. Dat maakte het bedrijf bekend tijdens de openingskeynote van AMD. Eerder was het nieuwe model al beschikbaar als gesloten bèta.
Om op een brede range van apparaten te kunnen werken, kan Stable Diffusion 3 overweg met verschillende aantallen parameters: van 800 miljoen tot vele miljarden. Vooral het maximum van 8 miljard ligt veel hoger dan bij voorgaande versies van het beeldgenereermodel. Stable Diffusion XL 1.0, dat vorig jaar uitkwam, had nog een maximumaantal van 3,5 miljard parameters.
Tijdens de keynote gaven AMD en Stability AI een demonstratie van het nieuwe model op een Instict MI300X-acceleratorkaart. In vergelijking met Stable Diffusion XL was het resultaat duidelijk beter, terwijl ook de prestaties zijn toegenomen.
Stability zei eerder dat Stable Diffusion 3 een combinatie van diffusion transformer architecture en flow matching gebruikt. Het is voor het eerst dat Stable Diffusion die technieken krijgt. Diffusion transformer architecture is een proces waarbij een datamodel in kleine stukjes wordt opgebroken en gegenereerd, waardoor een afbeelding uit meerdere van die kleine stukjes wordt opgebouwd in plaats van als geheel. Flow matching is een technologie waarbij afbeeldingen beter kunnen worden gegenereerd vanuit ruis zonder de berekening constant te moeten herhalen. Dat moet de generator een stuk sneller maken. Verder zou Stable Diffusion 3 nieuwe technieken bevatten om misbruik van het model tegen te gaan.