Meta maakt een trainingsmodel voor vertalingen openbaar voor wetenschappers. Het Open Pretrained Transformer-model is een nlp-model met 175 miljard parameters waar machinelearningwetenschappers gebruik van kunnen maken.
Het model heet OPT-175B en is gemaakt door de kunstmatige-intelligentieafdeling van Meta. Het bedrijf maakt dat model openbaar voor andere wetenschappers en onderzoekers. Meta zegt dat het dat doet zodat wetenschappers beter kunnen leren hoe naturallanguageprocessing-modellen werken. Nu moeten academici nog vaak betalen voor api's om dergelijke modellen te gebruiken.
OPT-175B is een taalmodel met 175 miljard parameters. Het model is getraind op publiek beschikbare datasets. Meta maakt naast het volledige model ook een aantal kleinere modellen beschikbaar, zodat wetenschappers 'het effect van schaalvergroting' kunnen bestuderen. Het gaat dan om modellen die 125 of 350 miljoen parameters kennen, en modellen van 1,3, 2,7, 6,7, 13 en 30 miljard. Later komt ook een model beschikbaar met 66 miljard parameters.
Naast de modellen zelf maakt Meta ook code beschikbaar waarmee wetenschappers trainingsmodellen kunnen opzetten. Volgens Meta is dat de eerste keer dat dat gebeurt op een dergelijk grote schaal. Ook maakt het bedrijf notities en logboeken beschikbaar van momenten dat het trainingen uitvoerde. Meta zegt dat het model ook veel energiezuiniger is dan andere nlp-modellen, zoals GPT-3: OPT-175B zou voor ongeveer zeven keer minder uitstoot zorgen.
De data wordt onder een niet-commerciële licentie beschikbaar gemaakt. Facebook wil zo misbruik voorkomen en 'de integriteit bewaren'. Onderzoekers van overheden, burgerrechtenorganisaties en wetenschappelijke instituten kunnen van de tool gebruikmaken.