IBM heeft een methode gepresenteerd waarmee het machinelearningmodellen van een 'watermerk' wil voorzien. Op die manier moet bijvoorbeeld na te gaan zijn of een model dat online wordt gebruikt, is gestolen.
IBM schrijft dat kunstmatige-intelligentieonderzoek vaak gepaard gaat met aanzienlijke investeringen en dat het daarom van belang is om ontwikkelde modellen te beschermen tegen ongeautoriseerd gebruik. Hoewel het idee om machinelearningmodellen van een watermerk te voorzien niet nieuw is, moet de door IBM in een paper beschreven methode het identificeren van een beschermd model mogelijk maken zonder toegang te hebben tot de parameters, in tegenstelling tot eerdere pogingen. Dat moet nuttig zijn als het model alleen op afstand te benaderen is.
Het idee is om een model van tevoren zodanig te trainen dat er bij een specifieke input een van tevoren bepaalde output volgt, bijvoorbeeld door een specifieke afbeelding aan te bieden. Dit moet echter niet ten koste gaan van de nauwkeurigheid van het model. Het bedrijf beschrijft drie verschillende methoden, oftewel watermark generation algorithms. Een daarvan gebruikt 'zinvolle inhoud' in combinatie met de trainingdata, terwijl de andere irrelevante gegevens en noise toepassen. De gepresenteerde watermerkmethode, waarop IBM patent zegt te hebben aangevraagd, moet bovendien bescherming bieden tegen 'counter-watermark mechanisms'.
De beperking van deze aanpak is wel dat een model niet te controleren is als het niet online beschikbaar is, maar intern wordt toegepast. In dat scenario is er geen externe toegang, maar volgens IBM ook geen methode voor de dief om er geld mee te verdienen. Ook zou de methode niet tegen diefstal beschermen. Het bedrijf zegt de methode intern te willen inzetten om vervolgens te onderzoeken of deze als dienst aan te bieden is.