De zogenaamde DeepNude-app, een toepassing die met behulp van machinelearning vrouwen op foto's 'uitkleedt', staat met website, broncode en al in de etalage voor investeerders.
In een listing op Flippa vragen de makers 30.000 dollar voor wat ze tot nu toe hebben opgezet: een site met een half miljoen pageviews in juni, veel media-aandacht, een Twitteraccount met 22.000 volgers en de volledige applicatie zelf. Volgens de Estse makers moet de app 'leuk en veilig' zijn, maar kunnen ze dat zelf niet waarborgen. Daarmee doelen ze op repacks van de app met malware en zonder watermerk op de eindproducten. Een koper zou goed kunnen verdienen aan de app als die de beveiliging in orde maakt, stellen ze.
Op hun website linken ze naar de veiling en ze kondigden het ook aan op Twitter. Die tweet is echter verwijderd omdat deze tegen de huisregels van het platform is. Het publiek kijkt er veelal ook zo tegenaan: de verschijning van DeepNude vorige maand leidde tot zoveel kritiek dat de makers de app offline haalden. "De wereld is nog niet klaar voor DeepNude", stelden ze toen. Nu, ongeveer drie weken later, zijn de makers evident van standpunt veranderd.
Hoewel de software offline werd gehaald, maakt het waarschijnlijk weinig uit of de app verkocht wordt of niet. De app is in de korte tijd na de release 'vele malen' verkocht en op basis daarvan wordt hij gekraakt, reverse-engineered en weer verder verspreid, zij het gratis, tegen betaling, met malware of een combinatie daarvan.