Google test machine learning door gebruik te maken van lokale gegevens op de smartphones van gebruikers. Daarbij gaat het om gegevens over suggesties van het Google-toetsenbord Gboard. Dit moet gebeuren zonder dat de gegevens van individuele gebruikers inzichtelijk zijn.
Volgens Google is het met de methode, die het 'federated learning' noemt, niet nodig om gebruikersgegevens op een centrale server op te slaan om er analyses op uit te voeren. In plaats daarvan vindt het 'leren' op het toestel zelf plaats en worden de gegevens alleen lokaal gebruikt. De telefoon maakt daarvoor gebruik van een 'miniatuurversie van TensorFlow'. Zodat er geen prestatieverlies voor de gebruiker optreedt, claimt Google dat het leren alleen plaatsvindt als de telefoon aan de lader hangt, een wifi-verbinding heeft en niet wordt gebruikt.
Federated learning werkt doordat de smartphone een centraal prediction model downloadt en dit 'verbetert' aan de hand van lokale gegevens. De verbeteringen worden vervolgens in de vorm van wijzigingen als update teruggestuurd naar de server via een versleutelde verbinding. Daar wordt de update samengevoegd met de gegevens van andere gebruikers, waardoor het gedeelde model wordt verbeterd. Om ervoor te zorgen dat individuele data niet in te zien is, kan de server de geaggregeerde updates alleen ontsleutelen als er 'honderden of duizenden' gebruikers een update hebben verzonden.
De test met de methode vindt momenteel plaats aan de hand van Gboard. Als het toetsenbord een suggestie voor een zoekopdracht toont, wordt naast de context bijgehouden of de gebruiker van de suggestie gebruikmaakte. Die gegevens worden gebruikt om de volgende suggestie te verbeteren. In de toekomst moet de techniek gebruikt worden om taalmodellen te verbeteren en foto's te tonen op basis van gebruikershandelingen.
De techniek doet denken aan 'differential privacy', dat Apple voor het eerst toepaste in iOS 10. Daarbij maakt het bedrijf eveneens gebruik van gegevens om gebruikersgroepen te analyseren zonder te veel over individuen te weten te komen. Google verwijst in zijn eigen onderzoek over Secure Aggregation, zoals het de methode van het samenvoegen van gebruikersgegevens noemt, dan ook naar differential privacy.
A: aanpassen van het model op basis van lokale gegevens, B: aggregatie om een 'consensus change' op te stellen, C: deze wordt doorgestuurd naar het model