Google brengt TensorFlow module uit die privacy van AI-modellen test

Google heeft een experimentele module uitgebracht voor TensorFlow. Met TensorFlow Privacy kunnen gebruikers de privacy-kenmerken van verschillende machine learing classifiers beoordelen. De nieuwe experimentele module is bedoeld als fundering van een softwarepakket voor het testen van privacy, dat gebruikt kan worden door zowel beginnende als gevorderde AI-ontwikkelaars. 

De AI-community blijft sceptisch over de verschillende producten voor AI privacy die momenteel op de markt zijn. Er zijn geen algemene richtlijnen om een AI-model te creëren. Wel is er steeds meer onderzoek dat aantoont dat AI-modellen gevoelige informatie van datasets waarmee ze getraind zijn kunnen lekken. Dit levert een privacy-risico op. 

TensorFlow Privacy maakt gebruik van differential privacy om AI-data te beschermen. Deze techniek voegt ruis toe om individuele voorbeelden in de training data te verbergen. Deze ruis kan echter ook significante gevolgen hebben voor de nauwkeurigheid van het AI-model. 

Zo werkt de nieuwe module

Met de nieuwe TensorFlow module gaat Google een stapje verder dan het toevoegen van ruis. De module maakt gebruik van een membership inference attacks-methode. Deze methode bouwt classifiers die kunnen opmaken of een specifiek voorbeeld aanwezig was in de dataset waarmee het AI-model is getraind. Hoe preciezer de classifier is, des te meer opgeslagen data er aanwezig is. Dat duidt erop dat een model de privacy onvoldoende beschermt. 

De tests die de nieuwe module voor TensorFlow Privacy met zich meebrengt zijn black-box. Dit houdt in dat ze alleen de output van modellen gebruiken en niet de input samples. Op basis van de test krijgt de gebruiker een kwetsbaarheidsscore die aanduidt of een model informatie van de trainingset lekt. Doordat er geen hertraining van AI-modellen nodig is, is de test relatief makkelijk om uit te voeren.

Verdere plannen met membership inference tests

“Nadat we membership inference tests intern hebben gebruikt, delen we ze nu ook met developers. Met deze tests kunnen developers vertrouwelijke modellen bouwen, betere architectuur-keuzes verkennen, regularisatietechnieken gebruiken en meer data verzamelen.” Zo schrijven Shuang Song (Google Brain) en David Marn (software engineer bij Google) op de TensorFlow blog. 

Met het uitbrengen van de nieuwe module, kondigt Google aan om de uitvoerbaarheid van de extending membership inference attacks-methode verder te gaan verkennen. Google werkt nog aan nieuwe tests met deze methode. Daarnaast zijn er plannen om de nieuwe test toe te voegen aan het TensorFlow ecosysteem door het te integreren met TensorFlow Extended (TFX).