Internet

TensorFlow Privacy : un outil Google pour protéger les données des IA

Google vient de présenter TensorFlow Privacy, un outil permettant d’éviter l’identification de personnes lors de l’apprentissage des intelligences artificielles.

Il y a

le

Google vient de dévoiler TensorFlow Privacy, un module prévu pour protéger les données personnelles des utilisateurs lors de l’apprentissage des intelligences artificielles.

TensorFlow Privacy protège les données personnelles

Depuis quelques mois déjà, les projets d’intelligence artificielle fleurissent. Certaines représentent de véritables avancées, d’autres sont plus controversées ou d’un intérêt limité. TensorFlow, un outil mis à la disposition par Google, est extrêmement populaire pour le Deep Learning servant à l’apprentissage des intelligences artificielles. Des développeurs du monde entier l’utilisent pour l’apprentissage à base de textes, d’images, de vidéos ou d’audio. Avec le TensorFlow Privacy, Google espère mettre davantage d’étique en protégeant les données personnelles des personnes sur lesquelles se basent les IA pour apprendre.

Concrètement, le module TensorFlow Privacy utilise la technique scientifique nommée « confidentialité différentielle » pour empêcher les intelligences artificielles réalisant leur apprentissage avec TensorFlow, de collecter et d’encoder les données personnelles. Elle permet aussi d’éviter l’identification des personnes. Ce module est en Open Source.

Mettre en place une éthique pour les intelligences artificielles est une volonté de nombreux géants des nouvelles technologies comme Google ou bien encore Apple qui applique un système similaire pour ses intelligences artificielles depuis la sortie de son système d’exploitation iOS 10. Notez, par ailleurs, que Google utilise un système similaire à TensorFlow Privacy aussi pour ses propres intelligences artificielles comme par exemple le « Smart Reply » de son service d’e-mail Gmail.

Une nécessité d’anonymisation pour les IA

Le module TensorFlow Privacy est effectivement indispensable. Par exemple, pour entraîner son « Smart Reply », Google a alimenté son intelligence artificielle avec 1 milliard d’utilisateurs de Gmail. Ces données personnelles contenaient aussi bien souvent des informations très personnelles et sensibles. Il est donc indispensable que de telles IA ne puissent identifier les utilisateurs. Selon des experts, le module TensorFlow Privacy permet d’éliminer le risque d’identification avec une « certitude mathématique ».

Le module permet de supprimer automatiquement tout élément pouvant servir à une identification. Cela ne modifie cependant pas les sens des informations destinées à l’apprentissage des intelligences artificielles même si, parfois, cela peut supprimer des données pertinentes. TensorFlow Privacy présente aussi l’inconvénient de ne pas permettre d’apprendre à partir d’un évènement se produisant une seule fois.

Source

Cliquez pour commenter

Sur le même sujet