Si vous avez un iPhone, vous avez peut-être remarqué un changement dans le comportement de Siri au cours de la dernière année. L’assistant vocal au téléphone se « réveille » lorsque vous dites « Dis Siri », mais pas lorsque la même phrase vient de vos amis ou de votre famille.

La raison pour laquelle Apple a fait cela était raisonnable : il voulait un moyen d’empêcher tous les iPhones d’une pièce de répondre quand une personne prononce la phrase de réveil. Vous pourriez penser qu’Apple aurait besoin de collecter beaucoup de vos données audio pour ce faire. Étonnamment, ce n’est pas le cas.

Au lieu de cela, il s’appuie principalement sur une technique appelée apprentissage fédéré, a déclaré Julien Freudiger, responsable de la protection de la vie privée chez Apple, lors de la conférence Neural Processing Information Systems le 8 décembre dernier. L’apprentissage fédéré est une méthode d’apprentissage machine respectueuse de la vie privée qui a été introduite pour la première fois par Google en 2017. Il permet à Apple de former différentes copies d’un modèle de reconnaissance de locuteur sur tous les appareils de ses utilisateurs, en utilisant uniquement les données audio disponibles localement. Il renvoie ensuite uniquement les modèles mis à jour vers un serveur central pour être combinés en un modèle maître. De cette façon, l’audio brut des requêtes Siri des utilisateurs ne quitte jamais leurs iPhones et iPads, mais l’assistant s’améliore continuellement pour identifier le bon interlocuteur.

Comment ça marche ?

En plus de l’apprentissage fédéré, Apple utilise également ce qu’on appelle la confidentialité différentielle pour ajouter une couche de protection supplémentaire. Cette technique injecte une petite quantité de bruit dans n’importe quelle donnée brute avant qu’elle ne soit introduite dans un modèle local d’apprentissage machine. Cette étape supplémentaire fait qu’il est extrêmement difficile pour les acteurs malveillants d’inverser l’ingénierie des fichiers audio originaux à partir du modèle formé.

Bien qu’Apple utilise la confidentialité différentielle depuis 2017, elle n’a été combinée à l’apprentissage fédéré qu’à partir de l’iOS 13, qui a été lancé au public en septembre de cette année. En plus de personnaliser Siri, les deux techniques sont maintenant utilisées pour quelques autres applications, y compris QuickType (clavier personnalisé d’Apple) et la fonction Found In Apps, qui scanne votre calendrier et les applications de messagerie dont les numéros ne sont pas dans votre téléphone. M. Freudiger a indiqué que l’entreprise prévoyait d’étendre prochainement les méthodes de confidentialité à d’autres applications et fonctionnalités.

Au cours de la dernière année, l’apprentissage fédéré est devenu de plus en plus populaire au sein de la communauté de recherche en IA à mesure que les préoccupations concernant la confidentialité des données se sont accrues. En mars, Google a publié un nouvel ensemble d’outils pour aider les développeurs à mettre en œuvre leurs propres modèles d’apprentissage fédérateurs. Parmi de nombreuses autres utilisations, les chercheurs espèrent qu’elle aidera à surmonter les défis liés à la protection de la vie privée dans l’application de l’IA aux soins de santé. Des entreprises comme Owkin, Doc.ai et Nvidia sont intéressées à l’utiliser de cette façon.

Bien que cette technique soit encore relativement nouvelle et doive encore être perfectionnée, la dernière adoption d’Apple offre une autre étude de cas sur la façon dont elle peut être appliquée à l’échelle. Elle marque également un changement fondamental dans l’arbitrage que l’industrie des technologies a traditionnellement fait entre la protection de la vie privée et l’utilité : en fait, il est maintenant possible d’atteindre les deux. Espérons que d’autres entreprises s’en apercevront rapidement.