High Tech

Maintenant que les machines peuvent apprendre, peuvent-elles désapprendre ?

L'illustration fortement stylisée du cerveau humain le combine avec l'ordinateur.

Les entreprises de toutes sortes utilisent apprentissage automatique pour analyser les désirs, les aversions ou les visages des gens. Certains chercheurs se posent désormais une question différente : comment faire oublier les machines ?

Un domaine naissant de l’informatique appelé machine désapprendre cherche des moyens d’induire une amnésie sélective dans intelligence artificielle Logiciel. L’objectif est de supprimer toute trace d’une personne ou d’un point de données particulier d’un système d’apprentissage automatique, sans affecter ses performances.

S’il est rendu pratique, le concept pourrait donner aux gens plus de contrôle sur leurs données et la valeur qui en découle. Bien que les utilisateurs puissent déjà demander à certaines entreprises de supprimer des données personnelles, ils ne savent généralement pas quels algorithmes leurs informations ont aidé à régler ou à entraîner. Le désapprentissage automatique pourrait permettre à une personne de retirer à la fois ses données et la capacité d’une entreprise à en tirer profit.

wired logo

Bien qu’intuitive pour quiconque a regretté ce qu’il a partagé en ligne, cette notion d’amnésie artificielle nécessite de nouvelles idées en informatique. Les entreprises dépensent des millions de dollars pour former des algorithmes d’apprentissage automatique pour reconnaître les visages ou classer les publications sur les réseaux sociaux, car les algorithmes peuvent souvent résoudre un problème plus rapidement que les codeurs humains seuls. Mais une fois formé, un système d’apprentissage automatique n’est pas facilement altéré, ou même compris. La manière conventionnelle de supprimer l’influence d’un point de données particulier consiste à reconstruire un système depuis le début, un exercice potentiellement coûteux. « Cette recherche vise à trouver un terrain d’entente », explique Aaron Roth, professeur à l’Université de Pennsylvanie qui travaille sur le désapprentissage automatique. « Pouvons-nous supprimer toute influence des données de quelqu’un lorsqu’il demande à les supprimer, tout en évitant le coût total d’un recyclage à partir de zéro ? »

Les travaux sur le désapprentissage automatique sont motivés en partie par l’attention croissante portée aux façons dont l’intelligence artificielle peut éroder la confidentialité. Les régulateurs de données du monde entier ont depuis longtemps le pouvoir de forcer les entreprises à supprimer les informations mal acquises. Les citoyens de certaines localités, comme le MOI et Californie, ont même le droit de demander à une entreprise de supprimer ses données si elle change d’avis sur ce qu’elle a divulgué. Plus récemment, les régulateurs américains et européens ont déclaré que les propriétaires de systèmes d’IA doivent parfois aller plus loin : supprimer un système qui a été formé sur des données sensibles.

L’année dernière, le régulateur britannique des données entreprises averties que certains logiciels d’apprentissage automatique pourraient être soumis à des droits GDPR tels que la suppression de données, car un système d’IA peut contenir des données personnelles. Les chercheurs en sécurité ont montré que les algorithmes peuvent parfois être contraints de divulguer des données sensibles utilisées dans leur création. Au début de cette année, la Federal Trade Commission des États-Unis la startup de reconnaissance faciale forcée Paravision pour supprimer une collection de photos de visages obtenues de manière incorrecte et d’algorithmes d’apprentissage automatique formés avec elles. Le commissaire de la FTC, Rohit Chopra, a salué cette nouvelle tactique d’application comme moyen de forcer une entreprise qui enfreint les règles en matière de données à « renoncer aux fruits de sa tromperie ».

Le petit domaine de la recherche sur le désapprentissage automatique est aux prises avec certaines des questions pratiques et mathématiques soulevées par ces changements réglementaires. Des chercheurs ont montré qu’ils pouvaient faire oublier les algorithmes d’apprentissage automatique dans certaines conditions, mais la technique n’est pas encore prête pour les heures de grande écoute. « Comme il est courant pour un jeune domaine, il y a un écart entre ce que ce domaine aspire à faire et ce que nous savons faire maintenant », explique Roth.

Une approche prometteuse proposée en 2019 par des chercheurs des universités de Toronto et du Wisconsin-Madison consiste à séparer les données sources d’un nouveau projet d’apprentissage automatique en plusieurs éléments. Chacun est ensuite traité séparément avant que les résultats ne soient combinés dans le modèle final d’apprentissage automatique. Si un point de données doit être oublié ultérieurement, seule une fraction des données d’entrée d’origine doit être retraitée. Il a été démontré que l’approche fonctionnait sur des données d’achats en ligne et une collection de plus d’un million de photos.

Roth et ses collaborateurs de Penn, Harvard et Stanford récemment a démontré une faille dans cette approche, montrant que le système de désapprentissage s’effondrerait si les demandes de suppression soumises arrivaient dans un ordre particulier, soit par hasard, soit par un acteur malveillant. Ils ont également montré comment le problème pouvait être atténué.

Gautam Kamath, professeur à l’Université de Waterloo qui travaille également sur le désapprentissage, affirme que le problème que le projet a trouvé et résolu est un exemple des nombreuses questions ouvertes qui subsistent sur la façon de faire du désapprentissage automatique plus qu’une simple curiosité de laboratoire. Son propre groupe de recherche a été explorant à quel point la précision d’un système est réduite en lui faisant successivement désapprendre plusieurs points de données.

Kamath est également intéressé à trouver des moyens pour une entreprise de prouver – ou un régulateur de vérifier – qu’un système a vraiment oublié ce qu’il était censé désapprendre. « J’ai l’impression que c’est un peu plus loin, mais peut-être qu’ils finiront par avoir des auditeurs pour ce genre de choses », dit-il.

Les raisons réglementaires d’étudier la possibilité d’un désapprentissage automatique sont susceptibles de se développer à mesure que la FTC et d’autres examinent de plus près la puissance des algorithmes. Reuben Binns, professeur à l’Université d’Oxford qui étudie la protection des données, affirme que l’idée selon laquelle les individus devraient avoir leur mot à dire sur le sort et les fruits de leurs données s’est développée ces dernières années aux États-Unis et en Europe.

Il faudra un travail technique virtuose avant que les entreprises technologiques puissent réellement mettre en œuvre le désapprentissage automatique comme moyen d’offrir aux gens plus de contrôle sur le sort algorithmique de leurs données. Même dans ce cas, la technologie pourrait ne pas beaucoup changer les risques pour la vie privée à l’ère de l’IA.

Confidentialité différentielle, une technique astucieuse pour établir des limites mathématiques sur ce qu’un système peut divulguer à propos d’une personne, fournit une comparaison utile. Apple, Google et Microsoft célèbrent tous la technologie, mais elle est utilisée relativement rarement et les dangers pour la vie privée sont toujours nombreux.

Binns dit que même si cela peut être vraiment utile, « dans d’autres cas, c’est plus quelque chose qu’une entreprise fait pour montrer qu’elle innove ». Il soupçonne que le désapprentissage automatique peut s’avérer similaire, plus une démonstration de sens technique qu’un changement majeur dans la protection des données. Même si les machines apprennent à oublier, les utilisateurs devront se rappeler de faire attention avec qui ils partagent des données.

Cette histoire est apparue à l’origine sur wired.com.


Source link

Articles similaires

Bouton retour en haut de la page