Le vice-président chargé de l’intégrité de Facebook, Guy Rosen, a démenti les affirmations selon lesquelles la technologie d’intelligence artificielle utilisée pour lutter contre les discours haineux n’a que peu d’impact. « Ce n’est pas vrai », a-t-il déclaré. Au lieu de cela, il affirme que l’occurrence des discours haineux sur Facebook a diminué de près de 50 % au cours des trois derniers trimestres.
« Nous ne voulons pas voir de haine sur notre plateforme, pas plus que nos utilisateurs ou nos annonceurs, et nous sommes transparents sur notre travail pour la supprimer », écrit Guy Rosen dans un billet de blog.
« Ce que ces documents démontrent, c’est que notre travail d’intégrité représente un parcours courant sur plusieurs années. Nous ne serons jamais parfaits, mais nos équipes travaillent continuellement à développer nos systèmes, à identifier les problèmes et à construire des solutions. »
Réduire la distribution d’un contenu
Le post de Guy Rosen répond à un article du Wall Street Journal. Ce dernier rapporte, sur la base de documents internes ayant fait l’objet d’une fuite, que la technologie d’IA du géant des médias sociaux créée pour supprimer les contenus offensants, notamment les discours haineux et les images violentes, n’a eu que peu de succès.
D’après cette enquête, une équipe d’employés de Facebook a estimé en mars que les systèmes d’IA supprimaient 3 à 5 % des messages véhiculant des discours haineux sur la plateforme, et 0,6 % de tous les contenus violant les politiques concernant la violence et l’incitation à la violence.
Toutefois, Guy Rosen précise que « se concentrer uniquement sur les suppressions de contenu n’est pas la bonne façon d’envisager la manière dont nous combattons les discours haineux. En effet, utiliser la technologie pour supprimer ces contenus n’est qu’un moyen parmi d’autres de les contrer. Nous devons être certains qu’un contenu est un discours de haine avant de le supprimer ».
« Si un contenu semble véhiculer de la haine, mais que nous ne sommes pas suffisamment convaincus qu’il répond à nos critères de suppression, alors notre technologie peut réduire sa portée, en évitant de le diffuser ou de recommander des groupes, pages ou personnes qui publient régulièrement des contenus susceptibles de violer nos politiques de publication. Notre technologie est également utilisée pour signaler des contenus qui nécessitent un examen plus approfondi. »
Taux de détection proactif
Guy Rosen souligne que Facebook mesure son succès en fonction de la prévalence des discours haineux que les gens voient sur sa plateforme : il indique qu’il n’y a que cinq vues pour 10 000 sur la plateforme. « La prévalence nous indique quel contenu violant nos politiques a été vu par les utilisateurs parce que nous l’avons manqué. C’est la façon dont nous évaluons le plus objectivement nos progrès, car elle fournit le tableau le plus complet. »
Le vice-président chargé de l’intégrité a également profité de l’occasion pour souligner que l’article du Wall Street Journal a « mal interprété » son taux de détection proactive, une autre mesure que l’entreprise est censée utiliser pour indiquer dans quelle mesure sa technologie est capable de trouver du contenu offensant avant qu’il ne soit signalé.
« Lorsque nous avons commencé à publier nos mesures concernant les discours haineux, seuls 23,6 % des contenus que nous supprimions étaient détectés de manière proactive par nos systèmes ; la majorité des contenus supprimés étaient ainsi vus. Aujourd’hui, ce chiffre est supérieur à 97 % », fait valoir Guy Rosen.
Facebook veut contrer les accusations
Facebook a récemment annoncé des progrès dans son IA utilisée pour aider à la modération du contenu, notamment après l’introduction de son « Reinforcement Integrity Optimizer » (RIO). Cette fonctionnalité guide un modèle d’IA, pour apprendre directement à partir de millions de contenus actuels, afin d’évaluer dans quelle mesure il fait son travail.
La publication de Guy Rosen s’inscrit dans les efforts de la plateforme pour tenter de dissiper les affirmations cinglantes sur ses activités. Au début du mois, le PDG Mark Zuckerberg a répondu publiquement aux allégations selon lesquelles le géant des médias sociaux privilégie le profit au détriment de la sécurité et du bien-être, affirmant que ce n’était « tout simplement pas vrai ». « L’argument selon lequel nous diffusons délibérément des contenus qui mettent les gens en colère pour faire du profit est profondément illogique », défend-il.
Cette réponse est intervenue après que la lanceuse d’alerte, Frances Haugen, ancienne employée de Facebook, a témoigné devant le Sénat américain, accusant le géant des réseaux sociaux de cacher intentionnellement des informations vitales au public, dans un but lucratif. Lors de son témoignage, elle a qualifié l’entreprise de « moralement en faillite » et estimé que « les choix faits au sein de Facebook » étaient « désastreux pour nos enfants, notre vie privée et notre démocratie ».
Source : ZDNet.com
(function(d, s, id) { var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = "//connect.facebook.net/fr_FR/all.js#appId=243265768935&xfbml=1"; fjs.parentNode.insertBefore(js, fjs); }(document, 'script', 'facebook-jssdk'));