High Tech

Les différends de Facebook rapportent que son IA ne peut pas détecter systématiquement les discours de haine ou de violence

Le vice-président de l’intégrité de Facebook Guy Rosen écrit dans un article de blog Dimanche que la prévalence des discours de haine sur la plate-forme avait chuté de 50 % au cours des trois dernières années, et que « un récit selon lequel la technologie que nous utilisons pour lutter contre les discours de haine est inadéquate et que nous déformons délibérément nos progrès » était faux.

« Nous ne voulons pas voir de haine sur notre plate-forme, ni nos utilisateurs ou annonceurs, et nous sommes transparents sur notre travail pour la supprimer », a écrit Rosen. «Ce que ces documents démontrent, c’est que notre travail d’intégrité est un voyage de plusieurs années. Bien que nous ne soyons jamais parfaits, nos équipes travaillent continuellement à développer nos systèmes, à identifier les problèmes et à créer des solutions. »

Le message semblait être en réponse à un article du dimanche dans le le journal Wall Street, qui a déclaré que les employés de Facebook chargés de garder le contenu offensant hors de la plate-forme ne pensent pas que l’entreprise est en mesure de le filtrer de manière fiable.

Les WSJ Le rapport indique que des documents internes montrent qu’il y a deux ans, Facebook a réduit le temps pendant lequel les examinateurs humains se concentraient sur les plaintes pour discours haineux et a effectué d’autres ajustements qui ont réduit le nombre de plaintes. Cela a à son tour contribué à donner l’impression que l’intelligence artificielle de Facebook avait mieux réussi à faire respecter les règles de l’entreprise qu’elle ne l’était en réalité, selon le WSJ.

Une équipe d’employés de Facebook a découvert en mars que les systèmes automatisés de l’entreprise supprimaient les publications qui généraient entre 3 et 5 % des vues de discours de haine sur la plate-forme sociale, et moins de 1 % de tout le contenu qui enfreignait ses règles contre la violence et l’incitation, le WSJ signalé.

Mais Rosen a fait valoir que se concentrer uniquement sur les suppressions de contenu était « la mauvaise façon de voir comment nous combattons le discours de haine ». Il dit que la technologie pour supprimer le discours de haine n’est qu’une méthode que Facebook utilise pour le combattre. « Nous devons être sûrs que quelque chose est un discours de haine avant de le supprimer », a déclaré Rosen.

Au lieu de cela, a-t-il dit, la société pense que se concentrer sur la prévalence des discours de haine que les gens voient réellement sur la plate-forme et comment elle les réduit à l’aide de divers outils est une mesure plus importante. Il a affirmé que pour 10 000 vues d’un contenu sur Facebook, il y avait cinq vues de discours de haine. « La prévalence nous dit ce que les gens voient dans le contenu violant parce que nous l’avons manqué », a écrit Rosen. « C’est ainsi que nous évaluons le plus objectivement nos progrès, car cela fournit l’image la plus complète. »

Mais les documents internes obtenus par le WSJ a montré que certains éléments de contenu importants ont pu échapper à la détection de Facebook, y compris des vidéos d’accidents de voiture qui montraient des personnes avec des blessures graphiques et des menaces violentes contre les enfants trans.

Les WSJ a produit un série de reportages sur Facebook sur la base de documents internes fournis par la dénonciatrice Frances Haugen. Elle a témoigné devant le Congrès que l’entreprise était consciente de l’impact négatif que sa plateforme Instagram pouvait avoir sur les adolescents. Facebook a contesté le signalement sur la base des documents internes.


Source link

Articles similaires

Bouton retour en haut de la page