Informatique

Il n’y a « pas suffisamment de modérateurs francophones chez

Il n'y a « pas suffisamment de modérateurs francophones chez Facebook », alerte Frances Haugen

L’ancienne ingénieure de Facebook, Frances Haugen, devant les sénateurs ce mercredi. 

Depuis la révélation des « Facebook Files »,
Frances Haugen a défilé devant le Congrès américain, le Parlement
britannique et à Bruxelles, avant un passage à Paris, hier, pour
rencontrer les députés et les sénateurs français. « Facebook choisit les
profits plutôt que la sécurité » a-t-elle déclaré devant les
parlementaires venus avec une longue liste de questions liées aux
algorithmes, à la modération de contenus ou encore à la régulation des
plateformes.

L’ancienne employée de Facebook qui a travaillé comme chef de produit au
sein de l’équipe désinformation civile de l’entreprise, a accusé le
géant des médias sociaux de priviléger à plusieurs reprises le profit au
détriment de la lutte contre les discours haineux et la
désinformation. Pour la lanceuse d’alerte,
les réseaux sociaux qui utilisent des algorithmes opaques pour diffuser
des contenus préjudiciables doivent être maîtrisés d’urgence.

Interrogée notamment sur la régulation des plateformes dites « systémiques », dans le cadre du Digital Services Act de l’UE, Frances Haugen a affiché son soutien pour une législation plus stricte. « Il faut que de nouvelles lois soient mises en place. Je suis reconnaissante au gouvernement français de prendre ce sujet à coeur » a-t-elle déclaré dans son propos liminaire devant les députés mercredi matin.

L’accès aux données et l’identification des contenus nuisibles

Toutefois, « de nouvelles lois dépendent aussi de la volonté des Etats membres
de la faire appliquer » a-t-elle insisté. Et surtout, pour être en
capacité d’évaluer de la manière la plus transparente possible les
risques liés aux contenus diffusés sur la plateforme, « il faut s’assurer
que les audits ne couvrent pas seulement les contenus illégaux, mais
aussi les contenus légaux qui soient nuisibles et toxiques », comme la
manipulation des élections et la désinformation sur les méfaits de la
santé mentale, a-t-elle ajouté.

Pour la lançeuse d’alerte, l’accès aux données est primordial pour analyser le comportement des algorithmes et des réseaux sociaux. Elle défend en ce sens l’accès ouvert pour les chercheurs et universitaires, et un accès étendu aux données agrégées.

« Il faut rattraper le fossé entre l’évolution des technologies et les régulations. Il n’y a qu’une poignée d’experts qui puissent comprendre ces phénomènes. Il faut des employés, comme moi, qui sortent des entreprises, pour prévenir des dangers au public » dit l’ancienne ingénieure de Facebook.

Trois quarts des modérateurs du groupe sont anglophones

Frances Haugen alerte aussi sur la faible modération des contenus francophones. « Je peux vous garantir qu’il n’y a pas suffisamment de modérateurs francophones chez Facebook » souligne l’ex-employée. Sans donner de nombre exact, elle précise aux sénateurs que « les trois quarts des modérateurs sont anglophones ». 

Selon Frances Haugen, cela pose la question de la place du réseau social dans les sociétés culturellement et linguistiquement diverses. « Facebook devrait dire quel contenu a été éliminé, en quelle langue et pourquoi. On se rendrait compte alors que le français ne bénéficie pas de tous les système de sécurité qu’en anglais » note-t-elle.

Sur la question des algorithmes, Frances Haugen identifie le changement intervenu en 2018 et l’introduction du classement des contenus fondé sur l’engagement comme un problème de fond, qui favorise en outre les publications issues des groupes au détriment des contenus partagés par l’entourage proche. La « volonté » derrière cette stratégie, explique-t-elle, était de « générer davantage de contenus. Et quand on génère plus de contenus, on reste plus longtemps sur le site et on consomme plus de publicités ».

« Facebook n’avait pas l’intention de faire partir cet incendie, mais ils ont réalisé que plus clics arrivaient vite, plus il y avait de colère ». La lançeuse d’alerte se veut optimiste, et affirme que cela « peut être corrigé », à condition que Facebook y soit contraint. « On doit avoir un écosystème de responsabilité pour contrebalancer le poids de ces plateformes ».

Face à ces déclarations, le groupe Meta a réagi aux propos de la lançeuse d’alerte ce mercredi : « Contrairement aux affirmations formulées contre notre entreprise, nous avons toujours eu un intérêt économique à retirer les contenus nuisibles de nos plateformes » a indiqué un porte-parole de l’entreprise, cité par Le Figaro. Le fondateur et PDG de Facebook, Mark Zuckerberg, avait lui-même démenti publiquement
les accusations de la lanceuse d’alerte dans les semaines précédentes. « Nous nous soucions
profondément de questions comme la sécurité, le bien-être et la santé
mentale. Il est difficile de voir nos travaux et nos motivations
déformés dans les médias […] Nous ne nous reconnaissons pas dans la
fausse image de l’entreprise qui est dépeinte », avait-il écrit le 6 octobre dernier dans un post public.




Source link

Articles similaires

Bouton retour en haut de la page