Science

Des « mares noires » de haine fleurissent en ligne. Voici quatre

Pour les modérateurs de plateformes sociales telles que Facebook, essayer de réprimer le désarroi écœurant de la culture haineuse en ligne revient à jouer à un jeu tordu de taupe. Dès qu’un groupe haineux en ligne est écrasé, un autre apparaît à sa place, souvent sur une autre plate-forme. Et laisser les points de vue radicaux de ces groupes sans contrôle, disent les experts, peut avoir des conséquences mortelles.

Avec ce problème à l’esprit, une nouvelle étude traite la haine en ligne comme un organisme vivant et évolutif et suit sa propagation et ses interactions au fil du temps. L’équipe de recherche, dirigée par le physicien et chercheur en complexité Neil Johnson de l’Université George Washington à Washington, DC, a créé des modèles mathématiques pour analyser les données de plateformes sociales telles que Facebook et le réseau social russe Vkontakte (VK), où les utilisateurs peuvent former des groupes avec d’autres vues similaires.

« C’est une étude importante et très opportune », déclare Ana-Maria Bliuc, psychologue sociale et politique à l’Université de Dundee en Australie, qui n’a pas participé aux travaux. « [It] va au-delà de ce que nous savons… en fournissant des preuves sur la façon dont les plateformes en ligne aident les « haineux » à s’unifier entre les plateformes et à créer des « ponts haineux » entre les nations et les cultures. »

La haine a plusieurs définitions. Les chercheurs ont défini les « groupes haineux » comme ceux dont les utilisateurs ont exprimé de l’animosité ou préconisé la violence contre une race ou un groupe social particulier. À l’aide d’algorithmes guidés par l’homme et de leur connaissance de certains groupes déjà interdits, les chercheurs ont identifié plus de 1 000 groupes haineux sur plusieurs plateformes, y compris ceux qui se disaient néo-nazis, antisémites ou partisans du groupe État islamique.

Au début du projet, les chercheurs s’attendaient à ce que l’écosystème de la haine en ligne ressemble à un « supermarché » bien achalandé, avec des suprémacistes blancs dans une allée, des antisémites dans une autre et des misogynes dans une autre. « Mais ce n’est pas du tout ce que nous avons trouvé », dit Johnson. Au lieu de cela, il s’agissait plutôt d’un spectre continu, où de nombreux types d’hostilité se fondent les uns dans les autres – un « piège à mouches superconnecté » qui entraîne les gens plus loin dans une vaste communauté de haine en ligne en constante évolution.

Les chercheurs ont cartographié les interactions entre les groupes apparentés, principalement en suivant les publications liées à d’autres groupes. Leur percée s’est produite lorsqu’ils ont réalisé qu’ils devaient suivre ces interactions de l’autre côté plateformes sociales. Au lieu que les groupes haineux se rassemblent en un seul endroit, ils se rencontrent souvent sur de nombreux réseaux différents et des restrictions plus strictes sur une seule plate-forme simplement faire en sorte que les communautés haineuses sur d’autres plateformes se renforcent, Johnson et ses co-auteurs rapportent cette semaine dans La nature.

Les liens multiplateformes, que les chercheurs appellent « autoroutes de la haine », se forment particulièrement rapidement lorsqu’un groupe se sent menacé ou surveillé, disent-ils. Au lendemain de la fusillade de 2018 au lycée Marjory Stoneman Douglas à Parkland, en Floride, par exemple, de nombreux médias ont discuté de l’intérêt du tireur pour le Ku Klux Klan (KKK). À leur tour, les groupes KKK en ligne ont probablement ressenti une surveillance accrue, dit Johnson. Lui et ses collègues ont trouvé un pic de publications dans les groupes Facebook du KKK liés à des groupes haineux sur différentes plates-formes, telles que Gab ou VK, renforçant ainsi « l’organisme idéologique décentralisé du KKK ».

Les autoroutes de la haine peuvent être puissantes pour unir les gens au-delà des frontières géographiques, dit Johnson. « Avec un lien entre 10 000 néo-nazis au Royaume-Uni et 10 000 néo-nazis en Nouvelle-Zélande, puis un autre avec 10 000 aux États-Unis, tout à coup, en deux sauts, vous avez connecté 30 000 personnes avec la même marque de haine », il dit.

De plus, certaines des plates-formes les plus permissives peuvent servir d’incubateurs, en particulier lorsque la présence d’un groupe sur une plate-forme est interdite. Lorsque Facebook a réprimé les groupes KKK en 2016 et 2017, par exemple, bon nombre de leurs anciens membres ont fui vers VK, une plate-forme de médias sociaux populaire en Russie et en Europe de l’Est. Là, ils ont trouvé un « comité d’accueil » virtuel, dit Johnson, avec des pages d’entrée les dirigeant vers des communautés de « personnes qui détestent comme vous ».

Les chercheurs ont découvert que bon nombre de ces groupes VK avaient peu de liens vers des plateformes de médias sociaux externes, mais beaucoup de liens vers d’autres groupes haineux de l’écosystème VK : des « dark pools » qui se sont développés indépendamment des autres réseaux de médias sociaux.

Plus tard, les membres de plusieurs groupes KKK sont revenus sur Facebook après avoir trouvé des moyens de contourner les restrictions de contenu existantes. L’un de ces groupes était composé d’affiches rédigées principalement en ukrainien. Lorsque le gouvernement ukrainien a interdit VK en mai 2017, ces communautés se sont réincarnées sur Facebook en КуКлухКлан, la forme cyrillique de « Ku Klux Klan », pour éviter d’être détectée par les algorithmes de recherche anglais.

Cela suggère que la méthode typique de lutte contre de tels groupes – en interdisant les groupes particulièrement actifs et haineux – est inefficace, selon les chercheurs. Au lieu de cela, ils recommandent quatre politiques dérivées de leurs modèles pour déstabiliser les communautés haineuses en ligne.

Le premier préconise de retirer discrètement les petits groupes de la plateforme, tout en laissant en place les plus grands. Parce que les petits groupes finissent par devenir de plus grands, cette politique les étouffe dans l’œuf. La deuxième politique consiste à interdire au hasard un petit sous-ensemble d’utilisateurs. Une telle interdiction, selon Johnson, serait moins susceptible de faire enrager un grand groupe, et il propose que cela réduirait également la probabilité de multiples poursuites.

Deux autres options sont plus controversées. L’un préconise la création de groupes antihaine qui tenteraient de s’engager avec les communautés haineuses, en les gardant en théorie trop préoccupées pour recruter activement. Le dernier introduirait de faux utilisateurs et groupes pour semer la dissidence parmi les groupes haineux. « Si vous ajoutez du bruit, les récits dans les groupes peuvent commencer à dériver », explique Johnson.

« Cette [is] inquiétant à bien des égards », déclare Sarah Roberts, spécialiste de l’Internet à l’Université de Californie à Los Angeles, qui étudie la modération de contenu. D’une part, dit-elle, les utilisateurs qui s’engagent dans l’une de ces deux politiques pourraient subir des effets négatifs sur la santé mentale. « De quels systèmes de soutien auraient-ils pour faire face à ces engagements ? Quelle formation en résolution de conflits ? Et que se passerait-il si ces interactions se propageaient des engagements en ligne à la violence interpersonnelle dans le monde réel ? »

Bliuc est d’accord. Elle dit que la stratégie d’engagement est « une idée intéressante », mais que davantage de travail est nécessaire pour comprendre comment – et si – une telle interaction en ligne peut changer les opinions de groupes idéologiquement opposés, en particulier à la lumière des recherches qui montrent qu’elle peut entraîner une polarisation supplémentaire. .

Johnson admet que les modèles de son étude sont « hautement idéalisés ». Les plates-formes n’auraient pas à utiliser toutes les politiques, dit-il, chaque site pourrait décider quelles stratégies correspondent le mieux à son fonctionnement. « Je pense que différentes plates-formes choisiraient des politiques différentes », a déclaré Johnson. « Mais s’ils le font chacun, nos calculs suggèrent que ces quatre politiques atténueront la haine. »

Au-delà de la question de savoir dans quelle mesure les politiques pourraient fonctionner, cependant, se pose la question de savoir comment elles s’intègrent aux pratiques directrices de la plupart des plateformes de médias sociaux. Roberts doute qu’ils soient prêts à assumer les énormes risques éthiques et juridiques – et les investissements – nécessaires à une position unifiée. « L’hypothèse fondamentale qui semble sous-tendre l’étude… est que les plateformes elles-mêmes ont définitivement et sans équivoque pris position contre la ‘haine’ sur leurs sites », dit-elle. « Je ne sais pas si c’est une hypothèse qui peut être faite. »


Source link

Articles similaires

Bouton retour en haut de la page