High Tech

La plongée profonde du WSJ dans les trous de lapin des troubles de l’alimentation sur TikTok explique un changement soudain de politique

Un rapport troublant de la le journal Wall Street explore les expériences personnelles de jeunes filles qui ont été envoyées dans des terriers de lapin de défis de perte de poids extrêmes, de techniques de purge et de régimes mortels via TikTok, contribuant au développement de troubles de l’alimentation ou à l’aggravation de troubles existants. le WSJ a fait sa propre expérience pour voir comment l’algorithme de TikTok peut potentiellement promouvoir ce type de contenu préjudiciable – ses conclusions peuvent expliquer la décision soudaine de TikTok de modifier le fonctionnement de son système de recommandation vidéo.

Comme détaillé dans le rapport, le WSJ a créé plus de 100 comptes « qui ont parcouru l’application avec peu d’intervention humaine », dont 12 étaient des bots enregistrés auprès d’enfants de 13 ans qui ont passé du temps sur des vidéos sur la perte de poids, l’alcool et les jeux d’argent. Un graphique inclus dans le rapport montre que dès que l’un des robots a brusquement cessé de regarder des vidéos liées au jeu et a commencé à passer du temps sur des vidéos sur la perte de poids, l’algorithme de TikTok s’est ajusté en conséquence ; il a rapidement augmenté le nombre de vidéos de perte de poids que le bot a vues pour expliquer ce changement de comportement.

Au terme de son expérience, le WSJ a constaté que sur les 255 000 vidéos que les robots ont regardées au total, 32 700 d’entre elles contenaient une description ou des métadonnées correspondant à une liste de centaines de mots-clés relatifs à la perte de poids. 11 615 vidéos avaient des descriptions textuelles qui correspondaient à des mots-clés pertinents pour les troubles de l’alimentation, tandis que 4 402 avaient une combinaison de mots-clés qui indiquaient la normalisation des troubles de l’alimentation.

Un certain nombre de ces vidéos utilisaient des orthographes différentes pour les mots-clés liés aux troubles de l’alimentation afin d’éviter d’être signalés par TikTok. Après le WSJ a alerté la plateforme sur un échantillon de 2 960 vidéos liées aux troubles de l’alimentation, 1 778 ont été supprimées – le WSJ dit qu’il n’est pas clair s’il a été supprimé par TikTok ou par les créateurs eux-mêmes.

Juste un jour avant le WSJle rapport de s abandonné, TikTok a annoncé qu’il travaille sur de nouvelles façons d’empêcher la formation de ces dangereux terriers de lapin. Ce changement s’est également produit quelques jours seulement après la WSJ dit avoir contacté TikTok pour une déclaration sur son histoire à venir, il est donc possible que TikTok ait déployé la mise à jour de manière préventive avant la publication du rapport.

Dans son billet, TikTok reconnaît qu’il n’est pas toujours sain de regarder certains types de contenu encore et encore, y compris des vidéos liées aux régimes extrêmes et à la forme physique. Il travaille maintenant sur un moyen de déterminer si son système de recommandation diffuse involontairement des vidéos qui pourraient ne pas enfreindre les politiques de TikTok, mais pourraient être nocives si elles étaient consommées de manière excessive. La plate-forme indique également qu’elle teste un outil qui permettra aux utilisateurs d’empêcher les vidéos contenant certains mots ou hashtags d’apparaître sur leur page For You.

« Bien que cette expérience ne reflète pas l’expérience que la plupart des gens ont sur TikTok, même une personne ayant cette expérience est une de trop », a déclaré le porte-parole de TikTok, Jamie Favazza, dans un communiqué à Le bord. « Nous autorisons le contenu éducatif ou axé sur le rétablissement parce que nous comprenons qu’il peut aider les gens à voir qu’il y a de l’espoir, mais le contenu qui favorise, normalise ou glorifie les troubles de l’alimentation est interdit. » Le porte-parole a également souligné que TikTok donne accès à la hotline de la National Eating Disorder Association au sein de l’application.

Si cette situation vous semble familière, c’est qu’Instagram l’a déjà vécu (et y fait toujours face). Après le lanceur d’alerte Francis Haugen a divulgué les Facebook Papers, une collection de documents Facebook internes révélateurs, Instagram a travaillé rapidement pour colmater les trous de son navire en perdition.

Les articles montrent que Facebook a fait ses propres recherches sur l’impact d’Instagram sur les adolescents, et a découvert que l’application pouvait faire des ravages sur la santé mentale des adolescents, et a également aggravé l’image corporelle des jeunes filles. Environ un mois plus tard, Instagram a annoncé son intention d’introduire une fonctionnalité qui « poussera » les adolescents de visionner du contenu potentiellement dangereux. Ça aussi déployé une fonctionnalité « faire une pause » qui invite les utilisateurs à fermer l’application s’ils ont passé un certain temps sur la plate-forme, allant de 10, 20 ou 30 minutes.


Source link

Articles similaires

Bouton retour en haut de la page