High Tech

Le Meta CTO Andrew Bosworth met en garde contre une « menace existentielle » dans la modération de la réalité virtuelle

Le directeur technique de Meta (anciennement Facebook) Andrew Bosworth a averti les employés que la création d’expériences de réalité virtuelle sécurisées était un élément essentiel de son plan d’affaires, mais aussi potentiellement impossible à grande échelle.

Dans une note interne vu par Temps Financier, Bosworth a apparemment déclaré qu’il souhaitait que les mondes virtuels Meta aient « des niveaux de sécurité presque Disney », bien que les espaces de développeurs tiers puissent avoir des normes plus souples que le contenu directement construit par Meta. Le harcèlement ou tout autre comportement toxique pourrait constituer une « menace existentielle » pour les plans de l’entreprise pour un futur Internet incarné s’il détournait les consommateurs grand public de la réalité virtuelle.

Dans le même temps, Bosworth a déclaré qu’il est pratiquement impossible de contrôler le comportement des utilisateurs « à n’importe quelle échelle significative ». FT la journaliste Hannah Murphy a ensuite tweeté que Bosworth citait Théorème d’impossibilité de Masnick: une maxime, forgée par Techdirt fondateur Mike Masnick, qui dit que « la modération de contenu à grande échelle est impossible à bien faire ». (L’écriture de Masnick note que ce n’est pas un argument contre la pression pour une meilleure modération, mais les grands systèmes finiront toujours par frustrer de très larges segments de la population.)

Bosworth suggère apparemment que Meta pourrait modérer des espaces comme sa plate-forme Horizon Worlds VR en utilisant une version plus stricte de ses règles communautaires existantes, affirmant que la modération VR ou métaverse pourrait avoir «un parti pris plus fort vers l’application le long d’une sorte de spectre d’avertissement, des suspensions successivement plus longues, et finalement expulsion des espaces multi-utilisateurs.

Bien que le mémo complet ne soit pas accessible au public, Bosworth a publié une entrée de blog y faisant allusion plus tard dans la journée. Le message, intitulé « Assurer la sécurité des personnes en VR et au-delà », fait référence à plusieurs des outils de modération VR existants de Meta. Cela inclut de permettre aux gens de bloquer d’autres utilisateurs en VR, ainsi qu’un système de surveillance étendu Horizon pour surveiller et signaler les mauvais comportements. Meta a également a promis 50 millions de dollars pour la recherche dans les questions pratiques et éthiques autour de ses plans métavers.

Comme FT notes, les anciennes plateformes de Meta comme Facebook et Instagram ont été fustigées pour de graves échecs de modération, y compris des réponses lentes et inadéquates au contenu qui promu la haine et incité à la violence. Le récent changement de marque de la société offre un nouveau départ potentiel, mais comme le note le mémo, la réalité virtuelle et les mondes virtuels seront probablement confrontés à un tout nouvel ensemble de problèmes en plus des problèmes existants.

« Nous avons souvent des conversations franches en interne et en externe sur les défis auxquels nous sommes confrontés, les compromis impliqués et les résultats potentiels de notre travail », a écrit Bosworth dans le blog. « Il y a des problèmes sociétaux et techniques difficiles en jeu, et nous les affrontons quotidiennement. »




Source link

Articles similaires

Bouton retour en haut de la page