Metas neuer Super-GAU: Belästigung im Metaverse

Image : Méta

L’article ne peut être affiché qu’avec JavaScript activé. Veuillez activer JavaScript dans votre navigateur et recharger la page.

Qu’y a-t-il de pire que le discours de haine et l’intimidation sur Facebook ? Discours de haine et intimidation dans le métaverse. Le directeur technique de Meta, Andrew Bosworth, voit également ce risque.

Dans une note interne disponible pour le Financial Times, Bosworth jure le personnel du Meta à une sécurité maximale du Metaverse : La plate-forme à développer doit La sécurité “presque au niveau de Disney” enchérir tant que la méta-marque se situe au-dessus. Des règles différentes peuvent s’appliquer aux mondes et salles tiers.

Bosworth décrit le comportement toxique et le harcèlement comme une “menace existentielle” potentielle pour les plans Metaverse de Meta si les deux font que les gens se désintéressent de la réalité virtuelle. En tout cas, les premières bandes-annonces Horizon de Meta se rapprochent assez du sentiment Disney.

Comment modérer un monde numérique complet ?

Dans le mémo, Bosworth suggère d’utiliser les règles communautaires existantes de Facebook comme base de la réalité virtuelle, mais d’être plus strict quant à leur application via un système d’avertissement, des suspensions et, finalement, des interdictions de salles multi-utilisateurs.

Cependant, selon Bosworth, il est presque impossible de modérer le comportement des utilisateurs à plus grande échelle. Il fait référence au fondateur de Techdirt, Mike Masnick, qui décrit dans un article de 2019 que la modération des grandes communautés numériques ne peut pas rendre justice à toutes les parties et tous les intérêts impliqués. Selon Masnicks, cependant, cette découverte n’est pas une excuse pour une modération manquante ou médiocre.

Alors que l’argument de Masnick concerne principalement la modération, Meta a des options d’interface supplémentaires dans le Metaverse pour contrôler le comportement des utilisateurs. Par exemple, les approches numériques-physiques peuvent être empêchées par des zones de sécurité que les utilisateurs définissent eux-mêmes. Les plateformes de réalité virtuelle sociale comme Rec Room ouvrent la voie. Meta teste également les mécanismes correspondants.

Metaverse Security : Bosworth publie des directives

Peut-être en réponse à la note interne divulguée, Bosworth a publié un article sur le blog Oculus intitulé “Human Safety in VR and Beyond”, dans lequel il fait référence à divers outils de modération VR qui existent déjà.

logo

Cela inclut le bloc corporel décrit précédemment, qui existe également dans Oculus Venues, et la surveillance par des modérateurs invisibles observateurs, comme cela se produit dans la version bêta d’Horizon. Les modérateurs sont envoyés s’il y a des soupçons concrets, par exemple après des plaintes. Sont également disponibles des outils de signalement directement en VR et sur le web, ainsi qu’une fonction de blocage individuel.

De plus, la version bêta d’Horizon conserve automatiquement les enregistrements de manière continue et les conserve dans un cache. En cas de réclamations, les enregistrements peuvent être consultés et envoyés. Sinon, ils sont automatiquement écrasés après un certain temps.

« La route vers le métaverse est une route longue et nécessairement collaborative, et il est facile d’oublier que la VR est encore un média relativement jeune. Les normes communes de comportement acceptable dans ces espaces évoluent encore », écrit Bosworth.

Entre autres choses, le responsable technique fait référence à un programme de recherche sur la sécurité Metaverse récemment lancé par Meta, qui débourse 50 millions de dollars américains. C’est une somme relativement faible par rapport aux investissements de Meta dans la technologie XR dans son ensemble. Cependant, ce n’est en aucun cas la seule mesure de Meta.

En savoir plus sur le métaverse :


Leave a Comment