Activision s'associe à Modulate pour combattre dans

Blog

MaisonMaison / Blog / Activision s'associe à Modulate pour combattre dans

Jun 21, 2023

Activision s'associe à Modulate pour combattre dans

MISE À JOUR 12h40 HAE / 31 AOÛT 2023 par Kyt Dotson Activision Blizzard Inc. joue un rôle plus important dans la gestion de la toxicité du chat vocal dans ses jeux grâce à un partenariat avec Modulate, le développeur de

MISE À JOUR À 12H40 HAE / 31 AOÛT 2023

par Kyt Dotson

Activision Blizzard Inc. joue un rôle plus important dans la lutte contre la toxicité du chat vocal dans ses jeux grâce à un partenariat avec Modulate, le développeur d'une technologie vocale d'apprentissage automatique capable d'évaluer la sécurité des chats en ligne.

La nouvelle technologie, annoncée mercredi, sera déployée partout en Amérique du Nord dans les jeux de tir à la première personne d'Activision « Call of Duty : Modern Warfare II » et « Call of Duty : Warzone ». "Call of Duty" est l'un des titres les plus populaires d'Activision et "Modern Warfare II" a été la version la plus vendue de la société lors de son premier week-end. Il a généré plus de 800 millions de dollars de revenus en seulement trois jours lors de son lancement en novembre 2022, atteignant un nombre maximal de joueurs simultanés de 169 000 joueurs sur la seule plate-forme Steam de Valve Corp.

Les plateformes de jeux en ligne ont souvent été confrontées à ce que l’on pourrait qualifier de « comportements toxiques » dans les discussions de jeux en ligne, tant textuelles que vocales, où les joueurs s’infligent des abus les uns aux autres. Cela peut se produire par la cyberintimidation, les discours de haine, les propos discriminatoires et le harcèlement. Cela peut surtout survenir au milieu de la haute intensité et de l’adrénaline de la compétition.

Le nouveau système de modération du chat vocal utilisera ToxMod, un système de Modulate alimenté par l'intelligence artificielle qui peut identifier les comportements toxiques en temps réel et aider à les faire respecter. La technologie aidera l'équipe anti-toxicité d'Activision, qui suit déjà les discussions textuelles et vocales en filtrant dans 14 langues différentes pour les discussions en jeu.

Selon Modulate, ToxMod fonctionne en appliquant un apprentissage automatique avancé pour signaler le chat vocal en analysant les nuances de la conversation afin qu'il puisse faire la différence entre « f- ouais ! et "f-toi!" ainsi que les émotions de l'utilisateur en regardant le contexte conversationnel et les réactions des autres joueurs.

En plus d'aider à détecter les discours toxiques et l'intimidation, la société a également récemment ajouté des « catégories de risque », qui permettent à l'algorithme d'apprentissage automatique de détecter les tendances comportementales au fil du temps qui suggèrent un risque important de radicalisation violente ou de toilettage d'enfants.

Les nouvelles catégories de risque s’étendent sur des échelles de temps plus longues que la modération en temps réel qui utilise de simples déclarations et tente d’utiliser des modèles d’intention pour signaler les comportements. De cette façon, les modérateurs obtiennent une vue globale du comportement des joueurs sur une chronologie pour voir s'il y a quelque chose dont ils pourraient avoir besoin de s'occuper dans leur communauté.

"Il n'y a jamais de place pour les comportements perturbateurs ou le harcèlement dans les jeux", a déclaré Michael Vance, directeur de la technologie d'Activision. « S'attaquer en particulier au chat vocal perturbateur constitue depuis longtemps un défi extraordinaire dans le domaine des jeux vidéo. Il s’agit d’une étape cruciale vers la création et le maintien d’une expérience amusante, équitable et accueillante pour tous les joueurs.

Les développeurs de jeux tels que Riot Games Inc., l'éditeur du jeu d'esports très compétitif « League of Legends », et d'autres sont depuis longtemps confrontés à la toxicité de leurs jeux et ont du mal à freiner ce comportement dans le chat. Pour aider à lutter contre ces comportements, Riot et Ubisoft Entertainment SA, un éditeur de jeux vidéo français proposant un grand nombre de jeux, se sont associés pour créer une base de données de modération basée sur l'IA afin de faciliter la gestion du langage et des comportements toxiques.

"C'est un grand pas en avant dans le soutien d'une communauté de joueurs de la taille et de l'ampleur de "Call of Duty", et cela renforce encore l'engagement continu d'Activision à diriger cet effort", a déclaré Mike Pappas, directeur général de Modulate.

Activision s'est vanté que depuis le lancement de « Modern Warfare II », l'équipe de modération existante de « Call of Duty » a interdit le chat vocal ou textuel pour plus d'un million de comptes utilisant leur technologie actuelle. D'après les propres recherches de l'entreprise, lorsque le filtrage est combiné avec le signalement, 20 % des joueurs toxiques ne récidivent pas après avoir reçu un premier avertissement. Ceux qui le font subissent des sanctions supplémentaires telles que des restrictions de chat textuel et vocal ou une perte temporaire des privilèges de compte.