«Call of Duty»L’IA détectera les joueurs toxiques dans le chat vocal
Activision prévoit de déployer ToxMod, un outil de modération basé sur l’intelligence artificielle, afin de lutter contre les discours de haine dans le chat vocal de sa fameuse franchise.

«Call of Duty: Modern Warfare 3» sortira le 10 novembre 2023.
Les joueurs au comportement toxique sont avertis. Dans un billet de blog, Activision a annoncé avoir franchi une nouvelle étape dans son engagement à lutter contre les comportements toxiques et perturbateurs. L’éditeur de jeux vidéo a annoncé un partenariat avec Modulate, entreprise spécialisée dans l’intelligence artificielle. Cet accord va permettre à la société dirigée par Bobby Kotick de déployer l’outil ToxMod dans sa populaire franchise de jeu de tir à la première personne «Call of Duty». En test en version bêta dans «Call of Duty: Modern Warfare 2» et «Call of Duty: Warzone», depuis mercredi en Amérique du Nord, il doit permettre de surveiller leur chat vocal respectif dans le but d’identifier en temps réel et de lutter contre les discours de haine, de discrimination ou de harcèlement. Ce système sera ensuite déployé au niveau mondial (hormis en Asie) avec la sortie de «Call of Duty: Modern Warfare 3» le 10 novembre 2023. Fonctionnant pour les discussions vocales en anglais, l’outil prendra en charge d’autres langues par la suite, précise Activision.
Modulate explique sur son site que son IA, basée sur une technologie avancée d’apprentissage automatique, effectue d’abord un tri du chat vocal pour déterminer quelles conversations nécessitent une investigation. Ensuite, «la puissante analyse de toxicité de ToxMod évalue le ton, le timbre, l’émotion et le contexte d’une conversation afin de déterminer le type et la gravité du comportement toxique», explique l’entreprise. L’outil se chargera finalement de signaler les mauvais comportements de joueurs violant les règles de conduite à des modérateurs humains, qui peuvent décider de sévir contre leurs auteurs s’ils le jugent nécessaire.
Système complémentaire
Cette nouveauté vient renforcer les systèmes actuels de modération anti-toxicité de «Call of Duty» qui comprennent un filtrage textuel dans 14 langues, ainsi que le système de signalement des joueurs dans le jeu, précise Activision. Ils ont permis de sanctionner un million de comptes, depuis le lancement de «Call of Duty: Warfare 2», revendique la firme américaine, qui s’est aussi armée contre la triche.
Ne ratez plus aucune info
Pour rester informé(e) sur vos thématiques préférées et ne rien manquer de l’actualité, inscrivez-vous à notre newsletter et recevez chaque jour, directement dans votre boîte mail, l’essentiel des infos de la journée.