Xbox explique son approche évolutive pour créer des expériences de jeu plus sûres

Third Transparency Report Hero Image Écran Partagé

Le 7 novembre 2023, le troisième rapport de transparence de Xbox a été rendu public, fournissant des informations détaillées sur les initiatives visant à créer des expériences de jeu plus sûres. Ce document met en avant l’importance cruciale de la supervision humaine conjuguée aux avancées constantes de l’intelligence artificielle, renforçant ainsi les bases de leurs efforts en matière de sécurité jusqu’à présent.

Avec l’évolution constante de la plateforme et de la communauté du jeu, la sécurité nécessite une profondeur, une vitesse et une agilité accrues pour protéger les joueurs contre la toxicité potentielle.

Xbox s’adapte continuellement aux changements de l’industrie, en explorant et utilisant de plus en plus l’intelligence artificielle (IA). L’IA joue un rôle croissant dans l’accélération de la modération du contenu à l’échelle mondiale. L’équipe innove activement en appliquant de manière responsable l’IA pour offrir des expériences de joueur plus sûres, en combinant la surveillance humaine avec les capacités émergentes de l’IA.

Actuellement, Xbox utilise divers modèles d’IA existants, tels que Community Sift et Turing Bletchley v3, pour détecter le contenu toxique. Community Sift, une plateforme de modération de contenu alimentée par l’IA, filtre des milliards d’interactions humaines par an. Ils cherchent à améliorer ces systèmes en comprenant mieux le contexte des interactions, en élargissant l’échelle pour les joueurs, en augmentant les capacités des modérateurs humains et en réduisant l’exposition au contenu sensible.

L’article souligne les résultats clés du rapport, notamment une augmentation de 39% du nombre d’images bloquées grâce à l’utilisation de la nouvelle base de modèle Turing Bletchley v3. La sécurité proactive de la plateforme bloque le contenu avant qu’il n’atteigne les joueurs, avec 87% des sanctions totales provenant d’efforts de modération proactifs.

Une emphase accrue est mise sur la lutte contre le harcèlement, avec une augmentation de 95% des sanctions proactives pour harcèlement/bullying. Une nouvelle fonctionnalité de signalement vocal est également lancée pour capturer et signaler le harcèlement vocal en jeu.

L’article aborde également la compréhension du comportement des joueurs après une sanction. Des analyses indiquent que la majorité des joueurs ne violent pas les normes de la communauté après une sanction, et beaucoup s’engagent positivement avec la communauté. Le nouveau système de sanctions vise à aider les joueurs à comprendre la sévérité des sanctions, l’effet cumulatif et l’impact total sur leur dossier.

En dehors du rapport de transparence, l’équipe travaille avec des partenaires pour promouvoir la sécurité dans l’industrie du jeu. Minecraft s’associe à GamerSafer pour promouvoir des serveurs sûrs, et des kits d’outils de sécurité pour les jeux Xbox sont lancés au Japon et à Singapour, offrant aux parents des ressources pour gérer l’expérience de jeu de leurs enfants.

En introduisant des mesures de sécurité telles que la fonction de signalement vocal et le système de sanctions, Xbox vise à créer une communauté où chacun peut s’amuser sans crainte ni intimidation. Chaque joueur a un rôle à jouer dans la création d’un environnement positif, et Xbox continue à innover pour renforcer la sécurité et l’interaction respectueuse entre les joueurs.

Le rapport complet est consultable ici.

Source: Microsoft

Crédits Image à la une: Third Xbox Transparency Report Shows Our Evolving Approach to Creating Safer Gaming Experiences

À propos de Marc Shakour

Ancien programmeur de jeu vidéo, chroniqueur, professeur, compétiteur... Marc Shakour connaît très bien l'univers et l'industrie du jeu vidéo depuis toujours. Il a décidé d'aider les néophytes à découvrir de nouveaux univers, mondes et créatures fantastiques.

Voir tous les articles de Marc Shakour