Para mostrar sua dedicação em “promover espaços seguros, positivos, inclusivos e convidativos para todos os jogadores”, a Microsoft lançou seu primeiro Relatório de Transparência do Xbox, que emitiu 4,33 milhões de imposições proativas contra contas inautênticas na comunidade do Xbox. O número representa 814.000 contas de conteúdo sexual adulto, 759.000 de assédio ou bullying e 1 milhão de contas de palavrões.

“A publicação deste relatório faz parte de nosso compromisso de longa data com a segurança online, abordando os aprendizados e fazer mais para ajudar as pessoas a entender como desempenhar um papel positivo na comunidade Xbox”, explica o CVP Xbox Player Services Dave McCarthy em um post do Xbox Wire. “Este relatório complementa a revisão contínua de nossos Padrões da Comunidade, tornando mais fácil para todos os jogadores entenderem o que é e o que não é conduta aceitável; investimento contínuo em ferramentas de moderação; e parceria contínua com associações do setor, reguladores e a comunidade.”

As ações aplicadas às mais de 4 milhões de contas inautênticas entre janeiro e junho constituíram 57% do total de execuções da empresa. Em uma entrevista com Bloomberg, McCarthy disse que não apenas os reforços abordavam contas automatizadas ou criadas por bots, mas também como “atividade regular de atores de estados-nações e outros grupos financiados tentando distribuir conteúdo que não tem lugar em nossos serviços”. p>

Esses reforços proativos, explicou o CVP, foram executados por inteligência artificial ou humanos moderadores. Embora o tamanho do último não tenha sido especificado, McCarthy enfatizou que os agentes estão “na equipe 24 horas por dia, 7 dias por semana, 365 dias por ano” e que a moderação proativa do Xbox aumentou até 9 vezes em comparação com o mesmo período do ano passado. McCarthy também elogiou a participação dos jogadores da comunidade na conquista, que forneceram 33 milhões de denúncias durante o período.

O aumento na moderação proativa do Xbox também pode ser atribuído à aquisição da plataforma de moderação de conteúdo pela Microsoft em 2021 Two Hat, que usa um processo de moderação de conteúdo com inteligência artificial que classifica e filtra mensagens, nomes de usuário, imagens e vídeos. Apesar dessa tecnologia, o Xbox ainda tem outras áreas de recursos para explorar, especificamente na utilização da tecnologia de filtragem de voz para identificar violações da comunidade em sua plataforma. McCarthy disse à Bloomberg que pode se concentrar nessa área no futuro, dando importância à privacidade dos jogadores.

O Xbox promete lançar um relatório de transparência de moderação a cada seis meses. E como esta é a primeira e a empresa é apenas uma das poucas plataformas de jogos que exploram essa nova prática, McCarthy disse que o Xbox está “aprendendo como é um bom relatório de transparência para nós”.

Categories: IT Info