A Ubisoft e a Riot estão colaborando em um projeto de pesquisa antitoxicidade, que se concentrará na coleta de logs de bate-papo no jogo como dados de treinamento para algoritmos de IA. Ambas as empresas devem divulgar suas descobertas a partir desses dados no próximo verão, momento em que as etapas futuras serão decididas.
Falando comigo por meio de uma chamada do Zoom, Wesley Kerr, diretor de pesquisa de tecnologia da Riot, e Yves Jacquier, diretor executivo da Ubisoft La Forge, ambos compartilharam seus objetivos e esperanças de longo prazo para o projeto. Aclamando-o como o primeiro de seu tipo como uma colaboração de pesquisa aberta no campo da IA entre duas empresas de jogos, eles esperam que os aprendizados publicados no próximo ano sejam o primeiro passo no uso efetivo da IA como uma ferramenta na indústria para reduzir a toxicidade.
Por alguma razão, os jogadores do Udyr sempre foram muito tóxicos quando eu jogava muito League. Eu me pergunto se isso ainda é verdade depois de seu retrabalho?
Segundo Jacquier, o projeto tem três objetivos principais. Primeiro, para criar uma rede de conjuntos de dados compartilhados, preenchida com dados de jogadores totalmente anônimos. A segunda, para criar um algoritmo de IA que possa trabalhar com esses dados. Por fim, que esta parceria sirva de “protótipo” para futuras iniciativas da indústria contra a toxicidade, incentivando a concorrência e novos avanços na área.
Faz sentido que a Riot e a Ubisoft sejam duas empresas investidas na solução deste problema, se seus populares títulos multijogador forem considerados. Rainbow Six: Siege fica muito sujo muito rápido assim que a cooperação em toda a equipe é atingida, e os gêmeos problemáticos da Riot, League of Legends e Valorant, ficam encharcados de lodo tóxico.
Tanto Kerr quanto Jacquier enfatizaram ao longo da entrevista que o anonimato do jogador e a adesão às leis regionais e ao GDPR estavam entre suas principais prioridades. Quando perguntado se os dados do jogador eram compartilhados entre empresas, Kerr enfatizou que as informações da sua conta do League of Legends não seriam enviadas para outras empresas sem o consentimento do jogador. Em vez disso, os logs de bate-papo seriam desprovidos de informações de identificação antes que qualquer algoritmo pudesse pegá-las e cutucá-las.
O problema mais imediato que vem à mente quando você ouve sobre a IA reduzindo a toxicidade é a perseverança dos jogadores, determinado a deixá-lo saber o quão lixo você é. A invenção de novas palavras, um léxico de conversa fiada que se transforma, está em constante mudança nas comunidades online. Como uma IA poderia responder a isso? O truque, segundo Jacquier, é não confiar no dicionário e nas fontes de dados estáticos. Assim, o valor em usar os registros de bate-papo do jogador atual, que refletem a meta de toxicidade atual.
Depois, há a outra preocupação de falhas de tiro, especialmente em um meio onde brincadeiras amigáveis entre amigos, companheiros de equipe aleatórios e até mesmo jogadores inimigos pode fazer parte da experiência. Se estou jogando na rota superior em League of Legends e escrevo”bom amigo do CS”para meu oponente da rota 0/3, isso é apenas um pouco de brincadeira, certo? Se eles fizerem o mesmo comigo, isso é revigorante. Isso me faz querer ganhar mais e melhora a experiência. Como uma IA pode determinar a diferença entre toxicidade prejudicial genuína e brincadeira?
“É muito difícil”, afirma Jacquer. “Entender o contexto de uma discussão é uma das partes mais difíceis. Por exemplo, se um jogador ameaçar outro jogador. Em Rainbow Six, se um jogador disser ‘ei, vou te levar para sair’, isso pode ser parte da fantasia. Considerando que em outros contextos pode ter um significado muito diferente.” Kerr seguiu com alguns dos benefícios que os videogames têm a esse respeito, graças a outros fatores.
Segundo ele, levar em consideração com quem você faz fila é um exemplo de fator que pode ajudar a IA na determinação da toxicidade real de nervuras divertidas. Em teoria, você não seria atingido por vira-latas se chamasse seu melhor amigo de merda em um lobby da Liga.
Quanto ao futuro, todos os olhos estão voltados para os resultados publicados no ano que vem. Por enquanto, está focado apenas em registros de bate-papo, mas com a Riot Games procurando monitorar as comunicações de voz no Valorant, Kerr se recusou a tirá-lo da mesa como uma futura área de pesquisa se a colaboração continuar depois de 2023. Por enquanto, é um projeto. Um primeiro passo de uma longa jornada ambas as empresas aparecem dedicadas a viajar. Embora Kerr e Jacquier tenham esperança de que o projeto de pesquisa produza descobertas importantes e inspire outras empresas a seguir o exemplo, eles não acreditam que a IA seja o princípio e o fim de toda a moderação de toxicidade.
“IA é uma ferramenta, mas não é uma bala de prata. Existem muitas maneiras de garantir a segurança do jogador, então a ideia é entender melhor como essa ferramenta pode ser melhor usada para lidar com conteúdo nocivo.”
Em última análise, esta pesquisa é apenas um componente em um esforço mais amplo, mas nas mentes de ambos, Jacquier e Kerr, que esperamos que se mostre crítico no futuro. Só o tempo dirá se eles estão certos, se eles podem manter a promessa de que a privacidade dos jogadores será mantida e se a IA realmente é a próxima fronteira na batalha contra a toxicidade.