plus

Edição do dia

Leia a edição completa grátis
Previsão do Tempo 25°
cotação atual R$


home
EVOLUÇÃO

Bullying e racismo serão combatidos com inteligência artificial em games

Um dos principais motivos pelos quais os videogames ainda não são amplamente aceitos por todos é o estereótipo de que eles podem ser agressivos para muitos internautas -e, especialmente, para as minorias. De fato, os jogadores precisam lidar com uma toxic

Imagem ilustrativa da notícia Bullying e racismo serão combatidos com inteligência artificial em games camera Reprodução

Um dos principais motivos pelos quais os videogames ainda não são amplamente aceitos por todos é o estereótipo de que eles podem ser agressivos para muitos internautas -e, especialmente, para as minorias. De fato, os jogadores precisam lidar com uma toxicidade, como explicam os profissionais da área, que vão de xingamentos até o racismo, machismo e a homofobia dentro do ambiente online.

Pensando na melhor experiência dos usuários e em erradicar essa visão sobre a comunidade gamer, a Intel e a empresa Spirit AI desenvolveram uma ferramenta que usa inteligência artificial para denunciar comportamentos tóxicos em transmissão ao vivo e chat de games.

"O assédio e bullying se tornam uma barreira para muitas pessoas, independentemente se você é a vítima ou simplesmente um observador que vê como isso afeta outras pessoas", disse a especialista de desenvolvimento de negócios da Intel, Brittany Williams, em entrevista ao F5.

Para ela, a toxicidade e a falta de representatividade de minorias nos games são os dois principais problemas dentro desta comunidade. "A tecnologia é um ótimo caminho para ajudar a monitorar esse comportamento tóxico."

Williams destaca a parceria com a Spirit AI no desenvolvimento de um conceito chamado 'machine learning' [aprendizado automático, em tradução livre] e inteligência artificial para detectar esse comportamento. "É uma ferramenta de monitoramento, e se você pode monitorar esses canais, você pode torná-los mais seguros para todos também.'

A ferramenta, chamada de "Ally", já é usada por empresas de jogos para detectar assédio buscando por palavrões, por exemplo. Ela é limitada aos textos, mas a ideia é que seja inteiramente ampliada pela Intel para a fala humana. Além disso, ela considera que uma conversa possa ser um bate-papo casual entre amigos, impossibilitando mal-entendidos.

"Tentamos filtrar casos de bullying e detectar o que está acontecendo. Não queremos eliminar um jogador que falou um palavrão durante o jogo, mas queremos um jogo mais limpo, porque há crianças no game. Então, classificamos o que pode ser ofensivo para alguém", diz Hernan Quijano, gerente de vendas de gaming na Intel Corporation. "Eu jogo desde novo e, às vezes, você encontra algo que não é agradável. Agora estamos tentando, com a tecnologia, criar espaços melhores."

Grandes empresas como Twitch, Blizzard, Riot Games, Epic Games (desenvolvedora do jogo 'Fortnite') e Microsoft também já declararam sua guerra anti-toxicidade no universo gamer. Junto à Intel, elas integram uma aliança de mais de 30 empresas chamada "Fair Play Alliance", que visa desenvolver pesquisas e encorajar o ambiente saudável dentro dos jogos.

"Acho que as pessoas são humanas, no final do dia. E pode ser mais confortável se esconder atrás do escudo de um computador e apenas digitar seus sentimentos. Às vezes, essa falta de interação humana deixa as pessoas mais confortáveis para expressar suas negatividades", conclui Williams.

VEM SEGUIR OS CANAIS DO DOL!

Seja sempre o primeiro a ficar bem informado, entre no nosso canal de notícias no WhatsApp e Telegram. Para mais informações sobre os canais do WhatsApp e seguir outros canais do DOL. Acesse: dol.com.br/n/828815.

Quer receber mais notícias como essa?

Cadastre seu email e comece o dia com as notícias selecionadas pelo nosso editor

Conteúdo Relacionado

0 Comentário(s)

plus

Mais em Games

Leia mais notícias de Games. Clique aqui!

Últimas Notícias