Uma IA para combater o discurso de ódio nas redes sociais


Pesquisadores da Universidade Carnegie Mellon propõem o uso do potencial da inteligência artificial para ajudar grupos marginalizados.

Para isso, desenvolveram um sistema que pode analisar comentários online e detectar aqueles contra, ou á favor, das comunidades marginalizadas ou perseguidas.

Os pesquisadores da LTI desenvolveram um sistema que aproveita a inteligência artificial para analisar rapidamente centenas de milhares de comentários nas redes sociais e identificar a fração que defende ou simpatiza com minorias privadas de seus direitos, como a comunidade Rohingya.

Discursos de ódio nas redes sociais não surgem aleatoriamente, eles são organizados para monopolizar tendências e semear seguidores à medida que suas mensagens progridem. Portanto, é impossível para qualquer grupo de moderadores encontrar mensagens de apoio ou repudiar o assédio que certas comunidades estão sofrendo.

Portanto, a dinâmica que eles propõem com essa IA seria uma maneira simples de combater o ódio e o assédio que se manifesta nesses grupos e destacar o suporte fornecido na web.

A IA precisa analisar o conteúdo e detectar diferentes padrões que determinam se o comentário mostra simpatia pelo grupo ou não. Portanto, é preciso ser treinado para identificar determinadas palavras, levando em consideração erros de ortografia ou gramática, bem como diferentes estilos de escrita de acordo com a região.

Os pesquisadores já testaram esse sistema analisando milhares de comentários do YouTube, concentrando sua atenção na situação dos refugiados de Rohingya, e descobriram que aproximadamente 88% dos comentários foram positivos. Um resultado que foi muito mais eficaz que os métodos tradicionais.

Esse sistema ainda não está disponível, mas é uma pequena amostra do grande potencial que teria para ofuscar o comportamento abusivo e o ódio nas plataformas sociais.