Facebook trabalha em Inteligência Artificial para detectar conteúdo ofensivo em transmissões ao vivo

facebook-live

Segundo Reuters, Facebook está trabalhando em uma nova forma de detectar automaticamente conteúdo ofensivo.

A ideia é aplicar um sistema baseado em inteligência artificial nas transmissões ao vivo, para detectar cenas de nudez, violência ou qualquer classe de conteúdo inapropriado, segundo a política do Facebook.

Leia também: EXTENSÃO IDENTIFICA NOTÍCIAS FALSAS NO FACEBOOK

Não é de hoje que o Facebook é criticado por seu sistema pouco eficaz na hora de detectar notícias falsas ou pelo seus equívocos ao censurar algumas publicações. Por exemplo, uns meses atrás, Facebook foi duramente criticado por apagar uma publicação que mostrava uma fotografia reconhecida internacionalmente relacionada à guerra do Vietnam.

A fotografia realizada pelo fotógrafo Nick Ut, tecnicamente violava a política do Facebook sobre conteúdos com cenas de nudez, porém, o contexto estava bem longe de qualquer sentido pornográfico.

Leia também: FACEBOOK TESTA FUNÇÃO PARA LOCALIZAR REDES WIFI PÚBLICAS

Agora, com esta nova dinâmica, que ainda está em teste, o sistema detectaria um conteúdo inapropriado e marcaria as sequências correspondentes, deixando de lado a revisão dos funcionários do Facebook.

Segundo a equipe do Facebook, ainda falta muito trabalho a ser realizado para potencializar o sistema, já que tem que ser rápido, pela dinâmica das transmissões ao vivo, e entender o funcionamento das políticas da empresa.