Google lança ferramenta para ajudar a eliminar conteúdos de abuso sexual infantil

Google
Google acaba de apresentar uma nova ferramenta de Inteligência Artificial que ajudará os moderadores de conteúdos a revisar com mais eficiência aqueles conteúdos com mais probabilidade de serem material sobre exploração sexual infantil em plena propagação.

Leia também: GOOGLE ESTÁ DESENVOLVENDO UM ASSISTENTE DE FITNESS COM INTELIGÊNCIA ARTIFICIAL

A nova ferramenta será disponibilizada gratuitamente para ONGs e parceiros do setor por meio da API de segurança de conteúdo. Ele irá ajudar os moderadores, de acordo com o Google, a serem mais eficazes, em até 700%, sobre o mesmo período de tempo na hora de encontrar e tomar medidas diante de conteúdos CSAM (material de propagação de abuso sexual infantil, por sua sigla em Inglês ).

Isto ajudará a acelerar a identificação e melhorar a proteção de crianças afetadas em face de novos abusos que possam ocorrer.

O melhor de tudo é que esta nova ferramenta será dedicada a selecionar com mais precisão o conteúdo que são mais propensos a serem de exploração sexual de crianças em propagação para sua revisão, incluindo os conteúdos que não tenham sido previamente denunciados a este respeito.

É que, geralmente, os moderadores costumam revisar os conteúdos que os usuários costumam marcar (denunciar) anteriormente, escapando outros possíveis conteúdos. E, considerando que as organizações e entidades têm recursos limitados, essa nova ferramenta permitirá que sejam eficazes em uma escala maior.

Leia também: SENSAT, A PLATAFORMA QUE SIMULA A REALIDADE COM INTELIGÊNCIA ARTIFICIAL

Google convida entidades interessadas a preencherem um formulário para a inclusão da nova ferramenta em seu atual fluxo de trabalho.