25/03/2019 09:24

Grandes empresas criam exército para combater o discurso do ódio

O discurso do ódio se espalha a toda velocidade pela Internet.

O discurso do ódio se espalha a toda velocidade pela Internet.

Em sua tentativa de mitigar esse fenômeno, corrosivo para a democracia, as grandes empresas de tecnologia se comprometeram em 2016 a apagar em menos de 24 horas as mensagens que incitem crime de racismo, xenofobia ou sexismo.

Para realizar essa tarefa, contrataram um exército de vigilantes que filtram uma avalanche de conteúdos que circulam pela Internet e pelas redes sociais.

Sua tarefa é apagar tudo que fomente o ódio em qualquer um de seus aspectos: etnia, religião ou nacionalidade.

As imagens da transmissão, por meio do Facebook, do atentado em duas mesquitas na Nova Zelândia, que deixou 50 mortos, circularam pela Internet até a polícia dar o alerta.

O Facebook garante que apagou rapidamente o vídeo e também as contas do atirador. No entanto, as cópias já haviam se multiplicado. Seus filtros de inteligência artificial falharam.

O conteúdo foi reproduzido 4.000 vezes até que a empresa pudesse ter acesso ao link com a gravação. Em 24 horas, 1,2 milhão de vídeos foram eliminados. YouTube, Twitter, Instagram e Reddit retiraram também as imagens à medida que iam aparecendo nessas plataformas.

Quatro gigantes da tecnologia − Facebook, Twitter, YouTube e Microsoft − assinaram em 2016 um código de conduta com a Comissão Europeia para combater a incitação ao ódio na Internet.

A esse documento aderiram outras empresas de menor tamanho, como Dailymotion e Snapchat.

Essas empresas afirmam que reforçaram seus sistemas de segurança e vigilância para erradicar conteúdos maliciosos. Utilizam três métodos: as denúncias dos usuários, os programas de inteligência artificial e os vigilantes humanos.

O Google explica que “os padrões daquilo que constitui um discurso de ódio variam de um país para outro, assim como a linguagem e o jargão que utilizam”, e afirma que melhorou sua “velocidade e precisão”. Entre julho e setembro do ano passado, o YouTube eliminou mais de 7 milhões de vídeos por violar suas normas e bloqueou 224 milhões de comentários.

Nesse período, o Facebook apagou 2,5 milhões de publicações que violavam “as normas sobre incitação ao ódio”. Dessas, 53% foram detectadas “proativamente” através de seus próprios sistemas, antes que fosse recebido um aviso externo.

A empresa criada por Mark Zuckerberg contratou especialistas em áreas relacionadas com menores de idade, discurso de ódio e terrorismo.

Suas equipes vigiam em 80 idiomas diferentes. É um trabalho duro, como apontou a comissária de Justiça da União Europeia, Vera Jourová, depois de visitar, recentemente, um centro de controle de conteúdos em Dublin: “Posso dizer que eles têm um dos empregos menos agradáveis do mundo. São heróis da era digital”.

No Facebook, cerca de 15.000 pessoas trabalham em missões de controle. Um dos centros está em Barcelona e opera em colaboração com o Competence Call Center (CCC). Em novembro, já contava com 800 funcionários para “revisar todos os tipos de conteúdos problemáticos e abusivos”.

“É impossível evitar em 100% que essas mensagens estejam presentes. Mas é possível detectá-las cedo, limitar sua viralidade e dificultar muito sua busca na Internet”, afirma Javier Lesaca, doutor em História e pesquisador visitante da Columbia University.

Ele considera que “as novas plataformas de comunicação digital deveriam se conscientizar de que já não são simples empresas de tecnologia”, porque “se transformaram em elementos estruturantes da opinião pública da sociedade e devem assumir a responsabilidade que esse novo papel implica”.

Deu em El País

Ricardo Rosado de Holanda


Descrição Jornalista