[weglot_switcher]

Facebook nega acusações de não fazer o suficiente no combate ao discurso de ódio

Os documentos internos do Facebook que foram disponibilizados por Frances Haugen, vistos pelo WSJ, incluem informações sobre uma equipa de funcionários que supostamente descobriram que a rede social foi bem-sucedida em remover apenas 1% das publicações que violam as próprias regras da empresa.
18 Outubro 2021, 17h50

O Facebook negou as acusações de que os seus algoritmos removem apenas um pequeno número de publicações com contendo considerado “discurso de ódio”. O esclarecimento acontece após a gigante norte-americana ter sido acusada por uma ex-funcionária de colocar lucro acima do bem público, partilhando documentos internos que o justificam.

A Facebook utiliza sistemas automatizados, a par de outros métodos, para identificar e retirar essas publicações. O “Wall Street Journal” (WSJ) afirmou que os documentos disponibilizados pela ex-funcionária sugerem que apenas uma pequena percentagem do conteúdo ofensivo é realmente removido pela tecnológica. O Facebook, no entanto, insistiu que recentemente obteve sucesso na redução do discurso de ódio na sua plataforma.

Os documentos internos do Facebook, que foram disponibilizados por Frances Haugen, vistos pelo WSJ, incluem informações sobre uma equipa de funcionários que supostamente descobriram que a rede social foi bem-sucedida em remover apenas 1% das publicações que violam as próprias regras da empresa.

Em março de 2021, uma avaliação interna supostamente descobriu que os esforços de remoção automática do Facebook estavam a eliminar publicações, gerando apenas cerca de 3% a 5% do total de visualizações de discurso de ódio.

A Facebook afirma que também reduziu a quantidade de tempo que os revisores humanos gastam na verificação de reclamações de discurso de ódio feitas por utilizadores. Essa mudança, relatada como tendo ocorrido há dois anos, “tornou a empresa mais dependente da aplicação das suas regras por inteligência artificial e influenciou o aparente sucesso da tecnológica nas suas estatísticas públicas”, alegou o WSJ.

Por sua  vez, a Facebook negou veementemente que está a fracassar no combate ao discurso de ódio. Guy Rosen, vice-presidente de integridade da Facebook, fez uma publicação onde afirma que foi utilizada uma métrica diferente para avaliar o progresso da Facebook nessa área.

Rosen apontou que a prevalência de discurso de ódio na Facebook, ou seja, a quantidade desse tipo de material visualizado na rede social, caiu como uma percentagem de todo o conteúdo visualizado pelos utilizadores. O discurso do ódio atualmente é responsável por 0,05%, ou cinco visualizações a cada dez mil, e caiu 50% nos últimos nove meses, disse o responsável.

“Prevalência é como medimos o nosso trabalho internamente e é por isso que partilhamos a mesma métrica externamente”, acrescentou.

Rosen também observou que mais de 97% do conteúdo removido é detetado de forma proativa pelos algoritmos da Facebook antes de ser reportado pelos utilizadores que o viram.

Entrevistada durante o programa ’60 Minutos’ da “CBS” Frances Haugen disse que os milhares de documentos que recolheu e partilhou com o “Wall Street Journal” e com as autoridades norte-americanas revelam que a empresa mentiu ao público quando afirmou que estava a fazer progressos significativos contra o ódio, a violência e a desinformação.

“A única coisa que vi no Facebook repetidamente foi que havia conflitos de interesse entre o que era bom para o público e o que era bom para o Facebook. E o Facebook, repetidamente, escolheu otimizar para os seus próprios interesses, como ganhar mais dinheiro”, disse Haugen.

Copyright © Jornal Económico. Todos os direitos reservados.