(Foto: Divulgação) |
O número de
publicações com conteúdo violento punidos por violar as regras do Facebook
aumentou quase 10 vezes em um ano, saindo de 3,4 milhões no primeiro trimestre
de 2018 para 33,6 milhões entre janeiro e março de 2019. O balanço foi
divulgado pela plataforma no documento Relatório de Transparência,
que traz números relativos a providências tomadas em relação a posts de
usuários a partir de suas regras internas.
Do total de 33,6 milhões conteúdos
violentos punidos, 171 mil foram objeto de reclamações questionando a retirada
e solicitando a retomada. Cerca de 70 mil mensagens foram republicadas, sendo
24 mil após o recebimento de reclamação e 45 mil por iniciativa própria do
Facebook.
As sanções foram tomadas com base nos
"Padrões da Comunidade", uma das normas internas da rede social,
juntamente com os "Termos de Serviço" e as "Políticas de
Privacidade". Os “Padrões da Comunidade” são formados por um conjunto de
regras que definem o que é proibido e o que é passível de sanção pela
companhia.
São vetados, por exemplo, posts com
nudez, imagens de violência extrema, de suicídio ou auto-mutilação, vendas não
autorizadas, mensagens de apoio a causas ou grupos terroristas e discurso de
ódio. Com base nesses parâmetros, o Facebook monitora as publicações de seus
usuários, bem como recebe denúncias dos usuários apontando violações às regras.
Entre as providências tomadas estão a
cobertura de publicações com avisos (como indicando que se trata de conteúdo
violento), a remoção de um conteúdo, a suspensão de uma conta ou até mesmo o
repasse da denúncia para autoridades quando se tratar de um crime. No caso de
notícias falsas, não há remoção, mas limitação do alcance no newsfeed dos
usuários.
Além dos conteúdos violentos, a empresa
também puniu mensagens com discursos de ódio. O número de publicações
removidas, marcadas ou cujos autores tiveram as contas suspensas saiu de 2,5
milhões para 4 milhões na comparação entre o primeiro trimestre de 2018 e de
2019.
Os posts de propaganda terrorista punidos
com medidas deste tipo também subiram no mesmo período: saíram e 1,9 milhão no
primeiro trimestre de 2018 para 6,4 milhões nos primeiros três meses de 2019.
Quase a totalidade das medidas foi resultante de iniciativa própria do Facebook
a partir da filtragem que realiza dos conteúdos publicados.
Os relatórios de transparência são
divulgados periodicamente pela plataforma. Eles estão disponíveis na
rede.
Fonte: Jonas Valente – Repórter da Agência Brasil