Facebook é pouco claro sobre suas políticas, mostram documentos
Conteúdo das políticas públicas disponíveis na rede social é menos claro do que aquele disponibilizado a revisores, o que cria confusão para usuários
Documentos publicados pelo jornal The Guardian revelam como o Facebook lida com publicações relacionadas a pornografia, suicídio, racismo e terrorismo. O jornal teve acesso a mais de 100 manuais internos usados por moderadores da rede social para retirar do ar postagens que não estejam de acordo com as diretrizes da plataforma e reacendeu o debate se o Facebook é uma empresa de mídia ou de tecnologia.
De forma geral, os documentos esclarecem o que é permitido ou não na rede social. O Facebook afirma que as páginas de padrões de comunidade são claras quanto ao que fere as normas — mas isso é discutível. O material disponibilizado nas políticas de uso sobre autoflagelação, por exemplo, é menos claro do que aquele distribuído aos revisores. Isso cria uma confusão entre o que usuários podem ou não denunciar como conteúdo inapropriado.
“Não permitimos a promoção da autoflagelação ou do suicídio. Também trabalhamos com organizações no mundo todo para oferecer assistência a pessoas em dificuldade. Proibimos conteúdos que promovem ou encorajam o suicídio ou qualquer outro tipo de autoflagelação, incluindo automutilação e distúrbios alimentares”, escreve o Facebook sobre o assunto na sua página de padrões de comunidade.
Nos documentos obtidos pelo The Guardian, no entanto, as diretrizes afirmam que materiais do tipo não devem ser removidos instantaneamente. Materiais podem ficar no ar para conscientizar a sociedade sobre questões como saúde mental.
“Nós não queremos censurar ou punir pessoas em desespero que estejam tentando suicídio. Especialistas nos disseram que o melhor para a segurança dessas pessoas é deixar a transmissão ao vivo acontecer enquanto eles estejam engajadas com a audiência”, afirma o material compartilhado com os revisores de conteúdo e publicado pelo The Guardian. Como se pode ver, o material divulgado para os usuários é muito menos claro do que aquele fornecido aos revisores.
Os documentos passam por muitos outros assuntos. Imagens de abuso infantil devem ser removidas se compartilhadas com “sadismo e celebração”. Caso contrário, podem ficar no site se forem marcadas como “conteúdo perturbador”. O The Guardian ouviu especialistas que pedem o fim de “áreas cinzentas” nas políticas da rede social.
Atualmente, a empresa conta com milhares de moderadores para revisar postagens potencialmente ofensivas. Segundo o jornal, este não é um trabalho nada fácil. Por conta da alta demanda, os avaliadores chegam a ter de tomar decisões importantes dentro de apenas 10 segundos de reflexão e análise.
Veja frases que podem ser compartilhadas no Facebook:
– “Vamos bater em crianças gordas” (“Let’s beat up fat kids”);
– “Para estourar o pescoço de uma cadela, certifique-se de aplicar toda sua pressão no meio de sua garganta” (“To snap a bitch’s neck, make sure to apply all your pressure to the middle of her throat”);
– “Seus babacas, é melhor rezar para Deus para que eu mantenha minha mente intacta, pois se eu perder a noção, eu vou literalmente matar centenas de vocês” (“You assholes better pray to God that I keep my mind intact, because if I lose I will literally kill HUNDREDS of you”);
Em comunicado, Monika Bickert, diretora global de políticas de conteúdo do Facebook, disse que é preciso manter o balanço entre liberdade e segurança para os usuários. “Nós trabalhamos muito para fazer do Facebook o mais seguro possível e, ao mesmo tempo, permitir a liberdade de expressão. Isso exige uma reflexão detalhada sobre temas geralmente complexos, algo que levamos muito a sério”, disse em comunicado (veja a íntegra no final deste texto).
Suicídio
O Facebook disse ao The Guardian que a preocupação com esse assunto aumentou nos últimos seis meses por conta do aumento no número de relatórios de automutilações. No ano passado, os moderadores reportaram 4.531 casos de automutilação a cada duas semanas — a empresa estima que serão encontrados 5.016 casos neste ano.
O Facebook acredita que o crescimento está relacionado ao 13 Reasons Why, um seriado da Netflix que trata do suicídio de uma estudante. Os moderadores da rede social foram orientados a reportar qualquer publicação que tenha relação com a série. Além disso, receberam instruções para ignorarem ameaças de suicídio quando a vontade é expressa a partir de emojis e hashtags ou quando o método desejado tem poucas chances de ser bem-sucedido.
Outra orientação dada pelo Facebook aos seus moderadores é “apagar todos os vídeos que descrevem um suicídio, mesmo quando esses vídeos são compartilhados por alguém que não seja a vítima, com o objetivo de aumentar a conscientização”. A única exceção ocorre se o vídeo for de interesse jornalístico.
Leia a íntegra do posicionamento do Facebook:
“Manter as pessoas seguras no Facebook é a nossa maior prioridade. Nós trabalhamos muito para fazer do Facebook o mais seguro possível e, ao mesmo tempo, permitir a liberdade de expressão. Isso exige uma reflexão detalhada sobre temas geralmente complexos, algo que levamos muito a sério. Recentemente, Mark Zuckerberg anunciou que vamos contratar 3 mil pessoas para trabalhar no nosso time de operações em todo o mundo, além das 4.500 que temos hoje, para revisar milhões de denúncias que recebemos todas as semanas, e para melhorar e acelerar o processo de revisão de conteúdos que possam ferir nossas políticas. Além de investir no aumento de pessoal, estamos construindo melhores ferramentas para manter nossa comunidade segura. Vamos simplificar os mecanismos de denúncias, agilizar o processo para nossos revisores determinarem quais posts violam nossos padrões e facilitar para que eles possam entrar em contato com as autoridades quando alguém precisar de ajuda.”
—
Este conteúdo foi originalmente publicado em Exame.com