Facebook Files: revelado o manual de censura da maior rede social do mundo

Gigantesco leak de documentos internos do Facebook faz-nos questionar se a rede social está preparada para ter 2 mil milhões de utilizadores.

Uma investigação do jornal britânico The Guardian tornou públicos vários documentos internos do Facebook, que revelam como a maior rede social do mundo faz a moderação do enorme volume de conteúdos partilhado pelos seus utilizadores e filtra publicações relacionadas com sexo, violência, terrorismo e associações extremistas.

Casos como o da histórica foto da Guerra do Vietname que o Facebook apagou, o do jornalista censurado depois de alegar corrupção entre o Primeiro-Ministro de Malta e os seus associados, ou das transmissões de crimes através Facebook Live tem-nos mostrado não só a linha ténue que existe entre o que é permitido e não é permitido, mas também a incapacidade da empresa de moderar uma plataforma com quase 2 mil milhões de utilizadores.

O Facebook tem cerca de 4 500 moderadores de conteúdos e anunciou recentemente a contratação de mais 3 000. Só uma pequena parte destas pessoas trabalha internamente no Facebook; as restantes são subcontratadas. Cabe a estes moderadores analisar as publicações que os utilizadores denunciam, seguindo os manuais de regras do Facebook. Esses documentos dividem-se por categoria e foram partilhados pelo The Guardian: actividade sexualsexo e nudez na arte; extorsão e vingança sexual; abuso infantil; violência gráfica; ameaças de violência; e crueldade animal.

Estes manuais, que são entregues aos moderadores, que recebem ainda duas semanas de treino, estão entre os ficheiros analisados pelo The Guardian e que este apelidou de Facebook Files. O jornal diz ter tido acesso a uma centena de documentos, incluindo folhas de cálculo e fluxogramas, e que no meio de toda essa papelada existem ainda directrizes para casos de adulteração de resultados desportivos ou de canibalismo.

O The Guardian não tem dúvidas das incoerências que os Facebook Files revelam. Uma fonte adianta ao jornal que o Facebook não consegue manter o controlo do seu conteúdo porque a plataforma cresceu muito e muito depressa. Essa é precisamente a pergunta que o jornal deixa no final do vídeo-resumo que te apresentamos em cima: o lema do Facebook foi, desde o início, “fazer rápido e partir as coisas” mas se calhar está na altura de “fazer rápido e resolver as coisas”.

O mesmo vídeo resume alguns dos problemas no processo de moderação de conteúdos do Facebook. A rede social deixa passar fotos de abusos a animais mas bloqueia vídeos dessas situações; uma publicação sobre matar o Trump é censurada mas dizer a outra pessoa para morrer já não é considerada uma ameaça credível; directos com mutilações não são bloqueados para não causar um sentimento de censura ou pressão nessas pessoas; vídeos de abortos são permitidos desde que não contenham nudez; uma obra de arte manual contendo nudez é permitida mas se for uma peça digital é eliminada; etc.

Está o Facebook preparado para ter 2 mil milhões de utilizadores? Durante a última F8, conferência para programadores do Facebook, o CEO Mark Zuckerberg disse que ainda ainda há muito trabalho para fazer e que a empresa está empenhada em fazê-lo.

P.S – achas que sabes ser moderador de Facebook? O The Guardian criou um quiz interactivo que te permite testar os teus conhecimentos.

Partilha nas redes sociais:
Share on facebook
Share on twitter
Share on linkedin
  • Jornalista, adepto de cidades humanas e curioso por ideias que melhorem o país. Co-fundei o Shifter em 2013, sou desde 2020 coordenador do projecto editorial Lisboa Para Pessoas.

Contribui para o Shifter para mais artigos como este:

2 €/mês

5 €/mês

10 €/mês

15 €/mês

Donativo

Artigos Relacionados

Junta-te à Comunidade
Jornalismo é aquilo que fazemos todos juntos. Entra na Comunidade Shifter e faz parte da conversa.
Sabe mais
Em teste

Bem-vind@ ao novo site do Shifter! Esta é uma versão beta em que ainda estamos a fazer alguns ajustes.Partilha a tua opinião enviando email para comunidade@shifter.pt