Ads Top

Critérios de censura do Facebook vazam; conheça

 (Foto: Pixabay)

 

Mais de 100 manuais, slides e fluxogramas de treinamento interno do Facebook foram divulgados pelo jornal britânico The Guardian. O material mostra as políticas que ditam a censura de materiais violentos ou ofensivos publicados na rede social.

O site vive em constate pressão do público para melhor gerenciair as fotos publicadas. Conteúdos envolvendo violência, bullying, abuso sexual, pornografia, discurso de ódio, auto mutilação e suicídio geram polêmica entre os usuários e os fazem questionar se os paramêtros para a censura utilizados pela empresa são realmente corretos.

Até o momento, as medidas eram desconhecidas, sendo compreendidas apenas parcialmente através de exemplos de casos anteriores e pequenas advertências. Agora, os documentos revelados mostram como as regras determinadas pelo Facebook tentam encontrar um tênue equilíbrio entre a proteção contra a exposição e a liberdade de expressão.

Na grande maioria dos slides, a orientação principal é para que o moderador observe o contexto da imagem ou frase publicada. Segundo a empresa, em muitos casos, xingamentos agressivos são utilizados para "expressar frustação e descontentamento" e não com o objetivo real de ameaçar ou prejudicar alguém.

A coisa muda de figura, porém, quando se trata do presidente Donald Trump. Segundo as regras do site, uma frase escrita da seguinte maneira: "Alguém deveria atirar no Trump" é deletada porque representa uma ameaça a alguém de categoria protegida.

Frases como "para quebrar o pescoço de uma vadia, tenha certeza de pressionar direito no meio da garganta" e "vá se ferrar e morra" não são consideradas "ameaças reais" e por isso são permitidas.

Vídeos de homicídios e violência extrema são liberados, mas são sinalizados como "conteúdo sensível". Segundo a empresa, eles podem servir como conscientizadores de problemas que estejam acontecendo, ou ajudar a identificar as vítimas. No caso de abortos gravados, a exclusão do vídeo só ocorrerá no caso de nudez exposta.

Já transmissões ao vivo de suicídios não são bloqueados já que a rede social não deseja "censurar ou punir pessoas em situação de desespero".

Vídeos e fotos de crianças sofrendo qualquer tipo de abuso que não seja sexual também são liberados, desde que não estejam acompanhados de elementos sádicos ou humilhantes. Imagens de animais maltratados também não são censurados, apenas recebem aviso preliminar alertando o telespectador das imagens violentas que virão a seguir.

Em ambos os casos, a mesma preocupação de alertar a comunidade é colocado como motivo para permanência do conteúdo na internet.

Quanto à nudez, imagens feitas por "mãos humanas" com pinturas e esculturas estão liberadas. Qualquer outro tipo de foto ou imagem feita por computador é retirado do site. A companhia, porém, abre uma excessão quando as imagens estão colocadas em contexto de guerra, como o Holocausto. A medida foi implantada depois da polêmica em que o site se envolveu ao deletar a icônica fotografia da garota vietnamita correndo nua pela rua após um bombardeio.

O Facebook continua a ser um mistério para muitos e, apesar de conter mais de dois bilhões de usuários, é difícil para a empresa agradar e controlar todos aqueles que particpam da comunidade.

Ao mesmo tempo em que foi extremamente criticada por permitir conteúdos como o assassinato de uma filha pelo pai na Tailândia, a rede já foi responsável por ajudar a identificar criminosos e casos de abusos de autoridade.

Leia mais:
+ Facebook pode ser solução para desaparecimento de Madeleine McCann
+ Facebook, Google, Apple e Netflix abrem vagas de emprego no Brasil

Nenhum comentário:

Tecnologia do Blogger.