Inicialmente o Facebook recorria a empresas de outsourcing em Marrocos e no México para verificarem os conteúdos reportados como impróprio, com jovens a serem pagos a um dólar à hora. Desde então muito mudou e agora a empresa de Mark Zuckerberg conta com moderadores que fazem esse trabalho. No entanto, e tal como o The Verge já tinha reportado no início do ano, no caso dos Estados Unidos, esta função pode ter impactos sérios na saúde mental dos colaboradores. Agora foi a vez de o The Guardian falar com colaboradores da sede do centro em Berlim que apresentaram queixas semelhantes.

Ainda esta semana o Facebook deu a conhecer mais novidades sobre o conselho de supervisão independente, concedendo um poder de decisão maior do que a própria rede social. O objetivo passa por defender a comunidade, apoiando o direito à liberdade de expressão e assegurando que o Facebook cumpre a responsabilidade de manter as pessoas seguras. No entanto, parece que a rede social não consegue estar a garantir a proteção dos próprios colaboradores.

Numa notícia avançada esta segunda-feira, o The Guardian garante ter conversado com vários antigos moderadores do Facebook e outros que trabalham atualmente na empresa e o sentimento de tristeza é comum. Há ainda problemas psicológicos que afetam os funcionários.

Um grupo de colaboradores atuais e antigos que trabalhou vários anos nos centros de moderação do Facebook com sede em Berlim disse ao jornal que testemunharam colegas a ficarem "viciados" em conteúdos violentos enquanto outros acabaram por seguir uma linha ligada à extrema direita, dada a quantidade de discursos de ódio e notícias falsas que liam todos os dias. Outros fazem coleção desses conteúdos, dizem.

O mal-estar deve-se ao grande volume de trabalho, conjugado com a quantidade de conteúdos violentos com os quais têm de lidar, também relacionados com nudez e bullying. Para agravar esta situação, as oito horas de trabalho podem ser diurnas e aos fins-de-semana, tudo por um salário que dizem ser “praticamente o mínimo".

Chantagem sexual e violência: algumas das realidades diárias para os moderadores do Facebook

Há uma questão que foi particularmente angustiante para os colaboradores do Facebook: analisar conversas privadas entre adultos e menores que foram sinalizadas pelos algoritmos da plataforma como potenciais casos de exploração sexual não melhorou este panorama por si só pouco favorável.

Facebook usado em mais de 54 mil casos de chantagem sexual só num mês
Facebook usado em mais de 54 mil casos de chantagem sexual só num mês
Ver artigo

De acordo com um colaborador da empresa, 90% das conversas privadas que tinham de ser analisadas eram de cariz sexual e eram "violentas e assustadoras". "É possível compreender melhor esta forma de sociedade distópica que estamos a construir todos os dias", acrescentou. Para exemplificar, o colaborador apresenta o caso de homens "ricos" com origem na Europa e nos Estados Unidos a conversar com crianças das Filipinas para conseguirem fotografias sexuais, dando em troca 10 ou 20 dólares.

Uma colaboradora chega mesmo a afirmar que este tipo de trabalho "é uma violação dos direitos humanos". Citada pelo jornal, a moderadora considera que não pode ser pedido a ninguém que trabalhe rápido e bem assistindo a tanto conteúdos violentos".

Já um antigo moderador alerta para o facto de este tipo de trabalho apostar em algo "experimental", visto que é completamente novo, enquanto outro colaborador assume que é importante criar uma equipa com objetivo de proteger os utilizadores. "Mas acho importante abrir um debate sobre esse trabalho", acrescenta, considerando importante que as histórias dos moderadores sejam partilhadas, visto que as pessoas pouco sabem deste trabalho.

Um colaborador do Facebook soube inclusive de um colega que quis comprar um taser porque começou a sentir medo das pessoas, dizendo que estava preocupado em andar pelas ruas à noite, por exemplo.

"Talvez esse discurso de ódio que temos de enfrentar todos os dias afete de alguma forma a nossa visão política".
Já pode sinalizar conteúdo que pensa ser falso no Instagram. Depois a plataforma decide o veredicto final
Já pode sinalizar conteúdo que pensa ser falso no Instagram. Depois a plataforma decide o veredicto final
Ver artigo

No início do ano, o artigo apelidado de "The Trauma Floor" do The Verge dava a conhecer a "vida secreta" dos moderadores do Facebook na América. Semelhante aos colegas de Berlim, os americanos relataram que “os vídeos e memes de conspiração que veem todos os dias gradualmente os levaram a adotar visões periféricas”, e que um ex-moderador “agora dorme com uma arma ao lado” depois de ficar traumatizado com um vídeo de uma facada.

Outros lidam com um problema de automedicação. Assim como os moderadores do Arizona que estavam a apostar em drogas e álcool, o mesmo aconteceu com os da Alemanha. "Vi muitos medicamentos na empresa", disse um moderador.

E quando os moderadores pedem ajuda ao Facebook?

E na altura de pedir ajuda, tantos os moderadores nos Estados Unidos como os da Alemanha se queixam da falta de apoio do Facebook, que nalguns casos aconselha os trabalhadores a pedirem ajuda a um psicólogo externo. Para um dos colaboradores a solução é simples: contratar mais pessoas.

Ainda assim, a notícia do The Verge parece ter provocado algumas alterações. Moderadores em Berlim disseram ao jornal que depois da publicação do artigo passaram a ter de moderar 500 conteúdos, quando anteriormente esse valor era 1.000. Mesmo assim, significa 1 conteúdo por minuto.

Entretanto o Facebook já reagiu, caracterizando o trabalho dos colaboradores em manter a comunidade segura como "vital" e por isso afirma que garantir o seu bem-estar é algo que leva muito a sério.

“A moderação de conteúdo é uma indústria nova e desafiadora, por isso estamos sempre a aprender e procurar melhorar a maneira como é gerenciada”.

Em resposta à alegação específica de que um moderador estava a acumular conteúdos violentos, o Facebook explicou que, em Berlim, à semelhança do que acontece nos outros centros, “os dispositivos usados pelos moderadores também foram adaptados para garantir que as pessoas não possam guardar nenhum conteúdo”. “Qualquer sugestão de permitirmos que os nossos moderadores de conteúdo salvem o conteúdo revisto numa “coleção pessoal" é falsa", garante.