De acordo com o estudo, intitulado "Três razões pelas quais a Meta terá dificuldades com a verificação comunitária de fatos", a estratégia da plataforma dona do Facebook, Instagram e WhatsApp "cria o potencial para que desinformação e ódio se espalhem sem controlo".

"Um sistema assim [notas da comunidade] não conseguirá lidar com a quantidade de conteúdo compartilhado nas plataformas da empresa", pelo que o novo sistema "deixará passar falsidades e pode amplificar conteúdo de ódio".

Os autores do estudo alertam para o facto de as notas da comunidade só ficarem visíveis depois dos conteúdos serem sinalizados de forma oportuna, o que pode demorar muito tempo e contribuir para a disseminação de informação falsa.

"Uma nota torna-se visível para a base de utilizadores mais ampla apenas quando um número suficiente de colaboradores concorda que ela é relevante através de votos", refere o estudo.

Outro dos aspetos realçados diz respeito ao apoio que deve ser dado aos moderadores comunitários, pois "além de serem expostos a conteúdos horríveis, também sofrem frequentemente assédio e abuso por serem membros identificáveis da comunidade".

Nova política de moderação da Meta pode expor utilizadores a uma "onda gigante" de desinformação
Nova política de moderação da Meta pode expor utilizadores a uma "onda gigante" de desinformação
Ver artigo

"Se os voluntários forem expostos a conteúdos considerados perturbadores, será que a Meta oferecerá auxílio social e psicológico?", é a questão levantada pelos investigadores.

Neste sentido, o novo sistema de "notas da comunidade" não pode funcionar sem proteções e salvaguardas, até porque a moderação não se resume apenas a tomar decisões sobre o que é "verdadeiro" ou "falso".

Assim, de acordo com o estudo, o novo modelo da Meta pode não ser suficiente para conter 'fake news' e conteúdos prejudiciais.

A MIT - Technology Review Brasil conta com 125 anos de atividade na área da análise tecnológica, bem como nos seus impactos sociais, políticos e económicos.