A Meta reconheceu que está a remover excessivamente conteúdos nas suas plataformas, como Facebook e Instagram. Nick Clegg, presidente da área de assuntos globais da empresa, afirmou numa conferência de imprensa que as taxas de erro na moderação continuam "demasiado altas" e comprometeu-se a melhorar a precisão das políticas aplicadas.
O responsável destacou que erros de moderação frequentemente levam à eliminação ou restrição de conteúdos inofensivos, penalizando utilizadores de forma injusta. Exemplos incluem a eliminação excessiva de publicações durante a pandemia de COVID-19, algo que a empresa considera, agora, um exagero.
Estas decisões foram influenciadas pela incerteza da época e por pressões externas, incluindo da administração Biden, referiu Nick Clegg, citado pela publicação The Verge.
Erros recentes de moderação, como a censura de imagens de Donald Trump, têm gerado críticas e pedidos de mudança. Apesar de gastar milhares de milhões de dólares anualmente em moderação, a Meta apresenta falhas nas suas ferramentas automatizadas, muitas vezes acusadas de serem excessivamente rigorosas.
Nick Clegg também sugeriu que as regras de moderação da empresa são um "documento vivo" e que alterações significativas podem estar a caminho. No entanto, evitou comentar detalhes sobre encontros entre o CEO Mark Zuckerberg e figuras políticas, destacando apenas o interesse da Meta em liderar debates sobre tecnologia e inteligência artificial.
Pergunta do Dia
Em destaque
-
Multimédia
Como é viver no espaço? 5 curiosidades e desafios na rotina de um astronauta -
App do dia
O que é que lhe apetece perguntar hoje à Inteligência Artificial? -
Site do dia
Este website é um editor de IA que ajuda a colocar palavras atrás de imagens -
How to TEK
Faça um planeamento melhor para chegar ao destino em 5 dicas no Waze
Comentários