A gigante tecnológica planeia lançar uma série de vídeos curtos destacando as técnicas comuns a muitos conteúdos enganosos. Os vídeos irão surgir como anúncios em plataformas como o Facebook, YouTube ou TikTok na Alemanha, sendo que uma campanha semelhante na Índia está também em andamento, noticiou a agência Associated Press (AP).
Esta abordagem, chamada prebunking, envolve ensinar as pessoas a identificar afirmações falsas antes que estas as atinjam, está a ganhar apoio entre investigadores e empresas de tecnologia.
"Existe um apetite real por soluções. Usar anúncios como um veículo para combater uma técnica de desinformação é bastante inovador. E estamos entusiasmados com os resultados", sublinhou Beth Goldberg, responsável de investigação e desenvolvimento da Jigsaw, uma divisão da incubadora da Google que estuda os desafios sociais emergentes.
Embora a crença em fake news ou teorias da conspiração não seja recente, a velocidade e o alcance da Internet deram a estas um poder elevado.
Quando aumentadas por algoritmos, as alegações enganosas podem desencorajar as pessoas a tomar vacinas, espalhar propaganda autoritária, fomentar a desconfiança nas instituições democráticas ou estimular a violência.
Este desafio tem poucas soluções fáceis. Por um lado, a verificação de fatos jornalísticos, o fact-checking, é eficaz, mas exige muito trabalho, não é lida por todos e não convence aqueles que já desconfiam do jornalismo tradicional.
A moderação de conteúdo por empresas de tecnologia é outra resposta, mas apenas leva à desinformação para outros espaços, ao mesmo tempo que gera exclamações de censura e preconceito.
Os vídeos de prebunking, por outro lado, são relativamente baratos e fáceis de produzir e podem ser vistos por milhões quando colocados em plataformas populares. Estes também evitam totalmente o desafio político, ao não se concentrarem nos tópicos de falsas alegações, mas nas técnicas que tornam a desinformação viral tão contagiosa.
Estas técnicas incluem a disseminação do medo, o bode expiatório, as falsas comparações, o exagero e a falta de contexto.
Quer o assunto seja a pandemia de COVID-19, tiroteios em massa, imigração, alterações climáticas ou eleições, as alegações enganosas geralmente dependem de um ou mais destes truques para explorar emoções e causar um curto-circuito no pensamento crítico.
No outono, a Google lançou o maior teste desta teoria até agora, com uma campanha de vídeo preliminar na Polónia, República Checa e Eslováquia.
Os vídeos dissecaram diferentes técnicas vistas em falsas alegações sobre refugiados ucranianos, sendo que muitas dessas reivindicações baseavam-se em histórias alarmantes e infundadas sobre refugiados que cometiam crimes ou tiravam empregos aos residentes.
Esta campanha foi vista 38 milhões de vezes no Facebook, TikTok, YouTube e Twitter - um número que equivale à maioria da população nas três nações. Os investigadores descobriram que, em comparação com as pessoas que não viram os vídeos, aqueles que assistiram tinham maior probabilidade de identificar técnicas de desinformação e menos probabilidade de espalhar falsas alegações a outras pessoas.
Este projeto-piloto foi o maior teste de prebunking até agora e contribui para um crescente consenso em apoio à teoria.
A nova campanha da Google na Alemanha terá um foco em fotos e vídeos e na facilidade com que podem ser apresentados como evidências de algo falso.
Na semana passada, por exemplo, após o terremoto na Turquia, alguns utilizadores de redes sociais partilharam o vídeo da grande explosão em Beirute em 2020, alegando que na verdade era uma filmagem de uma explosão nuclear desencadeada pelo terremoto, sendo que não foi a primeira vez que a explosão de 2020 foi alvo de desinformação.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários