O YouTube retirou do ar 30 mil vídeos com informação enganosa ou falsa sobre a Covid-19, nos últimos seis meses. Desde fevereiro do ano passado foram 800 mil, segundo informação avançada pelo site Axios-Ipsos, que cita uma porta-voz da plataforma. 

Os dados são revelados numa altura em que as teorias da conspiração e as teorias sobre alegados efeitos secundários das vacinas crescem e alimentam uma onda de resistência às vacinas. 

Nos Estados Unidos, por exemplo, onde a resistência às vacinas não é uma novidade da Covid-19, pesquisas indicam que quase um terço dos norte-americanos continua com dúvidas sobre os benefícios do fármaco. As teorias da conspiração e os vídeos sobre alegados efeitos secundários, não documentados pela comunidade médica, não ajudam. 

Número de sites fraudulentos sobre vacinas contra a COVID-19 está a aumentar
Número de sites fraudulentos sobre vacinas contra a COVID-19 está a aumentar
Ver artigo

As principais plataformas de conteúdos online têm assumido posições proativas no combate à desinformação. Integraram a Covid-19 na lista de temas a monitorizar, começaram a bloquear informação duvidosa ou a complementá-la com links para informação válida sobre o tema. 

O Twitter tem sido uma das plataformas mais ativas no combate a este tipo de informação e no início deste mês voltou a endurecer as regras. Depois de um segundo aviso, os utilizadores que partilhem informação considerada falsa ou duvidosa ficam agora com a conta bloqueada durante 12 horas. Ao fim do quinto aviso podem mesmo ser expulsos da rede social. 

No caso do YouTube, o sistema de identificação e controlo dos conteúdos exibidos pelo site de vídeos da Google combina inteligência artificial e revisão humana. Quando os conteúdos são marcados para bloqueio nestes dois níveis de análise há ainda um terceiro, que reavalia o conteúdo antes de serem tomadas medidas, explica a empresa. 

As contas que violam as regras da plataforma podem ficar sujeitas à expulsão definitiva e permanente do serviço.