Se costuma dedicar parte do seu dia a navegar pelas redes sociais é provável que já se tenha deparado com vídeos, gerados com recurso a inteligência artificial, onde surgem políticos portugueses. Seja André Ventura a falar de malas, numa alusão ao polémico caso que envolve o deputado Miguel Arruda do Chega; o Presidente da República, Marcelo Rebelo de Sousa, a contar piadas astrológicas, ou até António Costa a cantar um famoso tema de Adriana Calcanhotto.

Independentemente da cor política, é também provável que tenha achado piada. Afinal, tratam-se de vídeos com caráter humorístico e, como muitas das contas que os partilham indicam, não foram feitos para serem levados a sério.

Clique nas imagens para ver alguns exemplos partilhados nas redes sociais

Muitos dos vídeos que encontramos nas redes sociais indicam tanto na legenda da publicação, como na própria descrição da conta, ou até no vídeo em si, que se tratam de conteúdos feitos com recurso a ferramentas de IA. No entanto, surgem também casos de outros conteúdos do género onde o mesmo não acontece. E aí surge a dúvida: há potencial para este formato ser usado para veicular deliberadamente informação falsa e enganar pessoas?

Em entrevista ao SAPO TEK, José Moreno, especialista em comunicação do Medialab do ISCTE, começa por explicar que as páginas e contas nas redes sociais, “do tipo humorístico ou de sátira”, que recorrem a ferramentas ou motores de geração de áudio e vídeo com IA para fazer humor são uma tendência crescente.

A par das muitas páginas e contas deste género, o especialista detalha que há “casos eventuais” em que este tipo de mecanismos é usado para gerar áudios manipulados, “como se fossem ditos por políticos portugueses”, para fins de publicidade enganosa, ou spam. Um destes casos foi identificado pelo Medialab.

Como noticiado pela Agência Lusa em julho do ano passado, os especialistas do centro de estudo de ciências da comunicação identificaram um anúncio onde era usado um vídeo de campanha de André Ventura com uma voz criada por IA, que simulava a do líder do Chega, e que apelava ao investimento numa plataforma com a promessa de ganhar dinheiro.

(Des) informação na campanha eleitoral tem terreno fértil nas redes sociais
(Des) informação na campanha eleitoral tem terreno fértil nas redes sociais
Ver artigo

Este fenómeno pode ainda assumir outra face, que José Moreno descreve como ainda mais preocupante: o caso de “forças políticas a utilizarem este tipo de ferramentas para denegrir outro político ou dizer mal de um outro político”. Por outro lado, "não temos notado que isso tenha aparecido", conta o especialista do Medialab, olhando para a realidade portuguesa. 

O motivo? “As pessoas não são totalmente desprovidas de senso comum”, afirma o especialista. “A maior parte dos utilizadores de Internet já conseguem perceber quando estão perante um vídeo que tem algo de estranho nele”, detalha, “seja porque o ator político está a dizer uma coisa que não seria de esperar que ele dissesse, ou porque a manipulação do áudio não está exatamente perfeita, porque a imagem é um bocadinho estranha. As pessoas acabam por perceber isso”.

A expectativa das próprias pessoas é outro dos fatores em jogo quando se trata de perceber se um vídeo é simplesmente humorístico ou se quer veicular informações falsas deliberadamente. “As pessoas conhecem os líderes partidários e conhecem mais ou menos as posições dos partidos. Se aparecer um determinado líder partidário a dizer uma coisa potencialmente bastante estranha, as pessoas vão achar isso estranho”, indica.

Literacia e responsabilidade

Ao depararem-se com algo fora do normal, a tendência é para “olhar para a marca que está associada a essa página, ao nome da página e ao nome da conta e perceber se é uma conta oficial ou não”. “É nesse sentido que as pessoas se deixam enganar muito menos do que nos poderia parecer à primeira vista”, afirma o especialista do Medialab.

Nesse sentido, a literacia digital assume um papel fulcral. Embora ainda existam muitas pessoas que não têm essa capacidade, sobretudo em determinadas franjas da população, como as pessoas mais velhas, José Moreno afirma que já começa a existir nas pessoas uma maior percepção. As pessoas ganham estas capacidades de literacia digital, porque já foram confrontadas com este tipo de desafios ao navegar online.

“Nós aprendemos quando somos confrontados com desafios que nos obrigam a aprender. Quando estão nas redes sociais, as pessoas são frequentemente confrontadas com conteúdos para os quais elas têm de descodificar a veracidade”, afirma José Moreno

“As pessoas sabem que, agora, os conteúdos que encontram nas redes sociais são de muitas entidades diversas e muitas que não conhecem. Por isso, para conteúdos cuja origem não conhecem, as pessoas adotam um mecanismo de defesa” contra a desinformação, que passa por aprender ao duvidar e, se seguida, investigar se algo é verdade ou não.

Literacia digital: Relatório diz que só 29,9% da população portuguesa está acima do nível básico
Literacia digital: Relatório diz que só 29,9% da população portuguesa está acima do nível básico
Ver artigo

Para quem faz este tipo de vídeos fica claro que a responsabilidade está em identificar claramente que foi utilizada IA para criar o conteúdo. Como realça José Moreno, “o primeiro nível de responsabilidade deve ser dos utilizadores, ou seja, das pessoas que têm contas nas redes sociais e que utilizam essas ferramentas”.

No segundo nível de responsabilidade estão as plataformas, que devem adotar mecanismos que permitam identificar uma deepfake como sendo uma deepfake”, afirma. São várias as plataformas e empresas que estão a tomar medidas deste tipo, da Meta ao YouTube, passando pela OpenAI, Microsoft ou Google.

“Existem acordos internacionais entre várias plataformas de inteligência artificial para começar a identificar aquilo que é gerado através de inteligência artificial”, acrescenta o especialista. Apesar de estes acordos registarem algum atraso, não só pelas várias mudanças que surgem a nível tecnológico, mas também pelo impacto que têm decisões políticas, como as que estão a ser tomadas pela administração de Donald Trump, “a tendência é exatamente para as empresas que exploram a IA chegarem a um acordo” sobre a etiquetagem dos conteúdos, aponta José Moreno.