De vários países têm surgido relatos de tentativas de burla, algumas bem-sucedidas, que tiram partido de programas de inteligência artificial para imitar uma voz ou uma imagem familiar e enganar alguém, muitas vezes para obter uma vantagem financeira. Podem ser pais que recebem uma mensagem de voz de um filho a pedir dinheiro, ou a gritar em apuros porque supostamente foi vítima de rapto e é preciso pagar um resgate. Pode ser um contacto profissional para uma reunião à distância, onde um funcionário recebe indicações do suposto chefe para transferir fundos para contas que afinal são de burlões. Aconteceu recentemente numa empresa de Hong Kong, por exemplo, e gerou perdas de 26 milhões de dólares.

Esquemas deste tipo também estão a chegar a famílias e empresas em Portugal e há vários casos em investigação pela Polícia Judiciária. “No modus operandi conhecido como CEO Fraud há um recurso a ferramentas de inteligência artificial para dar instruções às empresas de transferência de fundos para contas de terceiros. Detetámos já algumas destas situações que se encontram em investigação”, revelou ao SAPO TeK a inspetora-chefe Carla Costa, em funções de coordenação na UNC3T (Unidade Nacional de Combate ao Cibercrime e à Criminalidade Tecnológica) da Polícia Judiciária.

Nas conhecidas burlas “olá pai, olá mãe também têm surgido casos com elementos novos para atrair a atenção dos pais, entre eles deepfakes de voz e outros ingredientes que personalizam a comunicação para lhe dar mais credibilidade. Os burlões “já conseguem emitir [nas mensagens] o número do filho ou da filha por quem se estão a querer fazer passar. Muitas vezes usam ainda fotografia desse familiar e em algumas situações há imitações da própria voz do filho ou da filha que pede o dinheiro ao progenitor”. Essa imitação é feita com recurso a programas de inteligência artificial e às chamadas tecnologias deepfake.

Estes novos elementos trazem realismo a mensagens que normalmente são enviadas via WhatsApp para os pais a pedir que façam uma transferência em dinheiro urgente para pagar uma despesa. Antes, estas comunicações tinham origem em números desconhecidos, o que obrigava o suposto filho a explicar que estava a usar um número estranho porque o seu telemóvel tinha avariado ou estava perdido. Conseguindo simular o número de telefone do familiar, uma foto verdadeira ao perfil e até voz já só terá de convencer o interlocutor da razão do pedido repentino.

“Nestes esquemas onde são usadas imagens reais dos filhos reportam-se já algumas tentativas de burla que acabaram por ter sucesso e levar os pais a transferir quantias, porque acabam por não validar se o contacto é verdadeiro”, admite a inspetora-chefe Carla Costa.

A unidade de combate ao cibercrime da PJ tem também detetado algumas situações onde a inteligência artificial é usada para imitar vozes de figuras públicas a fazer publicidade a jogos online ou a produtos de emagrecimento. Nestes anúncios falsos é usada a imagem da figura pública, mas em alguns casos também já a voz, manipulada através de IA para passar a mensagem que se pretende.

Porn revenge e diversão são os principais motivos para espalhar nudes com imagens manipuladas na internet

Os casos de manipulação de imagens onde programas de IA são usados para despir alguém que na foto original tem roupa e criar um conteúdo que é depois publicado em redes sociais, também têm vindo a aumentar. Como o SAPO TeK também já tinha apurado junto da Linha Internet Segura, muitos destes casos acontecem em ambiente escolar, onde estes deepfakes são criados como “brincadeira” e distribuídos entre os colegas, através de grupos do WhatsApp. “Isto tem um impacto muito negativo na vida destes jovens e como resultado a baixa do aproveitamento escolar, a recusa em ir à escola e até muitas vezes tendências suicidas”, alerta a responsável.

Deepfakes com imagens sexuais alastram em Portugal. Autores são muitas vezes conhecidos
Deepfakes com imagens sexuais alastram em Portugal. Autores são muitas vezes conhecidos
Ver artigo

Noutros casos, a manipulação de imagens para criar os chamados nudes surge em casos de porn revenge. Seguem-se ao fim de um relacionamento amoroso, que não é bem aceite pelo agressor e por causa disso este acaba por partilhar imagens da vítima. Nestes casos, tanto são divulgadas imagens que foram partilhadas de forma consensual durante a relação, como fotos manipuladas. “O agressor recorre à inteligência artificial para modificar o corpo ou tirar a roupa a uma foto legítima e o resultado é divulgado pelos contactos, colegas de trabalho ou outros familiares da vítima, criando um impacto muito negativo na vida da pessoa”.

A manipulação de imagens para criar conteúdos de teor sexual com crianças começa a ser também uma tendência. Em Portugal não foram detetadas situações destas, “mas é algo que sabemos que vamos ter de enfrentar e que coloca desafios, nomeadamente para a identificação das vítimas, por tornar mais difícil perceber se determinada fotografia corresponde ou não a uma vítima real”, admite Carla Costa.

Uma vez na net, para sempre na net...

Os dados disponíveis não permitem estabelecer uma relação de causa efeito entre a disponibilização de um conjunto de de novas ferramentas que vieram facilitar esta adulteração de fotos, voz ou vídeo, para os mais diversos fins. A evolução na utilização destes recursos tem sido progressiva, mas o que é certo é que “a criatividade tem aumentado e a inteligência artificial tem contribuído para esse aumento e para essa alteração nos modi operandi”.

Um estudo divulgado no final do ano passado (da Onfido) indicava que em 2023 as fraudes com deepfakes tinham crescido 3000% e que mais de 90% destes esquemas recorriam a ferramentas simples, com resultados de pouca qualidade. À partida, isto pode fazer supor que é relativamente fácil para qualquer potencial vítima perceber que está a ser enganada, mas na prática não é assim.

“É verdade que em alguns casos, com um olhar mais atento da imagem modificada ainda se consegue identificar algumas imperfeições, mas nem sempre a potencial vítima está atenta a esses pormenores”. Na prática, a perfeição do deepfake acaba por não ser um elemento fundamental para a sua credibilidade.

Também não há receitas infalíveis para não ficar na mira deste tipo de esquemas e impedir que a sua imagem ou voz venha a ser manipulada, seja como vítima, seja como isco para um esquema de fraude. Mas há cuidados que vale a pena ter e que passam sobretudo por controlar a exposição da imagem digital, tanto quanto possível.

Limitar a quantidade de dados disponíveis sobre si próprio na internet, nomeadamente conteúdos vídeo de qualidade, que podem depois ser usados para criar esses deepfakes”, é um destes cuidados importantes. Restringir o acesso aos perfis, só aceitar relacionar-se com pessoas que se conhece, manter ativa no WhatsApp a funcionalidade que impede a adição a grupos desconhecidos, ou usar ferramentas que permitem colocar uma marca de água nas fotografias e dificultar a modificação dessas imagem são também boas-práticas.

Deepfakes não precisam de ser perfeitos para que esquemas de burla que os usam tenham sucesso

É verdade que existem já várias ferramentas para “varrer a internet” à procura de conteúdos ofensivos e eliminá-los, ou para impedir que sejam publicados, se já estiverem referenciados, mas estão longe de serem 100% eficazes. Como recorda a inspetora-chefe Carla Costa, para sublinhar a dificuldade de erradicar por completo um conteúdo divulgado online, infelizmente a velha máxima continua a valer: “uma vez na net para sempre na net”.

Limitar o potencial das imagens, vozes e vídeos manipulados com inteligência artificial para fins menos legítimos, também não é tarefa fácil, dada a facilidade de acesso a estas ferramentas e a qualidade que provavelmente vão continuar a ganhar com o tempo, à medida que a tecnologia for ficando mais madura. Parte da resposta, pelo menos, tem de passar também pela tecnologia e a indústria está a trabalhar nela, desenvolvendo ferramentas que ajudem a distinguir imagens reais e falsas e procurando blindar o mais possível sistemas críticos para a gestão de uma vida que é cada vez mais digital.

Uma solução vista como promissora neste campo é a aplicação de assinaturas digitais em conteúdos multimédia. É uma das áreas onde a indústria está a trabalhar para responder às imagens e vozes fabricadas cada vez com mais precisão pela IA, e “pode proporcionar um método eficaz para verificar a autenticidade e a integridade de vídeos e imagens, oferecendo uma ferramenta valiosa na deteção e prevenção de abusos relacionados com deepfakes”, como explica Rui Shantilal, managing partner da Devoteam Cyber Trust.

Phishing e burlas tipo "Olá Pai, Olá Mãe" vão ficar mais convincentes com a ajuda da inteligência artificial
Phishing e burlas tipo "Olá Pai, Olá Mãe" vão ficar mais convincentes com a ajuda da inteligência artificial
Ver artigo

Outra dúvida que se pode colocar com a ascensão dos deepfakes, tem a ver com a capacidade destas tecnologias de “falsificação de imagem e voz” para enganar os sistemas de identificação remota e os serviços que os usam. Este especialista explica, no entanto, que estas tecnologias estão também elas a ser cada vez mais projetadas para resistir aos desafios dos deepfakes, “especialmente as que recorrem a métodos biométricos avançados”.

Têm vindo a incorporar salvaguardas que ultrapassam o simples reconhecimento facial ou vocal e com frequência já analisam uma combinação de características físicas e comportamentais, que as torna mais resilientes aos deepfakes. Podem avaliar padrões de movimento ocular, textura da pele em detalhe microscópico, ou a maneira como uma pessoa fala ou se move, detalhes que um deepfake dificilmente consegue replicar.

Para além disso, muitos destes sistemas de identificação remota tiram também eles partido de algoritmos de inteligência artificial que conseguem detetar anomalias e inconsistências comuns em deepfakes. “São sistemas treinados para identificar sinais de manipulação, como bordas irregulares, padrões de pestanejo atípicos, ou incoerências na sincronização de áudio e vídeo”, exemplifica o responsável da devoteam.

No futuro, estas serão soluções cada vez mais necessárias para distinguir entre real e fabricado, mas sozinhas ainda serão pouco para garantir uma identificação digital segura. O caminho continuará a seguir rumo às combinações multifatoriais. Além da verificação biométrica, tendem a entrar nestas equações códigos enviados para o dispositivo do utilizador, perguntas de segurança ou outros.

Este artigo integra um Especial que o SAPO TEK está a publicar ao longo desta semana sobre O lado "menos bonito" da inteligência artificial.