Não é a primeira vez que acontece, mas esta semana Katy Perry e Rihanna aparecem em fotografias na Gala Met, embora na realidade não tenham estado por lá. As imagens foram partilhadas nas redes sociais e são deepfakes que conseguiram milhares de gostos.

Os deepfakes que têm tomado conta das redes são muitas vezes brincadeiras inocentes ou simplesmente desconcertantes, como as fotografias do “Shrimp Jesus”, noutros podem tornar-se situações mais graves, como as imagens sexualmente explícitas que tornaram Taylor Swift uma das vítimas mais recentes destas manipulações. Ou tentativas de influenciar resultados eleitorais.

As imagens e vídeos falsos nem sempre são fáceis de identificar, mas no caso das "aparições" na Gala do MET foram identificadas e partilhadas pelas "vítimas". Katy Perry surge na passadeira de acesso à gala num enorme vestido com motivos florais, uma imagem partilhada na plataforma X, antigo Twitter. Dois dias depois, a publicação conta com 16,7 milhões de visualizações e 306 mil “likes”.

Utilizadores da rede social acrescentaram contexto à imagem, referindo, por exemplo, que o tapete de base é da gala de 2018, que falta um braço a Katy Perry e que os fotógrafos não estão centrados nela, o que seria estranho.

A minha imagem foi manipulada e divulgada na internet. O que posso fazer?
A minha imagem foi manipulada e divulgada na internet. O que posso fazer?
Ver artigo

Numa outra imagem gerada também por IA, a cantora aparece com outro vestido que lembra a Mulher Maravilha. Aqui já tem mais de 4,5 milhões de visualizações e 115 mil “likes”. O tapete está correto, mas notam-se imperfeições nos olhos e numa das mãos.

A cantora partilhou e “gostou” de ambas as fotos no seu perfil oficial. No Instagram partilhou uma das fotos e disse que não pôde estar presente na gala porque tinha de trabalhar, uma ironia à situação.

Também a presença de Rihanna na Gala foi manipulada e a imagem tornou-se viral no X, embora a cantora não estivesse igualmente no evento.

Veja as imagens de Katy Perry e Rihanna manipuladas pela IA 

A tecnologia tem evoluído para construir deepfakes mais realistas, e de forma cada vez mais simples e rápida. A Microsoft tem um novo modelo, o VASA-1, em que basta uma foto estática e um áudio para criar um vídeo realista de uma mensagem, em que se pode sincronizar os lábios e até direcionar o olhar.

Um dos exemplos mais antigos conhecidos de deepfakes é o de Nicolas Cage que foi "contratado" para vários papeis em filmes onde não participou. A aplicação foi criada em 2018 por um utilizador do Reddit conhecido como “Deepfakes” e o seu objetivo era tornar a tecnologia acessível para todos, pelo que também inclui um manual de instruções para os utilizadores iniciantes.

Neste vídeo Nicolas Cage aparece como James Bond, em “007 - Dr. No”, tomando o lugar de Sean Connery.

Para além de brincadeiras, o risco está na utilização da tecnologia de deepfakes para usar em chantagens, como o SAPO TEK deu conta num artigo do especial sobre os riscos da Internet onde foram partilhados conselhos sobre o que fazer se a sua imagem for manipulada.

Uma observação atenta pode ajudar a descobrir se uma imagem foi manipulada. Elementos estranhos ou antigos misturados no contexto, som dessincronizado, pernas e dedos a mais, ou a menos, são alguns dos pormenores a verificar.

Há sites na Internet que ajudam a melhorar as capacidades de deteção de um deepfake. É o caso do Detect Fakes do MIT através do qual os utilizadores comparam dois vídeos para decidir, qual é o verdadeiro. E também o Spot the Deepfake da Microsoft, um questionário de 10 perguntas que permite aos utilizadores identificar sinais como o movimento dos olhos e a reação emocional para determinar deepfakes.

Existem ainda ferramentas que permitem registar dados de uma imagem abusiva e espalhá-los pelos principais serviços e sites online onde estes conteúdos podem circular. São gratuitas e qualquer pessoa pode usá-las, como explicou ao SAPO TEK Carolina Soares, responsável da Linha coordenada pela Associação Portuguesa de Apoio à Vítima, destacando duas. O StopNCII.org, para denunciar casos que envolvam maiores de 18 anos e o Take It Down, para casos com menores de 18 anos.

São geridas por ONGs e não ficam com a imagem abusiva que a vítima partilhaapenas com uma espécie de impressão digital do conteúdo, criado a partir de um conjunto de pontos de referência, que inserem numa base de dados que corre nos serviços das principais plataformas de internet abertas, como Facebook, Instagram, Discord, Google, etc.