Na semana passada, começaram a circular em redes sociais como a X (antigo Twitter), Facebook e Instagram, mas também em plataformas como o Reddit, várias imagens falsas sexualmente explícitas, geradas através de IA, da cantora Taylor Swift.

De acordo com informação avançada pelo website 404 Media, as deepfakes da cantora terão origem num canal de Telegram dedicado à produção de imagens abusivas de mulheres através de IA. Uma das ferramentas utilizadas pelos membros do grupo é a Microsoft Designer, que permite gerar imagens a partir de texto.

As deepfakes tornaram-se rapidamente virais. Na rede social X, ”Taylor Swift AI” foi um dos tópicos em tendência. Uma das imagens manipuladas, partilhadas nesta plataforma, teve 47 milhões de visualizações antes da conta que a publicou ter sido suspensa, avança o jornal The New York Times.

A rede social de Elon Musk, que está a ser investigada na Europa por suspeitas de disseminação de desinformação e conteúdos ilegais, suspendeu várias contas que estavam a partilhar as deepfakes. Uma delas contava já com mais de 480.000 seguidores. Medidas semelhantes estão a ser tomadas pela Meta, dona do Facebook e Instagram. No entanto, as imagens continuaram a circular noutras redes sociais e em plataformas como o 4chan.

Em declarações à imprensa internacional, um porta-voz da X afirmou que a rede social tinha uma política de “tolerância zero” em relação a este tipo de conteúdo. Segundo a empresa, as suas equipas estavam a reunir esforços para identificar as imagens, tomando medidas relativamente às contas que as partilhavam.

Mais recentemente, a rede social bloqueou as pesquisas por Taylor Swift. Em declarações à Reuters, Joe Benarroch, diretor de operações comerciais da X, afirmou que esta é uma medida temporária, tomada por precaução, uma vez que a empresa está a dar prioridade à segurança nesta situação.

Nos Estados Unidos, vários Estados avançaram com restrições e medidas para tornar ilegal a partilha de deepfakes pornográficas, porém, não estão a ter o impacto esperado. No Estado de Nova Iorque, legisladores democratas voltaram a apresentar ainda na semana passada uma proposta de lei que tornaria a partilha de imagens pornográficas manipuladas e não-consensuais um crime federal.

Deepfakes que manipulam imagens reais para porno estão fora de controlo. Mulheres são mais visadas
Deepfakes que manipulam imagens reais para porno estão fora de controlo. Mulheres são mais visadas
Ver artigo

À medida que as ferramentas alimentadas por IA se tornam cada vez mais populares, especialistas têm alertado para os riscos da sua utilização, incluindo para a criação de vídeos pornográficos manipulados, que recorrem a imagens de pessoas reais sem o seu consentimento.

O número de deepfakes pornográficas cresceu de forma significativa nos últimos anos. Um recente levantamento demonstrou que, nos últimos sete anos, foi feito o upload de pelo menos 244.625 vídeos de deepfakes pornográficas não-consensuais para os 35 principais websites criados para este tipo de conteúdo.

A par de vídeos, a IA também é usada para criar imagens falsas sexualmente explícitas e sem consentimento. De acordo com dados de um recente relatório, houve um aumento no acesso e no consumo de nudes manipuladas por IA em redes sociais e plataformas online como Instagram, TikTok, X e Reddit.