A Internet Watch Foundation publicou um relatório onde destaca o crescimento de material em vídeo criado por inteligência artificial de abusos sexuais de crianças e pede medidas urgentes para impedir a sua proliferação. “Filmes de longas metragens feitos por IA de abusos sexuais de crianças poderão agora ser inevitáveis a não ser que se tome ação urgente”, refere a organização citando especialistas, observando a velocidade com que a tecnologia está a evoluir, capaz de tornar as imagens “indistinguíveis” das imagens genuínas. 

Os novos dados da IWF indicam que as imagens relativas a abusos sexuais com crianças, recorrendo a inteligência artificial, cresceram 400%. Foram descobertos 210 websites no primeiro semestre de 2025, quando comparado com os dados do mesmo período do ano passado, onde foram detetados 42 websites. Cada página contém múltiplos vídeos e imagens com estes conteúdos. No total, a fundação encontrou 1.286 vídeos produzidos por IA, naquele que diz ter disparado, pois nos primeiros seis meses de 2024 apenas foram encontrados dois.

Mais preocupante é o realismo dos mesmos, aponta a IWF. “Todos os vídeos de IA conformados pelo IWF até agora durante este ano têm sido tão convincentes que tiveram de ser tratados perante a lei do Reino Unido como se fossem vídeos com crianças genuínas”. Dos 1.286 vídeos confirmados, 1.006 foram classificados como extremos (categoria A), um grupo onde são listadas imagens sobre violação, tortura sexual e até uso de animais.  

Com o relatório, a IWF procura fazer soar os alarmes sobre o flagelo dos vídeos criados por IA sobre abuso sexual de menores, com uma qualidde de imagem elevada, que tem passado pelas falhas na legislação durante o último ano. E acrescenta que os criminosos estão a criar vídeos com IA, alguns com a aparência de crianças reais. Neste momento, esses vídeos ainda são detetados a uma escala de produção pequena, em clips curtos, mas que os criminosos além de os tornarem mais detalhados, vão inevitavelmente serem mais longos. E o abuso sexual de menores pode tornar-se mais extremo, explorando a criação de novos cenários, caso não sejam tomadas medidas urgentes contra isso.

“As crianças que são mostradas nos vídeos de IA são normalmente reais e reconhecíveis, o mal que este material causa é real e ameaça escalar ainda mais”, destaca Derek Ray-Hill, CEO da IWF. Aponta que criar, possuir ou distribuir imagens geradas por IA de abusos sexual de menores é ilegal no Reino Unido, mas que o Governo deve honrar o compromisso do manifesto para garantir o desenvolvimento e uso dos modelos de IA através de regulação. O objetivo é que a tecnologia seja segura por design e que não possa ser abusada para criar este tipo de materiais. 

Esta nova geração de vídeos é uma evolução dos deepfakes, onde os vídeos são manipulados, colocando os rostos das vítimas sobrepostos a atores de filmes pornográficos. Apesar de não ser sofisticada, estes vídeos podiam ser muito convincentes. Quando se começou a usar a IA para gerar este tipo de conteúdos, estavam longe de serem realistas e convincentes, mas a organização diz que atualmente a qualidade é bastante elevada, com capacidade de ter duas ou mais pessoas nos vídeos, tornando-se mais extremos.