Um dos flagelos da sociedade atual passam pelo perigo no uso da tecnologia deepfake, que utiliza inteligência artificial para gerar fotos ou vídeos muito semelhantes a pessoas reais, cada vez mais utilizados em pornografia de vingança. Há vários relatos de vítimas de deepfake porn que praticamente arrasaram a vida pessoal e profissional de pessoas que começaram a ver imagens falsas de si a circular na internet.
As mulheres, sobretudo com alguma projeção mediática e social, são as principais vítimas, como relata o MIT Technology Review. Mas também as campanhas políticas podem sofrer com a partilha de discursos falsos, facilmente credíveis para os menos atentos. A empresa de investigação Sesity AI tem vindo a registar os vídeos de deepfakes online desde dezembro de 2018 e refere que 90/95% são pornografia não consensual, e cerca de 90% desse material são imagens não consentidas de mulheres.
Estão a ser feitos alguns movimentos nos Estados Unidos e Reino Unido para que a pornografia não consensual baseada em deepfakes seja banida. A novidade em torno da tecnologia tem projetado um problema que existe desde os primórdios da internet, as chantagens sexuais através da partilha de fotos e vídeos obtidos no seio privado dos casais. As influencers das redes sociais são atualmente algumas das principais vítimas de deepfake. E o problema tem vindo a crescer no contexto da pandemia, pois segundo os especialistas, que gerem as linhas de apoio às vítimas de abusos, houve uma duplicação dos pedidos de ajuda desde o início do confinamento.
O facto da tecnologia deepfake ser relativamente nova, apenas existem algumas formas legais de combate. Dos 46 estados americanos que já têm leis para combater a pornografia de vingança, apenas na Califórnia e Virgínia estão incluídos os conteúdos gerados em elementos falsos ou deepfake. É mesmo referido que no Reino Unido não existem leis que possam incluir as imagens geradas em materiais falsos. E em qualquer outro país não existem sequer leis para banir pornografia falsa não consensual.
Para se defenderem, as vítimas estão dependentes de leis civis e criminais aplicadas em situações muito específicas. Por exemplo, se a face da vítima for colocada numa fotografia protegida por direitos de autor, pode-se usar a lei de propriedade intelectual. E apenas se a vítima conseguir provar que o suspeito tenha a intenção de lhe fazer mal, pode invocar a respetiva defesa. No entanto, os especialistas dizem ser quase impossível reunir as provas necessárias para condenar os infratores. E estima-se que mais de 80% dos agentes legislativos nem sequer sabem o que é deepfake.
O facto é que as queixas estão a acumular-se e os testemunhos das vítimas têm mobilizado os legisladores para tentar compreender esta nova realidade. A comissão legislativa do Reino Unido, que revê as leis do país e faz recomendações ao governo sobre as reformas necessárias, encontra-se neste momento a escrutinar este tipo de abusos online. Estima-se que nas próximas semanas seja publicado um primeiro rascunho com as suas recomendações para consulta pública.
Há, neste sentido, uma esperança que possam ser consideradas as formas de deepfake dentro da pasta de lei contra a pornografia de vingança. Se isso acontecer, o Reino Unido passa a ser o primeiro país a fazê-lo, o que motivará os Estados Unidos a seguir, e claro, a União Europeia. Nos Estados Unidos, algo que impede a legislação de avançar prende-se com a Primeira Emenda, que diz que banir a pornografia de vingança é entendida como uma quebra à liberdade de expressão. Todas as tentativas de banir “esbarraram” na Primeira Emenda. No entanto, a nova administração americana tem Kamala Harris como vice-presidente, conhecida como grande apoiante na luta contra a pornografia de vingança.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários