A Thorn e a All Tech is Human lideram uma iniciativa para impedir que as ferramentas de IA sejam utilizadas para explorar crianças ou gerar material pedopornográfico. Mais de uma dezena de empresas de inteligência artificial, incluindo a OpenAI, a Microsoft, a Google e a Meta comprometeram-se a cumprir os princípios de IA generativa para promover a segurança infantil online, integrando, por exemplo, segurança by design.
A Thorn é um grupo de segurança infantil e a All Tech Is Human é uma organização sem fins lucrativos centrada na tecnologia responsável.
O objetivo desta iniciativa é impedir a criação de material de abuso sexual de crianças gerado por IA (AIG-CSAM) e outros danos sexuais contra crianças e retirá-los das plataformas das redes sociais e motores de busca.
Mais de 104 milhões de arquivos de material suspeito de abuso sexual infantil foram relatados nos EUA apenas em 2023, diz a Thorn. Em Portugal, no ano passado, houve mais vítimas de burlas online a procurar apoio junto da Linha Internet Segura. O número de vítimas de violência sexual baseada em imagens e as denúncias de crimes sexuais contra crianças também aumentaram.
Na terça-feira, a Thorn e a All Tech Is Human divulgaram um novo documento intitulado “Safety by Design for Generative AI: Preventing Child Sexual Abuse”, que define estratégias e apresenta recomendações para as empresas que constroem ferramentas de IA, motores de busca, plataformas de redes sociais, empresas de alojamento e programadores, no sentido de tomarem medidas para evitar que a IA generativa seja utilizada para prejudicar crianças.
Uma das recomendações, por exemplo, pede às empresas que escolham cuidadosamente os conjuntos de dados utilizados para treinar modelos de IA. Pede ainda que evitem os dados que contêm apenas instâncias de What is Child Sexual Abuse Material (CSAM), mas também conteúdos sexuais para adultos, devido à propensão da IA generativa para combinar os dois conceitos.
A Thorn pede também aos meios de comunicação social e aos motores de busca que retirem as ligações a sítios Web e aplicações que permitem a visualização de imagens de nudez de crianças.
Segundo a Thorn, algumas empresas já concordaram em separar imagens, vídeos e áudio que envolvam crianças de conjuntos de dados com conteúdos para adultos, para evitar que os seus modelos combinem os dois. Outras também adicionam marcas de água para identificar o conteúdo gerado pela IA, mas o método não é infalível: as marcas de água e os metadados podem ser facilmente removidos.
A proteção as crianças online, devido ao crescimento da IA generativa, tem sido um tema recorrente nos últimos meses. O regulador do Reino Unido para a segurança online tem planos para utilizar a IA e outras ferramentas automatizadas para detetar e remover conteúdos ilegais online e proteger as crianças do seu acesso.
No Canadá, uma proposta legislativa quer obrigar redes sociais a remover conteúdos ofensivos em 24 horas, seguindo os passos da Europa no endurecimento das leis contra a violência sexual online, sobretudo dirigida a crianças.
Em fevereiro, as novas regras do Regulamento dos Serviços Digitais (DAS) começaram a ser aplicadas. Com este documento, a UE pretende tornar a navegação online mais segura, justa e transparente aos utilizadores, sendo aplicadas a todas as plataformas online.
De uma perspetiva reativa, as autoridades estão também atentas. Já este mês foi detido um homem que conseguia imagens de pornografia de menores em aplicações de chat.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários