Um número alarmante de menores afirma ter conhecidos que criam nudes de amigos ou colegas de turma com recurso à inteligência artificial, segundo os resultados de um estudo realizado nos Estados Unidos.
Mais especificamente, um em cada dez indicou que os seus amigos ou colegas de turma usaram ferramentas de IA para criarem imagens não consensuais com esse propósito. Entre os inquiridos, outro um em cada dez afirmou que "prefere não dizer".
Conduzido pela organização sem fins lucrativos Thorn, que tem por missão desenvolver tecnologia para defender crianças de abuso sexual, o estudo colocou perguntas a 1.040 menores entre os nove e os 17 anos - com autorização dos seus progenitores - sobre conteúdos de abuso sexual infantil e "experiências online prejudiciais", tendo sido realizado entre 3 de novembro e 1 de dezembro de 2023.
"Embora a motivação por detrás desses eventos seja mais provavelmente motivada por comportamento adolescente do que pela intenção de abuso sexual, os danos às vítimas são reais e não devem ser minimizados e isentos de responsabilidade", sublinha-se no relatório, citado pela publicação 404 Media.
Realizada em parceria com a BSG, a pesquisa é uma das primeiras tentativas de medir a dimensão de um problema que se sabe existir de utilização das ferramentas de IA para gerar imagens não consensuais entre os mais novos - tal como entre os “mais velhos”.
Pergunta do Dia
Em destaque
-
Multimédia
Terra está coberta por campo elétrico que pode ter moldado o planeta ao longo dos tempos -
App do dia
Planear viagens, explorar e partilhar com amigos e família as melhores experiências -
Site do dia
Sabe qual é a sua pegada de carbono e como pode viver de forma mais sustentável? -
How to TEK
Quanto tempo passa por dia no Facebook? Saiba como definir lembretes
Comentários