Um número alarmante de menores afirma ter conhecidos que criam nudes de amigos ou colegas de turma com recurso à inteligência artificial, segundo os resultados de um estudo realizado nos Estados Unidos.
Mais especificamente, um em cada dez indicou que os seus amigos ou colegas de turma usaram ferramentas de IA para criarem imagens não consensuais com esse propósito. Entre os inquiridos, outro um em cada dez afirmou que "prefere não dizer".
Conduzido pela organização sem fins lucrativos Thorn, que tem por missão desenvolver tecnologia para defender crianças de abuso sexual, o estudo colocou perguntas a 1.040 menores entre os nove e os 17 anos - com autorização dos seus progenitores - sobre conteúdos de abuso sexual infantil e "experiências online prejudiciais", tendo sido realizado entre 3 de novembro e 1 de dezembro de 2023.
"Embora a motivação por detrás desses eventos seja mais provavelmente motivada por comportamento adolescente do que pela intenção de abuso sexual, os danos às vítimas são reais e não devem ser minimizados e isentos de responsabilidade", sublinha-se no relatório, citado pela publicação 404 Media.
Realizada em parceria com a BSG, a pesquisa é uma das primeiras tentativas de medir a dimensão de um problema que se sabe existir de utilização das ferramentas de IA para gerar imagens não consensuais entre os mais novos - tal como entre os “mais velhos”.
Em destaque
-
Multimédia
Telescópio Hubble registou o último brilho de uma estrela semelhante ao Sol -
App do dia
Still: Organize pensamentos, reflexões e estados de espírito num diário digital minimalista -
Site do dia
Edite documentos em PDF, sem perder a formatação, e de forma gratuita com o LightPDF -
How to TEK
Onde encontrar os ficheiros descarregados no iPhone ou smartphone Android?
Comentários