Já sabemos que a inteligência artificial pode ser usada para coisas boas, mas também para coisas menos boas e foi esta última vertente que colocou a Apple “em xeque” nos últimos dias. A gigante tecnológica foi avisada pelo 404 Media, de que teria na sua loja de aplicações editores de imagem que alegavam poder “criar imagens de nudez não consensuais”, com recurso a modelos de IA.
O aviso teve por base um relatório feito pelo site que analisou o facto de algumas empresas estarem a fazer publicidade no Instagram para promoverem apps capazes de “despir qualquer miúda de graça”. Segundo o 404 Media, alguns desses anúncios levavam os utilizadores diretamente à App Store.
A Apple não terá respondido inicialmente ao pedido de comentário do 404 Media, enviado na última segunda-feira, mas depois acabou por entrar em contato com a publicação para solicitar mais informação.
“A Apple removeu várias aplicações de criação de imagens de IA da App Store depois de a 404 Media descobrir que essas aplicações anunciavam a capacidade de criar imagens de nudez não consensuais, um sinal de que as lojas de apps estão a começar a tomar mais medidas contra esse tipo de conteúdos”, pode ler-se.
No total, a Apple removeu três aplicações da App Store, mas apenas depois de receber os links diretos para os anúncios e as páginas específicas das mesmas na loja, enviados pelo 404 Media, acrescenta-se .
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários