Já sabemos que a inteligência artificial pode ser usada para coisas boas, mas também para coisas menos boas e foi esta última vertente que colocou a Apple “em xeque” nos últimos dias. A gigante tecnológica foi avisada pelo 404 Media, de que teria na sua loja de aplicações editores de imagem que alegavam poder “criar imagens de nudez não consensuais”, com recurso a modelos de IA.
O aviso teve por base um relatório feito pelo site que analisou o facto de algumas empresas estarem a fazer publicidade no Instagram para promoverem apps capazes de “despir qualquer miúda de graça”. Segundo o 404 Media, alguns desses anúncios levavam os utilizadores diretamente à App Store.
A Apple não terá respondido inicialmente ao pedido de comentário do 404 Media, enviado na última segunda-feira, mas depois acabou por entrar em contato com a publicação para solicitar mais informação.
“A Apple removeu várias aplicações de criação de imagens de IA da App Store depois de a 404 Media descobrir que essas aplicações anunciavam a capacidade de criar imagens de nudez não consensuais, um sinal de que as lojas de apps estão a começar a tomar mais medidas contra esse tipo de conteúdos”, pode ler-se.
No total, a Apple removeu três aplicações da App Store, mas apenas depois de receber os links diretos para os anúncios e as páginas específicas das mesmas na loja, enviados pelo 404 Media, acrescenta-se .
Pergunta do Dia
Em destaque
-
Multimédia
Spot mostra que os robots também sabem dançar e seguir coreografias -
Site do dia
Lixo eletrónico está a aumentar a ritmo acelerado e este mapa mostra a situação em cada país -
App do dia
Home.Planet.Hunters convoca todos os guerreiros para defender o planeta depois de uma catástrofe -
How to TEK
Organize as janelas no Windows 11 para trabalhar em modo multitarefas
Comentários