
O Ministério da Segurança do Estado (MPS na sigla inglesa) da China emitiu esta terça-feira um comunicado a alertar que os dados de treino da inteligência artificial variam bastante na qualidade, muitas vezes contendo informação falsa, conteúdos fabricados e perspectivas enviesadas. Nos seus cálculos, se 0,01% dos dados de treino contiverem textos falsos, o resultado malicioso do modelo de IA pode aumentar até 11,2%, mesmo apenas 0,001% corresponde a 7,2%, aponta o jornal chinês Global Times.
É referido que os três elementos de base da IA são os algoritmos, o poder de computação e os dados. Os dados são vistos como um elemento fundamental para treinar modelos de IA, e um recurso-chave para aplicações de IA. Além de oferecer material cru para os modelos de IA, estes influenciam a performance e conduzem o uso da IA, apontou a MPS num comunicado na sua conta oficial na rede social WeChat.
Se por um lado os dados de grande qualidade aumentam a precisão e a confiabilidade dos modelos de IA, por outro, dados que estejam comprometidos podem levar a decisões enganosas ou mesmo a falhas no sistema, aumentando o risco de segurança.
O Ministério acrescenta que conteúdos falsos gerados por dados poluídos podem ser reutilizados em treinos futuros, o que cria aquilo que chama de “legado de efeito de poluição” duradouro. Chegou-se a um ponto onde atualmente os conteúdos gerados por inteligência artificial excedeu a criação de humanos em volume e a prevalência de dados de baixa qualidade e enviesados vai resultar em erros compostos no treino, distorcendo a capacidade de compreensão do modelo ao longo do tempo, é referido no comunicado.
A China alerta que a poluição dos dados pode levar a riscos na vida real. Dá o exemplo das Finanças, onde a IA pode fazer disparar flutuações anormais no mercado. Na segurança pública, pode enganar a opinião pública e espalhar o pânico. Na Saúde, pode resultar em diagnósticos incorretos e colocar vidas em risco ou mesmo, promover aquilo que chama de “pseudociência”.
Para combater e prevenir a poluição dos dados na sua fonte, a China diz que implementou um sistema de classificação para os dados de IA, baseado nas legislações da Cibersegurança, Segurança de Dados e Proteção de Informações Pessoais. O objetivo é coibir a criação de dados poluídos na fonte e mitigar os riscos de segurança dos dados relacionados com IA. As autoridades estão agora a melhorar as avaliações de risco, assim como a melhorar as salvaguardas para o fluxo de dados e implementação de mecanismos de correção end-point, numa framework estruturada.
De recordar que as grandes tecnológicas chinesas como a Alibaba, Tencent, DeepSeek e ByteDance têm lançado modelos de IA poderosos, persistindo dúvidas sobre se o seu desenvolvimento é feito num ambiente sujeito a forte censura estatal. Veja-se o exemplo do DeepSeek, que se recusa a responder a questões que podem ser críticas ao regime chinês, como o massacre que aconteceu na Praça Tiananmen em 1989.
O próprio chatbot refere os temas sobre os quais não pode falar, como fornecer informações sobre atividades ilegais, diagnósticos médicos ou de saúde e aconselhamento fiscal ou jurídico, sendo que também não pode "gerar conteúdo impróprio ou ofensivo, aceder a informação privadas, confidenciais ou pessoas, fazer previsões e aceder dados pessoais ou conversas dos utilizadores".
Pergunta do Dia
Em destaque
-
Multimédia
Holobox traz o conceito de holograma para novos modelos de comunicação -
App do dia
Pronto para voltar aos treinos? Bend ajuda a manter flexibilidade com alongamentos diários -
Site do dia
Tabs Magic transforma o browser num painel interativo com mais opções de organização -
How to TEK
Instagram: Como desativar o uso de dados pessoais para treino do Meta AI?
Comentários