Os especialistas da equipa de cibersegurança da Microsoft realça que, ao longo dos últimos anos, os chatbots de IA têm ganho cada vez mais espaço na vida de muitas pessoas. À medida que evoluem, estas soluções também são usadas cada vez mais em contextos sensíveis, questões sobre saúde, conselhos legais e conversas pessoais.

Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt

O método de ataque descoberto, ao qual a Microsoft deu o nome Whisper Leak, explora padrões no tráfego de rede para tentar descobrir os temas das conversas entre os utilizadores e os modelos de IA.

O ataque não “quebra” a encriptação, mas aproveita-se das características do funcionamento dos modelos de linguagem, que permitem gerar respostas em tempo real, mas também uma espécie de “impressão digital” única, que pode ser usada para detetar se alguém está a discutir um determinado tema com um chatbot.

Durante os seus testes, os investigadores da Microsoft verificaram que através deste método de ataque foi possível identificar com mais de 98% de precisão de uma conversa dizia respeito a um determinado tema, neste caso, sobre “lavagem de dinheiro”, entre milhares de outras conversas sobre tópicos diferentes.

Os especialistas simularam também um cenário em que um atacante estava a monitorizar 10.000 conversas, com apenas uma delas a dizer respeito a um tópico sensível. Mesmo neste cenário, o método permitiria ao atacante ter uma precisão de 100% em muitos dos modelos testados.

De conselhos médicos a problemas pessoais: 5 tópicos para manter fora das conversas com o ChatGPT
De conselhos médicos a problemas pessoais: 5 tópicos para manter fora das conversas com o ChatGPT
Ver artigo

A Microsoft avança que já estão a ser tomadas medidas para mitigar o problema. Empresas como a OpenAI, Mistral e xAI já avançaram com correções que reduzem a eficácia deste método de ataque. Além disso, a segurança de plataformas como o Azure também foi reforçada, indica a tecnológica de Redmond.

Embora este seja um problema que necessita de ser resolvido pelas empresas responsáveis pelos sistemas de IA, os investigadores explicam que os utilizadores também podem tomar um conjunto de medidas para reforçarem a privacidade dos seus dados.

Nesse sentido, evitar discussões sobre temas sensíveis com chatbots de IA quando está ligado a uma rede pública, usar uma VPN e optar por serviços que já tenham implementado medidas de proteção contra este método de ataque estão entre as principais recomendações da Microsoft.

Assine a newsletter do TEK Notícias e receba todos os dias as principais notícias de tecnologia na sua caixa de correio.