Com a popularização de chatbots de IA como o ChatGPT, Gemini, Copilot ou Grok, surgem novos riscos. A mais recente edição do AI Safety Index do Future of Life Institute (FLI) já tinha apontado que as práticas das grandes empresas de IA ficam muito aquém dos padrões mínimos de segurança, mas há mais alertas relativamente à privacidade.
Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt
Ainda no ano passado, um estudo realizado por investigadores da Universidade Stanford, nos Estados Unidos, demonstrou como as principais empresas na área da IA estão a fazer uso dos dados dos utilizadores para treinar os seus modelos.
Como afirma Jennifer King, autora principal do estudo, “se partilhar informação sensível num diálogo com o ChatGPT, o Gemini ou outros modelos de IA avançados, esses dados podem ser recolhidos e utilizados para treino, mesmo que estejam num ficheiro separado que tenha sido carregado durante a conversa.”
Os investigadores analisaram as políticas de privacidade de várias empresas responsáveis por soluções de IA e identificaram várias questões preocupantes, incluindo longos períodos de retenção de dados, uso de informação de crianças para treino de modelos e uma falta generalizada de transparência e de mecanismos de responsabilização.
Perante os resultados obtidos, a equipa alerta os utilizadores para a necessidade de pensarem duas (ou mais) vezes sobre a informação que partilhas nas conversas.
Por outro lado, muitos utilizadores acabam por partilhar dados pessoais inadvertidamente, incluindo quando procuram por ajuda sobre questões de cibersegurança, como revelou uma análise partilhada pela NordVPN no ano passado.
Entre os dados mais comuns que os utilizadores acabam por partilhar estão, por exemplo, nomes completos, endereços de email ou números de telemóvel, especialmente quando pedem ajuda com emails ou recuperação da conta. Divulgar nomes de utilizador, palavras-passe ou até códigos de autenticação de dois fatores é outra das práticas que se destaca pela negativa.
Segundo os especialistas, os utilizadores também costumam partilhar a sua cidade, morada ou coordenadas de GPS quando procuram recomendações locais ou soluções para problemas. Quando precisam de ajuda para resolver problemas nas redes sociais, é comum colarem as ligações para os seus perfis ou os nomes de utilizador.
Há também quem partilhe dados confidenciais, como números de contas bancárias, informação de cartões de crédito ou capturas de ecrã de pagamentos, quando procuram ajuda com pagamentos online.
Hoje é quase impossível “fugir” às ferramentas de IA ou até mesmo à integração da tecnologia em plataformas que costumamos utilizar. Para o ajudar a tomar decisões mais informadas e a proteger a sua privacidade, deixamos um conjunto de conselhos úteis, incluindo recomendações de especialistas.
Não partilhe informação pessoal ou sensível com chatbots de IA
Tendo em conta que as conversas podem ser registadas, armazenadas e utilizadas para treinar modelos futuros, há um conjunto de tópicos que deve manter fora das conversas com chatbots de IA: de conselhos médicos a problemas pessoais.
O mesmo se aplica a informação como o seu nome completo, moradas, ou quaisquer dados que o possam identificar pessoalmente. Em casos de fuga de dados, a sua informação pode ser explorada por cibercriminosos.
Importa também lembrar que os chatbots de IA não funcionam como “cofres” digitais onde pode armazenar de maneira segura as suas passwords, credenciais de acesso a plataformas, ou PINs. Nestes casos, deve optar por ferramentas concebidas especificamente para esse fim, como os gestores de passwords.
Cuidado com os riscos da IA no trabalho
Os mais recentes dados do Teste Nacional de Privacidade da NordVPN, relativos a 2025, mostram que 92% dos portugueses não compreendem que questões de privacidade devem ter em conta ao utilizar IA no trabalho.
Como lembra Marijus Briedis, CTO da empresa, ao contrário de uma conversa com um colega de trabalho, “as interações com ferramentas de IA podem ser registadas, analisadas e potencialmente utilizadas para treinar modelos futuros”.
“Quando os colaboradores partilham dados de clientes, estratégias internas ou informações pessoais com assistentes de IA, podem estar a criar vulnerabilidades de privacidade sem querer", afirma.
Já Raphael Reischuk, Partner e Group Head Cybersecurity da Zühlke, indica que, no contexto do trabalho, “a IA deve ser encarada como um facilitador, e não como uma ameaça, mas apenas se for utilizada com consciência e salvaguardas claras.
“A proteção de dados não pode ser uma reflexão tardia: deve estar integrada na forma como interagimos diariamente com estas ferramentas, de modo a garantir a segurança da informação de indivíduos, organizações e clientes”, afirma o responsável, citado em comunicado.
Nesse sentido, se planeia usar ferramentas baseadas nesta tecnologia para realizar tarefas do trabalho, verifique primeiro as políticas de utilização de IA da sua organização.
Nunca deve introduzir dados confidenciais da empresa ou informações de clientes nas conversas, sobretudo se está a utilizar uma solução baseada num modelo público.
Se precisa mesmo de usar uma ferramenta de IA como o ChatGPT para realizar uma tarefa, substitua qualquer informação pessoal ou sensível ou quaisquer referências identificáveis por nomes aleatórios ou dados sintéticos, afirmam os especialistas da Zühlke.
Ainda no que toca às organizações, o uso de soluções on-site ou baseadas em modelos locais pode ajudar a tirar partido da tecnologia sem partilhar dados confidenciais com fornecedores externos.
Configure as definições de privacidade dos chatbots
É possível configurar as definições dos chatbots de IA para ajustar o seu “comportamento” relativamente aos nossos dados e às conversas. Note, no entanto, que existem diferenças significativas na forma como cada plataforma trata as informações.
Antes de começar a conversar é importante que dedique alguns minutos a explorar a secção de definições para compreender se é possível, por exemplo, desativar a utilização dos seus dados para treinar modelos de IA, impedir a memorização de informação ou eliminar o histórico de atividades.
Neste How to TEK pode consultar mais informação sobre como configurar as definições de privacidade em chatbots como o ChatGPT, Claude, Gemini, Copilot e Meta AI.
Muitas das medidas que aqui detalhamos também se aplicam a outras facetas do mundo online e fazem parte dos repetidos avisos divulgados por investigadores e especialistas em privacidade digital e cibersegurança.
Por exemplo, é importante que avalie com conta, peso e medida que tipo de dados partilha no mundo online e se vale mesmo a pena divulgá-los. Além da questão dos ciberataques e das fugas de informação, é importante ter em conta que nem todas as plataformas onde partilha a sua informação fazem um uso legítimo da mesma, podendo vendê-la sem que se aperceba a data brokers, ou seja, entidades que agregam dados online e que as vendem depois a outras empresas.
Na galeria que se segue pode recordar algumas das principais recomendações que temos partilhado ao longo dos últimos anos acerca dos riscos à privacidade e segurança online.
Clique nas imagens para ver com mais detalhe
Assine a newsletter do TEK Notícias e receba todos os dias as principais notícias de tecnologia na sua caixa de correio.
Em destaque
-
Multimédia
Sweekar quer ser um Tamagotchi para os tempos modernos (com IA incluída) -
App do dia
Acompanhe satélites, planetas e fenómenos espaciais com a AstroAlert -
Site do dia
#PressPlayTogether incentiva pais e filhos a jogar em conjunto com mais responsabilidade e segurança -
How to TEK
Tem iPhone atualizado com o iOS 26? Saiba como tirar partido das novas ferramentas das mensagens
Comentários