O documento “AI Privacy Risks & Mitigations – Large Language Models (LLMs)” já foi publicado no site do Comité Europeu de Proteção de Dados (EDPB na sigla em inglês para European Data Protection Board) e traz uma visão clara sobre a forma como os riscos de proteção de dados pessoais em tecnologias de inteligência artificial baseadas em grandes modelos de linguagem (LLM) devem ser geridos.

Funciona como um guia para as Autoridades de Proteção de Dados mas também é útil para todos os que queiram aprofundar esta área, nomeadamente os investigadores e programadores que queiram adaptar o desenvolvimento às regras do Regulamento Geral de Proteção de Dados (RGPD), assegurando a proteção de dados desde a conceção e por defeito, a segurança no tratamento dos dados e com uma estrutura que suporta o desenvolvimento da avaliação de impacto sobre a proteção de dados.

O documento faz uma explicação de como funcionam os grandes modelos e linguagem e da IA de agentes, e o equilíbrio entre os dados que são disponibilizados para os sistemas conhecerem melhor a informação para serem mais úteis. Faz ainda a separação entre LLM proprietários, de Open Source e serviços baseados em Cloud, alinhando diversos tipos de aplicações e formas de medir o desempenho.

O documento avança uma proposta de metodologia para a identificação, avaliação e mitigação de riscos de privacidade e proteção de dados nos LLM, que depois é aplicada a três casos concretos, de assistentes virtuais tipo chatbot, no desenvolvimento de uma ferramenta de monitorização de estudantes e a um assistente de IA para gestão de viagens e agenda pessoal.

O documento “AI Privacy Risks & Mitigations – Large Language Models (LLMs) pode ser consultado neste link.