A equipa comandada por Elon Musk ao serviço do governo americano para levar mais eficiência e menos burocracia ao Governo federal (o DOGE), estará a usar o chatbot Grok da startup do multimilionário, a xAI, e o respetivo modelo de linguagem para analisar dados dos serviços, sem as devidas autorizações prévias.

A informação está a ser avançada pela agência Reuters, não tem confirmação oficial, mas cita três fontes próximas ao processo e vários especialistas a confirmarem que esta utilização pode violar um conjunto de leis, nomeadamente na área da privacidade, e dar à empresa uma enorme vantagem comercial, face a outros fornecedores de soluções de inteligência artificial.

Segundo estas fontes, está a ser usada uma versão personalizada do Grok para facilitar a análise de documentos, permitindo aos funcionários fazerem perguntas aos chatbot e chegarem mais rapidamente à informação que precisam, agilizando ainda a elaboração de relatórios.

Duas das fontes da agência garantem mesmo que essa utilização tem vindo a ser expandida e que o Departamento de Segurança Interna também recebeu ordens para usar o chatbot, sem uma autorização prévia da solução e sem as validações que a lei prevê, para garantir que dados confidenciais não ficam acessíveis fora do âmbito que é suposto.

A indicação para usar o chatbot terá vindo do próprio DOGE, mas a Reuters também admite que não conseguiu confirmar se essa indicação foi seguida ou ignorada pelo departamento governamental que gere políticas de imigração, questões de segurança física e digital e um conjunto de outros temas e dados sensíveis.

Casa Branca: Elon Musk é apenas consultor de Trump e "não tem mais autoridade do que qualquer outro conselheiro"
Casa Branca: Elon Musk é apenas consultor de Trump e "não tem mais autoridade do que qualquer outro conselheiro"
Ver artigo

Para que se saiba em que medida esta possível utilização viola a legislação americana, seria necessário saber como está a ser usada a tecnologia e a que tipo de dados tem acesso. Se estiver a ser usada para lidar com informações governamentais sensíveis ou confidenciais, como dados de cidadãos, podem estar a ser violadas as leis de segurança e privacidade, concordaram cinco especialistas consultados pela Reuters.

A outra questão que se coloca tem a ver com o facto de os dados usados pelo Grok também estarem a servir para treinar o modelo e daí surgem duas preocupações. Uma tem a ver com as garantias existentes de que essa informação não venha a ser usada por interlocutores ou para fins além do que a lei prevê. A outra é o facto de a mesma tecnologia que beneficia agora destes dados para ser melhorada, vir a ser usada pela empresa em negócios privados com organismos públicos, já que a xAI ficará claramente numa situação de vantagem.

“Dada a escala de dados que o DOGE acumulou e dadas as numerosas preocupações de portar esses dados para um software como o Grok, isso para mim é uma ameaça à privacidade tão séria quanto possível”, admite Albert Fox Cahn, diretor executivo do Surveillance Technology Oversight Project, uma ONG de defesa de direitos de privacidade, à Reuters.

A atividade do departamento de eficiência liderado por Elon Musk tem levantado polémica desde o início e uma das principais razões está precisamente no facto de a equipa ter acesso a dados que normalmente não estão ao alcance da maior parte dos funcionários federais. O acesso a essas bases de dados está condicionado a processos complexos de autorização e a restrições que existem para assegurar que informações mais sensíveis não são perdidas, vendidas ou que não ficam vulneráveis à consulta por terceiros não autorizados.

O Departamento de Segurança Interna dos Estados Unidos já estava a usar ferramentas de IA generativa. Tinha autorização para usar produtos como o ChatGPT, com dados não sensíveis, e uma ferramenta interna para dados com requisitos de privacidade. Segundo as fontes da Reuters, este mês o acesso às ferramentas comerciais foi cortado pelo serviço, depois de se suspeitar que estavam a ser usadas com dados que não podiam ser expostos a essas soluções, precisamente pela mesma falta de garantias de segurança que se colocam agora a uma utilização do Grok para os mesmos fins.