Há dias um programador revelou uma falha de segurança importante no software da OpenAI, dona do ChatGPT e esta sexta-feira o New York Times divulgou um relatório que dá conta de outro problema de segurança enfrentado pela empresa no ano passado. Em ambos os casos, a possibilidade de dados privados - dos utilizadores num caso e da empresa noutro - ficarem acessíveis a terceiros esteve em cima da mesa.

O caso mais recente tem a ver com a aplicação para Mac do ChatGPT. Um programador percebeu que a aplicação estava a guardar as conversas dos utilizadores localmente em texto simples, em vez de as encriptar. A aplicação só está disponível no site da OpenAI e como tal não tem de cumprir os requisitos de "sandboxing" da Apple para a loja oficial, mesmo essa sendo a melhor prática. Este tipo de política de contenção obriga os programadores a implementarem medidas que previnam a disseminação de uma vulnerabilidade para outras apps ou para o sistema onde corre.

A OpenAI ainda não comentou o caso, mas lançou uma atualização depois de a situação ter vindo a público e neste momento os dados guardados localmente na app para Mac já são encriptados. Sem isso, o conteúdo das conversas com o ChatGPT estavam facilmente acessíveis a outras aplicações ou a malware, como alertou Pedro José Pereira Vieito, o programador que identificou o problema e o divulgou na rede social X e ao The Verge.

Nova aposta da OpenAI chama-se CriticGPT e serve para apontar erros ao ChatGPT
Nova aposta da OpenAI chama-se CriticGPT e serve para apontar erros ao ChatGPT
Ver artigo

O caso reportado pelo WSJ ocorreu em 2023 e foi o acesso do jornal ao relatório que se seguiu ao evento que permitiu agora obter detalhes. Em abril do ano passado, um hacker conseguiu entrar no sistema interno de mensagens da OpenAI e ter acesso a conversas e detalhes sobre o desenvolvimento das tecnologias de IA generativa da empresa. O atacante terá conseguido recolher informação de um fórum online usado pelos funcionários. Não teve acesso aos sistemas críticos da empresa, garante a tecnológica.

A OpenAI escreve no relatório que foram tomadas as medidas internas necessárias, e avisados os responsáveis da empresa. O caso não foi tornado público por não ter afetado dados de clientes e porque a ação terá sido realizada por um indivíduo, sem propósitos de espionagem, ligações a governos estrangeiros, ou a qualquer outra forma de ameaça à segurança nacional dos Estados Unidos, um tema altamente atual no país.

A visão parece não ter sido consensual, mas foi a que vingou. O NYT também noticia que Leopold Aschenbrenner, diretor técnico da empresa à data, levantou questões na altura e tentou sensibilizar o conselho de administração para o facto de a intrusão expor vulnerabilidades internas que podiam ser aproveitadas por adversários estrangeiros.

Este responsável entretanto saiu da OpenAI e diz que foi despedido por ter revelado detalhes e criticado as políticas de segurança da companhia. A empresa já reagiu e garante que o homem não foi demitido pelo seu alegado papel de denunciante.