À medida que a popularidade do ChatGPT continua a crescer, aumentam também as preocupações acerca do seu impacto no mundo da cibersegurança e vários especialistas têm alertado para o “lado negro” do chatbot da Open AI. Mas será que a tecnologia GPT pode ser também uma aliada na segurança?

Os investigadores da Sophos decidiram pôr a ideia à prova, demonstrando como é possível tirar partido de uma versão anterior do modelo de IA da Open AI, neste caso o GPT-3, para simplificar a deteção de atividades maliciosas em conjuntos de dados de software de segurança, filtrar spam com mais precisão e acelerar a análise de ataques de binários "living off the land" (LOLBin).

Segundo a empresa de cibersegurança, os três projetos de protótipos criados pelos investigadores recorrem à técnica "few-shot learning" para treinar o modelo de IA. Através dela é possível usar apenas algumas amostras de dados, reduzindo a necessidade de recolher um maior volume de informação pré-classificada.

No primeiro projeto, os especialistas testaram este método com uma interface de consulta de linguagem natural. O objetivo foi filtrar atividade maliciosa em telemetria de software de segurança, com o modelo a ser testado na solução deteção e resposta de endpoints da Sophos.

ChatGPT também tem um “lado negro” que está a preocupar os especialistas em cibersegurança
ChatGPT também tem um “lado negro” que está a preocupar os especialistas em cibersegurança
Ver artigo

Através da interface as equipas de segurança podem filtrar a telemetria através de comandos básicos em inglês, sem precisarem de ter conhecimentos em SQL ou até sobre a estrutura subjacente da base de dados.

No segundo projeto, os investigadores testaram um novo filtro de spam que recorre ao GPT-3 e verificaram que era significativamente mais eficaz do que outros modelos de machine learning utilizados para o mesmo efeito. Já no terceiro projeto foi possível criar um programa para simplificar o processo de engenharia reversa das linhas de comando dos LOLBins.

"Desde que a OpenAI revelou o ChatGPT, em novembro, a comunidade de segurança tem estado sobretudo focada nos potenciais riscos que esta nova tecnologia pode trazer”, afirma Sean Gallagher, Principal Threat Researcher da Sophos. No entanto, o investigador realça que a tecnologia deve ser vista como uma aliada. “

A comunidade de segurança deve prestar atenção não apenas aos potenciais riscos, mas também às oportunidades que o GPT-3 traz", salienta Sean Gallagher.

Segundo o especialista, "uma das preocupações crescentes nos centros de operações de segurança é a quantidade de ‘ruído’ que entra”, entre vastas quantidades de notificações e deteções que precisam de ser filtradas.

Muitas empresas não têm os recursos necessários para lidar de forma eficiente com estas situações, mas, através do GPT-3 é possível “simplificar certos processos que necessitam de muita mão de obra”.

A Sophos afirma que já está a trabalhar na incorporação de alguns dos protótipos desenvolvidos nos seus produtos. Todos os interessados em saber mais pormenores sobre os projetos podem consultar a página da Sophos no GitHub.