Por André Baptista (*)

A ascensão dos agentes de IA representa um momento crucial na cibersegurança, devido ao potencial transformador e aos riscos sem precedentes que implica. Apesar de serem ativos poderosos para operações de TI, os agentes de IA introduzem uma nova camada de vulnerabilidades, as quais já estão a ser exploradas por cibercriminosos. Esta transformação faz com que as organizações enfrentem agora um novo desafio ao nível da cibersegurança em que a questão não é saber como é que a IA vai reforçar as suas defesas, mas sim quão rápido vão conseguir adaptar-se às novas ameaças, não apenas as que são alimentadas pela IA, mas também as que têm como alvo as aplicações de IA. E o verdadeiro teste está em mitigar essas ameaças antes que elas se materializem num ataque bem sucedido.

Os riscos dos agentes de IA decorrem da sua autonomia. Ao contrário da automação tradicional, que segue regras determinísticas e predefinidas, os agentes de IA podem operar com um alto grau de autonomia. Sem as salvaguardas adequadas, estes podem aceder a dados confidenciais, executar ações não intencionais e ir para lá dos limites de confiança sem supervisão humana direta. Esta capacidade incrementa de forma substancial as superfícies de ataque e torna ainda mais vulneráveis os sistemas de segurança legacy, que não estão preparados para lidar com estas novas ameaças.

Acresce a estes desafios o facto de muitos modelos de IA serem treinados em conjuntos de dados anonimizados ou com consentimento insuficiente do utilizador, levantando sérias preocupações ao nível da privacidade. À medida que o código gerado por IA se torna mais prevalente nas pipelines de desenvolvimento, aumenta o risco de haver vulnerabilidades na fase de produção, particularmente quando a validação de segurança é feita de forma esporádica e não de forma contínua.

Por outro lado, e de acordo com investigadores da Universidade George Mason, "os agentes baseados em LLM podem navegar de forma autónoma em ataques em cadeia e atuarem ao longo de toda a cadeia de valor digital, desde o reconhecimento à exploração de vulnerabilidades”, pelo facto de serem mais rápidos do que as defesas tradicionais e por tirarem partido dessas fraquezas em tempo real. Ou seja, os ataques baseados em IA podem, agora, analisar rapidamente o código em busca de vulnerabilidades, identificar ativos desconhecidos e até mesmo criar scripts de exploração de vulnerabilidades com o mínimo de intervenção humana. Na prática, o jogo do gato e do rato continua o mesmo, mas esta escalada transformou a cibersegurança numa competição ainda mais acelerada, com os atacantes a aproveitarem a IA para operar a uma escala sem precedentes.

A boa notícia, é que as equipas de segurança podem virar este jogo a seu favor e construírem defesas mais robustas com recurso à mesma tecnologia. Os hackers éticos, por exemplo, estão a implementar um número crescente de ferramentas de automação baseadas em IA para melhorar exponencialmente as suas próprias capacidades de mapeamento, identificação e deteção de vulnerabilidades e de ameaças. É, aliás, a única forma de estarem um passo à frente dos criminosos.

No entanto, as estratégias de defesa mais eficazes não dependem apenas da automação. Embora a IA possa identificar rapidamente potenciais vulnerabilidades, a experiência humana continua a ser indispensável para validar riscos, priorizar questões críticas e abordar falhas subtis que possam passar à supervisão das máquinas.

Por isso, a estratégia mais eficaz é uma abordagem híbrida que combine ferramentas alimentadas por IA, para mapear rápida e automaticamente a superfície de ataque e encontrar vulnerabilidades, e hackers éticos qualificados para interpretar essas descobertas e priorizar as ameaças mais críticas.

Esta sinergia permite que as organizações mantenham os níveis de produtividade no desenvolvimento assistido por IA e minimizem a sua exposição a ameaças emergentes.

O futuro da cibersegurança passa, por isso, por uma nova parceria entre a experiência humana e a inteligência artificial. Em vez de substituir as equipas de segurança, a IA servirá como uma ferramenta colaborativa, capaz de ampliar as capacidades humanas com uma velocidade e escala sem precedentes.

Já a IA generativa e os agentes de IA podem automatizar as tarefas repetitivas e trabalhosas, executando-as a um ritmo que é impossível para os seres humanos. Isto libera os especialistas em segurança para se concentrarem em desafios estratégicos, considerações éticas e na solução criativa de problemas complexos.

Em última análise, a cibersegurança mais resiliente emergirá desta poderosa sinergia entre a intuição humana e a eficiência das máquinas.

(*) CTO e Cofundador da Ethiack