O ano de 2025 consolidou-se como o início da "era dos agentes de IA", mas esta evolução tecnológica trouxe consigo uma mudança drástica no panorama das ameaças digitais. Segundo os dados do mais recente relatório da Check Point Research, os atacantes demonstraram uma capacidade de adaptação impressionante, ajustando as suas técnicas assim que os modelos de IA começaram a interagir com fontes externas e a executar tarefas complexas de forma autónoma.

Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt

O grande foco de preocupação reside agora na forma como estes sistemas exploram novas superfícies de ataque, desde a navegação web automatizada até ao processamento de fluxos de trabalho integrados em ambiente empresarial. Uma das tendências mais alarmantes detectadas no último trimestre de 2025 foi a obsessão dos atacantes pela extração dos chamados “system prompts”.

Estas instruções internas, que servem como o manual de funcionamento e definem os limites éticos e operacionais do modelo, foram o alvo de cerca de 60% das tentativas de ataque observadas. Para obter este "manual", os adversários recorrem a táticas de ofuscação e à criação de cenários hipotéticos, onde induzem a IA a simular auditorias ou contextos de formação para que esta acabe por revelar as suas diretrizes confidenciais.

Alerta de segurança: Gemini 3 Pro transforma a IA no novo perímetro de risco para as empresas
Alerta de segurança: Gemini 3 Pro transforma a IA no novo perímetro de risco para as empresas
Ver artigo

Esta abordagem permite contornar os filtros de segurança tradicionais através de técnicas cada vez mais refinadas de injeção de comandos. Para além do roubo de instruções, os atacantes estão a tornar-se mais subtis na forma como contornam os controlos de conteúdo, utilizando pedidos de análise, resumos ou cenários ficcionais para gerar resultados que seriam bloqueados em pedidos diretos.

Contudo, o perigo mais relevante para o futuro parece residir nos ataques indiretos, onde o utilizador não é o autor da instrução maliciosa. Nestes casos, o código perigoso é escondido em páginas web ou ficheiros que o agente de IA é convidado a processar, explorando os fluxos automáticos de recuperação de informação. Perante este cenário, a segurança em 2026 exigirá um controlo total sobre todo o ciclo de decisão do agente, e não apenas uma análise do resultado final.

Assine a newsletter do TEK Notícias e receba todos os dias as principais notícias de tecnologia na sua caixa de correio.