Por Hugo Mestre (*)
Imagine um piloto de Fórmula 1 a 300 km/h. Dentro do cockpit, as decisões são tomadas em milissegundos: travar, curvar, desviar. É instinto puro. Mas antes de o motor sequer ligar, houve meses de trabalho lento nas boxes: engenharia, cálculo de risco, simulações, discussões e decisões estratégicas.
O psicólogo Daniel Kahneman, galardoado com o Prémio Nobel da Economia pela sua investigação sobre a tomada de decisão humana, definiu esta tensão como Sistema 1 e Sistema 2. O primeiro reage, o segundo decide. O primeiro é reflexo, o segundo é julgamento.
Durante anos, a cibersegurança viveu quase exclusivamente em modo Sistema 2. Equipas a analisar logs de forma manual, comités a aprovar regras de firewall, relatórios forenses que chegam semanas depois do incidente. A IA mudou o asfalto. Os ataques passaram a ocorrer à velocidade da máquina. Para conseguirmos acompanhar, trouxemos a IA para dentro do cockpit da defesa.
A promessa é sedutora: uma defesa que reage tão depressa quanto o ataque, centros de operações “autónomos” que se protegem sozinhos, agentes inteligentes a patrulhar redes 24x7. Mas há um perigo escondido nesta narrativa. Quando entregamos as chaves da segurança a algoritmos de reação rápida, corremos o risco de perder o pensamento lento que impede a organização de tomar decisões tecnicamente corretas, mas estrategicamente desastrosas.
O futuro da defesa digital não é escolher entre humano e máquina. É desenhar o contrato certo entre os dois.
A industrialização do cibercrime
Antes de discutirmos a defesa, vale a pena olhar para o outro lado do tabuleiro. A IA não trouxe apenas produtividade às empresas; trouxe escala industrial ao cibercrime. O arquétipo do hacker encapuzado, sozinho num quarto escuro, é hoje mais cinema do que realidade. O que enfrentamos é uma cadeia de produção.
O phishing com erros ortográficos e frases em “português macarrónico” está a desaparecer. Com Grandes Modelos de Linguagem, qualquer atacante consegue produzir mensagens impecáveis, no tom certo, no idioma certo, adaptadas à função e ao contexto da vítima. A engenharia social deixa de ser artesanal para se tornar hiper-personalizada em massa.
Em paralelo, a “Fraude do CEO” evolui. Já não se trata apenas de um email convincente. Um diretor financeiro pode hoje receber uma chamada de vídeo de um suposto administrador gerado em tempo real, com voz e rosto extremamente convincentes e difíceis de distinguir do original numa análise imediata, a pedir uma transferência urgente fora de processo. A “prova de vida” numa videochamada deixa de ser prova de verdade.
Mais abaixo, no nível técnico, o malware deixa de ser estático. Em vez de usarem a mesma assinatura de ataque, os atacantes usam IA para automatizar a geração de polimorfismo. Na prática, conseguem criar variantes de código malicioso únicas para cada alvo, a um custo marginal, tornando a defesa baseada em assinaturas tradicionais quase inútil.
Estamos, na prática, a lutar contra uma máquina que nunca dorme, nunca se cansa e aprende com cada erro. A questão para as administrações deixa de ser “somos um alvo?” e passa a ser “a nossa defesa continua artesanal num mundo em que o ataque já é industrial?”.
O paradoxo do talento: temos as máquinas, faltam os pilotos
Perante esta ameaça mecanizada, a reação natural das organizações é investir em ferramentas de IA. Mas rapidamente surge o choque com a realidade: quem é que governa esta tecnologia?
O défice global de profissionais de cibersegurança mede-se em milhões. Mas o problema mais crítico não é apenas quantitativo, é qualitativo. O analista treinado para configurar firewalls e tratar alertas não está, por definição, preparado para questionar a lógica de um modelo probabilístico, caçar uma alucinação subtil ou compreender o risco sistémico de um agente autónomo que interage com dezenas de serviços internos.
A IA não veio substituir o humano; veio exigir um humano melhor.
Começam a emergir novos papéis: o treinador de IA que define limites e exemplos; o engenheiro de segurança de modelos que protege dados e pipelines; os red teamers de IA que tentam manipular e enganar os modelos tal como um atacante faria. Sem este tipo de competência, até a melhor plataforma de defesa se transforma num mono caro. Pior ainda, torna-se um novo vetor de risco interno.
A arquitetura dos dois caminhos
Como é que se responde a um ataque industrializado com equipas humanas finitas? A resposta não é prometer uma defesa que corre sozinha. É desenhar uma arquitetura de decisão que replica, de forma disciplinada, os dois sistemas de Kahneman: um caminho rápido para a máquina, um caminho lento para o humano.
No Caminho Rápido, a IA assume o comando em tudo o que exige velocidade e escala: triagem de milhares de alertas, correlação de sinais de rede em múltiplas geografias, isolamento imediato de dispositivos suspeitos, aumento dinâmico dos níveis de autenticação quando um comportamento sai do padrão. Aqui, a IA funciona como um sistema imunitário: reage à infeção, estanca a hemorragia, toma decisões reversíveis que podem ser revistas a posteriori.
No Caminho Lento, o humano atua como estratega. Sempre que a decisão afeta a continuidade do negócio, a reputação ou a segurança física, a velocidade passa a ser inimiga da prudência. Desligar uma fábrica para conter um ataque, suspender sistemas clínicos num hospital, bloquear automaticamente todas as transações de um negócio inteiro: tecnicamente pode ser defensável, mas a decisão tem de ser assumida por alguém com mandato e contexto de negócio.
Neste segundo caminho, a IA deixa de ser executora e passa a ser assistente. Consolida dados, simula cenários, apresenta opções. Mas não tem a última palavra. A organização define previamente que tipo de decisões são sempre validadas por um humano e quem, exatamente, tem essa responsabilidade.
A meta estratégica não é a autonomia total - essa é uma promessa de marketing perigosa. O objetivo é a defesa aumentada, onde a IA acelera e o humano retém o julgamento estratégico para decidir onde travar.
Esta arquitetura de dois caminhos não é um novo produto. É um princípio de desenho: que decisões delegamos à máquina, com que limites, com que reversibilidade, com que capacidade de explicar as suas decisões e com que registos auditáveis?
Guardrails, regulação e responsabilidade
Para que este modelo funcione, é preciso mais do que boas intenções. É necessário traduzir políticas em código, risco em limites técnicos e governação em responsabilidade demonstrável. A ideia de guardrails, barreiras de proteção invisíveis que impedem a IA de atravessar certas linhas, deixa de ser um luxo e passa a ser requisito operacional.
Isto significa, na prática, traduzir políticas operacionais em regras automáticas que a IA não consegue ignorar, criando uma definição técnica clara do que um agente pode ou não pode fazer. Significa aplicar autonomia com “fio de prumo”: a mesma disciplina de contas privilegiadas aplica-se agora a agentes de IA, com o princípio do menor privilégio e mecanismos claros de paragem de emergência. E exige, por fim, registo e explicabilidade mínimos: para cada decisão relevante, é necessário saber o que aconteceu, quem decidiu, seja humano ou sistema, e com base em que sinais.
Este não é apenas um tema técnico; é um imperativo regulatório. A combinação da diretiva NIS2, do AI Act europeu e de normas como a ISO/IEC 42001 aponta para o mesmo destino: as organizações terão de demonstrar que sabem onde a IA está a decidir, como está a ser controlada e quem é responsável quando algo corre mal.
A Sincronia Estratégica
Estamos a entrar numa era em que a batalha de volume da cibersegurança já não pode ser ganha apenas com esforço humano; passa a ser um jogo de orquestração. A vantagem competitiva não pertencerá a quem tiver o modelo de IA mais potente, mas a quem desenhar o contrato de decisão mais inteligente: definindo com precisão o que delegar à velocidade da máquina e o que reservar ao discernimento estratégico humano.
A IA é o novo sistema nervoso da organização. O cérebro continua a ter de ser humano.
Tal como na Fórmula 1, o carro mais rápido do mundo é inútil se o piloto não souber quando travar na curva. A IA traz a potência necessária para não sermos ultrapassados pelos atacantes. O humano traz o julgamento necessário para manter a organização em pista. Quem conseguir pensar depressa para reagir, mas governar devagar para decidir, não estará apenas mais seguro. Estará a construir vantagem estratégica.
(*) Executive Director & Head of Devoteam Cyber Trust Portugal
Em destaque
-
Multimédia
Nebulosas, auroras boreais e uma SuperLua marcam as melhores imagens espaciais de novembro -
App do dia
Mais Gasolina: Uma solução simples para encontrar o posto mais próximo com o combustível mais barato -
Site do dia
"Negócios, negócios, burlas à parte" reforça literacia financeira nas redes sociais -
How to TEK
Os vídeos automáticos são irritantes? Saiba como desligar o player nos browsers
Comentários