A integração da inteligência artificial (IA) no tecido empresarial atingiu um ponto de viragem, mas o ritmo da inovação parece não estar a ser acompanhado pelas devidas defesas digitais. De acordo com as previsões da ESET para 2026, estamos perante uma adoção em massa de agentes de IA e sistemas automatizados que, na maioria dos casos, carecem de mecanismos de controlo e proteção adequados.
Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt
Esta pressa em alcançar novos patamares de eficiência está a levar as organizações a ignorar protocolos de verificação essenciais, criando uma exposição sem precedentes a ciberataques e fugas de informação sensível através de sistemas que deveriam, teoricamente, ser autónomos e seguros. O grande desafio deste ano reside na segurança dos próprios agentes de IA, que agora operam profundamente integrados em ambientes de cloud e infraestruturas corporativas complexas.
Estes sistemas têm autonomia para executar tarefas, tomar decisões e interagir com outros processos críticos, mas a sua definição e enquadramento dentro das arquiteturas de segurança das empresas permanecem vagos. Ao privilegiar a conveniência em detrimento da proteção, as organizações estão a repetir os mesmos erros históricos cometidos nos primórdios da Internet e das redes sociais, facilitando a vida a agentes maliciosos que se aproveitam de permissões mal atribuídas ou falhas de configuração para comprometer dados estruturais.
A proliferação de modelos de IA em plataformas públicas agrava ainda mais este cenário, especialmente pela falta de transparência sobre os dados de treino e o funcionamento interno dos algoritmos. Muitas organizações, sob pressão para inovar rapidamente, acabam por integrar estes modelos de código aberto sem uma validação rigorosa, introduzindo vulnerabilidades ocultas na cadeia de fornecimento digital que são extremamente difíceis de detectar.
No que toca às ameaças diretas, o impacto mais profundo da IA em 2026 não se prende necessariamente com a criação de malware sofisticado, mas sim com o aperfeiçoamento radical da engenharia social. As ferramentas generativas permitem agora que criminosos com poucos conhecimentos técnicos lancem campanhas de burla em grande escala e a baixo custo, utilizando e-mails, anúncios e conteúdos falsos com um realismo desconcertante. Os bots potenciados por IA deverão atingir um novo nível de realismo, capazes de criar avaliações falsas, perfis credíveis em redes sociais e até candidaturas falsas a processos de recrutamento.
Para Juraj Jánošík, Head of AI da ESET, a situação atual é comparável à construção de uma fábrica repleta de novos trabalhadores sem que existam gestores para validar o seu trabalho ou uma equipa de segurança que garanta a ausência de comportamentos maliciosos. Assim, 2026 surge como um ano decisivo onde a governação e a confiança terão de ser repensadas, sob pena de as vantagens competitivas da automação serem totalmente anuladas pelos riscos de segurança que estas tecnologias introduzem.
Assine a newsletter do TEK Notícias e receba todos os dias as principais notícias de tecnologia na sua caixa de correio.
Em destaque
-
Multimédia
Xiaomi termina 2025 com marco histórico de mais de 400.000 carros entregues -
App do dia
OmniTools: Uma caixa de ferramentas digitais sempre à mão -
Site do dia
EmuOS: A máquina do tempo que transforma o seu browser no Windows antigo (do 3.1 ao ME) -
How to TEK
Copilot Vision funciona como um segundo par de "olhos" enquanto navega online. Saiba como usar no Edge
Comentários