Por José Sousa Gonçalves (*)

A Inteligência Artificial deixou de ser uma promessa para se tornar parte integrante do quotidiano. Desde os sistemas de recomendação até às plataformas de apoio clínico, passando pelo setor financeiro e pelas telecomunicações, a Inteligência Artificial (IA) está a transformar indústrias e a redefinir modelos de negócio. Embora esta expansão traga benefícios inegáveis, também introduz riscos sérios, sobretudo quando a adoção é feita de forma massiva e, por vezes, apressada. Entre os principais desafios encontram-se a violação da privacidade, a falta de transparência e o incumprimento regulamentar.

Este último aspeto ganha especial relevância no contexto empresarial, à medida que surgem novas normas que recomendam a integração de medidas de segurança desde a fase de conceção dos sistemas inteligentes. Atualmente, a questão não é se a IA será utilizada, mas sim como garantir que a sua utilização é segura, ética e em conformidade com a legislação em vigor. É neste contexto que surge um novo domínio para a cibersegurança: a segurança aplicada à inteligência artificial.

As defesas tradicionais contra falhas de software já não bastam. Além das vulnerabilidades conhecidas, é necessário antecipar os riscos específicos dos sistemas inteligentes, como a manipulação de dados de treino ou os adversarial attacks. Estes riscos são agravados pela democratização da IA: já não é necessário ter grandes conhecimentos técnicos para explorar fragilidades, pois atualmente, é possível comprometer um sistema apenas "falando" com ele.

Tal como o conceito de privacy by design moldou a forma como encaramos a proteção de dados, também a segurança da IA deve ser pensada desde o início. A confiança só é possível se a segurança estiver integrada em todas as fases do ciclo de vida da tecnologia, desde o planeamento até à utilização contínua, incluindo o desenvolvimento e a validação. Isso implica combinar práticas sólidas de cibersegurança com princípios de ética digital e conformidade regulamentar.

Os riscos de ignorar esta abordagem são demasiado elevados. No setor das telecomunicações, os algoritmos que gerem a interação automática com os utilizadores podem expor dados pessoais sensíveis que podem ser explorados em campanhas de phishing. No setor da saúde, os sistemas de diagnóstico baseados em IA devem garantir a integridade e a fiabilidade das previsões, sob pena de pôr em risco a segurança do paciente. No setor financeiro, os modelos que avaliam o risco de crédito ou detetam fraudes devem estar protegidos contra manipulações e enviesamentos, preservando simultaneamente a sua eficácia e a conformidade com as normas europeias e internacionais.

Um exemplo recente ilustra bem o impacto da ausência de uma visão holística da segurança de um sistema baseado em IA. Investigadores descobriram vulnerabilidades na plataforma Yellow.ai, uma IA agêntica utilizada por empresas como a Sony, a Logitech e a Hyundai. Conseguiram manipular o modelo para gerar instruções com código malicioso, que era armazenado nos sistemas da plataforma, permitindo que um atacante, ao interagir com o serviço de assistência, pudesse aceder a dados sensíveis do operador humano. Este caso ilustra como técnicas de ataque "clássicas", como o XSS, podem ser combinadas com ataques a modelos de IA, aumentando o risco de comprometimento de organizações inteiras.

O futuro da IA dependerá de a capacidade das empresas adotarem estruturas de segurança robustas, que estejam alinhadas com as orientações da União Europeia e com os padrões globais emergentes. A mensagem é clara: é necessário agir imediatamente. Incorporar a segurança, a ética e a conformidade desde a base dos sistemas de IA não é apenas uma vantagem competitiva, mas uma condição essencial para garantir uma inovação sustentável e proteger a sociedade digital em que vivemos.

(*) Application Security Analyst na Celfocus