Por Helena Yin Koeppl (*)

A Inteligência Artificial (IA) Responsável é a prática de conceber, desenvolver e utilizar a tecnologia de IA com o objetivo de maximizar os benefícios e minimizar os riscos. sendoatualmente, um imperativo de negócio. O relatório Technology Vision 2025 da Accenture revela que 77% dos executivos acreditam que os verdadeiros benefícios da IA só serão possíveis se construídos sobre uma base de confiança.

À medida que mais organizações implementam tecnologias de IA generativa, enfrentam-se dificuldades em traduzir os princípios e políticas de IA responsável em práticas concretas para builders e utilizadores. Um inquérito recente da PwC confirma que um dos desafios é a falta de expertise necessária. Existe uma necessidade premente de competências avançadas em privacidade de dados, governance, teste de modelos e gestão de risco. As boas práticas nestas áreas ainda estão em evolução e os profissionais qualificados são escassos, a governance é pouco articulada e as ferramentas, imaturas. As equipas podem abordar estes desafios com um conjunto integrado de mecanismos de governance, processos repetíveis e salvaguardas incorporadas, assente numa estrutura de três camadas.

A primeira, a governance e a cultura, serve de base, ao estabelecer uma responsabilidade executiva clara e conselhos de revisão multifuncionais. A segunda, o processo, transforma os princípios em "memória muscular", operacionalizando as políticas com pontos de controlo ao longo do ciclo de vida da IA, como avaliações de risco e monitorização contínua. Por fim, a tecnologia desempenha um papel muito importante na criação de um processo escalável, com soluções como o Amazon Bedrock Guardrails, que oferecem funcionalidades de segurança configuráveis e reduzem a distância entre a política e a prática.

Existem já alguns desenvolvimentos significativos que moldam esta nova era da IA responsável. O raciocínio automatizado, por exemplo, emergiu como uma tecnologia fundamental para a implementação da IA responsável no início de 2025. Combina verificação matemática e lógica com processos de raciocínio para garantir que os sistemas de IA generativa cumprem diretrizes e restrições predefinidas. Resultados de baixo risco que passam nestas verificações avançam com pouca intervenção humana, reduzindo o volume de revisões, enquanto os resultados que violam regras ou têm implicações significativas são sinalizados. Assim, os colaboradores podem concentrar-se nas decisões que realmente exigem o seu julgamento.

Para combater o problema das "alucinações" (IA a gerar informações falsas, mas a apresentá-las como factos) as  tecnologias de fundamentação factual abordam este desafio, ligando as respostas da IA a fontes de informação verificadas.Os sistemas mais recentes integram-se com bases de conhecimento e empregam técnicas de Geração Aumentada por Recuperação (RAG - Retrieval Augmented Generation) para obter dados e contexto do mundo real, ajudando a IA a dar respostas mais precisas, relevantes e confiáveis.

A filtragem dinâmica de conteúdos também evoluiu de um simples bloqueio de palavras-chave para sistemas que analisam a linguagem no seu contexto, minimizando riscos

Os filtros de conteúdo multimodal processam texto, imagens, áudio e vídeo simultaneamente para reconhecer padrões prejudiciais, ajudando as organizações a proteger a reputação da sua marca.

À medida que os sistemas de IA processam volumes e tipos de dados cada vez maiores, a proteção de dados sensíveis tornou-se essência, ao usar técnicas mais avançadas. Por exemplo, a aprendizagem federada permite que os modelos de IA aprendam a partir de conjuntos de dados distribuídos sem os centralizar; a privacidade diferencial adiciona garantias matemáticas de anonimato; e as ferramentas de higienização de dados impulsionadas por IA identificam e ocultam automaticamente informações de identificação pessoal (PII - personally identifiable information).

Finalmente, um sistema de guardrail (de salvaguardas) organizacional pode servir como estrutura centralizada para governar a IA em toda a organização. Inclui controlos técnicos, processos de governação e sistemas de monitorização que funcionam em conjunto para apoiar a implementação de IA responsável. Promove consistência, melhora a conformidade e a gestão de risco, otimiza recursos e facilita auditorias e responsabilidades.

Investir em IA responsável gera resultados reais de negócio. Um estudo da Accenture e AWS mostra que as organizações podem esperar um aumento de 18% nas receitas geradas por IA e uma redução de 21% na perda de clientes com uma estratégia robusta de IA responsável. Empresas com boas práticas de IA responsável conseguem inovar mais rápido e reduzir custos de conformidade.

(*) diretora de Estratégia Empresarial na AWS