Além das leis nacionais ou regionais, direcionar a inteligência artificial para o bem vai exigir acordos internacionais e capacidade para fazer valer um conjunto de princípios, de forma transversal, em múltiplas jurisdições. Esta foi uma das ideias partilhadas por Brad Smith, presidente da Microsoft na abertura do evento "Europe's Digital Transformation - Embracing the AI Opportunity", em Bruxelas. Numa viagem de charme à Europa, oportunamente realizada num momento crítico para a aprovação da primeira espécie de lei de bases mundial para a inteligência artificial, o AI Act da União Europeia, o responsável reiterou a ideia.

Brad Smith sublinhou que a Microsoft subscreve os esforços internacionais para desenvolver um Código de Conduta de IA voluntário, que seja capaz de reunir parceiros públicos e privados, na implementação de normas internacionais não vinculativas.

Sublinhou que, para que os diferentes requisitos associados à governação da IA funcionem a nível internacional, vai ser necessária uma estrutura multilateral com capacidade para ligar diversas leis nacionais e garantir que um sistema de IA certificado como seguro numa jurisdição, possa ser considerado também como seguro noutra geografia.

“Para que os muitos aspetos diferentes da governação da IA funcionem a nível internacional, será necessário um quadro multilateral, que ligue as várias regras nacionais e garanta que um sistema de IA certificado como seguro numa jurisdição possa também ser considerado seguro noutra”, refere o responsável num texto publicado no blog que aborda os mesmos tópicos do discurso.

Existem muitos precedentes eficazes para este efeito, como as normas de segurança comuns estabelecidas pela Organização da Aviação Civil Internacional, que fazem com que um avião não precise de ser reequipado a meio do voo de Bruxelas para Nova Iorque”, exemplifica Smith.

Na visão da empresa, partilhada no mesmo texto, este código deve abordar e alinhar princípios em relação à transparência de IA, gestão de riscos e outros requisitos técnicos para empresas que desenvolvem e implementam sistemas de IA.

Deve ainda basear-se no trabalho já realizado na OCDE para desenvolver princípios para uma IA fiável; fornecer meios para que os criadores de IA regulamentados possam atestar a segurança destes sistemas em relação a normas acordadas internacionalmente; e promover a inovação e o acesso, fornecendo meios para o reconhecimento mútuo da conformidade e da segurança além-fronteiras.

O responsável voltou a assinalar a disponibilidade da Microsoft para trabalhar com os reguladores e a importância das regras em definição servirem para promover uma IA responsável e com regras que minimizem riscos, mas deixando margem para a inovação.

Elogiou os princípios do AI Act, em temas como os sistemas de IA de alto risco e a obrigação de testes a estes sistemas e defendeu que a indústria deveria adotar este tipo de práticas, mesmo antes do IA Act obrigar a isso.

Brad Smith sublinhou mesmo que algumas medidas previstas no AI Act deviam ser aproveitadas para este Código de Conduta internacional, que Estados Unidos e UE já disseram em maio que estão empenhados em criar e que outras regiões do globo podem também vir a subscrever. Exemplo: a intenção de criar uma base de dados de sistemas de IA de alto risco na Europa “é uma abordagem importante e que deve ser tida em conta no código internacional”.