A Comissão Europeia apresentou hoje a sua primeira proposta de legislação para a Inteligência Artificial, uma das prioridades da Presidência portuguesa do conselho, com o objetivo de “garantir a segurança e os direitos fundamentais das pessoas e das empresas, reforçando ao mesmo tempo a adoção, o investimento e a inovação da IA em toda a União Europeia”.

Tal como tinha sido avançado anteriormente pela imprensa internacional, em questão estão controlos mais apertados no que toca a sistemas de IA de risco, assim como a proibição de sistemas que acarretem riscos inaceitáveis.

Em comunicado, Bruxelas indica que a proposta, que surge após a adoção de várias recomendações ao longo dos três últimos anos e de uma consulta ao mercado, ambiciona "transformar a Europa no centro mundial de confiança”, combinando o “primeiro quadro jurídico de sempre” em matéria de regulação europeia de IA e de uma atualização ao plano para coordenação entre os Estados-membros apresentado originalmente em 2018.

"No que respeita à IA, a confiança é fulcral", afirma Margrethe Vestager, vice-presidente executiva da Comissão Europeia e responsável pela política digital da EU. "Através destas regras pioneiras, a UE está a liderar o desenvolvimento de novas normas que assegurem que é possível confiar na IA. Ao estabelecermos um standard poderemos preparar o caminho para a criação ética de tecnologia em todo o mundo e garantir que a UE se mantém competitiva ao longo do processo".

"O Parlamento Europeu e os Estados-Membros precisam de adotar as propostas da Comissão seguindo o procedimento ordinário legislativo. Uma vez adotadas, as regulamentações serão diretamente aplicáveis por toda a UE", detalha Bruxelas.

Do risco inaceitável ao mínimo: Que medidas são propostas?

De acordo com a proposta apresentada, no nível mais elevado encontram-se os sistemas de IA de risco inaceitável, que prejudiquem os cidadãos e que manipulem o seu comportamento, opiniões e decisões ou que explorem as suas vulnerabilidades. Todos os sistemas que se enquadrem nesta categoria serão proibidos. Os sistemas de crédito social, tal como existem na China, serão também banidos, uma vez que vão contra os valores da EU.

Já entre as aplicações de "alto risco", a Comissão Europeia destaca os sistemas de identificação biométrica à distância, incluindo os de reconhecimento facial. Antes de poderem ser colocados no mercado, serão impostas "obrigações rigorosas" aos sistemas em questão, sendo necessário, por exemplo, apresentar uma avaliação adequada dos seus riscos, assim como formas de mitigá-los, garantir que os data sets usados não perpetuam ideais discriminatórios, e ainda disponibilizar de forma clara todas as informações necessárias para o utilizador.

No entanto, Bruxelas esclarece que podem existir exceções para situações "definidas e regulamentadas" relativamente à utilização de sistemas de identificação biométrica, como a procura de crianças desaparecidas, na emissão de alertas sobre ameaça terrorista ou ainda para deteção de criminosos. Nestes casos deverá existir a  “autorização de um órgão judicial ou outro órgão independente e limites adequados de tempo, alcance geográfico e das bases de dados pesquisadas”.

Na lista de "alto risco" incluem-se ainda sistemas de IA usados em infraestruturas críticas, em contextos de  formação educacional ou profissional, nos componentes de segurança de produtos, nos serviços privados e públicos, nos sistemas de justiça e nos procedimentos para gestão das migrações e controlo de fronteiras.

A proposta define obrigações de transparência no caso dos sistemas de "risco limitado", como no que respeita a chatbots, garantindo que os utilizadores estão cientes de que estão a interagir com uma máquina de modo a que possam tomar decisões informadas antes de realizarem uma determinada ação. Já quanto aos sistemas de "risco mínimo", como filtros de spam ou jogos com IA, não está prevista qualquer intervenção.

A proposta esclarece que as autoridades competentes nacionais devem supervisionar as novas regras. Para facilitar a implementação da regulamentação será criado um Conselho Europeu de Inteligência Artificial. Além disso, são propostos códigos de conduta para sistemas de IA com níveis de risco mais baixo.

Regulamentação da IA é uma prioridade para Bruxelas

Recorde-se que o plano europeu para a regulação de IA tem vindo a ser delineado há já algum tempo. Ainda em  fevereiro de 2020, Bruxelas apresentou a sua estratégia, afirmando que a tecnologia deve de ser certificada antes de chegar ao mercado, de modo a servir os interesses dos cidadãos e a garantir a sua segurança e a privacidade dos seus dados.

Comissão Europeia apresentou estratégia para Inteligência Artificial e partilha de dados
Comissão Europeia apresentou estratégia para Inteligência Artificial e partilha de dados
Ver artigo

A estratégia estabelecia que os casos de alto risco deviam ser transparentes, rastreáveis e com a garantia de serem supervisionadas por humanos. Para aplicações de baixo risco, a Comissão incentivava à criação voluntária de um esquema de selo se estes estiverem alinhados com os altos padrões propostos.

Em outubro desse ano o Parlamento Europeu aprovou um novo conjunto de iniciativas legislativas, cabendo à Comissão Europeia apresentar uma proposta de lei sobre a regulação do uso de IA.

Em janeiro deste ano, Pedro Siza Vieira, ministro da Economia, assegurou que, no âmbito da presidência portuguesa do Conselho da UE, seria proposta a primeira lei comunitária acerca da utilização de IA que garantisse o respeito pelos direitos humanos.

Portugal vai propor lei europeia para inteligência artificial que garanta proteção dos direitos humanos
Portugal vai propor lei europeia para inteligência artificial que garanta proteção dos direitos humanos
Ver artigo

Discursando na comissão do Mercado Interno e da Proteção dos Consumidores do Parlamento Europeu sobre as prioridades da presidência portuguesa da UE, o ministro vincou que “as normas da sociedade e dos indivíduos devem ser respeitadas na área da inteligência artificial e nos algoritmos envolvidos”.