Assinado! Os embaixadores do Coreper I [Comité de Representantes Permanentes dos Governos dos Estados-Membros da União Europeia] confirmaram o texto de compromisso final alcançado [com o Parlamento Europeu] sobre a proposta de regras harmonizadas em matéria de inteligência artificial”, anunciou a presidência belga rotativa UE numa publicação na rede social X (antigo Twitter).

A lei da IA é um marco, consistindo nas primeiras regras do mundo para a inteligência artificial, e visam que seja segura e que respeite os direitos fundamentais europeus”, adianta a mesma mensagem.

Do lado da Comissão Europeia e do Parlamento já há reações, com Thierry Breton, o comissário mais envolvido nas negociações, a considerar o momento histórico pela aprovação dos 27 países da União Europeia. 

O regulamento, designado como AI Act, foi aprovado depois de uma maratona de três dias, com um acordo provisório dos legisladores europeus para a primeira regulação da Inteligência Artificial. Vários especialistas contactados pelo SAPO TEK na altura sublinharam o equilíbrio da proposta, mas apontaram algumas preocupações, nomeadamente quanto à aplicação e vigilância da utilização prática.

2023: O ano em que a Inteligência Artificial se tornou um companheiro de trabalho e uma ameaça ao emprego
2023: O ano em que a Inteligência Artificial se tornou um companheiro de trabalho e uma ameaça ao emprego
Ver artigo

A aprovação dos 27 Estados Membros da UE surge após o acordo provisório, alcançado em meados de dezembro passado entre os colegisladores da UE – o Conselho e o Parlamento Europeu – sobre as primeiras regras do mundo para a IA.

O Conselho e o Parlamento Europeu estavam desde junho a negociar as primeiras regras comunitárias para que as tecnologias que recorrem à IA salvaguardem os valores e direitos fundamentais da UE e a segurança dos utilizadores, obrigando os sistemas considerados de alto risco a cumprir requisitos obrigatórios relacionados com a sua fiabilidade, no seguimento de uma proposta da Comissão Europeia apresentada em 2021.

Desde que foi apresentada pela Comissão Europeia em 2021a proposta de regulação passou pelo Parlamento onde foi alvo de várias alterações e o texto foi alvo de críticas de várias organizações e empresas que consideram que pode limitar a inovação, sobretudo nas pequenas e médias empresas. O objetivo geral da União Europeia é garantir que os sistemas de Inteligência Artificial usados no mercado europeu são seguros e respeitam os direitos e valores da UE, ao mesmo tempo que promovem o investimento e inovação.

A aprovação do Coreper era o passo que faltava no processo legislativo e foi feita sobre o texto já final,  trabalhado na especialidade na sequência das negociações de dezembro de 2023. A regulação deverá ser aplicada no prazo de dois anos, com algumas exceções em pontos provisórios. Antes da publicação haverá ainda lugar à confirmação final dos colegisladores.

Veja algumas das principais questões sobre o AI Act e a sua aplicação na Europa

Para os colegisladores da União Europeia, a lógica de aplicação do pacote de regulação AI Act tem uma abordagem baseada no risco, definindo regras mais rigorosas para sistemas que possam causar mais danos à sociedade.

É a primeira abordagem legislativa de maior abrangência a nível mundial e por isso é pioneira na definição de regras, sendo esperado que se torne um enquadramento adotado noutras geografias, à semelhança do que aconteceu com o RGPD (Regulamento Geral de Proteção de Dados).

Quais são os principais elementos do acordo alcançado em dezembro?

Em comparação com a proposta inicial da Comissão, os principais novos elementos do acordo provisório podem ser resumidos da seguinte forma:

  • regras sobre modelos de IA de uso geral de alto impacto que podem causar risco sistêmico no futuro, bem como sobre sistemas de IA de alto risco
  • um sistema de governação revisto com alguns poderes de aplicação a nível da UE
  • extensão da lista de proibições, mas com a possibilidade de utilizar a identificação biométrica remota pelas autoridades responsáveis pela aplicação da lei em espaços públicos, sujeita a salvaguardas
  • uma melhor proteção dos direitos através da obrigação de os implantadores de sistemas de IA de alto risco realizarem uma avaliação de impacto nos direitos fundamentais antes de colocarem um sistema de IA em utilização.

O que é considerado como Inteligência Artificial e quais os sistemas de alto risco?

O acordo para o AI Act segue a definição de Inteligência Artificial adotada pela OCDE de forma a garantir que a definição de um sistema de IA inclui critérios claros para o distinguir dos sistemas de software mais simples.

Fica claro que o regulamento não se aplica a áreas fora do âmbito do direito da UE e não deve, em qualquer caso, afetar as competências dos Estados-Membros em matéria de segurança nacional ou de qualquer entidade encarregada de tarefas nesta área

A regulamentação deixa de fora sistemas utilizados exclusivamente para fins militares ou de defesa e sistemas de IA utilizados exclusivamente para fins de investigação e inovação, assim como a utilização para fins não profissionais.

Portugal acelera projetos de IA generativa. Administração Pública e empresas já aplicam tecnologia
Portugal acelera projetos de IA generativa. Administração Pública e empresas já aplicam tecnologia
Ver artigo

Em relação a sistemas de alto risco e práticas proibidas não há ainda uma definição clara, referindo o acordo que “prevê uma camada horizontal de proteção, incluindo uma classificação de alto risco, para garantir que os sistemas de IA que não sejam suscetíveis de causar violações graves dos direitos fundamentais ou outros riscos significativos não sejam capturados”.

Refere-se assim que os sistemas de IA que apresentem apenas um risco limitado estariam sujeitos a obrigações de transparência muito leves, por exemplo, divulgar que o conteúdo foi gerado por IA para que os utilizadores possam tomar decisões informadas sobre a sua utilização futura. Já os sistemas de alto risco podem ser autorizados, mas com obrigações e requisitos específicos para serem usados na UE, nomeadamente na qualidade dos dados ou na documentação técnica.

“Uma vez que os sistemas de IA são desenvolvidos e distribuídos através de cadeias de valor complexas, o acordo de compromisso inclui alterações que esclarecem a atribuição de responsabilidades e funções aos vários intervenientes nessas cadeias, em particular fornecedores e utilizadores de sistemas de IA”, explica o documento.

Se o risco for considerado inaceitável esses sistemas vão ser banidos da União Europeia, o que abrange a manipulação cognitivo-comportamental, a utilização indiscriminada de imagens faciais da Internet ou de imagens de videovigilância, o reconhecimento de emoções no local de trabalho e em instituições educativas, a pontuação social, a categorização biométrica para deduzir dados sensíveis, como orientação sexual ou crenças religiosas e alguns casos de policiamento preditivo para indivíduos.

Existem exceções à aplicação da lei?

Neste acordo foram introduzidas alterações à proposta inicial da Comissão, nomeadamente para a utilização de sistemas de IA na aplicação da lei.

“Sujeitas a salvaguardas adequadas, estas alterações pretendem refletir a necessidade de respeitar a confidencialidade dos dados operacionais sensíveis em relação às suas atividades”. Como exemplo é referido um procedimento de emergência que permite às autoridades responsáveis pela aplicação da lei implementarem uma ferramenta de IA de alto risco que não tenha passado no procedimento de avaliação da conformidade em caso de urgência. Mas aqui também existirá um mecanismo específico para garantir que os direitos fundamentais serão suficientemente protegidos contra quaisquer potenciais utilizações indevidas dos sistemas de IA.

O que foi definido para sistemas de IA de uso geral e modelos básicos?

Esta é uma das áreas que tem sido criticada. No acordo foram adicionadas novas disposições para ter em conta situações em que os sistemas de IA podem ser utilizados para muitos fins diferentes (IA de uso geral) e em que a tecnologia de IA de uso geral é depois integrada noutro sistema de alto risco.

Para os modelos básicos, ou fundacionais, como os grandes modelos que podem ter tarefas alargadas, nomeadamente a geração de vídeo, texto, imagens e geração de código, foi definido que têm de cumprir obrigações específicas de transparência antes de serem colocados no mercado.

“Foi introduzido um regime mais rigoroso para modelos de fundação de “alto impacto”. São modelos básicos treinados com grande quantidade de dados e com complexidade, capacidades e desempenho avançados bem acima da média, que podem disseminar riscos sistêmicos ao longo da cadeia de valor”, refere o Conselho.

Mais poderes para a UE modelo de governação

Vai ser criado um Gabinete de AI na Comissão Europeia que fica com a responsabilidade de supervisionar os modelos de IA avançados e “contribuir para promover normas e práticas de teste e aplicar as regras comuns em todos os Estados Membros”. O Gabinete vai ter aconselhamento de um painel de especialistas independentes e representantes dos Estados Membros.

Será ainda criado um fórum consultivo para as partes interessadas, como representantes da indústria, PME, empresas em fase de arranque, sociedade civil e universidades.

Quais são as multas previstas?

Tal como acontece com outros quadros regulatórios, as multas foram definidas como uma percentagem do volume de negócios anual global da empresa, ou um valor determinado, o que for maior. Há três escalões, de 35 milhões de euros ou 7% para violações das aplicações de IA proibidas, 15 milhões de euros ou 3% para violações das obrigações da lei de IA e 7,5 milhões de euros ou 1,5% para o fornecimento de informações incorretas.

O acordo provisório prevê limites para as multas administrativas aplicáveis às PME e às empresas em fase de arranque em caso de infração.

O que foi feito para assegurar a inovação?

Para garantir que há espaço para continuar a inovar na área da Inteligência Artificial o acordo fez várias alterações em relação à proposta inicial da Comissão Europeia, em especial na possibilidade dos ambientes de teste, as sandboxes, poderem ter acesso a experimentação em condições no mundo real, mas com proteções especificas. Foi criada uma lista a que as PME podem aceder com situações identificadas.

Quais os próximos passos e quando entra em vigor?

O objetivo é que o AI Act entre em vigor daqui a dois anos, no final de 2025.