As primeiras regras do AI Act, o regulamento que estabelece as regras para a utilização de Inteligência Artificial na Europa, já começaram a ser aplicadas, avança a Comissão Europeia.

Recorde-se que, em maio de 2024, o AI Act recebeu a “luz verde” final do Conselho da União Europeia, marcando a aprovação do regulamento após um longo processo que envolveu muita negociação, alterações e mudanças. O regulamento entrou em vigor 20 dias após a sua publicação no Jornal Oficial da UE, com as regras a serem aplicadas 24 meses depois dessa data, mas existem obrigações que são implementadas mais cedo.

Em comunicado, a Comissão Europeia indica que vai publicar diretrizes acerca da definição dos sistemas de IA. O objetivo passa por ajudar a indústria a determinar se um sistema de software constitui, ou não, um sistema de IA

Será lançado um repositório de práticas de literacia em IA para “encorajar a aprendizagem e partilha de conhecimentos” entre fornecedores e entidades que estão a implementar sistemas de IA, “assegurando que os utilizadores desenvolvem o entendimento e as competências necessárias para usar a tecnologia de maneira eficaz”, indica o executivo comunitário.

Para ajudar a assegurar o cumprimento do AI Act serão também publicadas diretrizes, com explicações sobre conceitos legais e casos de uso práticos, acerca das práticas de IA que são proibidas por terem riscos inaceitáveis à segurança e aos direitos fundamentais dos cidadãos.

AI Act está aprovado na Europa. Regulamento é aplicado daqui a 2 anos mas há exceções
AI Act está aprovado na Europa. Regulamento é aplicado daqui a 2 anos mas há exceções
Ver artigo

O AI Act tem como objetivo harmonizar as regras aplicadas à IA na UE, protegendo os direitos fundamentais dos cidadãos e assegurando que os sistemas que recorrem a esta tecnologia são desenvolvidos de maneira segura e fivável. O regulamento estabelece obrigações, tanto para fornecedores como para utilizadores, tendo por base o nível de risco dos sistemas de IA. 

Os sistemas de risco limitado estão sujeitos a obrigações de transparência. Por outro lado, os sistemas de alto risco têm de ser autorizados e estão sujeitos a mais obrigações regulamentares mais "apertadas".

As aplicações que apresentam um risco inaceitável, com sistemas que põem em causa os direitos fundamentais, são proíbidas na UE. Nesta categoria incluem-se, por exemplo, a manipulação cognitivo-comportamental, a utilização indiscriminada de imagens faciais da Internet ou de imagens de videovigilância, o reconhecimento de emoções no local de trabalho e em instituições educativas, os sistemas de pontuação e crédito social, a categorização biométrica para deduzir dados sensíveis, como orientação sexual ou crenças religiosas e alguns casos de policiamento preditivo para indivíduos.

O AI Act também prevê a aplicação de multas para quem não cumprir as suas regras, sendo definidas como uma percentagem do volume de negócios anual global da empresa, ou um valor determinado, o que for maior. Existem três escalões de multas, que correspondem a diferentes tipos de infrações: 35 milhões de euros ou 7% para violações das aplicações de IA proibidas; 15 milhões de euros ou 3% para violações das obrigações da lei de IA; e 7,5 milhões de euros ou 1,5% para o fornecimento de informações incorretas.