O Governo identificou as entidades que serão responsáveis pela proteção dos direitos fundamentais no âmbito da Inteligência Artificial, cumprindo assim a primeira etapa do Regulamento Europeu sobre Inteligência Artificial (AI Act), publicado a 12 de julho último.

Esta lista de entidades "é o resultado da auscultação ao grupo de trabalho da Inteligência Artificial, criado no contexto do Conselho para o Digital na Administração (CDAP)", refere-se em comunicado.

Recorde-se que o AI Act é o primeiro ato legislativo do mundo em matéria de inteligência artificial (IA). Neste regulamento, estão identificadas um conjunto de regras e orientações para fornecedores e implementadores de sistemas de inteligência artificial, que visam assegurar que os sistemas que usam esta tecnologia são desenvolvidos e usados no mercado da União Europeia de acordo com elevados padrões de segurança, ética e fiabilidade.

AI Act está aprovado na Europa. Regulamento é aplicado daqui a 2 anos mas há exceções
AI Act está aprovado na Europa. Regulamento é aplicado daqui a 2 anos mas há exceções
Ver artigo

O regulamento tem um calendário de ações exigente para cada Estado-membro de forma assegurar o cumprimento no quadro legislativo. A primeira meta ocorre já no dia 2 de novembro, data em que o Estado Português irá comunicar à Comissão Europeia as entidades que vão supervisionar ou assegurar o respeito das obrigações previstas na legislação sobre os direitos fundamentais, no que se refere à utilização sistemas de IA de risco elevado na UE.

A próxima grande meta decorre depois a 2 de agosto de 2025, data-limite para os Estados-membros comunicarem à Comissão Europeia a autoridade nacional competente para a fiscalização do cumprimento do regulamento.

"O grupo de trabalho da Inteligência Artificial criado no contexto do Conselho para o Digital na Administração (CDAP), procedeu à análise do universo de entidades que poderão assegurar as responsabilidades decorrentes do Regulamento Europeu sobre Inteligência Artificial (AI Act), publicado a 12 de julho de 2024", pode ler-se no comunicado de imprensa.

"Tendo em consideração as áreas governativas, em que os sistemas de IA de risco elevado são mais sensíveis, este grupo de trabalho elaborou uma proposta de organismos que devem assumir as responsabilidades previstas no artigo 77º, para assegurar a supervisão do respeito pela legislação da UE que protege os direitos fundamentais no que respeita à utilização de sistemas de IA de risco elevado", refere o Governo.

Esta é a lista de entidades divulgada:

  • Inspeção-Geral das Finanças (IGF);
  • Gabinete Nacional de Segurança (GNS);
  • Entidade Reguladora da Comunicação Social (ERC);
  • Inspeção-Geral da Defesa Nacional (IGDN);
  • Inspeção-Geral dos Serviços de Justiça (IGSJ);
  • Polícia Judiciária;
  • Inspeção-Geral da Administração Interna (IGAI);
  • Inspeção-Geral da Educação e Ciência (IGEC);
  • Entidade Reguladora da Saúde (ERS);
  • Autoridade Nacional de Comunicações (ICP - ANACOM);
  • Autoridade de Segurança Alimentar e Económica (ASAE);
  • Inspeção-Geral do Ministério do Trabalho, Solidariedade e Segurança Social (IGMTSSS);
  • Autoridade para as Condições do Trabalho (ACT);
  • Entidade Reguladora dos Serviços Energéticos (ERSE);

No comunicado, o Governo refere ainda estar a "trabalhar para garantir o cumprimento deste quadro regulatório", de forma a assegurar que, a nível nacional, "os sistemas de IA respeitam elevados padrões de ética, transparência e segurança, assegurando a proteção dos direitos, liberdades e garantias dos cidadãos".

Informa também que, para "garantir uma abordagem única", a Anacom também irá assumir o papel de articulação das 14 entidades na supervisão dos direitos fundamentais.