
A AI Act entra numa nova fase a partir de amanhã. O regulamento, aprovado no ano passado após um longo processo que envolveu muita negociação e mudanças, está a ser implementado de maneira faseada. As primeiras regras começaram a ser aplicadas em fevereiro deste ano e, agora, vão entrar em vigor novas obrigações para os modelos de IA de uso geral.
De acordo com a Comissão Europeia, a aplicação das novas regras vai trazer mais transparência, segurança e responsabilidade aos sistemas de IA disponíveis no mercado.
As regras implicam a disponibilização de informação mais clara sobre como os modelos são treinados, assim como um reforço na proteção dos direitos de autor, promovendo também um desenvolvimento mais responsável da IA, realça o executivo comunitário.
Mas o que muda com a entrada em vigor destas novas obrigações? Neste explicador, reunimos um conjunto de perguntas e respostas essenciais para o ajudar a compreender o tema.
O que são modelos de IA de uso geral?
De acordo com o AI Act, os modelos de IA de uso geral (GPAI, na sigla em inglês) são definidos como modelos que contam com um grau significativo de versatilidade, sendo capazes de realizar um vasto conjunto de tarefas e podendo ser integrados em diferentes aplicações e sistemas.
Tratam-se de modelos que foram treinados com recurso a grandes volumes de dados, usando uma quantidade de recursos computacionais acima de 10²³ FLOP, e que são capazes de responder aos pedidos dos utilizadores a partir de instruções em linguagem natural.
Aqui, a capacidade de gerar linguagem, seja no formato de texto ou áudio, é particularmente relevante, permitindo aos modelos comunicar, raciocinar e responder em múltiplos contextos. A Comissão Europeia nota que os modelos que geram imagens ou vídeo também se podem enquadrar nesta categoria, desde que demonstrem um nível elevado de versatilidade.
O que passa a ser exigido aos fornecedores de modelos GPAI?
Os fornecedores de modelos GPAI, ou seja, as entidades que desenvolvem este tipo de modelos no mercado da União Europeia, independentemente de estarem ou não sediados no território, devem cumprir um conjunto de obrigações importantes para garantir a transparência, respeito pelos direitos de autor e segurança.
Como detalhado nas guidelines publicadas pela Comissão Europeia, estas obrigações incluem a disponibilização de informação técnica sobre os modelos ao AI Office, assim como às autoridades nacionais competentes. A informação deve também ser disponibilizada a outros fornecedores que integrem o modelo em sistemas ou aplicações.
As obrigações passam também pela implementação de políticas que assegurem o cumprimento das leis europeias de direitos de autor e direitos conexos. Os fornecedores terão também de elaborar e publicar um resumo detalhado sobre os dados que foram usados para treinar os seus modelos, que esteja disponível de forma clara para o público.
Note-se que estas obrigações se aplicam a todos os modelos GPAI colocados no mercado a partir do dia 2 de agosto de 2025. Para os modelos que já se encontram no mercado, o prazo para cumprirem as regras entra em vigor a 2 de agosto de 2027.
Há obrigações diferentes para modelos mais avançados?
Sim. Os modelos GPAI que apresentam riscos sistémicos têm obrigações adicionais. Estes modelos são descritos como aqueles que têm uma capacidade muito avançada de computação, podendo ter um impacto significativo na saúde pública, na segurança ou nos direitos fundamentais da sociedade.
Um modelo é classificado como tendo riscos sistémicos se tiver sido treinado com recurso a uma capacidade computacional superior a 10²⁵ FLOP, um nível que, atualmente, só está ao alcance das grandes tecnológicas.
O mesmo se aplica aos modelos que tenham um impacto equivalente, tendo em conta questões como número de utilizadores, escalabilidade e acesso a ferramentas que aumentem o seu alcance e influência, explica o executivo comunitário.
Estes modelos ficam sujeitos a obrigações adicionais como a notificação obrigatória da Comissão Europeia antes da sua colocação no mercado; a avaliação dos riscos sistémicos associados e implementação de medidas para mitigá-los; a monitorização e relato de incidentes graves; e o reforço das práticas de cibersegurança.
Que multas existem para quem não cumprir as regras?
O AI Act prevê a aplicação de multas para quem não cumprir as regras. No caso dos modelos GPAI, as infrações graves podem significar coimas com valores até 15 milhões de euros ou 3% do volume de negócios anual global das empresas, consoante o valor que for mais elevado.
Neste sentido, o AI Office, responsável pela supervisão da implementação das regras, tem poderes para pedir informações adicionais aos fornecedores; avaliar os modelos para verificar se estão, ou não, a cumprir os requisitos legais; e exigir a aplicação de medidas corretivas.
Para que serve o Código de Conduta para os modelos GPAI?
O Código de Conduta para os modelos GPAI afirma-se como uma ferramenta voluntária, desenvolvida por 13 especialistas independentes, que receberam contribuições vindas de cerca de 1.000 parceiros interessados, incluindo fabricantes de modelos de IA, empresas, academia, especialistas em segurança, e ainda organizações da sociedade civil.
Esta ferramenta foi criada para ajudar os fornecedores de modelos GPAI a cumprirem as obrigações do AI Act. O código em si está organizado em três capítulos, com orientações práticas relativas a três áreas-chave: transparência, direitos de autor e segurança.
A assinatura do Código de Conduta não é exigida por lei, mas, para as autoridades europeias, esta é uma forma de os fornecedores demonstrarem que estão em conformidade com as regras, podendo beneficiar de uma maior segurança jurídica e menos burocracia.
Várias tecnológicas assinaram o código, sendo a Google uma das mais recentes signatárias. A xAI de Elon Musk foi uma das empresas que assinaram apenas um dos capítulos do código, neste caso, o que se centra na Segurança e Proteção. A tecnológica terá de demonstrar o cumprimento das restantes obrigações legais por outros meios considerados adequados pelas autoridades, indica a Comissão Europeia.
Que empresas já assinaram o Código de Conduta?
- Accexible
- AI Alignment Solutions
- Aleph Alpha
- Almawave
- Amazon
- Anthropic
- Bria AI
- Cohere
- Cyber Institute
- Domyn
- Dweve
- Euc Inovação Portugal
- Fastweb
- Humane Technology
- IBM
- Lawise
- Microsoft
- Mistral AI
- Open Hippo
- OpenAI
- Pleias
- Re-AuditIA
- ServiceNow
- Virtuo Turing
- Writer
Pergunta do Dia
Em destaque
-
Multimédia
Holobox traz o conceito de holograma para novos modelos de comunicação -
App do dia
Pronto para voltar aos treinos? Bend ajuda a manter flexibilidade com alongamentos diários -
Site do dia
Tabs Magic transforma o browser num painel interativo com mais opções de organização -
How to TEK
Instagram: Como desativar o uso de dados pessoais para treino do Meta AI?
Comentários