OpenAI e Anthropic assinaram acordos com o governo dos Estados Unidos para “investigação, testes e avaliação” dos seus modelos de inteligência artificial.

Está especificamente em causa a colaboração com o U.S. Artificial Intelligence Safety Institute, organismo lançado no ano passado como parte de uma ordem executiva da administração do presidente Joe Biden, para avaliar riscos conhecidos e emergentes de modelos de inteligência artificial.

"IA segura e confiável é crucial para o impacto positivo da tecnologia. A colaboração com o U.S. AI Safety Institute aproveita sua ampla experiência para testar rigorosamente os nossos modelos antes da implementação generalizada", comentou Jack Clark, cofundador e responsável pela política da Anthropic, citado pela Reuters.

Mediante os acordos assinados, o U.S. AI Safety Institute terá acesso aos novos modelos da OpenAI e da Anthropic, antes e depois do seu lançamento público. Está igualmente prevista a investigação colaborativa para avaliar as capacidades dos modelos de IA e os riscos associados aos mesmos.

"Acreditamos que o instituto tem um papel crítico a desempenhar na definição da liderança dos EUA no desenvolvimento responsável da inteligência artificial e esperamos que o trabalho em conjunto ofereça uma estrutura na qual o resto do mundo se possa se basear", disse Jason Kwon, diretor de estratégia da OpenAI, fabricante do ChatGPT.

Apresentados como os primeiros do género, os  acordos governamentais chegam num momento em que as empresas que desenvolvem modelos de IA, como o ChatGPT e o Claude, enfrentam escrutínio regulatório em todo o mundo.

AI Act está aprovado na Europa. Regulamento é aplicado daqui a 2 anos mas há exceções
AI Act está aprovado na Europa. Regulamento é aplicado daqui a 2 anos mas há exceções
Ver artigo

Na União Europeia entrou no início do mês em vigor o AI Act, que estabelece as regras para a utilização da tecnologia no espaço europeu e que tem uma lógica baseada no risco, com multas para quem violar as regras.

Apesar da entrada em vigor, a maioria das regras só vai começar a ser aplicada daqui a dois anos. Já as normas para os sistemas de IA que "representam um risco inaceitável" para os cidadãos "serão aplicáveis dentro de seis meses", enquanto as regras para aplicação da inteligência artificial de maneira generalizada têm de ser aplicadas daqui a 12 meses.

Os Estados-membros têm até 2 de agosto de 2025 para designar as autoridades nacionais responsáveis pela implementação desta legislação e supervisão do seu cumprimento.