A Anthropic está a acusar três empresas chinesas de fazerem uso ilegal do seu assistente Claude para treinarem e fazerem evoluir os seus próprios modelos de inteligência artificial, em campanhas de escala industrial.

Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt

A acusação vai para a Deepseek, Moonshot e MiniMax. A Anthropic diz que as empresas criaram mais de 16 milhões de interações com o Claude, recorrendo a 24 mil contas falsas e usando uma técnica conhecida como “destilação”, que viola os termos de utilização dos serviços da Anthropic.

Esta técnica consiste em treinar um modelo mais fraco com os resultados de um modelo mais forte. A técnica em si não é ilegal e muitas empresas usam-na, por exemplo, para criar modelos mais pequenos, a partir de modelos maiores.

“Mas a destilação também pode ser usada para fins ilícitos: os concorrentes podem utilizá-la para adquirir capacidades poderosas de outros laboratórios numa fração do tempo e a uma fração do custo que seria necessário para desenvolvê-las de forma independente”, sublinha a Anthropic na nota publicada.

À medida que este tipo de práticas se expande, os riscos de falta de controlo sobre os desenvolvimento em torno da inteligência artificial também aumentam. Os modelos destilados, de forma ilegal, não têm as salvaguardas necessárias e será cada vez mais difícil para governos e reguladores assegurar limites éticos e outros.

Dona do ChatGPT terá provas que a chinesa DeepSeek usou a sua tecnologia para treinar modelos de IA
Dona do ChatGPT terá provas que a chinesa DeepSeek usou a sua tecnologia para treinar modelos de IA
Ver artigo

Por sua vez, será cada vez mais fácil para quem tiver esse objetivo aplicar a tecnologia a fins militares, de vigilância ou outros, que possam traduzir-se em ameaças à segurança de terceiros. O risco é ainda maior quando os modelos têm código aberto, frisa-se.

Estas campanhas estão a crescer em intensidade e sofisticação. A janela para agir é estreita e a ameaça estende-se para além de qualquer empresa ou região específica”, defende a Anthropic.

A empresa adianta, além disto, que esta ameaça é mais um bom argumento para seguir com políticas de controlo às exportações de tecnologia, como os Estados Unidos têm vindo a fazer.

Os controlos à exportação de chips com tecnologias avançadas são uma forma de reduzir diretamente a capacidade de empresas que usam práticas ilícitas, mas também os recursos disponíveis para que pratiquem esse tipo de atos.

Também a OpenAI já tinha lançado um alerta sobre este tipo de práticas das empresas chinesas, acusando a Deepseek de estar a usar a tecnologia do ChatGPT e de outras empresas americanas para extrair recursos e usá-los no treino dos seus próprios modelos.

Assine a newsletter do TEK Notícias e receba todos os dias as principais notícias de tecnologia na sua caixa de correio.