O Departamento de Defesa dos Estados Unidos ameaçou e cumpriu. A Anthropic já foi notificada de que passou a estar na lista de empresas que representam um risco para a segurança da cadeia de abastecimento do país. Este é um lugar que costuma estar reservado para empresas estrangeiras, sobretudo de países considerados hostis como a China.
Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt
Falta perceber qual será o real impacto da medida e se pode de facto ser aplicada. Muitos, incluindo a Anthropic, acreditam que não tem base legal. O que já está claro é que a Administração Trump fará o que estiver ao seu alcance para bloquear o negócio da Anthropic.
A Anthropic trabalha há vários anos com as forças armadas americanas. A tecnologia de inteligência artificial do chatbot Claude estará já integrada nas redes do Pentágono.
Na semana passada, a empresa fez saber que o contrato podia ser quebrado porque a companhia não aceitou levantar as salvaguardas dos modelos para prevenir alguns tipos de utilização, nomeadamente operações de vigilância massiva da população ou fabrico e operação de armas autónomos, que possam matar sem intervenção humana.
O Departamento de Defesa, rebatizado como Departamento da Guerra pela atual administração, reagiu mal à decisão e considerou que nenhuma empresa pode definir limites à atuação do Governo e a operações que envolvam a segurança nacional.
“Está em causa um princípio fundamental: as forças armadas poderem usar tecnologia para todos os fins legais”, justifica o Pentágono, acrescentando que “os militares nunca vão permitir que um fornecedor interfira na cadeia de comando, restringindo o uso legítimo de uma capacidade crítica”.
Donald Trump também entrou em cena, para dizer que todas as agências federais iam ser instruídas a deixar de usar a tecnologia do Claude. O secretário de defesa, Pete Hegseth, ameaçou com a lista negra.
Nos últimos dias, a Anthropic ainda deu nota de novas negociações entre as partes, que aparentemente não permitiriam resolver o impasse. A Anthropic é assim a primeira empresa americana a figurar numa lista onde, supostamente, só devem estar empresas que dão indícios de poder vir a sabotar ou subverter sistemas com o objetivo de o “perturbar, degradar ou espiar”.
Clique nas imagens para ver com mais detalhe
Uma carta assinada por antigos responsáveis e especialistas em políticas públicas, incluindo o ex-diretor da CIA Michael Hayden e antigos líderes da Força Aérea, do Exército e da Marinha, também critica a decisão. “O uso desta autoridade contra uma empresa americana é um afastamento profundo do objetivo com que foi criada e estabelece um precedente perigoso”, refere a carta citada pela Euronews.
Os signatários lembram que esta classificação se destina a “proteger os Estados Unidos de ações de adversários estrangeiros” e consideram que aplicar o instrumento para “penalizar uma empresa dos EUA, por se recusar a eliminar salvaguardas contra a vigilância em massa em território nacional e contra armas totalmente autónomas, é um erro de categoria com consequências que vão muito além desta disputa.”
A Anthropic também já disse que duvida da base legal para tal decisão e que por isso vai recorrer ao tribunal. “Não consideramos que esta decisão tenha base legal e não vemos alternativa senão contestá-la em tribunal”, diz um comunicado divulgado pela Anthropic.
Enquanto isso, há dúvidas sobre o alcance da medida noutros fornecedores do Estado. Parece certo que em qualquer contrato que envolva o Estado, a tecnologia da Anthropic terá de ser removida. Aparentemente os fornecedores do Estado que trabalham com o Claude noutros contextos podem continuar a trabalhar. A Microsoft, por exemplo, já veio dizer que consultou o seu gabinete jurídico sobre a questão e o entendimento é este.
Recorde-se que no dia seguinte ao anúncio do possível fim de contrato com a Anthropic, a OpenAI, dona do ChatGPT anunciou um acordo com Pentágono. A notícia caiu mal na opinião pública e deixou a ideia que a tecnológica liderada por Sam Altman aceitou as condições que a Anthropic recusou.
Dias depois, a companhia veio assegurar que não, e dizer que o contrato foi revisto para acrescentar adendas especificadas e garantir que certos limites não são ultrapassados. Ainda assim, a semana continuou a ser de desinstalação da aplicação do ChatGPT e crescimento no número de downloads da app do Claude, que passou a liderar o top das lojas de aplicações em vários países. No dia a seguir ao anúncio, as desinstalações do ChatGPT cresceram 295%, nos dias seguintes os números foram bem menos expressivos a tendência continuou, como mostram dados da Sensor Tower.
Assine a newsletter do TEK Notícias e receba todos os dias as principais notícias de tecnologia na sua caixa de correio.
Em destaque
-
Multimédia
Ferrari revela interior do seu primeiro modelo elétrico. Design do Luce é criação de Jony Ive -
Site do dia
Atom Animation: a tabela periódica ganha vida em animações hipnotizantes -
App do dia
Salte de teia em teia e acompanhe as aventuras de uma pequena aranha com uma grande missão -
How to TEK
LinkedIn já começou a usar dados dos utilizadores para treinar IA. Veja como desativar
Comentários