A ameaça foi cumprida e a Anthropic estreia um lugar inédito, ao passar a integrar a lista de empresas que os EUA consideram um risco para a cadeia de abastecimento. A decisão é altamente polémica e vai seguir para a justiça.
São três as empresas visadas pela acusação da Anthropic, que não é a primeira a queixar-se. A promotora do Claude alerta para os riscos destes movimentos ilegais da Deepseek e companhia e diz que a ameaça de desenvolvimentos de IA sem controlo é real.
Ao contrário de rivais como a OpenAI e a Google, que já iniciaram a integração de anúncios nos seus serviços de chatbot e de pesquisa, a Perplexity afasta-se dessa estratégia para evitar perdas de confiança junto dos utilizadores.
Criar ou editar documentos em Word ou Excel são algumas das novidades que passaram a estar disponíveis na versão gratuita do Claude da Anthropic, mas não são as únicas. A empresa detalha-as, enquanto continua a provocação à OpenAI e ao ChatGPT.
Nomes como a Microsoft, a Ericsson, a Amazon ou a Google estão no grupo inicial da nova Trusted Tech Alliance que se propõe mostrar que a tecnologia pode ser confiável e segura para além das fronteiras de qualquer jurisdição.
Ao mesmo tempo que os receios à volta da sobrevalorização de empresas de inteligência artificial se debatem, os milhões investidos aumentam. Para a Anthropic foram mais 30 mil milhões, aumentando o valor da startup para 380 mil milhões de dólares.
Embora a Anthropic não faça referências diretas à OpenAI nos seus novos anúncios, não demorou muito até que os internautas fizessem a ligação. O CEO da rival também a fez e, apesar de admitir que os anúncios até tinham piada, não ficou exatamente contente.
Os percursos do Perseverance são cuidadosamente planeados pelos engenheiros da NASA, mas, entre os dias 8 e 10 de dezembro de 2025, a equipa responsável pelo rover decidiu fazer algo diferente e recorreu ao Claude da Anthropic para dar uma ajuda.
As tecnológicas foram a estrela do mercado de capitais em 2025 com valorizações nunca alcançadas por empresas do sector como a Nvidia, numa montanha russa que esconde alguns receios e que deve atrair mais protagonistas de peso em breve.
A avaliação de comportamentos (e desvios) dos modelos de IA é essencial, mas cara e difícil de fazer. A Anthropic lançou uma novidade que pode ajudar a resolver o problema.
Anunciada pela Linux Foundation, a Agentic AI Foundation (AAIF) é uma nova organização que tem como missão apoiar o desenvolvimento de projetos open source de agentes de IA, assegurando que os sistemas evoluem de forma transparente, colaborativa e interoperável.
Um novo relatório alerta que as práticas de segurança das grandes empresas de IA, da Anthropic à DeepSeek, ficam muito aquém dos padrões mínimos a nível global.
A IA generativa já garantiu espaço nos hábitos de utilização mas Luis Bravo Martins alerta para o desperdício gerado e as formas de reduzir o impacto de consumo de energia.
Apesar do Copilot continuar a ser alimentado pelos mais recentes modelos da OpenAI, a Microsoft procura oferecer aos seus clientes maior flexibilidade de escolha, suportando agora as propostas da Anthropic.
A visada por mais um processo é desta vez a Perplexity, que já tem outros casos em tribunal pelo uso não autorizado de conteúdos protegidos nos seus modelos de inteligência artificial.
Lançados pela Anthropic, os três novos cursos foram criados em colaboração com especialistas, oferecendo a professores e estudantes ferramentas práticas para integrar a IA no ensino e no trabalho académico.
A Anthropic está a implementar um novo recurso nos seus modelos de IA, que vai permitir ao chatbot Claude parar de responder, quando a conversa começa a seguir para caminhos menos próprios.
A Comissão Europeia pretende ajudar os modelos de IA que apresentaram riscos sistémicos a cumprir a nova lei, enfrentando obrigações mais pesadas. A AI Act entra em vigor no dia 2 de agosto.
Um grupo de personalidades destacadas na área da inteligência artificial publicou um artigo a alertar para a importância de preservar uma técnica de monitorização dos modelos de IA que analisa o raciocínio por trás da decisão. Dizem que é fundamental para a segurança.
Perante as transformações que a inteligência artificial está a trazer às empresas, Nuno Rodrigues defende que o maior desafio não é tecnológico, mas sim cultural.
Um juiz federal nos EUA decidiu que é legal comprar livros físicos e digitalizá-los para treinar modelos de IA, sem consentimento dos autores. É uma vitória inédita para a Anthropic que se livra deste processo e segue para o próximo, porque também recorre a livros pirateados.
Desenvolvida a pensar, sobretudo, nos investigadores, a nova ferramenta da criadora do Claude é Open Source e, através de gráficos interativos, mostra os passos que os modelos de IA seguem para gerar respostas.
O Claude vai começar a permitir conversas de voz com os interlocutores da app da Anthropic. Numa primeira fase em inglês e com limites para quem usa a versão gratuita do assistente de IA generativa.
Nos muitos testes que são feitos aos modelos de inteligência artificial antes de serem lançados há testes de segurança e ética. O chatbot Claude da Anthropic mostrou algumas decisões ousadas nos testes da última versão.