A inteligência artificial continua a demonstrar ser uma tecnologia ambígua, que tanto está a transformar as empresas e as pessoas, como há relatos do aproveitamento para utilizações mais nefastas. Como avança o BBC, foi a própria Anthropic que disse que as suas tecnologias, nomeadamente o modelo de IA Claude, estavam a ser usadas como arma pelos hackers para realizar ciberataques sofisticados. 

A empresa diz que as ferramentas estavam a ser usadas por hackers para cometer crimes de roubo em larga escala, assim como extorsão de dados pessoais. Segundo a Anthropic, a inteligência artificial ajudou a escrever o código utilizado em ciberataques, mas também há um registo de outro caso, de burlas feitas na Coreia do Norte que utilizaram o Claude para obter empregos, de forma fraudulenta, em empresas de topo nos Estados Unidos.

Apesar disso, a Anthropic diz que conseguiu impedir os hackers, tendo reportado os casos às autoridades, ao mesmo tempo que adicionou ferramentas de deteção melhoradas nas ferramentas de IA do Claude. As capacidades avançadas do modelo escrever código têm-se tornado populares, por serem acessíveis. 

Nos exemplos avançados, a empresa refere um caso chamado “vibe hacking”, onde a IA foi usada para escrever código de um ataque a 17 organizações diferentes, incluindo governamentais. Neste caso, é apontado que a IA foi utilizada a um nível sem precedentes, onde o Claude foi usado para tomar decisões táticas e estratégicas, incluindo que tipo de dados exfiltrar e como moldar psicologicamente os pedidos de extorsão às vítimas. Além de sugerir quantidades de valor a pedir às vítimas.  

Em relação ao uso da IA para as candidaturas de emprego, esta foi usada para escrever as cartas e depois de os mesmos serem empregados, utilizaram para ajudar a traduzir mensagens e a escrever código.