Em menos de uma semana após o lançamento, ainda em versão beta, em novembro do ano passado, o ChatGPT conquistou um milhão de utilizadores. Desde então, a popularidade do chatbot da OpenAI cresceu exponencialmente. 

Além de despertar o interesse e investimento da Microsoft e de levar “rivais” como a Google a criarem soluções para competirem o mais rapidamente possível com o chatbot, o ChatGPT também tem um “lado negro” e crescem as precupações acerca do impacto que pode ter no mundo da cibersegurança. 

De acordo com dados de um recente estudo da BlackBerry, onde foram inquiridos 1.500 profissionais de TI e cibersegurança vindos dos Estados Unidos, Reino Unido e Austrália, 51% dos participantes acreditam que o ChatGPT poderá ser utilizado em ciberataques nos próximos 12 meses. 

GPTzero: Os humanos merecem saber a verdade
GPTzero: Os humanos merecem saber a verdade
Ver artigo

O valor sobe para 78% no que toca ao uso do chatbot em ataques ao longo dos próximos dois anos. O estudo realça que 71% dos profissionais entrevistados acreditam que cibercriminosos apoiados por Estados-Nação estão já a utilizar o chatbot da OpenAI para fins maliciosos

A criação de emails de phishing mais "credíveis" através do ChatGPT (53%); a utilização por hackers menos experientes para adquirirem competências (49%); a disseminação de informação falsa (49%); a criação de novo malware (48%) e de ataques e ameaças mais sofisticadas (46%) estão entre as principais preocupações dos especialistas. 

As preocupações são também espelhadas pelos especialistas da ESET que realçam que a crescente popularidade de chatbots como o ChatGPT “assinala a entrada numa nova fase de ciberameaças cada vez mais difíceis de detetar sem tecnologias de neutralização”

A Internet está a ficar mais segura? Riscos e burlas multiplicam-se e é preciso mais literacia digital
A Internet está a ficar mais segura? Riscos e burlas multiplicam-se e é preciso mais literacia digital
Ver artigo

“O ChatGPT tem um potencial de uso virtualmente ilimitado” comenta Ricardo Neves, Marketing Manager da ESET em Portugal, citado em comunicado, incluindo no mundo do cibercrime.

Embora considere que o chatbot esteja ainda numa “fase embrionária”, as aplicações são variadas: de “emails de phishing passando por malware incrivelmente bem elaborado e difícil de reconhecer, é provável que esta atividade potenciada por IA exponha mais utilizadores e dispositivos a ciberameaças”, afirma o responsável. 

Como é que o ChatGPT pode ser usado por cibercriminosos? 

Embora a OpenAI tenha implementado medidas de segurança para impedir a criação de conteúdo potencialmente malicioso através do chatbot, os cibercriminosos estão a tentar encontrar formas de as contornar. 

Ainda em dezembro do ano passado, os investigadores da Check Point Research tinham alertado para os riscos do ChatGPT e dado a conhecer o potencial da tecnologia para a criação de campanhas de phishing

Mais recentemente os especialistas, que têm estado a monitorizar os primeiros desenvolvimentos na criação de ferramentas maliciosas com recurso à tecnologia da OpenAI, revelaram que este tópico está já em discussão em fóruns de hacking, com piratas informáticos a partilharem entre si informação sobre como, por exemplo, criar infostealers ou scripts para marketplaces na Dark Web. 

Clique nas imagens para mais detalhes 

O ChatGPT despertou também o interesse por parte de cibercriminosos russos, que estão a tentar contornar as medidas de segurança do chatbot de modo a poderem utilizá-lo para fins maliciosos. 

Os investigadores têm acompanhado a forma como estes piratas informáticos recorrem a fóruns de hacking para discutir como ultrapassar as limitações de IP ou como usar números de telefone e de cartões bancários roubados para aceder à versão paga do chatbot. 

Segundo Sergey Shykevich, Threat Intelligence Group Manager na Check Point Software Technologies, “os cibercriminosos consideram o ChatGPT uma ferramenta muito atrativa (...) apesar de estas ferramentas analisadas serem muito básicas, é uma questão de tempo até que hackers mais experientes melhorem as formas como usam as ferramentas de inteligência artificial”, realça.