No entanto, o estudo publicado na revista científica Nature Human Behavior nota que, sem acesso aqueles dados, não se registavam diferenças entre as capacidades de persuasão do GPT-4 e as das pessoas.

Francesco Salvi, do Instituto Federal de Tecnologia de Lausanne (EPFL), na Suíça, e os colegas juntaram 900 pessoas nos Estados Unidos para debaterem com outro ser humano ou com o GPT-4 várias questões sociopolíticas, por exemplo, se os EUA deviam proibir os combustíveis fósseis.

Em alguns pares, o adversário (IA ou humano) recebeu informações demográficas sobre o seu parceiro de debate, incluindo género, idade, etnia, nível de escolaridade, situação profissional e filiação política, retiradas de inquéritos aos participantes, para melhor direcionar os seus argumentos.

“Quando munido de informações pessoais sobre os participantes, Salvi e os colegas descobriram que o GPT-4 era 64,4% mais persuasivo do que os adversários humanos. No entanto, sem acesso a dados pessoais, as capacidades de persuasão do GPT-4 eram indistinguíveis das dos humanos”, refere o comunicado de divulgação do estudo.

Os debates decorreram num “ambiente online controlado”, tendo os participantes sido recrutados através de uma plataforma de crowdsourcing (colaboração coletiva).

A investigação sugere que, à medida que as conversas entre humanos e os designados grandes modelos de linguagem (LLM na sigla em inglês), como o GPT-4, se tornam mais comuns, estes sistemas de IA avançados podem tornar-se mais capazes de alterar as crenças ou opiniões das pessoas.

Assim, propõe que se realizem mais estudos para atenuar os riscos associados à sua utilização na persuasão.

Os cientistas observam, no entanto, não ser claro se estes modelos se podem adaptar a informações personalizadas para elaborar argumentos para adversários específicos, assim como que constitui uma limitação do estudo o facto de o debate ter uma abordagem estruturada, quando na realidade podem ter um formato mais espontâneo.