Há uma nova ferramenta de combate às teorias de conspiração: os chatbots de Inteligência Artificial. “Conversar sobre uma teoria de conspiração com um modelo linguístico de grande dimensão (LLM) reduziu 20% a crença das pessoas na mesma”, descobriu um estudo do MIT Sloan e da Universidade Cornell.

Os investigadores explicam que até os participantes que afirmaram que as suas crenças eram importantes para a sua identidade viram as suas convicções abaladas e recuaram nas suas “certezas”. E com efeitos duradouros.

O artigo foi publicado na revista Science, sendo capa da edição de setembro e poderá contribuir para a resolução do problema da disseminação de teorias de conspiração que aumentou com o surgimento da Internet.

“As descobertas podem representar um importante avanço no modo como interagimos e educamos as pessoas que defendem essas teorias infundadas”, clarifica Yunhao (Jerry) Zhang, investigador de pós-doutoramento afiliado no Instituto de Psicologia da Tecnologia, que estuda os impactos da IA na sociedade. Na prática, o estudo mostra que com os LLM “podemos, não diria resolver, mas pelo menos, mitigar o problema”, explica.

A opinião de teóricos da conspiração é difícil de alterar”, assinala Thomas Costello, investigador afiliado do MIT Sloan e líder do estudo, acrescentando que poucas intervenções têm apresentado sucesso. “Parte do que o torna tão difícil é que diferentes pessoas tendem a apegar-se a partes distintas de uma teoria. O que significa que enquanto a apresentação de certas evidências factuais pode funcionar para uma pessoa, não há garantia de que seja eficaz noutra”, acrescenta Thomas Costello.

No entanto, os modelos de IA têm acesso a uma enorme quantidade de informação sobre múltiplos tópicos, tendo sido treinados na Internet. “Por isso, têm capacidade para adaptar contra-argumentos factuais às teorias da conspiração específicas nas quais as pessoas acreditam”, justifica.

Para enquadramento do estudo, e para justificar o quão perigosas podem ser as consequências de uma teoria de conspiração, os investigadores recordaram que a conspiração de que teria havido fraude nas eleições nos EUA levou a uma tentativa de insurreição em 6 de janeiro de 2021. E, na Alemanha, em agosto de 2020, outra conspiração que alegava que as restrições impostas relativamente à COVID-19 eram motivadas por intenções nefastas, desencadeou protestos violentos no edifício do parlamento do Reichstag, em Berlim. Há teorias da conspiração que se tornam ameaças para a democracia, lê-se no estudo.

Por isso, a equipa liderada por Thomas Costello investigou se dialogar com uma interface de IA generativa poderia convencer as pessoas a abandonar as suas crenças conspiratórias. Os 2.190 participantes humanos descreveram uma teoria da conspiração que subscreviam ao GPT-4 Turbo, um dos mais recentes LLM da OpenAI. Esta IA envolveu-se então em argumentos persuasivos que refutavam as crenças dos humanos com provas.

Diálogos com a IA reduzem de forma duradoura as crenças conspirativas, mesmo entre os grandes crentes
Diálogos com a IA reduzem de forma duradoura as crenças conspirativas, mesmo entre os grandes crentes (Esquerda) Crença média na teoria da conspiração escolhida pelo participante, por condição (tratamento, em que a IA tentou refutar a teoria da conspiração, a vermelho; controlo, em que a IA discutiu um tópico irrelevante, a azul) e ponto temporal para o estudo 1. (Direita) Mudança na crença na conspiração escolhida de antes para depois da conversa com a IA, por condição e crença do participante na conspiração antes do tratamento. créditos: Science

As respostas foram usadas para personalizar as reações do chatbot, que os investigadores instruíram para ser tão persuasivo quanto possível. Os participantes também indicaram o quão confiantes estavam de que a sua teoria da conspiração era verdadeira, numa escala de 0 (definitivamente falsa) a 100 (definitivamente verdadeira), e qual era a importância da teoria para sua compreensão do mundo. As conversas com o bot de IA desenvolveram-se em três rondas, para os investigadores poderem reunir um diálogo suficientemente substancial.

Após cada conversa, os participantes responderam às mesmas perguntas de avaliação. Posteriormente, 10 dias depois, os investigadores voltaram a falar com todos os participantes e novamente daí a dois meses para avaliar se as suas opiniões haviam mudado após a conversa com o bot de IA. Em média, a redução da crença na teoria da conspiração escolhida foi de 20%, “sugerindo que conversar com o bot mudou fundamentalmente a opinião de algumas pessoas”, conclui o estudo.

Em suma, a capacidade do chatbot de IA para sustentar contra-argumentos personalizados e conversas aprofundadas e personalizadas reduziu as crenças em conspirações durante meses, desafiando investigações anteriores que sugerem que tais crenças são imunes à mudança.

“Esta intervenção ilustra como a utilização da IA pode atenuar os conflitos e servir a sociedade”, lê-se no artigo científico. Jerry Zhang considera que, mesmo em ambiente de laboratório, “20% é um grande efeito na mudança das crenças das pessoas”. E acrescenta que “pode ser mais fraco no mundo real, mas 10% ou 5% ainda seria muito significativo.”

Os autores procuraram proteger-se contra a tendência de invenção de informações por parte dos modelos de IA (as alucinações) ao recorrer a um fact-checker profissional que avaliou uma amostra de 128 afirmações feitas pela IA. “99,2% eram verdadeiras, 0,8% eram enganosas e nenhuma era falsa”.

Os investigadores apontam algumas utilizações práticas para esta descoberta. Por um lado, em fóruns na Internet pode-se convidar aqueles que acreditam em teorias de conspiração a debater o tema com um chatbot. Por outro lado, as próprias redes sociais poderiam conectar-se a LLM para apresentar respostas corretivas a pessoas que compartilham teorias da conspiração, exemplifica Jerry Zhang.