Nos últimos meses, têm sido noticiados vários casos de pessoas cuja saúde mental entra em declínio depois de desenvolverem uma ligação emocional com chatbots de IA. O fenómeno, descrito por muitos como “psicose induzida por ChatGPT” ou “psicose por IA” está a gerar preocupação. Mas, para Mustafa Suleyman, CEO da Microsoft AI, esta preocupação vai mais além.

Numa publicação no seu blog pessoal, o responsável explica que está cada vez mais preocupado com este risco de psicose, defendendo que as suas consequências não se limitarão a pessoas que já estão em risco de desenvolverem problemas de saúde mental.

“A minha principal preocupação é que muitas pessoas passem a acreditar tão fortemente na ilusão de que os sistemas de IA são entidades conscientes que, em breve, comecem a defender direitos para a IA, proteções para o bem-estar dos modelos e até cidadania para as máquinas”, afirma.

“Este desenvolvimento pode representar um ponto de viragem perigoso no desenvolvimento da IA e exige a nossa atenção imediata”, defende Mustafa Suleyman.

Embora admita que muitos investigadores na área da IA possam demonstrar ceticismo quando fala em consciência, o responsável defende que, apesar dos desafios e incertezas em torno da definição desta questão, esta discussão está prestes a tornar-se num dos debates mais impactantes da nossa geração.

“Isto porque, em última análise, o que importa a curto prazo é a forma como as pessoas percepcionam a IA”, indica. Mustafa Suleyman detalha que a experiência de interagir com um LLM é, por definição, uma simulação de uma conversa. “Mas, para demasiadas pessoas, isto é uma interação altamente convincente e muito real, rica em sentimentos e experiências”.

O responsável defende que, para fazer face a esta questão, é necessário estabelecer regras e princípios claros, tendo em conta todo o trabalho que tem sido feito sobre a maneira como as pessoas interagem com sistemas de IA.

“Para começar, as empresas de IA não devem alegar ou encorajar a ideia de que os sistemas que desenvolvem têm consciência”, afirma Mustafa Suleyman. “Criar uma definição consensual e uma declaração sobre o que os sistemas de IA são e não são seria um bom primeiro passo nesse sentido”, realça.

Num apelo à indústria, o responsável afirma que se devem desenvolver sistemas de IA para as pessoas, não para serem pessoas digitais. “Em vez de uma simulação de consciência, devemos concentrar-nos em desenvolver uma IA que evite essas características: que não afirme ter experiências, sentimentos ou emoções”, afirma.

Além disso, o responsável argumenta que a questão das proteções para o “bem-estar” da IA podem abrir novas divisões na sociedade em torno dos direitos da tecnologia, num mundo em si já marcado por debates polarizados sobre identidade e direitos.

Claude da Anthropic vai deixar de responder a perguntas "estranhas"
Claude da Anthropic vai deixar de responder a perguntas "estranhas"
Ver artigo

Por outro lado, como aponta o TechCrunch, a opinião do CEO da Microsoft AI diverge de outras abordagens que algumas tecnológicas estão a tentar seguir.

Por exemplo, a Anthropic lançou recentemente um programa de investigação sobre este tema. Neste contexto, a empresa avançou uma nova funcionalidade nos seus modelos de IA que vai permitir ao chatbot Claude parar de responder, quando surgem “casos raros e extremos de interações persistentemente prejudiciais ou abusivas por parte dos utilizadores”.

Mas a criadora do Claude não é a única. Além da OpenAI, cujos investigadores já demonstraram abertura para estudar este tema, a Google DeepMind também está à procura de especialistas que investiguem questões sociais que envolvam temas como cognição e consciência das máquinas.