
Nos últimos meses, têm sido noticiados vários casos de pessoas cuja saúde mental entra em declínio depois de desenvolverem uma ligação emocional com chatbots de IA. O fenómeno, descrito por muitos como “psicose induzida por ChatGPT” ou “psicose por IA” está a gerar preocupação. Mas, para Mustafa Suleyman, CEO da Microsoft AI, esta preocupação vai mais além.
Numa publicação no seu blog pessoal, o responsável explica que está cada vez mais preocupado com este risco de psicose, defendendo que as suas consequências não se limitarão a pessoas que já estão em risco de desenvolverem problemas de saúde mental.
“A minha principal preocupação é que muitas pessoas passem a acreditar tão fortemente na ilusão de que os sistemas de IA são entidades conscientes que, em breve, comecem a defender direitos para a IA, proteções para o bem-estar dos modelos e até cidadania para as máquinas”, afirma.
“Este desenvolvimento pode representar um ponto de viragem perigoso no desenvolvimento da IA e exige a nossa atenção imediata”, defende Mustafa Suleyman.
Embora admita que muitos investigadores na área da IA possam demonstrar ceticismo quando fala em consciência, o responsável defende que, apesar dos desafios e incertezas em torno da definição desta questão, esta discussão está prestes a tornar-se num dos debates mais impactantes da nossa geração.
“Isto porque, em última análise, o que importa a curto prazo é a forma como as pessoas percepcionam a IA”, indica. Mustafa Suleyman detalha que a experiência de interagir com um LLM é, por definição, uma simulação de uma conversa. “Mas, para demasiadas pessoas, isto é uma interação altamente convincente e muito real, rica em sentimentos e experiências”.
O responsável defende que, para fazer face a esta questão, é necessário estabelecer regras e princípios claros, tendo em conta todo o trabalho que tem sido feito sobre a maneira como as pessoas interagem com sistemas de IA.
“Para começar, as empresas de IA não devem alegar ou encorajar a ideia de que os sistemas que desenvolvem têm consciência”, afirma Mustafa Suleyman. “Criar uma definição consensual e uma declaração sobre o que os sistemas de IA são e não são seria um bom primeiro passo nesse sentido”, realça.
Num apelo à indústria, o responsável afirma que se devem desenvolver sistemas de IA para as pessoas, não para serem pessoas digitais. “Em vez de uma simulação de consciência, devemos concentrar-nos em desenvolver uma IA que evite essas características: que não afirme ter experiências, sentimentos ou emoções”, afirma.
Além disso, o responsável argumenta que a questão das proteções para o “bem-estar” da IA podem abrir novas divisões na sociedade em torno dos direitos da tecnologia, num mundo em si já marcado por debates polarizados sobre identidade e direitos.
Por outro lado, como aponta o TechCrunch, a opinião do CEO da Microsoft AI diverge de outras abordagens que algumas tecnológicas estão a tentar seguir.
Por exemplo, a Anthropic lançou recentemente um programa de investigação sobre este tema. Neste contexto, a empresa avançou uma nova funcionalidade nos seus modelos de IA que vai permitir ao chatbot Claude parar de responder, quando surgem “casos raros e extremos de interações persistentemente prejudiciais ou abusivas por parte dos utilizadores”.
Mas a criadora do Claude não é a única. Além da OpenAI, cujos investigadores já demonstraram abertura para estudar este tema, a Google DeepMind também está à procura de especialistas que investiguem questões sociais que envolvam temas como cognição e consciência das máquinas.
Pergunta do Dia
Em destaque
-
Multimédia
Game Boy feito em peças de LEGO chega em outubro. Veja as imagens e vídeo -
App do dia
Vá de férias sem stress. Plant App ajuda a manter as plantas bem cuidadas -
Site do dia
Descubra os primeiros tesouros cósmicos do observatório Vera C. Rubin numa visita guiada online -
How to TEK
Precisa mesmo de desligar o Windows Defender? Saiba como fazer com segurança
Comentários