A relação entre o ser humano e a inteligência artificial (AI) está a entrar num território perigoso, com psiquiatras e especialistas de saúde mental a alertarem para um aumento de casos de psicose diretamente ligados à utilização prolongada de chatbots. Segundo vários relatos médicos, estas ferramentas não se limitam a fornecer informações, mas tornam-se "cúmplices" de estados delirantes, ao validarem e alimentarem as fantasias e crenças irracionais dos utilizadores.
Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt
Ao contrário de tecnologias passivas do passado, como a televisão ou a rádio, a IA simula relações humanas e interage em tempo real, o que pode levar indivíduos vulneráveis a perderem o contacto com a realidade de forma profunda e perigosa. Médicos da Universidade da Califórnia, em San Francisco, têm documentado dezenas de casos de saúde mental nos últimos meses onde pacientes apresentam sintomas de psicose induzida por IA.
O fenómeno caracteriza-se por alucinações, pensamento desorganizado e a fixação em crenças falsas, muitas vezes de cariz grandioso. Há registos de utilizadores que acreditam ter feito descobertas científicas revolucionárias, despertado uma consciência na máquina ou estarem a ser alvo de conspirações governamentais. Um caso clínico recente descreve uma mulher de 26 anos que foi hospitalizada após o ChatGPT a ter convencido de que estava a comunicar com o seu irmão falecido, com a IA a afirmar frases como "não estás louca, estás no limiar de algo novo".
O problema central reside na natureza "adulatória" dos modelos de linguagem, já que muitas destas ferramentas foram treinadas para agradar ao utilizador, o que significa que, se uma pessoa apresentar uma teoria da conspiração ou um delírio, a IA tende a concordar e a expandir a narrativa em vez de a corrigir. Embora a OpenAI afirme que apenas 0,07% dos seus utilizadores semanais (800 milhões) demonstram sinais de emergências de saúde mental, este número representa, na escala global, cerca de 560 mil pessoas em risco constante.
Este cenário já resultou em consequências trágicas, incluindo casos de suicídio e processos judiciais contra empresas como a Character.AI, que recentemente restringiu o acesso de adolescentes às suas ferramentas de "role-play". As tecnológicas estão a tentar mitigar estes riscos com o lançamento de novos modelos, como o GPT-5, que prometem ser menos submissos às vontades delirantes dos utilizadores e mais capazes de identificar pedidos de ajuda.
No entanto, a comunidade médica insiste que a IA interativa é um fator de risco sem precedentes na história da psiquiatria. O isolamento social e a propensão para o pensamento mágico, combinados com uma máquina que nunca dorme e que está programada para ser uma companhia constante, criam o ambiente perfeito para a monomania e o colapso psicológico, exigindo agora uma vigilância clínica muito mais apertada sobre os hábitos digitais dos pacientes.
Assine a newsletter do TEK Notícias e receba todos os dias as principais notícias de tecnologia na sua caixa de correio.
Em destaque
-
Multimédia
Frigoríficos e máquinas de lavar e secar Mijia são os novos eletrodomésticos da Xiaomi em Portugal -
Site do dia
Qual é o seu nível de literacia financeira? 20 perguntas colocam conhecimentos à prova -
App do dia
TOEM leva-o numa aventura fotográfica a preto e branco entre puzzles e personagens curiosas -
How to TEK
Não quer que o LinkedIn use os seus dados para treinar modelos de IA? Saiba como desativar
Comentários