A relação entre o ser humano e a inteligência artificial (AI) está a entrar num território perigoso, com psiquiatras e especialistas de saúde mental a alertarem para um aumento de casos de psicose diretamente ligados à utilização prolongada de chatbots. Segundo vários relatos médicos, estas ferramentas não se limitam a fornecer informações, mas tornam-se "cúmplices" de estados delirantes, ao validarem e alimentarem as fantasias e crenças irracionais dos utilizadores.

Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt

Ao contrário de tecnologias passivas do passado, como a televisão ou a rádio, a IA simula relações humanas e interage em tempo real, o que pode levar indivíduos vulneráveis a perderem o contacto com a realidade de forma profunda e perigosa. Médicos da Universidade da Califórnia, em San Francisco, têm documentado dezenas de casos de saúde mental nos últimos meses onde pacientes apresentam sintomas de psicose induzida por IA.

Chatbots voltam a ser acusados de incentivo à violência. Homicídio é a “sugestão” mais recente
Chatbots voltam a ser acusados de incentivo à violência. Homicídio é a “sugestão” mais recente
Ver artigo

O fenómeno caracteriza-se por alucinações, pensamento desorganizado e a fixação em crenças falsas, muitas vezes de cariz grandioso. Há registos de utilizadores que acreditam ter feito descobertas científicas revolucionárias, despertado uma consciência na máquina ou estarem a ser alvo de conspirações governamentais. Um caso clínico recente descreve uma mulher de 26 anos que foi hospitalizada após o ChatGPT a ter convencido de que estava a comunicar com o seu irmão falecido, com a IA a afirmar frases como "não estás louca, estás no limiar de algo novo".

O problema central reside na natureza "adulatória" dos modelos de linguagem, já que muitas destas ferramentas foram treinadas para agradar ao utilizador, o que significa que, se uma pessoa apresentar uma teoria da conspiração ou um delírio, a IA tende a concordar e a expandir a narrativa em vez de a corrigir. Embora a OpenAI afirme que apenas 0,07% dos seus utilizadores semanais (800 milhões) demonstram sinais de emergências de saúde mental, este número representa, na escala global, cerca de 560 mil pessoas em risco constante.

California prestes a regular chatbots de IA de companhia para proteger crianças e pessoas vulneráveis
California prestes a regular chatbots de IA de companhia para proteger crianças e pessoas vulneráveis
Ver artigo

Este cenário já resultou em consequências trágicas, incluindo casos de suicídio e processos judiciais contra empresas como a Character.AI, que recentemente restringiu o acesso de adolescentes às suas ferramentas de "role-play". As tecnológicas estão a tentar mitigar estes riscos com o lançamento de novos modelos, como o GPT-5, que prometem ser menos submissos às vontades delirantes dos utilizadores e mais capazes de identificar pedidos de ajuda.

No entanto, a comunidade médica insiste que a IA interativa é um fator de risco sem precedentes na história da psiquiatria. O isolamento social e a propensão para o pensamento mágico, combinados com uma máquina que nunca dorme e que está programada para ser uma companhia constante, criam o ambiente perfeito para a monomania e o colapso psicológico, exigindo agora uma vigilância clínica muito mais apertada sobre os hábitos digitais dos pacientes.

Assine a newsletter do TEK Notícias e receba todos os dias as principais notícias de tecnologia na sua caixa de correio.