Os pais de um adolescente de 16 anos que se suicidou depois de longas conversas com o ChatGPT sobre o tema estão a processar a OpenAI, que desenvolveu o chatbot, e Sam Altman, o CEO e cofundador da empresa. A família norte-americana acredita que, para o desfecho trágico, foram cruciais os conselhos do assistente inteligente em diálogos sobre automutilação que duraram meses, antes de o jovem pôr fim à vida.

A acusação quer provar que o chatbot ajudou a validar os pensamentos suicidas do jovem e contribuiu para eles, ao fornecer informações detalhadas sobre métodos letais de automutilação.

Nos documentos do processo, indica-se que o chatbot deu conselhos ao jovem sobre formas de roubar álcool do bar onde os pais o guardavam, ajudou a encontrar desculpas para encobrir as marcas de uma tentativa falhada de suicidio e ofereceu-se para escrever uma carta de suicidio.

Os pais do jovem que morreu em abril querem provar que a OpenAI tem uma quota de responsabilidade no acontecimento, porque conscientemente colocou o lucro acima da segurança, com o lançamento da versão GPT-4o, lembrando que a valorização da empresa passou de 86 mil milhões de dólares, antes do lançamento, para mais de 300 mil milhões.

TikTok perde processo sobre saúde mental juvenil em tribunal de Nova Iorque
TikTok perde processo sobre saúde mental juvenil em tribunal de Nova Iorque
Ver artigo

O GPT-4o representa um avanço significativo na capacidade de interagir do chatbot, que se tornou mais empático, capaz de identificar emoções no interlocutor e de comunicar mais à semelhança de um humano, características que a empresa também tem de saber que aumentam os riscos dessas interações para utilizadores vulneráveis, alegam os pais de Adam Raine.

O objetivo do processo é ver a empresa condenada por homicídio negligente e violações às leis de segurança do produto. Também pedem uma indemnização por danos morais, num valor não especificado.

Solicita-se ainda que a OpenAI seja obrigada a implementar mecanismos de verificação da idade dos utilizadores, a recusar pedidos de informação sobre técnicas de automutilação e a alertar os utilizadores sobre o risco de dependência psicológica.

A OpenAI já disse que lamenta a morte e sublinhou que a plataforma inclui medidas de segurança, como encaminhar os utilizadores para linhas de ajuda quando deteta situações de crise. A companhia também reconhece, no entanto, que estas salvaguardas funcionam melhor em interações curtas, do que em conversas mantidas ao longo de meses. Nessas interações longas podem “tornar-se menos confiáveis”, porque “partes do treino de segurança do modelo pode degradar-se”, explicou um porta-voz da empresa numa declaração citada pela Reuters.

A OpenAI já tinha abordado este tema, que não é a primeira vez que se coloca. Outras mortes de jovens têm sido associadas à interação com chatbots e à procura de apoio emocional em plataformas de inteligência artificial.

A empresa admitiu que está a trabalhar em novas formas de reforçar os mecanismos de segurança para situações deste género, através de novos controlos parentais ou de ligações a recursos de apoio humano. Uma das opções pode ser a ligação a uma rede de profissionais de saúde mental, que possam responder diretamente a solicitações ou situações suspeitas, dentro do próprio ChatGPT.