O caso de um jovem de 16 anos que se suicidou depois de longas conversas com o ChatGPT está a chocar o mundo. A OpenAI, que está a ser processada pelos pais do adolescente, já tinha anunciado que estava a desenvolver mais formas de reforçar os mecanismos de segurança e, agora, avança com novas medidas para o seu chatbot.

De acordo com a tecnológica liderada por Sam Altman, ao longo do próximo mês, os pais de jovens que usam o ChatGPT poderão associar as suas contas através de convites por email.

Os pais poderão também controlar a maneira como o chatbot responde aos seus filhos, com regras de comportamento dos modelos adaptadas para os mais novos que estão ativadas por predefinição, e gerir que funcionalidades devem ser desativadas.

Em destaque está ainda um sistema de notificações que deteta quando os jovens que utilizam o chatbot estão a passar por momentos de grande angústia ou de maior aflição, numa funcionalidade que está a ser desenvolvida com o apoio de especialistas

A empresa detalha que, em breve, começará também a encaminhar algumas conversas, incluindo quando são detectados sinais de maior angústia, para um modelo com capacidade de raciocínio avançada, como o GPT-5-thinking para apresentar respostas “mais úteis e benéficas”, independentemente o modelo que foi inicialmente selecionado pelo utilizador.

“Estas medidas são apenas o começo”, afirma a empresa, acrescentando que continuará a reforçar a sua abordagem, contando com orientação por parte de especialistas, incluindo em áreas como desenvolvimento juvenil, saúde mental e interação entre humanos e computadores.

Recorde-se que os pais do jovem que se suicidou acreditam que, para o desfecho trágico, foram cruciais os conselhos do ChatGPT em diálogos sobre automutilação que duraram meses. O objetivo do processo contra a OpenAI é ver a empresa condenada por homicídio negligente e violações às leis de segurança do produto.

Pais processam dona do ChatGPT pelo suicídio do filho de 16 anos
Pais processam dona do ChatGPT pelo suicídio do filho de 16 anos
Ver artigo

Os pais do jovem pedem também uma indemnização por danos morais, num valor não especificado, e que a tecnológica seja obrigada a implementar mecanismos de verificação da idade dos utilizadores, a recusar pedidos de informação sobre técnicas de automutilação e a alertar os utilizadores sobre o risco de dependência psicológica.

Perante a resposta da empresa, Jay Edelson, advogado que representa a família, afirmou que o anúncio foi “a equipa de gestão de crise da OpenAI a tentar mudar de assunto”, avança a BBC“Em vez de tomar medidas de emergência e desligar um produto que é reconhecidamente perigoso, a OpenAI apenas fez promessas vagas de que iria melhorar”, defende.

(META)

Mas a OpenAI não é a única a enfrentar polémicas e críticas relativamente ao impacto dos seus chatbots de IA nos mais novos.Ainda no mês passado, documentos internos, a que a Reuters teve acesso, mostravam como o assistente inteligente da Meta, assim como outros chatbots criados pela empresa de Mark Zuckerberg, poderiam ter conversas de cariz romântico ou sensual com jovens.

De acordo com a BBC, a descoberta levou à abertura de uma investigação por parte de um senador norte-americano à Meta. Do seu lado, a tecnológica defendeu que a informação presente nos documentos internos era incorreta e inconsistente com as suas políticas, que proíbem qualquer conteúdo que sexualize crianças.

Agora, a tecnológica afirma que está a mudar a maneira como treina os seus chatbots de IA para reforçar a segurança dos mais novos. Em declarações ao TechCrunch, a Meta avançou que os chatbots serão treinados para não interagirem com adolescentes quando surgem temas como automutilação, suicídio, distúrbios alimentares ou conversas românticas potencialmente inapropriadas.

Stephanie Otway, porta-voz da Meta, reconheceu que, anteriormente, os chatbots podiam conversar com adolescentes sobre estes temas de maneiras que a empresa considera apropriadas. No entanto, a tecnológica admite que isso foi um erro.

Além disso, a Meta vai limitar o acesso dos mais novos a certas personagens “alimentadas” por IA no Instagram e Facebook com quem poderiam manter conversas pouco apropriadas para a sua idade.

“Estas atualizações já estão em curso e continuaremos a adaptar a nossa abordagem para garantir que os adolescentes tenham experiências com a IA seguras e adequadas à sua idade”, afirmou a porta-voz.