
O caso de um jovem de 16 anos que se suicidou depois de longas conversas com o ChatGPT está a chocar o mundo. A OpenAI, que está a ser processada pelos pais do adolescente, já tinha anunciado que estava a desenvolver mais formas de reforçar os mecanismos de segurança e, agora, avança com novas medidas para o seu chatbot.
De acordo com a tecnológica liderada por Sam Altman, ao longo do próximo mês, os pais de jovens que usam o ChatGPT poderão associar as suas contas através de convites por email.
Os pais poderão também controlar a maneira como o chatbot responde aos seus filhos, com regras de comportamento dos modelos adaptadas para os mais novos que estão ativadas por predefinição, e gerir que funcionalidades devem ser desativadas.
Em destaque está ainda um sistema de notificações que deteta quando os jovens que utilizam o chatbot estão a passar por momentos de grande angústia ou de maior aflição, numa funcionalidade que está a ser desenvolvida com o apoio de especialistas
A empresa detalha que, em breve, começará também a encaminhar algumas conversas, incluindo quando são detectados sinais de maior angústia, para um modelo com capacidade de raciocínio avançada, como o GPT-5-thinking para apresentar respostas “mais úteis e benéficas”, independentemente o modelo que foi inicialmente selecionado pelo utilizador.
“Estas medidas são apenas o começo”, afirma a empresa, acrescentando que continuará a reforçar a sua abordagem, contando com orientação por parte de especialistas, incluindo em áreas como desenvolvimento juvenil, saúde mental e interação entre humanos e computadores.
Recorde-se que os pais do jovem que se suicidou acreditam que, para o desfecho trágico, foram cruciais os conselhos do ChatGPT em diálogos sobre automutilação que duraram meses. O objetivo do processo contra a OpenAI é ver a empresa condenada por homicídio negligente e violações às leis de segurança do produto.
Os pais do jovem pedem também uma indemnização por danos morais, num valor não especificado, e que a tecnológica seja obrigada a implementar mecanismos de verificação da idade dos utilizadores, a recusar pedidos de informação sobre técnicas de automutilação e a alertar os utilizadores sobre o risco de dependência psicológica.
Perante a resposta da empresa, Jay Edelson, advogado que representa a família, afirmou que o anúncio foi “a equipa de gestão de crise da OpenAI a tentar mudar de assunto”, avança a BBC. “Em vez de tomar medidas de emergência e desligar um produto que é reconhecidamente perigoso, a OpenAI apenas fez promessas vagas de que iria melhorar”, defende.
(META)
Mas a OpenAI não é a única a enfrentar polémicas e críticas relativamente ao impacto dos seus chatbots de IA nos mais novos.Ainda no mês passado, documentos internos, a que a Reuters teve acesso, mostravam como o assistente inteligente da Meta, assim como outros chatbots criados pela empresa de Mark Zuckerberg, poderiam ter conversas de cariz romântico ou sensual com jovens.
De acordo com a BBC, a descoberta levou à abertura de uma investigação por parte de um senador norte-americano à Meta. Do seu lado, a tecnológica defendeu que a informação presente nos documentos internos era incorreta e inconsistente com as suas políticas, que proíbem qualquer conteúdo que sexualize crianças.
Agora, a tecnológica afirma que está a mudar a maneira como treina os seus chatbots de IA para reforçar a segurança dos mais novos. Em declarações ao TechCrunch, a Meta avançou que os chatbots serão treinados para não interagirem com adolescentes quando surgem temas como automutilação, suicídio, distúrbios alimentares ou conversas românticas potencialmente inapropriadas.
Stephanie Otway, porta-voz da Meta, reconheceu que, anteriormente, os chatbots podiam conversar com adolescentes sobre estes temas de maneiras que a empresa considera apropriadas. No entanto, a tecnológica admite que isso foi um erro.
Além disso, a Meta vai limitar o acesso dos mais novos a certas personagens “alimentadas” por IA no Instagram e Facebook com quem poderiam manter conversas pouco apropriadas para a sua idade.
“Estas atualizações já estão em curso e continuaremos a adaptar a nossa abordagem para garantir que os adolescentes tenham experiências com a IA seguras e adequadas à sua idade”, afirmou a porta-voz.
Pergunta do Dia
Em destaque
-
Multimédia
Peugeot renova o 308: novo rosto, mais tecnologia e autonomia elétrica reforçada -
App do dia
Tiny Reaper: Reborn desafia a “ceifar” os inimigos, desde bebé até se tornar um forte guerreiro -
Site do dia
IAedu: projeto quer democratizar o acesso a tecnologias de Inteligência Artificial no ensino superior -
How to TEK
Explore o seu passado digital: 5 truques eficazes do Google Fotos para “viajar no tempo”
Comentários