Conhecida como SB 243, a proposta de lei apresentada ao Senado durante a Assembleia de Estado da Califórnia, nesta quarta-feira, pretende regular os chatbots de IA de companhia, de forma a proteger menores e utilizadores vulneráveis. A legislação recebeu luz verde e segue agora para o Senado para o voto final na próxima sexta-feira. 

Ao passar no Senado, a lei toma efeito a partir do dia 1 de janeiro de 2026, tornando a Califórnia o primeiro Estado a obrigar os operadores de chatbots de IA a implementar protocolos de segurança nos companheiros inteligentes. As respetivas empresas passam também a assumir a responsabilidade caso os chatbots não cumpram os requisitos da lei. 

Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt

Quais são os chatbots afetados pela nova lei americana? Segundo a proposta de legislação, é definido como um sistema de IA que ofereça respostas adaptadas, semelhante a um humano, que sejam capazes de cumprir as necessidades sociais do utilizador. Exemplos como conversas sobre tópicos sensíveis como pensamentos suicidas, autoflagelo ou conteúdos sexuais explícitos. A lei proposta obriga às plataformas de introduzir alertas aos utilizadores a cada três horas para menores, a lembrar-lhes que estão a falar com um chatbot de IA e não uma pessoa real, incentivando a fazer pausas. 

A proposta estabelece também que as empresas forneçam relatórios anuais e requisitos de transparência para os companheiros de IA que ofereçam chatbots de companhia, incluindo as grandes empresas como a OpenAI, Character.AI e a Replika, avança o TechCrunch. A proposta esclarece que utilizadores que acreditem que foram prejudicados pelas violações dos chatbots podem processar as empresas até 1.000 dólares por violação. 

A nova lei surge após os pais do jovem Adam Raine de 16 anos que se suicidou em abril, acreditarem que as informações e conselhos do ChatGPT sobre automutilação durante meses foram cruciais para a morte do filho e levaram o caso à justiça.  A acusação quis provar que o chatbot ajudou a validar os pensamentos suicidas do jovem e contribuiu para eles, ao fornecer informações detalhadas sobre métodos letais de automutilação.

A preocupação dos reguladores é manter os menores ou pessoas vulneráveis sempre informadas de que não estão a falar com um humano real. Pretendem que os próprios chatbots ajudem os utilizadores a procurar ajuda em situações de maior stress.