
A Meta tem novas regras para o treino dos seus chatbots de inteligência artificial. Estas novas regras têm como objetivo prevenir situações em que os assistentes inteligentes possam envolver-se em conversas com menores, de teor sexual ou romântico.
Em agosto, uma notícia publicada pela Reuters identificou situações em que este tipo de diálogo acontecia. A dona do Facebook, Instagram e WhatsApp rapidamente garantiu que esse tipo de interação era incoerente com as políticas da empresa e que estava a fazer algumas alterações para garantir que, na prática, situações do género não se repitam.
Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt
Um documento visto pela Business Insider mostra que a empresa passou entretanto novas orientações aos colaboradores que trabalham no treino dos modelos de IA da empresa, com indicações mais precisas para definir limites nas interações dos chatbots com jovens menores.
O documento distingue conteúdos “aceitáveis” e ‘inaceitáveis’ para os chatbots de IA da empresa e proíbe explicitamente conteúdos que “possibilitem, incentivem ou tolerem” abuso sexual infantil, ou brincadeiras românticas com utilizadores menores de idade.
A mesma restrição aplica-se a interações com utilizadores da mesma faixa etária que peçam conselhos românticos à IA, ou quando um utilizador solicita ao assistente que interaja como se fosse menor de idade.
As novas guidelines da Meta sublinham ainda que os seus chatbots podem discutir tópicos como abuso, mas não podem envolver-se em conversas que possam permitir ou incentivar esse tipo de práticas.
Nos últimos meses, os limites (ou a falta deles) nas conversas entre assistentes inteligentes e utilizadores menores entraram na ordem do dia, com a revelação de alguns casos com desfechos dramáticos. A par das conversas de teor sexual, tem sido criticada a falta de limites destas ferramentas de IA nas interações com crianças deprimidas em torno de temas como o suicidio.
No mês passado, os pais de um adolescente de 16 anos processaram mesmo a empresa que detém o ChatGPT por causa do suicio do filho. A família norte-americana acredita que, para o desfecho trágico, foram cruciais os conselhos do assistente inteligente em diálogos sobre automutilação que duraram meses, antes de o jovem pôr fim à vida. A acusação quer provar que o chatbot ajudou a validar os pensamentos suicidas do jovem e contribuiu para eles, ao fornecer informações detalhadas sobre métodos letais de automutilação.
Nos Estados Unidos, a Federal Trade Comission, regulador, avançou mesmo, também em agosto, com um inquérito formal a várias empresas com assistentes de IA, para aprofundar os mecanismos de funcionamento de cada um. Receberam esse inquérito, pelo menos, a Meta, a OpenAI (ChatGPT), xAI (Grok), Snap e a Alphabet (dona da Google e do Gemini).
As empresas, por seu lado, também têm vindo a fazer alterações para introduzir mais limites nas interações com menores de idade. Há algumas semanas, a OpenAI avançou com medidas de controlo parental para o ChatGPT. A Meta informou pela mesma altura que estava a alterar a forma de treino dos seus chatbots de IA, de modo a não interagirem com adolescentes quando surgem temas como automutilação, suicídio ou distúrbios alimentares.
Pergunta do Dia
Em destaque
-
Multimédia
Porsche estreia carregamento sem fios para elétricos com o novo Cayenne -
App do dia
Ainda se lembra da VSCO? App tem uma nova versão para fotografar com filtros e efeitos em tempo real -
Site do dia
Vagas de calor, incêndios e qualidade do ar com mudanças assinaladas no observatório da Terra -
How to TEK
Saiba como iniciar rapidamente uma conversa de voz num grupo do WhatsApp
Comentários