Um bug no chatbot Grok da rede social X terá sido causado por uma modificação não autorizada ao modelo de IA. Esse bug terá alterado as respostas dadas pelo bot com tendência a serem obcecadas com o “genocídio branco” ocorrido na África do Sul. O modelo apresentava respostas com o tema, mesmo em tópicos de conversa que nada tinham a ver, mas eram ativados em certos contextos, avança o Tech Crunch.

Na última quarta-feira, o bot começou a responder a dezenas de posts no X com informação do genocídio, quando solicitado para questões diversas. Na rede social X é possível pedir ao Grok que comente o assunto dos posts, bastando os utilizadores ativarem a função @grok.

Na conta oficial da xAI, divisão que trabalha o modelo de inteligência artificial Grok, é explicado que o sistema recebeu uma modificação não autorizada na prompt de resposta na X. Essa mudança, que oferecia uma resposta específica em tópicos de política, violou as políticas internas da xAI e valores de base. “Conduzimos uma investigação a fundo e estamos a implementar medidas para melhorar a transparência do Grok e confiança.

Nesse sentido, a xAI compromete-se a partir de agora publicar o seu sistema de prompts de forma aberta no GitHub. “O público vai poder analisar e dar o feedback para todas as mudanças na prompt que fizermos ao Grok. Esperamos que isso ajude a reforçar a vossa confiança no Grok, como uma IA que procura sempre a verdade”.

A empresa diz ainda que o processo atual de revisão de código para mudanças de prompt tinha sido contornado neste incidente. E com isso vai adicionar verificações adicionais e medidas para garantir que os empregados da xAI não possam modificar a prompt sem revisão. “Vamos colocar uma equipa de monitorização 24/7 par responder a incidentes com as respostas do Grok que não sejam detetadas nos sistemas automatizados, para que possamos responder mais rapidamente caso as outras medidas falhem".