O treino dos modelos de inteligência artificial, recorrendo a dados privados dos utilizadores das redes sociais continua na mira dos reguladores. Recentemente a Meta foi travada de lançar os seus modelos de IA generativa mais avançados na Europa, na sequência de um pedido do regulador irlandês que pediu o adiamento da recolha de dados dos utilizadores do Facebook e Instagram para treino do modelo, no país. No Reino Unido, foram os criadores que se juntaram numa aliança pelo uso indevido de conteúdos no treino de IA, apontando à Microsoft, Google, Meta, Apple e OpenAI.

Agora é a rede social X a ser criticada por utilizar dados pessoais de cerca de 60 milhões de utilizadores da União Europeia para treinar a sua tecnologia de IA, nomeadamente o Grok, sem informar ou pedir o consentimento. A queixa surge da organização não governamental austríaca Noyb, referindo-se a um período de treino que aconteceu em maio deste ano. A ONG é especialista em privacidade e acusa a rede social de Elon Musk de violar a RGPD de nove países: Áustria, Bélgica, França, Grécia, Irlanda, Itália, Países Baixos e Polónia e Espanha.

Ativistas fazem queixa da Meta em 11 países e questionam utilização de dados pessoais para treino de IA
Ativistas fazem queixa da Meta em 11 países e questionam utilização de dados pessoais para treino de IA
Ver artigo

Segundo a Noyb, por norma, processamento de dados pessoais é ilegal por defeito na União Europeia. Para processar dados pessoais, a rede social X precisa de se basear numa das seis bases legais presentes no RGPD, sendo que pela lógica, a base legal seria a opção de consentimento dos utilizadores. Mas a X, tal como tinha acontecido com a Meta, diz que tem um “interesse legítimo” que se sobrepõe aos direitos fundamentais dos utilizadores. Uma abordagem que a ONG diz que já foi rejeitado pelo tribunal no caso da Meta, no uso de dados pessoais para mirar publicidade, mas que o regulador irlandês parece ter “negociado” nos últimos meses sobre o “interesse legitimo”.

A Noyb aponta a rede social de nunca ter informado proactivamente os seus utilizadores de que os seus dados pessoais estavam a ser utilizados para treinar IA, “mesmo que lhes façam spam com notificações cada vez que alguém dá likes ou faz retweets dos seus posts”. Refere ainda que parece que as pessoas descobriram que estavam a ser utilizados os seus dados através de um post viral de um utilizador chamado EasyBakedOven no final de julho.

Bastaria que as empresas, como o X, utilizassem o mecanismo mais simples fornecido pela RGPD, o pedido de consentimento para o uso dos dados no treino, aponta a Noyb. “Mesmo que apenas um pequeno número dos 60 milhões de utilizadores consentisse o treino dos sistemas de IA, o Twitter teria dados mais que suficientes para treinar qualquer modelo”. Mas para a Noyb, pedir permissões às pessoas não é a abordagem atual da rede social, em vez disso utiliza os dados sem os informar ou ter a respetiva permissão.