Em 2022, um jovem de 16 anos percorria o seu feed, quando lhe foi recomendado um vídeo de um atropelamento, um monólogo de um influencer a comentários misóginos e clips de lutas violentas.  Andrew Kaung, um analista de segurança que trabalhava no TikTok, em Dublin, fez uma análise ao que os algoritmos da app recomendavam aos utilizadores, incluindo jovens de 16 anos, e ficou alarmado por verificar que rapazes adolescentes viam publicações com violência, pornografia e promoção de pontos de vista misóginos.

A história é contada pela BBC Panorama que recorda que uma nova lei no Reino Unido, vai obrigar as empresas de redes sociais a verificar a idade das crianças e a impedir que os sítios recomendem pornografia ou outros conteúdos nocivos aos jovens, mitigando a hipótese de repetição da história de Cai.

Caso de menina que morreu a fazer desafio no TikTok segue para julgamento
Caso de menina que morreu a fazer desafio no TikTok segue para julgamento
Ver artigo

Nos termos da lei britânica da segurança online, “os serviços regulamentados terão de identificar os riscos de danos para os seus utilizadores e tomar medidas para os proteger de conteúdos ilegais”. Além disso, os serviços suscetíveis de serem utilizados por crianças no Reino Unido também “terão de identificar os riscos para as crianças e tomar as medidas adequadas para as proteger de alguns tipos de conteúdos nocivos”.

“Embora os conteúdos nocivos que afetam predominantemente as mulheres jovens (como os vídeos que promovem distúrbios alimentares e a automutilação) tenham estado, com razão, no centro das atenções, os algoritmos que conduzem ao ódio e à violência sobretudo dirigido a rapazes e homens adolescentes têm recebido menos atenção” diz Almudena Lara, diretora de desenvolvimento da política de segurança online do Ofcom, a autoridade reguladora e de concorrência para os sectores das comunicações do Reino Unido.

Amnistia Internacional alerta para riscos do TikTok que pode incentivar pensamentos depressivos, automutilação e suicídio
Amnistia Internacional alerta para riscos do TikTok que pode incentivar pensamentos depressivos, automutilação e suicídio
Ver artigo

A responsável assinala que “tende a ser uma minoria [de crianças] que é exposta aos conteúdos mais nocivos. Mas sabemos que, uma vez expostos a esse conteúdo nocivo, ele torna-se inevitável”, diz Almudena Lara. A Ofcom diz que pode multar as empresas e instaurar processos criminais se elas não fizerem o suficiente, mas as medidas só entrarão em vigor em 2025.

O artigo explica que o TikTok e outras redes sociais utilizam ferramentas de Inteligência Artificial para remover a maioria dos conteúdos nocivos e assinalar conteúdos para revisão por moderadores humanos. Atualmente, o TikTok diz que 99% do conteúdo que remove por violar as suas regras é retirado por IA ou moderadores humanos antes de atingir 10 mil visualizações. Adianta também que efetua investigações proactivas em vídeos com menos do que este número de visualizações. Esta é uma situação preocupante, pois muitas das redes sociais aceitam crianças a partir dos 13 anos.

Bastam 20 minutos para Instagram recomendar conteúdos “picantes” a menores de idade
Bastam 20 minutos para Instagram recomendar conteúdos “picantes” a menores de idade
Ver artigo

Andrew Kaung trabalhou anteriormente na Meta (entre 2019/20) e conta que aí, apesar da maioria dos vídeos serem removidos ou assinalados para os moderadores por ferramentas de IA, o site dependia dos utilizadores para denunciar outros vídeos que, entretanto, já tinham visto. O analista de segurança reportou as suas preocupações às empresas, mas a reação foi principalmente inação, “devido à quantidade de trabalho ou custos envolvidos”.

Isso deixa “os utilizadores mais jovens em risco”, embora se tenha verificado, entretanto, alguma evolução nesta seleção de conteúdos. Vários antigos colaboradores das empresas de redes sociais confirmaram à BBC que as preocupações de Andrew Kaung eram consistentes com os seus próprios conhecimentos e experiências.

O regulador britânico, Ofcom, confirmou à BBC que “os algoritmos de todas as grandes empresas de redes sociais têm recomendado conteúdos nocivos para as crianças, mesmo que não intencionalmente. As empresas têm feito vista grossa e tratam as crianças como tratam os adultos”, disse Almudena Lara.

O TikTok admitiu também ao jornal que tem configurações de segurança “líderes na indústria” para adolescentes e mais de 40 mil trabalhadores a cuidar de manter os utilizadores seguros. A Meta, que detém o Instagram e o Facebook, afirma ter mais de 50 ferramentas, recursos e funcionalidades diferentes para proporcionar aos adolescentes “experiências positivas e adequadas à idade”.

Reino Unido quer utilizar inteligência artificial para proteger a atividade online das crianças
Reino Unido quer utilizar inteligência artificial para proteger a atividade online das crianças
Ver artigo

Entretanto, o jovem de 16 anos referido tentou utilizar as ferramentas do Instagram e do TikTok para assinalar que não estava interessado em conteúdo violento ou misógino, mas continuaram a aparecer recomendações. Indica também que as raparigas da sua idade recebem recomendações de vídeos sobre temas como música e maquilhagem, e não de violência.

Andrew Kaung explicou que o “combustível” dos algoritmos é o envolvimento, independentemente de este ser positivo ou negativo. O que significa que ao comentar “não gosto deste tipo de conteúdo”, está a dar-se o sinal oposto ao algoritmo. As recomendações iniciais baseiam-se nas preferências partilhadas pelos utilizadores e nas preferências de outros utilizadores da mesma idade e local. O TikTok garante que os algoritmos não são informados pelo género do utilizador, mas Andrew Kaung afirma que “os interesses que os adolescentes expressam quando se inscrevem têm muitas vezes o efeito de os dividir em função do género”.

O analista recorda que os algoritmos foram concebidos para maximizar o envolvimento, mostrando aos utilizadores vídeos que esperam que passem mais tempo a ver, a comentar ou a gostar, para que voltem para ver mais. O algoritmo que recomenda conteúdos para a “Página para ti” do TikTok “nem sempre distingue entre conteúdos nocivos e não nocivos”. As equipas envolvidas na formação e codificação dos algoritmos, “vêm o número de visualizadores, idade, tendências e outros dados abstratos, mas não são necessariamente expostos ao conteúdo”.

Estado de Nova Iorque pioneiro na restrição do "viciante" algoritmo das redes sociais a menores
Estado de Nova Iorque pioneiro na restrição do "viciante" algoritmo das redes sociais a menores
Ver artigo

O TikTok declarou à BBC que há dois anos, já tinha moderadores especializados, que tem contratado mais, acrescentando que “separou diferentes tipos de conteúdos nocivos — naquilo a que chama filas — para os moderadores”.

“Estamos a pedir a uma empresa privada, cujo interesse é promover os seus produtos, que se modere, o que é como pedir a um tigre que não nos coma”, concluiu Andrew Kuang.