As gigantes tecnológicas têm vindo a ser mais diligentes no que toca à luta contra a disseminação de conteúdo ilegal. No entanto, uma investigação do The New York Times revela que as empresas não estão a tomar medidas suficientes, sendo que, em muitos casos, a sua atuação abre a porta à exploração sexual infantil online.

O PhotoDNA, desenvolvido em 2009 pela Microsoft em parceria com a Universidade de Dartmouth, é o método mais utilizado para detetar imagens ilegais na Internet. O software é capaz de reconhecer fotos, mesmo que tenham sido alteradas, através da comparação com conteúdo em bases de dados de pornografia infantil. No entanto, a empresa que desenvolveu o principal método de deteção de imagens ilegais é a mesma cujo motor de busca ainda apresenta diversos resultados de pornografia infantil.

Em janeiro deste ano, um relatório da startup de segurança AntiToxin, em parceria com a Tech Chunch, tinha revelado que o Bing estaria não só a apesentar conteúdo ilegal, mas também a sugerir termos e imagens relacionadas com exploração sexual infantil.

A equipa do The New York Times criou um programa de computador que vasculhou os arquivos do Bing, assim como de plataformas como como o Yahoo e o website Duck Duck Go, os quais têm por base o motor de busca da Microsoft, utilizando uma série de termos associados à exploração de crianças online. Ao todo foram encontradas 75 imagens ilegais, algumas das quais não correspondiam as que estão presentes nas bases de dados utilizadas pelo PhotoDNA.

As imagens foram reportadas ao National Center for Missing and Exploited Children e ao Canadian Center for Child Protection, duas organizações que têm como objetivo a luta contra a exploração infantil online. O jornal notificou também a Microsoft, sendo que, a empresa admitiu, após ter revisto as provas encontradas pela investigação, que existia uma falha no seu sistema de revisão de conteúdo ilegal.

O software desenvolvido foi também executado no motor de busca do Google e, embora não tenham surgido imagens de abusos nesta ocasião, o Canadian Center for Child Protection indicou que tal aconteceu anteriormente. Surgiram até casos em que a empresa se recusou a remover certas fotografias por, alegadamente, não preencherem os requisitos necessários à sua eliminação.

Uma vez que os criminosos combinam múltiplas tecnologias e plataformas para levar a cabo as suas intenções, os motores de busca não são os únicos locais online onde a pornografia infantil persiste. Os pedófilos recorrem cada vez mais aplicações de mensagens instantâneas para contactar com vítimas e a soluções de armazenamento da Cloud para partilhar imagens.

Autoridades não conseguem resolver os milhões de casos de pedofilia online identificados em 2018
Autoridades não conseguem resolver os milhões de casos de pedofilia online identificados em 2018
Ver artigo

Os esforços das empresas tecnológicas para travar o problema têm sido inconsistentes, embora tenham sinalizado, em 2018, cerca de 45 milhões de imagens e vídeos ilegais. Para muitas, as questões de privacidade levantadas continuam a ser um dos principais impedimentos.

Não perca as principais novidades do mundo da tecnologia!

Subscreva a newsletter do SAPO Tek.

As novidades de todos os gadgets, jogos e aplicações!

Ative as notificações do SAPO Tek.

Newton, se pudesse, seguiria.

Siga o SAPO Tek nas redes sociais. Use a #SAPOtek nas suas publicações.