No início de agosto a Apple deu a conhecer os seus planos de implementação de uma tecnologia que permite detetar imagens de abuso sexual de crianças nas mensagens dos iPhones. A medida teve apoiantes, mas também levantou múltiplas críticas e preocupações pela eventual utilização indevida da tecnologia e até uma coligação composta por mais de 90 grupos de defesa de direitos publicaram uma carta a apelar à Apple para que abandonasse os seus planos.

Perante as críticas e preocupações a Apple decidiu adiar a implementação do sistema de modo a poder melhorá-lo. Inicialmente, a gigante de Cupertino tencionava implementar a tecnologia na próxima atualização dos seus sistemas operativos, cujo lançamento público está previsto para este Outono. Para já, ainda não há uma nova data de implementação do sistema.

“Com base no feedback dos nossos clientes, grupos ativistas, investigadores e outras entidades, decidimos levar mais algum tempo ao longo dos próximos meses para recolher opiniões e fazer melhorias antes de lançarmos estas funcionalidades extremamente importantes de proteção de crianças”, afirma a empresa em comunicado à imprensa internacional.

Sistema da Apple que deteta imagens de abuso sexual debaixo de críticas por violar privacidade e ser usado para outros fins
Sistema da Apple que deteta imagens de abuso sexual debaixo de críticas por violar privacidade e ser usado para outros fins
Ver artigo

Recorde-se que o sistema, que a Apple batizou de NeuralHash, reconhece as mensagens nocivas, mas sem desencriptar as mesmas. Caso haja uma correspondência, a imagem em questão é analisada por uma pessoa, que pode depois notificar as autoridades, caso seja necessário.

A tecnologia é capaz de cruzar as imagens detetadas com materiais que fazem parte de uma lista fornecida pelo norte-americano National Center for Missing and Exploited Children (NCMEC), assim como outras organizações de proteção de crianças, antes das mesmas entrarem na iCloud.

A tecnologia conta recorre ainda a Inteligência Artificial, através da Siri, para gerar avisos quando um utilizador procura por conteúdo relacionado com abuso sexual de crianças, assim como para avisar os mais novos caso estejam prestes a deparar-se com imagens sexualmente explícitas enviadas através do iMessage.

tek apple encriptação
tek apple encriptação

O sistema foi amplamente criticado, existindo preocupações em torno da privacidade dos utilizadores e em relação à possibilidade de poder ser usado por governos autoritários para censurar e reprimir os seus cidadãos. Além disso, vários especialistas acreditam que a tecnologia chega a violar os protocolos de encriptação ponta-a-ponta.

À medida que a Apple se tentava defender das críticas, alegando ter sido mal interpretada, uma coligação internacional composta por mais de 90 organizações civis e grupos de defensores de direitos, publicaram uma carta aberta à gigante tecnológica.

Coligação internacional pede à Apple para abandonar sistema de inspeção às mensagens partilhadas
Coligação internacional pede à Apple para abandonar sistema de inspeção às mensagens partilhadas
Ver artigo

“Apesar do sistema ser intencionado para proteger as crianças e reduzir a propagação de conteúdo de abuso sexual de menores, estamos preocupados com a possibilidade de ser usado para censurar o discurso protegido, ameaçar a privacidade e segurança das pessoas em todo o mundo, e tendo consequências desastrosas para muitas crianças”, pode ler-se na carta.

Os ativistas pediram à empresa liderada por Tim Cook que abandonasse os seus planos e que reafirmasse o seu compromisso na proteção dos dados dos utilizadores com encriptação ponta-a-ponta. Foi também pedido à Apple que consultasse com maior regularidade os grupos dedicados a causas civis e a comunidades vulneráveis que possam sofrer consequências negativas quando existem mudanças nos seus produtos e serviços.