Na semana passada, a Apple revelou que a sua aplicação de mensagens ia começar a ter a capacidade de identificar e alertar utilizadores e entidades sobre conteúdos mais sensíveis, tais como abuso sexual de menores, por exemplo. A ferramenta, que a Apple batizou de “neuralHash” reconhece as mensagens nocivas, mas sem desencriptar as mensagens. Caso haja uma correspondência abusiva, essa imagem vai ser analisada por uma pessoa, que depois pode notificar as autoridades, caso seja necessário.
Desde logo a tecnologia levantou críticas, tais como a sua utilização indevida, como a utilização deste instrumento para controlar pessoas inocentes, enviando-lhes imagens banais, mas desenhadas para parecerem pornografia infantil, enganando o algoritmo da Apple levando ao alerta das forças policiais, essencialmente controlando as pessoas.
A tecnologia da Apple envolve equipamentos que cruzam imagens com uma lista que contem material com abuso sexual de crianças (CSAM na sigla inglesa) fornecida pelo Centro Nacional para crianças desaparecidas e abusadas (NCMEC) e outras organizações de proteção das crianças, antes das mesmas entrarem no iCloud. A tecnologia conta ainda com a ajuda da IA Siri para gerar avisos quando um utilizador procura conteúdo CSAM, assim como utiliza machine learning para avisar as crianças quando as mesmas estão prestes a ver mensagens sexualmente explicitas enviadas no iMessage. A Apple diz que as fotos são borradas e as crianças avisadas, juntamente com diversos recursos úteis. Os pais dessas crianças poderão mesmo avisados através de mensagens se as estas tiverem acesso às imagens.
Durante o fim-de-semana, a Electronic Frontier Foundation fez críticas ao sistema, escreve a ZDNet, referindo-se a estas medidas como uma “porta dos fundos”. A fundação diz que basta passar algum tempo a assistir as estas "guerras da encriptação", para saber o que isto significa: “A Apple está a planear a construção de uma porta dos fundos para o sistema de armazenamento de dados e o seu sistema de messaging”. Acusa a empresas da maçã de poder explicar qual a dimensão da sua implementação técnica e como esta vai preservar a segurança e privacidade na sua porta proposta, “mas apesar de tudo estar documentado, pensado com cautela, não deixa de ser uma porta dos fundos.
As críticas vão mais longe, referindo que uma vez que o sistema esteja em funcionamento, será simples mudar o sistema para outro tipo de pesquisas, de qualquer tipo de conteúdo, como o próximo passo. E diz que o sistema poderá ser abusado em diversos exemplos fáceis de pensar: governos que têm leis contra a homossexualidade podem obrigar o sistema a ser treinado para restringir conteúdo LGBTQ+. Ou um regime autoritário que possa intercetar imagens satíricas ou prospetos protestantes.
A organização diz ainda que se o iMessage começar a fazer o scan das imagens que são enviadas e recebidas, então a plataforma deixa de ser encriptada “end-to-end”. Refuta que as palavras da Apple em que o sistema apenas faz o scan antes e depois da mensagem ser encriptada e desencriptada no destinatário é uma pura manobra semântica para encobrir a mudança de ideias da empresa sobre uma encriptação forte.
A tecnologia da Apple já mereceu também uma reação do Facebook, através do líder do WhatsApp, Will Cathcart, dizendo que a plataforma não vai adotar a mesma filosofia da Apple, mantendo o seu sistema de comunicação dos materiais pelos seus utilizadores. O WhatsApp também aponta baterias à “construção e operação de um sistema de vigilância que pode facilmente ser usado para inspecionar conteúdo privado de tudo o que a empresa ou um governo decida que quer tomar controlo”.
Acrescenta ainda que os países onde os iPhones são vendidos têm diferentes definições naquilo que é aceitável. E dá como exemplo de como o sistema poderia funcionar na China, e o que aconteceria quando a comunidade de hackers conseguisse encontrar vulnerabilidades no sistema.
A abordagem do WhatsApp é um pouco diferente no que diz respeito à investigação das imagens, mas o scan fica-se pelo conteúdo não encriptado, nomeadamente o perfil e fotos em grupo, quando procura por material relacionado com abuso de menores. O seu sistema de machine learning classifica informações em texto, como os perfis dos utilizadores, descrições do grupo, de forma a avaliar qualquer suspeita dos mesmos.
Os críticos referem que a Apple parece agora desesperada em evitar a construção de uma funcionalidade realmente segura e de confiança para os seus produtos de comunicação, pois até agora, o iMessage não tem mecanismos de reportar spam, ameaças de morte, discurso de ódio, conteúdo de exploração de menores ou outros abusos. Pede-se, em vez do novo sistema, este tipo de ferramentas de comunicação de infrações, assim como uma equipa de investigação quando é feito queixas de abusos.
Nota de redação: notícia atualizada com mais informação. Última atualização. 16h12.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários