A Apple não está a fazer o suficiente para monitorizar a utilização das suas plataformas para guardar imagens e videos de abuso sexual de crianças, acusa a National Society for the Prevention of Cruelty to Children (NSPCC), do Reino Unido. A instituição beneficente denuncia que no último ano os predadores sexuais usaram o iCloud, o iMessage e o Facetime da Apple para armazenar e trocar conteúdos sexuais de crianças mais vezes só em Inglaterra e no País de Gales do que o número comunicado pela empresa em todo o mundo.

Os dados usados para a comparação são oficiais, além dos reportados pela Apple ao organismo americano competente, consideram-se os casos denunciados às autoridades britânicas, em que se verificou que os conteúdos estavam guardados em serviços da Apple.

Segundo os registos, partilhados com o The Guardian, entre 2022 e 2023 foram registados 337 crimes em Inglaterra e no País de Gales, envolvendo imagens de abuso infantil guardadas em plataformas da Apple. No mesmo período, a empresa reportou apenas 267 suspeitas deste tipo de crimes ao National Center for Missing & Exploited Children (NCMEC). Este reporte é obrigatório para todas as empresas de internet americanas. O organismo tem a competência de encaminhar depois as denúncias para as autoridades competentes de cada país.

Os números além de não baterem certo entre si, ficam muito além do volume de incidências que outras empresas do sector têm para partilhar, o que faz desconfiar ainda mais da eficácia da ação da empresa nesta área. No relatório anual entregue ao mesmo organismo a Google reportou 1,47 milhões de casos suspeitos e a Meta 30,6 milhões.

“A Apple está claramente atrás de muitos dos seus pares na luta contra o abuso sexual de crianças, quando todas as empresas de tecnologia deveriam estar a investir na segurança e a preparar-se para a implementação da Lei da Segurança Online no Reino Unido”, diz Richard Collard, responsável de politica online para a segurança das crianças do NSPCC.
Fotos de crianças utilizadas para treinar modelos de IA sem consentimento ou conhecimento
Fotos de crianças utilizadas para treinar modelos de IA sem consentimento ou conhecimento
Ver artigo

O mesmo responsável teme que o potencial da inteligência artificial generativa e os riscos conhecidos de acelerar a produção deste tipo de conteúdos agravem ainda mais o impacto da falta de ação da Apple no combate a este tipo de conteúdos.

A Apple não quis comentar as preocupações levantadas pela organização britânica. Remete para uma declaração divulgada no ano passado, onde explica que decidiu não avançar com um programa de análise de fotografias do iCloud para “dar prioridade à segurança e à privacidade dos [seus] utilizadores”.

Esta ferramenta ia permitir fazer uma análise prévia de todas as imagens que os utilizadores quisessem carregar no iCloud, antes de o fazerem. A análise serviria para comparar o conteúdo com as “impressões digitais” de imagens catalogadas em bancos de dados de pornografia infantil. A medida era criticada por organizações de defesa dos direitos digitais e apoiada por organizações de defesa dos direitos das crianças, mas a polémica levou a Apple a recuar.