A tecnologia de reconhecimento facial da Amazon tem vindo a ser alvo de uma crescente oposição nos EUA e agora pode haver mais 28 argumentos contra o Rekognition e o seu fornecimento a agências de segurança pública norte-americanas.
O sistema da Amazon identificou erradamente 28 membros do Congresso como sendo pessoas que foram acusadas de um crime, informou a União das Liberdades Civis Norte-Americana (ACLU, na sigla em inglês).
Os erros surgiram na sequência de teste no qual o grupo de liberdades civis usou o software facial da Amazon para comparar as fotos de todos os membros da Câmara e do Senado dos EUA com um banco de dados de 25 mil fotos de detidos.
"Acho que esses resultados enfatizam que existem aplicações de vigilância facial que não são seguras”, disse Jacob Snow, advogado da Fundação ACLU, alertando que esta tecnologia “será usada para impulsionar uma vigilância discriminatória e o policiamento que tem como alvo comunidades de cor, imigrantes e ativistas”.
Das 28 pessoas incorretamente identificadas pelo teste da ACLU, 40% (11) eram afro-americanos, embora estes representem apenas 20% no Congresso.
"O teste da ACLU demonstra sem sombra de dúvida o que muitos de nós já sabemos - que a ferramenta de reconhecimento facial da Amazon é discriminatória e, portanto, perigosa para a democracia", acusou Malkia Cyril, diretora executiva do Center for Media Justice.
A tecnologia foi anunciada pela gigante tecnológica em 2016 e, com base em inteligência artificial, o Rekognition pode identificar, seguir e analisar pessoas em tempo real e reconhecer até 100 pessoas em uma única imagem.
Em destaque
-
Multimédia
Ferrari revela interior do seu primeiro modelo elétrico. Design do Luce é criação de Jony Ive -
Site do dia
Atom Animation: a tabela periódica ganha vida em animações hipnotizantes -
App do dia
Salte de teia em teia e acompanhe as aventuras de uma pequena aranha com uma grande missão -
How to TEK
LinkedIn já começou a usar dados dos utilizadores para treinar IA. Veja como desativar
Comentários