A tecnologia de reconhecimento facial da Amazon tem vindo a ser alvo de uma crescente oposição nos EUA e agora pode haver mais 28 argumentos contra o Rekognition e o seu fornecimento a agências de segurança pública norte-americanas.
O sistema da Amazon identificou erradamente 28 membros do Congresso como sendo pessoas que foram acusadas de um crime, informou a União das Liberdades Civis Norte-Americana (ACLU, na sigla em inglês).
Os erros surgiram na sequência de teste no qual o grupo de liberdades civis usou o software facial da Amazon para comparar as fotos de todos os membros da Câmara e do Senado dos EUA com um banco de dados de 25 mil fotos de detidos.
"Acho que esses resultados enfatizam que existem aplicações de vigilância facial que não são seguras”, disse Jacob Snow, advogado da Fundação ACLU, alertando que esta tecnologia “será usada para impulsionar uma vigilância discriminatória e o policiamento que tem como alvo comunidades de cor, imigrantes e ativistas”.
Das 28 pessoas incorretamente identificadas pelo teste da ACLU, 40% (11) eram afro-americanos, embora estes representem apenas 20% no Congresso.
"O teste da ACLU demonstra sem sombra de dúvida o que muitos de nós já sabemos - que a ferramenta de reconhecimento facial da Amazon é discriminatória e, portanto, perigosa para a democracia", acusou Malkia Cyril, diretora executiva do Center for Media Justice.
A tecnologia foi anunciada pela gigante tecnológica em 2016 e, com base em inteligência artificial, o Rekognition pode identificar, seguir e analisar pessoas em tempo real e reconhecer até 100 pessoas em uma única imagem.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários