Um grupo de investigadores norte-americanos e europeus decidiu apresentar um conjunto de imagens de membros do Congresso do Estados Unidos aos serviços de reconhecimento de imagem da Google, Amazon e Microsoft. O resultado? A tecnologia demonstrou que é capaz de ser preconceituosa em relação ao aspeto das mulheres, em especial, no caso do sistema desenvolvido pela gigante de Mountain View.

O estudo detalha que as imagens com figuras de homens eram frequentemente associadas a termos como “empresário” ou “funcionário de alto escalão”. Já no que toca às mulheres, as imagens eram associadas a palavras como “sorriso”, “beleza” ou “penteado”.

Em declarações ao website Wired, Carsten Schwemmer, investigador do GESIS – Leibniz Institute for the Social Sciences na Alemanha que participou no estudo, detalha que a ideia por trás de todo o trabalho surgiu após uma experiência com o serviço de reconhecimento de imagem da Google.

Os investigadores apresentaram-lhe a conhecida fotografia “Crying Girl on the Border” de John Moore, vencedora do prémio World Press Photo em 2019. Perante o retrato da criança hondurenha que chorava à medida que a sua mãe era revistada e detida pelas autoridades de controlo das fronteiras dos EUA, a inteligência artificial da Google sugeriu legendas como “diversão”.

Inicialmente, Schwemmer e os seus colegas começaram a fazer experiências com a tecnologia da Google para encontrar padrões na forma como as pessoas recorrem a imagens para falar de política online. A partir daí, os investigadores começaram a aperceber-se do enviesamento da tecnologia em relação a questões de género.

Embora tenha sido publicado em novembro deste ano, o estudo recorre a dados recolhidos em 2018. Para verificar se os preconceitos se mantinham, o website decidiu replicar a experiência, com 20 fotos oficiais de senadores do Estado da Califórnia.

O serviço da Google legendou as 10 fotos de homens como “empresário” ou “trabalhador administrativo”. Apenas 5 das 10 mulheres apresentadas foram descritas com os mesmos termos. Só as senadoras é que receberam legendas associadas ao seu aspeto. Os serviços de reconhecimento de imagem da Amazon e Microsoft demonstraram-se um pouco menos preconceituosos, apesar de demonstrarem dificuldades em identificar corretamente a idade e o género dos senadores.

Onda de contestação cresce por críticas de racismo nos algoritmos de reconhecimento facial do Twitter e Zoom
Onda de contestação cresce por críticas de racismo nos algoritmos de reconhecimento facial do Twitter e Zoom
Ver artigo

As conclusões dos investigadores norte-americanos e europeus voltam a lembrar que os algoritmos replicam certos preconceitos ou tendências discriminatórias. Recorde-se que, ainda em setembro, o Twitter e o Zoom enfrentaram uma onda de contestação nas redes sociais devido à utilização de algoritmos tendenciosos que tinham problemas ao reconhecer os rostos de pessoas negras.

Outro dos casos mais recentes relaciona-se com uma ferramenta chamada Face Depixelizer. Apesar de ter sido desenvolvida para ajudar na reconstrução de imagens muito pixelizadas ou pouco nítidas, vários utilizadores mostraram que os resultados revelam a tendência para que a fotografia final revele rostos masculinos brancos, já que os algoritmos foram treinados sobretudo com bases de dados com esse tipo de imagens.

Mas, o preconceito nos sistemas de IA vai além do reconhecimento de imagens e um estudo da Stanford University deu a conhecer que os sistemas de reconhecimento de voz da Amazon, Apple, Google, IBM e Microsoft não estão preparados para identificar corretamente o que indivíduos de diferentes raças dizem.