O secretário-geral da ONU, António Guterres, manifestou-se hoje "profundamente perturbado" com os relatos do uso de inteligência artificial (IA) nos ataques israelitas em Gaza, resultando num elevado nível de vítimas civis, e defendeu "mudanças significativas no terreno".

António Guterres referia-se a um estudo que dá conta que, nos primeiros dias da guerra na Faixa de Gaza, o Exército israelita dependeu quase inteiramente de um sistema de Inteligência Artificial (IA) que identificou 37.000 palestinianos como suspeitos de pertencerem ao Hamas.

Divulgado pelo jornal israelita Sicha Mekomit (que se identifica como +972 na versão inglesa) esta quarta-feira e baseado em fontes dos serviços secretos, o trabalho refere que os soldados adotaram inquestionavelmente as "listas de morte" recomendadas por um sistema de IA, que até agora não tinha sido utilizado, o Lavender.

Israel usou Inteligência Artificial para criar "listas de morte" e marcou 37 mil palestinianos como possíveis combatentes
Israel usou Inteligência Artificial para criar "listas de morte" e marcou 37 mil palestinianos como possíveis combatentes
Ver artigo

Depois de os nomes surgirem, agentes humanos gastaram cerca de 20 segundos em cada alvo antes de autorizar um bombardeamento, simplesmente para garantir que o alegado combatente era um homem, detalha a investigação.

O jornal destaca, no entanto, que o Lavender não é tão sofisticado e apresenta uma margem de erro em cerca de 10% dos casos, podendo por isso ocasionalmente incriminar "indivíduos que têm apenas uma ligação ténue com grupos militantes, ou nenhuma ligação".

Além disso, segundo a reportagem, o Exército atacou essas pessoas, muitos possíveis combatentes de baixa patente, sistematicamente nas suas casas e "normalmente à noite, enquanto toda a sua família estava presente", considerando-os um alvo mais fácil, aumentando a número de mortes de civis.

As imagens de satélite mostram a destruição registada desde o início dos ataques de Israel

Nas primeiras semanas da guerra, segundo duas fontes anónimas citadas pela investigação, o Exército decidiu que o ataque contra qualquer agente do Hamas identificado por Lavender poderia resultar na morte de "15 ou 20 civis", uma proporção de baixas não-combatentes sem precedentes.

Além disso, o Exército preferiu utilizar mísseis não guiados contra estes militantes de menor escalão, vulgarmente conhecidos como "bombas mudas" e documentados em Gaza no final de dezembro pela estação CNN, capazes de destruir edifícios inteiros e causar outras vítimas.

"Não é aconselhável desperdiçar bombas caras com pessoas sem importância. É muito caro para o país e há escassez [dessas bombas]", explicou um oficial de inteligência a esta reportagem, sob condição de anonimato.

De acordo com esta investigação, o uso deste e de outros sistemas de IA como o "Gospel", baseado em algoritmos, estará relacionado ao elevado número de mortes de civis na Faixa de Gaza, já que segundo números israelitas não verificados, 13 mil mortes teriam alguma relação com grupos islamitas entre mais de 32.900 mortos reportados pelas autoridades do enclave, sem contar os milhares de corpos que permanecem sob toneladas de escombros.