O trabalho foi divulgado esta quarta-feira pelo jornal israelita Sicha Mekomit (que se identifica como +972 na versão inglesa) e baseado em fontes dos serviços secretos, refere que os soldados adotaram inquestionavelmente as "listas de morte" recomendadas por um sistema de IA, que até agora não tinha sido utilizado, o Lavender.

Depois de os nomes surgirem, agentes humanos gastaram cerca de 20 segundos em cada alvo antes de autorizar um bombardeamento, simplesmente para garantir que o alegado combatente era um homem, detalha a investigação.

O jornal destaca, no entanto, que o Lavender não é tão sofisticado e apresenta uma margem de erro em cerca de 10% dos casos, podendo por isso ocasionalmente incriminar "indivíduos que têm apenas uma ligação ténue com grupos militantes, ou nenhuma ligação".

Além disso, segundo a reportagem, o Exército atacou essas pessoas, muitos possíveis combatentes de baixa patente, sistematicamente nas suas casas e "normalmente à noite, enquanto toda a sua família estava presente", considerando-os um alvo mais fácil, aumentando a número de mortes de civis.

As imagens de satélite mostram a destruição registada desde o início dos ataques de Israel

"Não estávamos interessados em matar agentes [do Hamas] apenas quando estes estavam em um edifício militar ou a participar numa operação militar", contou um oficial de inteligência ao +972.

Israel está a usar inteligência artificial para identificar alvos em Gaza
Israel está a usar inteligência artificial para identificar alvos em Gaza
Ver artigo

"Pelo contrário, as Forças de Defesa de Israel bombardearam [os alegados combatentes] nas suas casas, sem hesitação, como primeira opção", acrescentou, alegando que "o sistema está desenhado para procurá-los nestas situações".

Nas primeiras semanas da guerra, segundo duas fontes anónimas citadas pela investigação, o Exército decidiu que o ataque contra qualquer agente do Hamas identificado por Lavender poderia resultar na morte de "15 ou 20 civis", uma proporção de baixas não-combatentes sem precedentes.

Além disso, o Exército preferiu utilizar mísseis não guiados contra estes militantes de menor escalão, vulgarmente conhecidos como "bombas mudas" e documentados em Gaza no final de dezembro pela estação CNN, capazes de destruir edifícios inteiros e causar outras vítimas.

"Não é aconselhável desperdiçar bombas caras com pessoas sem importância. É muito caro para o país e há escassez [dessas bombas]", explicou um oficial de inteligência a esta reportagem, sob condição de anonimato.

De acordo com esta investigação, o uso deste e de outros sistemas de IA como o "Gospel", baseado em algoritmos, estará relacionado ao elevado número de mortes de civis na Faixa de Gaza, já que segundo números israelitas não verificados, 13 mil mortes teriam alguma relação com grupos islamitas entre mais de 32.900 mortos reportados pelas autoridades do enclave, sem contar os milhares de corpos que permanecem sob toneladas de escombros.

Dados divulgados na terça-feira pelo Banco Mundial apontaram que 84% das instalações médicas no enclave palestiniano também foram danificadas ou destruídas, o sistema de água e saneamento está quase em colapso, com 5% da sua produção, e as estradas e infraestruturas foram devastadas pelas forças israelitas.

A guerra na Faixa de Gaza é uma resposta de Israel ao ataque sem precedentes de 07 de outubro do ano passado de combatentes do Movimento de Resistência Islâmica (Hamas) -- desde 2007 no poder na Faixa de Gaza e classificado como organização terrorista pelos Estados Unidos, a União Europeia e Israel -- em território israelita, que fez 1.163 mortos, na maioria civis, e 250 reféns, cerca de 130 dos quais permanecem em cativeiro e 34 terão entretanto morrido, segundo o mais recente balanço das autoridades israelitas.