Não é novidade que o patrão da Tesla tem reservas  quanto à Inteligência Artificial (IA) e aos perigos que pode vir a representar, pelo que faz todo o sentido que se tenha unido a outros empreendedores e organizações tecnológicas em uma promessa global contra o desenvolvimento de sistemas de armas autónomas que usem IA.

O texto diz que os sistemas que usam Inteligência Artificial para atacar alvos sem intervenção humana apresentam riscos morais e pragmáticos, uma vez que a decisão de tirar uma vida humana "nunca deve ser delegada a uma máquina" e que isso seria um factor de instabilidade "para cada país e indivíduo".

Elon Musk entre os mais de 100 líderes tecnológicos preocupados com robots assassinos
Elon Musk entre os mais de 100 líderes tecnológicos preocupados com robots assassinos
Ver artigo

"A IA está preparada para desempenhar um papel crescente nos sistemas militares, pelo que há uma oportunidade urgente e uma necessidade dos cidadãos, legisladores e líderes em distinguir entre os usos aceitáveis e inaceitáveis da inteligência artificial”, refere o documento assinado por mais de 160 organizações e 2.400 pessoas de 90 países.

Embora considere que o compromisso que saiu da Joint Conference on Artificial Intelligence, em Estocolmo, seja uma iniciativa louvável, uma investigadora da Universidade de Oxford defende que foi adotada uma abordagem “simplista demais”.

"O texto não menciona usos mais iminentes e impactantes da IA ​​no contexto de conflitos internacionais", esclarece Mariarosaria Taddeo, do Oxford Internet Institute que alerta que, ao concentrarem as atenções em robots “assassinos”, os signatários do acordo desviam o debate de questões mais fundamentais, como o uso da IA em matérias de cibersegurança nacional.

Google assume compromisso ético com o sector militar
Google assume compromisso ético com o sector militar
Ver artigo

A investigadora alerta ainda que os "conflitos cibernéticos estão a aumentar em frequência, impacto e sofisticação" e que a inteligência artificial “não é apenas sobre robótica, mas também sobre o não-físico, o cibernético”. E para isso não há regulamentação, aponta. "Não há normas sobre o comportamento dos Estados no ciberespaço. E não sabemos por onde começar”, conclui.