
A carta foi revelada durante a International Joint Conference on Artificial Intelligence que está a decorrer em Buenos Aires e é assinada por algumas personalidades bem conhecidas, como Elon Musk e Stephen Hawking.
Os cientistas e investigadores admitem que está cada vez mais próxima a capacidade de produzir máquinas com inteligência artificial e com capacidade de autonomia e que a utilização para fins militares se torna um risco.
O cenário é bem conhecido de filmes de ficção científica, onde os robots se rebelam contra os humanos depois de dominarem a componente militar, iniciando uma guerra com recurso a armas nucleares, como acontece no novo filme da série Exterminador que agora chegou aos cinemas.
A carta alega que é preciso parar o desenvolvimento deste tipo de máquinas de guerra, que rapidamente vão dar azo a uma nova corrida ao armamento e a chegar às mãos e extremistas e líderes militares em zonas de conflito.
Mesmo a possibilidade de reduzir baixas de soldados humanos em campos de batalha é desvalorizada face à possibilidade destas armas autónomas se tornarem as Kalashnikovsdo futuro próximo.
O documento reconhece que há um grande potencial na inteligência artificial para benefício da humanidade nos próximos anos, nomeadamente no combate às doenças, redução da pobreza e na busca e salvamento, mas a associação com a indústria de armamento deveria ser proibida.
Elon Musk já tinha avisado que a utilização de inteligência artificial pode ser uma das grande ameaças para a humanidade e Steven Hawking fez também afirmações semelhantes, alertando que este pode ser o maior desenvolvimento da Humanidade mas também o último.
Pergunta do Dia
Em destaque
-
Multimédia
O árbitro já apitou: FC 26 joga-se nas quatro linhas em formato virtual -
App do dia
Chegou aos smartphones Disco Elysium: um dos melhores RPGs para PC e consolas -
Site do dia
TimeDay coloca o tempo sempre à vista para não perder o foco enquanto trabalha -
How to TEK
Saiba como criar grupos de separadores no Chrome e sincronize em todos os equipamentos
Comentários