“O nosso mundo está em grande perigo. Enfrentamos um conjunto de ameaças que põem toda a humanidade em risco. Os nossos líderes não estão a responder com a sabedoria e urgência necessárias”. Esta é uma das passagens de uma nova carta aberta, assinada por várias personalidades mediáticas, que pedem aos líderes do mundo visão e estratégias de longo prazo para endereçar questões que podem conduzir a ameaças existenciais. Nesta lista de perigos iminentes colocam-se a inteligência artificial sem regras, a crise climática, as pandemias ou as armas nucleares.
Muitos dos nomes que assinam esta nova carta aberta, dirigida aos líderes do mundo e focada em perigos que podem converter-se em ameaças para a existência humana, defende-se, são conhecidos. O multimilionário Richard Branson, o antigo secretário-geral das Nações Unidas Ban Ki-moon, o neto do físico americano J. Robert Oppenheimer, Charles Oppenheimer, o ex-Primeiro Ministro britânico Gordon Brown e vários outros antigos chefes de governos estão na lista de signatários.
Dizem os signatários que os líderes mundiais precisam de ter “determinação para resolver problemas difíceis, não apenas para geri-los, sabedoria para tomar decisões baseadas em evidências científicas e na razão e a humildade de ouvir todos os que são afetados” por estas questões.
Sublinham que o impacto destes riscos já se fazem sentir e dão como exemplos as rápidas alterações no clima, os efeitos de uma pandemia que matou milhões e custou biliões, ou a proliferação das armas nucleares e acreditam que o pior ainda pode estar para vir, se nada de diferente for feito.
E o que pode ser feito? Pedem-se decisões e ações multilaterais que resultem da combinação de esforços de diversos atores. Por exemplo, ações concertadas para financiar a transição dos combustíveis fósseis ou para definir um quadro global que oriente a inteligência artificial para o bem.
Veja o vídeo
A carta foi lançada por uma organização não governamental fundada por Nelson Mandela para promover os direitos humanos e a paz mundial, a The Elders, em colaboração com a Future of Life Institute, que já tinha apoiado outra carta aberta lançada no ano passado, que alertava para os riscos existenciais do desenvolvimento sem controlo da inteligência artificial. Esta primeira carta reuniu também várias figuras públicas, como Elon Musk, fundador da Tesla e da SpaceX e dono da rede social X, ou Steve Wozniak.
Max Tegmark, do MIT, é um dos fundadores do Future of Life Institute e vai levar o texto à conferência de segurança de Munique, que decorre por estes dias. Numa entrevista à CNBC sobre esta nova carta lembrou que as novas tecnologias podem trazer o melhor, mas esse potencial pode ser posto em causa se o desenvolvimento andar mais rápido que a nossa capacidade de o compreender e moldar aos melhores interesses e fins.
“A velha estratégia para direcionarmos [novas evoluções tecnológicas] para bons usos, sempre foi a de aprender com os erros”, frisou o cosmólogo, dando alguns exemplos.
Inventámos o fogo e mais tarde os extintores. inventámos o carro e mais tarde os cintos de segurança e os limites de velocidade. “Mas quando o poder da tecnologia ultrapassa um limiar, a estratégia de aprender com os erros pode tornar-se péssima”, defendeu.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários