A inteligência artificial generativa, nomeadamente a tecnologia da OpenAI, o GPT, é um dos principais assuntos do ano, sobretudo a forma com está a afetar os negócios, empresas e utilizadores no geral. Desde a forma como a tecnologia GPT-4 está a mudar o trabalho ou como esta pode ser utilizada de forma ilícita, não passa ao lado das autoridades que já deixaram o alerta.
Ainda que se reconheçam as suas vantagens (e desvantagens), o treino da IA generativa está a levantar preocupações generalizadas. E foi publicada uma carta aberta, assinada por mais de mil nomes ligados a organizações e empresas a nível global, onde é pedido aos laboratórios de IA, tais como a OpenAI, que pausem os treinos de sistemas para lá do GPT-4.
A carta conta com mais de mil assinaturas, destacando-se nomes como Elon Musk (Tesla, SpaceX, Twitter), Steve Wozniak (cofundador da Apple) ou Evan Sharp (cofundador do Pinterest). A lista é extensa, com nomes ligados à tecnologia, comunidade científica, investigadores, académicos e professores, onde consta Luis Moniz Pereira, professor Emeritus da Universidade Nova de Lisboa.
O documento refere que os sistemas de IA podem colocar em risco a sociedade e a humanidade, segundo alguns estudos publicados, algo que os próprios laboratórios de investigação têm conhecimento das suas limitações. “A IA avançada pode representar uma mudança profunda na história da vida na Terra, e deverá ser planeada e gerida com cuidado e recursos”, lê-se na carta, que acusa a exatamente a falta de planeamento e gestão. Isso resultou numa “corrida desenfreada dos laboratórios de IA para desenvolver e lançar mentes digitais cada vez mais poderosas que ninguém, nem mesmo os seus criadores, podem compreender, prever ou ter controlo”.
Entre as preocupações encontra-se a competição de tarefas gerais entre os sistemas de IA e os humanos. “Deveremos deixar que as máquinas encham os canais de informação com propaganda e mentiras? Deveremos desenvolver mentes não humanas que eventualmente possam ultrapassar-nos, tornar-nos obsoletos e substituir-nos? Devemos arriscar perder o controlo da nossa civilização?” Estas são algumas perguntas colocadas no documento, reforçando que tais decisões não devem ser delegadas a líderes tecnológicos não elegidos. “Os sistemas poderosos de IA devem apenas ser desenvolvidos quando estivermos confiantes de que os seus efeitos sejam positivos e os seus riscos possam ser geridos”.
É a própria OpenAI a declarar que “até certo ponto, pode ser importante obter uma análise independente antes do começo do treino de futuros sistemas, e para os esforços mais avançados, de concordar em limitar o ritmo de crescimento da computação utilizada na criação de novos modelos”. Os signatários concordam com a afirmação da criadora do GPT, salientando que “esse ponto é agora”.
Nesse sentido, é pedido aos laboratórios de IA que parem imediatamente, por pelo menos seis meses, qualquer treino de sistemas de inteligência artificial que sejam mais poderosos que o GPT-4. E essa pausa deve ser pública e verificável. E deve ter o envolvimento governamental, caso essa pausa não possa ser ativada rapidamente. Os especialistas independentes e os laboratórios de IA devem utilizar essa pausa para conjuntamente desenvolver e implementar protocolos de segurança para o design de modelos avançados, auditados de forma rigorosa.
Os signatários não pedem que se pause o desenvolvimento de IA no geral, mas que se “abrande” a perigosa corrida que está a acontecer, com modelos cada vez mais poderosos e imprevisíveis. É referido que a investigação de IA deve ser focada em tornar os sistemas atuais melhores, robustos, alinhados e transparentes.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários