Lançado recentemente pela Meta, o modelo de inteligência artificial Galactica tinha como missão ajudar cientistas e estudantes. No entanto, nem uma semana após o lançamento, a empresa liderada por Mark Zuckerberg acabou por fechar temporariamente o acesso do modelo ao público depois de cientistas demonstrarem que o modelo estava a gerar informação falsa ou enganadora.
De acordo com a casa-mãe do Facebook, o Galactica foi treinado com recurso a 48 milhões de exemplos vindos de artigos científicos, manuais, enciclopédias e websites, prometendo ser capaz de realizar uma variedade de tarefas: de resumir trabalhos académicos a resolver equações matemáticas e gerar artigos para a Wikipédia.
Porém, como reporta a imprensa internacional, vários cientistas que experimentaram o Galactica notaram que, uma vez que o modelo de IA não era capaz de distinguir entre informação verdadeira e falsa, os resultados eram preocupantes.
Por exemplo, Michael Black, diretor do Instituto Max Planck de Sistemas Inteligentes, na Alemanha, detalha através do Twitter que, durante as suas experiências com o modelo, a informação gerada em todos os casos estava errada ou era “enviesada”, mas soava fidedigna.
O responsável aponta ainda casos de artigos gerados pelo modelo da Meta que citavam nomes de cientistas reais, mas que faziam referência a artigos científicos, ou até repositórios no GitHub, que não existiam.
Já Willie Agnew, investigador da área de ciências da computação da Universidade de Washington, realça que o modelo não era capaz de apresentar resultados de pesquisa relativos a uma variedade de temáticas, incluindo racismo, SIDA, ou teoria queer.
Gary Marcus, cientista da área de Inteligência Artificial (IA) na Universidade de Nova Iorque (NYU) que, durante a edição deste ano do Web Summit, já tinha alertado para a necessidade de olhar para a questão da produção de conhecimento por sistemas de IA num panorama mais abrangente, partilha também a sua opinião sobre o Galactica, incluindo alguns exemplos da informação falsa ou enganadora gerada através do modelo.
Recorde-se que, para o cientista, que partilhou o palco do Web Summit com o conhecido linguista Noam Chomsky, Gary Marcus, os sistemas de IA atuais estão a perpetuar dados e “biases” antigos, acabando por produzir desinformação, numa situação que pode ter "consequências devastadoras" para a democracia.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários