A Meta apresentou um novo modelo de linguagem capaz de controlar os movimentos de um agente digital de aspeto humano, de forma mais realista e natural. O LLM (grande modelo de linguagem, na sigla em inglês) dá corpo a um projeto de investigação cujos resultados acabam de ser partilhados com a comunidade, mas no futuro os avanços podem ser determinantes para mudar a experiência de interação no Metaverso.
A empresa acredita que os resultados da pesquisa podem ser a base para agentes totalmente incorporados no Metaverso, levando a NPCs (personagens não jogáveis) mais realistas, à democratização da animação de personagens e a novos tipos de experiências imersivas.
O Meta Motivo é um modelo de base comportamental pioneiro, que “controla os movimentos de um agente humanoide virtual incorporado para executar tarefas complexas”, explica a Meta. É treinado com um novo algoritmo, que aproveita um “conjunto de dados de movimentos não rotulados para fundamentar a aprendizagem por reforço não supervisionada” e para aprender comportamentos semelhantes aos dos humanos.
A empresa explica ainda que a principal novidade técnica do algoritmo está no facto de “aprender uma representação que pode ser utilizada para incorporar estados, movimentos e recompensas no mesmo espaço latente”. Significa isto, que o Meta Motivo é capaz de resolver uma gama alargada de tarefas de controlo de todo o corpo, sem treino ou planeamento adicional.
O objetivo da partilha de resultados em open source é cativar a comunidade para continuar a trabalhar na tecnologia, mas a Meta assegura que o modelo assegura já um desempenho competitivo, comparativamente a métodos específicos de tarefas e que supera o desempenho da aprendizagem por reforço não supervisionada de última geração.
“O modelo também apresenta um nível surpreendente de robustez a mudanças no ambiente, como a gravidade, o vento ou perturbações diretas, apesar de não ter sido treinado para elas”, acrescenta uma nota no blog oficial.
O Meta Motivo é uma das partilhas anunciadas pela empresa esta quinta-feira, no âmbito das suas atividades FAIR - Meta Fundamental AI Research. Em open source, o grupo colocou resultados de pesquisa, código, modelos e conjuntos de dados, todos eles centrados no trabalho de investigação fundamental que a empresa tem vindo a fazer para servir a criação de agentes virtuais mais “capazes, robustos e seguros”, com arquiteturas que permitem aos modelos aprender de forma mais eficaz e ampla.
Pergunta do Dia
Em destaque
-
Multimédia
Fortnite toma de assalto Counter-Strike 2 e Valorant com o novo modo Ballistic -
App do dia
Nintendo Music traz 40 anos de bandas sonoras dos jogos para o smartphone -
Site do dia
Europa Clipper inspira nova banda desenhada sobre astrobiologia da NASA -
How to TEK
Mude o assistente do Waze para a vozes do Venom e Eddie Brock
Comentários