Apesar dos avanços significativos no campo da robótica, existem tarefas que os robots ainda têm dificuldade em realizar tão bem quanto os humanos. No caso dos robots humanoides, as expressões faciais continuam a ser um dos maiores desafios, em particular, no que toca aos movimentos mais subtis.

Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt

Por exemplo, este tipo de robots continua a ter grandes dificuldades em mover a boca de maneira convincente, apresentando muitas vezes movimentos rígidos ou exagerados que despertam estranheza.

Inspirada por estes desafios, uma equipa de investigadores da Columbia University, nos Estados Unidos, desenvolveu um robot que é capaz de aprender movimentos faciais e de dominar o controlo dos lábios para falar e cantar.

Veja o vídeo

Chamado EMO, este modelo é, essencialmente, uma cabeça robótica com um rosto flexível, incluindo olhos e lábios que movem, e está equipado com 26 motores faciais, que o ajudam a controlar as expressões faciais de maneira autónoma.

Os investigadores, que partilharam as conclusões do seu estudo num artigo publicado na revista científica Science Robotics, começaram por colocar o robot em frente a um espelho para que pudesse experimentar com milhares de expressões faciais, num processo “alimentado” por um modelo de linguagem VLA (ou vision-to-action).

Depois de aprender quais os movimentos que produziam determinadas expressões, o robot foi exposto a várias horas de vídeos de pessoas a falar e a cantar no YouTube, com o sistema de IA a observar a maneira como as bocas se moviam consoante diferentes sons.

Ao combinar estes dois métodos de treino, o EMO aprendeu a converter sons em movimentos labiais sincronizados. A equipa testou o sistema com conteúdo em várias línguas, estilos de fala e exemplos musicais. Mesmo sem compreender o que está a dizer, o robot é capaz de mover os seus lábios em sintonia com os sons que ouve.

Os resultados ainda não são perfeitos e os investigadores admitem que há dificuldades com certos sons. Apesar disso, a equipa acredita que as capacidades do EMO deverão melhorar com o tempo e a prática.

Como detalhado em comunicado, esta é apenas uma peça de um puzzle mais ambicioso, com o objetivo de dar aos robots formas de comunicar com os humanos que sejam mais naturais.

“Quando a capacidade de sincronização labial é combinada com IA conversacional, como a do ChatGPT ou o Gemini, o efeito acrescenta uma nova profundidade à ligação que o robot estabelece com uma pessoa”, afirma Yuhang Hu, investigador que liderou o estudo.

“Quanto mais o robot observar os humanos a conversar, melhor será a sua capacidade de imitar as expressões faciais subtis com as quais criamos ligações emocionais”, realça. Os investigadores defendem que as expressões faciais vão tornar-se cada vez mais importantes à medida que os robots humanoides começam a ser usados em áreas como entretenimento, educação ou saúde.

Por outro lado, a equipa também reconhece as preocupações éticas associadas à criação de robots capazes de estabelecer ligações emocionais com as pessoas. “Esta será uma tecnologia poderosa. Temos de avançar de forma lenta e cuidadosa, para podermos colher os benefícios minimizando os riscos”, defende Hod Lipson, professor na Columbia University e diretor do Creative Machines Lab onde a investigação foi desenvolvida.

Assine a newsletter do TEK Notícias e receba todos os dias as principais notícias de tecnologia na sua caixa de correio.