Investigadores da Universidade de Washington e do Allen Institute treinaram redes neurais para tentar compreender o comportamento dos cães. Na experiência foram utilizadas filmagens e capturas de movimento de um canino de raça malamute, utilizando uma câmara GoPro montada na sua cabeça e sensores de movimento ligados às suas penas e corpo. Ao todo foram capturados cerca de 380 vídeos das atividades do quotidiano da cadela Kelp, enquanto passeava e brincava.

Os investigadores utilizaram a informação capturada para alimentar a inteligência artificial através de deep learning. Através desta técnica foi possível cruzar a informação dos sensores dos membros da cadela com as filmagens do que estava a observar, levando a máquina a antecipar como o animal reagiria em determinadas situações.

Como exemplo, se fosse arremessada uma bola, a IA saberia que a cadela iria persegui-la. Para além disso, outros comportamentos demonstrados através de inteligência visual foram anotados, como o reconhecimento de comida, os obstáculos e reações a outros animais e humanos.

Após treinar a rede neural com o comportamento do cão, os investigadores testaram a IA para perceber se o computador aprendeu alguma coisa sobre o mundo que não fosse explicitamente programado. Foram feitos dois testes à rede: um deles para identificar diferentes cenários, tais como interiores, exteriores, escadas, etc., e o outro, os locais que a cadela poderia percorrer.

A rede respondeu com grande precisão através da informação anteriormente recolhida, prevendo como a cadela se movia nos vários cenários e como decidia mudar de um estado de comportamento para outro. Foi assim demonstrado como a IA aprendeu com o comportamento da cadela para generalizar outras tarefas.

Através deste sistema em que a rede neural foi alimentada com imagens diretas de vídeo e informações geradas pelos sensores de movimentos, os investigadores afirmam que a IA aprendeu sem a necessidade de introduzir informações manuais ou descrições detalhadas previamente sobre o comportamento do animal.

O estudo concluiu que será possível estender a experiência a outros agentes e cenários. Além disso, a investigação centrou-se apenas na informação visual, ficando de fora outros canais de interação com o mundo, tais como o som, o toque e o cheiro.