A promessa é da própria Unbabel, a tecnológica de origem portuguesa especialista em tradução, que justifica a afirmação com testes. O novo TowerLLM dará resultados mais fiáveis que o LLM mais avançado da OpenAI na tradução automática multilingue.
Quanto maior é o tempo de utilização de dispositivos digitais por crianças em idade pré-escolar, menor é o respetivo desenvolvimento da linguagem. A conclusão é de um estudo da Universidade de Aveiro.
Através de uma nova investigação, uma equipa de cientistas da Universidade de Nova Iorque (NYU, na sigla em inglês) conseguiu demonstrar que um modelo de IA pode aprender palavras e conceitos como um bebé.
Aos linguistas responsáveis pela criação das linguagens de Game of Thrones juntam-se Vasco Pedro, CEO da Unbabel, e João Graça, CTO da empresa, para explicar qual é o papel dos idiomas no processo de construção de confiança e lealdade nas marcas.
A Meta está a desenvolver o estudo do cérebro humano para melhorar os sistemas de inteligência artificial e fazer com que aprendam e raciocinem como os humanos. Nos últimos dois anos os investigadores deram passos importantes mas uma nova parceria com o centro de neuroimagem NeuroSpin (CEA) pode tra
O CodeNet é uma enorme base de dados para dar "combustível" às tecnologias de inteligência artificial e fazer delas uma ajuda preciosa na migração de código, entre linguagens de programação.
O Blender foi treinado através de modelos neurais de grande escala com cerca de 9,4 mil milhões de parâmetros. O Facebook também o treinou com cerca de 1,5 mil milhões de exemplos de linhas de diálogo vindas de grupos de discussão do Reddit.
Ao todo, o Turing Natural Language Generation (T-NLG) tem 17 mil milhões de parâmetros, conseguindo utrapassar modelos como os que foram desenvolvidos pela NVidia ou pela OpenAI. Para já, a ferramenta não se encontra disponível para uso público.