Uma das funcionalidades apresentadas com o GPT-4o é a capacidade de maior compreensão do modelo de IA aos comandos de voz introduzidos pelo utilizador. O sistema consegue adaptar-se aos contextos pedidos, apresentando diferentes vozes de personagens e timbres diferentes. A OpenAI chama-lhe o modo de voz avançado e começou a chegar aos smartphones dos utilizadores subscritos no serviço ChatGPT Plus.

OpenAI garante que não imitou voz de Scarlett Johansson. A atriz discorda e o caso pode seguir para tribunal
OpenAI garante que não imitou voz de Scarlett Johansson. A atriz discorda e o caso pode seguir para tribunal
Ver artigo

Desde que foi revelado, a OpenAI tem vindo a partilhar vídeos com demonstrações práticas do potencial do modelo de voz, que até gerou polémica por imitar a atriz Scarlett Johansson, num caso que chegou ao tribunal. Na mais recente demonstração, a empresa mostrou a capacidade de alterar a voz, permitindo aos utilizadores personalizar o seu assistente pessoal.

A empresa já tinha demonstrado anteriormente a capacidade de o utilizador poder interromper a IA a qualquer momento, enriquecendo a conversa com novas prompts de voz, assim como afinar em tempo real aquilo que pretende obter do assistente. Foi ainda mais longe a colocar modelos, em dois smartphones diferentes, a comunicar entre si. Se isso vai mesmo acontecer, os utilizadores vão ter a oportunidade de testar.

Durante o ensaio, um smartphone tinha a câmara ligada para ver e descrever o mundo em redor, enquanto no outro só estava a ouvir o que o primeiro dizia. O resultado foi uma conversa entre dois modelos de IA, fazendo perguntas um ao outro, acabando com ambos a cantar alternadamente.

OpenAI lança modelo de inteligência artificial mais pequeno e mais barato
OpenAI lança modelo de inteligência artificial mais pequeno e mais barato
Ver artigo

De recordar que o GPT-4o é um modelo multimodal, capaz de processar áudio, vídeo, texto e ainda prompts com imagens. O objetivo é tornar as interações mais naturais e fáceis, na ajuda em traduções em tempo real ou o acesso à informação disponível. Recentemente, a OpenAI lançou a versão mais simples, o GPT-4o mini, que exige menos recursos, mas que consegue superar a concorrência em termos de capacidade de resposta.

Apesar do modelo ser gratuito a todos, este modo avançado apenas estará disponível a subscritores do serviço pago. Estes são os primeiros testes da versão alfa, disponível ainda assim, para um grupo restrito de utilizadores. Quem tiver sido selecionado pela OpenAI para participar nos testes apenas tem de seguir as instruções enviadas pelo email da conta registada. O lançamento final está previsto para o outono para todos os utilizadores do plano Plus.