Esperava-se que a OpenAI apresentasse hoje um novo motor de pesquisa, capaz de rivalizar com o Google Search. Mas essa hipótese foi descartada pelo CEO da empresa, Sam Altman, que garantiu não se tratar de um motor de busca, nem sequer o GPT-5. “Temos estado a trabalhar arduamente em algumas coisas novas que pensamos que as pessoas vão adorar! Parece magia para mim”, disse numa mensagem na rede social X.
A apresentação aconteceu numa live stream anunciada na página oficial da empresa para hoje, naquela que chamou de OpenAI Spring Update para o GPT-4. A primeira novidade é a nova versão de desktop do ChatGPT, com um interface melhorado.
O GPT-4o é a grande novidade e promete uma maior interação entre o utilizador e as máquinas, criado para o futuro da colaboração. Trata-se de um sistema omnimodelo nativo entre voz, texto e visão. Neste caso, o "o" é a abreviação de Omni. A OpenAI tem vindo a trabalhar neste modelo nos últimos meses. Diz que tem mais de 100 milhões de utilizadores a usar o seu modelo de IA para trabalhar, criar e aprender.
Com este modelo, Muri Murati, CTO da OpenAI afirma a empresa passa a oferecer um sistema de nível GPT4 a todos os utilizadores, incluindo os de acesso gratuito. Os utilizadores com versões pagas vão ter as habituais regalias de performance. A OpenAI diz que o GPT-4o vai estar disponível também como API, pronto para os developers começarem a trabalhar nas suas aplicações. Promete ser duas vezes mais rápido e 50% mais barato para os utilizadores que utilizam a versão paga. Todas as capacidades do novo modelo vão chegar a todos os utilizadores nas próximas semanas.
Veja o vídeo da apresentação do GPT-4o
Na demonstração realizada no evento, foi testado uma interação "supostamente" em tempo real, onde o utilizador foi aconselhado pela IA a respirar. Foi referido que o modelo pode ser interrompido no meio das frases para continuar a conversar. O modelo responde em tempo real, sem esperar dois ou três segundos até que responda e quando interrompido com uma outra questão ou complemento, adapta-se e reage de imediato. Além disso, a IA é capaz de identificar emoções. As respostas da IA podem ser refinadas para adicionar mais drama a contar uma história, quase como uma peça teatral, mudando o tom em tempo real e por diversas vezes interrompido pelos apresentadores.
Foram mostrados diferentes exemplos de imagens, incluindo equações lineares, que o sistema identificou e ajudou a resolver. Em outra demonstração, um computador com código escrito. Foi pedido ao ChatGPT para identificar do que tratava o código, com o sistema a descrever os detalhes do mesmo. O sistema tem agora um ícone para olhar para o desktop do computador, reconhecendo os elementos.
Na demonstração foi mostrado um gráfico com temperaturas médias, sendo pedido ao GPT-4o para analisar o mesmo. Antes do evento, a OpenAI tinha deixado o desafio dos internautas colocarem situações na rede social X, para serem demonstradas em tempo real. Um deles foi a capacidade de tradução em tempo real de italiano para inglês. Outro foi a identificação de emoções do utilizador através da visão.
A ideia de apresentar um sistema de conversação mais natural é a promessa feita pela OpenAI para o GPT4-o. Apesar das novidades do novo modelo, algumas "gafes" cometidas durante a apresentação deixaram no ar se a demonstração era mesmo real. Terão sido situações criadas para mostrar um modelo "mais humano" ou trata-se de uma antevisão da tecnologia, mas ainda por implementar? Uma coisa parece destacar-se: o novo modelo parece-se mais com um assistente virtual, como o Google Assistant, Siri e Alexa. Será por aqui o caminho?
Nota de redação: notícia atualizada com mais informação. Foi adicionado o vídeo. Última atualização 22h59.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários