Esta semana foi lançada a nova versão do GPT-4, o modelo de IA generativo da OpenAI, que é considerado um avanço significativo na conversação com sistemas de inteligência artificial, mas ainda está longe de ser “perfeito”, segundo a própria organização que o desenvolveu. A Microsoft aproveitou a boleia do lançamento do GPT-4 para disponibilizar a versão remodelada do motor de pesquisa Bing, introduzindo a otimização de conversação natural.
Inicialmente os interessados em testar o serviço da Microsoft necessitavam de uma inscrição para entrar numa lista de espera para começar a “falar” como chatbot. Mas agora já é possível utilizar sem espera, bastando para isso ter uma conta válida da Microsoft e autenticar-se no Bing, através do browser Edge. O serviço apenas funciona no browser de internet da Microsoft.
No seu blog, a Microsoft confirmou que o Bing tem como motor o GPT-4, utilizado para personalizar as pesquisas. Nas últimas semanas, apenas alguns utilizadores podiam testar o novo motor de pesquisa, mas agora todos podem juntar-se.
A Microsoft diz que sempre que a OpenAI atualizar o GPT-4, o Bing passa a beneficiar dessas melhorias. E acrescenta que todo o feedback deixado pela comunidade será considerado em futuras atualizações do sistema de inteligência artificial.
Apesar de estar aberto a todos os utilizadores, a Microsoft optou por manter a mensagem de registo para a lista de espera no ecrã lateral, quando se clica no botão Bing, no canto superior direito. Ao clicar, os utilizadores são convidados a autenticarem-se, mas ficam de imediato aptos a utilizar o sistema de pesquisa com suporte do chatbot.
Segundo a OpenAI, o GPT-4 é ainda mais avançado, sendo capaz de “resolver problemas difíceis com uma maior eficácia”, destacando-se pelas suas capacidades criativas e colaborativas. Ao todo, a empresa passou mais de seis meses a alinhar os sistemas do novo modelo e a torná-lo mais seguro.
A nova versão do modelo da IA da OpenAI é multimodal, mas, ao contrário do que foi afirmado anteriormente pela Microsoft, o GPT-4 ainda não é capaz de receber inputs a partir de vídeo, focando-se, para já, em imagens, além de texto. Embora possa receber inputs com imagens, o modelo continua a gerar outputs textuais.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários