Depois de circularem vários rumores online, a OpenAI já lançou a nova versão do modelo de Inteligência Artificial que deu origem ao ChatGPT, o GPT-4, em linha com a revelação que tinha sido feita pela Microsoft na semana passada. O GPT-4 está disponível no ChatGPT Plus e já há uma lista de espera para quem usar a sua API. O que promete o novo modelo de IA?
A OpenAI afirma que o GPT-4 é ainda mais avançado, sendo capaz de “resolver problemas difíceis com uma maior eficácia”, destacando-se pelas suas capacidades criativas e colaborativas. Ao todo, a empresa passou mais de seis meses a alinhar os sistemas do novo modelo e a torná-lo mais seguro.
De acordo com dados avançados, a tendência do modelo para responder a questões relacionadas com conteúdo que não é permitido foi reduzida em 82% em comparação com o GPT-3.5. Além disso, a nova geração é 40% mais provável de gerar respostas factuais.
A nova versão do modelo da IA da OpenAI é multimodal, mas, ao contrário do que foi afirmado anteriormente pela Microsoft, o GPT-4 ainda não é capaz de receber inputs a partir de vídeo, focando-se, para já, em imagens, além de texto.
Clique nas imagens para ver as novas capacidades multimodais do GPT-4
Embora possa receber inputs com imagens, o modelo continua a gerar outputs textuais. A OpenAI esclarece que, esta funcionalidade está ainda em modo “preview”, não estando disponível para todo o público. De acordo com Sam Altman, CEO da tecnológica, a empresa precisa de mais algum tempo para mitigar os desafios de segurança associados à novidade.
Para preparar a funcionalidade de interpretação de imagens do GPT-4 de modo a que possa ser utilizada pelo público em geral, a OpenAI está a colaborar com os criadores da aplicação Be My Eyes, concebida para pessoas com dificuldades ou deficiências visuais, através de um novo programa.
A empresa detalha que, numa interação casual, a diferença entre o GPT-4 e a versão anterior do modelo, GPT-3.5, pode ser subtil. Segundo a OpenAI, a grande diferença chega quando a complexidade de uma tarefa atinge um determinado limite, com a nova geração do modelo de IA a conseguir lidar com instruções mais detalhadas do que o GPT-3.5.
Para testar as diferenças entre os dois modelos, a tecnológica colocou-os à prova com uma variedade de benchmarks, incluindo simulações de exames concebidos para humanos. Embora tenha menos capacidades do que os humanos em muitos cenários da vida real, o GPT-4 apresenta um nível de desempenho quase humano em múltiplos benchmarks, afirma a OpenAI.
Apesar das melhorias e das novas capacidades, a OpenAI admite que o GPT-4 tem limitações semelhantes àquelas encontradas nos modelos GPT anteriores. O modelo ainda não é totalmente confiável, uma vez que tem “alucinações” relativamente a factos, isto é, gera respostas com informação que, à primeira vista podem parecer de confiança, no entanto, não é justificada pelos dados que foram usados para o treinar.
A empresa nota, porém, que o nível de “alucinações” foi significativamente reduzido em comparação com os modelos anteriores. Mesmo assim, a OpenAI realça que os utilizadores devem ter muito cuidado ao usar os outputs gerados pelo modelo em contextos de maior importância.
A OpenAI colaborou com várias empresas para impulsionar o desenvolvimento de soluções inovadoras que recorrem ao GPT-4 e o novo Bing com IA é uma delas. Embora a Microsoft tenha indicado anteriormente que o motor de busca utilizava um modelo próprio, chamado Prometheus, a mesma confirma agora a novidade, corroborando os rumores que circulavam anteriormente.
Numa publicação no blog oficial do Bing, a Microsoft afirma que a versão remodelada do motor de busca recorre ao GPT-4, com o modelo a ser otimizado para pesquisas. Ou seja, se experimentou o novo Bing, já teve a oportunidade de interagir com uma versão inicial do novo modelo de IA.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários