A startup chinesa DeepSeek continua a refinar o seu modelo de inteligência artificial, nomeadamente a versão destilada R1, que recebeu uma nova atualização. A versão foi denominada de DeepSeek-R1-0528-Qwen3-8B e é apontada como menor e mais resumida. No entanto, os resultados dos testes de benchmark AIME 2025 mostram que este é extremamente eficiente e encosta-se ao OpenAI 03, ultrapassando em desempenho o mais recente modelo da Google, o Gemini 2.5 Flash.

Talvez o que seja mais surpreendente é que esta versão do DeepSeek R1 precise de menos recursos de hardware para funcionar. Segundo o TechCrunch, esta versão do R1 utiliza como base o Qwen3-8B da Alibaba e precisa de uma Nvidia H100 para operar, com apenas um GPU com 40 a 80 GB de RAM para correr. Em comparação, segundo a plataforma de cloud NodeShift, a versão completa DeepSeek R1 necessita de cerca de uma dúzia de GPUs com 80 GB para funcionar.

benchmark AIME 2025
benchmark AIME 2025 benchmark AIME 2025 no teste do modelo DeepSeek-R1-0528-Qwen3-8B

A DeepSeek treinou o novo modelo utilizando texto gerado pela versão atualizada do R1 para o refinar. A startup explica no Hugging Face que esta atualização melhora significativamente a sua profundidade de raciocínio e capacidades de inferência, ao aproveitar o aumento dos recursos computacionais e introduzindo mecanismos de otimização dos algoritmos no pós-treino.

O novo modelo demonstrou uma elevada performance entre diferentes avaliações do benchmark, incluindo matemática, programação e lógica geral. “A sua performance geral está agora a aproximar-se dos modelos líderes, como o O3 e o Gemini 2.5 Pro”, aponta na sua publicação. Refere ainda que o DeepSeek-R1-0528-Qwen3-8B pode ser usado tanto na investigação académica nos modelos de raciocínio como no desenvolvimento industrial focado em modelos de pequena escala.

De notar que o modelo está disponível através de uma licença MIT, podendo ser usada em produtos comerciais sem restrições, apontando apenas o disclaimer de utilização.