É mais rápido e com mais memória, o novo chip para supercomputadores da Nvidia foi desenhado para acelerar a computação em torno da inteligência artificial generativa e modelos de linguagem de grande capacidade (LLM), semelhantes ao GPT-4 da OpenAI. Trata-se do chip HGX H200 Tensor Core GPU, baseado na arquitetura Nvidia Hopper, capaz de lidar com quantidades massivas de dados para IA generativa, assim como aumentar a capacidade de performance computacional científica em cargas de trabalho HPC.
Este é descrito pela fabricante como o primeiro GPU a oferecer memórias HBM3e que aceleram a IA generativa. O H200 entrega 141 GB de memória a 4,8 Tb por segundo, quase duplicando a capacidade e 2,4X mais largura de banda que o seu antecessor, o Nvidia A100. O novo superchip promete um salto significativo tecnológico, sendo utilizado em centros de dados e supercomputadores.
Veja na galeria imagens do Nvidia GH200 Grace Hopper Superchip
A fabricante diz que o HGX H200 duplica a velocidade do modelo de linguagem Llama 2 da Meta. O chip está disponível em configurações de 4 e 8 direções e é retrocompatível com as configurações e software dos sistemas H100. E poderá ser utilizado em centros de dados presenciais, cloud, edge ou cloud híbrida.
A Amazon Web Services, Google Cloud, Azure e Oracle Cloud Infraestructure serão os primeiros serviços de cloud a serem atualizados com o H200, quando for lançado no segundo trimestre de 2024, seguindo-se a CoreWeave, Lambda e Vultr.
A configuração de oito direções do HGX H200 oferece cerca de 32 petaflops de computação FP8 de deep learning e 1,1 TB de memória agregada de banda larga para aplicações HPC e IA generativa. A arquitetura do superchip fica completa com o CPU Nvidia Grace baseado em Arm através da inferface NVLink-C2C.
De recordar que o Reino Unido já anunciou o investimento de 273 milhões de dólares para construir um novo supercomputador, o Isambard-AI, referido como 10 vezes mais rápido que o atual supercomputador mais avançado já em funcionamento. Este terá a capacidade para realizar mais de 200 triliões de cálculos por segundo.
O sistema está a ser construído pela HPE - Hewlett Packard Enterprise e vai integrar 5.448 superchips Nvidia GH200 Grace Hopper Superchips. A Nvidia refere que o sistema vai conseguir atingir mais de 21 exaflops de desempenho de IA, ou seja, mais de 21 quintiliões de FLOPs (operações de ponto flutuante por segundo) em aplicações de IA, como o treino de grandes modelos linguísticos.
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários