O evento Google Cloud Next 2024 serviu de palco para novos anúncios da gigante tecnológica, sobretudo em torno da inteligência artificial. Um deles foi o seu novo processador Axion, criado para alimentar os computadores em centros de dados. O processador é o primeiro criado pela Google baseado na arquitetura Arm, nomeadamente o chip Neoverse V2. É claramente uma resposta da Google à Amazon e outras tecnológicas como a Intel e Nvidia, para a nova geração de centros de dados baseados em inteligência artificial.

O Axion promete uma performance entre as melhores ofertas da área, assim como energeticamente eficiente, estando disponível para os clientes da Google no final do ano. Desde 2015, a Google já lançou cinco gerações do Tensor Processing Unit (TPU) e em 2018 lançou o primeiro chip dedicado à codificação de vídeo (VCU), que concede aos servidores 33 vezes mais eficiência. Desde 2021 que a Google também investiu em processadores Tensor para smartphones, os SoCs que alimentam a sua linha Pixel.

Workspace da Google ganha mais funcionalidades inteligentes e um editor de video com IA
Workspace da Google ganha mais funcionalidades inteligentes e um editor de video com IA
Ver artigo

A Google menciona que a nova geração do processador Axion, graças à tecnologia da arquitetura Arm, consegue um aumento de performance de 30% que outras propostas gerais de cloud igualmente baseados na mesma tecnologia. E até 50% de mais performance quando comparado com as mais recentes instâncias baseadas em x86, além de 60% energeticamente mais eficientes. A empresa diz que já começou a experimentar serviços como BigTable, Spanner, Bigquery, Blobstore, o Google Earth Engine e a plataforma de anúncios do YouTube.

A empresa diz que continua a fazer avanços significativos nas suas infraestruturas de computação para suportar os seus clientes. Por isso conta com outras tecnologias no seu portfólio, como o A3 Mega, uma solução da Nvidia baseado nos GPUs H100 Tensor Core, apontado por ter o dobro da largura de banda por GPU em comparação com outras instâncias A3. Este é direcionado a cargas de trabalho mais exigentes e a versão Confidential A3 permite maior integridade de dados confidenciais.

A mais recente plataforma de chips Nvidia Blackwell também vai ser integrado no Google Cloud no início de 2025, sendo introduzido em duas variantes, uma para treino e serviço convencional, a outra para treino de modelos de linguagem de grande escala.

Importante referir também o anúncio do TPU v5p, o acelerador de IA da Google, descrito como o mais poderoso, escalável e flexível para treino, em cerca de 4 vezes quando comparado com a sua geração anterior. A empresa diz que o uso do Google Kubernetes Engine cresceu mais de 900% no ano passado.

Microsoft e OpenAI investem 100 mil milhões de dólares em supercomputador para IA e novo centro de dados
Microsoft e OpenAI investem 100 mil milhões de dólares em supercomputador para IA e novo centro de dados
Ver artigo

Outras tecnologias anunciadas solidificam a estratégia da Google em trazer a IA para mais próximo onde os dados estão a ser gerados e consumidos, em Edge, ambientes para o Google Sovereign Clouds e Cross-Cloud. Além disso, AI Anywhere está a ser distribuído pelo Google Distributed Cloud (GDC). Este sistema permite a escolha do ambiente, configuração e controlos perante as necessidades de cada organização. Dando o exemplo do operador francês Orange, que opera em 26 países, os dados locais devem ser mantidos em cada um. A tecnologia tira partido da IA na GDC, melhorando o desempenho da rede e a experiência do cliente.