Google apresenta TPU Ironwood, sua 1ª primeira focada em inferência de IA

O Google anunciou nesta quarta-feira (9), durante o Google Cloud Next 2025, sua nova geração de TPUs batizada de Ironwood. Trata-se da primeira unidade de processamento de tensores da companhia projetada especificamente para workloads de inferência de IA, representando a sétima geração da tecnologia e prometendo ser a mais potente, eficiente e escalável até o momento. Qualcomm e IBM anunciam parceria para levar IA para a "borda"; entenda Vale a pena pagar por uma IA? Entenda os benefícios de assinar um chatbot A chegada da Ironwood marca uma mudança na estratégia do Google para infraestrutura de IA, sinalizando a transição para o que a empresa está chamando de "era da inferência". Enquanto as gerações anteriores de TPUs foram desenvolvidas principalmente para treinamento e implementação de modelos de inteligência artifical, a nova solução foi arquitetada do zero com foco especial no processo de inferência — quando os modelos de IA já treinados são efetivamente colocados em uso para gerar respostas, insights e análises. Especificações impressionantes para demandas crescentes A TPU Ironwood apresenta um salto significativo nas especificações técnicas em relação à sua antecessora, a Trillium. Cada chip individual oferece impressionantes 4.614 teraflops de capacidade computacional de pico, com memória HBM (High Bandwidth Memory) de 192 GB por chip — seis vezes maior que a geração anterior. -Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.- O componente também traz melhorias substanciais em largura de banda, alcançando 7,2 Tbps por chip, 4,5 vezes superior à Trillium. A conexão entre chips (Inter-Chip Interconnect) também foi aprimorada, com largura de banda bidirecional de 1,2 Tbps — um aumento intergeração de 50%.   A Ironwood conta ainda com um SparseCore aprimorado, acelerador especializado para processamento de embeddings ultragrandes comuns em cargas de trabalho avançadas de classificação e recomendação. Isso permite que a TPU expanda seu alcance para além dos domínios tradicionais de IA, conseguindo abranger aplicações financeiras e científicas. Para os clientes do Google Cloud, a Ironwood será disponibilizada em duas configurações: pods com 256 chips ou pods com 9.216 chips. Na configuração máxima, a TPU entrega impressionantes 42,5 exaflops de poder computacional — mais de 24 vezes a capacidade do El Capitan, considerado o maior supercomputador do mundo com seus 1,7 exaflops. Incremento do pico de desempenho por watt em FP8 em relação ao v2, primeiro TPU do Google, chega a ser de 3600% (Imagem: Divulgação/Google) Foco estratégico na inferência de IA A decisão do Google de criar uma TPU focada em inferência não é ao acaso. Ao anunciá-la, a empresa explicou que estamos entrando na "era da inferência", onde modelos de IA não apenas fornecem informações em tempo real para serem interpretadas por pessoas, mas proativamente geram insights e interpretações. "É uma mudança de modelos de IA responsivos que fornecem informações em tempo real para serem interpretadas por pessoas, para modelos que proporcionam a geração proativa de insights e interpretação", explicou Amin Vahdat, VP e GM de ML, Sistemas e Cloud AI do Google, durante o anúncio. Essa mudança de paradigma exige infraestrutura especialmente projetada para lidar com "modelos pensantes" — como Grandes Modelos de Linguagem (LLMs), Mixture of Experts (MoEs) e tarefas avançadas de raciocínio que demandam processamento paralelo massivo e acesso eficiente à memória. Por que focar em inferência agora? O foco do Google na inferência reflete um momento de inflexão na evolução da IA. Com o aumento da complexidade dos modelos e a expansão das janelas de contexto, o custo computacional está cada vez mais concentrado no momento da inferência, não apenas no treinamento. À medida que as aplicações de IA se tornam mais sofisticadas — realizando raciocínios em múltiplas etapas e processando contextos mais longos e variáveis —, a eficiência no processamento de inferência torna-se estrategicamente mais importante que a velocidade de treinamento. O Google parece ter percebido isso antes da concorrência. Enquanto a maioria do mercado ainda se concentra predominantemente na aceleração do treinamento de modelos cada vez maiores, Mountain View antecipa uma mudança: o verdadeiro gargalo será colocar esses modelos em produção de maneira eficiente e econômica. A Ironwood chega para resolver exatamente esse problema. Ganho de performance por watt medido em TDP mostra eficiência quase 30x maior em relação ao TPU v2, de 2008 (Imagem: Divulgação/Google) Impacto nos serviços de cloud e ecossistema de IA do Google A Ironwood já estreia como um componente fundamental na estratégia mais ampla do Google Cloud para IA. Integrada à arquitetura AI Hypercomputer, o novo componente permitirá à empresa oferecer serviços mais inteligentes e eficientes através de toda s

Abr 9, 2025 - 13:32
 0
Google apresenta TPU Ironwood, sua 1ª primeira focada em inferência de IA

O Google anunciou nesta quarta-feira (9), durante o Google Cloud Next 2025, sua nova geração de TPUs batizada de Ironwood. Trata-se da primeira unidade de processamento de tensores da companhia projetada especificamente para workloads de inferência de IA, representando a sétima geração da tecnologia e prometendo ser a mais potente, eficiente e escalável até o momento.

A chegada da Ironwood marca uma mudança na estratégia do Google para infraestrutura de IA, sinalizando a transição para o que a empresa está chamando de "era da inferência". Enquanto as gerações anteriores de TPUs foram desenvolvidas principalmente para treinamento e implementação de modelos de inteligência artifical, a nova solução foi arquitetada do zero com foco especial no processo de inferência — quando os modelos de IA já treinados são efetivamente colocados em uso para gerar respostas, insights e análises.

Especificações impressionantes para demandas crescentes

A TPU Ironwood apresenta um salto significativo nas especificações técnicas em relação à sua antecessora, a Trillium. Cada chip individual oferece impressionantes 4.614 teraflops de capacidade computacional de pico, com memória HBM (High Bandwidth Memory) de 192 GB por chip — seis vezes maior que a geração anterior.

-
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
-

O componente também traz melhorias substanciais em largura de banda, alcançando 7,2 Tbps por chip, 4,5 vezes superior à Trillium. A conexão entre chips (Inter-Chip Interconnect) também foi aprimorada, com largura de banda bidirecional de 1,2 Tbps — um aumento intergeração de 50%.

 

A Ironwood conta ainda com um SparseCore aprimorado, acelerador especializado para processamento de embeddings ultragrandes comuns em cargas de trabalho avançadas de classificação e recomendação. Isso permite que a TPU expanda seu alcance para além dos domínios tradicionais de IA, conseguindo abranger aplicações financeiras e científicas.

Para os clientes do Google Cloud, a Ironwood será disponibilizada em duas configurações: pods com 256 chips ou pods com 9.216 chips. Na configuração máxima, a TPU entrega impressionantes 42,5 exaflops de poder computacional — mais de 24 vezes a capacidade do El Capitan, considerado o maior supercomputador do mundo com seus 1,7 exaflops.

Incremento do pico de desempenho por watt em FP8 em relação ao v2, primeiro TPU do Google, chega a ser de 3600% (Imagem: Divulgação/Google)

Foco estratégico na inferência de IA

A decisão do Google de criar uma TPU focada em inferência não é ao acaso. Ao anunciá-la, a empresa explicou que estamos entrando na "era da inferência", onde modelos de IA não apenas fornecem informações em tempo real para serem interpretadas por pessoas, mas proativamente geram insights e interpretações.

"É uma mudança de modelos de IA responsivos que fornecem informações em tempo real para serem interpretadas por pessoas, para modelos que proporcionam a geração proativa de insights e interpretação", explicou Amin Vahdat, VP e GM de ML, Sistemas e Cloud AI do Google, durante o anúncio.

Essa mudança de paradigma exige infraestrutura especialmente projetada para lidar com "modelos pensantes" — como Grandes Modelos de Linguagem (LLMs), Mixture of Experts (MoEs) e tarefas avançadas de raciocínio que demandam processamento paralelo massivo e acesso eficiente à memória.

Por que focar em inferência agora?

O foco do Google na inferência reflete um momento de inflexão na evolução da IA. Com o aumento da complexidade dos modelos e a expansão das janelas de contexto, o custo computacional está cada vez mais concentrado no momento da inferência, não apenas no treinamento.

À medida que as aplicações de IA se tornam mais sofisticadas — realizando raciocínios em múltiplas etapas e processando contextos mais longos e variáveis —, a eficiência no processamento de inferência torna-se estrategicamente mais importante que a velocidade de treinamento. O Google parece ter percebido isso antes da concorrência.

Enquanto a maioria do mercado ainda se concentra predominantemente na aceleração do treinamento de modelos cada vez maiores, Mountain View antecipa uma mudança: o verdadeiro gargalo será colocar esses modelos em produção de maneira eficiente e econômica. A Ironwood chega para resolver exatamente esse problema.

Ganho de performance por watt medido em TDP mostra eficiência quase 30x maior em relação ao TPU v2, de 2008 (Imagem: Divulgação/Google)

Impacto nos serviços de cloud e ecossistema de IA do Google

A Ironwood já estreia como um componente fundamental na estratégia mais ampla do Google Cloud para IA. Integrada à arquitetura AI Hypercomputer, o novo componente permitirá à empresa oferecer serviços mais inteligentes e eficientes através de toda sua plataforma de nuvem.

Um dos principais benefícios destacados pela companhia é a eficiência energética, que oferece performance por watt duas vezes superior à Trillium. Em um momento em que a disponibilidade energética é uma das principais restrições para a expansão da infraestrutura de IA, esta TPU promete entregar significativamente mais capacidade por watt para cargas de trabalho dos clientes.

O sistema de refrigeração líquida avançada e o design otimizado do chip podem sustentar de forma confiável até o dobro do desempenho da refrigeração a ar padrão, mesmo sob cargas de trabalho pesadas e contínuas. De acordo com o Google, a Ironwood é quase 30 vezes mais eficiente em termos energéticos do que sua primeira TPU em nuvem, lançada em 2018.

Para os desenvolvedores, as vantagens incluem mais poder computacional e um ecossistema de software otimizado. Com o runtime Pathways disponível pela primeira vez no Google Cloud, os usuários poderão aproveitar recursos como inferência desagregada, permitindo o escalonamento dinâmico das etapas de "prefill" e "decode" dos workloads de inferência em unidades de computação separadas, cada uma escalando de forma independente para fornecer latência ultrabaixa e alto throughput.

Os modelos mais avançados do Google, como o Gemini 2.5 e o AlphaFold (premiado com o Nobel), já são executados em TPUs hoje; com a Ironwood, a expectativa é que novos avanços significativos em IA sejam impulsionados tanto pelos próprios desenvolvedores do Google quanto pelos clientes do Google Cloud.

Clientes do Google Cloud terão a Ironwood à disposição ainda neste ano de 2025 (Imagem: Divulgação/Google)

Disponibilidade ainda para 2025

Embora o Google não tenha divulgado uma data exata, confirmou que a Ironwood estará disponível para clientes do Google Cloud ainda em 2025. O componente será integrado à arquitetura AI Hypercomputer do serviço de nuvem, otimizada para as cargas de trabalho de IA mais exigentes.

Vale destacar que a nova TPU será acessível através de frameworks populares como PyTorch e JAX, e os desenvolvedores poderão utilizar o sistema de runtime Pathways, desenvolvido pelo Google DeepMind, para distribuir eficientemente o processamento entre múltiplos chips.

Leia mais no Canaltech:

Leia a matéria no Canaltech.