Google Cloud na quarta-feira anunciado que sua oitava geração de chips de IA personalizados, ou unidades de processamento de tensores (TPUs), será dividida em duas. Um chip, denominado TPU 8t, será voltado para treinamento de modelos e outro, TPU 8i, será voltado para inferência.
Inferência é o uso contínuo de modelos, também conhecido como o que acontece depois que os usuários enviam solicitações.
Como você poderia esperar, o empresa apregoa algumas especificações de desempenho impressionantes para essas novas TPUs em comparação com as gerações anteriores: treinamento de modelo de IA até 3x mais rápido, desempenho 80% melhor por dólar e a capacidade de fazer com que mais de 1 milhão de TPUs funcionem juntas em um único cluster. O resultado deve ser muito mais computação com muito menos energia – e custo para os clientes – do que as versões anteriores. Ela chama esses chips de TPUs, não de GPUs, porque seus chips personalizados de baixo consumo de energia foram originalmente chamados de Tensor.
Mas os chips do Google não são um ataque frontal total ao futuro da Nvidia, pelo menos não ainda. Como outros provedores gigantes de nuvem, incluindo Microsoft e Amazon, o Google está usando esses chips para complementar os sistemas baseados em Nvidia que oferece em sua infraestrutura. Não é uma substituição completa da Nvidia. Na verdade, o Google promete que sua nuvem terá o chip mais recente da Nvidia, Vera Rubin, disponível ainda este ano.
Um dia, os hiperescaladores que constroem seus próprios chips de IA (que incluem Amazon, Microsoft e Google) poderão passar a precisar menos da Nvidia, à medida que as empresas transferem suas necessidades de IA para suas nuvens e portam seus aplicativos para esses chips.
Ainda assim, do jeito que as coisas estão hoje, não é lucrativo apostar contra a Nvidia. Como notável analista de mercado de chips Patrick Moorhead postou brincando no Xele previu que o TPU do Google poderia ser uma má notícia para a Nvidia (e a Intel) em 2016, quando o gigante das buscas lançou seu primeiro. A Nvidia é agora uma empresa com capitalização de mercado de quase US$ 5 trilhões, o que significa que a previsão não resistiu exatamente ao teste do tempo.
Se tudo correr de acordo com o plano da Nvidia, o crescimento do Google como provedor de nuvem de IA resultaria em mais negócios para o fabricante de chips, e não menos, mesmo que muitas cargas de trabalho sejam executadas nos chips do Google.
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
Na verdade, o Google também afirma que concordou em trabalhar com a Nvidia para projetar redes de computadores que permitam que os sistemas baseados na Nvidia funcionem de forma ainda mais eficiente em sua nuvem. Em particular, os dois gigantes da tecnologia estão trabalhando para reforçar a tecnologia de rede baseada em software chamada Falcon, que o Google criou e abriu o código-fonte em 2023 sob o padrinho de todas as organizações de hardware de data center de código aberto, o Projeto de computação aberto.
Quando você compra por meio de links em nossos artigos, podemos ganhar uma pequena comissão. Isso não afeta nossa independência editorial.













