Durante anos, a batalha pela infraestrutura de IA pareceu desequilibrada. Grandes provedores de cloud como Alphabet, Amazon e Microsoft investiram bilhões na conceção de chips personalizados para centros de dados, mas nenhum conseguiu igualar a posição de liderança da Nvidia em unidades de processamento gráfico (GPUs). Essa narrativa mudou drasticamente.
Em 18 de novembro, a Alphabet revelou o Gemini 3, o seu mais recente modelo de IA, e a verdadeira história não se resumiu apenas ao desempenho—foi entregue exclusivamente nas unidades de processamento tensor personalizadas da Alphabet (TPUs). Este marco marca um potencial ponto de viragem na batalha pela supremacia dos chips de IA. O Gemini 3 igualou ou superou as capacidades das últimas versões da OpenAI e da Anthropic, provando que chips feitos internamente podem competir ao mais alto nível.
O que torna este desenvolvimento particularmente significativo? A Meta Platforms está, supostamente, em negociações para comprar TPUs diretamente à Alphabet, enquanto a Anthropic anunciou uma grande expansão na adoção de TPUs através do Google Cloud. A mudança de uma ameaça teórica para uma demanda real de mercado já está em andamento.
Restrições de Oferta Encontram Demanda Explosiva
O Google Cloud está a experimentar uma procura sem precedentes por capacidade de computação. Durante o terceiro trimestre de 2025 (terminou em 30 de setembro), a plataforma gerou $15,1 mil milhões em receitas—um aumento de 33,5% face ao mesmo período do ano anterior, que acelerou em relação ao trimestre anterior. No entanto, há uma restrição crítica: a disponibilidade de TPU não consegue acompanhar.
O backlog de pedidos de capacidade de computação explodiu para $155 bilhões durante o terceiro trimestre, saltando 82% face ao ano anterior. Segundo Amin Vahdat, Diretor Geral de IA e Infraestrutura do Google Cloud, esse desequilíbrio entre oferta e procura pode persistir pelos próximos cinco anos. Essa dinâmica confere poder de definição de preços à Alphabet, enquanto gera frustração entre os desenvolvedores desesperados por recursos de computação hoje.
A escala da procura potencial é assombrosa. Quando a Anthropic anunciou que acessaria até 1 milhão de TPUs através do Google Cloud para treinar os seus modelos Claude, esse contrato único ilustrou a magnitude da oportunidade. A Meta Platforms, atualmente dependente de GPUs Nvidia para treinar o seu modelo Llama, planeja comprar bilhões de dólares em TPUs a partir de 2027 para os seus próprios centros de dados.
O Desafio da Nvidia: Competitiva, mas Ainda Não Vulnerável (Ainda)
A pressão competitiva é real, mas a posição da Nvidia não está a colapsar imediatamente. Se os backlog de pedidos continuarem a crescer, a Nvidia provavelmente não sentirá efeitos significativos por vários anos. Os provedores de cloud que precisam satisfazer a procura dos clientes continuarão a adquirir de múltiplos fornecedores, incluindo a Nvidia, apenas para cumprir os requisitos de capacidade.
As GPUs continuam a ser o padrão padrão para a maioria das cargas de trabalho de IA, principalmente devido à sua versatilidade e maturidade do ecossistema. A Alphabet desenhou as TPUs para fins específicos—alto desempenho e eficiência energética, sim, mas não necessariamente ideais para todos os casos de uso dos desenvolvedores. O software proprietário CUDA da Nvidia permanece a linguagem de programação preferida na indústria de IA. Mudar para TPUs significa abandonar o CUDA, criando atrito para os desenvolvedores já investidos na stack da Nvidia.
O CEO da Nvidia, Jensen Huang, prevê que os gastos com centros de dados de IA podem atingir $4 trilhão anualmente até 2030. Com a Nvidia a registar $213 bilhões em receitas anuais (no exercício fiscal que termina em janeiro de 2026), a projeção de Huang deixa um enorme espaço para crescimento, mesmo que a empresa ceda liderança de mercado.
Perspetiva de Avaliação para Investidores
Do ponto de vista de avaliação, ambas as empresas apresentam oportunidades interessantes. O rácio P/E da Nvidia está em 44,6—uma desconto de 37% em relação à sua média histórica de 61,2, sugerindo potencial de valorização para investidores pacientes. A Alphabet, apesar de ter entregue um retorno de 70% no ano até à data, negocia a apenas 31,2 de P/E, tornando-se ligeiramente mais barata do que o índice Nasdaq-100 no geral.
Dado o esperado contínuo crescimento nos gastos com infraestrutura de IA, possuir ambas as empresas pode captar diferentes aspetos desta tendência de crescimento secular. A questão não é se os gastos com IA continuarão a acelerar—quase certamente irão. A questão é como evolui o panorama competitivo e quem captura mais valor.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A Alphabet deu um golpe decisivo na dominação dos chips de IA da Nvidia
A Descoberta do TPU que Muda Tudo
Durante anos, a batalha pela infraestrutura de IA pareceu desequilibrada. Grandes provedores de cloud como Alphabet, Amazon e Microsoft investiram bilhões na conceção de chips personalizados para centros de dados, mas nenhum conseguiu igualar a posição de liderança da Nvidia em unidades de processamento gráfico (GPUs). Essa narrativa mudou drasticamente.
Em 18 de novembro, a Alphabet revelou o Gemini 3, o seu mais recente modelo de IA, e a verdadeira história não se resumiu apenas ao desempenho—foi entregue exclusivamente nas unidades de processamento tensor personalizadas da Alphabet (TPUs). Este marco marca um potencial ponto de viragem na batalha pela supremacia dos chips de IA. O Gemini 3 igualou ou superou as capacidades das últimas versões da OpenAI e da Anthropic, provando que chips feitos internamente podem competir ao mais alto nível.
O que torna este desenvolvimento particularmente significativo? A Meta Platforms está, supostamente, em negociações para comprar TPUs diretamente à Alphabet, enquanto a Anthropic anunciou uma grande expansão na adoção de TPUs através do Google Cloud. A mudança de uma ameaça teórica para uma demanda real de mercado já está em andamento.
Restrições de Oferta Encontram Demanda Explosiva
O Google Cloud está a experimentar uma procura sem precedentes por capacidade de computação. Durante o terceiro trimestre de 2025 (terminou em 30 de setembro), a plataforma gerou $15,1 mil milhões em receitas—um aumento de 33,5% face ao mesmo período do ano anterior, que acelerou em relação ao trimestre anterior. No entanto, há uma restrição crítica: a disponibilidade de TPU não consegue acompanhar.
O backlog de pedidos de capacidade de computação explodiu para $155 bilhões durante o terceiro trimestre, saltando 82% face ao ano anterior. Segundo Amin Vahdat, Diretor Geral de IA e Infraestrutura do Google Cloud, esse desequilíbrio entre oferta e procura pode persistir pelos próximos cinco anos. Essa dinâmica confere poder de definição de preços à Alphabet, enquanto gera frustração entre os desenvolvedores desesperados por recursos de computação hoje.
A escala da procura potencial é assombrosa. Quando a Anthropic anunciou que acessaria até 1 milhão de TPUs através do Google Cloud para treinar os seus modelos Claude, esse contrato único ilustrou a magnitude da oportunidade. A Meta Platforms, atualmente dependente de GPUs Nvidia para treinar o seu modelo Llama, planeja comprar bilhões de dólares em TPUs a partir de 2027 para os seus próprios centros de dados.
O Desafio da Nvidia: Competitiva, mas Ainda Não Vulnerável (Ainda)
A pressão competitiva é real, mas a posição da Nvidia não está a colapsar imediatamente. Se os backlog de pedidos continuarem a crescer, a Nvidia provavelmente não sentirá efeitos significativos por vários anos. Os provedores de cloud que precisam satisfazer a procura dos clientes continuarão a adquirir de múltiplos fornecedores, incluindo a Nvidia, apenas para cumprir os requisitos de capacidade.
As GPUs continuam a ser o padrão padrão para a maioria das cargas de trabalho de IA, principalmente devido à sua versatilidade e maturidade do ecossistema. A Alphabet desenhou as TPUs para fins específicos—alto desempenho e eficiência energética, sim, mas não necessariamente ideais para todos os casos de uso dos desenvolvedores. O software proprietário CUDA da Nvidia permanece a linguagem de programação preferida na indústria de IA. Mudar para TPUs significa abandonar o CUDA, criando atrito para os desenvolvedores já investidos na stack da Nvidia.
O CEO da Nvidia, Jensen Huang, prevê que os gastos com centros de dados de IA podem atingir $4 trilhão anualmente até 2030. Com a Nvidia a registar $213 bilhões em receitas anuais (no exercício fiscal que termina em janeiro de 2026), a projeção de Huang deixa um enorme espaço para crescimento, mesmo que a empresa ceda liderança de mercado.
Perspetiva de Avaliação para Investidores
Do ponto de vista de avaliação, ambas as empresas apresentam oportunidades interessantes. O rácio P/E da Nvidia está em 44,6—uma desconto de 37% em relação à sua média histórica de 61,2, sugerindo potencial de valorização para investidores pacientes. A Alphabet, apesar de ter entregue um retorno de 70% no ano até à data, negocia a apenas 31,2 de P/E, tornando-se ligeiramente mais barata do que o índice Nasdaq-100 no geral.
Dado o esperado contínuo crescimento nos gastos com infraestrutura de IA, possuir ambas as empresas pode captar diferentes aspetos desta tendência de crescimento secular. A questão não é se os gastos com IA continuarão a acelerar—quase certamente irão. A questão é como evolui o panorama competitivo e quem captura mais valor.