O mercado de chips de inteligência artificial está passando por uma mudança fundamental. Enquanto os investimentos em IA continuam a crescer globalmente, as ações da Nvidia estagnaram, com um ganho de apenas 1% desde o quarto trimestre de 2025. Mais revelador é a mudança na forma como os investidores veem a empresa: seu índice preço/lucro agora está em torno de 24, alinhado com o índice Nasdaq 100 mais amplo. Pela primeira vez em anos, o mercado questiona se o prêmio da Nvidia é justificado — não por uma demanda decrescente por chips de IA, mas porque o cenário competitivo está evoluindo mais rápido do que o esperado.
O ponto de virada ocorreu quando a liderança no setor começou a mudar de “apostar tudo na Nvidia” para “avaliar quem mais pode entregar.” Jensen Huang, recentemente, adquiriu licenças tecnológicas e talentos da Groq — um negócio avaliado em aproximadamente 20 bilhões de dólares — o que paradoxalmente destacou o crescimento dos concorrentes. A Cerebras garantiu um contrato de inferência rápida de 10 bilhões de dólares com a OpenAI; a Anthropic fez parcerias com vários fornecedores de chips não-Nvidia. Essas movimentações sinalizaram aos investidores que o monopólio outrora inquebrável da Nvidia agora apresenta fissuras.
Como os Chips de Inferência se Tornaram o Campo de Batalha
A verdadeira competição concentra-se em um segmento específico: os chips de inferência. Após o treinamento de um modelo de IA, a inferência realiza a tarefa crucial de gerar respostas em tempo real. A Jump Trading liderou uma rodada de financiamento de 230 milhões de dólares em fevereiro de 2026 para a startup de inferência Positron, tornando-se cliente. Alexandra Davies, CTO da Positron, expressou o que muitos na indústria agora acreditam: “Quase todos usam Nvidia tanto para treinamento quanto para inferência, mas vemos a indústria mudando, e isso não vai durar. Não acreditamos que haverá apenas um vencedor.”
A avaliação de Davies reflete uma tendência mais ampla na indústria. A Nvidia domina nos chips de memória de alta largura de banda usados para cálculos de treinamento paralelo em grande escala. No entanto, startups estão explorando arquiteturas de memória alternativas para alcançar velocidades de inferência mais rápidas. À medida que a fronteira entre treinamento de modelos e inferência continua a se borrar — com a inferência agora exigindo decisões computacionais em tempo real, em vez de depender apenas de saídas pré-treinadas — novas arquiteturas de chips tornam-se viáveis.
Sid Sheth, CEO da D-Matrix, apoiada pela Microsoft, destacou outro catalisador: “Desde que a DeepSeek surgiu no início de 2025, o apetite dos investidores por chips de inferência rápida aumentou dramaticamente.” A D-Matrix concluiu uma rodada de financiamento de 275 milhões de dólares em novembro passado, refletindo esse impulso. O mercado está reconhecendo que hardware especializado, voltado para tarefas específicas — e não chips generalistas — pode ser o futuro da indústria.
O Surge de Startups e a Autossuficiência Corporativa
A oportunidade em chips de inferência está atraindo capital significativo. A Etched, outra startup focada em inferência, levantou cerca de 500 milhões de dólares em fevereiro de 2026, desafiando diretamente a posição da Nvidia. Enquanto isso, a startup de modelos de IA Simile emergiu do modo stealth com 100 milhões de dólares de financiamento da Index Ventures para ajudar empresas a prever comportamentos humanos. A SambaNova, inicialmente explorando uma aquisição a uma avaliação deprimida, abandonou essas discussões e agora busca novo financiamento — sinalizando uma confiança renovada no setor.
Grandes empresas de tecnologia estão, ao mesmo tempo, reduzindo sua dependência da Nvidia. A OpenAI recentemente lançou um modelo de IA rodando em chips Cerebras pela primeira vez. A Anthropic garantiu acordos de uso para a infraestrutura Amazon Trainium e Google TPU. A Microsoft lançou seu chip de IA de segunda geração, Maia, em fevereiro de 2026, e obteve direitos sobre a propriedade intelectual do chip da OpenAI. O padrão é claro: a diversificação está substituindo a centralização.
No entanto, essa competição não desbancou totalmente a Nvidia. Amazon, Google, Microsoft, OpenAI e outros continuam adquirindo grandes quantidades de GPUs Nvidia para alimentar seus serviços de IA e plataformas de nuvem. A Nvidia permanece líder operacional no setor, mesmo enquanto os investidores reavaliam seu domínio futuro.
A Contraofensiva da Nvidia e o Caminho à Frente
A Nvidia já demonstrou sua força como líder de mercado antes. A empresa mantém um portfólio de produtos amplo e se compromete a uma reformulação completa de chips anualmente. Quando questionado sobre a criação de hardware especializado para inferência, Jensen Huang permaneceu ambíguo, sugerindo apenas que “talvez em algum lugar possamos criar algo único.” Analistas de mercado esperam que a Nvidia anuncie iniciativas estratégicas na sua conferência principal de março de 2026 para atender à demanda rápida por inferência.
O contexto histórico é importante: várias startups e concorrentes estabelecidos afirmaram desafiar a Nvidia ao longo dos anos, e a maioria não conseguiu ganhar escala significativa ou presença de mercado abrangente. Alexandra Davies e outros como ela representam um momento diferente — um em que soluções especializadas visam necessidades computacionais específicas, em vez de tentar uma substituição universal.
Como Davies observou em sua avaliação da história da engenharia: “Quando uma indústria cresce de forma explosiva, você começa com algo geral, depois ocorre uma expansão exponencial, e eventualmente alguém percebe que simplesmente não dá para ter uma única coisa lidando com tudo.” Se a Nvidia conseguirá manter sua liderança ao se adaptar, ou se este momento representa uma mudança real na arquitetura de chips de IA, provavelmente ficará claro antes do final de 2026.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
O controlo da Nvidia sobre os chips de IA enfraquece-se à medida que o mercado reavalia o risco de concorrência
O mercado de chips de inteligência artificial está passando por uma mudança fundamental. Enquanto os investimentos em IA continuam a crescer globalmente, as ações da Nvidia estagnaram, com um ganho de apenas 1% desde o quarto trimestre de 2025. Mais revelador é a mudança na forma como os investidores veem a empresa: seu índice preço/lucro agora está em torno de 24, alinhado com o índice Nasdaq 100 mais amplo. Pela primeira vez em anos, o mercado questiona se o prêmio da Nvidia é justificado — não por uma demanda decrescente por chips de IA, mas porque o cenário competitivo está evoluindo mais rápido do que o esperado.
O ponto de virada ocorreu quando a liderança no setor começou a mudar de “apostar tudo na Nvidia” para “avaliar quem mais pode entregar.” Jensen Huang, recentemente, adquiriu licenças tecnológicas e talentos da Groq — um negócio avaliado em aproximadamente 20 bilhões de dólares — o que paradoxalmente destacou o crescimento dos concorrentes. A Cerebras garantiu um contrato de inferência rápida de 10 bilhões de dólares com a OpenAI; a Anthropic fez parcerias com vários fornecedores de chips não-Nvidia. Essas movimentações sinalizaram aos investidores que o monopólio outrora inquebrável da Nvidia agora apresenta fissuras.
Como os Chips de Inferência se Tornaram o Campo de Batalha
A verdadeira competição concentra-se em um segmento específico: os chips de inferência. Após o treinamento de um modelo de IA, a inferência realiza a tarefa crucial de gerar respostas em tempo real. A Jump Trading liderou uma rodada de financiamento de 230 milhões de dólares em fevereiro de 2026 para a startup de inferência Positron, tornando-se cliente. Alexandra Davies, CTO da Positron, expressou o que muitos na indústria agora acreditam: “Quase todos usam Nvidia tanto para treinamento quanto para inferência, mas vemos a indústria mudando, e isso não vai durar. Não acreditamos que haverá apenas um vencedor.”
A avaliação de Davies reflete uma tendência mais ampla na indústria. A Nvidia domina nos chips de memória de alta largura de banda usados para cálculos de treinamento paralelo em grande escala. No entanto, startups estão explorando arquiteturas de memória alternativas para alcançar velocidades de inferência mais rápidas. À medida que a fronteira entre treinamento de modelos e inferência continua a se borrar — com a inferência agora exigindo decisões computacionais em tempo real, em vez de depender apenas de saídas pré-treinadas — novas arquiteturas de chips tornam-se viáveis.
Sid Sheth, CEO da D-Matrix, apoiada pela Microsoft, destacou outro catalisador: “Desde que a DeepSeek surgiu no início de 2025, o apetite dos investidores por chips de inferência rápida aumentou dramaticamente.” A D-Matrix concluiu uma rodada de financiamento de 275 milhões de dólares em novembro passado, refletindo esse impulso. O mercado está reconhecendo que hardware especializado, voltado para tarefas específicas — e não chips generalistas — pode ser o futuro da indústria.
O Surge de Startups e a Autossuficiência Corporativa
A oportunidade em chips de inferência está atraindo capital significativo. A Etched, outra startup focada em inferência, levantou cerca de 500 milhões de dólares em fevereiro de 2026, desafiando diretamente a posição da Nvidia. Enquanto isso, a startup de modelos de IA Simile emergiu do modo stealth com 100 milhões de dólares de financiamento da Index Ventures para ajudar empresas a prever comportamentos humanos. A SambaNova, inicialmente explorando uma aquisição a uma avaliação deprimida, abandonou essas discussões e agora busca novo financiamento — sinalizando uma confiança renovada no setor.
Grandes empresas de tecnologia estão, ao mesmo tempo, reduzindo sua dependência da Nvidia. A OpenAI recentemente lançou um modelo de IA rodando em chips Cerebras pela primeira vez. A Anthropic garantiu acordos de uso para a infraestrutura Amazon Trainium e Google TPU. A Microsoft lançou seu chip de IA de segunda geração, Maia, em fevereiro de 2026, e obteve direitos sobre a propriedade intelectual do chip da OpenAI. O padrão é claro: a diversificação está substituindo a centralização.
No entanto, essa competição não desbancou totalmente a Nvidia. Amazon, Google, Microsoft, OpenAI e outros continuam adquirindo grandes quantidades de GPUs Nvidia para alimentar seus serviços de IA e plataformas de nuvem. A Nvidia permanece líder operacional no setor, mesmo enquanto os investidores reavaliam seu domínio futuro.
A Contraofensiva da Nvidia e o Caminho à Frente
A Nvidia já demonstrou sua força como líder de mercado antes. A empresa mantém um portfólio de produtos amplo e se compromete a uma reformulação completa de chips anualmente. Quando questionado sobre a criação de hardware especializado para inferência, Jensen Huang permaneceu ambíguo, sugerindo apenas que “talvez em algum lugar possamos criar algo único.” Analistas de mercado esperam que a Nvidia anuncie iniciativas estratégicas na sua conferência principal de março de 2026 para atender à demanda rápida por inferência.
O contexto histórico é importante: várias startups e concorrentes estabelecidos afirmaram desafiar a Nvidia ao longo dos anos, e a maioria não conseguiu ganhar escala significativa ou presença de mercado abrangente. Alexandra Davies e outros como ela representam um momento diferente — um em que soluções especializadas visam necessidades computacionais específicas, em vez de tentar uma substituição universal.
Como Davies observou em sua avaliação da história da engenharia: “Quando uma indústria cresce de forma explosiva, você começa com algo geral, depois ocorre uma expansão exponencial, e eventualmente alguém percebe que simplesmente não dá para ter uma única coisa lidando com tudo.” Se a Nvidia conseguirá manter sua liderança ao se adaptar, ou se este momento representa uma mudança real na arquitetura de chips de IA, provavelmente ficará claro antes do final de 2026.