Futuros
Centenas de contratos liquidados em USDT ou BTC
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Início em Futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Os Chips Tensor do Google ganham terreno contra a Nvidia enquanto a Meta explora uma parceria estratégica
O panorama competitivo em hardware de IA está a mudar visivelmente à medida que a Google faz avanços estratégicos num mercado há muito dominado pela Nvidia. A Meta Platforms está, alegadamente, em negociações com a Google para adotar as suas unidades de processamento tensorial (TPUs) para implementação nos seus data centers a partir de 2027, com potencial acesso antecipado através do Google Cloud já no próximo ano. Este desenvolvimento sinaliza uma tendência mais ampla: grandes empresas de tecnologia estão a diversificar ativamente os seus fornecedores de chips de IA, em vez de dependerem exclusivamente das ofertas da Nvidia.
O mercado refletiu imediatamente este movimento competitivo. As ações da Nvidia recuaram 2,7% após o fecho na terça-feira, enquanto a Alphabet—empresa-mãe da Google—subiu 2,7%, capitalizando o otimismo crescente em torno do seu modelo de IA Gemini e das capacidades de hardware em expansão. Fornecedores asiáticos ligados à Google também beneficiaram, com a IsuPetasys, da Coreia do Sul—um fornecedor chave de placas multicamadas—a subir 18%, e a MediaTek de Taiwan a aumentar quase 5%.
A potencial adoção dos TPUs da Google pela Meta seguiria uma trajetória semelhante à já estabelecida pela Anthropic. A Google garantiu um acordo para fornecer até 1 milhão de chips à startup de IA, um marco que o analista Jay Goldberg, da Seaport, caracterizou como uma “validação realmente poderosa” da tecnologia da Google. Esta validação tem repercutido na indústria, incentivando outras empresas a avaliarem os TPUs como uma alternativa legítima às unidades de processamento gráfico (GPUs) da Nvidia.
Compreender o posicionamento competitivo exige analisar como estas tecnologias diferem. Os GPUs da Nvidia evoluíram das suas aplicações originais de jogos e gráficos e tornaram-se a escolha padrão para cargas de trabalho de treino de IA, dominando a quota de mercado no setor. Os TPUs da Google, por outro lado, representam uma filosofia de design especializada—circuitos integrados específicos de aplicação (ASICs) construídos do zero para tarefas de IA e aprendizagem automática. Mais de uma década de refinamento através da implementação nos produtos e modelos próprios da Google, como o Gemini, permitiu à empresa otimizar simultaneamente hardware e software, criando um ciclo de retroalimentação que reforça a sua posição competitiva.
Para a Meta, especificamente, a economia é convincente. A empresa prevê gastar pelo menos $100 bilhão em despesas de capital em 2026, com analistas da Bloomberg Intelligence a estimar que entre 40 a 50 mil milhões de dólares possam ser direcionados para capacidade de chips de inferência. Se a Meta avançar com a adoção de GPUs juntamente com a continuação das compras à Nvidia, este padrão de despesa poderá acelerar substancialmente o crescimento do negócio de infraestrutura do Google Cloud.
Os analistas da Bloomberg, Mandeep Singh e Robert Biggar, enquadram as negociações da Meta como parte de uma mudança mais ampla na indústria: fornecedores terceiros de IA estão a tratar cada vez mais a Google como um fornecedor secundário credível para chips de inferência, em vez de considerarem a Nvidia como a sua única opção. Este sentimento reflete uma confiança crescente no desempenho e fiabilidade dos TPUs.
Nem a Meta nem a Google confirmaram oficialmente as negociações de parceria. No entanto, a exploração desta opção pela Meta—juntamente com o seu compromisso de investir massivamente em infraestrutura de IA—destaca como os maiores operadores de IA do mundo estão a gerir ativamente o risco de concentração de fornecedores de chips. O sucesso a longo prazo da estratégia de TPU da Google dependerá, em última análise, de os chips conseguirem oferecer desempenho competitivo e eficiência energética em escala, mas a receção inicial da indústria sugere que a Google posicionou-se com sucesso como uma força emergente na competição acelerada por hardware de IA.