A arquitetura de chips de supercomputação AI de nova geração foi oficialmente lançada, atingindo avanços notáveis nos indicadores de desempenho. Em comparação com a geração anterior, o custo na fase de inferência foi reduzido a um décimo, o que representa um ponto de virada para a economicidade do deployment de modelos em larga escala. Ao mesmo tempo, a quantidade de GPUs necessárias para o treinamento foi reduzida em 75%, o que significa que as empresas podem realizar as mesmas tarefas computacionais com menos hardware. A eficiência energética aumentou em cinco vezes, o que implica uma redução significativa no consumo de energia e na pressão de dissipação de calor sob a mesma capacidade de processamento.
As inovações no nível da arquitetura técnica também são notáveis — pela primeira vez, foi implementada a capacidade de computação confidencial em nível de rack, com uma largura de banda de interconexão entre GPUs atingindo impressionantes 260 TB/s, uma taxa de fluxo de dados suficiente para suportar cenários de computação paralela em escala ultra grande. Toda a plataforma foi completamente redesenhada, abandonando os tradicionais cabos flexíveis e soluções de ventilação, adotando uma organização de hardware mais compacta e eficiente. O núcleo do motor é composto por seis componentes modulares, oferecendo maior flexibilidade para personalização e expansão. O lançamento desta geração de produtos, sem dúvida, irá reformular a estrutura de custos e a forma de deployment do mercado de poder de computação AI.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
21 gostos
Recompensa
21
9
Republicar
Partilhar
Comentar
0/400
BtcDailyResearcher
· 01-09 14:58
Um décimo do custo? Agora os amigos das minas vão ficar preocupados
---
260TB/s de largura de banda... Este número deixou-me tonto, mas parece que alguém vai precisar fazer cortes
---
Eficiência aumentada em cinco vezes? Para os fãs de contas de eletricidade, é um verdadeiro salvador, estão a pensar em trocar de chips
---
Mais uma rodada de iteração e mais uma rodada de reestruturação, esta velocidade realmente é difícil de acompanhar
---
GPU precisa de uma redução de 75%... Eh, as ações dos fabricantes de placas gráficas vão cair?
---
Design modular parece bom, só tenho medo de ser mais uma jogada de marketing, só acreditarei nos resultados reais
---
Se isto for realmente tão forte quanto a propaganda diz, o mercado de poder de cálculo de IA vai mudar completamente
---
Reduzir o custo para um décimo é realmente absurdo, deve ser difícil para quem comprou chips mais cedo
---
Nunca tinha ouvido falar de computação confidencial em rack, parece que mais uma vez vamos ser prejudicados
---
Vamos acelerar a iteração, parece que a cada três meses temos que atualizar toda a pilha tecnológica
Ver originalResponder0
AirdropHermit
· 01-09 10:02
Caramba, um décimo do custo? Isso é verdade, parece que vai explodir desta vez
Este aumento de eficiência de cinco vezes, os grandes investidores vão precisar comprar na baixa loucamente
260TB/s... esse número soa absurdo, será que realmente consegue alcançar
O custo de inferência foi reduzido diretamente a um décimo, as pequenas empresas finalmente têm uma chance
GPU com 75% a menos ainda com a mesma capacidade de processamento, quem consegue aguentar isso
A arquitetura de nível rack pode garantir computação confidencial, essa arquitetura foi bem pensada
Se não aproveitar essa onda e subir a bordo, parece que vai perder dinheiro
Ver originalResponder0
GateUser-6bc33122
· 01-07 00:38
Um décimo do custo? Agora realmente há esperança para startups de grandes modelos
Ver originalResponder0
RektHunter
· 01-06 15:51
Nossa, o custo de inferência foi reduzido para um décimo? Agora até pequenas empresas podem usar grandes modelos, os monopólios de poder de computação que existiam antes estão prestes a acabar.
O número de 260TB/s é impressionante, a comunicação entre GPUs é tão eficiente... Mas será que realmente consegue rodar de forma estável?
Reduzir 75% do número de GPUs, que conceito é esse? O dinheiro economizado em eletricidade e hardware... Ah, não quero pensar nisso, vai voltar a subir de preço.
Se essa coisa for realmente tão poderosa, o cenário da indústria vai mudar, hein.
Ver originalResponder0
SandwichTrader
· 01-06 15:50
Diz uma décima do custo? Agora o grande modelo realmente vai se tornar competitivo
---
260TB/s, esse número parece ótimo, mas o resfriamento realmente consegue acompanhar?
---
GPU cortada em 75%, o que isso significa? Pequenas e médias empresas finalmente podem brincar com IA?
---
Mais modularidade e computação confidencial, parece que essa arquitetura não é tão simples assim
---
Eficiência energética aumentada em cinco vezes? Então antes tudo estava consumindo energia à toa, né haha
---
Falar em reformular a estrutura de custos, não é mais do que tentar conquistar o mercado, já é uma abordagem antiga
---
260TB/s, isso é real? Com essa velocidade, dá para rodar qualquer coisa, né?
---
Eu acredito que o custo seja uma décima, mas o custo de hardware upstream realmente caiu?
---
Abandonando o esquema de ventilador, o novo método de resfriamento é confiável? Não vá dar problema de novo
---
Finalmente alguém investindo na redução de custos, os planos anteriores eram caros demais
Ver originalResponder0
tokenomics_truther
· 01-06 15:44
260 TB/s? Este número parece absurdo, mas se realmente puder reduzir o custo de inferência para um décimo, a oportunidade para os mineiros chegou
Ver originalResponder0
MEVictim
· 01-06 15:41
Um décimo do custo? Se isso fosse verdade, já deveria ter acontecido há muito tempo, não seja mais um dado teórico
Ver originalResponder0
OnchainArchaeologist
· 01-06 15:39
Um décimo do custo? Agora o empreendedorismo com grandes modelos não é mais tão caro, finalmente podemos respirar
Redução de 75% no GPU, isso é verdade... o custo empresarial foi drasticamente cortado
Largura de banda de 260 TB/s é absurda, agora o fluxo de dados não é mais um gargalo
Eficiência energética aumentada em cinco vezes, a refrigeração finalmente não precisa ser tão extrema, incrível
Design modular com imaginação, grande potencial para personalizações futuras
Custo de inferência reduzido a um décimo, essa atualização realmente muda as regras do jogo
A arquitetura de chips de supercomputação AI de nova geração foi oficialmente lançada, atingindo avanços notáveis nos indicadores de desempenho. Em comparação com a geração anterior, o custo na fase de inferência foi reduzido a um décimo, o que representa um ponto de virada para a economicidade do deployment de modelos em larga escala. Ao mesmo tempo, a quantidade de GPUs necessárias para o treinamento foi reduzida em 75%, o que significa que as empresas podem realizar as mesmas tarefas computacionais com menos hardware. A eficiência energética aumentou em cinco vezes, o que implica uma redução significativa no consumo de energia e na pressão de dissipação de calor sob a mesma capacidade de processamento.
As inovações no nível da arquitetura técnica também são notáveis — pela primeira vez, foi implementada a capacidade de computação confidencial em nível de rack, com uma largura de banda de interconexão entre GPUs atingindo impressionantes 260 TB/s, uma taxa de fluxo de dados suficiente para suportar cenários de computação paralela em escala ultra grande. Toda a plataforma foi completamente redesenhada, abandonando os tradicionais cabos flexíveis e soluções de ventilação, adotando uma organização de hardware mais compacta e eficiente. O núcleo do motor é composto por seis componentes modulares, oferecendo maior flexibilidade para personalização e expansão. O lançamento desta geração de produtos, sem dúvida, irá reformular a estrutura de custos e a forma de deployment do mercado de poder de computação AI.