A CT dormiu no maior artigo de IA descentralizada de 2025


Jensen participa no All-In, CT entra no TAO
mas o verdadeiro trabalho já tinha sido feito
uma inovação no treino de IA descentralizada já aconteceu há 9 meses
Em junho de 2025, @0G_labs publicou um artigo no arXiv chamado DiLoCoX
uma estrutura que treinou um modelo de 107B de parâmetros em 20 nós descentralizados com internet padrão de 1 Gbps
resultado:
3.728 tokens/sec vs 10,4 para AllReduce
uma melhoria de 357x na eficiência de comunicação
validação da estrutura, mas o único benchmark público a esse nível de eficiência
e praticamente ninguém o cobriu
- O Covenant-72B da Bittensor é um modelo treinado
- DiLoCoX é uma estrutura para treinar qualquer modelo em infraestrutura descentralizada, categoria completamente diferente
por trás dela está um stack completo: Computação, Armazenamento, DA e Chain, nenhum outro projeto entrega todas as quatro camadas
Jensen apenas validou a tese que a 0G Labs já provou há um ano
No dia 1 de abril, eles vão falar na EthCC Cannes, o próximo capítulo está chegando
TAO-5,2%
0G-1,6%
Ver original
post-image
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar