Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Início em Futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
AI nesta área, na verdade, já mudou silenciosamente a sua lógica de competição. Antes, todos competiam para ver quem tinha o modelo mais grande, mais parâmetros ou gerava mais rápido; mas até hoje, o que realmente faz a diferença não é mais a capacidade, mas sim se se tem coragem de ser confiável.
Isso não é uma narrativa que a própria indústria está criando para si, a atitude do mundo exterior já está bastante clara.
No relatório recente da China Internet, intitulado «Relatório de Tendências Tecnológicas para os Próximos 5 Anos», foi apontada uma tendência direta: o mundo está entrando na era dos agentes de IA inteligentes. E não é aquela IA que apenas conversa, escreve textos ou faz atendimento ao cliente, mas sim uma que entrará em cenários de alta sensibilidade como controle financeiro, aprovação governamental, governança pública, e até começará a participar de decisões reais.
No entanto, o relatório enfatiza repetidamente que, se a IA não for confiável, ela nem mesmo tem o direito de ser integrada nesses sistemas.
A pesquisa do IIT Delhi explica de forma mais direta: estruturas de caixa preta, problemas de alucinação, falta de interpretabilidade, são atualmente as maiores lacunas de confiança na IA. Quanto mais forte o modelo, maior o risco de problemas, e esse risco não é linear, mas amplificado diretamente.
E justamente por essa realidade, você verá um fenômeno bastante fragmentado: de um lado, há uma grande quantidade de “IA + plugins” e “IA + aplicações encapsuladas”, que parecem estar cada vez mais funcionais; do outro, a questão de se a IA pode ou não entrar em cenários centrais ainda depende de confiança, mas quase ninguém está abordando essa questão de forma direta.
E a série de ações recentes da @inference_labs justamente visa resolver esse ponto mais difícil.
Eles lançaram a segunda temporada do TruthTensor, ao mesmo tempo em que renomearam o antigo Subnet-2 para DSperse. A mudança de nome não é o mais importante, o que importa é que a direção ficou muito clara: eles não estão mais apenas “fazendo uma sub-rede”, mas construindo uma infraestrutura descentralizada e verificável de IA.
A ideia central do DSperse não é complexa: não deixar mais que um único modelo, um único nó ou sistema ateste sozinho a “correção”. A geração de provas será feita por múltiplas pessoas, a validação envolverá várias partes, e a confiança não virá de uma autoridade, mas do próprio processo que pode ser revisado, quantificado e rastreado.
Ele executa tanto modelos quanto os audita; não é “você confia em mim”, mas “você pode verificar por si mesmo”.
Mais importante ainda, o DSperse separa completamente “inferência” e “validação”, realizando ambos de forma distribuída. Isso pode não ser eficiente a curto prazo, mas, em termos de segurança do sistema, evita diretamente o problema mais fatal da IA centralizada: se um nó falhar, todo o sistema pode colapsar.
Esse caminho, para ser honesto, é bastante difícil, e até mesmo pouco popular no curto prazo. Mas, se você realmente olhar sob a perspectiva de que a IA deve entrar no mundo real, é quase inevitável.
Na minha opinião, 2026 será um momento muito crucial. Naquela altura, a IA não terá mais falta de capacidade de modelo; o que realmente será escasso serão três coisas: verificabilidade, auditabilidade e uma camada de infraestrutura confiável.
Com o ritmo atual, a Inference Labs escolheu enfrentar a parte mais difícil primeiro. Entre muitos projetos que ainda estão focados em aumentar parâmetros, treinar modelos ou trocar aplicações, o DSperse parece mais um elemento discreto, mas que pode determinar a direção da próxima fase.