Apenas um pensamento: talvez "bitstream" capture melhor a essência do que "token" quando falamos sobre arquitetura de IA. E aqui está a questão - por que ainda estamos obcecados com a contagem de parâmetros? Os verdadeiros gargalos estão bem diante de nós: capacidade de memória, limites de largura de banda e operações computacionais. O tamanho do arquivo diz muito mais sobre o que é realmente viável. Devemos medir os modelos de IA pelo que os restringe fisicamente, e não por algum número abstrato que parece impressionante no papel.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
12 gostos
Recompensa
12
5
Republicar
Partilhar
Comentar
0/400
BanklessAtHeart
· 10h atrás
A mudança de pensamento é tão rápida, fiquei confuso.
Ver originalResponder0
DataPickledFish
· 17h atrás
Hardware bull é o verdadeiro bull!
Ver originalResponder0
AirdropLicker
· 17h atrás
O tamanho do ficheiro é que é importante mesmo~
Ver originalResponder0
HallucinationGrower
· 18h atrás
É apenas um parâmetro de modelo adicionado a um monte de água.
Ver originalResponder0
ZKProofster
· 18h atrás
tecnicamente falando, tamanho != capacidade... isso é apenas teoria da informação básica smh
Apenas um pensamento: talvez "bitstream" capture melhor a essência do que "token" quando falamos sobre arquitetura de IA. E aqui está a questão - por que ainda estamos obcecados com a contagem de parâmetros? Os verdadeiros gargalos estão bem diante de nós: capacidade de memória, limites de largura de banda e operações computacionais. O tamanho do arquivo diz muito mais sobre o que é realmente viável. Devemos medir os modelos de IA pelo que os restringe fisicamente, e não por algum número abstrato que parece impressionante no papel.