Apenas um pensamento: talvez "bitstream" capture melhor a essência do que "token" quando falamos sobre arquitetura de IA. E aqui está a questão - por que ainda estamos obcecados com a contagem de parâmetros? Os verdadeiros gargalos estão bem diante de nós: capacidade de memória, limites de largura de banda e operações computacionais. O tamanho do arquivo diz muito mais sobre o que é realmente viável. Devemos medir os modelos de IA pelo que os restringe fisicamente, e não por algum número abstrato que parece impressionante no papel.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
12 Curtidas
Recompensa
12
5
Repostar
Compartilhar
Comentário
0/400
BanklessAtHeart
· 10h atrás
A mudança de pensamento é tão rápida, fiquei confuso.
Ver originalResponder0
DataPickledFish
· 17h atrás
Hardware bull é o verdadeiro bull!
Ver originalResponder0
AirdropLicker
· 17h atrás
O tamanho do ficheiro é que é importante mesmo~
Ver originalResponder0
HallucinationGrower
· 18h atrás
É apenas um parâmetro de modelo adicionado a um monte de água.
Ver originalResponder0
ZKProofster
· 18h atrás
tecnicamente falando, tamanho != capacidade... isso é apenas teoria da informação básica smh
Apenas um pensamento: talvez "bitstream" capture melhor a essência do que "token" quando falamos sobre arquitetura de IA. E aqui está a questão - por que ainda estamos obcecados com a contagem de parâmetros? Os verdadeiros gargalos estão bem diante de nós: capacidade de memória, limites de largura de banda e operações computacionais. O tamanho do arquivo diz muito mais sobre o que é realmente viável. Devemos medir os modelos de IA pelo que os restringe fisicamente, e não por algum número abstrato que parece impressionante no papel.