Acabei de discutir cuidadosamente com o Gemini pro 3.1 e percebi que, na verdade, agora podemos usar apenas uma placa gráfica de alta gama para tokenizar os últimos 500 candles e os dados de mercado acumulados durante esses candles…
Após a tokenização, isso significa que você pode treinar um modelo grande simples no seu próprio computador, com desempenho semelhante ao GPT 2, mas focado apenas na análise de probabilidade de preços. Em apenas 2-3 anos, o custo de treino por trás de grandes modelos parece não estar sendo reduzido pelo desenvolvimento de hardware, mas sim por uma variedade de novos algoritmos que vêm surgindo para diminuir esse custo. Atualmente, minha ideia é tentar treinar um modelo multimodal simples, onde os dados de preço e ordem de compra/venda são simplificados em 8 Tokens, o volume de negociação é simplificado em 2 Tokens, e as notícias de eventos que ocorrem na linha K são resumidas em informações de impacto positivo ou negativo… Assim, o modelo precisaria apenas de 2-4 camadas de Transformer, com 128 dimensões de camada oculta, para captar a maioria dos padrões… Acho essa abordagem muito interessante, é mais divertido do que simplesmente deixar a IA escrever estratégias quantitativas!
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Acabei de discutir cuidadosamente com o Gemini pro 3.1 e percebi que, na verdade, agora podemos usar apenas uma placa gráfica de alta gama para tokenizar os últimos 500 candles e os dados de mercado acumulados durante esses candles…
Após a tokenização, isso significa que você pode treinar um modelo grande simples no seu próprio computador, com desempenho semelhante ao GPT 2, mas focado apenas na análise de probabilidade de preços.
Em apenas 2-3 anos, o custo de treino por trás de grandes modelos parece não estar sendo reduzido pelo desenvolvimento de hardware, mas sim por uma variedade de novos algoritmos que vêm surgindo para diminuir esse custo.
Atualmente, minha ideia é tentar treinar um modelo multimodal simples, onde os dados de preço e ordem de compra/venda são simplificados em 8 Tokens, o volume de negociação é simplificado em 2 Tokens, e as notícias de eventos que ocorrem na linha K são resumidas em informações de impacto positivo ou negativo…
Assim, o modelo precisaria apenas de 2-4 camadas de Transformer, com 128 dimensões de camada oculta, para captar a maioria dos padrões…
Acho essa abordagem muito interessante, é mais divertido do que simplesmente deixar a IA escrever estratégias quantitativas!