Je viens de discuter attentivement avec Gemini pro 3.1, et je me suis rendu compte qu'en réalité, avec une seule carte graphique haut de gamme, nous pouvons déjà tokeniser les 500 dernières bougies ainsi que les données de marché accumulées pendant ces bougies…
Une fois tokenisées, cela signifie que vous pouvez entraîner un modèle simple sur votre propre ordinateur, avec des performances similaires à GPT 2, mais en se concentrant uniquement sur l’analyse des probabilités de prix. En seulement 2 à 3 ans, le coût d’entraînement derrière les grands modèles ne semble pas diminuer grâce au développement du matériel, mais plutôt grâce à une multitude de nouvelles algorithmes qui réduisent ces coûts. Actuellement, mon idée est d’essayer d’entraîner un modèle multimodal simple, où les données de prix et de carnet d’ordres sont simplifiées en 8 Tokens, le volume de transactions en 2 Tokens, et enfin, les actualités sur la bougie en cours sont simplifiées en informations haussières ou baissières… Ainsi, ce modèle n’a besoin que de 2 à 4 couches Transformer, avec 128 dimensions de couche cachée, pour capturer la majorité des schémas… Je trouve cette approche très intéressante, c’est bien plus amusant que de simplement laisser l’IA écrire des stratégies quantitatives !
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Je viens de discuter attentivement avec Gemini pro 3.1, et je me suis rendu compte qu'en réalité, avec une seule carte graphique haut de gamme, nous pouvons déjà tokeniser les 500 dernières bougies ainsi que les données de marché accumulées pendant ces bougies…
Une fois tokenisées, cela signifie que vous pouvez entraîner un modèle simple sur votre propre ordinateur, avec des performances similaires à GPT 2, mais en se concentrant uniquement sur l’analyse des probabilités de prix.
En seulement 2 à 3 ans, le coût d’entraînement derrière les grands modèles ne semble pas diminuer grâce au développement du matériel, mais plutôt grâce à une multitude de nouvelles algorithmes qui réduisent ces coûts.
Actuellement, mon idée est d’essayer d’entraîner un modèle multimodal simple, où les données de prix et de carnet d’ordres sont simplifiées en 8 Tokens, le volume de transactions en 2 Tokens, et enfin, les actualités sur la bougie en cours sont simplifiées en informations haussières ou baissières…
Ainsi, ce modèle n’a besoin que de 2 à 4 couches Transformer, avec 128 dimensions de couche cachée, pour capturer la majorité des schémas…
Je trouve cette approche très intéressante, c’est bien plus amusant que de simplement laisser l’IA écrire des stratégies quantitatives !