剛才和 Gemini pro 3.1 仔細探討了一會,我才意識到其實現在我們僅用一塊高端顯卡,就可以對過去500根K線及這些K線進行時所累計的市場數據進行Token化的處理了…


Token化之後就代表著你可以在自己的電腦上訓練一個簡易的大模型,性能類似GPT 2,但只專注價格概率分析。
短短2-3年之內,大模型背後的訓練成本似乎不是由硬件發展降低的,而是由層出不窮的新算法來縮減的。
目前我的思路就是嘗試去訓練一個簡單的多模態模型,價格和盘口數據被簡化成8個Tokens,成交量被簡化成2個Tokens,最後再那根K線上發生的時事新聞,被簡化成利空或利多的信息…
這樣模型只需要 2-4 層 Transformer 層、128 個隱層維度就足以捕捉大部分模式了…
我覺得這個思路很有意思,比單純讓AI寫量化策略更好玩!
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)