広場
最新
注目
ニュース
プロフィール
ポスト
CoinProphet_ETH
2026-01-02 12:20:45
フォロー
未来三年大模型の知能的な進化はどれほど凄まじいものになるのでしょうか?
分解してみると、実際には二つの変数が推進しています:ハードウェアの計算能力の指数関数的な増加と、モデル自体のscaling規則です。
チップ側から見ると、ほぼ18ヶ月ごとに計算能力が4倍になる—これは業界で認められているペースです。訓練データ側からは、現在のscaling lawに基づいて推定すると、利用可能な高品質データはおよそ2-3回のこのようなイテレーションを支えることができます。
こう計算すると、2029年までに大モデルの知能レベルは現在の16倍に向上することになります。この数字は少し狂っているように聞こえます。
Web3やAIインフラのような新興分野にとって、この能力向上は応用の早期実現を加速させる鍵となるかもしれません。しかし同時に、私たちは早い段階で技術倫理やリスク管理の問題について考える必要もあります。
あなたはどう思いますか?その可能性に期待しますか、それとも少し心配ですか?
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については
免責事項
をご覧ください。
14 いいね
報酬
14
7
リポスト
共有
コメント
0/400
コメント
Gm_Gn_Merchant
· 01-05 04:48
16倍の向上は凄いように聞こえるが、データのボトルネックはどう突破するのか?高品質なデータは本当に十分なのか
原文表示
返信
0
SchroedingerMiner
· 01-04 14:08
16倍?まじか、これが本当なら早速GPUを少し買い溜めしないと
原文表示
返信
0
AirdropHunter9000
· 01-02 19:28
16回? そんなことはありません。データのボトルネックは長い間ブロックされていて、思っているよりずっと保守的なものになるでしょう(笑) アルゴリズムは1日に16回もブローし、その結果、トレーニングデータはとっくに底を打ち、インターネットのテキストは本当に無限になっています Web3にも独自のドラマがあります。モデルの推論がうまく分散できれば、その可能性は依然として高いです しかし倫理については長年議論されており、実際に管理されているものもいくつかあります
原文表示
返信
0
FloorSweeper
· 01-02 12:50
16回? その頃にはみんな失業しているのでしょうか(笑)。
原文表示
返信
0
AirdropLicker
· 01-02 12:49
16倍?データボトルネックこそ真のキラーだ。高品質なデータは全く足りない
原文表示
返信
0
SillyWhale
· 01-02 12:38
16倍?嘘だろ、データがなくなったらどうやって継続的にイテレーションするんだ 人工知能モデル 大規模モデル
原文表示
返信
0
Ser_Liquidated
· 01-02 12:34
16倍?那データのボトルネックはどうなのか、あまり感じられないね
原文表示
返信
0
人気の話題
もっと見る
#
FebNonfarmPayrollsUnexpectedlyFall
869.03K 人気度
#
CryptoMarketsDipSlightly
4.65M 人気度
#
IsraelStrikesIranBTCPlunges
12.12K 人気度
#
PreciousMetalsAndOilPricesSurge
443.76K 人気度
#
USIranTensionsImpactMarkets
226.58K 人気度
人気の Gate Fun
もっと見る
Gate Fun
KOL
最新
ファイナライズ中
リスト済み
1
TEST_SYMBOL
TEST_SYMBOL
時価総額:
$2.41K
保有者数:
2
0.00%
2
CV19
Covid 19
時価総額:
$2.48K
保有者数:
1
1.05%
3
我的一盾
我的一盾
時価総額:
$2.4K
保有者数:
1
0.00%
4
ulka
ulka
時価総額:
$2.4K
保有者数:
1
0.00%
5
DNAGold
CodeDNA
時価総額:
$0.1
保有者数:
1
0.00%
ピン
サイトマップ
未来三年大模型の知能的な進化はどれほど凄まじいものになるのでしょうか?
分解してみると、実際には二つの変数が推進しています:ハードウェアの計算能力の指数関数的な増加と、モデル自体のscaling規則です。
チップ側から見ると、ほぼ18ヶ月ごとに計算能力が4倍になる—これは業界で認められているペースです。訓練データ側からは、現在のscaling lawに基づいて推定すると、利用可能な高品質データはおよそ2-3回のこのようなイテレーションを支えることができます。
こう計算すると、2029年までに大モデルの知能レベルは現在の16倍に向上することになります。この数字は少し狂っているように聞こえます。
Web3やAIインフラのような新興分野にとって、この能力向上は応用の早期実現を加速させる鍵となるかもしれません。しかし同時に、私たちは早い段階で技術倫理やリスク管理の問題について考える必要もあります。
あなたはどう思いますか?その可能性に期待しますか、それとも少し心配ですか?