1M AI News のモニタリングによると、AI推論インフラ企業 Fireworks AI が Fireworks Training のプレビュー版を公開し、純粋な推論プラットフォームから、トレーニングとデプロイの統合プラットフォームへと拡張した。Fireworks AI は、PyTorch の構築に携わったことのある元 Meta のエンジニアであるジョリン(Lin Qiao)が創業しており、現在の評価額は40億ドル、1日あたりの処理トークン量は15万億に達する。
プラットフォームは3つのレベルを提供する:
全パラメータ学習の規模は、単一ノードの Qwen3 8B から、64枚の英ヴィディア B200 上での Kimi K2.5(万億パラメータ)まで。
Fireworks AI の本番推論の顧客である AI プログラミングツール Cursor、Vercel、Genspark は、このプラットフォーム上で最先端の強化学習トレーニングを完了している。Vercel は、そのコード生成プロダクト v0 のために自動エラー訂正モデルを訓練し、誤りのないコード生成率は93%に達する。同社CTOの Malte Ubl は、Sonnet 3.5 と比較するとわずか62%であり、エンドツーエンドのレイテンシーは、それまで使っていたクローズドソースのモデルに比べて40倍改善したと述べている。Genspark は、万億パラメータのオープンソースモデル Kimi K2 に対して強化学習の微調整を行い、深いリサーチエージェントを構築。ツール呼び出し数は33%増加し、コストは50%低下した。Cursor は、世界の3〜4つのクラスター上で Composer 2 の強化学習トレーニングを分散実行で完了した(現在 CursorBench で1位)。トレーニングと本番推論は同一の GPU プールを共有している。
Fireworks AI が強調するコアとなる技術的な差別化は、トレーニングと推論の数値的一致性である。MoE(混合エキスパート)モデルは、数値面で密なモデルよりも脆弱であり、隠れ状態のわずかな変化がエキスパートのルーティングを反転させ、カスケード的に増幅され得る。Fireworks は、サポートするすべてのモデルについて、トレーニングと推論の間の KL 散度値を公開しており、いずれも 0.01 未満である。