Berdasarkan pemantauan 1M AI News, perusahaan infrastruktur penalaran AI Fireworks AI merilis versi pratinjau Fireworks Training, memperluas diri dari platform penalaran murni menjadi platform terpadu untuk pelatihan dan deployment. Fireworks AI didirikan oleh mantan insinyur Meta, Qiao Lin (Lin Qiao), yang pernah terlibat dalam membangun PyTorch; saat ini valuasinya 4 miliar dolar AS, dengan volume token yang diproses per hari mencapai 15 triliun.
Platform ini menyediakan tiga tingkatan:
Skala pelatihan parameter penuh mulai dari Qwen3 8B pada satu node, hingga Kimi K2.5 (parameter dalam skala triliunan) di 64 unit Nvidia B200.
Klien produksi untuk inferensi Fireworks AI, alat pemrograman AI Cursor, Vercel, dan Genspark, telah menyelesaikan pelatihan reinforcement learning mutakhir di platform tersebut. Vercel melatih model koreksi otomatis untuk produk generasi kodenya v0, dengan tingkat pembuatan kode tanpa kesalahan mencapai 93%; CTO- nya Malte Ubl menyatakan bahwa dibandingkan Sonnet 3.5 hanya 62%, latensi end-to-end membaik 40 kali dibanding model closed-source yang digunakan sebelumnya. Genspark melakukan fine-tuning reinforcement learning pada model open-source skala triliunan parameter Kimi K2 untuk membangun deep research agent; jumlah pemanggilan alat meningkat 33%, dan biaya turun 50%. Cursor menyelesaikan pelatihan reinforcement learning Composer 2 secara terdistribusi pada 3 hingga 4 klaster di seluruh dunia (saat ini menempati peringkat pertama di CursorBench), dan pelatihan serta inferensi produksi berbagi kumpulan GPU yang sama.
Perbedaan teknis utama yang ditekankan Fireworks AI adalah konsistensi numerik antara pelatihan dan inferensi. Model MoE (Mixture of Experts / campuran ahli) secara numerik lebih rapuh dibanding model dense; perubahan kecil pada hidden state dapat membalikkan routing ahli lalu memicu pembesaran berantai. Fireworks mempublikasikan nilai KL divergence antara pelatihan dan inferensi untuk semua model yang didukung, yang semuanya lebih rendah dari 0.01.