Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Dua ratus miliar dolar AS: OpenAI dan Nvidia sedang mengadakan "perang penalaran"
null
Menulis artikel: xiaopi
Pada Desember 2025, Nvidia diam-diam menghabiskan 20 miliar dolar AS untuk membeli perusahaan chip AI bernama Groq.
Pada 17 April 2026, OpenAI mengumumkan akan membeli lebih dari 20 miliar dolar AS chip dari perusahaan chip AI lain, Cerebras. Pada hari yang sama, Cerebras secara resmi mengajukan dokumen IPO ke NASDAQ, dengan target valuasi 35 miliar dolar AS.
Dua transaksi ini, jumlahnya hampir sama persis. Satu adalah akuisisi, satu lagi adalah pengadaan. Satu berasal dari penjual chip AI terbesar di dunia, satu lagi dari pembeli AI terbesar di dunia.
Ini bukan dua kejadian terpisah, melainkan dua aksi simetris dalam perang yang sama. Nama medan pertempurannya: AI inferensi.
Sebagian besar orang tidak menyadari perang ini. Karena tidak ada ledakan, hanya pengumuman keuangan demi keuangan, dan diskusi teknis yang beredar di kalangan insinyur Silicon Valley. Tapi pengaruhnya mungkin lebih dalam daripada setiap peluncuran AI dalam dua tahun terakhir—karena ini sedang merebut kembali kendali atas pasar teknologi terbesar yang hampir pasti akan menjadi sejarah.
Apa itu inferensi, mengapa kata kunci tahun 2026 bukan lagi “pelatihan”
Sebelum membahas dua angka 200 miliar, perlu memahami latar belakang: medan perang chip AI sedang mengalami pergeseran pusat.
Pelatihan dan inferensi adalah dua tahap konsumsi daya komputasi AI. Pelatihan adalah membangun model—memberi data dalam jumlah besar ke jaringan saraf agar mereka belajar kemampuan tertentu. Proses ini biasanya hanya dilakukan sekali, atau diperbarui secara berkala. Inferensi adalah menggunakan model—setiap kali pengguna mengajukan pertanyaan, ChatGPT memberikan jawaban, dan itu adalah permintaan inferensi.
Pada 2023, sebagian besar pengeluaran daya komputasi AI global difokuskan pada pelatihan, sementara inferensi berperan sebagai pendukung.
Namun, rasio ini sedang dengan cepat berbalik.
Berdasarkan data riset pasar dari Deloitte dan CES 2026, pada 2025, inferensi sudah menyumbang 50% dari seluruh pengeluaran daya komputasi AI; pada 2026, rasio ini akan melonjak menjadi dua pertiga. CEO Lenovo, Yang Yuanqing, menyatakan secara lebih lugas di CES: struktur pengeluaran AI akan berbalik dari “80% pelatihan + 20% inferensi” menjadi “20% pelatihan + 80% inferensi.”
Logikanya tidak rumit. Pelatihan adalah biaya sekali jalan, inferensi adalah biaya berkelanjutan. GPT-4 dilatih sekali, tetapi setiap hari harus menjawab pertanyaan dari ratusan juta pengguna, setiap percakapan adalah permintaan inferensi. Setelah deployment skala besar, konsumsi inferensi yang terkumpul jauh melebihi pelatihan.
Apa artinya ini? Artinya, bagian paling menguntungkan dari industri AI sedang beralih dari “chip pelatihan” ke “chip inferensi.” Dan kedua jenis chip ini membutuhkan arsitektur yang sama sekali berbeda.
Masalah Nvidia: chip yang dirancang untuk pelatihan secara alami tidak cocok untuk inferensi
H100 dan H200 dari Nvidia adalah monster yang dirancang untuk pelatihan. Keunggulan utamanya adalah throughput komputasi yang sangat tinggi—pelatihan membutuhkan banyak operasi perkalian matriks dalam jumlah besar, dan GPU sangat mahir dalam “perhitungan paralel multi-core” ini.
Namun, bottleneck inferensi bukanlah perhitungan, melainkan bandwidth memori.
Ketika pengguna mengajukan pertanyaan, chip harus memindahkan seluruh bobot model dari memori ke unit komputasi, baru kemudian menghasilkan jawaban. Proses “pindah” ini adalah sumber utama latensi inferensi. GPU Nvidia menggunakan memori bandwidth tinggi eksternal (HBM), dan proses pemindahan ini secara tak terhindarkan menimbulkan latensi—bagi ChatGPT yang harus memproses puluhan juta permintaan per detik, latensi ini, setelah dikalikan skala, menjadi bottleneck performa nyata.
Insinyur internal OpenAI menyadari masalah ini saat mereka mengoptimalkan Codex (alat pembuat kode), dan menemukan bahwa tidak peduli bagaimana mereka mengatur parameter, kecepatan respons selalu dibatasi oleh batas arsitektur GPU Nvidia.
Dengan kata lain, kelemahan Nvidia di sisi inferensi bukan karena kurang usaha, melainkan karena arsitektur.
Chip WSE-3 dari Cerebras mengambil pendekatan yang sama sekali berbeda. Chip ini sebesar yang membutuhkan packaging wafer-level—luas 46.255 mm², lebih besar dari telapak tangan manusia—mengintegrasikan 900.000 inti AI dan 44GB SRAM super cepat dalam satu wafer silikon. Memori langsung ditempatkan di samping inti komputasi, sehingga jarak “pindah” dari centimeter menjadi mikrometer. Hasilnya: kecepatan inferensi 15 hingga 20 kali lebih cepat dari H100 Nvidia.
Perlu ditambahkan: Nvidia tidak tinggal diam. Arsitektur Blackwell (B200) terbaru mereka meningkatkan performa inferensi empat kali lipat dibanding H100, dan sedang dalam deployment massal. Tapi Blackwell mengejar target yang bergerak—Cerebras juga sedang melakukan iterasi, dan pasar chip secara umum sudah dipenuhi pesaing selain Cerebras.
20 miliar Nvidia: surat pengakuan di balik akuisisi terbesar dalam sejarah
Pada 24 Desember 2025, Nvidia mengumumkan akuisisi terbesar dalam sejarahnya.
Targetnya adalah Groq.
Groq adalah pesaing sejenis Cerebras, juga memfokuskan pada chip SRAM yang dioptimalkan untuk inferensi—disebut LPU (Language Processing Unit), yang saat pengujian terbuka disebut sebagai chip tercepat di dunia untuk inferensi. Nvidia menghabiskan 20 miliar dolar AS untuk membeli seluruh teknologi inti dan tim pendiri Groq, termasuk pendirinya Jonathan Ross dan beberapa insinyur chip top dari tim TPU Google.
Ini adalah akuisisi terbesar kedua Nvidia setelah pembelian Mellanox seharga 7 miliar dolar AS pada 2019, tiga kali lipat lebih besar.
Bagi banyak analis, pesan yang disampaikan di balik angka ini jauh lebih penting daripada jumlahnya: Nvidia percaya bahwa mereka memiliki kekurangan struktural di sisi inferensi, dan kekurangan ini cukup besar untuk membuat mereka mengeluarkan 20 miliar dolar AS untuk menutupnya.
Jika Nvidia benar-benar yakin GPU mereka tak tertandingi di inferensi, mereka tidak perlu membeli Groq. Uang ini pada dasarnya adalah surat pembelian teknologi senilai 20 miliar dolar—mengakui bahwa arsitektur SRAM embedded memiliki keunggulan nyata dalam skenario inferensi, dan bahwa produk mereka saat ini tidak mampu menutup kekurangan ini secara alami. Mereka membeli dengan harga tertinggi untuk menutup celah teknologi yang tidak bisa mereka penuhi sendiri.
Tentu saja, narasi resmi Nvidia setelah akuisisi berbeda: “Integrasi mendalam dengan Groq, menyediakan solusi inferensi yang lebih lengkap.” Versi bahasa teknisnya: kami menyadari bahwa produk kami kurang, jadi kami membeli orang lain.
OpenAI dan 20 miliar dolar: membeli chip hanyalah permukaan, investasi saham adalah kunci
Sekarang kembali ke OpenAI.
Pada Januari 2026, OpenAI menandatangani perjanjian pengadaan daya komputasi sebesar 10 miliar dolar AS selama tiga tahun dengan Cerebras—yang saat itu dilaporkan media sebagai “OpenAI sedang mendiversifikasi pemasok chip,” dengan nada yang santai.
Namun, detail terbaru yang terungkap pada 17 April mengubah sifat peristiwa ini secara fundamental:
Pertama, jumlah pengadaan dari 10 miliar menjadi 20 miliar dolar, dua kali lipat.
Kedua, OpenAI akan memperoleh waran saham dari Cerebras, dan seiring peningkatan skala pengadaan, proporsi saham yang dimiliki bisa mencapai 10% dari total saham Cerebras.
Ketiga, OpenAI juga akan menyediakan dana pembangunan pusat data sebesar 1 miliar dolar AS—dengan kata lain, OpenAI membantu Cerebras membangun pabrik.
Ketiga detail ini secara bersama-sama membentuk gambaran yang sama sekali berbeda: OpenAI tidak hanya membeli chip, tetapi sedang menumbuhkan sebuah pemasok.
Logika ini memiliki contoh yang jelas dalam sejarah teknologi. Pada 2006, Apple mulai bekerja sama dengan Samsung untuk memesan chip seri A secara besar-besaran, awalnya juga melalui perjanjian pengadaan besar, tetapi seiring waktu, Apple semakin terlibat dan akhirnya mengembangkan chip seri M sendiri, sehingga kendali atas rantai pasok beralih dari Intel dan Samsung ke Apple sendiri. Apa yang dilakukan OpenAI serupa—tapi dengan batas penting: Apple sejak awal menguasai hak desain chip, sedangkan OpenAI saat ini masih sebagai pembeli, dan setelah Cerebras go public, mereka akan berkembang secara independen dan melayani lebih banyak pelanggan. Jalan ini mungkin tidak akan berujung pada OpenAI mengendalikan Cerebras sepenuhnya, melainkan membangun ekosistem yang saling bergantung secara mendalam.
Di satu sisi, dengan mengikat Cerebras melalui investasi 20 miliar dolar dan saham, OpenAI memastikan pasokan daya inferensi dari non-Nvidia tetap berkelanjutan; di sisi lain, OpenAI sedang bekerja sama dengan Broadcom untuk mengembangkan chip ASIC sendiri, yang diperkirakan akan mulai produksi akhir 2026. Kedua jalur ini berjalan bersamaan, dengan tujuan mencapai kemandirian daya komputasi.
Cerebras IPO hari ini, apa yang sebenarnya Anda beli
Pada 17 April, Cerebras secara resmi mengajukan permohonan IPO ke NASDAQ, dengan target valuasi 35 miliar dolar AS, dan rencana mengumpulkan dana sebesar 3 miliar dolar AS.
Valuasi ini, yang sebelumnya pada September 2025 masih sekitar 8,1 miliar dolar AS, telah meningkat lebih dari empat kali lipat. Pada Februari tahun ini, mereka menyelesaikan putaran pendanaan baru dengan valuasi 23 miliar dolar AS, dan target IPO sebesar 35 miliar dolar AS ini memberi premi 52% di atas valuasi tersebut.
Bagi yang mengenal sejarah Cerebras, ini adalah kali kedua mereka mencoba go public. Pertama kali pada 2024, karena pelanggan utama mereka G42 (Dana Investasi Teknologi Milik Negara Uni Emirat Arab) menyumbang 83%–97% dari pendapatan tahun itu, dan CFIUS (Komite Investasi Asing di Amerika Serikat) mengintervensi karena alasan keamanan nasional, sehingga IPO dibatalkan.
Kali ini, G42 sudah tidak lagi menjadi bagian dari daftar pemegang saham, digantikan oleh OpenAI.
Dengan kata lain, masalah struktur konsentrasi pelanggan Cerebras belum terselesaikan secara fundamental—nama pelanggan utama berganti, tetapi ketergantungan pada pelanggan besar tetap ada. Investor harus menilai: apakah pelanggan besar ini lebih baik atau lebih buruk? Dari sudut pandang kredit, OpenAI jelas lebih baik daripada G42; dari sudut pandang strategi, OpenAI juga merupakan pesaing yang sedang menginkubasi Cerebras—setelah chip ASIC mereka matang, bisa menjadi ancaman nyata pengganti Cerebras.
Adilnya, Cerebras juga sedang memperluas basis pelanggan lain, dan dalam prospektus mereka akan disebutkan sumber pendapatan yang lebih beragam, sehingga tingkat konsentrasi akan membaik. Tapi sebelum chip ASIC buatan sendiri benar-benar massal, jawaban atas pertanyaan ini belum pasti.
Dengan membeli saham Cerebras, Anda sebenarnya sedang bertaruh: bahwa OpenAI akan terus memilih Cerebras, dan chip ASIC buatan sendiri OpenAI tidak akan datang lebih cepat dari yang diperkirakan. Kedua hal ini tidak pasti.
Tentu saja, alasan bullish juga nyata: jika pasar inferensi tumbuh sesuai prediksi, bahkan jika Cerebras hanya menguasai sebagian kecil pasar ini, angka absolutnya tetap sangat menggiurkan. Masalahnya bukan apakah Cerebras punya peluang, tetapi apakah penilaian 35 miliar dolar sudah mencerminkan skenario paling optimis.
Dua angka 200 miliar, secara simetris muncul antara akhir 2025 dan April 2026.
Satu berasal dari penjual chip AI terbesar di dunia, membeli teknologi pesaing di pasar inferensi.
Satu lagi dari pembeli AI terbesar di dunia, menumbuhkan perusahaan yang menantang Nvidia di pasar inferensi.
20 miliar Nvidia adalah pertahanan—menggunakan harga tertinggi untuk menutup celah teknologi yang tidak bisa mereka penuhi sendiri.
20 miliar OpenAI adalah serangan—membakar uang membangun jalan tol inferensi yang tidak bergantung pada Nvidia, sekaligus mendapatkan saham di gerbang tol tersebut.
Perang ini tidak terdengar tembakan, tetapi aliran dana tidak pernah berbohong. Dua transaksi ini memberi tahu kita lebih jelas daripada peluncuran AI apa pun: kendali atas infrastruktur dasar inferensi AI sedang diperebutkan. Dan pasar ini, pada 2026, akan menyumbang dua pertiga dari seluruh pengeluaran daya komputasi industri.
IPO Cerebras adalah sinyal terompet dari perang ini.