Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 30+ model AI, dengan 0% biaya tambahan
DeepSeek V4 Tampil Mengguncang: Sepuluh Prinsip Dasar dalam Bertarung Melawan Lawan
Sore hari pukul tiga setengah sore, matahari di California Avenue mulai condong ke arah Stanford. Anjing di depan Zombie Café kembali berbaring di bawah kursi putih itu. Di atas meja terbentang tiga lembar cetakan: siaran pers rilis Opus 4.7 dari Anthropic tanggal 16 April, transkrip lengkap konferensi peluncuran GPT-5.5 oleh Greg Brockman dari OpenAI tanggal 23 April, dan laporan teknologi DeepSeek V4 yang baru keluar tadi dini hari, tinta belum kering.
Dalam delapan hari, tiga perusahaan menampilkan semua kartu mereka untuk kuartal kedua 2026 di atas meja.
Sebelum selesai minum kopi, Alan Walker dari Silicon Valley menjelaskan semuanya dengan jelas. Tidak memuji benchmark, tidak membicarakan model mana yang “terasa lebih baik”, tidak menulis rilis publisitas. Hanya membongkar dari prinsip pertama—teknologi, chip, harga, audiens, strategi, ekosistem—di mana posisi masing-masing perusahaan di tahun 2026, siapa yang memimpin, siapa yang bertahan, siapa yang menggebrak meja.
01 Open Source vs Closed Source—Pertarungan garis dasar dalam perang ini
DeepSeek kali ini secara bersamaan membuka dua model, V4-Pro dan V4-Flash, dengan lisensi MIT standar, bobot langsung diunggah ke Hugging Face, siapa saja bisa mengunduh, melakukan fine-tuning, dan komersialisasi. Claude Opus 4.7 dan GPT-5.5 sepenuhnya tertutup—hanya memberi akses API, bobot model tidak akan pernah bisa dipegang seumur hidup.
Banyak orang mengira ini adalah pertarungan model bisnis. Salah. Ini adalah pertarungan struktur kepercayaan.
Benteng pertahanan tertutup disebut “kamu hanya bisa datang ke tempatku”—mengunci pengguna di depan pintu rumahku. Benteng terbuka disebut “kamu tidak bisa lepas dari ekosistem ini”—mengembangkan pengembang, perusahaan, dan infrastruktur AI seluruh negara yang tumbuh di atas arsitekturnya. Satu adalah gerbang tol, satu lagi jalan tol cepat.
DeepSeek menggunakan empat generasi terbuka berturut-turut—V3, R1, V3.2, V4—untuk mewujudkan hal ini. Hari ini, perusahaan mana pun di dunia yang ingin melakukan deployment lokal, ingin menjalankan model besar di bidang keuangan, kesehatan, pemerintahan, militer, pasti yang pertama teringat adalah DeepSeek. Perusahaan milik negara di China, dana kekuasaan di Timur Tengah, bank-bank di Eropa yang tidak ingin data mereka diserahkan ke cloud AS—mereka tidak akan pernah menggunakan API tertutup, selamanya tidak akan. Taruhan Anthropic dan OpenAI justru sebaliknya: jarak kecerdasan terdepan selalu ada, pelanggan paling cerdas paling bersedia membayar.
Namun, taruhan ini memiliki jendela waktu. Sejak R1 keluar hingga hari ini, jarak kemampuan antara open source dan closed source menyusut dari satu tahun menjadi tiga bulan. Jika angka tiga bulan ini berubah menjadi satu bulan, garis tertutup mulai retak.
02 Arsitektur model—Tiga perusahaan mengikuti jalur yang berbeda secara fundamental
V4-Pro 1.6T parameter / 49B aktivasi; V4-Flash 284B parameter / 13B aktivasi. Konteks 1 juta token adalah default pabrik. Inti arsitektur adalah perhatian campuran (CSA + HCA berselang-seling) + Hyper-Connections Terbatas Manifold + Optimizer Muon + pelatihan FP4. Dalam skenario 1 juta token, FLOPs inferensi per token V4-Pro hanya 27% dari V3.2, cache KV hanya 10%. V4-Flash lebih ekstrem—FLOPs turun ke 10%, cache KV turun ke 7%.
Inti dari arsitektur ini adalah keyakinan: konteks panjang bukan masalah kemampuan, melainkan efisiensi. Generasi V3 mengurangi biaya pelatihan dengan MoE, generasi V4 mengurangi biaya inferensi dengan perhatian campuran. Memotong bagian paling mahal satu per satu.
GPT-5.5 berbeda. Resmi dari OpenAI—ini adalah model dasar yang dilatih ulang dari nol setelah GPT-4.5. Versi 5.1, 5.2, 5.3, 5.4 adalah iterasi pasca-pelatihan di atas basis yang sama. 5.5 mengubah arsitektur, data pra-pelatihan, dan tujuan pelatihan berbasis agen. Pachocki di konferensi mengatakan—“kemajuan model dalam dua tahun terakhir sangat lambat”—sebenarnya mereka menyampaikan bahwa basis sebelumnya tidak mampu mengikuti kurva skala baru, harus mengganti mesin.
Claude Opus 4.7 adalah perbaikan tepat dari 4.6. Anthropic sendiri menegaskan: peningkatan yang signifikan, bukan perubahan paradigma. Verifikasi SWE-bench meningkat dari 80.8 ke 87.6, resolusi visual dari 1568px ke 2576px, throughput keseluruhan 3.3 kali lipat sebelumnya, tokenizer diganti sekali (teks yang sama membutuhkan 1 sampai 1.35 kali token). Mythos Preview adalah monster generasi berikutnya mereka, tetapi saat ini masih disimpan di brankas, hanya untuk 12 mitra, untuk publik menunggu.
03 Chip dasar—Berita yang paling diremehkan hari ini
Judul media utama berbahasa Inggris semua membahas benchmark V4. Salah. Yang benar-benar mengubah permainan hari ini adalah—beberapa pelatihan V4 dilakukan di atas Huawei Ascend.
Pada hari yang sama, Huawei mengumumkan seluruh rangkaian Ascend SuperPoD mendukung penuh V4 Pro dan Flash. Cambricon juga mengumumkan kompatibilitas. Saham SMIC melonjak 10% di hari yang sama. Membaca ketiga garis ini bersama-sama adalah berita—AI China pertama kali menjalankan seluruh stack pelatihan dan inferensi di hardware domestik, tanpa satu pun chip Nvidia di jalur kritis.
Ini jauh lebih penting daripada semua benchmark digabungkan.
Tiga tahun terakhir, satu-satunya leverage efektif AS terhadap China adalah pembatasan ekspor GPU canggih. Logikanya sederhana—kamu tidak bisa melatih model terkuat karena tidak bisa membeli H100 atau B200. Peluncuran V4 setara mengurangi setengah kekuatan leverage ini. Model open source tingkat atas bisa dilatih dan didistribusikan di hardware non-Nvidia. Jika ini terbukti secara luas di pasar, sanksi di bidang AI menjadi tidak efektif.
Claude dan GPT-5.5 semuanya berjalan di stack NVIDIA H100/H200/B200 + Google TPU + Trainium2 buatan Anthropic. Tidak ada jalan lain, tidak ada vendor lain. Ini adalah hambatan, satu titik lemah. Suatu hari jika Nvidia menaikkan harga atau kapasitasnya tidak cukup, kedua perusahaan ini akan terkena dampaknya. DeepSeek kini memiliki jalur pasokan independen—mereka punya kartu lain.
04 Struktur biaya pelatihan—Bagaimana Muon, FP4, 32T token menentukan harga hari ini
Laporan teknologi V4 dengan sangat jelas menyebutkan: menggunakan optimizer Muon (konvergensi lebih cepat, pelatihan lebih stabil), presisi FP4 (penggunaan memori langsung dipangkas setengah), pelatihan pasca dua tahap (ahli dari berbagai bidang melakukan SFT+RL secara terpisah, lalu distilasi melalui on-policy ke model yang sama), dan data pra-pelatihan 32 triliun token. Ini bukan sekadar hiasan, ini adalah mesin nyata yang menekan biaya pelatihan.
Hasilnya—harga API V4-Pro bisa ditekan di bawah V3.2, V4-Flash bahkan mencapai batas bawah model open source kecil.
Strategi OpenAI adalah menaikkan harga secara terang-terangan. Setiap juta token input dikenai biaya 5 dolar, output 30 dolar—dua kali lipat dari GPT-5.4. Resmi OpenAI, “efisiensi token meningkat 40%, biaya total hanya bertambah 20%”. Kata-kata indah. Tapi jika kamu menjalankan prompt produksi nyata, kamu akan tahu—workflow panjang prompt dan output singkat langsung membuat tagihan menjadi dua kali lipat. OpenAI bertaruh bahwa “kelangkaan kecerdasan terdepan” masih bisa dipertahankan satu siklus lagi, sehingga mereka berani menaikkan harga dua kali lipat.
Claude Opus 4.7 menaikkan harga secara diam-diam. Harga tetap, 5/25 dolar sama persis dengan Opus 4.6. Tapi dokumen internal Anthropic menyebutkan—tokenizer baru mereka membutuhkan hingga 1.35 kali token untuk teks yang sama. Artinya, harga tetap, tagihan maksimal naik 35%. Ini adalah kenaikan harga dengan kecerdasan emosional tinggi, tetapi tim engineering yang volume besar akan langsung melihatnya di laporan keuangan bulanan.
DeepSeek justru menurunkan harga—harga V3.2 sudah rendah, V4-Pro di bawahnya. Setelah Huawei Ascend 950 diproduksi massal beberapa bulan lagi, mereka akan menurunkan lagi. Ini adalah strategi turun-temurun internet China: menggunakan skala dan efisiensi untuk mematahkan tulang lawan, lalu membangun ekosistem agar orang tetap tinggal.
05 Penetapan harga API—Berapa banyak kecerdasan yang bisa dibeli dengan satu dolar
Lihat daftar harga.
Ulasan pihak ketiga dari Artificial Analysis memberikan perbandingan setara: Pada skor Intelligence Index yang sama, GPT-5.5 (medium) ≈ Claude Opus 4.7 (max), yang pertama menjalankan seluruh pengujian sekitar $1.200, yang kedua sekitar $4.800. V4-Pro dalam tingkat kecerdasan serupa, hanya sepertiga sampai sepersepuluh dari keduanya.
Ini bukan “lebih murah sedikit”. Ini menurunkan biaya per unit kecerdasan tingkat tinggi ke satu tingkat yang jauh lebih rendah.
Apa artinya bagi perusahaan yang menghabiskan satu juta dolar per bulan untuk token—dulu dengan anggaran yang sama hanya bisa menjalankan 10 agent, sekarang bisa 80 agent. Eksperimen yang dulu terlalu mahal sekarang jadi murah. Jika ini terbukti di pasar oleh tiga atau empat perusahaan utama (misalnya, satu perusahaan menghemat 70% biaya dari Opus ke V4-Pro tanpa kehilangan kualitas), yang lain pasti mengikuti. Ini bersifat refleksif—semakin banyak yang bermigrasi, semakin rendah hambatan psikologis bagi yang berikutnya.
OpenAI dan Anthropic hanya bisa membalas dengan dua cara: memperlebar jarak ke tertutup terdepan (Mythos harus segera dirilis), atau mempertebal biaya konversi di hubungan perusahaan, kepatuhan, dan keandalan. Yang pertama membutuhkan waktu dan uang, yang kedua membutuhkan kesabaran pelanggan.
06 Ekonomi nyata konteks satu juta
Ketiga perusahaan sudah mencapai 1 juta konteks. Secara permukaan angka ini seimbang.
Tapi—kemampuan dan biaya murah adalah dua hal berbeda.
V4-Pro meraih skor 83.5 di benchmark pencarian teks panjang MRCR, mengalahkan Gemini-3.1-Pro yang 76.3, tetapi tertinggal dari Claude Opus 4.6 yang 92.9. CorpusQA di 1 juta token mencapai 62%, mengalahkan Gemini 3.1 Pro yang 53.8%. Akurasi retrieval di 128K adalah 94%, di 512K 82%, di 1 juta 66%. Angka absolut bukan yang tertinggi, tapi ini adalah yang tertinggi di open source, dan satu-satunya yang menjadikan 1 juta sebagai default.
Claude Opus 4.7 tanpa biaya tambahan untuk konteks 1 juta—ini adalah keahlian keras dari Anthropic. GPT-5.5 juga demikian. Tapi masalahnya: biaya inferensi untuk ketiga model berbeda sepuluh kali lipat, dan dalam skenario konteks panjang, perbedaan ini diperbesar sepuluh kali lipat.
Mari kita hitung sederhana. Sebuah dokumen hukum 500K token dianalisis model: biaya input Opus 4.7 saja sekitar $2.5, total output sekitar $3-4; GPT-5.5 hampir sama; V4-Pro sekitar $1. Jika workflow ini dijalankan 10.000 kali sehari, biaya tahunan bisa mencapai ratusan juta hingga lebih dari sepuluh juta dolar. Beban terbesar bagi perusahaan menengah yang menjalankan analisis agentic adalah biaya konteks panjang, dan V4-Pro secara langsung menghilangkan hambatan ini.
07 Kemampuan pengkodean dan agent—Tiga perusahaan menjaga satu bidang masing-masing
Buka tabel benchmark, ini sangat jelas.
_Data ini memberi tahu bukan siapa yang lebih kuat, tetapi _ bahwa tiga perusahaan memfokuskan diri pada bentuk agent yang berbeda.
Anthropic fokus pada “mengubah masalah nyata di basis kode nyata”. Cursor, Devin, Factory, Ramp—pelanggan mereka menggunakan Opus, bukan untuk tugas mainan seperti “menulis aplikasi todo”, tetapi untuk “memperbaiki race condition yang tersembunyi tiga minggu lalu di basis kode 2 juta baris”. Setelah Nvidia men-deploy Codex ke 10.000 karyawan, mereka melaporkan siklus debugging berkurang dari hari menjadi jam—angka ini juga bisa diambil dari Anthropic sendiri. Opus 4.7 mampu mencapai 64.3% di SWE-Bench Pro—benar-benar teruji di jalur produksi.
OpenAI fokus pada “Agent mengendalikan seluruh komputer”. Terminal-Bench 2.0, OSWorld, Codex menjalankan shell—semua mengarah ke satu masa depan: AI tidak hanya menulis kode, tetapi langsung mengendalikan terminal, mengetik perintah, mengoperasikan Mac kamu. Kata Brockman di konferensi, “agentic computing at scale” bukan sekadar slogan, melainkan slogan untuk dekade berikutnya OpenAI.
DeepSeek fokus pada “aset kecerdasan publik pengembang open source”. Mereka mungkin kalah di SWE-Bench Pro, tetapi mereka mengangkat batas tertinggi dunia open source ke skor 3206 di Codeforces. Ini berarti—perusahaan startup mana pun tidak perlu membayar Anthropic atau OpenAI sepeser pun, cukup jalankan model kode kompetisi tingkat tinggi di mesin mereka sendiri.
08 Audiens—Tiga perusahaan menargetkan tiga dompet berbeda
Daftar klien Anthropic sudah memberi gambaran arah: PayPal, Hex, Devin, Factory, Ramp, Notion, GitHub Copilot, Stripe, Block—semua adalah fintech dan SaaS perusahaan. Dua kesamaan mereka: banyak uang, nol toleransi terhadap kesalahan. Harga Opus 4.7 5/25 dolar, audit keamanan, narasi kepatuhan, distribusi multi-cloud Bedrock/Vertex AI/Foundry—semua ditujukan untuk klien yang proses pengadaan bisa memakan setengah tahun, kontrak tiga tahun, bayar jutaan dolar per tahun. Valuasi Anthropic di Forge Global mencapai lebih dari 1 triliun dolar, melampaui OpenAI yang 880 miliar—kapitalisme membeli cerita “kepadatan pelanggan perusahaan” ini.
OpenAI mengandalkan tiga pilar: konsumen + pengembang + perusahaan. ChatGPT hampir 1 miliar pengguna aktif mingguan adalah benteng utamanya. GPT-5.5 dirilis bersamaan di Plus/Pro/Business/Enterprise, harga API dua kali lipat, biaya ditanggung oleh volume pengguna C-end. Komunitas pengembang Codex dari puluhan ribu menjadi jutaan dalam setengah tahun, perusahaan seperti Nvidia, Stripe, Shopify melakukan deployment internal besar-besaran. Mereka bermain skala—biaya per unitnya ditekan oleh pembagi besar.
Daftar audiens DeepSeek sangat berbeda. Perusahaan milik negara di China, bank, rumah sakit, lembaga pemerintah; dana kekuasaan di Timur Tengah yang enggan data mereka diserahkan ke cloud AS; perusahaan farmasi di Eropa yang ketat terhadap GDPR; pemerintah negara berkembang di Asia Tenggara dan Amerika Latin yang ingin mengembangkan AI berdaulat. Termasuk juga sekelompok pengembang keras di Silicon Valley yang “hanya ingin menjalankan model sendiri tanpa bayar API”. Mereka ini tidak sebesar 1 miliar pengguna C-end OpenAI, tetapi dalam skala lain—dalam konteks geopolitik dan kedaulatan.
Tiga dompet yang benar-benar berbeda, tiga logika penjualan yang berbeda.
09 Sikap keamanan dan pertahanan siber—Tiga perusahaan sangat berbeda dalam pandangan “model menjadi senjata”
Awal April, Anthropic merilis Project Glasswing. Opus 4.7 adalah model produksi pertama yang memiliki fitur “otomatis mendeteksi dan menolak permintaan keamanan siber berisiko tinggi”. Dalam laporan teknisnya, Anthropic secara langsung menyatakan—selama pelatihan mereka secara sengaja menurunkan kemampuan serangan siber. CyberGym skor 73.1, hampir sama dengan Opus 4.6 yang 73.8—ini soal kebijakan, bukan kemampuan puncak. Mythos Preview di benchmark yang sama bisa mencapai 83.1, tapi hanya untuk 12 mitra, bahkan daftar ini sangat rahasia—beberapa hari lalu bocor (dari komunitas Discord yang menebak URL), dan Anthropic merilis laporan insiden.
OpenAI mengambil jalur berbeda. Sistem GPT-5.5 menyatakan secara eksplisit: tingkat risiko siber “High” dalam Kerangka Kesiapsiagaan belum mencapai Critical. Solusi mereka bukan menurunkan kemampuan model, tetapi menambahkan classifier yang lebih ketat, verifikasi identitas, dan menjalankan program “cyber-permissive access”—kalau mau kemampuan agresif, harus verifikasi identitas dulu. Mia Glaese di konferensi menyebutnya “first identity-verified release”, yang secara implisit berarti—kemampuan diberikan, tanggung jawab ditanggung pengguna.
Laporan teknologi DeepSeek V4 sebagian besar kosong soal ini. Komunitas open source tradisionalnya adalah “kode saya buka, kamu ambil, tanggung jawab sendiri”. Sikap ini mimpi buruk bagi regulator, surga bagi pengembang independen. Tapi risiko utamanya adalah—siapa pun bisa menjalankan model sekuat Opus 4.7 di GPU mereka sendiri tanpa ada lapisan intercept. Bagaimana regulasi akan berjalan, tahun 2026 akhir hingga 2027 adalah jendela kunci.
10 Strategi pasar—Tiga taruhan berbeda, tapi hanya satu yang akan jadi terbesar
DeepSeek ingin menjadi Linux di dunia AI.
Menggunakan open source + biaya ekstrem rendah + chip domestik untuk mendemokratisasi infrastruktur AI global. Begitu setiap negara, perusahaan, dan pengembang menjalankan di arsitekturnya—kamu tidak menghasilkan uang dari lisensi, tapi dari nilai ekosistem. Hari ini, unduhan Hugging Face, besok SDK dari setiap produsen chip domestik akan secara default mendukung DeepSeek, dan setiap pengembang AI generasi baru akan menulis baris pertama kode: from deepseek import… Strategi ini pernah dimainkan Linus Torvalds dua puluh tahun lalu, hari ini dimainkan Liang Wenfeng. Bedanya, LLM jauh lebih mahal dari OS, uang panas sepuluh ribu kali lipat, dan nilai geopolitik seratus kali lipat.
Anthropic ingin menjadi mesin AI operasional perusahaan terdepan global.
Target pelanggannya bukan miliaran pengguna C-end, tetapi sepuluh ribu perusahaan teratas di dunia dari segi anggaran TI dan kepatuhan. Opus 4.7 dengan posisi “sempit tapi dalam”, Mythos Preview dengan pasokan langka, Bedrock/Vertex/Foundry dengan distribusi multi-cloud, dan valuasi di atas 1 triliun dolar—semuanya membentuk satu cerita: tim hukum, tim keuangan, tim R&D, tim layanan pelanggan, semua menjalankan pekerjaan penting mereka di model saya, dan tidak pernah bisa down. Ini logika firma hukum dan bank investasi, bukan Facebook. Pelanggan sedikit, harga tinggi, biaya konversi hampir tak terbatas.
OpenAI ingin menjadi aplikasi super yang menggabungkan Windows + Office + Google.
ChatGPT adalah kekuatan distribusinya (10 miliar pengguna aktif mingguan), Codex adalah pengunci pengembang, Operator adalah pintu masuk pengoperasian komputer, Mac App baru adalah pengisi ruang desktop. Kata Brockman di konferensi, “agentic computing at scale”—bukan sekadar chatbot pintar, tetapi cara manusia menggunakan komputer di masa depan. Kamu buka komputer, yang pertama kamu lihat adalah dia, pekerjaan diserahkan padanya, dokumen dibuat di atasnya, email dibalas lewat dia, rapat dirangkum oleh dia. Ini adalah visi Bill Gates di 1990-an, Steve Jobs di 2007, yang mungkin terwujud oleh OpenAI di 2027–2030. Harga dua kali lipat GPT-5.5 adalah uang muka taruhan ini.
Tiga jalur semuanya menuju Roma. Tapi hanya satu yang akan jadi yang terbesar—dan yang terbesar ini akan menentukan distribusi kekayaan industri AI selama dekade berikutnya.
Tiga perusahaan menampilkan kartu mereka dalam satu minggu yang sama.
Claude Opus 4.7 adalah yang stabil—sempit tapi dalam, cocok untuk perusahaan yang bersedia kontrak tiga tahun dan bayar jutaan dolar. Keunggulannya: perusahaan menengah ke atas yang ingin menggunakan AI sebagai alat produktivitas tapi takut salah, tidak akan menemukan pilihan yang lebih andal dari Opus.
GPT-5.5 adalah yang mahal—harga dua kali lipat, ambisi aplikasi super, kemampuan agent yang memimpin perintah dan pengoperasian komputer. Keunggulannya: jika “AI mengendalikan seluruh komputer” menjadi kenyataan di 2027, OpenAI akan menjadi Microsoft-nya revolusi ini di tahun 1995. Kalau tidak, harga 5/30 dolar akan menjadi catatan mahal.
DeepSeek V4 adalah yang agresif—open source, harga rendah, chip domestik, mengorek lubang di benteng kedua dan ketiga. Keunggulannya: jika fragmentasi geopolitik terus berlanjut, dan ekosistem AI global terbagi menjadi dua, DeepSeek akan menjadi Linux dari ekosistem China. Peluang ini bukan 50%, tapi jauh lebih tinggi dari setahun lalu yang 5%.
Begitu aturan diubah, tidak akan bisa diubah kembali.
Sore hari pukul empat setengah, angin di California Avenue mulai dingin. Gelas di Zombie Café sudah kosong. Alan melipat rapi tiga lembar cetakan, memasukkannya ke dalam tas punggung. Keluar dari pintu, anjing itu mengangkat kepala sebentar, lalu kembali berbaring.