Penelitian dari Delphi Digital memiliki pengaruh besar terhadap pasar. Namun, saat mereka mengembangkan produk AI untuk analisis crypto mendalam, proyek hampir dihentikan karena masalah ekonomi yang sangat ketat.
Permintaan kompleks tentang on-chain, tokenomics, atau model penilaian dapat menghabiskan beberapa USD untuk setiap pertanyaan. Jika skala diperluas ke ribuan pengguna, biaya akan jauh melampaui kemampuan operasional yang berkelanjutan.
Mereka tidak memilih cara sederhana untuk beralih ke model yang lebih murah. Sebaliknya, mereka merancang ulang seluruh arsitektur sistem.
Tiga Lapisan Arsitektur Menyelesaikan Masalah Biaya
1️⃣ Intelligent Query Router – Pengarah Permintaan Cerdas
Lebih dari 60% permintaan tidak perlu menyentuh LLM.
Data harga → panggil API langsungDefinisi, konsep dasar → diambil dari cacheHanya analisis yang benar-benar kompleks → baru mengaktifkan model inferensi
Prinsip: Gunakan alat yang tepat untuk tugas yang tepat.
Tidak semua pertanyaan membutuhkan AI yang berat.
2️⃣ Tiered Caching – Cache Berlapis
Sebagian besar pertanyaan diulang berkali-kali.
Konten yang sedikit berubah → dibuat sebelumnya (pre-generate)Konten yang berubah lambat → cacheKonten dinamis secara waktu nyata → dibuat baru sesuai kebutuhan
Hasil:
Latensi respons berkurang 70%Sistem lebih stabilBiaya inferensi sangat berkurang
3️⃣ Blind Model Testing – Pengujian Buta
Delphi mengirim permintaan yang sama ke berbagai model berbeda.
Para ahli menilai hasil tanpa mengetahui sumbernya.
Kesimpulan yang mengejutkan:
Model kecil seringkali mencapai kualitas yang setara dengan model besar.
Dari situ, mereka mengarahkan permintaan ke model yang paling murah tetapi tetap memenuhi standar kualitas yang dibutuhkan.
Faktor Inti: Verifikasi Akurasi
Mengoptimalkan biaya hanya efektif jika memastikan keandalan.
Di sinilah @mira_network berperan.
Mekanisme konsensus terdesentralisasi membantu memverifikasi hasil output, memungkinkan Delphi mempercayai penggunaan model yang lebih murah tanpa perlu memperluas tim pengawasan manual.
Hasil
Mengurangi 90% biayaMenjaga kualitas analisis tetap tinggiMempercepat responsModel operasional menjadi lebih berkelanjutan
Pelajaran Terbesar
Kemampuan teknologi jika tidak disertai kemampuan implementasi ekonomi hanya akan berhenti di penelitian.
Delphi membuktikan bahwa:
Masalah implementasi (deployment problem) sama pentingnya dengan masalah model (model problem).
Dan ketika ada lapisan verifikasi seperti #Mira di belakangnya, kedua masalah tersebut dapat diselesaikan. $MIRA
{spot}(MIRAUSDT)
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Arsitektur Membantu Mengurangi 90% Biaya Sambil Menjaga Kualitas Asli
Penelitian dari Delphi Digital memiliki pengaruh besar terhadap pasar. Namun, saat mereka mengembangkan produk AI untuk analisis crypto mendalam, proyek hampir dihentikan karena masalah ekonomi yang sangat ketat. Permintaan kompleks tentang on-chain, tokenomics, atau model penilaian dapat menghabiskan beberapa USD untuk setiap pertanyaan. Jika skala diperluas ke ribuan pengguna, biaya akan jauh melampaui kemampuan operasional yang berkelanjutan. Mereka tidak memilih cara sederhana untuk beralih ke model yang lebih murah. Sebaliknya, mereka merancang ulang seluruh arsitektur sistem.
Tiga Lapisan Arsitektur Menyelesaikan Masalah Biaya 1️⃣ Intelligent Query Router – Pengarah Permintaan Cerdas Lebih dari 60% permintaan tidak perlu menyentuh LLM. Data harga → panggil API langsungDefinisi, konsep dasar → diambil dari cacheHanya analisis yang benar-benar kompleks → baru mengaktifkan model inferensi Prinsip: Gunakan alat yang tepat untuk tugas yang tepat. Tidak semua pertanyaan membutuhkan AI yang berat. 2️⃣ Tiered Caching – Cache Berlapis Sebagian besar pertanyaan diulang berkali-kali. Konten yang sedikit berubah → dibuat sebelumnya (pre-generate)Konten yang berubah lambat → cacheKonten dinamis secara waktu nyata → dibuat baru sesuai kebutuhan Hasil: Latensi respons berkurang 70%Sistem lebih stabilBiaya inferensi sangat berkurang 3️⃣ Blind Model Testing – Pengujian Buta Delphi mengirim permintaan yang sama ke berbagai model berbeda. Para ahli menilai hasil tanpa mengetahui sumbernya. Kesimpulan yang mengejutkan: Model kecil seringkali mencapai kualitas yang setara dengan model besar. Dari situ, mereka mengarahkan permintaan ke model yang paling murah tetapi tetap memenuhi standar kualitas yang dibutuhkan. Faktor Inti: Verifikasi Akurasi Mengoptimalkan biaya hanya efektif jika memastikan keandalan. Di sinilah @mira_network berperan. Mekanisme konsensus terdesentralisasi membantu memverifikasi hasil output, memungkinkan Delphi mempercayai penggunaan model yang lebih murah tanpa perlu memperluas tim pengawasan manual. Hasil Mengurangi 90% biayaMenjaga kualitas analisis tetap tinggiMempercepat responsModel operasional menjadi lebih berkelanjutan Pelajaran Terbesar Kemampuan teknologi jika tidak disertai kemampuan implementasi ekonomi hanya akan berhenti di penelitian. Delphi membuktikan bahwa: Masalah implementasi (deployment problem) sama pentingnya dengan masalah model (model problem). Dan ketika ada lapisan verifikasi seperti #Mira di belakangnya, kedua masalah tersebut dapat diselesaikan. $MIRA {spot}(MIRAUSDT)