Hasil pencarian untuk "MOE"
15:05

Kimi K2 diluncurkan dan Sumber Terbuka, ahli dalam tugas kode dan Agentic

Jin10 Data 11 Juli, bulan sisi gelap mengumumkan, secara resmi merilis model KimiK2, dan secara bersamaan Sumber Terbuka. Dijelaskan bahwa KimiK2 adalah model dasar arsitektur MoE yang memiliki kemampuan kode yang lebih kuat dan lebih mahir dalam tugas Agen umum, dengan total parameter 1T, dan parameter aktif 32B.
Lainnya
AGENT-4.92%
B7.36%
08:01

Tencent Sumber Terbuka Hunyuan-A13B model

Jin10 Data 27 Juni - Pada 27 Juni, Tencent merilis dan Sumber Terbuka model Hunyuan-A13B. Dijelaskan bahwa, sebagai model besar berdasarkan arsitektur campuran ahli (MoE), total parameter mencapai 80 miliar, dengan parameter aktif sebanyak 13 miliar, yang menghasilkan kinerja sebanding dengan model Sumber Terbuka teratas, sambil secara signifikan menurunkan latensi inferensi dan beban komputasi; dalam kondisi ekstrem, hanya memerlukan 1 kartu GPU menengah hingga rendah untuk diterapkan.
Lainnya
B7.36%
03:13

Kimi Sumber Terbuka model multimodal Kimi-VL, Kimi-VL-Thinking

Jin10 Data 10 April, hari ini, Kimi dari Dark Side of the Moon meluncurkan model bahasa visual ringan sumber terbuka Kimi-VL dan Kimi-VL-Thinking, model baru ini menggunakan arsitektur MoE, mendukung 128K konteks, mengaktifkan hanya sekitar 3 miliar parameter; kemampuan inferensi multimodal dalam beberapa pengujian benchmark, melebihi model besar yang lebih dari 10 kali ukuran.
Lainnya
03:44

Genius Group mengajukan gugatan senilai 450 juta dolar AS terhadap eksekutif LZGI

Bot berita Gate.io melaporkan bahwa Genius Group, perusahaan yang terdaftar di NYSE, telah mengajukan gugatan terhadap dua eksekutif LZGI International, Inc, Peter Ritz dan Michael Moe, di Pengadilan Distrik Selatan Florida. Gugatan tersebut didasarkan pada Undang-Undang Anti-Penipuan dan Organisasi Korup Amerika Serikat (RICO), dengan total klaim mencapai 450 juta dolar. Sebelumnya, Pengadilan Distrik New York telah mengeluarkan perintah larangan terhadap Genius Group, melarang mereka mengumpulkan dana melalui penjualan saham untuk membeli Bitcoin.
Lainnya
BOT19.63%
BTC1.71%
02:26

Kucing Tom: sudah terhubung dengan model DeepSeek dan lainnya untuk meningkatkan fungsi pengenalan tujuan produk AI robot

Data Golden 17 Februari, malam 16 Februari, Tom Cat menyatakan dalam catatan acara hubungan investor bahwa produk robot pendamping emosional AI Tom Cat mengadopsi arsitektur MOE (Model Ahli Campuran), dilengkapi dengan 'model vertikal pendamping emosional Tom Cat' yang disesuaikan dengan Xihu Heart Custom, dan sekaligus memanggil beberapa kemampuan model seperti Dou Bao, DeepSeek, yang efektif meningkatkan pengenalan tujuan produk, kecepatan tanggapan, kemampuan matematika, dan sebagainya.
Lainnya
DEEPSEEK-12.56%
  • 4
  • 1
23:43

科大讯飞:已ikutiDeepSeek—V3的技术进展 将持续推动Algoritme迭代

Pada 27 Januari, Xinhua News Agency melaporkan bahwa iFlytek telah mengumumkan di platform interaktif bahwa perusahaan terus mempercepat perkembangan teknologi arsitektur MoE (Hybrid Expert) DeepSeek—V3, dan akan terus mendorong iterasi Algoritme, memungkinkan model besar Starlight yang mandiri dikontrol untuk terus berkembang dan meningkatkan hubungan pada platform Daya Komputasi yang mandiri dapat dikontrol.
Lainnya
02:02

Tencent merilis model besar generasi baru 'Turbo Hybrid' dengan biaya inferensi Drop50%

Pada Konferensi Ekologi Digital Global Tencent 2024, Tencent secara resmi meluncurkan generasi baru model besar - Turbo Tencent Hybrid. Model ini menggunakan arsitektur MoE, meningkatkan efisiensi inferensi produk generasi sebelumnya sebesar 100%, dan menurunkan biaya inferensi sebesar 50%. Secara eksternal, harga Turbo Tencent Hybrid juga 50% lebih rendah dari Hybrid Pro, dengan harga output sebesar 0,05 yuan / ribu token, dan harga input sebesar 0,015 yuan / ribu token.
TURBO5.61%
  • 1
  • 3
01:49
Analisis: Kemenangan Trump akan menguntungkan perubahan lingkungan pengawasan industri mata uang kripto di Amerika Serikat Menurut analis, "tokoh terkenal di dunia kripto, Winklevoss brothers, mendukung kampanye Trump dengan menyumbangkan 200 juta dolar dalam bentuk Bitcoin. Hal ini menunjukkan bahwa Trump semakin dianggap sebagai kandidat yang pro inovasi di komunitas kripto dan TradFi." Analisis menunjukkan bahwa kemenangan Trump pada bulan November akan berarti perubahan dalam lingkungan regulasi industri mata uang kripto di Amerika Serikat, menjadi lebih menguntungkan. "Selama kampanye, Trump menunjukkan dukungannya terhadap Bitcoin dan mata uang kripto lainnya, yang berbeda dengan sikap pemerintah yang lebih berhati-hati dan ketat dalam regulasi. Pemerintahan Trump mungkin akan memprioritaskan pembentukan kerangka regulasi yang jelas dan mendukung inovasi, mendorong inovasi dan investasi dalam industri mata uang kripto." Namun, menurut mantan penasihat senior Joe Biden, Moe Vela, audiens debat lebih tertarik pada kandidat yang secara fisik, mental, dan mungkin moral lebih cocok untuk menjadi presiden. "Debat ini lebih tentang perbandingan karakter, demonstrasi gaya kepemimpinan yang berbeda, dan dua orang tua berusia delapan puluh tahun yang mencoba membuktikan keaktifan, energi, dan kelayakan mereka."
MAGA5.79%
  • 5
  • 1
06:21
Menurut laporan qubit, Beijing Depth Quest Company meluncurkan model besar Open Source MoE domestik pertama DeepSeek MoE, yang sebanding dengan Llama 2-7B dalam kinerja dan menurunkan jumlah perhitungan sebesar 60%. Versi DeepSeek MoE saat ini memiliki 16 miliar parameter, dan jumlah sebenarnya dari parameter yang diaktifkan adalah sekitar 2,8 miliar. Selain itu, tim Depth Seek juga mengungkapkan bahwa ada model DeepSeek MoE versi 145 B yang sedang dikembangkan. Uji coba awal bertahap telah menunjukkan bahwa DeepSeek MoE 145 B memiliki keunggulan signifikan dibandingkan GShard 137 B, sementara mampu mencapai kinerja yang sebanding dengan versi intensif model DeepSeek 67 B dengan upaya komputasi 28,5%.
  • 1
08:00
Menurut sebuah laporan oleh Science and Technology Innovation Board Daily pada tanggal 28 Desember, Wei Wei, wakil presiden MiniMax, sebuah start-up model skala besar China, mengungkapkan pada sub-forum pertemuan perdana Digital China Forum dan Digital Development Forum bahwa mereka akan merilis model skala besar pertama berdasarkan arsitektur MoE (Mixture-of-Experts) di China dalam waktu dekat untuk benchmark OpenAI GPT-4. MoE, yang merupakan singkatan dari Expert Hybrid, adalah teknik Pembelajaran Mendalam yang menggabungkan beberapa model secara langsung bersama-sama untuk mempercepat pelatihan model untuk kinerja prediktif yang lebih baik.
  • 1
  • 1
02:58

Goldman Sachs: Latar belakang makro menjadi lebih menguntungkan bagi saham Asia

Goldman Sachs mengatakan latar belakang makro telah menjadi lebih menguntungkan bagi ekuitas Asia, tetapi pasar belum sepenuhnya memperhitungkan hal ini, yang berarti ekuitas akan terus meningkat. Dengan data ekonomi AS yang mendukung prospek soft landing, investor harus "menggunakan potensi musiman yang lemah di akhir musim panas untuk mempersiapkan kuartal keempat yang biasanya kuat," tulis ahli strategi termasuk Timothy Moe dalam sebuah catatan. . Pasar sebagian (namun tidak sepenuhnya) menetapkan harga dalam pergeseran prospek pertumbuhan dan kebijakan. Mereka mengatakan optimis tentang Korea Selatan, Jepang dan pasar saham lainnya pada kuartal keempat, dan mereka paling optimis tentang pasar saham India dalam jangka panjang. ASEAN juga menarik dalam jangka panjang, sementara Australia kemungkinan akan tetap terikat jangkauan
Lainnya
  • 1
00:55
Menurut laporan "Kechuangban Daily" pada 14 Juli, baru-baru ini, beberapa keraguan mulai muncul di Internet. Banyak pengguna mengeluh bahwa GPT-4 OpenAI menjadi kurang kuat. Hasilnya menjadi "lebih malas" dan "lebih bodoh" dibandingkan. Beberapa orang di industri percaya bahwa ini mungkin terkait dengan desain ulang utama sistem OpenAI. Mereka berspekulasi bahwa OpenAI menggunakan model hybrid expert (MoE) untuk membuat keluaran model generatif berkualitas lebih tinggi, biaya lebih rendah, dan respons lebih cepat.
  • 2
Muat Lebih Banyak
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)