【链文】29 Oktober, berita OpenAI hari ini merilis model inferensi keamanan sumber terbuka gpt-oss-safeguard (120b, 20b), yang memungkinkan pengembang untuk memberikan kebijakan kustom dalam klasifikasi konten selama inferensi, kesimpulan output model dan rantai inferensi. Model ini didasarkan pada bobot terbuka gpt-oss yang telah disesuaikan, menggunakan lisensi Apache 2.0, dan dapat diunduh dari platform. Penilaian internal menunjukkan bahwa akurasi multi-kebijakan lebih baik dibandingkan gpt-5-thinking dan gpt-oss, dengan kinerja dataset eksternal mendekati Safety Reasoner. Keterbatasan termasuk: dalam banyak skenario pelabelan berkualitas tinggi, pengklasifikasi tradisional masih lebih unggul, waktu inferensi dan daya komputasi yang cukup tinggi. ROOST akan membangun komunitas model dan merilis laporan teknis.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
13 Suka
Hadiah
13
7
Posting ulang
Bagikan
Komentar
0/400
MetaverseMortgage
· 4jam yang lalu
Ada sedikit kembung ya open ai
Lihat AsliBalas0
MetaNeighbor
· 10-29 13:07
Apakah keamanan ini benar-benar dapat diandalkan?
Lihat AsliBalas0
BearMarketSurvivor
· 10-29 13:06
Akhirnya Sumber Terbuka, bagus bagus
Lihat AsliBalas0
LiquidityLarry
· 10-29 12:56
Apa gunanya open source? Bukannya tetap harus menggunakan daya komputasi
Lihat AsliBalas0
BlockTalk
· 10-29 12:55
Hanya keamanan ini? Tsk tsk
Lihat AsliBalas0
ZenMiner
· 10-29 12:54
Bukankah ini hanya menambahkan pengaman pada model terbuka?
OpenAI merilis model inferensi keamanan Sumber Terbuka gpt-oss-safeguard
【链文】29 Oktober, berita OpenAI hari ini merilis model inferensi keamanan sumber terbuka gpt-oss-safeguard (120b, 20b), yang memungkinkan pengembang untuk memberikan kebijakan kustom dalam klasifikasi konten selama inferensi, kesimpulan output model dan rantai inferensi. Model ini didasarkan pada bobot terbuka gpt-oss yang telah disesuaikan, menggunakan lisensi Apache 2.0, dan dapat diunduh dari platform. Penilaian internal menunjukkan bahwa akurasi multi-kebijakan lebih baik dibandingkan gpt-5-thinking dan gpt-oss, dengan kinerja dataset eksternal mendekati Safety Reasoner. Keterbatasan termasuk: dalam banyak skenario pelabelan berkualitas tinggi, pengklasifikasi tradisional masih lebih unggul, waktu inferensi dan daya komputasi yang cukup tinggi. ROOST akan membangun komunitas model dan merilis laporan teknis.