【链文】Ngày 29 tháng 10, OpenAI hôm nay phát hành mô hình suy diễn an toàn mã nguồn mở gpt-oss-safeguard (120b, 20b), cho phép các nhà phát triển cung cấp chính sách tùy chỉnh để phân loại nội dung trong quá trình suy diễn, kết luận đầu ra của mô hình và chuỗi suy diễn. Mô hình này được tinh chỉnh dựa trên trọng số mở gpt-oss, sử dụng giấy phép Apache 2.0, có thể tải xuống từ nền tảng. Đánh giá nội bộ cho thấy nó vượt trội hơn gpt-5-thinking và gpt-oss về độ chính xác của nhiều chính sách, hiệu suất trên tập dữ liệu bên ngoài gần giống với Safety Reasoner. Các hạn chế bao gồm: trong nhiều tình huống gán nhãn chất lượng cao, bộ phân loại truyền thống vẫn tốt hơn, thời gian suy diễn và khả năng tính toán khá cao. ROOST sẽ xây dựng cộng đồng mô hình và phát hành báo cáo kỹ thuật.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
10 thích
Phần thưởng
10
6
Đăng lại
Retweed
Bình luận
0/400
MetaNeighbor
· 15giờ trước
Sự an toàn này có thực sự đáng tin cậy không?
Xem bản gốcTrả lời0
BearMarketSurvivor
· 15giờ trước
Cuối cùng đã Mã nguồn mở rồi, không tệ không tệ.
Xem bản gốcTrả lời0
LiquidityLarry
· 16giờ trước
Mã nguồn mở có tác dụng gì, vẫn phải cần sức mạnh băm để chạy
Xem bản gốcTrả lời0
BlockTalk
· 16giờ trước
Chỉ có mức độ an toàn này thôi sao? Tsk tsk
Xem bản gốcTrả lời0
ZenMiner
· 16giờ trước
Bảo, đây chẳng phải là thêm một cánh cửa an toàn cho mô hình mở sao?
OpenAI phát hành Mã nguồn mở mô hình suy diễn an toàn gpt-oss-safeguard
【链文】Ngày 29 tháng 10, OpenAI hôm nay phát hành mô hình suy diễn an toàn mã nguồn mở gpt-oss-safeguard (120b, 20b), cho phép các nhà phát triển cung cấp chính sách tùy chỉnh để phân loại nội dung trong quá trình suy diễn, kết luận đầu ra của mô hình và chuỗi suy diễn. Mô hình này được tinh chỉnh dựa trên trọng số mở gpt-oss, sử dụng giấy phép Apache 2.0, có thể tải xuống từ nền tảng. Đánh giá nội bộ cho thấy nó vượt trội hơn gpt-5-thinking và gpt-oss về độ chính xác của nhiều chính sách, hiệu suất trên tập dữ liệu bên ngoài gần giống với Safety Reasoner. Các hạn chế bao gồm: trong nhiều tình huống gán nhãn chất lượng cao, bộ phân loại truyền thống vẫn tốt hơn, thời gian suy diễn và khả năng tính toán khá cao. ROOST sẽ xây dựng cộng đồng mô hình và phát hành báo cáo kỹ thuật.