OpenAI أطلقت نموذج الاستدلال الآمن مفتوح المصدر gpt-oss-safeguard، يدعم التصنيف المدفوع بالسياسات

robot
إنشاء الملخص قيد التقدم

أخبار PANews 29 أكتوبر، أصدرت OpenAI اليوم نموذج استدلال آمن مفتوح المصدر gpt-oss-safeguard (120b، 20b)، مما يسمح للمطورين بتقديم سياسات مخصصة لتصنيف المحتوى أثناء الاستدلال، حيث تكون نتائج النموذج والاستدلال مرتبطة. يعتمد هذا النموذج على الأوزان المفتوحة gpt-oss بعد التعديل، ويستخدم ترخيص Apache 2.0، ويمكن تنزيله من Hugging Face. تُظهر التقييمات الداخلية أنه يتفوق في دقة السياسات المتعددة مقارنةً بـ gpt-5-thinking و gpt-oss، ويظهر أداءً قريبًا من Safety Reasoner في مجموعات البيانات الخارجية. تشمل القيود: لا يزال المصنف التقليدي أفضل في عدد كبير من المشاهد ذات العلامات عالية الجودة، كما أن وقت الاستدلال وقوة الحوسبة مرتفعان. ستقوم ROOST بإنشاء مجتمع للنموذج ونشر تقرير تقني.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
مواضيع ذات صلة
#
ai
#
新闻前沿
#
NewsMessenger
تعليق
0/400
لا توجد تعليقات
  • تثبيت