【链文】في 29 أكتوبر، أعلنت OpenAI اليوم عن إصدار نموذج استدلال آمن مفتوح المصدر gpt-oss-safeguard (120b، 20b)، مما يسمح للمطورين بتقديم سياسات مخصصة لتصنيف المحتوى أثناء الاستدلال، حيث تخرج النموذج استنتاجات وسلسلة استدلال. يعتمد هذا النموذج على الوزن المفتوح gpt-oss وتم ضبطه باستخدام ترخيص Apache 2.0، ويمكن تنزيله من المنصة. تظهر التقييمات الداخلية أنه يتفوق في دقة السياسات المتعددة على gpt-5-thinking وgpt-oss، بينما تظهر أداء قريباً من Safety Reasoner في مجموعة البيانات الخارجية. تشمل القيود: لا يزال المصنف التقليدي أفضل في مجموعة واسعة من المشاهد عالية الجودة، ويستغرق الاستدلال وقتاً أطول ويتطلب قوة الحوسبة أعلى. ستقوم ROOST بإنشاء مجتمع نموذج وإصدار تقارير تقنية.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
OpenAI أصدرت نموذج استدلال أمني مفتوح المصدر gpt-oss-safeguard
【链文】في 29 أكتوبر، أعلنت OpenAI اليوم عن إصدار نموذج استدلال آمن مفتوح المصدر gpt-oss-safeguard (120b، 20b)، مما يسمح للمطورين بتقديم سياسات مخصصة لتصنيف المحتوى أثناء الاستدلال، حيث تخرج النموذج استنتاجات وسلسلة استدلال. يعتمد هذا النموذج على الوزن المفتوح gpt-oss وتم ضبطه باستخدام ترخيص Apache 2.0، ويمكن تنزيله من المنصة. تظهر التقييمات الداخلية أنه يتفوق في دقة السياسات المتعددة على gpt-5-thinking وgpt-oss، بينما تظهر أداء قريباً من Safety Reasoner في مجموعة البيانات الخارجية. تشمل القيود: لا يزال المصنف التقليدي أفضل في مجموعة واسعة من المشاهد عالية الجودة، ويستغرق الاستدلال وقتاً أطول ويتطلب قوة الحوسبة أعلى. ستقوم ROOST بإنشاء مجتمع نموذج وإصدار تقارير تقنية.