【链文】29 жовтня повідомляється, що OpenAI сьогодні випустила відкритий вихідний код безпеки моделі гнучкого висновку gpt-oss-safeguard (120b, 20b), що дозволяє розробникам під час висновку надавати користувацькі політики для класифікації контенту, а висновки моделі відповідають ланцюгу висновків. Ця модель базується на відкритих вагах gpt-oss, що пройшла доопрацювання, і використовує ліцензію Apache 2.0, доступну для завантаження з платформи. Внутрішні оцінки показали, що вона перевершує gpt-5-thinking та gpt-oss за точністю багатьох політик, а результати на зовнішніх наборах даних близькі до Safety Reasoner. Обмеження включають: у великій кількості високоякісних анотованих сцен традиційні класифікатори залишаються кращими, а час висновку та обчислювальна потужність є відносно високими. ROOST створить спільноту моделей і випустить технічний звіт.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
10 лайків
Нагородити
10
6
Репост
Поділіться
Прокоментувати
0/400
MetaNeighbor
· 15год тому
Ця безпека справді витримує?
Переглянути оригіналвідповісти на0
BearMarketSurvivor
· 15год тому
Нарешті відкритий вихідний код, непогано, непогано
Переглянути оригіналвідповісти на0
LiquidityLarry
· 16год тому
Відкритий вихідний код — навіщо він, якщо все одно потрібна хеш-потужність для обчислень
Переглянути оригіналвідповісти на0
BlockTalk
· 16год тому
От така безпека? Тс-ts.
Переглянути оригіналвідповісти на0
ZenMiner
· 16год тому
Це ж просто безпечний механізм для відкритих моделей.
OpenAI випустила Відкритий вихідний код безпечну модель висновків gpt-oss-safeguard
【链文】29 жовтня повідомляється, що OpenAI сьогодні випустила відкритий вихідний код безпеки моделі гнучкого висновку gpt-oss-safeguard (120b, 20b), що дозволяє розробникам під час висновку надавати користувацькі політики для класифікації контенту, а висновки моделі відповідають ланцюгу висновків. Ця модель базується на відкритих вагах gpt-oss, що пройшла доопрацювання, і використовує ліцензію Apache 2.0, доступну для завантаження з платформи. Внутрішні оцінки показали, що вона перевершує gpt-5-thinking та gpt-oss за точністю багатьох політик, а результати на зовнішніх наборах даних близькі до Safety Reasoner. Обмеження включають: у великій кількості високоякісних анотованих сцен традиційні класифікатори залишаються кращими, а час висновку та обчислювальна потужність є відносно високими. ROOST створить спільноту моделей і випустить технічний звіт.