【链文】Notícias de 29 de outubro, a OpenAI lançou hoje o modelo de raciocínio seguro de código aberto gpt-oss-safeguard (120b, 20b), permitindo que os desenvolvedores forneçam políticas personalizadas para classificação de conteúdo durante o raciocínio, com conclusões de saída do modelo e cadeia de raciocínio. Este modelo é ajustado com base em pesos abertos gpt-oss e utiliza a licença Apache 2.0, podendo ser baixado da plataforma. Avaliações internas mostram que sua precisão em múltiplas políticas é superior à do gpt-5-thinking e gpt-oss, com desempenho próximo ao Safety Reasoner em conjuntos de dados externos. As limitações incluem: em muitos cenários com anotações de alta qualidade, classificadores tradicionais ainda são superiores, e o tempo de raciocínio e o poder de computação são relativamente altos. O ROOST estabelecerá uma comunidade de modelos e publicará relatórios técnicos.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
10 Curtidas
Recompensa
10
6
Repostar
Compartilhar
Comentário
0/400
MetaNeighbor
· 16h atrás
Esta segurança realmente aguenta?
Ver originalResponder0
BearMarketSurvivor
· 16h atrás
Finalmente é Código aberto, muito bom, muito bom.
Ver originalResponder0
LiquidityLarry
· 16h atrás
Código aberto para quê? Ainda assim é preciso poder de hash para executar
Ver originalResponder0
BlockTalk
· 16h atrás
Só essa segurança? Tsk tsk
Ver originalResponder0
ZenMiner
· 16h atrás
Isso não é apenas adicionar um bloqueio de segurança ao modelo aberto?
OpenAI lançou o modelo de raciocínio seguro Código aberto gpt-oss-safeguard
【链文】Notícias de 29 de outubro, a OpenAI lançou hoje o modelo de raciocínio seguro de código aberto gpt-oss-safeguard (120b, 20b), permitindo que os desenvolvedores forneçam políticas personalizadas para classificação de conteúdo durante o raciocínio, com conclusões de saída do modelo e cadeia de raciocínio. Este modelo é ajustado com base em pesos abertos gpt-oss e utiliza a licença Apache 2.0, podendo ser baixado da plataforma. Avaliações internas mostram que sua precisão em múltiplas políticas é superior à do gpt-5-thinking e gpt-oss, com desempenho próximo ao Safety Reasoner em conjuntos de dados externos. As limitações incluem: em muitos cenários com anotações de alta qualidade, classificadores tradicionais ainda são superiores, e o tempo de raciocínio e o poder de computação são relativamente altos. O ROOST estabelecerá uma comunidade de modelos e publicará relatórios técnicos.