【链文】29 octobre, OpenAI a publié aujourd'hui le modèle de raisonnement de sécurité Open Source gpt-oss-safeguard (120b, 20b), permettant aux développeurs de fournir des politiques personnalisées pour la classification de contenu lors du raisonnement, avec des conclusions de modèle et des chaînes de raisonnement. Ce modèle est affiné à partir des poids ouverts gpt-oss et utilise la licence Apache 2.0, pouvant être téléchargé depuis la plateforme. Les évaluations internes montrent qu'il surpasse gpt-5-thinking et gpt-oss en précision multi-politiques, avec des performances proches de Safety Reasoner sur des ensembles de données externes. Les limitations incluent : dans de nombreux scénarios de haute qualité annotés, les classificateurs traditionnels restent supérieurs, et le temps de raisonnement et la puissance de calcul sont relativement élevés. ROOST établira une communauté de modèles et publiera des rapports techniques.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
7
Reposter
Partager
Commentaire
0/400
MetaverseMortgage
· Il y a 4h
Il y a un peu de gonflement, open ai.
Voir l'originalRépondre0
MetaNeighbor
· 10-29 13:07
Est-ce que cette sécurité peut vraiment résister ?
Voir l'originalRépondre0
BearMarketSurvivor
· 10-29 13:06
Enfin Open Source, pas mal, pas mal.
Voir l'originalRépondre0
LiquidityLarry
· 10-29 12:56
À quoi sert l'open source ? Ce n'est pas pour rien qu'il faut de la puissance de hachage.
Voir l'originalRépondre0
BlockTalk
· 10-29 12:55
C'est tout ce niveau de sécurité ? Tsk tsk
Voir l'originalRépondre0
ZenMiner
· 10-29 12:54
C'est juste un verrou de sécurité ajouté au modèle ouvert.
OpenAI a publié le modèle de raisonnement sécurisé Open Source gpt-oss-safeguard
【链文】29 octobre, OpenAI a publié aujourd'hui le modèle de raisonnement de sécurité Open Source gpt-oss-safeguard (120b, 20b), permettant aux développeurs de fournir des politiques personnalisées pour la classification de contenu lors du raisonnement, avec des conclusions de modèle et des chaînes de raisonnement. Ce modèle est affiné à partir des poids ouverts gpt-oss et utilise la licence Apache 2.0, pouvant être téléchargé depuis la plateforme. Les évaluations internes montrent qu'il surpasse gpt-5-thinking et gpt-oss en précision multi-politiques, avec des performances proches de Safety Reasoner sur des ensembles de données externes. Les limitations incluent : dans de nombreux scénarios de haute qualité annotés, les classificateurs traditionnels restent supérieurs, et le temps de raisonnement et la puissance de calcul sont relativement élevés. ROOST établira une communauté de modèles et publiera des rapports techniques.