[链文] 29 de octubre, OpenAI lanzó hoy el modelo de razonamiento seguro de código abierto gpt-oss-safeguard (120b, 20b), que permite a los desarrolladores proporcionar políticas personalizadas para la clasificación de contenido durante el razonamiento, la conclusión del modelo y la cadena de razonamiento. Este modelo está basado en el ajuste fino de los pesos abiertos gpt-oss, utiliza la licencia Apache 2.0 y se puede descargar de la plataforma. Las evaluaciones internas muestran que su precisión en múltiples políticas es superior a gpt-5-thinking y gpt-oss, y su rendimiento en conjuntos de datos externos es cercano al Safety Reasoner. Las limitaciones incluyen: en una gran cantidad de escenarios etiquetados de alta calidad, los clasificadores tradicionales aún son superiores, y el tiempo de razonamiento y la potencia computacional son altos. ROOST establecerá una comunidad de modelos y publicará un informe técnico.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
10 me gusta
Recompensa
10
6
Republicar
Compartir
Comentar
0/400
MetaNeighbor
· hace15h
¿Es realmente segura esta seguridad?
Ver originalesResponder0
BearMarketSurvivor
· hace15h
Finalmente es Código abierto, muy bien.
Ver originalesResponder0
LiquidityLarry
· hace16h
¿Para qué sirve el código abierto? ¿No hay que usar potencia de hash?
Ver originalesResponder0
BlockTalk
· hace16h
¿Con esta seguridad? Tsk tsk.
Ver originalesResponder0
ZenMiner
· hace16h
¿No es esto simplemente un freno de seguridad añadido a los modelos abiertos?
OpenAI lanzó el modelo de inferencia de seguridad Código abierto gpt-oss-safeguard
[链文] 29 de octubre, OpenAI lanzó hoy el modelo de razonamiento seguro de código abierto gpt-oss-safeguard (120b, 20b), que permite a los desarrolladores proporcionar políticas personalizadas para la clasificación de contenido durante el razonamiento, la conclusión del modelo y la cadena de razonamiento. Este modelo está basado en el ajuste fino de los pesos abiertos gpt-oss, utiliza la licencia Apache 2.0 y se puede descargar de la plataforma. Las evaluaciones internas muestran que su precisión en múltiples políticas es superior a gpt-5-thinking y gpt-oss, y su rendimiento en conjuntos de datos externos es cercano al Safety Reasoner. Las limitaciones incluyen: en una gran cantidad de escenarios etiquetados de alta calidad, los clasificadores tradicionales aún son superiores, y el tiempo de razonamiento y la potencia computacional son altos. ROOST establecerá una comunidad de modelos y publicará un informe técnico.