OpenAI推出开源安全推理模型gpt-oss-safeguard,支持政策驱动分类

GateNews

PANews 10月29日消息,OpenAI今日发布开源安全推理模型gpt-oss-safeguard(120b、20b),允许开发者在推理时提供自定义政策进行内容分类,模型输出结论与推理链。该模型基于开放权重gpt-oss微调,采用Apache 2.0许可,可从Hugging Face下载。内部评测显示其在多政策准确性上优于gpt-5-thinking与gpt-oss,外部数据集表现接近Safety Reasoner。局限包括:在大量高质量标注场景下传统分类器仍更优、推理耗时与算力较高。ROOST将建立模型社区并发布技术报告。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论