技术架构与特性
模型规格
- GPT-OSS-120B: 1200亿参数模型,单张某中心H100 GPU可运行
- GPT-OSS-20B: 200亿参数模型,支持消费级笔记本本地运行
- 纯文本语言模型(不支持多模态)
- 支持代码生成和数学计算
核心架构
- 采用混合专家(MoE)架构与Transformer主干
- GPT-OSS-120B每token激活51亿参数(总1170亿)
- GPT-OSS-20B每token激活36亿参数(总210亿)
- 支持128,000 token上下文长度(约300-400页文本)
- 使用局部带状稀疏注意力和旋转位置编码
技术特性
- 开源分词器o200k_harmony
- 支持低/中/高推理强度设置
- 具备思维链推理和工具调用能力
- 兼容某机构3月发布的Responses API
- 工具使用能力不依赖某机构基础设施
安全评估体系
安全训练
- 采用Preparedness Framework安全框架
- 预训练过滤CBRN(化学、生物、放射、核)相关数据
- 应用后训练安全方法:审慎对齐和指令层次结构
对抗测试
- 使用内部RL训练堆栈进行对抗性微调
- 进行恶意微调(MFT)场景测试:
- 启用浏览功能
- 禁用拒绝行为
- 模拟真实攻击场景
第三方验证
- 与SecureBio合作进行生物安全测试
- 通过HPCT(人类病原体能力测试)和MBCT(分子生物学能力测试)
- 三个独立专家组审核安全结论
部署与生态
可用性
- 在Hugging Face平台提供完整权重下载
- 支持Azure、AWS、Databricks等部署平台
- 某中心、AMD、Cerebras等硬件合作伙伴
- 某机构通过ONNX Runtime提供Windows GPU优化版本
开发者支持
- 提供50万美元Kaggle红队挑战赛
- 将发布公开报告和开源评估数据集
- 早期采用者包括某瑞典机构、Orange等
许可与商业策略
开源许可
- Apache 2.0许可证(无使用限制)
- 允许商业使用和修改
- 支持本地私有化部署
商业模式
- 不直接从开源模型获利
- 提供付费定制部署服务
- 与企业客户合作进行本地化微调
性能表现
基准测试
-
GPT-OSS-120B在推理和工具使用基准测试中匹配或超越o4-mini:
- 数学竞赛(AIME 2024 & 2025)
- 通用问题解决(MMLU和HLE)
- 智能体评估(TauBench)
- 健康领域评估(HealthBench)
-
GPT-OSS-20B性能接近o3-mini,部分基准测试实现超越
多语言支持
- 支持多种非英语语言
- 可通过本地化微调提升特定语言性能
- 正在与某瑞典政府合作开发瑞典语优化版本