原创 青小蛙 2025-08-06 18:08 贵州
OpenAI 终于开源了自己的模型:gpt-oss-120b 和 gpt-oss-20b,并发布了中文内容:《
OpenAI 终于开源了自己的模型:gpt-oss-120b 和 gpt-oss-20b,并发布了中文内容:《隆重推出 gpt-oss》。@Appinn
大概,OpenAI 最早明确提出开源,应该是2019年,现在是2025年了
这是两款 Apache 2.0 许可证下的轻量级语言模型,可商用。均基于 Transformer 架构,采用专家混合(MoE)技术,gpt-oss-120b 约有 1170 亿参数,每个 token 激活约 51 亿参数;gpt-oss-20b 有 210 亿参数,激活约 36 亿参数。支持最长 128k 的上下文长度。
性能方面,gpt-oss-120b 在核心推理测试中几乎与 OpenAI 的闭源 o4-mini 模型持平,且能高效运行于单个 80GB GPU;gpt-oss-20b 性能接近 o3-mini 模型,仅需 16GB 内存,适合边缘设备和本地推理应用。
模型 | 层数 | 总参数 | 每个令牌的活跃参数 | 总专家数 | 每个令牌的活跃专家数 | 上下文长度 |
gpt-oss-120b | 36 | 117b | 5.1b | 128 | 4 | 128k |
gpt-oss-20b | 24 | 21b | 3.6b | 32 | 4 | 128k |
gpt-oss 使用了主要为英文的纯文本数据集对模型进行了训练,重点关注 STEM、编程和通用知识领域。并且使用了 OpenAI o4-mini 和 GPT‑4o 所用令牌化器的超集进行数据令牌化,即 ‘o200k_harmony’,该令牌化器我们今日也一并开源。
如何部署
目前 gpt-oss-120b 和 gpt-oss-20b 两个模型已经可以在 huggingface 下载:
建议个人用户常识 20b 模型,仅需16GB显存。毕竟不是几个人有 80G 显存来部署 120b 🐶
Ollama 安装
1 2 3 |
|
下载量大约 14GB,然后就可以使用 Ollama 对话了。
在线试用
目前可以直接在线试用这两个模型:
官方提供的预览
并且支持联网。
原文:https://www.appinn.com/openai-gpt-oss/
青小蛙觉得,如果 16GB 显存就可以部署一个接近 o3-mini 模型性能的纯文本本地模型,那自己在家用起来就非常非常方便了。
测试项目 | DeepSeek-R1-32B(蒸馏/推理版) | gpt-oss-20B |
---|---|---|
GPQA Diamond | 71.5~81.0 | 71.5 |
Humanity's Last Exam | 8.5~17.7 | 17.3 |
AIME 2024(数学) | ~91.4(更高版本) | 96.0 |
综合智力指数(人工分析) | 48~49 (推理/逻辑优势) | 51 |
实际推理/代码/复杂任务 | 较强,近 o1-mini、Qwen 32B | 略高一档于同等规模 Llama,实测近 o3-mini |
对了,别忘记还有 DeepSeek-R1-32B。
问题来了,你会在家整一个么?