小众软件 4小时前
盼星星盼月亮,OpenAI开源鸽王封号今日卸任!16GB内存就行
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OpenAI开源了gpt-oss-120b和gpt-oss-20b两款模型,基于Transformer架构和专家混合技术,性能接近闭源模型,支持商用。gpt-oss-120b参数1170亿,需80GB显存;gpt-oss-20b参数210亿,仅需16GB显存,适合边缘设备和本地推理。模型使用英文数据集训练,支持最长128k上下文长度。已开源令牌化器,可在Hugging Face下载,并支持Ollama安装和在线试用。

🔍 gpt-oss-120b和gpt-oss-20b是OpenAI开源的轻量级语言模型,基于Transformer架构和专家混合技术,分别拥有1170亿和210亿参数,性能接近OpenAI闭源模型的o4-mini和o3-mini。

📈 性能方面,gpt-oss-120b在核心推理测试中与o4-mini持平,能高效运行于单个80GB GPU;gpt-oss-20b性能接近o3-mini,仅需16GB内存,适合边缘设备和本地推理应用。

📚 模型使用主要为英文的纯文本数据集进行训练,重点关注STEM、编程和通用知识领域,并使用了OpenAI o4-mini和GPT-4o所用令牌化器的超集进行数据令牌化,即‘o200k_harmony’。

🖥️ 部署方面,gpt-oss-120b和gpt-oss-20b已可在Hugging Face下载,个人用户推荐使用20b模型,因其仅需16GB显存即可部署,对硬件要求较低。

🌐 在线试用方面,官方提供了预览网站,支持联网体验这两个模型,方便用户了解其性能和功能。

原创 青小蛙 2025-08-06 18:08 贵州

OpenAI 终于开源了自己的模型:gpt-oss-120b 和 gpt-oss-20b,并发布了中文内容:《

OpenAI 终于开源了自己的模型:gpt-oss-120b 和 gpt-oss-20b,并发布了中文内容:《隆重推出 gpt-oss》。@Appinn

大概,OpenAI 最早明确提出开源,应该是2019年,现在是2025年了 

这是两款 Apache 2.0 许可证下的轻量级语言模型,可商用。均基于 Transformer 架构,采用专家混合(MoE)技术,gpt-oss-120b 约有 1170 亿参数,每个 token 激活约 51 亿参数;gpt-oss-20b 有 210 亿参数,激活约 36 亿参数。支持最长 128k 的上下文长度。

性能方面,gpt-oss-120b 在核心推理测试中几乎与 OpenAI 的闭源 o4-mini 模型持平,且能高效运行于单个 80GB GPU;gpt-oss-20b 性能接近 o3-mini 模型,仅需 16GB 内存,适合边缘设备和本地推理应用。

模型层数总参数每个令牌的活跃参数总专家数每个令牌的活跃专家数上下文长度

gpt-oss-120b

36

117b

5.1b

128

4

128k

gpt-oss-20b

24

21b

3.6b

32

4

128k

gpt-oss 使用了主要为英文的纯文本数据集对模型进行了训练,重点关注 STEM、编程和通用知识领域。并且使用了 OpenAI o4-mini 和 GPT‑4o 所用令牌化器的超集进行数据令牌化,即 ‘o200k_harmony’,该令牌化器我们今日也一并开源。

如何部署

目前 gpt-oss-120b 和 gpt-oss-20b 两个模型已经可以在 huggingface 下载:

建议个人用户常识 20b 模型,仅需16GB显存。毕竟不是几个人有 80G 显存来部署 120b 🐶

Ollama 安装

1

2

3

# gpt-oss-20b

ollama pull gpt-oss:20b

ollama run gpt-oss:20b

下载量大约 14GB,然后就可以使用 Ollama 对话了。

在线试用

目前可以直接在线试用这两个模型:

并且支持联网。

原文:https://www.appinn.com/openai-gpt-oss/

青小蛙觉得,如果 16GB 显存就可以部署一个接近 o3-mini 模型性能的纯文本本地模型,那自己在家用起来就非常非常方便了。

测试项目DeepSeek-R1-32B(蒸馏/推理版)gpt-oss-20B
GPQA Diamond71.5~81.071.5
Humanity's Last Exam8.5~17.717.3
AIME 2024(数学)~91.4(更高版本)96.0
综合智力指数(人工分析)48~49 (推理/逻辑优势)51
实际推理/代码/复杂任务较强,近 o1-mini、Qwen 32B略高一档于同等规模 Llama,实测近 o3-mini

对了,别忘记还有 DeepSeek-R1-32B。

问题来了,你会在家整一个么?

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

gpt-oss OpenAI 开源模型 人工智能
相关文章