OpenAI 近期发布了 GPT-oss-120b 和 GPT-oss-20b 两款开源语言模型,这是自 GPT-2 以来 OpenAI 首次推出开源产品。这两款模型在 Hugging Face 平台免费提供下载,并在多个基准测试中展现出领先水平。GPT-oss-120b 可以在 80GB GPU 上高效运行,性能与 OpenAI 的 o4-mini 模型相当;GPT-oss-20b 则可在仅有 16GB 内存的设备上运行,非常适合设备端应用。OpenAI 以 Apache 2.0 许可证发布这些模型,允许商业化使用,但未公开训练数据。此举标志着 OpenAI 在经历了主要采用闭源模式后,重新拾起了其早期开源的理念,CEO 奥尔特曼也公开表示公司曾“站在了历史的错误一边”,致力于构建一个对全人类有益的开源 AI 平台。
🌟 **OpenAI 重启开源之路**:OpenAI 继 GPT-2 后,首次推出 GPT-oss-120b 和 GPT-oss-20b 两款开源语言模型,标志着其战略方向的转变,回归了公司早期致力于开源的理念。CEO 奥尔特曼也公开表示了对公司过去闭源策略的反思,强调了构建开放 AI 平台的必要性。
🚀 **模型性能与硬件适配**:GPT-oss-120b 在核心推理基准测试中接近 OpenAI 的 o4-mini 模型,且能在单个 80GB GPU 上高效运行。GPT-oss-20b 则可在仅 16GB 内存的设备上运行,非常适合边缘计算、本地推理或低成本的快速迭代开发,降低了 AI 应用的门槛。
⚖️ **宽松的商业化许可**:OpenAI 以 Apache 2.0 许可证发布这两款模型,这是最宽松的许可证之一,允许企业无需支付费用或获得额外许可即可进行商业化应用。然而,与一些完全开源项目不同,OpenAI 并未公开其训练数据。
🤝 **连接闭源与开源的潜力**:OpenAI 的开源模型可以连接到其更强大的闭源模型,这意味着开发者可以在处理复杂任务(如图像处理)时,利用开源模型的灵活性,并在必要时调用 OpenAI 云端更先进的模型能力,实现了混合应用的可能性。
💡 **对 AI 生态的影响**:OpenAI 的开源举措有望推动 AI 技术的普及和创新,尤其是在设备端和低成本应用场景。这为开发者提供了更多选择和灵活性,也可能加速整个 AI 行业的进步和竞争。
IT之家 8 月 6 日消息,OpenAI 宣布推出两款开源模型 GPT-oss-120b 和 GPT-oss-20b,这是自 2020 年发布 GPT-2 以来,OpenAI 首次推出开源语言模型。这两款模型均可在 Hugging Face 在线开发者平台上免费下载,OpenAI 称其在多个用于比较开源模型的基准测试中表现“处于前沿水平”。
据 OpenAI 介绍,Gpt-oss-120b 模型在核心推理基准测试中与 OpenAI o4-mini 模型几乎持平,同时能在单个 80GB GPU 上高效运行。Gpt-oss-20b 模型在常见基准测试中与 OpenAI o3‑mini 模型取得类似结果,且可在仅配备 16GB 内存的边缘设备上运行,使其成为设备端应用、本地推理或无需昂贵基础设施的快速迭代的理想选择。


OpenAI 表示,其开源模型能够向云端的 AI 模型发送复杂查询,这意味着如果开源模型无法完成某项任务(如图像处理),开发者可以将其连接到 OpenAI 更强大的闭源模型。
OpenAI 以 Apache 2.0 许可证发布 gpt-oss-120b 和 gpt-oss-20b,这是一种被认为是最宽松的许可证之一。该许可证允许企业在无需向 OpenAI 支付费用或获得许可的情况下,将 OpenAI 的开源模型商业化。不过,与 AI2 等 AI 实验室的完全开源产品不同,OpenAI 表示不会公开用于创建其开源模型的训练数据。

据IT之家了解,尽管 OpenAI 在早期曾开源 AI 模型,但近年来公司主要采用专有、闭源的开发方式,并通过 API 向企业和开发者出售其 AI 模型的访问权限,从而构建了庞大的商业帝国。然而,今年 1 月,OpenAI 首席执行官萨姆・奥尔特曼(Sam Altman)曾表示,公司在开源技术方面“站在了历史的错误一边”。
奥尔特曼在一份提供给 TechCrunch 的声明中表示:“自 2015 年成立以来,OpenAI 的使命就是确保开发出造福全人类的通用人工智能(AGI)。为此,我们很高兴看到世界正在构建一个基于美国民主价值观的开源 AI 平台,该平台对所有人免费开放,带来广泛的利益。”