OpenAI近期推出了GPT-OSS开源模型系列,包含GPT-OSS-120B和GPT-OSS-20B两款高效AI模型,分别针对大规模高性能推理和低延迟本地化应用进行了优化。GPT-OSS-120B拥有1170亿参数,专为H100 GPU优化;GPT-OSS-20B则拥有210亿参数,适合资源受限环境。这两个模型均支持完整的推理链条,便于开发者监控和调试,提升了结果的可靠性和可解释性。此外,GPT-OSS系列还具备强大的代理功能,可执行功能调用、网页浏览和Python代码等操作。在多个标准化测试中,GPT-OSS系列表现优异,为开发者提供了探索和创新的强大工具。
🚀 GPT-OSS系列模型包含GPT-OSS-120B和GPT-OSS-20B两款开源模型,旨在满足不同应用场景的需求。GPT-OSS-120B拥有1170亿参数,专注于大规模、高性能推理任务,并针对单个H100 GPU进行了优化。而GPT-OSS-20B则拥有210亿参数,专为低延迟和本地化应用设计,适用于资源受限的环境。
💡 这两个模型都为开发者提供了完整的推理链条,使得开发者能够监控和调试模型的推理过程,从而显著提升输出结果的可靠性和可解释性。这项能力对于需要高精度和透明度的AI应用至关重要。
🌐 GPT-OSS系列模型具备强大的代理功能,能够执行功能调用、网页浏览和Python代码等复杂操作,这使得它们在需要与外部环境交互或执行多步骤任务的应用中表现出色,极大地扩展了AI的应用范围。
📈 在推理能力方面,GPT-OSS系列提供了低、中、高三种推理力度,允许根据不同的延迟需求灵活调整参数,以适应各种应用场景。此外,开发者还可以根据具体需求对模型进行微调,进一步优化其在特定任务上的表现。
🏆 在MMLU、GPQA和竞赛数学等多个标准化测试中,GPT-OSS系列模型展现了出色的性能,与GPT-O3和O4-Mini等模型相比,其在多项指标上表现突出,证明了其强大的竞争力。
快科技8月6日消息,OpenAI近期发布了开源模型系列gpt-oss,此次发布包括两款开源模型——gpt-oss-120b和gpt-oss-20b,是针对不同应用需求特化的高效AI模型。

gpt-oss系列特点
gpt-oss-120b:适用于大规模、高性能推理任务,包含1170亿个参数,且有5.1亿个活跃参数,专为单个H100 GPU优化。
gpt-oss-20b:专为低延迟和本地化应用设计,包含210亿个参数,活跃参数为3.6亿,适合在资源有限的环境下运行。
这两个模型都能为开发者提供完整的推理链条,并允许开发者对模型的推理过程进行监控和调试,提升了输出结果的可靠性和可解释性。更重要的是,gpt-oss系列支持强大的代理功能,能够执行功能调用、网页浏览和Python代码等操作,使其在复杂应用中表现出色。
推理能力与优化
gpt-oss系列不仅在标准任务中表现出色,其推理能力的优化也让它在多个实际应用中成为首选。两个模型的参数调整可以根据具体需求灵活设置,支持低、中、高三种推理力度,满足不同延迟需求的应用场景。开发者还可以根据具体需求,进行模型微调,以进一步优化其在特定任务中的表现。
模型对比:
在多个标准化测试中,gpt-oss系列的表现相当突出,尤其是在MMLU、GPQA、以及竞赛数学等领域。以下是gpt-oss-120b和gpt-oss-20b与gpt-o3和o4-mini的对比数据:

OpenAI的gpt-oss系列模型凭借其强大的推理能力和广泛的应用场景,成为了开发者手中的有力工具。其开源特性、强大的定制能力和优化的推理性能,使其在AI开发和应用中具有巨大的潜力。随着AI技术的不断发展,gpt-oss系列无疑为更多的开发者提供了探索、创新和实现突破的可能。