原创 SiliconCloud 2025-04-15 21:48 北京
可免费使用两款模型。
今天,智谱宣布开源 GLM-4-32B/9B 系列模型,包括沉思模型、推理模型和基座模型。官方公开数据显示,其 32B 参数的模型性能可比肩 GPT-4o 等顶尖大规模参数模型。值得一提的是,沉思模型 GLM-Z1-Rumination-32B-0414 能在深度思考过程中整合搜索工具处理复杂任务,并运用多种规则型奖励机制来指导和扩展端到端的强化学习训练,被官方视为对 AGI 未来形态的下一步探索。
一如既往,硅基流动 SiliconCloud 平台快速上线了上述加速版模型,其中,GLM-Z1-9B-0414 与 GLM-4-9B-0414 可免费使用。开发者只需在开发应用时轻松调用 API,即可拥有更高效的模型体验。
https://cloud.siliconflow.cn/models
API 文档
https://docs.siliconflow.cn/cn/api-reference/chat-completions/
直观感受一下 SiliconCloud 上加速版推理模型 GLM-Z1-32B-0414 的效果。
模型特点及性能
基座模型 GLM-4-32B-0414
根据智谱公开的信息,基座模型 GLM-4-32B-0414 利用 15T 高质量数据进行预训练,特别纳入了丰富的推理类合成数据,为后续的强化学习扩展奠定了基础。在后训练阶段,除了进行面向对话场景的人类偏好对齐,还通过拒绝采样和强化学习等技术,重点增强了模型在指令遵循、工程代码生成、函数调用等任务上的表现,以强化智能体任务所需的原子能力。
GLM-4-32B-0414 在工程代码、Artifacts 生成、函数调用、搜索问答及报告撰写等任务上均表现出色,部分 Benchmark 指标已接近甚至超越 GPT-4o、DeepSeek-V3-0324(671B)等更大模型的水平。
推理模型 GLM-Z1-32B/9B-0414
GLM-Z1-32B-0414 采用了冷启动与扩展强化学习策略,并针对数学、代码、逻辑等关键任务进行了深度优化训练。与基础模型相比,GLM-Z1-32B-0414 的数理能力和复杂问题解决能力得到显著增强。此外,训练中整合了基于对战排序反馈的通用强化学习技术,有效提升了模型的通用能力。
通过在 AIME 24/25、LiveCodeBench、GPQA 等基准测试中的评估,GLM-Z1-32B-0414 展现了较强的数理推理能力,能够支持解决更广泛复杂任务。
GLM-Z1-9B-0414 沿用了上述一系列技术,更少参数量的 GLM-Z1-9B-0414 在数学推理及通用任务上依然表现出色,整体性能已跻身同尺寸开源模型的领先水平。特别是在资源受限的场景下,该模型可以很好地在效率与效果之间取得平衡,为需要轻量化部署的用户提供强有力的选择。
沉思模型 GLM-Z1-Rumination-32B-0414
与一般推理模型不同,沉思模型 GLM-Z1-Rumination-32B-0414 通过更多步骤的深度思考来解决高度开放与复杂的问题。其关键创新在于,它能在深度思考过程中整合搜索工具处理复杂任务,并运用多种规则型奖励机制来指导和扩展端到端的强化学习训练。该模型支持“自主提出问题—搜索信息—构建分析—完成任务”的完整研究闭环,从而在研究型写作和复杂检索任务上的能力得到了显著提升。
Token 工厂,让 AI 开发者“Token 自由”
作为一站式大模型云服务平台,SiliconCloud 致力于为开发者提供极速响应、价格亲民、品类齐全、稳定丝滑的大模型 API。
除了 GLM-4 系列模型,SiliconCloud 已上架包括 Qwen2.5-VL-32B-Instruct、Wan2.1-I2V、Qwen2.5VL-72B、Wan2.1-T2、QwQ-32B、DeepSeek-R1 & V3、DeepSeek-R1-Distill、CosyVoice2、DeepSeek-VL2、HunyuanVideo、Qwen2.5-7B/14B/32B/72B、BCE、BGE、SenseVoice-Small 在内的上百款模型。其中,DeepSeek-R1 蒸馏版(8B、7B、1.5B)、BGE 等多款大模型 API 免费使用,让开发者实现“Token 自由”。
开发者可在 SiliconCloud 平台自由对比、组合各类大模型,只需在开发应用时轻松调用更易用、高效的 API,为你的生成式 AI 应用选择最佳实践。
让超级产品开发者实现“Token自由”
邀好友用SiliconCloud,狂送2000万Token/人
即刻体验DeepSeek-R1&V3
cloud.siliconflow.cn
扫码加入用户交流群