硅基流动 前天 15:12
硅基流动 SiliconCloud 上线加速版智谱 GLM-4-32B/9B 系列模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

智谱AI开源了GLM-4-32B/9B系列模型,包括沉思模型、推理模型和基座模型,其中32B参数的模型性能可与GPT-4o等顶尖模型媲美。硅基流动SiliconCloud平台已上线加速版模型,GLM-Z1-9B-0414与GLM-4-9B-0414可免费使用。该系列模型在代码生成、函数调用、搜索问答等任务上表现出色,沉思模型能在深度思考中整合搜索工具,支持研究型写作和复杂检索任务。SiliconCloud还提供多种模型API,助力开发者。

💡 基座模型GLM-4-32B-0414:利用15T高质量数据预训练,并针对对话场景进行人类偏好对齐,增强了模型在指令遵循、代码生成、函数调用等任务上的表现。在工程代码、Artifacts生成等任务上,部分指标已接近甚至超越GPT-4o等更大模型。

🧠 推理模型GLM-Z1-32B/9B-0414:采用冷启动与扩展强化学习策略,针对数学、代码、逻辑等关键任务进行优化训练。GLM-Z1-32B-0414在数理能力和复杂问题解决能力上显著增强。GLM-Z1-9B-0414在资源受限场景下,也能在效率与效果之间取得平衡。

🤔 沉思模型GLM-Z1-Rumination-32B-0414:通过深度思考解决复杂问题,整合搜索工具处理复杂任务,并运用规则型奖励机制指导强化学习训练。该模型支持“自主提出问题—搜索信息—构建分析—完成任务”的完整研究闭环,提升了在研究型写作和复杂检索任务上的能力。

🚀 SiliconCloud平台:提供极速响应、价格亲民的大模型API服务,除了GLM-4系列,还上架了包括Qwen2.5-VL-32B-Instruct等在内的上百款模型。DeepSeek-R1蒸馏版(8B、7B、1.5B)、BGE等多款大模型API免费使用。

原创 SiliconCloud 2025-04-15 21:48 北京

可免费使用两款模型。


今天,智谱宣布开源 GLM-4-32B/9B 系列模型,包括沉思模型、推理模型和基座模型。官方公开数据显示,其 32B 参数的模型性能可比肩 GPT-4o 等顶尖大规模参数模型。值得一提的是,沉思模型 GLM-Z1-Rumination-32B-0414 能在深度思考过程中整合搜索工具处理复杂任务,并运用多种规则型奖励机制来指导和扩展端到端的强化学习训练,被官方视为对 AGI 未来形态的下一步探索。


一如既往,硅基流动 SiliconCloud 平台快速上线了上述加速版模型,其中,GLM-Z1-9B-0414 与 GLM-4-9B-0414 可免费使用。开发者只需在开发应用时轻松调用 API,即可拥有更高效的模型体验。




在线体验

https://cloud.siliconflow.cn/models


API 文档

https://docs.siliconflow.cn/cn/api-reference/chat-completions/


直观感受一下 SiliconCloud 上加速版推理模型 GLM-Z1-32B-0414 的效果。




模型特点及性能



基座模型 GLM-4-32B-0414


根据智谱公开的信息,基座模型 GLM-4-32B-0414 利用 15T 高质量数据进行预训练,特别纳入了丰富的推理类合成数据,为后续的强化学习扩展奠定了基础。在后训练阶段,除了进行面向对话场景的人类偏好对齐,还通过拒绝采样和强化学习等技术,重点增强了模型在指令遵循、工程代码生成、函数调用等任务上的表现,以强化智能体任务所需的原子能力。


GLM-4-32B-0414 在工程代码、Artifacts 生成、函数调用、搜索问答及报告撰写等任务上均表现出色,部分 Benchmark 指标已接近甚至超越 GPT-4o、DeepSeek-V3-0324(671B)等更大模型的水平。



推理模型 GLM-Z1-32B/9B-0414


GLM-Z1-32B-0414 采用了冷启动与扩展强化学习策略,并针对数学、代码、逻辑等关键任务进行了深度优化训练。与基础模型相比,GLM-Z1-32B-0414 的数理能力和复杂问题解决能力得到显著增强。此外,训练中整合了基于对战排序反馈的通用强化学习技术,有效提升了模型的通用能力。


通过在 AIME 24/25、LiveCodeBench、GPQA 等基准测试中的评估,GLM-Z1-32B-0414 展现了较强的数理推理能力,能够支持解决更广泛复杂任务。



GLM-Z1-9B-0414 沿用了上述一系列技术,更少参数量的 GLM-Z1-9B-0414 在数学推理及通用任务上依然表现出色,整体性能已跻身同尺寸开源模型的领先水平。特别是在资源受限的场景下,该模型可以很好地在效率与效果之间取得平衡,为需要轻量化部署的用户提供强有力的选择。



沉思模型 GLM-Z1-Rumination-32B-0414


与一般推理模型不同,沉思模型 GLM-Z1-Rumination-32B-0414 通过更多步骤的深度思考来解决高度开放与复杂的问题。其关键创新在于,它能在深度思考过程中整合搜索工具处理复杂任务,并运用多种规则型奖励机制来指导和扩展端到端的强化学习训练。该模型支持“自主提出问题—搜索信息—构建分析—完成任务”的完整研究闭环,从而在研究型写作和复杂检索任务上的能力得到了显著提升。



Token 工厂,让 AI 开发者“Token 自由”


作为一站式大模型云服务平台,SiliconCloud 致力于为开发者提供极速响应、价格亲民、品类齐全、稳定丝滑的大模型 API。


除了 GLM-4 系列模型,SiliconCloud 已上架包括 Qwen2.5-VL-32B-InstructWan2.1-I2VQwen2.5VL-72BWan2.1-T2QwQ-32BDeepSeek-R1 & V3DeepSeek-R1-DistillCosyVoice2DeepSeek-VL2HunyuanVideoQwen2.5-7B/14B/32B/72BBCE、BGESenseVoice-Small 在内的上百款模型。其中,DeepSeek-R1 蒸馏版(8B、7B、1.5B)、BGE 等多款大模型 API 免费使用,让开发者实现“Token 自由”。



开发者可在 SiliconCloud 平台自由对比、组合各类大模型,只需在开发应用时轻松调用更易用、高效的 API,为你的生成式 AI 应用选择最佳实践。



近期更新
SiliconCloud上线加速版Wan2.1-I2V
SiliconCloud上线DeepSeek-V3-0324
比肩H100!基于昇腾云超节点的R1上线
硅基流动 x 昆仑技术推出DeepSeek一体机
硅基流动上线DeepSeek-R1 & V3企业级服务
DeepSeek API支持批量推理,R1价格直降75%

让超级产品开发者实现“Token自由”

邀好友用SiliconCloud,狂送2000万Token/人

即刻体验DeepSeek-R1&V3

cloud.siliconflow.cn

扫码加入用户交流群

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

GLM-4 开源模型 SiliconCloud 大模型
相关文章