PaperAgent 04月19日 14:12
比R1快8倍,智谱开源GLM-Z1系列,实测 Agentic AI 也能极速深度推理!
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

智谱AI发布新一代开源模型GLM-4-32B系列,包含基座、推理、沉思模型,并采用MIT License,允许商用。其中,GLM-Z1-32B推理模型以其极速表现引人注目,尤其是在Agentic AI应用场景中展现出强大实力。该系列模型提供多种版本,满足不同需求,并支持免费试用。文章还介绍了GLM-Z1-AirX在Agentic RAG和MCP应用中的具体表现,以及流式调用指南,为开发者提供了便捷的实践方法。

🚀 智谱AI开源GLM-4-32B系列模型,包括基座、推理和沉思模型,均采用MIT License,允许商用,为开发者提供了广泛的应用可能性。

⚡️ GLM-Z1-32B推理模型是本次开源的亮点,尤其是在速度方面表现出色,例如GLM-Z1-AirX版本推理速度高达200 tokens/s,大幅提升了推理效率,适合对速度有较高要求的应用场景。

💡 为了满足不同需求,智谱AI提供了GLM-Z1-AirX(极速版)、GLM-Z1-Air(高性价比版)和GLM-Z1-Flash(免费版)三个版本的推理模型,用户可以根据实际情况选择合适的版本。

💬 文章详细介绍了GLM-Z1-AirX在Agentic RAG和MCP应用中的具体表现,并提供了流式调用指南,展示了该模型在实际应用中的能力和便捷性,有助于开发者快速上手和应用。

⏱️ 在Agentic RAG应用中,GLM-Z1-AirX仅用12.8秒就生成了2246字的答案,展现了其快速的推理能力,远超其他模型,为RAG系统带来了显著的性能提升。

原创 PaperAgent 2025-04-15 11:56 湖北

太卷了,智谱一口气开源6个模型,即新一代开源模型 GLM-4-32B-0414 系列,包含基座、推理、沉思模型,MIT License,不限制商用。
不想自己部署的小伙伴可以直接登录全新站点 https://chat.z.ai/ 试用。
此次开源最大的亮点是具有深度思考能力的推理模型 GLM-Z1-32B,主打一个“为快不破”:国内迎来最快的推理模型。
为满足不同场景需求,上线到智谱MaaS开放平台 bigmodel.cn 的推理模型分为三个版本:

    GLM-Z1-AirX(极速版):国内最快推理模型,推理速度高达200 tokens/s,8倍于常规速度;

    GLM-Z1-Air(高性价比版):价格仅为DeepSeek-R1的1/30,适合高频调用场景;

    GLM-Z1-Flash(免费版):支持免费使用,进一步降低模型使用门槛。

200 tokens/s极速深度推理,给推理模型的落地场景带来了无限可能,PaperAgent就最经典的Agentic AI应用场景:Agentic RAG/MCP应用(含代码解析)GLM-Z1-AirX进行了第一手实测。
GLM-Z1-AirX加持的Agentic RAG
Agentic RAG过程应用于问答的一个代表性示例,主要由2大流程组成:

Agentic RAG问答流程(GLM-Z1-AirX)

总结类型Query: A股行情经历了怎样的变化
GLM-Z1-AirX仅在【12.8s】就给出了长达2246字的答案,并且答案也比较丰富,全面。
这个速度直接让你的RAG系统直接赢在了thinking线上,可能别人还在thinking,你已经给出答案了。
这里以DeepSeek-R1作为对比,thinking阶段就花费20s,最终答案1764字,总耗时63.3s
GLM-Z1-AirX流式使用指南
    pip install --upgrade zhipuai
    from zhipuai import ZhipuAIclient = ZhipuAI(api_key=""# 填写您自己的APIKeyresponse = client.chat.completions.create(    model="GLM-Z1-AirX",  # 填写需要调用的模型编码    messages=[        {"role""user""content""你好"}    ],    stream=True,)for chunk in response:  content = chunk.choices[0].delta.content  print(content)
    GLM-Z1-AirX加持的MCP应用
    选这个场景测试,是因为不少小伙伴对MCP与Function Call的关系有困惑,比如“mcp 和 function call可以共存吗?”,今天以GLM-Z1-AirX作为基础模型对剖析MCP应用的工作流程:
      https://hf-mirror.com/collections/THUDM/glm-4-0414-67f3cbcb34dd9d252707cb2ehttps://github.com/modelcontextprotocol/python-sdk

      阅读原文

      跳转微信打开

      Fish AI Reader

      Fish AI Reader

      AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

      FishAI

      FishAI

      鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

      联系邮箱 441953276@qq.com

      相关标签

      GLM-4-32B 智谱AI 开源模型 AI推理 Agentic AI
      相关文章