掘金 人工智能 07月25日 15:13
【新模型速递】PAI-Model Gallery云上一键部署Qwen3-Coder模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文介绍了如何在阿里云人工智能平台PAI的Model Gallery中,轻松一键部署通义千问最新的AI编程大模型Qwen3-Coder。Qwen3-Coder在代码和Agent能力上表现出色,尤其以其1M的超长上下文长度,大大提升了Agentic编程的效率和便捷性,用户无需拆分任务即可实现端到端操作。文章详细指导了在PAI-Model Gallery部署模型的过程,并演示了如何在Qwen Code等Agentic CLI工具中配置和使用该模型进行编程任务,展示了其在生成复杂代码方面的强大能力和详细的执行计划。PAI-Model Gallery为用户提供了从模型集成、训练到部署的全流程托管服务,简化了AI开发流程。

🌟 Qwen3-Coder模型强大发布:通义千问团队于7月23日推出了Qwen3-Coder,这是Qwen系列中Agent能力最强的代码模型,在Agentic Coding、Agentic Browser-Use和Foundational Coding Tasks方面均达到开源模型的SOTA效果。

🚀 超长上下文处理能力:Qwen3-Coder支持高达1M的上下文长度,远超Kimi K2的128K,这意味着在Agentic编程任务中,模型能一次性处理更长的指令和上下文信息,极大地提高了效率和便捷性,无需将复杂任务拆分。

💡 PAI-Model Gallery便捷部署:阿里云PAI-Model Gallery提供Qwen3-Coder-480B-A35B-Instruct模型的企业级云端部署方案,用户可以实现零代码一键部署,自动适配云资源,并获得开箱即用的API接口,全流程运维托管,确保数据安全。

🔧 Agentic CLI集成实践:文章详细演示了如何在Qwen Code这款面向Agentic编程的命令行工具中配置和使用云端部署的Qwen3-Coder模型,通过设置环境变量指向PAI平台的服务,即可实现调用,并成功生成了功能完整的贪吃蛇游戏。

📈 模型性能优势显著:与Kimi K2相比,Qwen3-Coder在执行Agentic编程任务时,其计划(plan)部分更为详细和细致,能够提供更精细的任务拆解,有助于模型更好地理解和执行复杂指令。

引言

7月23日,阿里通义团队推出 Qwen3-Coder 模型,这是 Qwen 系列迄今为止最具 Agent 能力的代码模型。本文介绍如何在阿里云人工智能平台 PAI 的 Model Gallery 中一键部署 Qwen3-Coder 模型,并尝试了在 Qwen Code 工具中,使用部署的模型进行 Agentic 编程任务。

Qwen3-Coder 的上下文长度可以达到1M(Kimi K2只有128K),因为支持上下文更长,所以在 Qwen Code 工具中基本上一条指令可以让模型自己玩到底,不用拆分任务,方便很多。

模型介绍

7月23日,通义千问最新的AI编程大模型Qwen3-Coder正式开源。全新的Qwen3-Coder模型拥有卓越的代码和Agent能力,在Agentic Coding、Agentic Browser-Use 和 Foundational Coding Tasks 上均取得了开源模型的 SOTA 效果。

Qwen3-Coder 拥有多个尺寸,其最强大变体:Qwen3-Coder-480B-A35B-Instruct 模型是一个MoE模型,在编程任务上展现出显著的性能,同时具备长上下文能力。

由于 Qwen3-Coder-480B-A35B-Instruct 模型的参数量达 480B,需要至少 16*96G 显存的计算资源进行推理,云端部署成为企业用户和开发者们部署 Qwen3-Coder-480B-A35B-Instruct 时的优先选择。阿里云 PAI-Model Gallery 已同步接入 Qwen3-Coder-480B-A35B-Instruct 模型,提供企业级部署方案。

PAI-Model Gallery 简介

PAI-Model Gallery 是阿里云人工智能平台 PAI 的产品组件,它集成了国内外 AI 开源社区中优质的预训练模型,涵盖了 LLM、AIGC、CV、NLP 等各个领域。通过 PAI 对这些模型的适配,用户可以以零代码方式实现从训练到部署再到推理的全过程,简化了模型的开发流程,为开发者和企业用户带来了更快、更高效、更便捷的 AI 开发和应用体验。

PAI-Model Gallery 访问地址:pai.console.aliyun.com/#/quick-sta…

✅ 零代码一键部署

✅ 自动适配云资源

✅ 部署后开箱即用API

✅ 全流程运维托管

✅ 企业级安全 数据不出域

一键部署 Qwen3-Coder 模型

    在 PAI-Model Gallery 模型广场找到 Qwen3-Coder-480B-A35B-Instruct 模型,或通过链接直达该模型:pai.console.aliyun.com/#/quick-sta…

    在模型详情页右上角点击「部署」,在选择计算资源后,即可一键完成模型的云上部署。

    部署成功后,在服务页面可以点击“查看调用信息”获取调用的 Endpoint 和 Token,想了解服务调用方式可以点击预训练模型链接,返回模型介绍页查看调用方式说明。

    使用推理服务:您可以使用 API 调用模型服务,也可以使用 PAI 平台提供的在线调试功能,此外您还可以使用 PAI 平台提供的 WebUI 界面与模型进行交互。

在 Agentic CLI 中使用 Qwen3-Coder 模型

以下的实操以 Qwen Code 工具为例做演示,Claude Code、Cline 等 Agentic CLI 工具也支持。

本次随 Qwen3-Coder 模型一同开源的,还有一款面向 Agentic 编程的命令行工具:Qwen Code。

Qwen Code 是基于 Gemini CLI 分支开发,其功能定位与 Gemini CLI 相同。下面我们看一下如何在 Qwen Code 工具中使用我们在云上独立部署的 Qwen3-Coder 模型。

第一步:安装 Qwen Code

安装方式请参考:github.com/QwenLM/qwen…

第二步:配置云上部署的 Qwen3-Coder 模型服务

在 Qwen Code 项目目录中创建 .qwen/.env 或 .env 文件(建议使用 .qwen/.env 文件,以隔离其他环境变量与其他工具的配置),并设置以下信息。

export OPENAI_API_KEY="your_api_key_here"export OPENAI_BASE_URL="your_api_base_url_here"export OPENAI_MODEL="your_api_model_here"`

其中:

第三步:测试一个 Case

我们让 Qwen Code 写一个贪吃蛇小游戏,调用的模型已经配置成了我们在 PAI 平台上部署的 Qwen3-Coder-480B-A35B-Instruct。

从结果上看,逻辑完全正确!

执行过程中,Qwen3-Coder 的 plan 部分比 Kimi K2 要更详细,Kimi K2 拆分的子 plan 比较粗,Qwen3-Coder 会更细一些。

除了使用 Qwen Code,您也可以在 **Claude Code、Cline **等其他Agentic 编程工具中使用 Qwen3-Coder 模型,配置方式与 Qwen Code 类似,具体请参考各工具文档。

更多模型支持

PAI-Model Gallery 持续提供开源社区热门模型快速部署、训练、评测实践。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Qwen3-Coder 阿里云PAI AI编程 Agentic Coding 大模型部署
相关文章