掘金 人工智能 07月31日 11:43
将GLM 4.5接入Claude Code,打造最具性价比的AI工程师
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文详细介绍了如何将Claude Code与国内多个性价比高的大模型进行集成,特别是GLM-4.5、Qwen3-Coder-Plus和Kimi-K2。通过配置简单的环境变量,用户无需修改Claude Code的任何代码,即可轻松使用这些优秀的国产大模型。文章提供了不同模型在macOS和Windows系统下的具体配置方法,并对各模型进行了主观评分,推荐了GLM-4.5作为便宜又强大的选择。同时,文章也预告了后续将展示GLM-4.5结合Claude Code的实际应用案例,鼓励读者关注并一同学习AI技术。

💡 Claude Code默认集成了自家模型,但成本较高。文章对比了国内大模型如GLM-4.5、Qwen3-Coder-Plus和Kimi-K2,发现其定价更具吸引力,特别是GLM-4.5在2025年8月31日前仅需1¥/百万Tokens输入成本,且提供大量免费额度,性价比极高。

🚀 集成国内大模型至Claude Code的操作非常简便,只需配置两个环境变量:`ANTHROPIC_BASE_URL`指向各模型提供的兼容Anthropic API的端点,`ANTHROPIC_AUTH_TOKEN`则设置为相应的API Key。文章提供了GLM-4.5、Qwen3-Coder-Plus和Kimi-K2在macOS和Windows系统下的具体配置命令。

📊 文章对体验过的国内大模型进行了主观评分:GLM-4.5获得五星好评,称赞其“便宜又大杯”;Qwen3-Coder-Plus获得四星,指出其在复杂场景下代码仍有BUG;Kimi-K2获得三星,主要原因是生成速度较慢。作者强调GLM-4.5的价格优势使其成为优选。

🔧 在配置好环境变量后,用户需要通过`source`命令使其生效,并可通过`echo`命令检查是否配置成功。最后,运行`claude`命令即可启动Claude Code,此时提示信息中应已显示覆盖后的API Base URL,表明集成成功。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会跟你分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!也非常欢迎你通过公众号发消息加入我们!

❤️ 微信公众号|搜一搜:蚝油菜花


货比各家

Claude Code 默认集成了自家的 Claude 系列模型,但其昂贵的定价足以劝退大部分想要来尝尝鲜的人。

对比各家的模型定价,真是直呼国内的大模型太香咯~

模型名称输入成本(每百万Tokens)输出成本(每百万Tokens)上下文长度(Tokens)视觉功能支持
GLM-4.52¥(2025年8月31日前仅需1¥!)128k
qwen3-coder-plus4~10¥(命中缓存再打2.5折!)16~100¥1M
kimi-k2-0711-preview4¥(命中缓存仅需1¥!)16¥128k
Claude Sonnet 4约21.6¥(命中缓存打1折!)约108¥200k

那么如何使用 Claude Code 来接入这些具有巨大性价比的大模型呢!为了实现这一目的,各家平台都相继提供了一个能够兼容 Anthropic API 的端点,使我们可以非常简单地与 Claude Code 集成,不需要修改 Claude Code 的任何代码,只需配置两个环境变量就能将大模型集成到 Claude Code 中!

🔈正好!最近智谱AI上新,GLM-4.5 大模型全场5折!新用户注册即可白嫖2000万Tokens额度,马上获取API Key并跟随本文内容接入 GLM-4.5 大模型快速体验Claude Code吧!

配置环境变量将大模型接入 Claude Code(三选一)

1. 在 Claude Code 中使用 Qwen3-Coder-Plus 模型

在Claude Code中使用百炼提供的 Qwen3-Coder-Plus 模型,只需要配置以下两个环境变量:

MacOS(Zsh)

echo 'export ANTHROPIC_BASE_URL=https://dashscope.aliyuncs.com/api/v2/apps/claude-code-proxy' >> ~/.zshrcecho 'export ANTHROPIC_AUTH_TOKEN={YOUR_API_KEY}' >> ~/.zshrc

Windows(Git Bash)

echo 'export ANTHROPIC_BASE_URL=https://dashscope.aliyuncs.com/api/v2/apps/claude-code-proxy' >> ~/.bashrcecho 'export ANTHROPIC_AUTH_TOKEN={YOUR_API_KEY}' >> ~/.bashrc

2. 在 Claude Code 中使用 Kimi-K2 模型

在Claude Code中使用 Moonshot AI 提供的 Kimi-K2 模型,只需要配置以下两个环境变量:

MacOS(Zsh)

echo 'export ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic' >> ~/.zshrcecho 'export ANTHROPIC_AUTH_TOKEN={YOUR_API_KEY}' >> ~/.zshrc

Windows(Git Bash)

echo 'export ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic' >> ~/.bashrcecho 'export ANTHROPIC_AUTH_TOKEN={YOUR_API_KEY}' >> ~/.bashrc

3. 在 Claude Code 中使用 GLM-4.5 模型

在Claude Code中使用智谱AI提供的 GLM-4.5 模型,只需要配置以下两个环境变量:

MacOS(Zsh)

echo 'export ANTHROPIC_BASE_URL=https://open.bigmodel.cn/api/anthropic' >> ~/.zshrcecho 'export ANTHROPIC_AUTH_TOKEN={YOUR_API_KEY}' >> ~/.zshrc

Windows(Git Bash)

echo 'export ANTHROPIC_BASE_URL=https://open.bigmodel.cn/api/anthropic' >> ~/.bashrcecho 'export ANTHROPIC_AUTH_TOKEN={YOUR_API_KEY}' >> ~/.bashrc

使环境变量生效

MacOS(Zsh)

完成配置环境变量后,需要输入以下指令使环境变量生效:

source ~/.zshrc

Windows(Git Bash)

完成配置环境变量后,需要输入以下指令使环境变量生效:

source ~/.bashrc

打开一个新的终端,执行下列命令,可以检查环境变量是否生效:

echo $ANTHROPIC_BASE_URLecho $ANTHROPIC_AUTH_TOKEN

运行 Claude Code

最后,在终端中执行以下命令,运行 Claude Code:

claude

运行结果如下图所示,可以看到提示信息中已经将 API Base URL 覆盖成配置的地址了:

写在最后

临近8月!没想到各大厂开始争相发布新的大模型,还是开源!不仅能力一个比一个优秀,而且价格还一个比一个便宜!这三个大模型我基本都体验过了,这里就简单地打个分吧满分五颗🌟,评分结果是仅个人主观感受,不喜勿喷:

本篇文章就写到这里,在下一篇文章,我将实操带你使用GLM-4.5 + Claude Code的生成简单案例展示,这篇文章也将收录到原创专栏《油菜花的Claude Code快速上手指南》,欢迎感兴趣的小伙伴关注,一起学习,一起进步!

❤️ 感谢阅读!


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会跟你分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!也非常欢迎你通过公众号发消息加入我们!

❤️ 微信公众号|搜一搜:蚝油菜花

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Claude Code 大模型 GLM-4.5 Qwen3-Coder-Plus Kimi-K2 AI应用
相关文章