Claude Code能够支持的格式是Anthropic公司独有的API格式,和OPENAI并不兼容,但是claude-code-router的出现,则很好的解决了这个问题。加上qwen3-coder的强大编码能力,使Claude Code工具的强大加上国内大模型方便访问,二者结合成为可能。我以windows环境为例说明:
1 安装node.js
1)访问node.js官网,下载安装包,npmmirror.com/mirrors/nod…2)点击运行安装包,安装好,之后,打开命令行输入,显示如下信息,安装成功
nodeWelcome to Node.js v22.15.0.Type ".help" for more information.>
2 安装Claude Code
在node.js command prompt命令行窗口输入,注意建议采用带参数 -g,表示全局安装。这样安装好之后的Claude Code可以在任意目录下运行。
npm install -g @anthropic-ai/claude-code
安装完成后可以使用
claude --version1.0.68 (Claude Code)
进行检查。成功出现版本号即可。
3 Claude Code访问qwen3 code大模型
1)修改系统环境变量,在windows系统下,为保证每次运行不需要单独设置,可以在系统的“设置”,修改环境变量中添加如下两个变量(建议设置为用户级,不需要重启机器,只需要重启node.js command prompt命令行):
ANTHROPIC_BASE_URL=https://dashscope.aliyuncs.com/api/v2/apps/claude-code-proxyexportANTHROPIC_AUTH_TOKEN=这里用你的阿里云百炼api-key替换
阿里云百炼大模型平台的api-key申请,请自行到官网申请,这里就不再写教程了,相信大家都会。官网地址:大模型服务平台百炼_企业级大模型开发平台_百炼AI应用构建-阿里云
2)环境变量设置好之后,重新启动node.js command prompt命令行。运行
claude
选择yes
试着在窗口中打入“你好”
成功!如果出现API的提示错误等信息,可能是环境变量错误,或者你的百炼api没有充值,没有额度。
4 使用claude-code-router访问OPENAI兼容的大模型
上面直接采用claude命令访问阿里云百炼qwen3 code大模型简单直接好用,但是阿里云百炼的大模型没有免费白嫖的机会,所以我们考虑找一些国内的有免费额度的服务来使用,降低成本。最好用的莫过于魔搭社区了。魔搭社区友好的提供了qwen3 code的500次免费访问,当然是不二之选。我自己用下来性能平替百炼无差别,时间上的话,顶大半天没问题。请继续看如何搞定。去魔搭社区申请api-key,记下来,后面要用
OPENAI_API_KEY=your-api-keyOPENAI_BASE_URL=https://api-inference.modelscope.cn/v1OPENAI_MODEL=Qwen/Qwen3-Coder-480B-A35B-Instruct
1)安装claude-code-router老办法:
npm install @musistudio/claude-code-router -g
2)安装一个配置工具(我这块没怎么研究,照抄别人的)
npm install @leason/claude-code-config -g
3)查看并修改配置文件 在C:\users\用户名.claude-code-router有一个名字叫config.json的文件,内容如下:
{ "LOG": false, "OPENAI_API_KEY": "", "OPENAI_BASE_URL": "", "OPENAI_MODEL": "", "Providers": [ { "name": "modelscope", "api_base_url": "https://api-inference.modelscope.cn/v1", "api_key": "ms-252d4f3f-f047-44fc-affc-c7c01d398ccb", "models": [ "Qwen/Qwen3-Coder-480B-A35B-Instruct" ] } ], "Router": { "default": "modelscope,Qwen/Qwen3-Coder-480B-A35B-Instruct" }}
内容替换为
{ "LOG": false, "OPENAI_API_KEY": "", "OPENAI_BASE_URL": "", "OPENAI_MODEL": "", "Providers": [ { "name": "modelscope", "api_base_url": "https://api-inference.modelscope.cn/v1/chat/completions", "api_key": "your-api-key这里是你自己的key", "models": ["Qwen/Qwen3-Coder-480B-A35B-Instruct", "Qwen/Qwen3-235B-A22B-Thinking-2507"], "transformer": { "use": [ [ "maxtoken", { "max_tokens": 65536 } ], "enhancetool" ], "Qwen/Qwen3-235B-A22B-Thinking-2507": { "use": ["reasoning"] } } } ], "Router": { "default": "modelscope,Qwen/Qwen3-Coder-480B-A35B-Instruct", "background": "modelscope,Qwen/Qwen3-Coder-480B-A35B-Instruct", "think": "modelscope,Qwen/Qwen3-235B-A22B-Thinking-2507", "longContext": "modelscope,Qwen/Qwen3-Coder-480B-A35B-Instruct", "longContextThreshold": 60000, "webSearch": "gemini,gemini-2.5-flash" }}
主要修改你自己的api-key,添加推理模型,这个很重要,默认要加载推理模型,不配置的话,会出现推理模型连接错误,无法运行。
4)运行ccr start,初始化配置并启动服务
ccr startEnter Provider Name: modelscopeEnter Provider API KEY: 这里用你自己的魔搭api-key替换Enter Provider URL: https://api-inference.modelscope.cn/v1Enter MODEL Name: Qwen/Qwen3-Coder-480B-A35B-InstructundefinedLoaded JSON config from: C:\Users\ynzys\.claude-code-router\config.jsonregister transformer: Anthropic (endpoint: /v1/messages)register transformer: gemini (endpoint: /v1beta/models/:modelAndAction)register transformer: vertex-gemini (endpoint: /v1/projects/:projectId/locations/:location/publishers/google/models/:modelAndAction)register transformer: vertex-claude (endpoint: /v1/projects/:projectId/locations/:location/publishers/anthropic/models/:modelAndAction)register transformer: deepseek (no endpoint)register transformer: tooluse (no endpoint)register transformer: openrouter (no endpoint)register transformer: maxtoken (no endpoint)register transformer: groq (no endpoint)register transformer: cleancache (no endpoint)register transformer: enhancetool (no endpoint)register transformer: reasoning (no endpoint)register transformer: sampling (no endpoint)register transformer: maxcompletiontokens (no endpoint)modelscope provider registered🚀 LLMs API server listening on http://127.0.0.1:3456
启动成功后,打开另外一个nodejs command prompt,运行ccr code还是出现一样的界面:选择yes
和上面不同的是代理为 http://127.0.0.1:3456
试着在窗口中打入“你好”,熟悉的窗口来了。
这样一来,claude code可以通过两种方式访问阿里qwen3 code大模型集成了,好用的工具加国内的低成本模型方案大功告成。当然你还可以使用国内目前爆火的Kimi K2,以及吹上天的GLM4.5,直接去官网申请即可。这里就不在描述了。当然魔搭社区也有免费额度,具体模型接入名称如下:#OPENAI_MODEL=ZhipuAI/GLM-4.5#OPENAI_MODEL=Kimi-K2-Instruct
5 文末福利,国内可以访问claude大模型的代理服务
众所周知的原因,我们国内访问claude限制很多,因此有大量的镜像站涌现,然后大多数并不稳定,用不了多久就会被封号,服务持续性很差。给大家推荐一个好用的,胜算云的服务,自称是由长三角国家技术创新中心支持的公司,和Cline官方合作。我用下来感觉稳定没问题,但是费用确实也高。大家自选,我觉得作为尝试原装Claude服务,也是可以的。官网地址:所有模型 - 胜算云Claude模型参数举例:
OPENAI_API_KEY=your-api-key#OPENAI_BASE_URL=https://router.shengsuanyun.com/api/v1#OPENAI_MODEL=anthropic/claude-sonnet-4
这个也可以配置到上面的config.json中使用。记得config.json修改后,记得运行ccr start重启后然后运行ccr code。