在本地部署与使用 Qwen3 的完整指南
qwen系列大模型开源,小尺寸模型超高性能成为又一王炸。官方如此说4b模型:“Qwen3-4B 这样的小模型也能匹敌 Qwen2.5-72B-Instruct 的性能。”
仅4b模型,在编程方面可以说和GPT-4o(2024-11-20)版本打的有来有回。
前置条件
所涉及软件,均为开源。
- 安装 Ollama(支持 macOS/Linux/windows)安装 Cherry Studio(要求 v1.2.10 以上版本)
⚠️ 我使用的都是当前最新版本,如有问题,可以评论区反馈
部署流程
第一步:通过 Ollama 部署 Qwen3:8b 模型
- 打开终端,执行以下命令:
ollama run qwen3:8b
⚠️ 如果出现"model not found"提示,请执行
ollama pull qwen3:8b
先拉取模型
- 观察部署过程:
- 一般只需进入和ai进行交流的页面就ok了
⚠️ 如果有问题,可查看本地目录
~/.ollama/models/manifests/registry.ollama.ai/library/
是否生成qwen3:8b
目录结构
配置 Cherry Studio
第二步:添加模型配置
- 启动 Cherry Studio,点击 "齿轮" 按钮,进入设置页面进入模型管理界面配置参数(关键步骤):
- 模型类型:选择 "Ollama 本地模型"开启模型启用开关点击 “添加”,添加模型模型名称:
qwen3:8b
(必须与部署名称完全一致)⚠️ 若未找到模型,检查:
Ollama 服务是否在运行(
ollama serve
)模型路径是否正确(可执行find ~/.ollama -name qwen3
校验)网络权限是否开放(特别在 Linux 系统需要sudo
权限)
第三步:验证模型状态
- 在 Cherry Studio 主界面:
- 切换模型输入框输入响应内容预期输出:Qwen3 的响应内容
注意事项
- 模型占用约 8GB 显存,需确保 GPU 资源足够模型占用约 7GB 硬盘
ps:我使用的事mac book pro .