掘金 人工智能 前天 10:13
手把手教你本地部署 Dify + Qwen3 大模型,打造专属 AI 助手!保姆级教程来了!
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文详细介绍了如何在本地搭建AI助手,从安装Docker、Ollama到部署Qwen3大模型,再到使用Dify进行整合。步骤清晰,配有官网链接和详细的操作指南,帮助用户轻松构建个性化的AI聊天机器人。文章还提供了常见问题的解决方案和实用小贴士,适合对AI技术感兴趣的初学者。

🐳 首先,安装Docker,它是打开AI世界的钥匙。通过访问Docker官网下载并安装适合你电脑的版本,安装完成后,双击图标启动Docker,并注册账号。安装成功后,Docker将为后续的AI模型部署提供必要的环境支持。

🔥 接下来,安装Ollama,这是本地大模型运行的核心。从Ollama官网下载Windows客户端,双击安装包一键安装。Ollama的安装过程非常简单,安装后会自动完成环境变量的设置,无需额外配置。

💡 然后,部署Qwen3大模型,让AI为你打工。在Ollama的模型库中选择Qwen3:8B模型,该模型性价比高,性能优越。通过复制页面上的ollama pull qwen3:8b命令,在命令行中执行安装。安装完成后,使用ollama run qwen3:8b命令测试模型是否成功部署。

🧰 接着,安装Dify,搭建AI助手的百宝箱。从GitHub下载Dify的压缩包,解压到本地文件夹。在.env文件中配置CUSTOM_MODEL_ENABLED和OLLAMA_API_BASE_URL,然后使用docker compose up -d命令启动Dify。通过浏览器访问http://127.0.0.1/install完成Dify的初始化设置。

🎯 最后,关联Dify与Qwen3,让AI助手听你的指令。在Dify中配置Ollama模型供应商,添加Qwen3:8b模型,并设置Base URL。创建AI助手,选择Chat模板,即可开始与本地AI聊天。

1️⃣ 安装 Docker —— 打开 AI 世界的钥匙 🐳

🔗 官网直达:www.docker.com/  

第一步:访问 Docker 官网 → 点击【Download Desktop】按钮下载安装包 → 根据电脑选择 Windows AMD 版本(其他系统选对应版本即可)!  

📌 安装提示:双击安装包 → 点击【OK】确认安装 → 安装完成后桌面会出现 Docker 鲸鱼图标!  

💡 首次启动:双击图标 → 点击【Accept】接受协议 → 提示登录?直接点击【Sign up】注册账号即可!  

✅ 登录成功:界面出现鲸鱼标志和“Containers”标签页 → Docker 安装完成!  

2️⃣ 安装 Ollama —— 本地大模型运行的核心 🔥

🔗 官网直达:ollama.com/  

操作步骤:进入官网 → 点击【Download for Windows】下载客户端 → 双击安装包一键安装!  

📌 无需配置:安装后自动完成环境变量设置 

✨ 验证成功:  

3️⃣ 部署 Qwen3 大模型 —— 让 AI 为你打工 💡

🔗 模型库直达:ollama.com/library/  

选模型秘诀:Qwen3:8B 性价比超高!性能吊打 DeepSeek R1,小白首选!  

📌 安装指令:复制页面上的 ollama pull qwen3:8b 命令 → 粘贴到命令行回车执行!  

🔄 下载过程:命令行显示 [===>] 进度条 → 等待 5-10 分钟(根据网络速度)→ 出现 success 提示!  

🧪 测试大招:输入 ollama run qwen3:8b → 输入问题“你好吗?” → 模型秒回复 → 本地部署成功!  

4️⃣ 安装 Dify —— 搭建 AI 助手的百宝箱 🧰

🔗 GitHub 下载:github.com/langgenius/…  

操作流程:点击【Code】→ 【Download ZIP】下载压缩包 → 解压到本地文件夹 → 双击进入 dify/docker 目录!  

🔧 配置关键:  

    .env.example 重命名为 .env  

    用记事本打开 .env → 滚动到文件末尾 → 添加以下两行:  

   ```  

   CUSTOM_MODEL_ENABLED=true  

   OLLAMA_API_BASE_URL=host.docker.internal:11434  

   ```  

    保存文件 → 右键点击文件夹空白处 → 选择【Open Terminal】→ 输入命令:  

   ```bash  

   docker compose up -d  

   ```  

🔄 启动成功:终端显示如下

 → 浏览器访问 http://127.0.0.1/install → 填写邮箱、用户名、密码 → 点击【设置】!  

🎉 恭喜!出现 Dify 首页 → 本地部署完成!  

5️⃣ 关联 Dify 与 Qwen3 —— 让 AI 助手听你的指令 🎯

操作步骤:  

    登录 Dify → 点击右上角头像 → 选择【Settings】

→ 选择模型供应商

    找到 Ollama → 点击【Install】按钮 → 等待安装成功!  

    点击【Add Model】

→ 填写:  

   - Model Name: qwen3:8b  

   - Base URL: http://host.docker.internal:11434  

   - 其他参数保持默认 → 点击【Save】  

    创建助手:点击【Create App】→ 输入名称(如“我的Qwen3助手”)→ 选择【Chat】模板 → 点击【Create】  

🚀 大功告成:进入助手页面 → 开始和你的本地 AI 聊天吧!  

📌 常见问题 & 小贴士


📢 关注我,回复【Dify】获取所有安装包和配置文件模板!  

💬 有问题欢迎评论区留言,我会一一解答!  

🔥 收藏+转发,让更多小伙伴学会本地部署大模型!

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Docker Ollama Qwen3 Dify AI助手
相关文章