掘金 人工智能 05月16日 11:53
本地AI知识库问答开源技术实现(一)--安装和准备
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文介绍了如何本地化部署 DeepSeek-R1 大模型,搭建一个内部知识库智能助手,确保数据安全和隐私。文章详细讲解了从硬件准备到软件安装,再到模型配置的全过程,包括 Ollama 和 Dify 的安装与使用。通过本地部署,用户可以通过与智能助手聊天的方式,便捷地获取内部知识,同时避免敏感信息泄露到公网。本方案旨在以较低成本,实现高效、安全的知识管理和利用。

⚙️ 本地化部署 DeepSeek-R1 大模型旨在解决内部资料安全和隐私问题,实现知识库内容不通过公网流转,并允许用户通过聊天方式获取内部知识。

🐳 使用 Ollama 管理和调度本地大模型,通过设置环境变量(如 `OLLAMA_HOST`,`OLLAMA_KEEP_ALIVE`,`OLLAMA_MAX_LOADED_MODELS`,`OLLAMA_MODELS`)来配置模型访问、缓存时间和存储位置,并通过命令 `ollama pull` 下载如 `deepseek-r1:32b` 等模型。

🧩 利用 Dify 作为上层管理工具,通过 Docker Compose 快速搭建 LLM 应用开发平台。Dify 融合了后端即服务和 LLMOps 的理念,简化了 AI 应用的构建过程,支持 Prompt 编排、RAG 引擎和 Agent 框架。

🚀 部署 Dify 的步骤包括克隆源代码、复制配置文件、启动 Docker 容器,并通过访问主机地址来初始化管理员用户,完成配置后即可开始使用。

📚 硬件配置方面,推荐使用支持 CUDA 的显卡(显存根据模型大小选择,推荐 48G),以及 CPU 和内存满足 Ollama 和 Dify 的运行需求。如果没有足够大的显存,Ollama 会使用内存和 CPU 进行模型调度,但速度会较慢。

目录

前言

自从 DeepSeek-R1 火出圈以来,很多个人和公司开始尝试本地化部署,以解决原来一些内部资料安全和隐私问题;我们也尝试在本地进行相关部署,以验证本地知识库是否可行,最终达到以下目的:

因篇幅较长,分开三篇编写:

技术原理

前置概念了解

硬件及环境准备

主机配置必备软件说明
192.168.10.1显卡:支持 CUDA 的显卡均可,显存根据模型大小选择,推荐大小 48G 显存 CPU:不限 内存:大于8G 注:如果没有足够大的显存,ollama 会使用内存和CPU进行模型调度,但速度非常慢;-用于安装 Ollama
192.168.10.2CPU:4核 内存:大于16GDockerGit用于安装 Dify

模型选择

模型作用
qwq用于推理
deepseek-r1:32b用于推理(备选)
bge-m3用于处理知识库嵌入向量
qwen2.5:14b用于分词

开始本地部署

安装 Ollama

安装 Dify

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek-R1 本地知识库 Ollama Dify LLM
相关文章