掘金 人工智能 05月20日 18:42
使用RAGFlow和Docker部署本地知识库
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文详细介绍了如何利用DeepSeek R1大模型在本地构建知识库,主要涉及Ollama和RAGFlow这两个关键工具。首先,通过Ollama安装和管理DeepSeek R1模型,包括安装Ollama客户端、下载模型和在终端运行模型。接着,文章指导用户使用RAGFlow构建本地知识库,包括安装Docker、配置RAGFlow环境、运行服务以及在RAGFlow中配置Ollama和上传本地文件。最后,文章还提到了AnythingLLM作为另一种配置本地知识库的工具。

💡首先,为了使用DeepSeek R1模型,需要安装Ollama,这是一个用于管理本地大模型的工具。安装Ollama客户端后,通过终端命令可以检查安装是否成功。然后,在Ollama中搜索并下载DeepSeek R1模型,根据电脑配置选择合适的参数,之后即可在终端运行该模型。

🐳接下来,文章介绍了使用RAGFlow构建本地知识库的步骤。这包括安装Docker,配置Docker镜像源以加速下载,并下载RAGFlow源码。RAGFlow要求CPU、RAM和磁盘空间满足一定条件。在配置RAGFlow环境时,需要修改.env文件,例如配置RAGFlow的镜像。然后,通过docker compose命令启动RAGFlow服务。

⚙️在RAGFlow中,用户需要配置Ollama,设置基础URL为本地IPV4地址和端口号11434,如果本地IP不成功,可以尝试使用host.docker.internal:11434。之后,用户可以新建本地知识库并上传本地文件进行解析,从而开始与知识库进行交互。

⚠️文章还提到了使用Docker配置RAGFlow会占用较大空间,内存不足的读者可能会遇到问题。因此,文章建议使用AnythingLLM这个更简单的工具来配置本地知识库。

随着DeepSeek的火热,大模型对与广大开发者越来越触手可及。本文介绍了使用 DeepSeek R1 模型来构建本地知识库。

  Ollama 管理本地模型

  首先要了解大模型的管理工具 Ollama:

  安装 Ollama

  Ollama 官网

   点击下载安装 Ollama 客户端;

  安装成功后打开,在终端中输入以下命令来检查是否安装成功:

1ollama -``v

  使用 Ollama 安装本地模型

  在 Ollama 支持模型:中搜索你需要的大模型

   选择你需要的大模型(PS:根据电脑配置情况酌情选择对应参数🐶),执行右侧安装命令 :

ollama run deepseek-r1:7b

  安装成功后查看本地存在的大模型:

ollama list

   终端运行大模型:

ollama run deepseek-r1:1.5b 

  到此,本地大模型安装成功。

  使用 RAGFlow 构建本地知识库

  安装 Docker

  Docker 官网

  下载并安装 Docker 桌面端

  配置 Docker 镜像源:

12345678910111213141516171819"registry-mirrors"``: [``    ``"https://docker.1ms.run"``,``    ``"https://docker-0.unsee.tech"``,1``    ``"https://docker.1panel.live"``,``    ``"https://registry.dockermirror.com"``,``    ``"https://docker.imgdb.de"``,``    ``"https://docker.m.daocloud.io"``,``    ``"https://hub.firefly.store"``,``    ``"https://hub.rat.dev"``,``    ``"https://dhub.kubesre.xyz"``,``    ``"https://cjie.eu.org"``,2``    ``"https://docker.kejilion.pro"``,``    ``"https://docker.1panelproxy.com"``,``    ``"https://docker.hlmirror.com"``,``    ``"https://hub.fast360.xyz"``,``    ``"https://dockerpull.cn"``,``    ``"https://cr.laoyou.ip-ddns.com"``,``    ``"https://docker.melikeme.cn"``  ``]

  配置 RAGFlow

  RAGFlow 是一款基于深度文档理解构建的开源 RAG(Retrieval-Augmented Generation)引擎。RAGFlow 可以为各种规模的企业及个人提供一套精简的 RAG 工作流程,结合大语言模型(LLM)针对用户各类不同的复杂格式数据提供可靠的问答以及有理有据的引用。

  下载RAGFlow 源码
1git clone https:``//github``.com``/infiniflow/ragflow``.git

  要求:

  配置RAGFlow环境

  打开 .env 文件,根据你的电脑系统修改配置,我的是 MacOS系统

  修改以下内容:

12341、配置RAGFlow Image:``RAGFLOW_IMAGE=infiniflow``/ragflow``:v0.17.2``2、放开MacOS系统``MACOS=1
RAGFlow image tagImage size (GB)Has embedding models?Stable?
v0.17.2≈9✔️Stable release
v0.17.2-slim≈2Stable release
nightly≈9✔️Unstable nightly build
nightly-slim≈2Unstable nightly build

   我安装的是内嵌模型的稳定版 ragflow:v0.17.2

  进入 docker 文件目录执行

1docker compose -f docker-compose.yml up -d

  过程比较久 ,耐心等候。。。。

  下载成功后,查看服务启动状态

1docker logs -f ragflow-server

  如果出现以下信息,说明成功启动了

   服务起来之后,打开:http://localhost:80 就可以进入了

  注册登录进去(第一次注册登录的账号会默认成管理员) 

  选择 Ollama 添加LLM模型

   这里的基础 URL 应该是本地的 IPV4 地址加端口号 11434,但是我试了本地的IP添加不成功,一直失败,经求助大佬,改成现在这个 host.docker.internal:11434。这里有清楚原因的可以评论留言,感谢。

  系统模型设置:

 
   新建本地知识库

 

   上传本地文件解析

  开始愉快的聊天吧

 

   另外使用 Dock 配置 RAGFlow 占用电脑空间较大,内存不足者伤不起。

  建议使用 AnythingLLM 这个工具来配置本地知识库。工具使用起来非常简单。

  配置首选项

   上传本地知识库文件:

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek R1 Ollama RAGFlow 本地知识库
相关文章