掘金 人工智能 05月02日 10:34
RAG 是什么?一文带你看懂 AI 的“外挂知识库”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

RAG(检索增强生成)是一种革新的AI技术,它结合了信息检索与文本生成,赋予AI实时获取和处理最新信息的能力。通过从外部知识库中检索相关信息,RAG技术解决了传统LLM的知识滞后和幻觉问题,使得AI的回答更准确、更可靠。文章详细介绍了RAG的核心流程,包括检索、生成以及文档索引,并阐述了Embedding模型在其中的关键作用。

🔍 RAG的核心在于结合检索与生成,通过检索外部知识库来增强LLM的信息获取能力,从而应对知识更新滞后问题。

🤔 传统LLM的知识局限性在于其离线训练的特性,无法获取训练后产生的新信息,而RAG技术通过检索,让AI具备了“实时百科大脑”。

💡 RAG技术通过检索相关信息,为LLM提供上下文,减少了“编造答案”的幻觉现象,使得回答更具依据。

📚 文档索引是RAG流程的基础,它将文档划分为文本块,并转换为向量存储在向量数据库中,以便高效检索。向量化用户问题,通过计算相似度检索相关知识分片,最终构建Prompt生成结果。

🔗 Embedding模型是关键,它将文本转化为向量,通过计算向量间的距离来检索语义相似的文本,为RAG提供了高效的信息检索能力。

RAG 是什么

RAG(Retrieval Augmented Generation,检索增强生成)是一种结合信息检索文本生成的技术方案

RAG 技术就像给 AI 装上了「实时百科大脑」,通过先查资料后回答的机制,让 AI 摆脱传统模型的”知识遗忘”困境

主要核心流程分为:

    检索(Retrieval):基于用户的输入,从外部知识库(数据库、文档、网页)中检索与查询相关的文本片段,通常使用向量化表示和向量数据库进行语义匹配。生成(Generation): 将用户查询与检索到的内容作为上下文输入给 LLM(如 GPT、DeepSeek 等),由模型输出最终回答。

RAG 解决了什么问题

1、知识更新滞后

LLM 是离线训练的,一旦训练完成后,它们无法获取新的信息,因此,它们无法回答训练数据时间点之后发生的事件,比如“今天的最新新闻”

2、幻觉现象

大语言模型(LLM) 的回答是根据已有的 训练数据 和概率预测得出来的,当面对没有在训练中见过的问题时,模型可能会“编造”看似合理但实际上不准确或虚构的内容

RAG 是如何解决这些问题的?

RAG 将信息检索与语言生成相结合,在回答问题时,首先从外部知识库(如网页、数据库、文档等)中检索相关信息,再基于这些信息生成回答。这样一来:

RAG 流程

文档索引

在 RAG 中,文档索引 是整个流程的基础环节之一,将文档(word,excel,PDF,Markdown 等)根据一定的规则容划分为文本块(chunk),然后通过 Embedding 模型将文本块转换为向量并存入向量数据库中

文档索引的目的是为了实现高效、准确的信息检索,为后续的大语言模型生成提供可靠的上下文支持。

步骤

    向量化用户问题:将 用户问题 用相同的 Embedding 模型转换为向量,用以检索相关知识分片检索(Retrieval):通过向量数据库一系列高效的数学计算 (如余弦相似度、欧氏距离等),检索出语义相似度最高的几个知识分片(Top_k)构建 Prompt:将 Prompt + 检索结果+ 用户问题 构建成完整的 Prompt生成(Generation):大语言模型再根据这个 Prompt 生成结果

Embedding 模型是什么?

Embedding 是一种将文字序列(如词、句子或文档)转换为向量表示(固定维度的向量)的技术

模型目标:使得具有相似语义的文字序列对应的向量尽可能接近(即相似度高),而语义不同的文字序列对应的向量尽可能远离(即相似度低)

作用:通过数学计算向量之间的距离,快速检索出相似度最高的文字序列

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

RAG 检索增强生成 LLM Embedding AI技术
相关文章