掘金 人工智能 2024年07月05日
大模型之RAG-关键字检索的认识与实战(混合检索进阶储备)
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文介绍了基于Elasticsearch(ES)实现关键字检索的方案,作为RAG系统搭建流程中的一个重要环节。通过ES的检索功能,可以快速定位包含特定关键字的文档,并将其作为LLM的输入进行问答。文章还探讨了关键字检索在RAG系统中的应用场景、局限性以及与向量检索的对比,为读者提供更全面的理解。

🤔 **ES关键字检索的实现步骤**:首先,需要安装ES客户端和NLTK库进行文本处理。针对英文文本,需要进行分词、词根提取和停用词去除等操作;针对中文文本,则需要使用jieba库进行分词和停用词去除。接着,将处理后的文本数据灌入ES索引,建立检索索引。最后,通过ES的查询语言进行关键字检索,获取包含特定关键字的文档。

💡 **关键字检索在RAG系统中的应用**:关键字检索可以作为RAG系统中的一个重要环节,用于快速定位包含特定关键字的文档。这些文档可以作为LLM的输入,帮助LLM更好地理解用户的问题并给出更准确的答案。例如,在问答系统中,用户输入一个问题,系统可以通过关键字检索找到相关文档,然后将这些文档作为LLM的输入,让LLM生成答案。

⚠️ **关键字检索的局限性**:关键字检索存在一些局限性,例如同义词、拼写错误等问题会导致检索结果不准确。此外,关键字检索通常只能匹配精确的关键字,难以理解用户意图的复杂语义。因此,在一些需要理解复杂语义的场景下,关键字检索可能无法满足需求。

🚀 **展望未来:混合检索**:随着RAG的发展,单纯的关键字检索或向量检索都很难满足复杂场景的需求。未来,混合检索将成为主流,即结合关键字检索和向量检索的优势,以提高检索效率和准确性。混合检索可以利用关键字检索的快速性和向量检索的语义理解能力,更好地满足用户的检索需求。

🤔 **RAG系统的构建流程**:RAG系统是一个流水线,需要对每个环节进行精细打磨才能取得好的效果。本文介绍了基于ES的关键字检索,作为RAG系统的一个重要环节。未来,我们将继续探讨向量检索和其他RAG系统组件,为读者提供更全面的RAG系统搭建指南。

前言

按照我们之前的分享(大模型应用RAG系列3-1从0搭建一个RAG:做好文档切分):

RAG系统搭建的基本流程

    准备对应的垂域资料文档的读取解析,进行文档切分将分割好的文本灌入检索引擎(向量数据库)封装检索接口构建流程:Query -> 检索 -> Prompt -> LLM -> 回复

今天我们分享一个实现的场景:基于ES实现的关键字检索

为什么还要了解关键字检索

看到本文,可能有的jy会问,现在不都是在讲基于向量数据库的向量检索么,还需要专门再学习关键字检索么。

随着RAG的发展,单纯的关键字检索或者向量检索都很难满足我们面临的复杂场景,了解关键字检索是为了后面更好的去了解混合检索,以及为什么会出现混合检索。

关键字检索的概念

关键字检索是通过匹配查询中的关键字与文档中的关键字来进行检索的。当用户输入一个查询时,系统会在文档集合中查找包含这些关键字的文档,并将它们返回给用户。

传统的一种检索方式,RAG所使用的外挂数据库不只是狭义的数据库,搜索引擎也可以成为真实数据的一种来源,对于部分数据,使用关键词检索会高效快速得多。

关键字检索可能会受到一些问题的影响,例如同义词、拼写错误等,这可能会导致一些相关的文档被漏掉或者一些不相关的文档被检索到。

搭建一个简单关键字检索

安装必要环境

# 安装ES客户端!pip install elasticsearch7# 安装 NLTK(文本处理方法库)!pip install nltk

文本的处理

这里要注意,针对英文文本和中文文本的处理方法是不一样的

针对英文文本的处理实现

from elasticsearch7 import Elasticsearch, helpersfrom nltk.stem import PorterStemmerfrom nltk.tokenize import word_tokenizefrom nltk.corpus import stopwordsimport nltkimport reimport warnings# 屏蔽 ES 的一些Warningswarnings.simplefilter("ignore")  # 英文切词、词根、切句等方法nltk.download('punkt')  # 英文停用词库nltk.download('stopwords')  def to_keywords(input_string):    '''(英文)文本只保留关键字'''    # 使用正则表达式替换所有非字母数字的字符为空格    no_symbols = re.sub(r'[^a-zA-Z0-9\s]', ' ', input_string)    word_tokens = word_tokenize(no_symbols)    # 加载停用词表    stop_words = set(stopwords.words('english'))    ps = PorterStemmer()    # 去停用词,取词根    filtered_sentence = [ps.stem(w)                         for w in word_tokens if not w.lower() in stop_words]    return ' '.join(filtered_sentence)

针对中文文本的处理实现

import reimport jiebaimport nltkfrom nltk.corpus import stopwordsnltk.download('stopwords')  def to_keywords(input_string):    """将句子转成检索关键词序列"""    # 按搜索引擎模式分词    word_tokens = jieba.cut_for_search(input_string)    # 加载停用词表    stop_words = set(stopwords.words('chinese'))    # 去除停用词    filtered_sentence = [w for w in word_tokens if not w in stop_words]    return ' '.join(filtered_sentence)def sent_tokenize(input_string):    """按标点断句"""    # 按标点切分    sentences = re.split(r'(?<=[。!?;?!])', input_string)    # 去掉空字符串    return [sentence for sentence in sentences if sentence.strip()]

将文本灌入检索引擎

import os, time# 引入配置文件ELASTICSEARCH_BASE_URL = os.getenv('ELASTICSEARCH_BASE_URL')ELASTICSEARCH_PASSWORD = os.getenv('ELASTICSEARCH_PASSWORD')ELASTICSEARCH_NAME= os.getenv('ELASTICSEARCH_NAME')# tips: 如果想在本地运行,请在下面一行 print(ELASTICSEARCH_BASE_URL) 获取真实的配置# 1. 创建Elasticsearch连接es = Elasticsearch(    hosts=[ELASTICSEARCH_BASE_URL],  # 服务地址与端口    http_auth=(ELASTICSEARCH_NAME, ELASTICSEARCH_PASSWORD),  # 用户名,密码)# 2. 定义索引名称index_name = "teacher_demo_index"# 3. 如果索引已存在,删除它(仅供演示,实际应用时不需要这步)if es.indices.exists(index=index_name):    es.indices.delete(index=index_name)# 4. 创建索引es.indices.create(index=index_name)# 5. 灌库指令actions = [    {        "_index": index_name,        "_source": {            "keywords": to_keywords(para),            "text": para        }    }    for para in paragraphs]# 6. 文本灌库helpers.bulk(es, actions)# 灌库是异步的time.sleep(2)

实现关键字检索

def search(query_string, top_n=3):    # ES 的查询语言    search_query = {        "match": {            "keywords": to_keywords(query_string)        }    }    res = es.search(index=index_name, query=search_query, size=top_n)    return [hit["_source"]["text"] for hit in res["hits"]["hits"]]    results = search("how many parameters does llama 2 have?", 2)for r in results:    print(r+"\n")

LLM 接口封装

from openai import OpenAIimport os# 加载环境变量from dotenv import load_dotenv, find_dotenv_ = load_dotenv(find_dotenv())  # 读取本地 .env 文件,里面定义了 OPENAI_API_KEYclient = OpenAI()def get_completion(prompt, model="gpt-3.5-turbo"):    '''封装 openai 接口'''    messages = [{"role": "user", "content": prompt}]    response = client.chat.completions.create(        model=model,        messages=messages,        temperature=0,  # 模型输出的随机性,0 表示随机性最小    )    return response.choices[0].message.content

Prompt 模板

def build_prompt(prompt_template, **kwargs):    '''将 Prompt 模板赋值'''    inputs = {}    for k, v in kwargs.items():        if isinstance(v, list) and all(isinstance(elem, str) for elem in v):            val = '\n\n'.join(v)        else:            val = v        inputs[k] = val    return prompt_template.format(**inputs)
prompt_template = """你是一个问答机器人。你的任务是根据下述给定的已知信息回答用户问题。已知信息:{context}用户问:{query}如果已知信息不包含用户问题的答案,或者已知信息不足以回答用户的问题,请直接回复"我无法回答您的问题"。请不要输出已知信息中不包含的信息或答案。请用中文回答用户问题。"""

一个简单的RAG Pipeline就产生了

什么是Pipeline

首先,RAG不是一个单项技术,它是一个流水线,行话叫pipeline。只有对流水线上的每一步骤都进行精细打磨,最后才能出来效果,我们的目标就是努力使每个环节都达到尽可能准确

让我们根据RAG的搭建基本流程来看这个demo

user_query = "how many parameters does llama 2 have?"# 1. 检索search_results = search(user_query, 2)# 2. 构建 Promptprompt = build_prompt(prompt_template, context=search_results, query=user_query)print("===Prompt===")print(prompt)# 3. 调用 LLMresponse = get_completion(prompt)print("===回复===")print(response)

再看下效果

===Prompt===你是一个问答机器人。你的任务是根据下述给定的已知信息回答用户问题。已知信息: 1. Llama 2, an updated version of Llama 1, trained on a new mix of publicly available data. We also increased the size of the pretraining corpus by 40%, doubled the context length of the model, and adopted grouped-query attention (Ainslie et al., 2023). We are releasing variants of Llama 2 with 7B, 13B, and 70B parameters. We have also trained 34B variants, which we report on in this paper but are not releasing.§ In this work, we develop and release Llama 2, a collection of pretrained and fine-tuned large language models (LLMs) ranging in scale from 7 billion to 70 billion parameters. Our fine-tuned LLMs, called Llama 2-Chat, are optimized for dialogue use cases. Our models outperform open-source chat models on most benchmarks we tested, and based onour human evaluations for helpfulness and safety, may be a suitable substitute for closed source models. We provide a detailed description of our approach to fine-tuning and safety improvements of Llama 2-Chat in order to enable the community to build on our work and contribute to the responsible development of LLMs.用户问:how many parameters does llama 2 have?如果已知信息不包含用户问题的答案,或者已知信息不足以回答用户的问题,请直接回复"我无法回答您的问题"。请不要输出已知信息中不包含的信息或答案。请用中文回答用户问题。===回复===Llama 2有7B, 13B和70B参数。

总结

本文我们对关键字检索做了讲解以及从实战的角度做了讲解。

首先我们应该认识到RAG的核心在于外部知识库,这个外部知识库甚至可以是基于关系型数据库的sql查询。

而本文基于ES的关键字检索也是一个比较传统和基础的检索方式,他比较简单,也有它适用的场景

关键字检索的局限性

最关键的就在于:关键字检索可能会受到一些问题的影响,例如同义词、拼写错误等,这可能会导致一些相关的文档被漏掉或者一些不相关的文档被检索到。

关键字检索通常在简单的检索场景下使用,例如在搜索引擎中用户输入关键字进行网页检索。

这样我们就引出了向量检索,在下一篇文章中我们再进行分享。

最后,随着RAG的发展,单纯的关键字检索或者向量检索都很难满足我们面临的复杂场景,了解关键字检索是为了后面更好的了解混合检索

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

RAG 关键字检索 Elasticsearch 向量检索 混合检索
相关文章