PaperAgent 2024年10月20日
又快又准的RAG Meta-Chunking,1.3倍提升,耗时减半
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

传统的文本分块方法在捕捉句子间逻辑关系方面存在不足,而RAG(检索增强生成)的效果很大程度上依赖于检索到的文档的相关性和准确性。为了解决这个问题,本文提出了Meta-Chunking的概念,它在句子和段落之间定义了一种粒度,旨在增强文本分割过程中的逻辑连贯性。Meta-Chunking包括基于LLMs的两种策略:边际采样分块(Margin Sampling Chunking)和困惑度分块(Perplexity Chunking)。通过实验验证,Meta-Chunking能够更有效地提升基于RAG的单跳和多跳问答任务的性能,尤其是在2WikiMultihopQA数据集上,它比相似性分块的性能提高了1.32倍,同时只消耗了45.8%的时间。

🤔 **Meta-Chunking的提出**:传统的基于规则或语义相似性的文本分块方法在捕捉句子间微妙的逻辑关系上存在不足,而RAG(检索增强生成)的效果很大程度上依赖于检索到的文档的相关性和准确性。Meta-Chunking的概念应运而生,它在句子和段落之间定义了一种粒度,旨在增强文本分割过程中的逻辑连贯性,以解决现有方法的局限性。

🧠 **Meta-Chunking的实现策略**:Meta-Chunking包括基于LLMs的两种策略:边际采样分块(Margin Sampling Chunking)和困惑度分块(Perplexity Chunking)。边际采样分块通过分析句子之间的语义距离来进行分割,而困惑度分块则利用LLMs的语言理解能力来判断句子之间的逻辑关系。

📊 **实验结果**:通过在11个数据集上的实验,证明了Meta-Chunking能够更有效地提升基于RAG的单跳和多跳问答任务的性能。例如,在2WikiMultihopQA数据集上,它比相似性分块的性能提高了1.32倍,同时只消耗了45.8%的时间。

🧪 **模型大小的影响**:研究表明,中型模型(如1.5B参数级别)在性能和效率之间展现了更平衡的表现。

🚀 **代码开源**:Meta-Chunking的代码已开源,方便研究人员和开发者进行进一步的探索和应用。

💻 **开源地址**:https://github.com/IAAR-Shanghai/Meta-Chunking

2024-10-19 23:16 湖北

元切块code开源,基于LLMs的两种策略:边际采样分块(Margin Sampling Chunking)和困惑度分块(Perplexity Chunking)。

RAG效果在很大程度上依赖于检索到的文档的相关性和准确性。传统的基于规则或语义相似性的文本分块方法在捕捉句子间微妙的逻辑关系上存在不足。

RAG流水线的概览,以及基于规则、相似性和PPL分割的示例。相同的背景色表示位于同一个块中。

 为了解决现有方法的局限性,提出了一种名为Meta-Chunking的概念,它在句子和段落之间定义了一种粒度:由段落内具有深层语言逻辑联系的句子集合组成,旨在增强文本分割过程中的逻辑连贯性。Meta-Chunking包括基于LLMs的两种策略:边际采样分块(Margin Sampling Chunking)和困惑度分块(Perplexity Chunking)。

整个元块分割(Meta-Chunking)过程的概览。每个圆圈代表一个完整的句子,句子的长度并不一致。垂直线表示在哪里进行分割。图底部的两侧揭示了边缘采样分割(Margin Sampling Chunking)和困惑度分割(Perplexity Chunking)。具有相同背景色的圆圈代表一个元块,它们被动态组合以使最终的块长度满足用户需求。

Meta-Chunking的工作流程:

通过在11个数据集上的实验,证明了Meta-Chunking能够更有效地提升基于RAG的单跳和多跳问答任务的性能。例如,在2WikiMultihopQA数据集上,它比相似性分块(Similarity Chunking)的性能提高了1.32倍,同时只消耗了45.8%的时间

在五个问答(QA)数据集中展示了主要的实验结果。前四个数据集来源于LongBench。sent. 表示是否适合将两个句子分开,而chunk表示后一个句子是否适合与前面的块合并。comb. 指的是首先使用PPL分割(PPL Chunking)且阈值为0来分割文本,然后进行动态组合的过程。

此外,还探讨了不同模型大小对文本分块任务的影响,发现中型模型(如1.5B参数级别)在性能和效率之间展现了更平衡的表现。

META-CHUNKING: LEARNING EFFICIENT TEXT SEGMENTATION VIA LOGICAL PERCEPTIONhttps://arxiv.org/pdf/2410.12788https://github.com/IAAR-Shanghai/Meta-Chunking.

推荐阅读


欢迎关注我的公众号“PaperAgent”,每天一篇大模型(LLM)文章来锻炼我们的思维,简单的例子,不简单的方法,提升自己。

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

元切块 文本分割 RAG LLMs 问答系统
相关文章