Datawhale 04月24日 02:57
RAG 作者:RAG 已死,RAG 万岁!
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文作者Douwe Kiela阐述了检索增强生成(RAG)技术在人工智能领域的重要性。文章指出,尽管大上下文窗口模型不断涌现,但RAG凭借其高效、准确的检索能力,以及对数据隐私的保护,将在人工智能领域持续发挥关键作用。文章强调了RAG与长上下文窗口、微调等技术的互补关系,并呼吁构建结合多种技术的AI解决方案。

🧐 RAG(Retrieval-Augmented Generation,检索增强生成)旨在通过检索外部知识来增强模型,结合了参数化记忆和非参数化记忆的优势,扩展了语言模型的知识库。

💡 RAG解决了生成式语言模型的几个关键问题,包括:无法访问私有数据、模型知识过时、以及幻觉和归因问题。通过将回答基于真实来源,并提供引文,增强了模型的可靠性。

🤔 即使拥有大上下文窗口,LLM也难以处理海量数据,且存在可扩展性、成本、性能下降、数据隐私等问题。RAG通过高效检索,仅添加最相关信息,解决了这些问题。

🤝 RAG与长上下文窗口、微调等技术并非相互排斥,而是互补关系。实际应用中,结合这些技术可以构建更强大的AI系统,解决实际问题。

Douwe Kiela 2025-04-23 23:24 浙江

我们永远需要 RAG

 Datawhale分享 

作者:Douwe Kiela,编译:思考机器

本文作者 Douwe Kiela,RAG 论文(Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks)作者之一。
以下为全文:

每隔几个月,人工智能领域就会经历类似的模式。一个具有更大上下文窗口的新模型问世,社交媒体上便会充斥着“RAG 已死”的宣言。Meta 最近的突破再次引发了这场讨论——Llama 4 Scout 惊人的 1000 万(理论上)token 上下文窗口代表着一次真正的飞跃。

但这些论断——无论是针对上下文窗口的突破、微调技术的进步,还是模型上下文协议(MCP)的出现——都误解了 RAG 的目的,以及为何它在人工智能领域将永远占有一席之地。

RAG 的初衷

五年前,我在 Meta 基础人工智能研究中心(FAIR,前身为 Facebook 人工智能研究中心)的团队提出了 RAG(Retrieval-Augmented Generation,检索增强生成)的概念。RAG 的目标是利用外部知识来增强模型,创造一种结合了参数化记忆和非参数化记忆的两全其美的解决方案。

简单来说,RAG 通过检索语言模型未经训练的数据源中的相关信息,并将其注入模型的上下文中,从而扩展了语言模型的知识库。

这种方法旨在解决生成式语言模型的许多固有缺陷:


听起来耳熟吗?现在已经不是 2020 年了,但这些同样的问题至今依然存在。甚至可以说,随着组织推动 AI 系统处理日益复杂和关键的任务,这些问题变得更加突出了。核心挑战依然是:我们如何将强大的生成式模型与公司所依赖的海量知识库连接起来?

为什么我们仍然需要 RAG(并且永远需要)

高效而精确的检索在人工智能中将始终扮演重要角色。这一点在一个广为流传的 LinkedIn 帖子中得到了很好的阐述,但我将重申为什么我们不能仅仅将所有数据加载到模型的上下文中:自首个具备大上下文窗口的 LLM 问世以来,RAG 就一直面临“消亡”的论调。


该 LinkedIn 帖子:

一些值得注意的 RAG“死亡宣告”包括:

但现实情况是:

即使拥有高达 200 万 token 这样惊人的上下文窗口,当前的长上下文 LLM 也只能处理演示性质的数据集(toy datasets)。
例如,100 万 token 的上下文窗口(大致)相当于约 1500 页文档。
这对于演示来说很亮眼,但对于生产级别的应用而言是不足够的。

不过,让我们假设我们拥有一个无限 token 的上下文窗口:

底线是:您同时需要长上下文 LLM 和 RAG。

但既然“RAG”这个术语似乎如此具有争议性,那我们不妨这样说:
我们不必非得称之为 RAG。
我们可以就叫它 检索 (retrieval)
或者叫 上下文筛选 (context curation)

无论您决定怎么称呼它,能够控制进入上下文窗口的数据质量,将决定最终生成输出的质量。

毕竟,垃圾进,垃圾出。



警惕错误的二分法

在谷歌搜索“RAG vs”,你会看到一长串建议的查询补全——“长上下文”、“微调”、“MCP”。这种框架设定制造了一种人为的选择,并没有反映这些技术实际上如何协同工作的最佳方式。

实际上,这些概念没有一个是相互排斥的,甚至不是相互冲突的——它们都以互补的方式帮助解决前沿模型的局限性:


我们在生产环境中看到的最复杂的 AI 系统结合了这些方法,根据各自的优势来使用每种工具,而不是宣布某一个获胜并将其他工具抛弃。

正如一位 Twitter 用户最近所说:“声称大型 LLM 上下文窗口取代了 RAG,就像说因为有足够的内存(RAM)就不需要硬盘一样。”正是如此!你的电脑有磁盘、内存和网卡是有原因的。它们服务于不同的目的,并作为一个系统协同工作。RAG、微调和大型上下文窗口在 AI 中也是如此。

结论

我们不需要在 RAG 与长上下文窗口、微调或 MCP 之间做出选择。真正能创造价值的 AI 解决方案不会固守单一方法;它们会根据要解决的具体问题混合搭配使用工具。

但下一次宣称“RAG 已死”的论调出现只是时间问题,所以,如果你将来想引用这篇文章,可以在 isragdeadyet.com 找到它。这个网站将作为一个活生生的证明,展现检索在 AI 系统中持久的重要性,并且每当下一波“RAG 已死”的帖子不可避免地出现时,它都会更新。

如果你的系统无法利用你的专有数据,持续提供过时信息,或者缺乏你所需的专业知识,那么让我们谈谈。我们构建了一个将智能检索与前沿 LLM 相结合的系统,来解决这些长期存在的难题。因为重要的不是哪种技术在某场人为的竞赛中获胜,而是构建能够真正解决实际问题的方案。”


原文链接:https://contextual.ai/blog/is-rag-dead-yet/
-完-

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

RAG 人工智能 检索增强生成 LLM
相关文章