论文阅读:Enhancing Retrieval and Managing Retrieval: A Four-Module Synergy for Improved Quality and Ef

检索增强生成(RAG)技术利用大型语言模型(LLM)的上下文学习能力,生成更准确、更相关的响应。RAG 框架起源于简单的 “检索-阅读 ”方法,现已发展成为高度灵活的模块化范式。其中一个关键组件——查询重写模块,通过生成搜索友好的查询来增强知识检索。这种方法能使输入问题与知识库更紧密地结合起来。作者的研究发现了将 Query Rewriter 模块增强为 Query Rewriter+ 的机会,即通过生成多个查询来克服与单个查询相关的信息高原,以及通过重写问题来消除歧义,从而明确基本意图。作者还发现,当前的 RAG 系统在无关知识方面存在问题;为了克服这一问题,提出了知识过滤器。这两个模块都基于经过指令调整的 Gemma-2B 模型,共同提高了响应质量。最后一个确定的问题是冗余检索,作者引入了记忆知识库和检索触发器来解决这个问题。前者支持以无参数方式动态扩展 RAG 系统的知识库,后者优化了访问外部知识的成本,从而提高了资源利用率和响应效率。这四个 RAG 模块协同提高了 RAG 系统的响应质量和效率。这些模块的有效性已通过六个常见 QA 数据集的实验和消融研究得到验证。

方法介绍

论文阅读:Enhancing Retrieval and Managing Retrieval: A Four-Module Synergy for Improved Quality and Ef_第1张图片

图 1:描述了将四个模块整合到基本的 “先检索后阅读”(绿色)管道中,以提高质量(橙色)和效率(紫色)的过程。蓝色文字表示从内存知识库检索的缓存知识,橙色文字表示从外部检索的知识。

Query Rewriter+

Query Rewriter+ 模块的设计包括两个主要功能:

  • 将原始问题语义增强为重写问题;
  • 生成多个搜索友好查询。

Query Rewriter+ 被表示为 G θ ( ⋅ ) G_{\theta}(\cdot) Gθ(),将原始问题 p 作为输入:

G θ ( p ) → ( s , Q ) G_{\theta}(p) \rightarrow (s, Q) Gθ(p)(s,Q)

其中,s 表示重写的问题, Q = { q 1 , q 2 , … , q ∣ Q ∣ } Q = \{q_1, q_2, \ldots, q_{|Q|}\} Q={ q1,q2,,qQ} 是生成的查询集合。 G θ ( ⋅ ) G_{\theta}(\cdot) Gθ() 的基本实现可以采用基于 prompt 的策略,利用任务描述、原始问题和示例来提示黑盒 LLM。这种方法充分利用了模型的上下文学习能力,通常能有效地进行问题重写和查询生成。不过,该方法的有效性高度依赖于针对特定领域数据集精心构建的 prompt,这限制了它的普遍实用性。此外,生成的 s 和 Q 可能质量不高,无法提高 RAG 性能。

为了解决这

你可能感兴趣的:(RAG,论文阅读,LLM)