大模型在传统RAG系统中检索自主权受限,导致任务效率和结果质量受限。中国科大量身打造的A-RAG框架通过分层检索接口,赋予模型检索主动权,实现按需选择检索粒度和策略。A-RAG包含构建分层索引、设计分层检索工具、智能体循环三个关键步骤,大幅提升复杂问答任务的准确率和效率。实验证明,A-RAG在多跳问答数据集上表现优异,且随着模型能力提升,性能同步增强。该框架适用于多跳问答、复杂信息检索等场景,为程序员提供可迁移的检索优化思路。

前排提示,文末有大模型AGI-CSDN独家资料包哦!

**论文题目|**A-RAG: Scaling Agentic Retrieval-Augmented Generation via Hierarchical Retrieval Interfaces

论文信息

📄 论文链接:

https://arxiv.org/pdf/2602.03442

一、引言:大模型"检索自主权"缺失,传统RAG难以为继

当前大模型早已具备强大的推理和工具使用能力,但主流RAG系统却没能充分利用这份优势——要么一次性检索所有相关段落一股脑喂给模型,要么让模型死板执行预设好的检索流程。

这就像让一个经验丰富的侦探只能按固定路线查案,既不能自主决定先查什么线索,也不能根据新发现调整方向,严重限制了任务效率和结果质量。

中国科大量身打造的A-RAG框架,通过分层检索接口让模型真正掌握检索主动权,不用啃公式推导,就能搞懂论文的创新逻辑、工作原理和落地价值,还能学到可迁移的检索优化思路。

二、核心背景:读懂A-RAG前,先搞懂这些关键信息

1、传统RAG的两大流派与致命缺陷

当前RAG领域主要有两种思路,但都存在明显短板:

1)Graph RAG(图结构RAG):核心是把文本构建成实体关系图,让模型能基于图谱检索相关信息。比如微软的GraphRAG、模拟海马体记忆的HippoRAG2,都靠预定义的图谱结构优化检索。但问题在于检索逻辑完全由算法决定,模型发现检索信息不足时,没法主动补充检索。

2)Workflow RAG(流程化RAG):提前设计好固定的检索流程,让模型一步步执行。比如FLARE会在生成信心不足时触发检索,MA-RAG靠多智能体协作检索。但流程是固定死的,模型不能根据任务特点灵活调整策略。

这两种方法的共同问题是:模型没有检索自主权,只能被动执行指令,无法发挥自身的推理能力。

2、关键术语通俗解读

1)Agentic RAG(智能体化RAG):让RAG系统像智能体一样,能自主决定检索策略、执行步骤和工具使用方式,而不是被动遵循预设规则。

2)分层检索接口:提供不同粒度的检索工具,就像给侦探准备了放大镜(关键词检索)、望远镜(语义检索)和档案查阅(片段阅读),能按需选择工具。

3)LLM-Acc(LLM评估准确率):用大模型判断预测结果与标准答案的语义是否一致,比单纯的字面匹配更贴合实际应用场景。

4)Cont-Acc(包含匹配准确率):判断标准答案是否直接出现在模型的生成结果中,适合短答案任务评估。

3、论文核心研究目标

针对传统RAG"模型无自主权"的核心痛点,设计一套让大模型能自主选择检索粒度、调整检索策略的框架,在不增加过多检索成本的前提下,提升复杂问答任务的准确率和效率。

**三、**核心原理:A-RAG的工作逻辑,三步实现自主检索

A-RAG的核心设计可以拆解为三个关键步骤,从数据准备到实际检索形成完整闭环:

01

第一步:构建分层索引——给信息分好类,方便按需检索

先对原始文本做两层预处理,形成三级信息结构:

1)片段划分(Chunking):把文本分成约1000个token的片段,确保每个片段语义完整,就像把一本书分成独立的章节。

2)句子嵌入(Embedding):把每个片段拆成句子,用预训练模型将句子转换成向量,方便后续语义匹配。

3)三级信息结构:最终形成关键词级(字面匹配)、句子级(语义匹配)、片段级(完整内容)的三层结构,无需复杂的预构建图谱,大幅降低索引成本。

02

第二步:设计分层检索工具——给模型配好"工具箱"

核心创新点就在这三个工具,让模型能按需选择:

1)keyword_search(关键词检索):精确匹配文本中的关键词,适合查找特定实体、术语。比如搜索"爱因斯坦",会直接返回包含该关键词的片段摘要,关键词越长权重越高,避免无关匹配。

2)semantic_search(语义检索):不纠结字面意思,而是匹配语义相似的内容。比如搜索"三月旅行的目的地",即使文本中没有完全相同的表述,也能找到"计划三月去中国度假"这类语义相关的内容。

3)chunk_read(片段阅读):基于前两个工具返回的摘要,模型可以决定哪些片段需要精读,进而读取完整内容,还能选择读取相邻片段补充上下文。

03

第三步:智能体循环——让模型自主决策检索流程

采用类似ReAct的交互逻辑,让模型在推理和检索之间反复迭代:

1)模型接收问题后,根据问题特点选择合适的检索工具(比如明确实体就用关键词检索,模糊概念就用语义检索)。

2)接收工具返回的结果后,判断是否需要进一步检索(比如信息不足就换工具继续检索,信息足够就开始生成答案)。

3)用上下文追踪器(Context Tracker) 记录已读取的片段,避免重复读取浪费资源,同时鼓励模型探索更多相关片段。

这个过程中,模型完全自主决定"用什么工具"“检索多少次”“读哪些片段”,真正实现了"检索由模型主导"。

四、实验结果:A-RAG到底有多强?

1

实验设置说明

论文在4个主流多跳问答数据集(HotpotQA、2WikiMultiHopQA、MuSiQue、GraphRAG-Bench)上做了测试,对比了传统RAG、Graph RAG、Workflow RAG等10余种方法,用GPT-4o-mini和GPT-5-mini作为基础模型,确保对比公平性。

2

核心实验结论

1)自主检索范式优势明显:即使是简化版的A-RAG(Naive),只配备单个嵌入检索工具,性能也超过了大部分Graph RAG和Workflow RAG方法,证明给模型检索自主权本身就有巨大价值。

2)分层工具进一步提升性能:完整版A-RAG(Full)在GPT-5-mini上表现最佳,所有数据集的LLM-Acc都显著领先,比如在HotpotQA上达到94.5%,比传统Naive RAG高出13个百分点。

3)检索效率更高:虽然A-RAG能自主选择检索策略,但检索的token数量并不比传统方法多,甚至在HotpotQA、2Wiki等数据集上,检索token数还减少了一半以上,实现了"更准且更高效"。

4)随模型能力同步 scaling:模型越强,A-RAG的优势越明显。GPT-5-mini搭配A-RAG时的性能提升,比GPT-4o-mini搭配A-RAG时更显著,说明A-RAG能充分利用大模型的推理能力。

3

优势与适用场景分析

1)核心优势

  • 自主性强:模型能根据任务灵活调整检索策略,复杂问答任务表现突出。
  • 效率高:分层检索避免了无效信息的冗余加载,检索成本可控。
  • 扩展性好:随着模型推理能力提升,性能能同步提升,适配未来大模型发展趋势。

2)适用场景

多跳问答、复杂信息检索、需要动态调整检索策略的知识密集型任务。

五、总结

传统RAG的核心是"优化检索算法",而A-RAG的核心是"让模型自主掌控检索",这是一次真正的范式转变。

它通过分层检索接口,让大模型能像人一样按需选择检索工具、调整检索策略,既发挥了大模型的推理优势,又保持了检索的高效性。

实验证明,这种设计不仅能显著提升多跳问答任务的准确率,还能随模型能力同步升级。

读者福利:倘若大家对大模型感兴趣,那么这套大模型学习资料一定对你有用。

针对0基础小白:

如果你是零基础小白,快速入门大模型是可行的。
大模型学习流程较短,学习内容全面,需要理论与实践结合
学习计划和方向能根据资料进行归纳总结

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

请添加图片描述

👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉大模型视频和PDF合集👈

这里我们能提供零基础学习书籍和视频。作为最快捷也是最有效的方式之一,跟着老师的思路,由浅入深,从理论到实操,其实大模型并不难

在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐