首个基于MCP_的_RAG_框架:UltraRAG_2.0用5%代码实现高性能RAG系统,大幅降低大模型开发门槛
同时课程详细介绍了。
UltraRAG 2.0是基于Model Context Protocol架构的RAG框架,通过组件化封装和YAML流程定义,大幅降低复杂RAG系统开发门槛。该框架只需约5%的代码量即可实现传统框架需数百行代码完成的功能,支持串行、循环、条件分支等复杂逻辑,同时保持高性能。开发者可快速构建类似DeepResearch的多阶段推理系统,在复杂多跳问题上性能提升约12%,让研究人员专注于算法创新而非工程实现。
检索增强生成系统(RAG)正从早期“检索 + 生成”的简单拼接,走向融合自适应知识组织、多轮推理、动态检索的复杂知识系统(典型代表如 DeepResearch、Search-o1)。但这种复杂度的提升,使开发者在方法复现、快速迭代新想法时,面临着高昂的工程实现成本。
为了解决这一痛点,清华大学 THUNLP 实验室、东北大学 NEUIR 实验室、OpenBMB 与 AI9Stars 联合推出 UltraRAG 2.0 (UR-2.0)—— 首个基于 Model Context Protocol (MCP) 架构设计的 RAG 框架。这一设计让科研人员只需编写 YAML 文件,就可以直接声明串行、循环、条件分支等复杂逻辑,从而以极低的代码量快速实现多阶段推理系统。
UltraRAG 2.0 亮点一览
🧩 组件化封装:将 RAG 的核心组件封装为标准化的独立 MCP Server;
🔌 灵活调用与扩展:提供函数级 Tool 接口,支持功能的灵活调用与扩展;
🪄 轻量流程编排:借助 MCP Client,建立自上而下的简洁化链路搭建;与传统框架相比,UltraRAG 2.0 显著降低了复杂 RAG 系统的技术门槛与学习成本,让研究者能够将更多精力投入到实验设计与算法创新上,而不是陷入冗长的工程实现。
相关链接
🔗 Github 链接:https://github.com/OpenBMB/UltraRAG
🔗 项目主页:https://openbmb.github.io/UltraRAG/
🔗 教程文档:https://ultrarag.openbmb.cn/
🔗 开源数据集:https://huggingface.co/datasets/UltraRAG/UltraRAG_Benchmark
化繁为简
仅 5% 代码实现低门槛复现
「简」的价值,在实践中尤为直观。以 IRCoT(https://arxiv.org/abs/2212.10509)这一经典方法为例,它依赖基于模型生成的 CoT 进行多轮检索直至产出最终答案,整体流程相当复杂。
IRCoT 流程图
在官方实现中,仅 Pipeline 部分就需要近 900 行手写逻辑;即便使用标杆级 RAG 框架(如 FlashRAG),也仍需超过 110 行代码。相比之下,UltraRAG 2.0 只需约 50 行代码即可完成同等功能。更值得强调的是,其中约一半还是用于编排的 Yaml 伪代码,这大幅降低了开发门槛与实现成本。
不同框架实现 IRCoT 的代码规模与结构差异
以下展示了不同框架在相同功能实现上的差异。可以看到,FlashRAG 的实现仍然需要较长的控制逻辑,涉及显式的循环、条件判断与状态更新。而在 UltraRAG 2.0 中,这些逻辑仅需几行 Pipeline YAML 配置即可表达,分支与循环均以简洁的声明方式完成,避免了繁琐的手动编码。
👇 FlashRAG 与 UltraRAG 的代码实现对比
FlashRAG
UltraRAG
简而不凡
数十行代码实现高性能 RAG 系统
对 UltraRAG 2.0 而言,「简」并不意味着功能受限。借助 MCP 架构与灵活的 YAML 流程定义,UltraRAG 2.0 为科研人员提供了一个高性能、可扩展的实验平台。研究者可以在极短时间内搭建出类似 DeepResearch 的多阶段推理系统,支持 动态检索、条件判断、多轮交互 等高级能力。
在示例中,我们将 Retriever、Generation、Router 等模块通过 YAML 串联,构建了一个同时具备循环与条件分支的推理流程,实现了 Plan 生成 → 知识整理 → 子问题生成 等关键步骤,而这一切仅需 不到 100 行代码。
示例系统流程图
在性能上,该系统在复杂多跳问题上,相较 Vanilla RAG 性能提升约 12%,充分验证了 UltraRAG 2.0 在快速构建复杂推理系统方面的潜力。
示例系统性能表现
以下展示的是我们构建的示例系统在小红书平台上针对两个真实用户提问所生成的案例。
🌰 Case 1:毕业秋招求职
🙋 问题输入
📖 生成结果
🌰 Case 2:七夕送礼物
🙋 问题输入
📖 生成结果
UltraRAG 2.0 让复杂推理系统的构建真正做到 低代码、高性能、可落地。用户不仅能在科研任务中获得性能提升,也能够在行业应用中快速落地,例如智能客服、教育辅导、医疗问答等典型场景,输出更可靠的知识增强答案。
MCP 架构与原生流程控制
在不同的 RAG 系统中,检索、生成等核心能力在功能上具有高度相似性,但由于开发者实现策略各异,模块之间往往缺乏统一接口,难以跨项目复用。Model Context Protocol (MCP) 作为一种开放协议,规范了为大型语言模型(LLMs)提供上下文的标准方式,并采用 Client–Server 架构,使得遵循该协议开发的 Server 组件可以在不同系统间无缝复用。
受此启发,UltraRAG 2.0 基于 MCP 架构,将 RAG 系统中的检索、生成、评测等核心功能抽象并封装为相互独立的 MCP Server,并通过标准化的函数级 Tool 接口实现调用。这一设计既保证了模块功能扩展的灵活性,又允许新模块以“热插拔”的方式接入,无需对全局代码进行侵入式修改。在科研场景中,这种架构让研究者能够以极低的代码量快速适配新的模型或算法,同时保持整体系统的稳定性与一致性。
UltraRAG 2.0 框架示意图
复杂 RAG 推理框架的开发具有显著挑战,而 UltraRAG 2.0 之所以能够在低代码条件下支持复杂系统的构建,核心在于其底层对多结构 Pipeline 流程控制的原生支持。无论是串行、循环还是条件分支,所有控制逻辑均可在 YAML 层完成定义与调度,覆盖复杂推理任务所需的多种流程表达方式。在实际运行中,推理流程的调度由内置 Client 执行,其逻辑完全由用户编写的外部 Pipeline YAML 脚本描述,从而实现与底层实现的解耦。开发者可以像使用编程语言关键字一样调用 loop、step 等指令,以声明式方式快速构建多阶段推理流程。
通过将 MCP 架构 与 原生流程控制深度融合,UltraRAG 2.0 让复杂 RAG 系统的搭建像“编排流程”一样自然高效。此外,框架内置 17 个主流 benchmark 任务与多种高质量 baseline,配合统一的评测体系与知识库支持,进一步提升了系统开发的效率与实验的可复现性。
零基础如何高效学习大模型?
你是否懂 AI,是否具备利用大模型去开发应用能力,是否能够对大模型进行调优,将会是决定自己职业前景的重要参数。
为了帮助大家打破壁垒,快速了解大模型核心技术原理,学习相关大模型技术。从原理出发真正入局大模型。在这里我和鲁为民博士系统梳理大模型学习脉络,这份 LLM大模型资料
分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程
等, 😝有需要的小伙伴,可以 扫描下方二维码免费领取🆓**⬇️⬇️⬇️
【大模型全套视频教程】
教程从当下的市场现状和趋势出发,分析各个岗位人才需求,带你充分了解自身情况,get 到适合自己的 AI 大模型入门学习路线。
从基础的 prompt 工程入手,逐步深入到 Agents,其中更是详细介绍了 LLM 最重要的编程框架 LangChain。最后把微调与预训练进行了对比介绍与分析。
同时课程详细介绍了AI大模型技能图谱知识树,规划属于你自己的大模型学习路线,并且专门提前收集了大家对大模型常见的疑问,集中解答所有疑惑!
深耕 AI 领域技术专家带你快速入门大模型
跟着行业技术专家免费学习的机会非常难得,相信跟着学习下来能够对大模型有更加深刻的认知和理解,也能真正利用起大模型,从而“弯道超车”,实现职业跃迁!
【精选AI大模型权威PDF书籍/教程】
精心筛选的经典与前沿并重的电子书和教程合集,包含《深度学习》等一百多本书籍和讲义精要等材料。绝对是深入理解理论、夯实基础的不二之选。
【AI 大模型面试题 】
除了 AI 入门课程,我还给大家准备了非常全面的**「AI 大模型面试题」,**包括字节、腾讯等一线大厂的 AI 岗面经分享、LLMs、Transformer、RAG 面试真题等,帮你在面试大模型工作中更快一步。
【大厂 AI 岗位面经分享(92份)】
【AI 大模型面试真题(102 道)】
【LLMs 面试真题(97 道)】
【640套 AI 大模型行业研究报告】
【AI大模型完整版学习路线图(2025版)】
明确学习方向,2025年 AI 要学什么,这一张图就够了!
👇👇点击下方卡片链接免费领取全部内容👇👇
抓住AI浪潮,重塑职业未来!
科技行业正处于深刻变革之中。英特尔等巨头近期进行结构性调整,缩减部分传统岗位,同时AI相关技术岗位(尤其是大模型方向)需求激增,已成为不争的事实。具备相关技能的人才在就业市场上正变得炙手可热。
行业趋势洞察:
- 转型加速: 传统IT岗位面临转型压力,拥抱AI技术成为关键。
- 人才争夺战: 拥有3-5年经验、扎实AI技术功底和真实项目经验的工程师,在头部大厂及明星AI企业中的薪资竞争力显著提升(部分核心岗位可达较高水平)。
- 门槛提高: “具备AI项目实操经验”正迅速成为简历筛选的重要标准,预计未来1-2年将成为普遍门槛。
与其观望,不如行动!
面对变革,主动学习、提升技能才是应对之道。掌握AI大模型核心原理、主流应用技术与项目实战经验,是抓住时代机遇、实现职业跃迁的关键一步。
01 为什么分享这份学习资料?
当前,我国在AI大模型领域的高质量人才供给仍显不足,行业亟需更多有志于此的专业力量加入。
因此,我们决定将这份精心整理的AI大模型学习资料,无偿分享给每一位真心渴望进入这个领域、愿意投入学习的伙伴!
我们希望能为你的学习之路提供一份助力。如果在学习过程中遇到技术问题,也欢迎交流探讨,我们乐于分享所知。
*02 这份资料的价值在哪里?*
专业背书,系统构建:
-
本资料由我与鲁为民博士共同整理。鲁博士拥有清华大学学士和美国加州理工学院博士学位,在人工智能领域造诣深厚:
-
- 在IEEE Transactions等顶级学术期刊及国际会议发表论文超过50篇。
- 拥有多项中美发明专利。
- 荣获吴文俊人工智能科学技术奖(中国人工智能领域重要奖项)。
-
目前,我有幸与鲁博士共同进行人工智能相关研究。
内容实用,循序渐进:
-
资料体系化覆盖了从基础概念入门到核心技术进阶的知识点。
-
包含丰富的视频教程与实战项目案例,强调动手实践能力。
-
无论你是初探AI领域的新手,还是已有一定技术基础希望深入大模型的学习者,这份资料都能为你提供系统性的学习路径和宝贵的实践参考,助力你提升技术能力,向大模型相关岗位转型发展。
抓住机遇,开启你的AI学习之旅!
更多推荐
所有评论(0)