主要关注LLM、RAG、Agent等AI前沿技术,每天分享业界最新成果和实战案例。

在大型语言模型(LLM)时代,**检索增强生成(RAG)**已成为处理长文本和复杂推理任务的重要技术。然而,传统的单步RAG方法在处理需要全局理解和深度推理的复杂查询时往往力不从心。多步RAG通过迭代式的检索-推理循环来改善这一问题,但现有方法仍面临以下关键挑战:

  1. 记忆机制静态化:现有工作记忆主要作为被动存储,仅累积孤立事实,缺乏对原始事实间高阶关联的建模能力
  2. 关系建模薄弱:复杂的全局理解任务需要构建超越预定义模式的复杂知识结构,而现有方法难以有效处理
  3. 推理碎片化:由于缺乏对证据间复杂关系的理解,导致推理过程碎片化,全局理解能力有限

港中大 & WeChat AI 联合团队提出HGMEM框架(开源地址在文末),有效解决了多步RAG系统中的几个关键痛点:

  1. 信息孤岛问题:通过超图结构打破信息壁垒,建立跨证据关联
  2. 推理深度不足:高阶关联建模支持更深层次的逻辑推理
  3. 上下文理解局限:动态记忆演化实现从局部到全局的理解跃升

一、HGMEM超图记忆机制

**HGMEM(HyperGraph-based Memory)**将工作记忆的概念从简单存储扩展到动态、表达性强的复杂推理结构。其核心创新在于:

  • 超图结构:将记忆建模为超图,其中超边作为独立的记忆点,支持任意数量顶点的连接
  • 动态演化:通过更新、插入、合并三种操作,记忆能够逐步建立高阶关联
  • 复杂关系建模:灵活建模n元关系(n≥2),突破传统二元关系的限制

工作原理

HGMEM的工作流程包含以下关键步骤:

步骤1:自适应证据检索

系统根据当前记忆状态,智能选择两种检索策略:

  • 局部调查(Local Investigation):针对特定记忆点进行深度挖掘
  • 全局探索(Global Exploration):发现当前记忆之外的新信息
步骤2:记忆动态演化

通过三种操作实现记忆的渐进式演化:

  • 更新操作:修订现有记忆点的描述信息
  • 插入操作:添加新的记忆点到超图中
  • 合并操作:将多个相关记忆点融合为更高阶的记忆单元
步骤3:记忆增强响应生成

当记忆内容足够丰富时,LLM基于结构化的记忆信息生成最终响应。

二、技术亮点与优势

超图结构的优势

相比传统的图结构,超图在记忆建模方面具有显著优势:

特性 传统图结构 超图结构
关系类型 仅支持二元关系 支持n元关系(n≥2)
表达能力 有限,需要多个边表示复杂关系 单一超边可表达复杂关联
推理深度 浅层,需多跳推理 深层,可直接建模高阶关联

动态记忆演化的价值

图2展示了记忆演化的具体过程。通过合并操作,系统能够将分散的证据整合为更具表达力的高阶记忆点:

初始记忆点1:Xodar被Issus惩罚初始记忆点2:Xodar被降级为奴隶合并后记忆点:Xodar因被Carter击败而受罚,体现社会评判机制
```![](http://cdn.zhipoai.cn/75d840c1.jpg)

### 自适应检索策略

HGMEM的检索策略体现了"按需索取"的智能特性:

* **局部调查**确保对关键细节的深入挖掘
* **全局探索**保证信息的全面覆盖
* **动态切换**根据当前记忆状态灵活调整

实验验证与性能分析
---------

### 实验设置

研究团队在四个具有挑战性的数据集上评估HGMEM:

1. **Longbench V2**:长文本生成式理解问答
2. **NarrativeQA**:叙事文本理解
3. **NoCha**:小说事实验证
4. **Prelude**:角色前传一致性判断

这些数据集都要求模型具备全局理解能力和复杂推理能力。

### 主要结果

HGMEM在所有数据集上均显著优于现有方法:

| 方法类型 | 具体方法 | NarrativeQA准确率 | NoCha准确率 | Prelude准确率 |
| --- | --- | --- | --- | --- |
| 传统RAG | NaiveRAG | 64.20% | 52.00% | 67.46% |
| 图增强RAG | GraphRAG | 64.02% | 53.00% | 70.63% |
| 多步RAG | DeepRAG | 65.98% | 45.00% | 67.46% |
| **HGMEM** | **本文方法** | **69.74%** | **55.00%** | **73.81%** |

![](http://cdn.zhipoai.cn/91977334.jpg)

特别值得注意的是,基于开源模型Qwen2.5-32B的HGMEM甚至优于使用更强GPT-4o的基线方法,证明了该方法在资源效率方面的价值。

### 深度分析

#### 消融实验

* **合并操作的关键作用**:移除合并操作导致性能显著下降,证明了高阶关联构建的重要性
* **自适应检索的优势**:仅使用局部调查或全局探索的策略均不如自适应组合策略

![](http://cdn.zhipoai.cn/cbf1776b.jpg)

#### 查询类型分析

通过区分**原始查询**和**理解性查询**发现:

* 对于理解性查询,HGMEM通过构建更复杂的关系(平均实体数7.07 vs 4.10)实现更高的准确率
* 对于原始查询,两种方法性能相当,说明HGMEM不会过度复杂化简单问题

![](http://cdn.zhipoai.cn/c5db3718.jpg)

总结
--

HGMEM通过引入超图结构的动态记忆机制,为多步RAG系统带来了革命性的改进。其核心贡献在于:

1. **理论创新**:将工作记忆从静态存储提升为动态演化结构
2. **技术突破**:超图结构支持的高阶关联建模
3. **实用价值**:在多个挑战性任务上实现显著性能提升

HGMEM的出现标志着RAG技术从"检索-生成"向"理解-推理"的重要跃迁,为实现真正智能的信息处理系统迈出了关键一步。

```code-snippet__js
IMPROVING MULTI-STEP RAG WITH HYPERGRAPHBASED MEMORY FOR LONG-CONTEXT COMPLEX RELATIONAL MODELING
https://arxiv.org/pdf/2512.23959
https://github.com/Encyclomen/HGMem

每天一篇大模型Paper来锻炼我们的思维~已经读到这了,别忘了点赞、关注噢

那么,如何系统的去学习大模型LLM?

作为一名深耕行业的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。

所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。

由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
在这里插入图片描述

👉大模型学习指南+路线汇总👈

我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
在这里插入图片描述
在这里插入图片描述

👉①.基础篇👈

基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
在这里插入图片描述

👉②.进阶篇👈

接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
在这里插入图片描述

👉③.实战篇👈

实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
在这里插入图片描述

👉④.福利篇👈

最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
在这里插入图片描述
相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐