【技术干货】智能体的记忆系统:短期记忆VS长期记忆,一篇全搞定,建议收藏!
文章解析了智能体记忆系统的核心机制:短期记忆依赖大模型上下文窗口传递对话历史,但存在长度限制和成本问题;长期记忆采用RAG技术将信息向量化存储,实现跨会话记忆。通过Cherry Studio实例展示了两种记忆的应用场景及局限性,包括短期记忆的轮数限制、长期记忆可能存在的误记问题等,帮助读者全面理解智能体记忆系统的实现原理与使用边界。
文章详细解析了智能体的短期记忆和长期记忆机制。短期记忆依赖大模型上下文窗口,通过传递对话历史实现,但有长度限制和成本问题;长期记忆采用RAG技术,将信息向量化存储于数据库,可跨越会话使用。文章通过Cherry Studio实例展示了两种记忆的实际应用及各自局限性,帮助读者全面理解智能体的记忆系统。
有些同学问:智能体的 Memory 中 短期记忆(Short-term memory)与长期记忆(Long-term memory)是什么意思?有什么区别?
本文用相对通俗易懂的语言帮助大家来理解这两个概念,以及如何实现的?

在 《LLM Powered Autonomous Agents》这篇文章中提到,大语言模型驱动的自主智能体中,大语言模型充当大脑,然后还有几个关键组件,如规划、工具、记忆。

其中记忆包括短期记忆和长期记忆。

短期记忆是智能体在单一会话中维护即时上下文的能力。
- 工作机制: 它完全依赖于大模型(LLM)的上下文窗口。智能体会将之前的对话历史、中间推理步骤(如 Chain of Thought)放在 Prompt 中传给模型。
- 局限性: 随着对话变长,旧的信息会因为超出窗口限制而被丢弃或“遗忘”。
- 常见处理:
- 滑动窗口: 只保留最近的 条对话。
- 摘要法: 将之前的长对话总结成一段简短的摘要,释放窗口空间。

大模型的短期记忆其实是通过参数来维持的。我们是通过把对话的历史放在请求参数里,每次把前面的内容带上去,它才知道之前聊过什么。

拿 Cherry Studio 为例,不管是默认助手还是我们自定义的助手,在模型设置这里都可以看到「上下文数」。

我们第一个问题是:“你好”
注:点击 Cherry Studio 客户端窗口后按下快捷键 Ctrl + Shift + I(Mac端:Command + Option + I)可以打开控制台,查看请求过程。

我们第三个问题是“很好”

当我们问第四个问题:“不需要”时,我们可以看到我们第一个问题就被丢了!!!
这里的上下文轮数其实就是短期记忆的轮数。超过这个轮数的话,那么它就不会再发给大模型了。
有些朋友可能会问,那我们把上下文数设置长一点不就行了吗?
事情远没有想象的那么简单。

对于很多大模型来说,是按照输入和输出的 tokens 来计费的,上文越长越贵。截图来自;https://api-docs.deepseek.com/quick_start/pricing

对大多数模型来说,上下文越长,能力相对来说是会普遍下降的。
详情参见:https://research.trychroma.com/context-rot
由于短期是把聊天记录当做参数传过去,所以在不同的对话中无法自动共享一些关键信息。

长期记忆允许智能体存储、检索和利用过去跨越数天、数月甚至数年的信息。
- 技术实现: 通常采用 检索增强生成(RAG) 技术。智能体将重要信息转化为向量(Embeddings)存入数据库。当需要时,通过语义匹配检索相关片段。
- 深度分类:
- 情境记忆 (Episodic Memory): 记录具体的“经历”。例如:“用户上周二在上海出差,提到过喜欢那里的咖啡”。
- 语义记忆 (Semantic Memory): 存储抽象的“事实”。例如:“用户对花生过敏”。
- 程序记忆 (Procedural Memory): 记录执行任务的“技能”或“SOP”。例如:智能体学会了如何使用某个特定的 API 接口。

拿 Cherry Studio 为例,长期记忆是通过“全局记忆”实现的。
你可以手动添加记忆,也可以在智能体里开启记忆。它就会把自己需要记忆的信息做判断,然后自动存储。

我们可以在整体设置这里打开全局记忆。

我们在和他们聊天的时候,它会先检索相关的记忆,然后再回答我们的问题。

如果它认为有些信息需要记住,也会自动保存到记忆中。

听着很完美,实际上还是会存在很多问题。
- 有时候记忆是 AI 自动决策的,没有和用户确认,那么这些记忆可能是错误的。
- 有了记忆之后,有些模型不够聪明,它有时会强行和相关记忆上靠,导致回答并不是我们想要的信息。

当我们开启全局记忆时,用户发起对话就会调用 Memory_Search 工具检索可能相关的记忆,并把它们放进上下文,帮助大语言模型更好地回答问题。
回答完成后,系统还会异步提取本次聊天的信息,如有需要增加、修改或删除的记忆,也会通过相应工具处理。
更多细节可 Cherry Studio 源码:https://github.com/CherryHQ/cherry-studio

简要来说,短期记忆是通过请求时传入对话历史来实现的,通常在对话内有效。长期记忆则是通过持久化存储,如向量数据库实现的,可以跨对话。
AI时代,未来的就业机会在哪里?
答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具,到自然语言处理、计算机视觉、多模态等核心领域,技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。

掌握大模型技能,就是把握高薪未来。
那么,普通人如何抓住大模型风口?
AI技术的普及对个人能力提出了新的要求,在AI时代,持续学习和适应新技术变得尤为重要。无论是企业还是个人,都需要不断更新知识体系,提升与AI协作的能力,以适应不断变化的工作环境。
因此,这里给大家整理了一份《2026最新大模型全套学习资源》,包括2026最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题、AI产品经理入门到精通等,带你从零基础入门到精通,快速掌握大模型技术!
由于篇幅有限,有需要的小伙伴可以扫码获取!
1. 成长路线图&学习规划
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。

2. 大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)

3. 大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。

4. 大模型项目实战
学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

5. 大模型行业报告
行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

6. 大模型面试题
面试不仅是技术的较量,更需要充分的准备。
在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

为什么大家都在学AI大模型?
随着AI技术的发展,企业对人才的需求从“单一技术”转向 “AI+行业”双背景。企业对人才的需求从“单一技术”转向 “AI+行业”双背景。金融+AI、制造+AI、医疗+AI等跨界岗位薪资涨幅达30%-50%。
同时很多人面临优化裁员,近期科技巨头英特尔裁员2万人,传统岗位不断缩减,因此转行AI势在必行!

这些资料有用吗?
这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


大模型全套学习资料已整理打包,有需要的小伙伴可以
微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费】

更多推荐




所有评论(0)