简介

本文探讨了AI智能体上下文工程的瓶颈与解决方案,指出模型常面临检索盲区、偏差和资源冗余等问题。作者提出将文件系统作为智能体的认知扩展接口,通过存储、检索和更新上下文,有效解决Token溢出、超长上下文需求、长尾信息检索和持续学习等挑战。这种方法赋予AI类似人类的持久化记忆与精确检索能力,突破上下文窗口限制,为构建具备长期规划与持续学习能力的通用智能系统奠定基础。


在现代 AI 系统设计的宏伟蓝图中,深度智能体的一个核心特征在于它们能够驾驭一套文件系统工具。通过这些工具,深度智能体得以在文件系统中执行读取、写入、编辑、列出目录以及搜索文件等操作。这不仅仅是功能的堆叠,更是智能体认知架构的一次重要升级。

为了理解文件系统的价值,我们必须先审视当下的智能体在哪些环节容易遭遇瓶颈。它们失败通常归结为两个核心原因:模型本身的推理能力不足,或者它们未能获取到正确的上下文信息。

一、 透视上下文工程的本质

Andrej Karpathy 曾形象地将上下文工程描述为一门将恰到好处的信息填入上下文窗口,以进行下一步操作的微妙艺术与科学。理解上下文工程及其失效模式,是构建高可靠性智能体的基石。我们可以通过上下文工程这个视角,来重新审视现代 AI 工程师的工作流程。

在理想状态下,智能体拥有海量的全集上下文,例如所有的支持文档或代码库。为了解决一个具体问题,智能体需要精准定位到其中包含答案的那一部分关键上下文。然而,在智能体抓取上下文并将其拉入上下文窗口的过程中,常常会出现偏差。上下文窗口可以被理解为 AI 的短期记忆容量,其处理信息的带宽是有限的。

从这个角度看,上下文工程导致智能体失效的路径主要有三种:

  • 检索盲区: 如果智能体需要的上下文根本不在它能访问的总库里,那它注定失败。

例如客服智能体需要某篇文档来回答问题,但这篇文档根本没被索引。

  • 检索偏差: 如果智能体抓取的内容里没有包含它真正需要的信息,它也无法正确回答。

这通常表现为文档虽然存在且被索引,但检索算法未能将其提取。

  • 资源冗余: 如果智能体抓取的内容远远多于实际需要的,那就是在浪费资源。

例如客服智能体只需要特定的一页纸,结果它一口气抓了 100 页。这不仅造成 Token 的浪费,过多的噪声还可能干扰模型的判断。

作为智能体工程师,我们的优化目标是让智能体抓取的上下文实际所需的上下文尽可能重合。

二、 工程实践中的四大挑战

在试图精准分离出这部分恰当的上下文时,我们会遇到几个具体的工程挑战:

1. Token 溢出: 有些工具(比如网络搜索)会返回大量的 Token。

仅仅几次网络搜索,对话历史中就可能堆积成千上万的 Token。

``你最终可能会遇到 HTTP 400 错误,但在那之前,你的 LLM 账单早就爆炸了,而且推理性能也会显著下降。

2. 超长上下文需求

有时智能体确实需要大量信息才能回答问题。

这种情况导致所需上下文的数量迅速增长,直到超出模型的上下文窗口限制 Context_required>Context_windowContext\_{required} > Context\_{window}Context_required>Context_window

3. 长尾信息检索

智能体可能需要引用埋藏在成百上千个文件中的某个冷门信息来处理输入。

如果找不到,那么抓取的上下文就无法支撑问题的解答。

4. 持续学习与记忆

最终用户往往会在互动中隐式或显式地提供线索。

如果智能体无法将这些新知添加到自己的上下文中,那么总上下文就永远无法覆盖实际需要的上下文。

三、 解决方案:文件系统作为认知扩展接口

文件系统提供了一个单一且标准化的接口,通过它,智能体可以灵活地存储、检索和更新无限量的上下文。

这实际上是为智能体挂载了一块无限容量的外部存储器

让我们看看这如何解决上述的每一个场景。

1. 应对 Token 溢出:文件系统即草稿纸

智能体不必将所有的工具调用结果和笔记都塞进对话历史记录里,而是可以将它们写入文件系统,然后在必要时有选择地查找相关信息。

以网络搜索为例。

当工具返回了 1 万个 Token 的原始内容时,大部分数据可能是噪声。

如果直接将其塞入消息历史,这 1 万个 Token 就会一直驻留并推高成本。

但如果我们把这个巨大的结果卸载到文件系统中,智能体就可以像程序员一样,使用 grep 等工具搜索特定的关键词,只将必要的几行上下文读入对话中。

在这个架构中,智能体有效地将文件系统用作了处理大量上下文的草稿纸,实现了信息的降噪处理。

2. 应对超长上下文:动态存储与检索

Context_required<Context_windowContext\_{required} < Context\_{window}Context_required<Context_window 这一假设被打破时,文件系统提供了一个极佳的抽象层,允许 LLM 动态地换入换出信息:

  • 长周期任务规划: 智能体将制定的计划写入文件,在后续步骤中按需读取,以保持对任务目标的专注。
  • 多智能体协作: 子智能体将工作成果写入文件系统,而非直接回传给主智能体。这最大程度地减少了传声筒游戏带来的信息失真。
  • 复杂指令集管理: 对于需要大量操作说明的场景,与其填充臃肿的 System Prompt,不如将其作为文件存储,让智能体在需要时动态读取。

3. 精准定位冷门信息:确定性搜索的回归

在 LLM 浪潮早期,语义搜索是主流。

它在通用文本上表现尚可,但在技术文档或代码检索中,由于缺乏精确的字面匹配,效果往往差强人意。

文件系统允许智能体使用 lsglobgrep 等工具进行确定性搜索。

现代模型已经具备了理解文件系统逻辑的能力,这使得它们能够像熟练的工程师一样遍历目录。

globgrep 允许智能体不仅隔离特定的文件,还能定位到特定的行和字符。

配合 read_file 工具,智能体可以仅读取文

件中最关键的片段。

这种基于文件系统的精确搜索,在特定场景下可以作为语义搜索的有力补充。

4. 实现持续学习:自我更新的系统指令

改进智能体的最佳途径通常是确保它们能访问正确的上下文。

我们认为智能体的指令或技能与它们可能想要处理的任何其他上下文没有什么不同。

文件系统可以作为智能体存储和更新自身指令的地方。

当用户提供反馈或纠正时,智能体可以立即写入自己的配置文件并记住这条重要信息。

这对于记录用户的姓名、偏好或特定的一次性事实非常有效。

这是一种令人兴奋的新模式,它让 LLM 能够随着时间的推移增长自己的技能组合和指令,实现真正意义上的在干中学

三、如何学习AI大模型?

如果你对AI大模型入门感兴趣,那么你需要的话可以点击这里大模型重磅福利:入门进阶全套104G学习资源包免费分享!

这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

在这里插入图片描述

这是一份大模型从零基础到进阶的学习路线大纲全览,小伙伴们记得点个收藏!

请添加图片描述
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

100套AI大模型商业化落地方案

请添加图片描述

大模型全套视频教程

请添加图片描述

200本大模型PDF书籍

请添加图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

LLM面试题合集

请添加图片描述

大模型产品经理资源合集

请添加图片描述

大模型项目实战合集

请添加图片描述

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐