简介

本文分享了Manus团队放弃传统Fine-tuning,转而通过Context Engineering挖掘LLM潜力的实战经验。详细介绍了六大核心策略:围绕KV-Cache的架构设计、Logit Masking解决工具爆炸、文件系统作为外置显存、背诵对抗注意力衰减、保留错误轨迹作为学习样本、引入结构化噪声避免少样本陷阱。核心观点是Agent开发应专注于Context的构建与管理,而非端到端模型训练,以平衡成本、延迟、准确性和鲁棒性。


这篇文章是基于 Manus 团队的技术文章《Context Engineering for AI Agents[1]》整理而成。原文分享了他们在构建通用 Agent(Manus)过程中,如何放弃传统的 Fine-tuning 路线,转而通过深度优化的 Context Engineering 来挖掘前沿 LLM 潜力的实战经验。

个人觉得,这篇文章透露出的 insights 对于从事 Agent 开发、RAG 及推理优化的人很有参考价值。

用文章结尾的一句话做引言:

“The agentic future will be built one context at a time. Engineer them well.”

  1. Why Context Engineering?
    ===========================

在 LLM 应用开发中,通常面临两条路径:

  • • Fine-tuning:训练端到端模型。缺点是反馈循环慢(周级),且容易被基座模型的升级淘汰。
  • • In-Context Learning:基于强基座模型进行语境构建。

Manus 团队选择了后者,他们认为 Agent 开发的核心在于 Context Engineering,即如何构建和管理输入给模型的 Context。作者将这种通过人工尝试、Prompt 调整和架构搜索的过程戏称为 Stochastic Graduate Descent。

  1. 核心技术策略
    =========

文章详细阐述了六个核心工程实践,来解决 Agent 在长周期任务中的 成本、延迟、准确性 和 鲁棒性 问题。

2.1 围绕 KV-Cache 进行架构设计

背景:Agent 场景的 Token 特征是 Input 极长(Context),Output 较短(Action),比例可达 100:1。因此,KV-Cache Hit Rate 是决定 TTFT (Time-to-First-Token) 和推理成本的最关键指标。

优化策略:

保持前缀稳定 (Prefix Stability):
  • • 由于 Transformer 的自回归特性,Token t_i 的变更会导致 t_i 之后所有 KV Cache 失效。
  • • ❌ Anti-Pattern:在 System Prompt 头部放入精确到秒的时间戳。
  • • ✅ Best Practice:将动态信息移后,保持头部静态。
Append-only Context:
  • • 严禁修改历史 Action/Observation。
  • • 保证序列化的确定性,防止 JSON key 顺序变化导致 Cache Miss。
显式 Cache Breakpoints:
  • • 在 System Prompt 结束等关键位置手动插入断点,适配不支持自动增量缓存的框架。

KV-Cache 在多轮对话中如何被复用及失效的示意图

2.2 对 Logits 做 mask 解决 Tool 爆炸的问题

挑战:Agent 随能力扩展,Tool 数量爆炸。若全部放入 Context,会增加干扰;若动态移除(RAG-style),会导致 Cache 失效且模型困惑(Context 中有历史调用但定义已消失)。

解决方案:Logit Masking (Constrained Decoding) 利用有限状态机管理当前状态下可用的工具,在 Decoding 阶段直接修改 Logits 分布,将不可用工具的概率置为 -\infty,而不是修改 Prompt 中的工具定义。

实现细节:
  • • 利用 im_start 等 token 进行 Response Prefill。
  • • 工具命名规范化(如 browser_, shell_),便于基于前缀进行 Masking。
  • • 三种调用模式控制:Auto (可选), Required (必选), Specified (指定子集)。

如何通过 Logit Masking 限制模型在特定状态下的动作选择

2.3 文件系统即外置显存

痛点:尽管 Context Window 达到 128k+,但 Observation(如网页、PDF)过大且昂贵,且长窗口会导致 Lost-in-the-middle 现象。

策略:

FS as Memory:
  • • 将文件系统视为无限、持久的 Context。
可恢复压缩:
  • • 在 Context 中不直接放入网页全文,而是保留 URL 或文件路径。
  • • 模型学会使用工具 read_file(path) 按需加载数据。
  • • 思想延伸:作者认为这种机制使得 Transformer 模拟了 Neural Turing Machine,并推测具备文件读写能力的 SSM (State Space Models) 可能是未来 Agent 的形态。

文件系统作为外部存储与 Context 交互的架构图

2.4 通过背诵(Recitation)对抗注意力衰减

现象:长任务(50+ steps)中,模型容易遗忘初始目标。

机制:Todo List Recitation。 Agent 维护一个 todo.md 文件,并在每一步更新它。这不仅仅是记录,更是一种 Attention Engineering。通过不断在 Context 末尾背诵当前进度和剩余目标,强行将 Global Plan 拉入模型的 最近注意力区域。

注:通过将目标放在 K, V 的末端,利用 Recency Bias 增强模型对目标的关注。

Manus 运行过程中 todo.md 的动态更新示例

2.5 保留错误轨迹

反直觉洞察:Agent 犯错是必然的。

  • • ❌ 常见做法:隐藏错误,重置状态重试(以此保持 Context 干净)。
  • • ✅ Manus 做法:保留错误的 Action 和报错的 Observation。

原理:错误轨迹构成了负样本(Negative Prompting)。当模型看到 Action A -> Error,它会更新内部信念,降低再次选择 A 的概率。Error Recovery 是 Agent 智能的重要体现,抹除错误等于抹除学习机会。

展示保留错误轨迹如何帮助模型进行自我修正

2.6 避免少样本陷阱

风险:LLM 是强模仿者。如果 Context 中充满了重复的、类似的“动作-观察”对(例如批处理20份简历),模型会陷入 Pattern Repetition,导致过拟合、死循环或幻觉。

对策:引入结构化噪声。

  • • 在序列化模板、措辞、顺序上引入微小的随机变化。
  • • 目的:打破 Context 的单一模式,强迫模型每次都进行推理而非单纯的补全。
  1. 个人总结
    =======

这篇文章讨论当前 Agent 系统从 Demo 走向 Production 中遇到的核心问题:如何在有限的 Context Window 和昂贵的推理成本下,维持 Agent 的长期规划能力和稳定性

文章中给出了 Manus 自己的解法:

1、KV-Cache 是生命线:Agent 的系统设计必须向 Cache 机制妥协(如放弃 System Prompt 中的动态时间戳)。
2、推理时干预好过提示词工程:通过 Logit Masking 控制生成,比单纯写复杂的 System Prompt 更可靠、更节省 Context。
3、Context 并非越大越好:学会利用外部存储(文件系统)和动态加载,保持 Context 的流动性和高信噪比。
4、接受错误:Agent 的鲁棒性来自于从错误中恢复的能力,而非仅仅依靠一次成功的规划。

最后唠两句

为什么AI大模型成为越来越多程序员转行就业、升职加薪的首选

很简单,这些岗位缺人且高薪

智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200% ,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。

在这里插入图片描述

AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。

那0基础普通人如何学习大模型 ?

深耕科技一线十二载,亲历技术浪潮变迁。我见证那些率先拥抱AI的同行,如何建立起效率与薪资的代际优势。如今,我将积累的大模型面试真题、独家资料、技术报告与实战路线系统整理,分享于此,为你扫清学习困惑,共赴AI时代新程。

我整理出这套 AI 大模型突围资料包【允许白嫖】:

  • ✅从入门到精通的全套视频教程

  • ✅AI大模型学习路线图(0基础到项目实战仅需90天)

  • ✅大模型书籍与技术文档PDF

  • ✅各大厂大模型面试题目详解

  • ✅640套AI大模型报告合集

  • ✅大模型入门实战训练

这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

在这里插入图片描述

①从入门到精通的全套视频教程

包含提示词工程、RAG、Agent等技术点

在这里插入图片描述

② AI大模型学习路线图(0基础到项目实战仅需90天)

全过程AI大模型学习路线

在这里插入图片描述

③学习电子书籍和技术文档

市面上的大模型书籍确实太多了,这些是我精选出来的

在这里插入图片描述

④各大厂大模型面试题目详解

在这里插入图片描述

⑤640套AI大模型报告合集

在这里插入图片描述

⑥大模型入门实战训练

在这里插入图片描述

如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能 ‌突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

👉获取方式:
有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐