一文读懂“上下文层”!AI Agent进阶必修课,从原理到架构,看完这篇全懂了!
摘要:企业AI的下一个万亿级机会在于构建"决策轨迹"系统,而非简单叠加AI功能。Foundation Capital报告指出,智能体需先解决"运营上下文"基础问题(身份归属、实体关系、时间变化和跨系统流转),才能有效记录决策逻辑。当前RAG和AI记忆平台存在结构性缺陷,无法满足组织知识的网状特性。Graphlit正打造基于开放标准的上下文基础设施,通过统一实
本文只做学术分享,如有侵权,联系删文
企业AI的下一个万亿平台,关键在捕捉“决策轨迹”(规则应用、例外审批、行动缘由),而非给现有记录系统加AI功能;
构建决策轨迹的前提是解决“运营上下文”问题——明确身份归属、实体关系、时间变化和跨系统信息流转,这是当前市场的核心缺口;
RAG和AI记忆平台无法满足需求,Graphlit正打造基于开放标准的上下文基础设施,成为企业智能体的“认知底座”。
以下内容来自对Graphlit上12月24日的一篇blog的观点翻译+提炼,作者Kirk Marple。
- 原文链接:https://www.graphlit.com/blog/context-layer-ai-agents-need
Foundation Capital近期发布的报告《Context Graphs: AI’s Trillion-Dollar Opportunity》,清晰勾勒出企业AI的未来方向。报告作者Jaya Gupta和Ashu Garg提出一个颠覆性观点:下一批万亿级平台,不会是给Salesforce、Workday这类传统记录系统叠加AI功能,而是源于一种全新的数据资产——决策轨迹。
所谓决策轨迹,记录的是规则如何应用、例外如何获批、行动为何被允许的完整过程。但鲜有人关注的是:捕捉决策轨迹的前提,是先解决“运营上下文”这个基础问题。智能体必须先搞懂“谁拥有什么、实体如何关联、事物何时变化、信息如何跨系统流动”,才能真正记录决策背后的逻辑。
而这个关键的基础层,在当前的AI生态中几乎是缺失的。
一、上下文图谱:不止是治理,更是全新记录系统
传统记录系统的核心是“记录对象”,比如CRM里的客户信息、财务系统的交易数据。但智能体的崛起,暴露了一个关键缺口:决策的“隐性逻辑”从未被系统化存储。
举个例子:某续约智能体突破10%的政策上限,提出20%的折扣方案。这个决策背后,可能整合了PagerDuty的故障历史、Zendesk的升级工单、过往类似案例的审批先例,最终经财务部门批准。但CRM系统里,只会留下“20%折扣”这一个冰冷的结果——支撑决策的输入、政策评估、例外流程、审批链条,全都凭空消失了。
Foundation Capital将这些散落的决策逻辑整合后的结构,称为“上下文图谱”:一个跨实体、跨时间的动态决策轨迹记录,让过往先例变得可查询、可复用。这不仅是更好的治理工具,更是一种全新的记录系统——它记录的是“决策”,而非单纯的“对象”。
二、智能体必备的两层上下文,多数企业都没有
构建上下文图谱,需要两个密不可分的上下文层,而这正是多数企业的短板:
运营上下文:决策的“土壤”
这是智能体理解组织现实的基础,包含四大核心:
- 身份解析:邮件里的“Sarah”、Slack提到的“陈女士”、会议记录中的“Sarah Chen”,是否是同一人?
- 权属与关系:Acme账户归谁负责?支付服务的对接工程师是谁?客服升级工单如何关联产品路线图?
- 时间状态:决策时的合同条款是什么?客户续约时的ARR(年度经常性收入)是多少?
- 跨系统整合:支持负责人结合CRM的客户等级、Zendesk的未结工单、Slack里的流失风险预警做出升级决策——这个整合过程从未被系统记录。
没有运营上下文,智能体就像没有地图的旅行者,即便拿到零散信息,也无法理解组织的真实运作逻辑。
决策上下文:运营上下文上的“建筑”
当运营上下文搭建完成,才能构建真正有价值的决策层:
- 决策轨迹:收集了哪些输入?评估了哪版政策?调用了什么例外条款?谁最终审批?
- 先例沉淀:遇到类似情况时,能快速查询“过往如何处理、结果如何”;
- 可审计性:不仅记录“发生了什么”,更留存“为何被允许发生”的完整上下文。
两者的关系很明确:运营上下文是地基,决策上下文是上层建筑。没有前者,后者就是空中楼阁。
三、为什么RAG和AI记忆平台行不通?
面对上下文缺口,市场给出了两种方案,但都存在结构性缺陷:
- RAG(检索增强生成):只能检索文本片段,而非组织认知。它能找到“Sarah提到API集成”的文档,但不懂Sarah的完整交互史、API集成涉及的跨团队关系,也无法串联起跨Slack、邮件、会议的对话演进——它存储的是“相似性”,而非“意义”。
- AI记忆平台:大多只存储与AI的聊天记录,无法建模实体、关系和时间状态。一句“用户讨论过Acme定价”,远不等于理解Acme作为客户的关系史、利益相关者图谱和决策轨迹。
问题的核心在于:组织知识本质是一张“图谱”——人关联账户、账户关联项目、项目关联决策、决策关联结果,且所有节点都随时间动态变化。而RAG和AI记忆平台,都把这种网状知识拆成了孤立的“文档”或“对话”,自然无法满足智能体的需求。
四、真正的运营上下文层,该是什么样子?
一个合格的运营上下文层,需要具备六大核心能力:
- 身份统一的实体:将人、组织、地点、事件建模为标准化实体(如遵循Schema.org规范),避免同一实体在不同工具中碎片化呈现;
- 多模态摄入:整合Slack、邮件、会议录音、文档、代码、CRM数据等30+来源,保留原始结构而非仅提取文本;
- 时间建模:不仅记录当前状态,更追踪实体和内容的演变过程、时间顺序;
- 关系映射:将“人属于组织”“文档关联项目”“决策涉及 stakeholders”等关系,作为核心数据记录;
- 智能体互操作性:通过标准协议(如MCP模型上下文协议)开放接口,适配各类智能体,不绑定单一厂商;
- 企业级部署:支持私有部署,满足数据治理和合规要求。
这正是Graphlit自2021年起专注解决的问题——打造智能体的“运营上下文层”,将企业零散的多模态数据,转化为身份统一、时序清晰的知识图谱。不同于传统文档存储,Graphlit保留了数据的结构、来源和时间属性,这正是运营上下文的核心价值所在。
五、从运营上下文到决策图谱:Graphlit的2026 roadmap
当前,Graphlit已实现核心的运营上下文能力:身份解析、实体提取、关系映射、时间建模,以及跨30+来源的多模态摄入。而2026年,Graphlit将向决策图谱进一步延伸:
- 以CRM为实体核心:借助Attio等客户实践,将账户、联系人、交易等CRM对象作为组织多模态内容的结构化骨架;
- 智能体记忆与决策日志:不仅记录智能体访问的内容,更捕捉其推理轨迹——收集了哪些输入、整合了哪些上下文、采取了哪些行动;
- 工作流埋点:依托已有的MCP服务器,从“上下文检索路径”延伸到“决策输出捕捉”,记录审批结果、例外情况、先例引用。
六、决策轨迹需要行业标准,而非厂商私有方案
LLM可观测性领域(如LangSmith、AgentOps)已形成成熟的执行轨迹记录标准,涵盖输入、输出、延迟、工具调用等技术指标。但决策轨迹需要更高维度的标准化——它关注的是“基于v3.2政策、经VP例外批准、参考先例Z做出决策”这类业务语义,而非技术细节。
如果每个平台都用私有 schema 记录决策,跨系统的先例查询将成为空谈。因此,决策轨迹需要像OpenTelemetry(可观测性标准)、Schema.org(实体标记标准)那样的行业规范。
而Graphlit早已布局:基于Schema.org和JSON-LD的标准化实体建模,使其能自然延伸到决策轨迹的标准化记录,无论行业最终收敛到哪种格式,都能无缝适配。
七、为什么现在是构建上下文层的最佳时机?
三大趋势的叠加,让上下文层成为企业AI的必争之地:
- ChatGPT引爆企业上下文需求:每个组织都想要懂自己业务的AI,而非基于公网数据的通用模型,这种需求真实且持久;
- MCP协议标准化智能体互操作性:一次构建上下文层,即可适配Cursor、Claude、自定义智能体等各类工具,无需重复开发;
- 智能体落地遇阻:企业纷纷试水智能体,但缺乏上下文层导致其推理不准、无法复用先例,治理手段难以解决根本问题。
八、结语
企业AI的下一个时代,核心是“让智能体理解组织”。而这一切的起点,就是构建运营上下文层——解决身份、关系、时间、跨系统整合的基础问题,让决策轨迹的捕捉成为可能。
Graphlit用三年时间搭建的上下文基础设施,正是在填补这个缺口。如果你正在部署的智能体,需要的是“理解组织”而非“检索文档”,那么上下文层,就是你不可或缺的起点。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多推荐



所有评论(0)