收藏学习:大模型应用开发中提示词工程与上下文工程的核心区别与应用
文章解析AIGC应用开发中提示词工程(关注单次对话质量)与上下文工程(关注多轮交互连贯性)的区别。不同应用类型需求不同:聊天助手、Agent和Chatflow依赖上下文工程,工作流和文本生成更需提示词工程。提供系统提示词的Role-Goal-Rules-Few-Shot框架及上下文工程策略,帮助开发者优化AIGC应用性能。
摘要:在AIGC 应用开发的时候我们通常会遇到两个名词提示词工程和上下文工程,而且在dify的配置上我们也会看到这两个按钮,但是他们是什么关系的,各自对于AIGC应用影响的程度是怎样的?今天我们来详细分析一下。
是否会也有疑问,提示词工程和上下文工程有什么区别?
要简单区分这两者,可以这样理解:
提示词工程,关乎“如何问一个好问题”。
它专注于单次对话的质量,核心是精心设计你的提问方式和指令例如在dify的LLM组件中的系统提示词和用户提示词,以求从大模型那里获得一个直接、准确、高质量的回答。
上下文工程,则关乎“如何维持一场有深度的对话”。
它专注于多轮交互****的连贯性与智能性。其核心任务是在复杂的对话或Agent执行过程中,动态地管理与筛选AI所能接触到的背景信息——这包括系统指令 system prompt,user prompt、可用工具 tool 、MCP服务,外部数据例如搜索新闻组件返回的数据以及完整的对话历史。它的最终目标,是用最精炼且相关的“记忆”,引导AI持续输出符合我们期望的行为,避免它“遗忘”或“跑偏”。
这样说,提示词工程是上下文工程中的一部分。
那么是否会有一个疑问,在dify的各种应用中,提示词工程和上下文工程对哪些应用类型有影响了?
我们其实已经很清楚dify的工作室中的应用类型有,聊天助手,agent,chatflow、工作流、文本生成,这几种类型,我们从这几种类型中是否有多轮交互,则可以判断不同应用类型是否受上下文工程的影响。
首先我们先给出一个结论:
| 应用类型 | 是否支持多轮交互 | 是否对上下文工程有要求? |
| 聊天助手 | 是,核心特性 | 要求极高 |
| agent | 是,核心特性 | 要求极高 |
| chatflow | 是, | 要求极高 |
| 工作流 | 否 | 无要求,对提示词工程有要求 |
| 文本生成 | 否 | 无要求,对提示词工程有要求 |
那么我们来详细说明一下,这几种类型为什么不同的应用类型对上下文工程有不同的需求:
1. 多轮交互支持分析
a. 聊天助手 & Agent:核心支持
这两种类型是为多轮对话而生****的。
- 聊天助手:这是最经典的对话式应用。用户说一句,AI回复一句,并且能记住之前的对话内容,形成连贯的交流。它天然地维护着一个对话历史,这是实现多轮交互的基础。
- Agent:智能体是更高级的“聊天助手”。它不仅支持多轮对话,还在此基础上增加了自主规划和工具调用的能力。例如,用户说“帮我查一下今天北京的天气,然后规划一个户外活动”,Agent可能会先调用天气工具,再根据结果调用搜索工具,最后生成回答。这个过程本身就是多轮的(用户 -> Agent -> 工具 -> Agent -> 用户),并且依赖于对上下文的深度理解。
b. 工作流:有条件支持
工作流本身是一个有向无环图,它是否支持多轮交互,取决于你是否在流程中集成了 “对话”节点。
- 不带对话节点的工作流:更像一个单次执行的函数。你输入一组参数,它运行整个流程,输出一个结果,然后结束。例如,一个“新闻稿生成”工作流,你输入主题,它输出文章,对话结束。
- 带对话节点的工作流例如chatflow:当你将**“对话”节点作为工作流的一部分时,这个工作流就具备了多轮交互的能力**。
- 此时,工作流可以:
- 记住历史对话,大模型组件中的记忆组件。
- 在每一轮中,将用户问题和工作流中其他节点(如数据库查询、代码执行)的结果相结合,生成回复。
- 这使得工作流可以构建非常复杂的、基于状态的对话应用。
c. 文本生成:通常不支持
文本生成应用被设计为单次请求-响应****模式。你提供一段提示词和内容,它生成一篇文本(如文章、邮件、摘要),任务就完成了。它默认不维护对话历史,每次请求都是独立的。
这里我们,我们就引出一个问题,什么样的提示词是好的提示词工程,应该怎么书写,以及优化方向是怎么样的?
如何写好一份“黄金系统提示词”?
写好系统提示词并非难事,我们可以遵循Role-Goal-Rules-(Few-Shot)。核心在于清晰、具体、无歧义。你可以遵循以下框架:
1. 明确角色与身份
这是最重要的第一步。清晰地告诉AI:“你现在是……”
- 示例:“你是一位拥有10年经验的资深软件架构师,擅长用通俗易懂的语言解释复杂的技术概念。”
2. 定义核心任务与目标
明确你希望AI完成的具体任务是什么,最终要达到什么目的。
- 示例:“你的任务是分析用户提供的业务需求,并给出推荐的技术栈方案。目标是让非技术背景的决策者也能理解方案的优劣。”
3. 设定规则与约束
这是防止AI“放飞自我”的关键。你需要划定它的行为边界。
- 格式规则:“请用Markdown格式输出,包含标题、要点列表和总结。”
- 内容规则:“只讨论后端技术,不要涉及前端框架。”
- 风格规则:“语气保持专业、中立,避免使用比喻和俚语。”
- 安全规则:“拒绝回答任何与黑客技术相关的问题。”
这里设定规则和约束,尽量写肯定句,而非否定句,例如“不允许出现,不能出现,静止等术语,有时候大模型可能无法理解否定句,或者即使你写了否定句,它也可能不会遵循,实测经验,大家可以参考。
4. 提供示例(Few-Shot Learning)
“授之以鱼不如授之以渔”,直接给AI一个或几个输入输出的范例,是让它快速理解你期望的最有效方式。
- 示例:
- 用户输入:“我们需要一个能处理高并发订单的电商系统。”
- AI输出(示例):“推荐技术栈:… 理由:…”
5. 结构化输出
尽管当前的大模型理解能力越来越强,即便面对未经仔细排版的“自然描述式”提示词,也能给出不错的回答。但有意识地使用结构化提示词,仍然是一个好习惯,易于读懂,并且可以少量提升大模型的性能。使用或##title式的 XML 标签 / Markdown 语法,分割不同指导作用的提示词。
具体示例:邮件写作助手
假设你需要一个帮助撰写专业邮件的 AI 助手,以下分别是非结构化、XML结构化和Markdown结构化的写法,您可以直观感受其中的差异。
1. 非结构化提示词(自然描述)
你是一个专业的邮件写作助手,负责帮我起草和回复工作邮件。邮件需要简洁、礼貌、专业。如果用户提供了关键信息,请将其融入邮件中。如果用户的信息不完整,你必须反问用户以获取缺失的细节,不能自行编造。最后,请用清晰的布局输出邮件正文。
2. 使用 XML 标签的结构化提示词
<role>你是一名专业的邮件写作助手,擅长撰写简洁、礼貌、专业的工作邮件。</role><core_task>根据用户提供的信息,起草或回复一封完整的邮件。</core_task><rules>1. 严格基于用户提供的信息进行创作。2. 如果发现信息不完整(例如缺少时间、地点、负责人等),必须主动向用户提问,严禁自行捏造。3. 邮件语气应始终保持专业与礼貌。</rules><output_format>直接输出完整的邮件正文,布局清晰,段落分明。</output_format>
3. 使用 Markdown 标题的结构化提示词
# 角色你是专业的邮件写作助手,擅长撰写简洁、礼貌、专业的工作邮件。# 核心任务根据用户提供的信息,起草或回复一封完整的邮件。# 规则与约束- **严格依据** :严格基于用户提供的信息进行创作。- **主动澄清** :如果发现信息不完整(例如缺少时间、地点、负责人等),必须主动向用户提问,严禁自行臆造。- **沟通语气** :邮件语气应始终保持专业与礼貌。# 输出格式直接输出完整的邮件正文,布局清晰,段落分明。
如果你对回复的格式有严格要求,一定要明确说明。
- 示例:“你的回答必须遵循以下结构:
- 一、核心观点;
- 二、分点论述(至少3点);
- 三、行动建议。”
6. 迭代与优化
很少有提示词能一次完美。将AI的回复视为测试结果,根据其不足不断调整和优化你的系统提示词。这是一个动态磨合的过程。迭代的方向也是需要遵循这几个规则。
系统提示词的规则我们讨论清楚了,那么上下文工程的策略是什么?。
刚刚我们也说明白了,上下文工程包括系统指令 system prompt,user prompt、可用工具 tool 、MCP服务,外部数据例如搜索新闻组件返回的数据以及完整的对话历史。那么整体的上下文工程的策略是:
1、系统指令system prompt一定要参照之前的规则,并且复杂任务尽量拆分成不同的小的agent,这样每个不同的agent里面的系统指令就非常清晰。避免系统指令太复杂,越复杂的系统指令,大模型能够处理成功的概率越大低且性能越差。****
2、可用工具 tool 、MCP服务都是属于工具类型,尽量引用的精准少量的工具,这里有几个衡量准则:
- 工具间不能有重叠部分
- 可以清楚的描述什么时候调用哪一个工具
- 每个agent围绕核心任务调用的工具,不需要依赖其他工具即可以完成,不能有工具依赖关系。
3、rag检索的数据属于外部数据返回1-3个分段最佳:rag数据提供给大模型的上下文必须精准且长度不能太长,能够回答问题,如果是长度为300个字符,rag返回的分段结果必须在1-3个分段之间最好,rag返回的数据越长,可能大模型最后能够识别处理的内容以及生成的结果就不一定贴合问题。
4、历史对话可以采用自动压缩和结构化笔记的方式存储到外部存储,定时从这些压缩的内容或者目录检索到历史对话,可以快速的定位到历史聊天记录,避免把所以的历史记录全部推送给大模型,让大模型迷失在历史聊天记录里面了。在dify中有个配置按钮,缓存历史了解记录的按钮,尽量配置成5-10,不要超过10.
那么在dify中它的上下文工程配置涉及哪些了?下面是大模型组件中相关的配置:


这里包括 上下文输入框:这里可以填入rag检索的内容,也可以是工具返回的内容。接下来就是系统提示词、用户提示词、助理提示词、记忆功能就是历史聊天记录。
而对于聊天助手、agent,那么它的上下文工程就包括系统提示词、知识库、工具这些内容。

总结与选择建议
- 如果你需要纯对话、或需要AI自主使用工具完成复杂任务:
- 选择 聊天助手或 Agent。
- 你必须高度重视系统提示词和RAG内容、工具、记忆等配置,这是应用好坏的决定性因素。
- 如果你需要构建一个复杂、确定性强、且需要与外部系统(数据库、API)交互的对话应用:
- 选择chatflow。
- 你必须具备强大的上下文工程能力,亲自设计和组装数据流与提示词,将合适的上下文在合适的节点传递给LLM。
- 如果你的场景是单次任务,不需要记忆历史:
- 选择 文本生成、工作流。
- 你的上下文工程重点在于精炼你的输入提示词,而不是管理历史。
简单来说,支持多轮交互的模式,无一例外都对上下文工程有很高的要求。区别在于,聊天助手/Agent提供了开箱即用的管理策略,而chatflow则为你提供了自己动手搭建更复杂上下文管道的强大工具。
普通人如何抓住AI大模型的风口?
领取方式在文末
为什么要学习大模型?
目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。
目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过 30%。
随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:
人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!
最后
只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!
在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发
大模型全套学习资料展示
自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。

希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!
01 教学内容

-
从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!
-
大量真实项目案例: 带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
02适学人群
应届毕业生: 无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型: 非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能突破瓶颈: 传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。

vx扫描下方二维码即可
本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!
03 入门到进阶学习路线图
大模型学习路线图,整体分为5个大的阶段:
04 视频和书籍PDF合集

从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)
05 行业报告+白皮书合集
收集70+报告与白皮书,了解行业最新动态!
06 90+份面试题/经验
AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)

07 deepseek部署包+技巧大全

由于篇幅有限
只展示部分资料
并且还在持续更新中…
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发
更多推荐

所有评论(0)