揭秘主流Agent框架:AI的’思考’真的是自主的吗?
文章揭示了当前主流Agent框架的"规划"本质:大多是通过提示词或代码预设,而非模型真正自主思考。分析了ReAct、MRKL、BabyAGI和AutoGPT等框架的规划机制,指出它们只是让模型"看起来像在思考"。实际应用中应根据场景选择将逻辑写在Prompt或程序中,常见采用混合模式。当前大模型尚不具备动态调整计划和持续修正目标的真正自主规划能力,未来需结合强化学习等技术实现。
今天聊一个最近在面试中非常容易被问到、但不少人答得“云里雾里”的问题**“大模型能自己做规划(Planning)**吗?”
别看这问题只有一句话,它其实考察的是你对 Agent 框架底层机制的理解深度。
很多候选人会脱口而出:“能啊,比如 AutoGPT、BabyAGI 都能自动规划任务。”
但面试官心里清楚:真正懂的人,知道那其实是“被提示词(Prompt)写死的规划”, 而不是模型自己“会想”。
今天我们就把这个话题讲透:
现在的 LLM 究竟怎么做规划? 哪些逻辑靠 Prompt 写死?哪些是模型真在思考? 实际落地该怎么选?

一、先看现状:大多数 Agent,其实是在“伪规划”
在目前主流的 Agent 系统里,不论是 ReAct、BabyAGI 还是 AutoGPT,核心的 “Planning(规划)” 都是写在 Prompt 或代码结构里的。
举个例子
You are an AI assistant. To complete tasks, always think step by step, consider tools you have, and reason before acting.Use this format:ThinkDecideActObserve
这其实就是在告诉模型如何“装作”会规划。
模型的每一步行动、观察、反思,都是在模板引导下按部就班地产生。 它并不是在“主动思考”,而是在“填空题”。
所以你看到 AutoGPT、BabyAGI 看起来很“自动”, 但其实是程序在背后强制规定了循环结构:
「任务 → 拆解 → 执行 → 记录 → 复盘 → 继续」 LLM 不过是负责生成每一步的文字描述。
现在的规划,不是 LLM 自己悟出来的,是我们写给它的。
二、那 LLM 能不能自己做规划?
能,但目前还不“靠谱”。
你可以试试让 GPT 做规划:
“帮我设计一个两周完成移动端小程序的计划。”
它确实能生成一套不错的步骤,但这只是“静态规划”——模型一口气生成一份结果。
而真正的“Agent 规划”,要求的是:
- 能动态调整计划;
- 能看环境反馈再决定下一步;
- 能持续修正目标。
这些,目前 LLM 靠自己还做不到。
所以我们才会看到各种框架都在帮它“补脑”:
- ReAct:让它“想一步,做一步”;
- MRKL:帮它“选工具”;
- BabyAGI:帮它“维护任务列表”;
- AutoGPT:帮它“循环执行命令”。
它们的本质都一样,让 LLM 看起来像在思考,其实是被程序框架“拎着走”。
三、落地思路:到底哪些逻辑写在 Prompt,哪些写在程序?
这是面试官最喜欢追问的一步。 你要能讲出一个“判断标准”,说明你真的理解 Agent 系统。
我把经验分成三类场景来讲:
1️⃣ 什么时候用 Prompt 让模型来规划?
适合让模型发挥创造性和灵活性的场景。
- 场景复杂、解法不确定比如“帮我策划一个促销活动”——这种开放性问题,让模型自由规划反而效率高。
- 频繁变化的流程如果你每周都要改规则,写死在代码里就太麻烦了,不如在 Prompt 里动态指示模型“根据上下文生成方案”。
- 发散思维 / 内容生成比如写文案、构思创意、生成提纲等,不需要完全确定的逻辑,Prompt 控制即可。
2️⃣ 什么时候要硬编码在程序里?
适合需要高可控性、合规性或安全性的场景。
- 流程固定、容错率低比如用户登录、实名认证、支付扣款,这类流程绝不能让模型自由发挥。
- 强合规场景法务、风控、医疗等业务,必须可追溯、可审计——流程要写死。
- 外部依赖多、需严格顺序执行例如涉及数据库操作、API 调用、任务分发等逻辑,必须程序化定义。
3️⃣ 现实中最常见的:混合模式
几乎所有成熟的系统都走的是这条路。
固定主干流程 + 局部灵活规划
比如:
- 主流程用代码固定(如订单→支付→发货);
- 某些环节(如回复客户、推荐方案)让模型通过 Prompt 来发挥。
这样既能保证安全,又能保留大模型的创造力。
四、实战案例讲透区别
为了让你在面试中能讲得有血有肉,我选几个典型场景👇
Case 1:电商客服机器人
- 程序定义部分
- 身份验证(账号、订单号)
- 售后流程(七天无理由退货)
- API 查询逻辑
- Prompt 调用部分
- 问答类客服对话
- 商品推荐、活动介绍文案
规则写死在代码里,语言交互交给模型。
Case 2:企业知识库问答
- 程序定义部分:权限控制、文档检索逻辑
- Prompt 调用部分:总结、对比、自然语言解释
模型负责“说人话”,程序负责“拿数据”。
Case 3:合同审查与合规审核
- 程序定义部分:法务规则、审批流、风险分级
- Prompt 调用部分:条款分析、修改建议
合规逻辑要定死,文字分析可交模型。
Case 4:内部项目管理 Agent
- 程序定义部分:任务分配、权限验证、提醒机制
- Prompt 调用部分:需求拆解、沟通建议、风险提示
程序管框架,模型管内容。
五、主流框架的“规划模块”到底怎么做的?
聊完应用,再看底层。
目前主流的 Agent 框架在“Planning”上的设计,大体分四派:
1️⃣ ReAct —— 即时规划(边想边做)
论文《ReAct: Synergizing Reasoning and Acting in Language Models》
**思路:**在 Prompt 模板里强制写出三步循环:Thought → Action → Observation → Thought → …
模型每次先思考,再执行,再观察结果,再思考下一步。
特点:
- “规划”嵌在循环中;
- 模型一步步决定下一步该干啥;
- 外部代码负责解析 Action 并实际执行。
ReAct 让模型像“人”一样边想边干,但走不出提示词设定的轨道。
2️⃣ MRKL —— 模块化推理系统
出自 OpenAI 示例框架 “MRKL System”
**思路:**模型像“中控大脑”, 面对一堆工具(天气API、计算器、数据库等), 通过推理决定“我该用哪个工具”。
**规划机制:**Prompt 里列出工具清单,让模型在每轮对话中决定调用哪个。
特点:
- 强依赖提示模板;
- 规划体现在“工具选择”上;
- 执行仍靠外部程序。
MRKL 是“我有很多工具,模型只负责挑”。
3️⃣ BabyAGI —— 任务循环调度器
GitHub 爆火项目,基于 LangChain + OpenAI
**思路:**维护一个任务列表(Task List), 循环执行:
- 执行当前任务;
- 根据结果创建新任务;
- 调整任务优先级;
- 重复。
核心模块:
- Task Creation Agent(新建任务)
- Task Prioritization Agent(任务排序)
- Execution Agent(执行任务)
特点:
- “规划”体现在任务生成和排序;
- 外部程序控制循环;
- LLM 只是在不断“补任务”。
BabyAGI 看似能自我成长,其实脚本早就帮它安排好了人生轨迹。
4️⃣ AutoGPT —— 强化版自动循环
**思路:**给定目标后,模型能自己:
- 搜索网络、执行命令、读写文件;
- 自我总结、更新计划、继续执行。
**规划机制:**在代码里写死了“主循环”:
- 生成下一个 Action;
- 执行;
- 记录;
- 反馈给模型;
- 再生成下一个 Action。
特点:
- 模型负责生成命令;
- 代码负责执行与记忆;
- 整体像在“模拟自由意志”。
AutoGPT 是“最像 AI 自己行动”的框架,但其实每一步都被写好了格式。
六、如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

2025年大模型应用呈现爆发式增长,根据工信部最新数据:
国内大模型相关岗位缺口达47万
初级工程师平均薪资28K(数据来源:BOSS直聘报告)
70%企业存在"能用模型不会调优"的痛点
真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!
02.大模型 AI 学习和面试资料
1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工
📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)






第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多推荐



所有评论(0)