part1 第一章 初识智能体+part1 第二章 智能体发展史
《智能体技术演进与核心架构》摘要:本文系统梳理智能体技术发展历程与核心架构。智能体定义为具备感知-思考-行动闭环的目标驱动系统,其发展经历了符号主义(专家系统、SHRDLU)、联结主义(神经网络)、强化学习(AlphaGo)到LLM驱动的四代范式跃迁。现代LLM智能体融合神经符号主义,通过大语言模型实现规划、推理、工具调用等复杂功能。文章详细分析了智能体分类维度(决策架构/时间特性/知识表示)、运
·
第一章《初识智能体》要点总结
一、智能体核心概念
- 定义:通过传感器感知环境、通过执行器作用环境、具备自主决策能力、以目标为导向的实体
- 核心闭环:感知(Observation)→ 思考(Thought)→ 行动(Action)→ 反馈(Observation)
二、智能体的发展范式
1. 传统智能体(演进路径)
- 简单反射式:条件-动作规则(如恒温器)
- 基于模型:引入内部世界模型与记忆
- 基于目标:面向目标进行规划(如导航)
- 基于效用:多目标权衡,最大化期望效用
- 学习型智能体:通过强化学习自主优化策略(如 AlphaGo)
2. LLM 驱动智能体(新范式)
- 决策核心:大语言模型
- 优势:自然语言理解、隐式世界模型、工具调用、动态规划
- 特点:规划 + 推理 + 工具使用 + 自我修正
三、智能体分类维度
1. 按决策架构
- 反射式 / 模型式 / 目标式 / 效用式 / 学习型
2. 按时间与反应性
- 反应式:快、低成本、短视
- 规划式:慢、全局最优、计算成本高
- 混合式:分层或循环式(LLM Agent 主流)
3. 按知识表示
- 符号主义:规则清晰、可解释、脆弱
- 亚符号主义:神经网络、强感知、不可解释
- 神经符号主义:融合两者(LLM Agent 典型形态)
四、智能体运行机制
- Agent Loop:Perception → Thought → Action → Observation
- LLM Agent 输出结构:
- Thought:推理与规划
- Action:工具调用 / 最终回答
- 关键工程点:提示模板 + 工具接口 + 状态记录
五、PEAS 模型
- P:Performance(目标/评价)
- E:Environment(环境)
- A:Actuators(执行器)
- S:Sensors(传感器)
六、Workflow vs Agent
| 维度 | Workflow | Agent |
|---|---|---|
| 控制方式 | 规则驱动 | 目标驱动 |
| 灵活性 | 低 | 高 |
| 可解释性 | 强 | 较弱 |
| 适用场景 | 稳定、规则清晰 | 复杂、开放任务 |
七、习题参考要点
Case 分析
- A 超级计算机:❌ 非智能体(无感知/目标)
- B 自动驾驶紧急制动:✅ 反应式 + 混合式智能体
- C AlphaGo:✅ 学习型 + 规划式 + 效用型
- D 智能客服:✅ LLM 驱动 + 混合式 + 神经符号主义
智能健身教练(PEAS)
- P:达成健身目标、安全性、用户满意度
- E:人体生理状态、训练场景、饮食环境
- A:语音指导、计划调整、饮食建议
- S:心率、动作数据、历史记录
- 环境特性:部分可观察、随机性、动态、多智能体(用户)
电商退款:Workflow vs Agent
- Workflow 优点:稳定、可控、低风险
- Agent 优点:灵活、个性化、复杂决策能力强
- 适用:
- 规则明确 → Workflow
- 灰度判断、多因素 → Agent
- 方案 C:Workflow + Agent(Agent 做建议,人类/规则兜底)
旅行助手功能扩展思路
- 记忆:引入长期 Memory(用户画像)
- 备选方案:失败 → 自动重规划
- 反思机制:连续拒绝 → 更新策略/偏好权重
系统 1 / 系统 2 示例(医疗助手)
- 系统 1:影像初筛、异常检测
- 系统 2:诊断推理、治疗方案
- 协同:系统 1 提供候选,系统 2 做最终决策
LLM Agent 局限
- 幻觉来源:概率生成 + 不完整世界模型
- 无限循环风险:无终止条件会陷入自激推理
- 智能评估:
- 不仅是准确率
- 还包括:鲁棒性、泛化性、成本、可解释性、安全性
八、核心结论
Agent ≠ 自动化脚本
Agent 是具备感知、推理、规划与行动闭环的“目标驱动系统”,
LLM 正在成为通用智能体的“大脑”。
下一章:智能体的历史演进
第二章|智能体发展史 —— 系统化学习笔记(详尽版)
核心主线:
规则 → 分布 → 学习 → 预训练 → LLM Agent
每一代智能体,都是为了解决上一代“根本性痛点”而出现。
2.0 总览:问题驱动的范式演进
- 智能体发展并非线性升级,而是范式跃迁
- 每一代范式:
- ✅ 解决旧问题
- ❌ 引入新局限
- 理解历史 = 理解 为什么今天 Agent 需要是现在这种结构
2.1 符号主义时代(Symbolic AI)
核心信念
智能 = 符号表示 + 逻辑推理
- 智能体 = 物理符号系统
- 世界 → 符号化表示
- 推理 → 规则驱动搜索
- 无学习能力,一切来自人工设计
2.1.1 物理符号系统假说(PSSH)
提出者:Newell & Simon(1976)
两个核心论断
- 充分性论断
- 👉 任何物理符号系统 都能 实现通用智能
- 必要性论断
- 👉 任何通用智能系统 本质上 都是物理符号系统
含义
- 智能的本质是:
- 符号
- 操作符
- 搜索与推理
📌 影响:
- 奠定了专家系统、规划系统、早期 NLP 的理论基础
2.1.2 专家系统(Expert System)
架构
- 知识库(Knowledge Base)
- IF–THEN 产生式规则
- 推理机(Inference Engine)
- 正向链(数据驱动)
- 反向链(目标驱动)
MYCIN 案例
- 领域:细菌感染诊断
- 特点:
- ~600 条医学规则
- 引入 置信因子 CF
- 成就:
- 专业水平诊断性能
- 局限:
- 不可扩展
- 无法临床落地
2.1.3 SHRDLU:综合智能的早期范例
特点
- 微观世界(积木世界)
- 自然语言 ↔ 行动 ↔ 记忆 ↔ 推理
- 实现完整 感知–思考–行动闭环
能力
- 指代消解
- 上下文记忆
- 规划(多步动作)
- 行为解释(Why did you…)
📌 意义:
- 第一次系统级 Agent
- 启发后续智能体架构
2.1.4 符号主义的根本性挑战
1️⃣ 知识获取瓶颈
- 知识需人工编码
- 专家隐性知识难以形式化
- 不可规模化
2️⃣ 常识问题
- 常识数量巨大
- 无法穷举
- Cyc 项目证明其困难
3️⃣ 框架问题(Frame Problem)
- 行动后:
- 什么变了?
- 什么没变?
- 逻辑推理成本爆炸
4️⃣ 系统脆弱性
- 规则之外 = 系统失效
- 无泛化能力
📌 结论:
符号系统在开放世界中不可行
2.2 基于规则的聊天机器人:ELIZA
设计目的
- 不是理解人
- 而是证明:
“智能感”可以被规则伪造
工作机制
- 关键词识别(带优先级)
- 模式匹配(正则 + 通配符)
- 重组模板生成回复
- 代词转换
ELIZA 效应
- 用户“相信”系统理解自己
- 本质原因:
- 开放式问题
- 情感投射
- 人类补全意义
根本局限
- ❌ 无语义理解
- ❌ 无长期记忆
- ❌ 规则组合爆炸
- ❌ 无法维护
📌 数学视角:
- 规则数量 ~ O(语言组合空间)
- 近似指数级增长
2.3 马文·明斯基:心智社会(Society of Mind)
核心思想
智能不是一个系统,而是一个社会
2.3.1 对单一智能核心的反思
- 理解 ≠ 单一能力
- 常识 ≠ 规则集合
- 智能 ≠ 统一逻辑系统
2.3.2 智能作为协作体
基本单元
- 极简单、无心智 Agent
- GRASP
- SEE
- MOVE
机构(Agency)
- 多个 Agent 协作完成复杂功能
涌现
- 全局智能 ≠ 局部设计
- 来自局部交互
📌 类比:
- 神经元
- 社会分工
- 群体行为
2.3.3 对多智能体系统(MAS)的启发
- 去中心化控制
- 涌现式计算
- 社会交互机制
- 协商、通信、角色
📌 现代对应:
- CrewAI
- MetaGPT
- AutoGen
2.4 学习范式与现代智能体
2.4.1 联结主义(Connectionism)
核心思想
- 知识 = 权重分布
- 表示是隐式的
- 通过数据学习
优势
- 强感知能力
- 鲁棒性高
局限
- 推理弱
- 可解释性差
2.4.2 强化学习(RL)
核心特征
- 智能体 ↔ 环境
- 奖励驱动
- 试错学习
关键要素
- State
- Action
- Reward
- Policy
AlphaGo
- 自我对弈
- 长期回报优化
- 搜索 + 深度网络
📌 适用场景:
- 序贯决策
- 动态环境
2.4.3 预训练范式(Pre-training)
解决的问题
- 知识从哪来?
- 常识如何获得?
机制
- 自监督学习
- 海量文本
- 学语言规律 = 学世界
突破
- 知识获取瓶颈
- 泛化能力
- 少样本学习
2.4.4 LLM 驱动的智能体
核心组件
- LLM(推理中枢)
- Memory
- Planning
- Tool Use
- Execution
Agent Loop
更多推荐

所有评论(0)