重磅!AI Agents优化终极指南,最新综述一篇彻底搞懂!
LLM优化技术在许多通用任务中提升了模型性能,但缺乏针对AI Agents关键功能(如长期规划、动态环境交互和复杂决策)的专门优化。为此,华东师大等提供了对LLM的AI Agents优化方法的全面回顾,将其分为参数驱动和非参数驱动。
LLM优化技术在许多通用任务中提升了模型性能,但缺乏针对AI Agents关键功能(如长期规划、动态环境交互和复杂决策)的专门优化。为此,华东师大等提供了对LLM的AI Agents优化方法的全面回顾,将其分为参数驱动和非参数驱动。
15类AI Agents优化方法。参数驱动优化:涵盖基于微调的优化、基于强化学习的优化以及混合策略,非参数驱动策略:提示工程和外部知识检索。

一、参数驱动AI Agents优化
详细探讨了基于参数驱动的优化方法,这些方法通过调整大型语言模型(LLM)的参数来提升其作为智能体(agent)的性能。参数驱动的优化方法主要分为三类:传统的基于微调(fine-tuning)的优化、基于强化学习(reinforcement learning, RL)的优化,以及混合优化策略:

传统的微调方法通过调整预训练的LLM参数来适应特定任务,主要涉及以下步骤:

-
轨迹数据构建(Trajectory Data Construction):这是微调前的关键步骤,目的是生成与目标任务对齐的高质量轨迹数据。数据获取和生成方法包括专家标注数据、强大的LLM生成轨迹、自我探索环境交互轨迹和多智能体协作构建。每种方法都有其优势和局限性,例如专家标注数据质量高但成本高,而自我探索方法成本低但可能产生低质量轨迹。
-
基于轨迹的微调(Trajectory-based Fine-Tuning):微调过程通常结合一般指令数据和特定任务的轨迹数据,以确保模型在保留基础语言能力的同时,优化特定任务的性能。微调技术包括标准的监督式微调(SFT)、参数高效微调(如LoRA)和针对特定任务定制的微调策略。
-
基于强化学习的优化
强化学习方法通过与环境的交互来优化LLM智能体的行为,主要分为基于奖励函数的优化和基于偏好对齐的优化:

- 基于奖励函数的优化(Reward Function-based Optimization):利用明确的奖励信号来指导LLM智能体的行为优化。这些方法通常使用传统的强化学习算法,如PPO或Actor-Critic,通过环境反馈、模型生成的信号或自定义奖励函数来调整LLM的参数。例如,CMAT使用多智能体协作和Actor-Critic框架,而StepAgent结合了逆强化学习(IRL)和DPO+PPO来优化智能体行为。
- 基于偏好对齐的优化(Preference Alignment-based Optimization):这种方法不依赖于明确的奖励信号,而是通过偏好数据来优化智能体的行为,使其更符合人类偏好或特定任务目标。DPO是一种常用的技术,它通过比较偏好对来直接优化策略,而无需建模奖励函数。例如,DMPO通过替换策略约束为状态-动作占用度量(SAOM)约束来优化RL目标,而IPR使用DPO来优化智能体在每一步的行为。


混合微调策略结合了监督式微调和强化学习的优势,以克服单一方法的局限性。这些方法通常先通过监督式微调初始化智能体,然后使用强化学习进一步优化其策略。例如,ReFT、AgentGym和ETO等方法在监督式微调阶段使用高质量的专家轨迹数据进行初始化,然后在强化学习阶段使用PPO或DPO来优化智能体的行为。此外,一些方法采用迭代方法,交替进行监督式微调和强化学习阶段,以持续优化智能体的性能。
二、非参数驱动AI Agents优化
探讨了参数无关优化方法,通过调整输入、上下文或任务交互,而不是修改模型参数,来优化基于LLM的智能体行为。

基于经验的优化方法利用历史数据、轨迹或累积知识来改进LLM智能体。通过存储和分析成功与失败的经验,智能体能够提炼出有用的见解,从而优化策略、增强长期决策能力,并适应不断变化的任务。例如:
-
Optimus-1:利用多模态记忆模块,将探索轨迹转换为层次化的知识图谱,辅助智能体的任务规划和提示生成。
-
Agent Hospital:整合医疗记录库和经验库,根据成功和失败案例优化决策。
-
ExpeL:自动收集训练任务中的知识,并在推理时回忆这些知识。
-
基于反馈的优化
基于反馈的优化方法通过利用反馈进行自我反思、纠正和迭代改进来增强LLM智能体。这些方法分为三类:
- 自我反思优化(Self-Reflection Optimization):智能体利用环境或自身评估的反馈来识别改进领域,并通过自我纠正和进化来调整行为。例如:
- Reflexion:将任务结果或启发式评估转换为文本修正,集成到决策中。
- SAGE:检查器代理提供迭代反馈,助手代理生成自我反思。
- 外部反馈优化(External Feedback Optimization):利用外部模型、代理或框架的评估信号来优化行为。例如:
- Retroformer:使用回顾模型分析失败并提供改进反馈。
- COPPER:使用共享反思模块生成反事实反馈。
- 元提示优化(Meta-Prompt Optimization):通过迭代调整全局指令或元提示来增强智能体的泛化能力。例如:
- MetaReflection:从失败试验中提取信息,创建优化的提示。
- OPRO:通过分析任务准确性生成改进的指令。
LLM智能体能够利用外部工具(如计算器、搜索引擎、代码解释器等)来增强其解决问题的能力。优化工具使用和选择策略是提升智能体性能的关键。例如:
检索增强生成(RAG)通过动态整合外部知识,克服了预训练知识的局限性,提升了智能体在知识密集型任务中的表现。例如:
-
AutoRAG:自动化选择RAG模块,评估不同的检索技术和重排策略。
-
Self-RAG:结合检索与自我反思,智能体通过迭代反馈自适应地优化内容。
-
RaDA:利用过去的经验和动态检索分解任务,生成情境化的行动。
-
多智能体协作优化
多智能体框架通过分配角色和迭代互动来处理复杂任务,提升决策能力。例如:
- MetaGPT:通过多智能体协作模拟软件开发流程。
- ChatDev:分解任务为模块化阶段,通过角色协作优化软件开发。
- DyLAN:动态构建智能体网络,优化团队协作。
- Agentverse:提供多智能体协作和探索新兴行为的平台。


更多信息:《动手设计AI Agents:CrewAI版》、《高级RAG之36技》、新技术实战:中文Lazy-GraphRAG/Manus+MCP/GRPO+Agent、大模型日报/月报、最新技术热点追踪解读(GPT4-o/数字人/MCP/Gemini 2.5 Pro)
https://arxiv.org/pdf/2503.12434
A Survey on the Optimization of Large Language Model-based Agents
https://github.com/YoungDubbyDu/LLM-Agent-Optimization.
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多推荐


所有评论(0)