前言

核心观点:

  1. 从“说对话”到“做成事”:这篇论文定义了 AI Agent 的下一阶段。我们熟悉的 RLHF 是为了让模型“说对话”(对齐人类偏好),而 Agentic RL 是为了让模型在真实动态的世界里“做成事”(完成复杂任务)。这意味着 Agent 的训练场不再是静态的文本,而是网页、代码库、操作系统等活生生的环境。
  2. 从“模仿”到“策略”:过去的 Agent 靠监督微调(SFT)来“模仿”人类如何使用工具或规划。而 Agentic RL 让 Agent 从模仿者进化为 策略家。它不再是死记硬背“遇到A就做B”,而是学会在权衡利弊后,策略性地决定 何时、如何以及为何要行动,从而在未知情况中找到最优解。
  3. Agent 开始“自我进化”:Agentic RL 催生了 Agent 的 自我进化循环。通过在环境中探索、从成功或失败的反馈中学习(例如代码执行结果、任务完成情况),Agent 可以实现无监督的持续自我提升。这就像 AlphaGo 的“左右互搏”,是通往通用人工智能的一条关键路径。
  4. Agent 开发进入“深水区”:简单基于提示词(Prompt)构建 Agent 的时代正在过去。未来的竞争将是“学习系统”的竞争。要构建真正强大、可靠的下一代 Agent,掌握强化学习(RL)将不再是“加分项”,而是“必需品”。Agent 开发的门槛和上限,都因此被大大提高了。

引言:Agent 进入深水区

如果你关注 AI 领域,一定能感受到 AI Agent 的热度。从 AutoGPT 的惊艳亮相,到 Devin 的横空出世,再到各大厂商纷纷布局,Agent 似乎正在从一个“玩具”变成一个真正能“干活”的生产力工具。

然而,随着探索的深入,我们发现简单的 Prompt Engineering 和基于静态数据集的微调(SFT)已经难以满足复杂、动态任务的需求。Agent 的发展正进入“深水区”。

阅读近期的一篇综述 《The Landscape of Agentic Reinforcement Learning for LLMs: A Survey》 的感受:Agent 越来越卷了!现在大家都开始用强化学习(RL)这种更强大的武器来增强 Agent 的能力了。

这篇论文系统性地梳理了如何利用强化学习将大语言模型(LLM)从一个被动的文本生成器,转变为一个能在复杂动态世界中自主决策的智能体(Agent)。它不仅清晰地指出了当前 Agent 各个核心能力(如规划、工具使用、记忆等)的技术现状,还为我们揭示了未来的研究方向。

核心概念:从 LLM-RL 到 Agentic RL 的范式转移

论文提出的 Agentic RL 和我们熟知的 传统 LLM-RL(比如用于对齐的 RLHF)有什么本质区别?

论文用了一个非常精妙的形式化定义来解释这个范式转移:

  • 传统 LLM-RL (如 RLHF) 可以被看作一个 **退化的、单步的马尔可夫决策过程 (Degenerate MDP)**。
  • 环境 (Environment) 一个固定的 prompt。
  • 动作 (Action) 生成一段完整的文本回复。
  • **决策过程 (Process)**:一步到位,生成即结束。
  • 目标 (Objective) 最大化单次回复的奖励(比如,更符合人类偏好)。
  • 本质 LLM 是一个 被动的序列生成器,为“说对话”而优化。
  • Agentic RL:被建模为一个 **部分可观察的、时间上延伸的马尔可夫决策过程 (POMDP)**。
  • 环境 (Environment) 一个动态、复杂、部分可知的真实世界或模拟器(如网页、代码库、操作系统)。
  • 动作 (Action) 不仅是生成文本,还包括调用工具、执行命令、查询记忆等结构化动作。
  • 决策过程 (Process) 一个持续的、多步骤的“观察-思考-行动”循环。
  • 目标 (Objective) 最大化完成一个长远任务的累积奖励(比如,成功预订一张机票、修复一个软件 Bug)。
  • 本质 LLM 是一个 自主的决策智能体,为“做成事”而学习。

简单来说,Agentic RL 的核心,就是用 RL 来训练 LLM 在一个真实的、多步骤的循环中,学会如何更好地思考、规划和行动,最终完成一个复杂的目标。

强化学习速查表

这个表格是一个 现代LLM强化学习算法的“速查表”或“族谱”。它对比了 PPO、DPO、GRPO 这三个算法家族的流行变体,核心目的是揭示它们各自的设计哲学、关键机制和适用场景

简单来说,这三大算法家族的理念可以概括为:

  1. PPO (ProximalPolicyOptimization)经典、稳健但昂贵。它是基于“奖励(Reward)”的策略梯度方法,通过一个“评论家(Critic)”网络来评估每一步的好坏,从而指导“演员(Actor)”网络(也就是LLM本身)进行优化。
  2. DPO (DirectPreferenceOptimization)巧妙、轻量但依赖数据。它完全抛弃了独立的奖励模型和评论家网络,直接从“偏好数据(Preference Data)”(比如“回答A比回答B好”)中学习,大大简化了训练流程。
  3. GRPO (Group RelativePolicy Optimization)高效、折衷且前沿。它借鉴了PPO的稳定性,但又像DPO一样抛弃了昂贵的评论家网络。它的核心思想是:在同一批次(Group)内生成的多个回答中,通过比较它们的相对好坏来计算优势,从而进行优化。这被认为是当前在效率和性能之间取得了极佳平衡的方案。

用 RL 武装 Agent 的六大核心能力

这张图可以看作一个三层结构的“雷达图”或“心智图”:

  1. 核心 (Center) 最中心是 **“RL empowers Agentic LLM”**(RL 赋能 Agentic LLM),点明了全图的主题。
  2. 内圈 (Inner Ring) 围绕核心的是 Agent 的 六大核心能力:推理 (Reasoning)、记忆 (Memory)、自我提升 (Self-Improve)、规划 (Planning)、感知 (Perception) 和工具使用 (Tool Use)。这代表了构成一个高级智能体的基本要素。
  3. 外圈 (Outer Ring) 最外层详细列出了在每个能力上,RL 具体是如何应用的,并给出了代表性的技术方向或模型案例。

强化学习(RL)是提升 Agent 六大核心能力的关键驱动力,并且在每个能力上都有具体且不同的应用范式。

1. 规划能力 (Planning)
  • 过去 (非 RL) 主要依靠 Prompt Engineering,比如著名的 ReAct 框架,通过 few-shot 示例引导模型进行“思考-行动-观察”。这种方式僵化,难以适应新情况。
  • 现在 (RL 增强)
  • RL 作为外部向导:LLM 负责生成候选计划步骤,另一个由 RL 训练的奖励模型或启发式函数来评估这些步骤的好坏,从而指导蒙特卡洛树搜索(MCTS)等传统搜索算法。
  • RL 作为内部驱动:将 LLM 本身作为策略网络,直接用环境的反馈(成功/失败)通过 RL 算法(如 PPO/DPO)来微调模型参数,让模型从经验中直接学会如何规划。
  • 未来 (Prospective) 将外部搜索与内部策略融为一体。Agent 不仅能生成计划,还能 学会如何进行规划,比如动态决定何时需要深入思考、何时可以快速决策,实现直觉(快)与深思(慢)的结合。
2. 工具使用 (Tool Using)

  • **过去 (非 RL)**:同样是 ReAct 风格的 Prompt,或者在静态的“工具调用轨迹”数据集上进行监督微调(SFT),如 Toolformer。这本质上是模仿,缺乏策略性和泛化能力。
  • **现在 (RL 增强)**:**工具集成推理 (Tool-Integrated Reasoning, TIR)**。RL 的目标不再是模仿,而是优化最终任务的成功率。Agent 学会了 策略性地 决定何时、如何以及使用何种工具组合。即使从零开始,RL 也能让 Agent 涌现出自我纠错、组合工具等高级行为。如今,这已成为高级 Agent(如 OpenAI o3, Kimi K2)的标配。
  • 未来 (Prospective)长时序的工具集成推理。当前 RL 主要优化单轮推理循环,但在需要几十上百步才能完成的复杂任务中,如何将最终的成功/失败奖励合理地分配给中间的某一次工具调用(即 时间信用分配 问题),是目前最大的挑战。
3. 记忆 (Memory)

  • 过去 (非 RL) 将记忆视为外部静态数据库(如向量数据库),通过固定的规则(如语义相似度)进行读写,如 MemoryBank, MemGPT。
  • 现在 (RL 增强) RL 将记忆模块从被动存储转变为 动态的、可控的子系统
  • RAG 风格记忆:RL 策略决定 何时 以及 如何 调整检索行为。
  • Token 级记忆:RL 策略直接控制一个“记忆池”(可以是自然语言或隐状态向量),决定 什么信息值得保留、什么可以遗忘,从而动态压缩和管理上下文。
  • 未来 (Prospective)RL 用于结构化记忆。未来的 Agent 记忆将是更复杂的结构,如知识图谱。如何用 RL 来学习动态地构建、更新和推理这些结构化记忆,是一个充满想象力的开放方向。
4. 自我提升 (Self-Improvement)
  • 过去 (非 RL) **口头自我纠正 (Verbal Self-correction)**。通过 Prompt 指导模型“反思”自己的输出并进行迭代修正,如 Reflexion, Self-Refine。这种提升是临时的,仅在单次推理中有效。
  • 现在 (RL 增强)
  • 内化自我纠正:使用 RL 将“反思-修正”的成功经验通过梯度更新 内化 到模型参数中,让模型真正学会自我反思。
  • 迭代自训练:这是最前沿的方向,Agent 进入一个 自我驱动的无限进化循环。它自己生成问题(课程),尝试解决,通过可验证的反馈(如代码执行结果)获得奖励,然后用 RL 提升自己,完全无需人类标注数据。这让人联想到 AlphaZero 的自博弈思想,如 Absolute Zero, Self-Evolving Curriculum 等工作。
  • 未来 (Prospective) 元进化 (Meta Evolution)。不仅用 RL 学习如何纠正错误,还要用 RL 学习 如何更有效地学习。Agent 可以学会动态选择反思策略,从而实现学习能力的自我进化。
5. 推理 (Reasoning)

论文借鉴了认知科学的“双系统理论”,将推理分为快、慢两种。

  • 快推理 (Fast Reasoning) 类似人类直觉,快速、一步到位地给出答案。这是大多数标准 LLM 的模式,高效但容易出错和产生幻觉。
  • 慢推理 (Slow Reasoning) 类似人类深思熟虑,通过生成中间步骤(如 Chain-of-Thought)来进行结构化、多步的推理。虽然慢,但更准确、更可靠。
  • RL 的作用:RL,特别是基于验证器反馈的 RL 算法(如 GRPO),被证明是训练 “慢思考” 能力的利器。DeepSeek-R1, OpenAI o1/o3 等模型都从这种训练中获益匪浅,学会了生成更长、更可靠的推理链。
  • 未来 (Prospective) 将快慢推理结合,让 Agent 学会根据任务难度自适应地选择推理模式,在效率和准确性之间取得最佳平衡。
6. 感知 (Perception)

对于多模态 Agent,RL 正在推动其从 被动感知(看图说话)走向 主动视觉认知(带着思考去看图)。

  • RL 的作用
  • 激励主动探索:通过 RL 奖励,鼓励模型在推理过程中反复“回看”和“聚焦”图像的关键区域 (Grounding)。
  • 学会使用视觉工具:训练模型使用图像编辑、裁剪等工具来辅助推理。
  • 学会视觉想象:训练模型生成草图或中间图像来辅助解决问题,就像人类画图辅助思考一样。

Agentic RL 的任务应用版图

理论最终要落地。论文展示了 Agentic RL 在多个前沿领域的具体应用,这些应用场景正是 Agent 大展拳脚的舞台。

  • 搜索与研究 Agent (Search & Research) Agent 不再是简单的 RAG,而是能自主进行深度研究的助理。它能自主规划搜索策略、分解问题、综合多源信息并撰写报告。RL 在这里优化从查询生成到信息综合的全流程。
  • 代码 Agent (Code Agent) 这是 Agentic RL 的理想试验场,因为代码的反馈(编译是否通过、单元测试是否成功)是即时且明确的。从单函数生成,到迭代调试,再到完整的软件工程(SWE),RL 都能通过执行反馈来训练 Agent 成为更可靠的程序员。
  • 数学 Agent (Mathematical Agent) 无论是需要代码执行的非形式化数学推理,还是在 Lean 等证明器中进行严格的形式化定理证明,RL 都被用来指导 Agent 在巨大的搜索空间中寻找正确的解题路径或证明策略。
  • GUI Agent:操作图形用户界面(如网页、App、操作系统)是 Agent 的一个重要方向。RL 让 Agent 可以在真实或模拟的 GUI 环境中通过“试错”来学习如何完成任务,例如在安卓模拟器中预订餐厅。
  • 多智能体系统 (Multi-Agent Systems, MAS) Agentic RL 不仅能优化单个 Agent,还能训练多个 Agent 如何更有效地协作、沟通和分工,从固定的协作模式走向动态自适应的团队合作。

Agent 的未来之路

Agent 的发展已经从“有什么能力”的展示阶段,进入了“如何系统性地提升能力”的工程和科学阶段。Agentic RL 正是这其中的核心驱动力。

结合我自己的思考,未来的 Agent 发展可以归纳为以下几个方向:

  1. 对于单个 Agent 或其核心组件(如规划、工具使用模块)的开发者而言
  • 最终都要上 RL。SFT 提供了基础能力,但要让 Agent 在动态环境中变得更智能、更鲁棒,RL 是必经之路。它能让 Agent 从“死记硬背”的模仿者,变成一个能“举一反三”的学习者。
  1. 对于构建复杂 Agent 系统的开发者而言
  • 软件工程是骨架,RL 是灵魂。一个强大的 Agent 系统,离不开优秀的软件架构设计(如模块化、通信机制)。但在这个骨架之上,RL 赋予了系统学习和进化的能力,让各个模块能更好地协同工作。
  1. 对于打造 Agent 产品的开发者而言
  • 回归经典的软件开发法则,但内核已然不同。最终面向用户的产品,依然要考虑高性能、高可用、用户体验等传统软件工程问题。但产品的核心竞争力,将越来越多地来自于其内部 Agent 的智能水平——而这,正是 Agentic RL 所要解决的问题。

论文也指出了未来的巨大挑战,如 Agent 的安全性与可信赖性(如何防止 RL 训练出“钻空子”的 Agent?)、训练的计算和数据成本、以及如何构建更复杂、更逼真的训练环境等。

最后

为什么要学AI大模型

当下,⼈⼯智能市场迎来了爆发期,并逐渐进⼊以⼈⼯通⽤智能(AGI)为主导的新时代。企业纷纷官宣“ AI+ ”战略,为新兴技术⼈才创造丰富的就业机会,⼈才缺⼝将达 400 万!

DeepSeek问世以来,生成式AI和大模型技术爆发式增长,让很多岗位重新成了炙手可热的新星,岗位薪资远超很多后端岗位,在程序员中稳居前列。

在这里插入图片描述

与此同时AI与各行各业深度融合,飞速发展,成为炙手可热的新风口,企业非常需要了解AI、懂AI、会用AI的员工,纷纷开出高薪招聘AI大模型相关岗位。
在这里插入图片描述
最近很多程序员朋友都已经学习或者准备学习 AI 大模型,后台也经常会有小伙伴咨询学习路线和学习资料,我特别拜托北京清华大学学士和美国加州理工学院博士学位的鲁为民老师给大家这里给大家准备了一份涵盖了AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频 全系列的学习资料,这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

AI大模型系统学习路线

在面对AI大模型开发领域的复杂与深入,精准学习显得尤为重要。一份系统的技术路线图,不仅能够帮助开发者清晰地了解从入门到精通所需掌握的知识点,还能提供一条高效、有序的学习路径。

img

但知道是一回事,做又是另一回事,初学者最常遇到的问题主要是理论知识缺乏、资源和工具的限制、模型理解和调试的复杂性,在这基础上,找到高质量的学习资源,不浪费时间、不走弯路,又是重中之重。

AI大模型入门到实战的视频教程+项目包

看视频学习是一种高效、直观、灵活且富有吸引力的学习方式,可以更直观地展示过程,能有效提升学习兴趣和理解力,是现在获取知识的重要途径

在这里插入图片描述
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

海量AI大模型必读的经典书籍(PDF)

阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。
在这里插入图片描述

600+AI大模型报告(实时更新)

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
在这里插入图片描述

AI大模型面试真题+答案解析

我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下
在这里插入图片描述

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐