震惊!CARL算法让AI智能体“开窍“:只学关键动作,性能效率双提升
CARL,即关键行动聚焦强化学习。CARL专为多步智能体量身定制,摒弃了低效的“一刀切”模式。其指导理念是将计算资源和学习信号集中用于决定最终结果的高关键性行动。如图3所示,传统强化学习与CARL的差异判若云泥。像GRPO这样的算法将整个轨迹视为一个整体块进行奖励分配,而CARL则对过程进行剖析。定向探索:CARL识别关键决策点,并从这些状态“分叉”进行探索,生成替代行动序列,以理解在这些关键节点
本文提出CARL强化学习算法,通过识别并专注训练对最终结果影响最大的"关键行动",而非传统强化学习的"一刀切"方式。CARL利用模型不确定性(熵)定位关键决策点,仅针对高关键性行动进行训练,避免资源浪费。实验表明,CARL在多个基准测试中性能优于传统方法,训练效率提升140%,且智能体解决问题更直接经济。这种聚焦式学习为多步AI智能体训练提供了新范式。
一、“一刀切”强化学习在多步智能体中的局限性
基于大语言模型的智能体崛起,标志着人工智能领域的重大飞跃。这些智能体如今能够通过与环境互动来解决复杂的多步问题,例如使用网页浏览器和搜索引擎收集信息并推理出答案。推动其进步的关键技术是强化学习,该技术使智能体能够从交互中自主学习与自我改进,而无需持续的人类监督。
然而,当前许多强化学习方法建立在一个存在根本缺陷的前提之上。诸如用于训练推理模型的群体级策略优化等流行算法,都在“一刀切”的假设下运行。它们将智能体行动序列中的每一步都视为同等重要。当智能体完成任务后,最终的结果奖励会被均匀分配给所有先前的行动。

试想一个搜索智能体试图回答“Ruth Scurr的丈夫毕业于哪里?”的问题。如论文表1所示,其过程可能包括:初次搜索、阅读文档、意识到找错了人、执行更精确的搜索、访问正确页面,最终提取答案。直观上,制定第二次更精确搜索查询的行动,远比简单地阅读一个无关紧要的句子更为关键。
这种一刀切的方法忽略了其中的细微差别。通过给每个行动分配相同的功劳或责备,它给学习信号引入了显著的噪声。 这导致训练效率低下,因为模型会浪费资源去更新那些琐碎、影响小的行动。这就像在足球比赛后,给每位球员——从明星四分卫到替补队员——完全相同的泛泛反馈。这种次优策略既阻碍了智能体的学习效率,也限制了其最终性能。
二、关键洞见:并非所有行动都同等关键
论文《CARL:面向多步智能体的关键行动聚焦强化学习》所呈现研究的核心突破源于一个简单而有力的观察:在任何多步任务中,某些时刻比其他时刻更为重要。研究人员假设并非所有行动对最终结果的贡献度都相同,并设计了一个精巧的实验来证明这一点。

通过获取已完成的任务轨迹,并系统性地重新运行它们(每次仅改变一个行动),他们可以衡量每个单独行动对最终奖励的影响。如图2(a)所示,结果令人惊讶。
分析揭示了行动“关键性”的显著差异:
- 超过50%的行动属于低关键性。改变这些行动对最终结果几乎不产生任何影响。这些是支持性但非决定性的行动,例如滚动页面或阅读辅助信息。
- 与之形成鲜明对比的是,约10%的少量行动属于高关键性。改变这些决策点可能使最终奖励从成功急剧转向失败。这些是智能体做出关键决策的时刻。
这一发现证实,只有一小部分行动真正决定了智能体的成败。 该洞见为更智能的强化学习方法奠定了基础。一个有效的强化学习算法不应平等对待所有行动,而应识别并集中学习资源于那些最重要的行动。
三、介绍CARL:一种聚焦式强化学习方法
基于这一关键洞见,论文提出了一种新算法:CARL,即关键行动聚焦强化学习。CARL专为多步智能体量身定制,摒弃了低效的“一刀切”模式。其指导理念是将计算资源和学习信号集中用于决定最终结果的高关键性行动。

如图3所示,传统强化学习与CARL的差异判若云泥。像GRPO这样的算法将整个轨迹视为一个整体块进行奖励分配,而CARL则对过程进行剖析。它分两个聚焦阶段运行:
- 定向探索:CARL识别关键决策点,并从这些状态“分叉”进行探索,生成替代行动序列,以理解在这些关键节点做出不同选择的后果。
- 选择性更新:在模型更新阶段,CARL完全忽略低关键性行动的数据。它仅针对关键行动及其对结果的直接影响来训练大语言模型智能体。
这种聚焦方法有效解决了传统强化学习的核心问题。它通过不再重复探索已解决的任务部分来减少冗余采样,并通过提供精确的、行动级别的反馈来消除噪声奖励信号。通过将琐碎行动排除在训练过程之外,CARL不仅降低了计算开销,还主动防止模型在不重要的步骤上过拟合。
四、CARL如何利用不确定性定位关键行动
CARL面临的核心挑战是,如何在不使用证明初始假设时那种计算成本高昂的暴力分析方法的情况下,识别哪些行动是关键性的。研究人员提出了一个巧妙而实用的解决方案:使用模型自身的不确定性作为行动关键性的代理指标。
其直觉非常人性化。当面临关键的高风险决策时,我们常常对最佳前进方向感到不确定。相反,对于常规或低影响的选择,我们则充满信心地行动。CARL假设大语言模型智能体表现出类似的模式。关键行动是指模型对下一步该做什么不确定的情况。
这种不确定性可以通过状态级熵进行量化测量。给定一个状态 ,策略熵 衡量了可能的下一个行动的概率分布 的随机性或“分散度”。高熵意味着模型没有一个单一、自信的选择,并且认为有几个选项都是合理的。论文提出通过蒙特卡洛估计来估计这种状态级熵:
其中 是从状态 生成的序列。

值得注意的是,这一假设是成立的。图2(b) 展示的实验分析显示了一个清晰而强烈的相关性:先于高关键性行动的状态,其熵值持续高于导致低关键性行动的状态。 这一发现至关重要,因为它提供了一种高效且有效的机制,可以在学习过程中通过简单地监控模型自身的熵,实时识别关键点。
五、更优性能,更高效率:CARL的优势
通过将行动级指导与聚焦训练策略相结合,CARL在性能和效率上均带来了显著提升。
1.行动级奖励带来的精准性
CARL超越了GRPO粗糙的轨迹级奖励。它将探索组织成树状结构,并为每个关键行动计算精确的优势度。任何状态的期望奖励从其子节点递归计算得出。那么,特定行动的优势度就是其期望奖励的差值:
这提供了一个清晰、有针对性的学习信号,明确告诉模型在关键时刻的特定选择在多大程度上改善或恶化了最终结果。
2.更智能的探索与训练
CARL的效率源于其资源的智能分配。
- 熵引导的渐进式探索:如
算法1所述,CARL动态识别最不确定的状态,并将轨迹采样工作集中于此。它重用现有轨迹的前缀,避免了每次都从头开始的成本。 - 针对关键行动的选择性更新:在训练阶段,CARL创建一个更新集 ,该集合仅包含高关键性行动。低关键性行动被排除在外,从而节省计算量并防止模型被琐碎信息干扰。
3.结果胜于雄辩

实证结果令人信服。如表2中的主要结果所示,与GRPO相比,CARL在所有模型主干和知识密集型问答基准测试中 consistently 提供了更好的性能。 对于能力更强的推理模型,其优势尤为明显。

效率的提升同样令人印象深刻。CARL以更少的训练样本和在推理时生成更少的令牌,实现了更高的性能。例如,对于推理模型,CARL在使用相似探索预算和不到40%训练样本的情况下,其最终准确率平均超过GRPO 1.4个百分点。 此外,表4显示,经过CARL训练的智能体更加直接和经济,以显著更少的行动解决问题,在某些情况下,使用的推理令牌数量减半。
六、聚焦与高效:智能体学习的未来
CARL背后的研究传递了一个清晰而有力的信息:对于复杂的多步任务,“一刀切”的强化学习方法存在根本性缺陷。通过认识到并非所有行动都生而平等,我们可以解锁性能和效率的新高度。

CARL 聚焦于关键之处 的设计理念是一个范式转变。其选择性更新机制不仅加速了训练,还带来了一个关键的额外好处:它保持了模型的多样性。如图4中的熵分析所示,CARL在整个训练过程中保持了更高的策略熵,这表明其具有更强的探索能力和降低陷入单一、过度确定性策略的风险。这使得智能体更加稳健和适应性强。
尽管作者指出,CARL在智能体已具备基线能力时表现最佳——因为它依赖不确定性来指导探索——但其核心原则具有广泛的适用性。随着AI智能体被赋予处理更长期、更复杂问题的任务,并且我们迈向多智能体协作,识别并专注于关键时刻的能力将变得愈发重要。
智能体学习的未来不仅关乎规模扩大,更关乎智能扩展。CARL为这个未来提供了一个强大的蓝图——一个聚焦、精准且高度高效的未来。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多推荐


所有评论(0)