质疑声层出不穷!Agent将何去何从?
早在2024年,我就预测了2025 年将会成为Agent 元年。2024年的“算力墙”问题已经出现了,模型效果边际收益递减,训练和运营成本高昂。在这样的时间节点和背景下,资本的眼光不可避免的会投入下一个AI 产品 —— 智能体(AI Agent)。这也是为什么会在开源中国的行业白皮书里写这样一篇文章。
早在2024年,我就预测了2025 年将会成为Agent 元年。
2024年的“算力墙”问题已经出现了,模型效果边际收益递减,训练和运营成本高昂。
在这样的时间节点和背景下,资本的眼光不可避免的会投入下一个AI 产品 —— 智能体(AI Agent)。这也是为什么会在开源中国的行业白皮书里写这样一篇文章。
前排提示,文末有大模型AGI-CSDN独家资料包哦!
而我为什么认为2025年是“agent元年”呢?“元年”——其实是一个“概念破圈”的时间节点。2024年以前,无论何种定义的agent,其讨论范围都限定在AI技术圈内。但2025年开始,agent作为一个最明星的词,开始进入了非技术背景的更广泛大众视野。
01
Agent技术是什么
每个人都在讨论Agent,但Agent技术到底是什么?其实在AI技术史上,agent这个概念有非常多的含义。
而我们当下提的最多的Agent技术,指的是以大模型LLM技术为核心,以文本指令为接口,模仿人类进行任务规划、有记忆功能、具备使用(虚拟)工具解决问题的一种虚拟实体。
Agent不是某个具体的意象,比如Agent不是AI对话客服,客服只是Agent可以实现的任务中的一种。利用LLM强大的指令遵从、逻辑理解等能力,Agent可以自动化地完成部分代码开发、财务处理、数据分析、信息收集等各种工作。其存在价值是帮助人类完成越来越多的重复性、流程化的工作,提高效率。
02
2025:为什么是Agent元年
当市场疯狂涌入和看好Agent行业,这也意味着2025年成为了Agent元年。而Agent之所以会在全球范围内红红火火,当然不是因为某些大佬的站台和宣传,而是所有AI头部厂商都形成了一种共识:Agent是当下以LLM为核心的AI技术落地应用的最合理路径。
而产品化,也是所有大科技厂商正在面临的巨大压力。
回首2024年底,Open AI的GPT 5难产不仅让他们自己饱受压力,也让整个科技圈对scaling law产生质疑,我也在白皮书里认为LLM撞上“算力墙”的论断,现在看来,这恰恰成为了加速agent技术爆发的契机。
时间来到2025年年中,GPT 5发布后效果不及预期,已经没有3.5到4,4到o的阶梯式提升的惊艳了。而Open AI的GPT 5,毫不意外地进行了大量推理速度优化,这也昭示了AI头部大科技面临商业化压力,开始朝着产品化落地急转向。
继续膨胀算力训练更“大”的模型带来的收益已经快速边际递减,当下的LLM范式逐渐进入饱和瓶颈。我们会发现,与其追求一个大而全的超级模型,不如让一群小而美的“特长生”互相取长补短进行合作,这是ROI最大化的理性选择。
所谓的“三个臭皮匠顶一个诸葛亮”,在任何场景下都是用,无限多个不那么聪明的智能体,focus自己指令所限定的任务,反而能带来新的scaling law。一个是test-time scaling:用更多的“思考”时间,更多的步骤,逐步优化一个任务的结果;另一个是multi-agent scaling law,当越多的智能体在统一的环境中协作,就可以完成越来越复杂的任务。
沿着这个方向,微软Copilot、Cursor推出了代码智能体产品或版本,Leapfin 推出的Luca服务于金融会计领域,OpenAI、阿里、Perplexity推出Deep Research应用于信息处理和知识认知领域。越来越多的智能体已经开始在产业界创造价值,这不是“Agent元年”,还能是什么呢?
03
Agent技术:质疑声层出不穷
当时间推进到2025年年末,一个最吊诡的地方出现了,agent技术开始收到了质疑声,针对方方面面,都出现了层出不穷的质疑声。
不到一年的时间里,风向急转,Agent为什么会面临这么多的负面声音?我个人看来,究其根本还是当下Agent产品力不够,远远不能解决用户痛点。
一个产品,落地的核心是要看它提供的用户价值与用户付出的成本的比,也就是ROI,Agent也不例外。
试想,如果我用coding agent写一个当前系统的插件,花十分钟跟他聊天,三十分钟等它写代码、调试、debug,最后它跟我说fail或者陷入死循环,这样的用户体验会造成什么?用户流失和用户对产品的不信任。
在Agent产品的用户价值框架里,付费订阅、token/算力消耗、等待的时间是用户付出的成本,节省的时间或者增加的工作并行度是取得的收益
然而,现在的很多agent产品不能令人满意,归根结底还是ROI的失衡。
04
Agent的未来:自主智能体
被誉为“Agent元年”的2025年,饱受争议,这种割裂感一直在技术圈和圈外之间反复拉扯。
即便技术圈内部已经达成方向性共识,但实际产品却一直没能满足圈外用户的期待。更广泛的圈外用户期待的到底是什么呢?
我在这里在大胆做一波预测,我认为是“自主智能体”。
现在非常多的智能体产品仍然是工作流智能体,需要利用人工领域经验预定义工作流,智能体只会按照工作流一步一步走。因此,这类智能体的应用场景是有限的,仅限于SOP十分明确、工作流程成熟到行业规范级别的简单任务。
然而,实际情况是,用户的日常工作面对的大部分任务是开放式任务,需要智能体具备探索、自省、自动调节工作流的能力。
那么,用户距离这样的高效能、自主智能体产品还有多远呢?从技术上看,我个人观点认为,至少还有两年。
两年这个数字,我是如何得到的呢?下面,我来简单给大家推演一下。
首先,我先定义一下,什么是自主智能体。
前面我们说到非自主的智能体依赖人工定义工作流,即工作流图的定义,是它除了任务目标之外的输入信息的一部分。那么自主智能体就是它的反面,自主智能体的输入 = 任务目标 + 工具集合 + 环境边界(沙箱)。自主智能体具备自定义工作流图的能力。
优化自主智能体产品的ROI,就考虑两个方面:提升价值和压缩成本。
我们先说简单的,压缩成本。这个问题的技术方向已经非常明确:推理加速、模型压缩、token压缩。随着算力进一步提升(尤其是推理加速优化的定制化投入)和压缩技术 的发展,这一领域会在两年内有指数级别的收益。
难就难在提升价值。Agent产品的价值评估标准很简单,能不能正确完成任务。这就涉及模型能力瓶颈与平衡的问题。就好比我们有一台电脑,硬盘就只有128GB,装了大型3A主机游戏,就没地方装其它庞大的工业软件了,这台电脑用来做什么,就需要衡量抉择。LLM差不多,很多厂商都意识到了这一点,所以为了开发领域都推出了专用的代码大模型。
多智能体协作系统由多个不同功能(角色)的节点构成,从算力最优化的角度来看,一些任务形态固化的节点,可以由小型的专用模型来完成。一方面,我们要提升模型的知识密度,各家模型厂都在加码这里;另一方面,我们要做专用化,例如前段时间火爆的DeepSeek-OCR,是个3B左右的小模型,专用于图像文字识别。3~7B是当前算力条件下的舒适区。
要想提升模型单节点任务准确度、任务规划流程合理性,这就逃不开训练数据和训练方法了。很多人会问,LLM不是拿了全天下能拿到的数据训练了吗?不是进入数据饥饿了吗?为什么还需要数据呢?这是因为当下agent面临的问题是更加小众的专业性问题,例如医疗、教育、金融,很多垂直领域的核心数据是不会暴露在公网的,在没有LLM的时代,这些数据就都是各家企业的核心资产和护城河。LLM训练从头部分布,正在进入长尾领域。
这里就是核心矛盾了。垂直领域内的企业有数据,但不希望数据离开企业,也没有训练模型的技术背景。有技术能力的企业无论如何都拿不到有效数据。短期来看这个矛盾不可调和,那么未来最核心的技术方向就是标准化,包括数据协议标准化以及训练方法标准化。
聊到数据协议标准化,这里大家应该就都明白了,为什么MCP会出来。所以,任何一家想要深度拥抱agent的垂域公司,现在就要开始MCP化改造,沉淀有效数据。
而训练方法的标准化就涉及到将SFT、RL等算法的流程标准化封装,让数据“足不出户”就可以压缩到模型的知识(参数)储备中。
标准化了的新流程,就一定能转化为agent效能了吗?不一定。
这也是为什么最近很多人在问,MCP之类的各种协议,凉了吗?没有凉,只是很多企业不知道MCP化什么,MCP化了有什么用。想要训练智能体,首先要理解智能体技术,把ReACT理念刻到企业各种SOP里。
各种工具API调用的数据并不是最稀缺的东西,高效能的自主智能体最需要的数据,是任务路径规划、以及自省循环过程的数据,这些working memory才是最重要的context。
一个coding agent的准确度有限,就是因为缺少足够的有效context,这些context,很多都没有在日常工作中沉淀下来。例如从PRD到TD过程中的开会讨论记录,工程师对机房环境、机器配置、网络带宽、APP框架的认知,等等。很多我们工作流程中习以为常,而隐身在脑海中的“背景认知”是agent能有效完成工作的核心context。因此,我们需要将agent带着MCP沿着工作流深度集成,沉淀有效数据。
这样就够了吗?还不够。数据全了,但量不够。我在2024年开源中国白皮书提到的另一个重要概念就是合成数据。有了更多的context之后,我们可以驱使LLM,通过推理,将不同节点的context有效串联、举一反三。
最后,当agent跟随人类工作者,在SOP中陪跑的时候,总会不小心犯错,怎么办?定义沙箱环境,哪些工具/APIagent能碰,哪些需要经过人的审核节点才能碰,也需要写到“context”里。context越来越复杂,所以才会孵化出上下文工程,独立memory的概念。
2025年末,当我们已经看到了LLM产品化落地的非常明确的方向时,就要理解市场的质疑声不是退潮,而是理性、冷静的反思。
从技术发展曲线来看,这也正是下一轮爆发的前兆。
未来几年的技术革新将不再以机器学习算法为唯一主角,更多产品化导向的技术会获得史无前例的投入,包括推理加速、压缩技术、专用化小模型、数据标准化、训练标准化、工作流深度集成、沙箱规范。
相信在不久的将来,我们能看到在隔离环境中持续、稳定、高效、自主运行的高效能智能体。
读者福利:倘若大家对大模型感兴趣,那么这套大模型学习资料一定对你有用。
针对0基础小白:
如果你是零基础小白,快速入门大模型是可行的。
大模型学习流程较短,学习内容全面,需要理论与实践结合
学习计划和方向能根据资料进行归纳总结
包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓


👉AI大模型学习路线汇总👈
大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
👉大模型实战案例👈
光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

👉大模型视频和PDF合集👈
这里我们能提供零基础学习书籍和视频。作为最快捷也是最有效的方式之一,跟着老师的思路,由浅入深,从理论到实操,其实大模型并不难。

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓
更多推荐



所有评论(0)