「Agent不稀奇,能“自己想、自己干、自己复盘”的才是好Agent」可一到落地,名词、框架和坑一起涌来: 设计模式、强自治、可控流程、 多代理协作.... 到底该不该用 Agent?该选哪一类框架?需要用到什么程度?这篇文章用直观的图表、清晰的示例,为你讲清什么是Agent、什么场景适合使用Agent以及各类主流Agent框架,希望能帮各位少走弯路,迅速判断技术路径。

1.Workflow和Agent的区别

2.Agent框架选择

核心依赖Github上Star数以及市场热度,综合选取5款Agent框架:

1.AutoGPTGithub 17.8w Star

2.LangGraph Github 13.1w Star

3.Dify Github 11.2w Star

4.CrewAIGithub 3w Star

5.AutoGen微软开源 Github 5w Star

3.各Agent框架对比结论

Agent框架 适合场景 优势 不足
AutoGPT 各类通用任务 1.完全自主执行2.任务分解与多步执行3.记忆和持续学习 1.复杂任务场景前后文一致性问题2.高成本和效率问题3.操作可控性较低
LangGraph 可明确拆解任务步骤 1.灵活的多步骤控制2.原生支持短长期记忆3.易调试和全链路可观测 1.自主性有限2.Agent模式不成熟
Dify 可明确拆解任务步骤 1.低代码,易用性与低门槛2.强大的模型与工具能力 1.功能广而不精2.需在简单和复杂场景之间找到平衡
CrewAI 任务步骤不固定,需让Agent自己探索 1.工具和生态集成2.灵活性与深度定制 1.特定功能支持有限(如代码沙盒)
AutoGen 1.原生多代理支持2.灵活的对话流程控制3.可观察调试支持 1.社区生态尚处于起步阶段

4.为什么需要使用Agent框架

结论:只要“问题不可完全穷举、要跨多系统查证、并且需要在对话中澄清/协商/决策”,就更应该用 Agent 框架,而不是纯 Workflow。

为什么?用一个真实的ToC场景客服链路来说明。

4.1 纯 Workflow 在智能客服里的“天花板”

Workflow(无论是 Dify 的可视化编排,还是 LangGraph 的状态机)非常适合步骤确定 + 条件有限的流程,比如:

1.查询订单 → 格式化答复

2.退货→生成标签→发通知

3.FAQ 检索→返回片段

一旦进入长尾问题,Workflow 就会遇到“分支爆炸”:

例:同一条“包裹没到”诉求,可能要综合 ①承运商状态 ②发货 SLA ③节假日政策 ④地址异常 ⑤是否会员 ⑥是否已报缺货 ⑦是否已部分签收 ⑧是否叠加优惠券/补发 等。

如果你用固定分支描述:

假设有 5 个意图 × 6 种物流状态 × 3 种用户等级 × 3 个政策时段(平日/大促/假期) × 3 种地理区域,共5×6×3×3×3=810 条潜在路径。

这还没算异常(报损、拒收、欺诈信号)与“对话澄清”的分支。维护成本和上线速度都会被拖垮。此外,Workflow 对 对话中的“澄清—再决策—再行动 并不天然友好,需要把每一步提问、回答、重试都画成节点,复杂而脆弱。

4.2 Agent 框架解决的核心问题

以 AutoGen/CrewAI 这类 Agent 框架为例,它们把“在对话里动态规划与调用工具”作为第一性能力:

场景:用户说“我 8 月 1 号下的单今天还没到,收件地址其实要换,而且我被重复扣费了。”

一个合格的客服 Agent 团队会做什么?

1.意图识别 + 澄清

​ ● Planner Agent:拆出多意图(物流异常、改址、计费异常),先问关键澄清(订单号/新地址/扣费凭证)。

2.跨系统取证

​ ● OMS/物流工具:查轨迹与 SLA;

​ ● 计费/支付工具:核对重复扣款交易;

​ ● CRM:看是否 VIP、是否有历史补偿记录。

3.政策推理与合规

​ ● Policy/Critic Agent:套用“假期延误 + VIP + 改址”的组合条款,评估可给的补偿区间、是否可免费改址、是否触发风控人工复核。

4.方案生成与协商

​ ● 提出“改址 + 走加急补发 / 或原包裹拦截 + 退款差额 + 账单冲正”的可行方案,并在对话中按用户反馈实时调整。

5.执行与闭环

​ ● 调用工单/票据工具,落账/发券/改单/寄件,写入 CRM 备注;

​ ● 生成总结,告知时限与跟踪号;

​ ● 若任一步失败,自动选择备选策略或升级人工。

这些动作里,很多步骤无法事先“画”成固定分支,需要在对话上下文里做决策、需要跨工具动态组合、需要“问一句 → 查一下 → 再决定”,这正是 Agent 的强项。

5.各Agent详细介绍

4.1 AutoGPT

简介:AutoGPT是第一个爆火的自主AI Agent框架,提供一系列工具让用户构建和使用自治代理。其功能涵盖代理创建模块“Forge”、性能评测基准agbenchmark、排行榜以及易用的UICLI接口。

主要特点:AutoGPT支持“思考-行动-反馈-学习”的循环,让代理不断生成子任务并执行。并且拥有丰富的插件和工具接口,允许代理访问浏览器、文件系统API等资源,从而完成复杂的链式任务。

典型应用场景:需要让Agent自动拆解目标并执行的,如市场调研、行程规划、代码编写等

优势与不足:

优势 不足
自主性与少人工干预:只需给定最终目标,便能自主规划步骤并连续执行,无需逐步指令指导,从而显著降低人力投入和运营成本 对话和上下文一致性:随着任务执行步骤的增多,Agent可能逐渐偏离原定目标,产生与任务无关的输出。模型增加记忆模块可一定程度缓解此问题,但仍不能完全避免上下文丢失和输出偏移现象。
任务分解与多步骤推理:内置了ReAct机制,能够将复杂目标划分为可执行的子任务并逐一完成。并集成了文件操作、网络搜索、代码执行等多种工具,使得AutoGPT在同一框架下即可调用不同能力来解决问题。 高成本和效率问题:AutoGPT在执行过程中需要频繁调用大型模型API,每一步决策都可能消耗大量计算资源和费用。此外,AutoGPT采取循环试探的方法执行任务,相较人类直奔主题的处理方式可能显得低效。一些简单任务由AutoGPT执行时迂回冗长,耗时较多。
记忆机制与持续学习:AutoGPT结合了短期与长期记忆模块,能够在对话和操作过程中保留上下文、调用先前学到的信息。在连续任务执行中,会将每一步的结果添加进记忆,并据此调整后续行动,从而提高任务完成的连贯性和智能性。这种自我改进能力有助于Agent在长流程任务中表现更佳。 操作可控性:由于用户只设定初始目标,过程中Agent的具体操作路径并不透明,可能出现偏离期望的行为。例如,它可能搜索到不相关的信息或尝试执行不恰当的动作而不自知。虽然通常AutoGPT提供了每步执行前让用户确认的选项,但在开放的连续模式下,缺乏监督可能导致错误蔓延。

使用示例:基于AutoGPT让Agent帮我写一篇介绍AutoGPT的文章

1.创建Agent及配置名称、角色以及目标

2.Agent 自主思考、规划、执行

3.最终输出

4.2 LangGraph

简介:LangGraph 是由 LangChain 团队推出的有状态、持久运行、多智能体应用的编排框架。核心将Agent建模成一个图(Graph):每个节点是计算步骤(LLM 调用、工具函数、任意 Python 代码等),边控制流转(含条件与循环),并最终实现既定目标。并且在今年6月提供了预构建模式,对常见的多智能体场景提供了抽象封装,开发者只需定义少量参数(如参与的子智能体、主体提示词等)即可快速生成完整的多 Agent 协作系统。

Graph和预构建模式的示意图:

主要特点:支持图式编排、可人工干预、可中断/续跑。LangGraph可形成可控的分支/循环流程,可在每个节点中加入人工干预环节,适合需要人工审批/修订的业务场景,并且基于持久化状态可方便中断、续跑、回溯。

典型应用场景:可明确拆解任务步骤的场景,如RAG类、文章生成、日程助手等。

优势与不足:

优势 不足
灵活的多步骤流程控制:LangGraph 最大的优势在于高度灵活的工作流编排能力。通过图结构这种逻辑,使开发者可以针对特定需求定制非线性执行路径,实现从对话分流到复杂工具调用再到错误重试等各种流程。 自主性有限:LangGraph 强调的是由开发者显式控制的 Agent 流程(Workflow),这在一定程度上限制了 Agent 的自主性。与 AutoGPT追求高度自我驱动的框架相比,LangGraph 中的智能体基本按照预先设计的图谱执行任务,并不会自行生成新的高层次目标或策略。
LangGraph 引入了共享 State(状态)的概念,在工作流的各节点间持久共享数据。每个节点的输入和输出都可以写入这份共享状态,后续节点能够访问先前步骤的信息。通过这种内存机制,Agent 可拥有短期记忆(对当前对话或当前任务进展的记忆)以及通过外部数据库实现的长期记忆。 预构建模式不成熟:目前预构建模式内部交互对用户并不透明,难以在框架外精确插入自定义逻辑或中间步骤。同时在失败时做特殊处理或并行执行多个任务时,预构建模式缺乏显式机制,很难实现复杂的流程控制。预构建模式目前没有内建的重试、降级或提示机制,需要开发者在外部捕获并处理,否则可能导致对话中断或不一致。
易调试和高可观察性:由于采用显式的图结构,LangGraph 工作流的执行路径和状态变化透明且可追踪。开发者可以方便地插入日志、检查点,观察数据在各节点的流动,并利用调试工具定位问题。LangGraph 与 LangChain 提供的 LangSmith 等监控/调试工具深度集成,能够对每次 LLM调用、工具使用进行详尽的跟踪和可视化,帮助开发者迅速调试复杂链路

使用示例:基于LangGraph让Agent帮我写一篇介绍LangGraph的文章

1.构建工作流(Workflow)

附工作流运行逻辑:

2.最终输出

4.3 Dify

简介:Dify(Do It For You)是一个开源的低代码平台,旨在简化大模型(LLM)驱动的AI应用开发与部署。它融合了“后端即服务 (BaaS)”与 LLMOps 概念,提供涵盖模型接入、提示设计、知识库检索、智能代理、数据监控等在内的一站式解决方案。通过直观的可视化界面和预构建组件,开发者和非技术人员都可以快速构建如聊天机器人、内容生成、数据分析等各类生成式AI应用。

主要特点:低代码、可视化工作流构建、检索增强生成(RAG)管道、开放工具市场

典型应用场景:可明确拆解任务步骤的场景,如RAG类、文章生成、日程助手等

优势与不足:

优势 不足
易用性与低门槛: Dify 最大的亮点之一就是上手非常简单。其可视化操作界面让用户几乎不需要编码技能就能搭建AI应用。预构建的节点和模板减少了繁琐配置,几小时内即可完成过去需要数周开发的原型。相比要求编程的框架(如 LangChain 等),Dify 降低了 AI 应用开发门槛,使更多业务人员可以直接参与。 功能广而不精: 评价 Dify 它的功能覆盖面很广,但在某些专业领域的深度上可能比不上专门化工具。例如,Dify 内置了知识库RAG功能,但在复杂文档理解、细粒度检索参数方面不及专注RAG的框架(如 RAGFlow 等)
强大的模型与工具集成能力: Dify 生来强调“模型中立”和灵活扩展开箱即支持数十家模型提供商的上百种LLM,涵盖OpenAIAnthropic、Google、Meta以及各类本地开源模型等。在工具方面,涵盖了常见的网络服务和AI模型,可以借助外部能力完成复杂任务。 “重量级”工具的取舍: 如果只是做一个很简单的问答Bot或单一功能,用Dify会感觉“大材小用”,因为它的诸多高级功能用不着,反而增加了系统复杂性。同时,企业如果有很多特殊需求,往往也需要对 Dify 进行二次开发来满足。因此,Dify 最适合的还是中等复杂度的场景:太简单的可以直接用现成API,太复杂的可能要深度魔改,在这些边缘情况下,需要权衡使用Dify的性价比。

使用示例:

1.工作流Workflow类型

2.Agent类型(Function Call)

4.4 CrewAI

简介:CrewAI 是一个多智能体(multi-agent)编排框架,其核心理念是让多个具备特定角色的 AI 代理协同合作(组成“crew”团队)来完成复杂任务。每个代理被赋予特定的角色、目标和背景知识,通过相互分工与配合,自动地进行任务委派和问询,最终以团队形式完成用户交给的工作。

主要特点:多工具及生态集成、支持Workflow和AI Agent两种模式

优势与不足:

优势 不足
工具和生态集成:CrewAI 起初借鉴并构建在 LangChain 生态之上,因而天然支持使用 LangChain 提供的大量工具集合(如搜索、数据库查询、API 接口等)。同时CrewAI 自身及社区提供了许多内置工具,目前已内置超过 40 种工具接口(包括常用的 LLM、云服务、数据库等)以供代理直接使用。 特定功能支持有限: 相较于某些专精的框架,CrewAI 在特定能力上可能不如对手完善。例如,在“AI编程助手”这一场景中,CrewAI 并没有内置像 AutoGen 那样成熟的代码执行与自我纠错循环。如需实现让代理编写并执行代码来完成任务,必须手动集成额外的工具(如运行Python代码的工具)。目前 CrewAI 并未直接提供沙箱执行代码的内置模块,这使它在代码自动生成与执行的任务上稍显不足。
灵活性与深度定制: 在CrewAI的高层模式下,CrewAI 依然保留了很大的灵活性。开发者可以深入定制每个代理的提示(prompt)、工具和内部行为,甚至可以自定义低层的提示模板和代理行为。CrewAI 支持同时结合自主代理(Crews)和精确流程(Flows)两种范式,允许在同一应用中既有自主探索的部分,也有确定顺序的流程,从而无缝融合自治与精确控制。

使用示例:研究AI agent领域的最新进展

4.5 AutoGen

简介:AutoGen 是微软开源的一个面向 Agentic AI(代理式人工智能)的编程框架,用于构建 AI 智能体并促进多个智能体协作完成复杂任务。AutoGen 支持事件驱动的分布式架构,具有良好的可扩展性和弹性,可用于搭建可自主行动或在人类监督下运行的多代理 AI 系统。

主要特点:微软开源、原生多Agent支持、灵活对话控制

优势与不足:

优势 不足
原生多代理支持:作为一款专为多智能体协作设计的框架,AutoGen 天生支持多个 Agent 之间的通信与并行工作。它提供了创建和编排多代理对话的高层抽象,使多个 AI 模型可以通过自然语言消息 动态交互,共同完成任务。 社区生态尚处于起步阶段:作为近年才推出的框架(2024 年末发布重构版 v0.4),AutoGen 的生态系统相对其他成熟框架而言仍在成长中。虽然微软提供了详细文档并声称社区支持健全 ,但由于版本更新较快,文档偶尔滞后于代码,出现文档与实际功能不一致的情况。第三方针对 AutoGen 的教程、案例和工具库目前数量有限,大部分资源来自官方团队。这意味着在遇到非常规问题时,开发者能够借鉴的社区经验相对较少,需要更多依赖官方渠道的支持。
灵活的对话流程控制:AutoGen 采用异步消息驱动架构,代理之间的通信可以异步进行,不拘泥于固定顺序。这意味着开发者可以实现高度定制的对话流程:代理对话可以根据上下文自由分支、暂停和恢复,甚至在人类干预下重新规划。
可观察调试支持:框架内置了完备的可观测性和调试工具。AutoGen 提供消息跟踪、日志记录以及 OpenTelemetry 集成等功能,方便开发者监控代理间的交互过程,排查问题。此外,AutoGen 允许将代理生成的代码提交到沙盒(如 Docker 容器)安全执行,并支持实时查看代理行为、可视化消息流等。

Swarm模式下的机票退订助手示例:

6.总结

本篇文章主要介绍了目前 WorkFlow 和 Agent 的区别,以及什么时候应该采用 Agent 框架:当问题复杂、长尾且多变,Agent 才是主力。同时也简要的介绍了目前几类框架如AutoGPT、LangGraph、Dify、CrewAI、AutoGen,希望能在技术路线的选择与框架选型上帮助到各位读者。

腾讯云TDAI(TencentDB AI Service,简称TDAI)团队也在积极探索数据库与 AI 的结合,并正式推出数据库AI服务,为赋予 Agent 长上下文理解与个性化交互能力,腾讯云在数据库AI服务中推出面向 Agent 记忆场景的产品——Agent Memory,负责存储、检索并管理历史交互信息,让AI能够记住并运用这些信息,从而在持续的互动中表现出更强的连贯性、上下文理解力和个性化服务能力。

可以看到,Agent 不只是新的技术名词,更是一种全新的思维方式——让智能系统从“执行命令”走向“理解目标”。未来,在复杂、多变的业务世界中,腾讯云TDAI团队将持续探索从底层存储、索引到记忆调用的完整链路能力,为客户提供 Agent 的基础组件,奠定AI转型的坚实起点。

 如何学习AGI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

**

一、2025最新大模型学习路线

一个明确的学习路线可以帮助新人了解从哪里开始,按照什么顺序学习,以及需要掌握哪些知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。

我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

L1级别:AI大模型时代的华丽登场

L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理,关键技术,以及大模型应用场景;通过理论原理结合多个项目实战,从提示工程基础到提示工程进阶,掌握Prompt提示工程。

L2级别:AI大模型RAG应用开发工程

L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3级别:大模型Agent应用架构进阶实践

L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体;同时还可以学习到包括Coze、Dify在内的可视化工具的使用。

L4级别:大模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调;并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

整个大模型学习路线L1主要是对大模型的理论基础、生态以及提示词他的一个学习掌握;而L3 L4更多的是通过项目实战来掌握大模型的应用开发,针对以上大模型的学习路线我们也整理了对应的学习视频教程,和配套的学习资料。

二、大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

三、大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

四、大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

五、大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。


因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐