上一篇文章我们介绍了AI agent技术架构,里面有很多个智能体,需要多智能体协同实现一个完整的功能,目前一个明显的趋势正在形成:低代码平台与专业编排框架的深度融合。Dify作为领先的AI应用开发平台,以其直观的可视化界面降低了智能体构建门槛;而LangGraph作为LangChain推出的专业编排框架,则提供了复杂工作流所需的强大控制能力。这两者的结合,正在为企业构建多智能体系统开辟一条全新的路径。

01-LangGraph核心概念与特性

LangGraph是LangChain开发的一个低层级的编排框架和运行时,专门用于构建、管理和部署长时运行的、有状态的智能体。它具有以下核心特性:

特性 描述
持久化执行 构建能够从故障中恢复并长时间运行的智能体,可以从中断处继续执行
人机交互 允许在任何节点检查或修改智能体的状态,融入人工监督
完整的内存系统 为智能体提供短期工作内存(用于当前推理)和跨
Langsmith调试 提供可视化工具追踪执行路径、捕获状态转换、获取详细运行时指标
生产就绪部署 为有状态、长时运行的工作流提供可扩展的基础设施

LangGraph的官方文档如下:

https://docs.langchain.com/oss/python/langgraph/quickstart

而基础构建方法

从文档中的“Hello World”示例可以看出,构建LangGraph智能体的基本流程是:

1、定义状态类型:使用StateGraph(MessagesState)创建状态图

2、添加节点:通过graph.add_node()添加处理函数

3、设置边连接:使用graph.add_edge()定义节点间的流转关系

4、编译图:调用graph.compile()生成可执行图

5、调用执行:通过graph.invoke()传入初始状态执行图

02—dify和LangGraph技术融合:架构互补性解析****

1.1 技术定位与优势互补

技术组件 核心优势 在多智能体系统中的角色
LangGraph 灵活的状态管理、复杂的图编排、持久化执行、人机交互 智能体协作的大脑与神经系统,负责整体流程控制和状态管理
dify 可视化构建、低代码开发、内置模版、易于部署 智能体构建的工厂、快速创建专业化的智能体、提供友好交互界面

1.2 集成的想法:代码与低代码的协同

这种结合的核心思想是**“编排代码化,实现可视化”**:

  • LangGraph负责:定义智能体间的交互逻辑、状态流转规则、异常处理机制
  • Dify负责:实现单个智能体的专业能力、提供用户界面、管理知识库集成

1.3 实战案例:对话分析多智能体系统

假设我们需要构建一个对话分析系统,具备以下功能:

1、实时对话分类:识别对话意图和主题

2、情感分析:分析用户情绪变化

3、关键信息提取:提取重要实体和观点

4、自动摘要生成:生成对话摘要

5、异常检测:识别潜在问题或冲突

系统架构设计

LangGraph编排实现

# conversation_analysis_graph.py

from
 typing 
import
 TypedDict
,
 List
,
 Dict
,
 Any
,
 Literal

from
 langgraph
.
graph 
import
 StateGraph
,
 END

# 定义状态结构

class
ConversationState
(
TypedDict
)
:

"""对话分析系统的状态定义"""

# 输入相关
     
conversation_id
:
str
     
user_input
:
str
     c
onversation_history
:
 List
[
Dict
[
str
,
 Any
]
]

# 处理中间结果
     
intent
:
str
     
category
:
str
     
sentiment_scores
:
 List
[
float
]
     
entities
:
 List
[
Dict
[
str
,
 Any
]
]
     
key_points
:
 List
[
str
]

# 分析结果
     
sentiment_analysis
:
 Dict
[
str
,
 Any
]
     
entity_analysis
:
 Dict
[
str
,
 Any
]
     
summary
:
str

# 系统控制
     
current_step
:
 Literal
[
"classification"
,
"analysis"
,
"reporting"
,
"complete"
]
     
requires_human_review
:
bool
     
human_feedback
:
str

# 初始化Dify-LangGraph桥接

bridge 
=
 DifyLangGraphBridge
(
     dify_api_key
=
"your-dify-api-key"
,
     dify_base_url
=
"https://api.dify.ai/v1"
)

# 创建Dify智能体对应的LangGraph节点

classification_node 
=
 bridge
.
create_langgraph_node
(
"conversation-classifier"
,
"classifier"
)

analysis_node 
=
 bridge
.
create_langgraph_node
(
"conversation-analyzer"
,
"analyzer"
)

reporting_node 
=
 bridge
.
create_langgraph_node
(
"report-generator"
,
"reporter"
)

# 构建状态图

workflow 
=
 StateGraph
(
ConversationState
)

# 添加节点
workflow
.
add_node
(
"classifier"
,
 classification_node
[
1
]
)

workflow
.
add_node
(
"analyzer"
,
 analysis_node
[
1
]
)

workflow
.
add_node
(
"reporter"
,
 reporting_node
[
1
]
)

workflow
.
add_node
(
"human_review"
,
 human_review_node
)

workflow
.
add_node
(
"quality_check"
,
 quality_check_node
)

# 定义条件路由函数

def
route_by_conversation_state
(
state
:
 ConversationState
)
-
>
str
:

"""根据对话状态决定下一步"""

if
 state
[
"current_step"
]
==
"classification"
:

return
"classifier"

elif
 state
[
"current_step"
]
==
"analysis"
:

# 检查是否需要人工审核

if
(
state
.
get
(
"sentiment_scores"
)
and
min
(
state
[
"sentiment_scores"
]
)
<
-
0.7
)
:
             state
[
"requires_human_review"
]
=
True

return
"human_review"

return
"analyzer"

elif
 state
[
"current_step"
]
==
"reporting"
:

# 质量检查

if
len
(
state
.
get
(
"key_points"
,
[
]
)
)
<
2
:

return
"quality_check"

return
"reporter"

elif
 state
[
"current_step"
]
==
"complete"
:
return
 END         

else
:

# 默认开始分类
         
state
[
"current_step"
]
=
"classification"

return
"classifier"

# 设置路由
Workflow
.
add_conditional_edges
(
"classifier"
,
     route_by_conversation_state
,

{
"analyzer"
:
"analyzer"
,
"human_review"
:
"human_review"
,
         END
:
 
END    
}

workflow
.
add_conditional_edges
(
"analyzer"
,
     route_by_conversation_state
,
{
"reporter"
:
"reporter"
,
"quality_check"
:
"quality_check"
,
"human_review"
:
"human_review"
}
)

workflow
.
add_edge
(
"reporter"
,
 END
)

workflow
.
add_edge
(
"quality_check"
,
"analyzer"
)

# 重新分析

workflow
.
add_edge
(
"human_review"
,
"analyzer"
)

# 审核后继续分析
# 设置入口点

workflow
.
set_entry_point
(
"classifier"
)

# 编译图

conversation_analysis_app 
=
 workflow
.
compile
(
)

通过结合Dify和LangGraph构建多智能体系统,我们获得了以下优势:

1、开发效率:Dify的可视化界面大幅降低智能体开发门槛

2、编排灵活性:LangGraph提供强大的工作流编排能力

3、系统可靠性:持久化状态和故障恢复机制

4、可扩展性:易于添加新的智能体和功能模块

5、人机协作:完善的人机协作机制

本文介绍了实现多智能体一个实现方式,当然还有其他方式,大家可以在评论区留言一起探讨。

想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年 AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享

👇👇扫码免费领取全部内容👇👇

一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势

想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI

1. 100+本大模型方向电子书

在这里插入图片描述

2. 26 份行业研究报告:覆盖多领域实践与趋势

报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:

  • 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
  • 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
  • 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
  • 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。

3. 600+套技术大会 PPT:听行业大咖讲实战

PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:

在这里插入图片描述

  • 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
  • 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
  • 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
  • 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。

二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走

想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!

1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位

面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析

2. 102 道 AI 大模型真题:直击大模型核心考点

针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:

3. 97 道 LLMs 真题:聚焦大型语言模型高频问题

专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:


三、路线必明: AI 大模型学习路线图,1 张图理清核心内容

刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!

在这里插入图片描述

路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。

img

L1阶段:启航篇丨极速破界AI新时代

L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

img

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

img

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

img

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

img

L5阶段:专题集丨特训篇 【录播课】

img
四、资料领取:全套内容免费抱走,学 AI 不用再找第二份

不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:

👇👇扫码免费领取全部内容👇👇

2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐