当我们使用 LangChain 构建 AI 智能体时,首先要做的是选择正确的智能体架构。 目前常用的2种架构是create_react_agentcreate_tool_calling_agent。两者都可以让AI使用外部工具,但由于它们的运作方式不同,因此适合的场景也有区别。

本文将探讨create_react_agentcreate_tool_calling_agent有哪些区别,如何向大语言模型发送提示词,期望从模型获得哪种响应格式。它们的底层工作原理是什么,分别适合在哪种场景下使用。

什么是Agent?

在深入细节之前,让我们先了解一下什么是 Agent。Agent系统的工作流程如下:

  1. 推理—对问题和任务进行思考与分析;
  2. 行动—调用工具或外部服务处理问题;
  3. 观察—查看获取的结果;
  4. 迭代—不断重复上述过程,直到达到预期的目标。

不同类型智能体之间的关键区别在于:它们与 大语言模型 的交互方式不同,也就是它们在执行推理工具选择过程时,与模型之间的通信方式存在差异。

核心区别:提示词

无论是 create_react_agent 还是 create_tool_calling_agent,它们都会让模型自主决定使用哪些工具、**何时使用。而两者之间最关键的区别在于:它们如何向 LLM 发送提示词,以及期望 LLM 返回的响应格式。

可以理解为它们是在用两种不同的“语言”与模型沟通:

  • ReAct Agent: “请一步一步地思考,并用文字告诉我你的推理过程。”
  • Tool Calling Agent: “这是函数定义,请直接用结构化数据调用它们。”

于是,LLM 会根据所接受的提示方式来回应,从而形成完全不同的交互模式。

一、create_react_agent:基于文本推理

什么是 ReAct?

ReAct 是 “Reasoning + Acting”(推理 + 行动)的缩写。它是一种让智能体通过“文本化思考循环”来展示自身思维过程的范式。这种循环的结构通常包括以下几个步骤:

  1. Thought(思考): 智能体思考下一步该做什么,分析问题或任务。
  2. Action(行动): 智能体决定使用哪个工具、以及如何使用它。
  3. Observation(观察): 智能体查看执行后的结果,并理解输出内容。
  4. Repeat(重复): 这一循环不断重复,直到任务完成为止。

以下是 ReAct agent实际上会发送给模型的内容:

#(1)ReAct agent向大语言模型发送如下内容:“你可以使用这些工具:[add, multiply]问题:先计算 5+3,然后将结果乘以 2思考:”#(2)模型回复:“我需要先把 5 和 3 相加,然后将结果乘以 2行动:add行动输入(Action Input):{"a": 5, "b": 3}”#(3)智能体调用 add(5, 3),得到结果8。把这个结果加入提示词中,再将更新后的提示词发送给 模型:“你可以使用这些工具:[add, multiply]问题:先计算 5+3,然后将结果乘以 2思考:我需要先把 5 和 3 相加,然后将结果乘以 2行动:add行动输入:{"a": 5, "b": 3}。观察:8思考:”#(4)模型回复:“现在我得到了 8,我需要将它乘以 2。“行动:multiply行动输入:{"a": 8, "b": 2}”# (5)智能体执行 multiply(8, 2),得到结果 16。然后再次将该结果加入提示词,形成最终的提示词:“你可以使用这些工具:[add, multiply]。问题:先计算 5+3,然后将结果乘以 2思考:我需要先把 5 和 3 相加,然后将结果乘以 2行动:add。行动输入:{"a": 5, "b": 3}观察:8思考:现在我得到了 8,我需要将它乘以 2行动:multiply行动输入:{"a": 8, "b": 2}观察:16思考:”#(6)LLM 回复:“完美!我现在得到了最终答案。最终答案:(5+3) × 2 的结果是 16”

可以看到,ReAct agent 不是通过一轮对话就回答了问题,也就是说模型并不会一次性计划好所有步骤。相反,agent与模型之间会进行多轮对话,每轮对话结束后都会调用不同的工具。

正是这种迭代式的特性, 使得 ReAct agent非常透明且易于调试 —你可以清楚地看到推理过程是如何逐步展开的!

create_react_agent如何工作

# 导入 LangChain 中的智能体创建方法from langchain.agents import AgentExecutor, create_react_agent# 导入用于创建自定义提示模板的类from langchain_core.prompts import PromptTemplate# 导入 MultiServer MCP 客户端,用于连接和调用外部工具服务from langchain_mcp_adapters.client import MultiServerMCPClient# 导入 Ollama LLM 语言模型from langchain_ollama import OllamaLLMfrom langchain import hubimport asyncioimport osos.environ["USER_AGENT"] = "my-langchain-agent/1.0"async def main():    # 创建 MultiServerMCPClient 客户端,用于管理外部工具(这里是 math server)    client = MultiServerMCPClient({        "math": {            "command": "python",                          "args": ["mathserver.py"],                     "transport": "stdio",                   }    })    # 获取外部工具列表    tools = await client.get_tools()    # 创建 Ollama LLM 实例,选择使用 "mistral" 模型    llm = OllamaLLM(model="mistral")    # 定义自定义 ReAct 提示模板    template = """尽可能回答以下问题。你可以访问这些工具:    {tools}    使用如下格式:    Question: 你必须回答的问题    Thought: 考虑该怎么做    Action: 采取行动, 应该是 [{tool_names}] 中之一    Action Input: 输入必须是有效的JSON格式, 例如 {{"a": 5, "b": 3}}    Observation: 观察结果    ... (这一 Thought/Action/Action Input/Observation 可以重复N次)    Thought: 现在我知道了最终答案    Final Answer: 获得最终答案    IMPORTANT: 输入始终要采用JSON格式。针对数学运算,使用 {{"a": number1, "b": number2}}.    开始!    Question: {input}    Thought:{agent_scratchpad}"""    prompt = PromptTemplate.from_template(template)    agent = create_react_agent(llm=llm, tools=tools, prompt=prompt)    agent_executor = AgentExecutor(        agent=agent,        tools=tools,        verbose=True,        handle_parsing_errors=True    )    result = await agent_executor.ainvoke({"input": "What's 5 + 3, then multiply by 2"})    print("\nResult:")    print(result["output"])if __name__ == "__main__":    asyncio.run(main())

当运行代码时,控制台会打印类似如下输出:

Entering new AgentExecutor chain...我需要先把两个数字相加,然后再将结果乘以 2。Action: ["add", {"a": 5, "b": 3}]Observation: {"result": 8}Thought: 既然我已经得到了和,我将把它乘以 2。Action: ["multiply", {"a": 8, "b": 2}]Observation: {"result": 16}Thought: 现在我知道最终答案了。Final Answer: 结果是 16

ReAct Agents的关键特征

  • 基于文本的通信:使用自然语言进行推理和交流。
  • 透明的推理:可以清楚地看到智能体的思考过程。
  • 模型无关:可以与任何文本生成模型配合使用。
  • 易于调试: 决策过程容易追踪,便于查找问题。
  • 详细输出:显示所有推理步骤,从思考到行动再到观察。
  • 字符串参数:工具参数通常以字符串形式传递。

二、create_tool_calling_agent:基于函数调用

工具调用(也称为函数调用)利用了现代大型语言模型的原生能力,可以直接调用函数。与基于文本的推理不同,模型知道如何使用结构化数据调用工具。

工具调用提示策略(Tool Calling Prompting Strategy)

工具调用agent的效率更高,因为它可以在一次与模型的交互中进行多次工具调用,相比于 ReAct agent,以更少的交互完成整个流程。

以下是一个工具调用agent向模型发送的内容示例:

# 工具调用消息messages = [        {        "role": "system",        "content": "你可以调用数学工具。"        },        {        "role": "user",        "content": "什么是 5 + 3?"        }        ]        # 提供给模型的Tool格式tools = [        {        "type": "function",        "function": {        "name": "add",        "description": "把两个数字相加",        "parameters": {        "type": "object",        "properties": {        "a": {"type": "integer"},        "b": {"type": "integer"}        },        "required": ["a", "b"]        }        }        }        ]        # 模型用结构化的FUNCTION CALL响应:        {        "tool_calls": [        {        "id": "call_123",        "type": "function",        "function": {        "name": "add",        "arguments": '{"a": 5, "b": 3}'        }        }        ]        }

create_tool_calling_agent如何工作

from langchain.agents import AgentExecutor, create_tool_calling_agentfrom langchain_groq import ChatGroqfrom langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholderfrom langchain_mcp_adapters.client import MultiServerMCPClientimport asyncioimport osos.environ["USER_AGENT"] = "my-langchain-agent/1.0"os.environ["GROQ_API_KEY"] = "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"async def main():  client = MultiServerMCPClient({    "math": {        "command": "python",        "args": ["mathserver.py"],        "transport": "stdio",      }    })        # 获取tools  tools = await client.get_tools()  llm = ChatGroq(          model="llama3-8b-8192",          temperature=0    )# 为tool calling agent创建正确的提示词模板  prompt = ChatPromptTemplate.from_messages([        ("system", "你是一个有用的助手,可以访问搜索tools。对于有关 DASA 的问题,请使用 DASA_search 工具;对于其他查询,请使用通用的 search 工具。"),        ("human", "{input}"),        MessagesPlaceholder("agent_scratchpad"),      ])  agent = create_tool_calling_agent(llm=llm, tools=tools, prompt=prompt)        agent_executor = AgentExecutor(        agent=agent,        tools=tools,        verbose=True,        handle_parsing_errors=True)    # 现在我们可以使用agent回答问题了。        result = await agent_executor.ainvoke({"input": "What's 5 + 3, then multiply by 2"})        print("\nResult:")        print(result["output"])if __name__ == "__main__":        asyncio.run(main())

当运行代码时,控制台会打印类似如下输出:

> Entering new AgentExecutor chain...Invoking: 对 `{'a': 5, 'b': 3}` 执行相加操作Invoking: 对 `{'a': 8, 'b': 2}` 执行相乘操作(5 + 3) × 2 的结果是 16.        > Finished chain.

Tool Calling Agents的关键特征

  • 基于函数的通信:使用结构化的函数调用方式进行通信。
  • 隐式推理:决策过程在模型内部完成,不需要显式地展示推理步骤。
  • 依赖模型:需要模型本身支持原生的工具调用功能。
  • 输出简洁:输出中不会显示模型的推理过程,只返回最终结果或结构化调用。
  • 高效执行:执行速度更快,使用的 token 更少。
  • 结构化参数:始终以正确的 JSON 或字典格式传递参数。

上述例子中使用的MCP server如下:

"""使用 FastMCP 的Math Server这是一个简单的 MCP 服务器,用于提供基本的数学运算功能。"""from fastmcp import FastMCPimport math# 创建 MCP server 实例        mcp = FastMCP("Math Server")@mcp.tool()def add(a: float, b: float) -> float:        """将两个数字相加"""        return a + b@mcp.tool()def subtract(a: float, b: float) -> float:        """计算两个数字的差值."""        return a - b@mcp.tool()def multiply(a: float, b: float) -> float:        """将两个数字相乘"""        return a * b@mcp.tool()def divide(a: float, b: float) -> float:        """用第二个数字除以第一个数字"""        if b == 0:raise ValueError("不能用0做除数")    return a / bif __name__ == "__main__":        # 运行server    mcp.run()

三、注意事项:

如果你查看上面的 Python 代码,会发现我在 ReAct agent 中使用了 Mistral 模型,而在 Tool Calling Agent 中使用了 ChatGroq 模型

原因如下:

  • Mistral 擅长自然语言推理和基于文本的思维模式,因此非常适合用于 ReAct agent
  • 相反,ChatGroq 具备原生的函数调用(function calling)支持,并且能够理解 JSON schema,因此非常适合于 Tool Calling Agent

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套 AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2025 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要 《AI大模型入门+进阶学习资源包》下方扫码获取~
在这里插入图片描述

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
在这里插入图片描述

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
在这里插入图片描述

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
在这里插入图片描述

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
在这里插入图片描述

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
在这里插入图片描述

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

图片

以上资料如何领取?

在这里插入图片描述

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

图片

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!
在这里插入图片描述
在这里插入图片描述

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
在这里插入图片描述
在这里插入图片描述

以上全套大模型资料如何领取?

在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐