目录

1.无代码 / 低代码平台

1. 大模型官方平台

Coze

OpenAI GPTs

2. 企业级/开源低代码平台

Dify

FastGPT

Flowise

2.LangChain之Agent

Agent、AgentExecutor的创建

创建Agent

创建AgentExecutor

Agent使用举例

3.多智能体框架

CrewAI

Microsoft AutoGen

MetaGPT

4.端侧/本地化 Agent

Ollama+Docker+git


1.无代码 / 低代码平台

1. 大模型官方平台

Coze

1.进入扣子编程

2.点击创建即可

3.在模板商店可以看见扣子官方搭建的"扣子应用搭建快速入门",可以复制到自己的个人空间,在项目开发中查看,可快速入门扣子应用的搭建

OpenAI GPTs

GPTs(Custom GPT)是 OpenAI 推出的、ChatGPT 的零代码定制化版本,普通人无需编程,就能打造专属 AI 助手,也可在 GPT Store 分享 / 使用他人创建的 GPTsOpenAI。

help.openai.com


2. 企业级/开源低代码平台

Dify

Dify 是一款开源、低代码的 LLM 应用开发与 LLMOps 平台,主打可视化编排、多模型兼容、RAG 与工作流,让开发者 / 业务人员快速搭建生产级 AI 应用Dify。

Dify 支持两种使用方式:云服务(无需部署,适合快速体验)和本地部署(适合开发和私有化需求)。

这里我们先说第一种云服务方式,本地部署我们在 4.端侧/本地化Agent再详细展开。

1.打开网址https://cloud.dify.ai/

2.进入页面后,选择适合的登录方式

3.登录后在工作台首页,点击 「创建应用」,选择想要创建的应用类型即可

FastGPT

FastGPT 是一款国内开源、低代码、基于大语言模型的 AI 智能体 / 知识库应用开发平台,采用 Apache 2.0 开源协议(支持免费商用),主打开箱即用的 RAG能力,同时具备成熟的 Agent 编排、可视化工作流、多模型兼容与企业级私有化部署能力,是国内生态最完善的 AI 应用低代码开发工具之一,与 Dify、Flowise 同属热门的企业级开源 AI 开发平台。

Flowise

Flowise是一个开源的图形化流程编排工具,利用大语言模型(LLM)的强大能力,帮助用户可视化地设计、构建和管理复杂的 AI 工作流。


2.LangChain之Agent

Agent、AgentExecutor的创建

在 LangChain 中,Agent 是 “决策大脑”,AgentExecutor 是 “执行器”。

因此,我们要知道Agent、AgentExecutor的创建

创建Agent

Agents的类型无非就是两种模式:

Function Calling
React

传统方式:使用AgentType指定.

对于Function模式,有一种典型的AgentType:

AgentType.OPENAI_FUNCTIONS 单轮多工具

对于ReAct 模式,有三种典型的AgentType:

AgentType.ZERO_SHOT_REACT_DESCRIPTION 简单任务、无记忆
AgentType.STRUCTURED_CHAT_ZERO_SHOT_REACT_DESCRIPTION  结构化输出 + 记忆
AgentType.CONVERSATIONAL_REACT_DESCRIPTION 会话记忆 + 自然语言对话

通用方式: 使用create_react_agent或create_tool_calling_agent:

Tool Calling中的create_openai_functions_agent 专属 OpenAI 系模型,较常用。

##通用方式创建Agent之create_react_agent
agent = create_react_agent(   
    llm=llm, 
    prompt=prompt,
    tools=tools
)
##通用方式创建Agent之create_tool_calling_agent
agent = create_tool_calling_agent(
    llm = llm,
    tools = [search],
    prompt = prompt
)

创建AgentExecutor

传统方式:initialize_agent()

##传统方式创建AgentExecutor
agent_executor = initialize_agent(
    llm=llm,
    agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION,
    tools=[search_tool],
  verbose=True
)

注意:这是早期 LangChain 为了简化使用提供的 “一键式” 函数,把 Agent 创建和执行器封装在一起。

通用方式:AgentExecutor构造方法

##通用方式创建AgentExecutor
agent_executor = AgentExecutor(
    agent=agent, 
    tools=tools
)

Agent使用举例

以下从两个不同的Agent创建方式举例

注意若遇到版本不兼容的问题,可pip install langchain_classic, langchain_classic是官方推出的实现 LangChain 新版环境对旧版代码的向后兼容的库。

import os
import dotenv
from langchain_classic.agents import create_openai_functions_agent, AgentExecutor
from langchain_community.chat_models import ChatOpenAI
from langchain_community.tools import TavilySearchResults
from langchain_core.tools import Tool
from langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholder

dotenv.load_dotenv()

os.environ['OPENAI_API_KEY'] = os.getenv("OPENAI_API_KEY1")
os.environ['OPENAI_BASE_URL'] = os.getenv("OPENAI_BASE_URL")

os.environ["TAVILY_API_KEY"] = "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"
search = TavilySearchResults(max_results=3)

# 1.工具
search_tool = Tool(
    name="search_tool",
    func=search.run,
    description="用于互联网信息的检索,比如查询实时天气、最新新闻、股票数据等需要联网获取的信息"
)

# 2. 定义工具集
tools = [search_tool]

# 3. 初始化大模型(GPT-4o-mini)
llm = ChatOpenAI(
    model="gpt-4o-mini",
    temperature=0,  # 温度0保证回答稳定
    verbose=True
)

# 4. 定义Agent的Prompt
prompt = ChatPromptTemplate.from_messages([
    ("system", "你是一个智能助手,擅长使用工具解决用户问题。如果需要获取实时信息,必须调用search_tool123工具。"),
    ("user", "{input}"),  
    MessagesPlaceholder(variable_name="agent_scratchpad"),  # Agent思考过程占位符
])

# 5. 创建OpenAI Functions Agent
agent = create_openai_functions_agent(llm, tools, prompt)

# 6. 创建Agent执行器
agent_executor = AgentExecutor(
    agent=agent,
    tools=tools,
    verbose=True,  
    handle_parsing_errors=True  
)

# 7. 调用Agent查询天气
result = agent_executor.invoke({"input": "北京明天的天气怎么样?"})
print("\n最终回答:", result["output"])

#1.导入相关包
import os
import dotenv
from langchain_classic.agents import AgentExecutor
from langchain_classic.agents.react.agent import create_react_agent
from langchain_community.tools.tavily_search import TavilySearchResults
from langchain_core.prompts import PromptTemplate
from langchain_core.tools import Tool
from langchain_openai import ChatOpenAI


dotenv.load_dotenv()

os.environ['OPENAI_API_KEY'] = os.getenv("OPENAI_API_KEY1")
os.environ['OPENAI_BASE_URL'] = os.getenv("OPENAI_BASE_URL")

#2.搜索化工具
os.environ["TAVILY_API_KEY"] = "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"  # 需要替换为你的 Tavily API 密钥

search = TavilySearchResults(max_results=1)
search_tool = Tool(
    name="search_tool",
    func=search.run,
    description="用于互联网信息的检索"
)


tools = [search_tool]

#3.提供大模型
llm = ChatOpenAI(
    model="gpt-4o-mini",
    temperature=0,
)
#4.提供提示词模板
template = '''Answer the following questions as best you can. You have access to the following tools:
            {tools}

            Use the following format:

            Question: the input question you must answer
            Thought: you should always think about what to do
            Action: the action to take, should be one of [{tool_names}]
            Action Input: the input to the action
            Observation: the result of the action
            ... (this Thought/Action/Action Input/Observation can repeat N times)
            Thought: I now know the final answer
            Final Answer: the final answer to the original input question

            Begin!

            Question: {input}
            Thought:{agent_scratchpad}'''
prompt_template = PromptTemplate(
    template=template,
)

#5.创建Agent
agent = create_react_agent(
    llm=llm,
    tools=tools,
    prompt=prompt_template,
)

#6.创建AgentExecutor
agent_executor = AgentExecutor(
    agent=agent,
    tools=tools,
    verbose=True,  #显示详情
    handle_parsing_errors=True
)

#7.调用
agent_executor.invoke({"input": "明天北京的天气情况如何?"})


3.多智能体框架

当你需要一个Agent团队协作(例如:一个写代码,一个审代码,一个测试)时使用。

CrewAI

CrewAI 是基于 LangChain 的开源 Python 多智能体协作框架,主打角色化 AI 团队自动协作,让多个 Agent 像真人团队一样分工、沟通、委派任务,搞定复杂任务(如写报告、做研究、开发软件)。

可参考官方文档:

https://docs.crewai.com/

代码示例:

import os

from crewai import Agent,Task,Crew,Process,LLM
from dotenv import load_dotenv
load_dotenv()

llm = LLM(
    model = os.getenv('OPENAI_MODEL'),
    base_url = os.getenv('OPENAI_BASE_URL'),
    api_key = os.getenv('OPENAI_API_KEY1'),
)



# 2. 定义 Agent
researcher = Agent(
    role="资深AI研究员",
    goal="收集2026年多Agent框架最新趋势",
    backstory="10年AI行业研究,擅长技术趋势分析",
    llm = llm,
    verbose=True
)

writer = Agent(
    role="技术作家",
    goal="把研究结果写成清晰报告",
    backstory="擅长技术内容创作,语言简洁易懂",
    llm = llm,
    verbose=True
)

# 3. 定义任务
task1 = Task(
    description="调研CrewAI、AutoGPT、LangGraph最新动态",
    agent=researcher,
    expected_output="3页技术趋势摘要"
)

task2 = Task(
    description="基于调研写一份《2026多Agent框架报告》",
    agent=writer,
    expected_output="完整报告,含结论与建议"
)

# 4. 组建团队并运行
crew = Crew(
    agents=[researcher, writer],
    tasks=[task1, task2],
    process=Process.sequential,
    verbose=True
)
result = crew.kickoff()
print(result)

Microsoft AutoGen

1.在终端输入pip install -U autogenstudio,下载autogenstudio

2.输入autogenstudio ui --port 8080 --appdir ./myapp,启动 AutoGenStudio 服务

3.启动成功后,终端会输出访问地址,直接在浏览器打开:

注意:模型要设置api。gpt系列可从closeai官网获取。

MetaGPT

MetaGPT 是开源多智能体协作框架,核心是模拟完整软件公司,用一行自然语言需求自动生成可运行项目(PRD、架构、代码、测试全流程),核心理念:Code = SOP(Team)。

1.克隆代码git clone https://github.com/FoundationAgents/MetaGPT.git

2.创建虚拟环境并进入 conda create metagpt python=3.10 && conda activate metagpt

3.进入MetaGPT文件夹

4.pip install -e.

5.修改config2.yaml文件,改成自己的model、base_url、 api_key

6.终端输入:metagpt "你好"


4.端侧/本地化 Agent

Ollama+Docker+git

1.下载ollama

2.下载docker

3.下载git

4.打开终端:git clone https://github.com/langgenius/dify.git

cd dify/docker
copy  .env.example .env
docker compose up -d

5.在浏览器输入http://localhost/install,进入dify

6.进入ollama官网,选择模型,在模型列表中选择所需的模型,随后在终端中执行对应的 CLI 命令以拉取并运行该模型。我这里选择的是qwen3:14。

7.在进入dify,点击头像,找到设置,在进入模型供应商,选择ollama插件进行安装,随后完成配置即可。

如果有什么问题,欢迎随时来评论区讨论。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐