开发人员的进行开发和测试,使用本地服务非常方便,部署和管理都很简单。本文讲解如何搭建一个langgraph本地服务。

        前提条件:申请一个langsmith账号,并创建API_KEY

       1.安装依赖

       #pip install langgraph-cli

       2.创建应用

       以下命令使用模板new-langgraph-project-python创建应用。

       #langgraph new path/to/your/app --template new-langgraph-project-python

       注意:运行该命令时,需要下载new-langgraph-project-python,路径为:https://github.com/langchain-ai/new-langgraph-project/archive/refs/heads/main.zip下载失败,检查了一下github中没有这个目录。发现路径为:GitHub - langchain-ai/new-langgraph-project,直接使用git下载在创建应用。

       3.安装依赖

      进入应用主目录,运行pip安装依赖。

       #pip install -e .

       4.配置langsmith api_key

       #cp .env.example .env

      在.env中增加如下内容:

LANGSMITH_API_KEY=lsv2...

        5.修改graph.py文件

        用以下内容替换原有内容

from langchain_openai import ChatOpenAI
from langgraph.prebuilt import create_react_agent
import os
from langchain_tavily import TavilySearch

os.environ["TAVILY_API_KEY"] = "tvly-……"
tool = TavilySearch(max_results=2)
tools = [tool]

llm = ChatOpenAI(
    model = 'qwen-plus',
    api_key = "sk-……",
    base_url = "https://dashscope.aliyuncs.com/compatible-mode/v1")

graph = create_react_agent(
    llm,
    tools=tools,
    prompt="你是一个智能助手"
)    

        6.启动应用

       在应用目录下运行如下命令启动应用:

        #langgraph dev

        输出如下类似信息,并且没有报错,则说明服务运行正常:

        7.测试一下

        直接用curl进行测试:

curl -s --request POST \ --url "http://localhost:2024/runs/stream" \ --header 'Content-Type: application/json' \ --data "{ \"assistant_id\": \"agent\", \"input\": { \"messages\": [ { \"role\": \"human\", \"content\": \"美国现任总统是谁?\" } ] }, \"stream_mode\": \"messages-tuple\" }"

        如果流式输出特朗普的信息,则说明可以使用。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐