使用langgraph开发基础-运行一个本地服务
本文讲解搭建一个本地的langgraph服务,用于开发和测试。作为后继使用langgraph开发agent的基础。
开发人员的进行开发和测试,使用本地服务非常方便,部署和管理都很简单。本文讲解如何搭建一个langgraph本地服务。
前提条件:申请一个langsmith账号,并创建API_KEY
1.安装依赖
#pip install langgraph-cli
2.创建应用
以下命令使用模板new-langgraph-project-python创建应用。
#langgraph new path/to/your/app --template new-langgraph-project-python
注意:运行该命令时,需要下载new-langgraph-project-python,路径为:https://github.com/langchain-ai/new-langgraph-project/archive/refs/heads/main.zip下载失败,检查了一下github中没有这个目录。发现路径为:GitHub - langchain-ai/new-langgraph-project,直接使用git下载在创建应用。
3.安装依赖
进入应用主目录,运行pip安装依赖。
#pip install -e .
4.配置langsmith api_key
#cp .env.example .env
在.env中增加如下内容:
LANGSMITH_API_KEY=lsv2...
5.修改graph.py文件
用以下内容替换原有内容
from langchain_openai import ChatOpenAI
from langgraph.prebuilt import create_react_agent
import os
from langchain_tavily import TavilySearchos.environ["TAVILY_API_KEY"] = "tvly-……"
tool = TavilySearch(max_results=2)
tools = [tool]llm = ChatOpenAI(
model = 'qwen-plus',
api_key = "sk-……",
base_url = "https://dashscope.aliyuncs.com/compatible-mode/v1")graph = create_react_agent(
llm,
tools=tools,
prompt="你是一个智能助手"
)
6.启动应用
在应用目录下运行如下命令启动应用:
#langgraph dev
输出如下类似信息,并且没有报错,则说明服务运行正常:
7.测试一下
直接用curl进行测试:
curl -s --request POST \ --url "http://localhost:2024/runs/stream" \ --header 'Content-Type: application/json' \ --data "{ \"assistant_id\": \"agent\", \"input\": { \"messages\": [ { \"role\": \"human\", \"content\": \"美国现任总统是谁?\" } ] }, \"stream_mode\": \"messages-tuple\" }"
如果流式输出特朗普的信息,则说明可以使用。
更多推荐
所有评论(0)