langchain调用大模型流式输出
【代码】langchain调用大模型流式输出。
·
from langchain_openai import ChatOpenAI
# 获取大语言模型实例
llm = ChatOpenAI(
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
model="qwen-turbo",
temperature=0,
max_retries=5,
api_key="" # 请填入有效的 API 密钥
)
chunks = []
for chunk in llm.stream("能大概给我讲一下小红帽的故事吗"):
chunks.append(chunk)
print(chunk.content,end='')
更多推荐



所有评论(0)