跟我学LangChain:入门指南,基于LLM构建强大AI应用的“魔法框架”
LangChain 是一个用于开发由大型语言模型 (LLMs) 驱动的应用程序的框架。它为开发者提供了一系列的工具和组件,开发者只需要写几行代码,就能运行一个大型LLM程序,甚至快速构建一个响应式的机器人。
当开发者构建LLM应用时,可能会遇到很多API接口、数据格式、工具等,特别是一个非AI领域的开发者,要研究入门总觉得有很大的负担。LangChain 就是为了让你跨越这道门槛,让LLM应该的开发更加简单。

01 为什么需要 LangChain ?
1、LangChain 是什么?
LangChain 是一个用于开发由大型语言模型 (LLMs) 驱动的应用程序的框架。它为开发者提供了一系列的工具和组件,开发者只需要写几行代码,就能运行一个大型LLM程序,甚至快速构建一个响应式的机器人。
2、两个关键概念
LangChain 的两个关键概念是 “组件” 和 “链”。
1️⃣ “组件”:在 LangChain 中,组件不是代码的拼凑,是一个具有明确功能的单元。
2️⃣ “链”:在 LangChain 中,链是将各种组件连接在一起的纽带,它能够确保组件之间的无缝集成和在程序运行环境中的高效调用。
3、三个常用场景
LangChain 的三个常用场景是 “问答系统” 、 “数据处理与管理” 和 “自动问答与客服机器人”。
➡️ 场景一:“问答系统”:问答系统已经成为大多数 LLM 应用不可或缺的一部分,基于 LangChain 可以轻松的与外部数据交互,迅速提取关键信息,然后执行生成操作,生成准确的回答。
➡️ 场景二:“数据处理与管理”:在数据的驱动下,RAG 成为一个非常热门的落地方向,RAG 结合了检索和生成两个阶段,可以提供更为精准的回答。在 LangChain 中,采用了 LEDVR 工作流来实现 RAG。
LEDVR,其中L代表加载器(Loader),E代表嵌入模型(Embedding Model),D代表文档转化器(Document Transformers),V代表向量存储(VectorStore),R代表检索器(Retriever)。
➡️ 场景三:“自动问答与客服机器人”:目前在很多平台(比如淘宝、京东等电商平台)已经上线了客服机器人,客服机器人已经慢慢成为了用户与公司的首要交互点。使用 LangChain 的 Agent 功能,可以快速构建实时响应的客服机器人。
02 LangChain 的6大模块

1、模型 I/O(Model IO)
LangChain 提供了与任何LLM适配的模型包装器,分为LLM包装器、聊天模型(Chat Model)包装器。
2、数据增强(Data Connection)
市面上的 LLM 通常是通用型大模型,而确实特定企业(或用户)的数据。LangChain 提供了加载、转换、存储和查询数据的构建模块。
3、链(Chain)
LangChain 提供了链式封装,可以将 LLM 以及各种组件进行链式连接。
4、记忆(Memory)
主要用能够引用对话中的信息。LangChain 提供了多种记忆模块,可以独立使用,也可以集成到链中使用。
5、Agent
核心思想是利用 LLM 选择操作序列,在链中,操作序列是硬编码的,而在 Agent 代理中,LLM 作为推理引擎,确定执行哪些操作和执行顺序。
6、回调处理器(Callback)
LangChain提供了一个回调系统,开发者可以在 LLM 应用的各个阶段对状态进行干预。
03 LangChain 的开发流程
1、密钥管理
LangChain 是一个集成框架,在开发 LLM 应用时,需要使用第三方平台的模型或者工具,此时一般都需要使用密钥(key)。
一般有如下方法:
(1)硬编码,写在代码里
OPENAI_API_KEY=xxxxxx
或者写在os环境变量.env文件
import os
os.environ.get('API_KEY')
(2)使用环境变量,将环境变量
可以在本地环境或者服务器上设置环境变量,将密钥保存为环境变量。
export OPENAI_API_KEY=xxxxxx
当你使用 Python 代码初始化 OpenAI 时,LangChain 会自动从环境变量中检测并获取密钥。
(3)使用getpass
这种方式是让用户主动输入密钥。
import os
import getpass
from langchain.llms import OpenAI
os.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API Key:')
llm = OpenAI()
2、安装 Python 包
pip install openai langchain
3、编写第一个聊天机器人
(1)创建模型(调用的本地 Ollama 服务的 Deepseek 模型)
from langchain_community.llms.ollama import Ollama
llm = Ollama(model='deepseek-r1:14b')
(2)创建提示词模版
首先在 LangChain 的 schema 中定义了 AIMessage、HumanMessage以及SystemMessage三种角色的消息。
其次,封装了SystemMessagePromptTemplate、HumanMessagePromptTemplate、ChatPromptTemplate等模版类,便于创建提示词模板。
from langchain.prompts.chat import ChatPromptTemplate, SystemMessagePromptTemplate, HumanMessagePromptTemplate
# 创建系统提示词
template = (
"你是{role}领域的专家,根据用户提出的问题给出相关建议。"
)
system_msg_prompt = SystemMessagePromptTemplate.from_template(template)
# 定义人类对话的提示词
human_template = "{text}"
human_msg_prompt = HumanMessagePromptTemplate.from_template(human_template)
# 将两个模版组合到聊天提示词模版
chat_prompt = ChatPromptTemplate.from_messages([
system_msg_prompt,
human_msg_prompt
])
(3)创建链及运行
from langchain.chains import LLMChain
# 使用 LLMChain 连接聊天模型和提示词
chain = LLMChain(llm=llm, prompt=chat_prompt)
# 运行链
res = chain.invoke({
"role": "旅游",
"text": "到上海旅游应该如何计划"
})
print(res)
(4)Agent
from langchain.agents import load_tools
from langchain.agents import initialize_agent
from langchain.agents import AgentType
# 加载工具,这里加载的 serpapi 是网络搜索工具,llm-math 是数学计算工具
tools = load_tools(["serpapi", "llm-math"], llm=llm)
# 初始化链
agent = initialize_agent(tools,llm=llm, agent=AgentType.CHAT_ZERO_SHOT_REACT_DESCRIPTION, verbose=True)
# 运行
agent.run("上海未来一周的天气怎么样?")
(5)记忆组件
以上实现的聊天机器人已经可以运行了,但它是无状态的,在对话中无法跟踪与用户的交互信息,此时就需要 LangChain 提供的“记忆”组件了。
记忆组件具有两个基本操作:读取和写入。
from langchain.memory import ConversationBufferMemory
from langchain.chains import ConversationChain
# 创建内置的记忆组件
memory = ConversationBufferMemory(return_messages=True)
# 创建一个会话链
conversation = ConversationChain(memory=memory, prompt=chat_prompt, llm=llm)
# 运行
conversation.predict(input="你好,我是jack")
祝贺大家,到这里,你基本掌握了 LangChain 的重要概念以及基本的使用方法,同时也完成了第一个聊天机器人,一起动起手来吧!
想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年 AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享!
👇👇扫码免费领取全部内容👇👇

一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势
想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI:
1. 100+本大模型方向电子书

2. 26 份行业研究报告:覆盖多领域实践与趋势
报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:
- 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
- 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
- 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
- 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。
3. 600+套技术大会 PPT:听行业大咖讲实战
PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:

- 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
- 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
- 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
- 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。
二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走
想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!

1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位
面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析:

2. 102 道 AI 大模型真题:直击大模型核心考点
针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:

3. 97 道 LLMs 真题:聚焦大型语言模型高频问题
专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:

三、路线必明: AI 大模型学习路线图,1 张图理清核心内容
刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!

路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代
L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

L5阶段:专题集丨特训篇 【录播课】

四、资料领取:全套内容免费抱走,学 AI 不用再找第二份
不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:
👇👇扫码免费领取全部内容👇👇

2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!
更多推荐


所有评论(0)