在大模型(LLM)应用中,如何让模型准确回答领域知识问题是一个关键挑战。直接依赖预训练模型往往会遇到 幻觉(hallucination),因为模型可能“编造”不存在的事实。为了解决这一问题,业界提出了 RAG(Retrieval-Augmented Generation,检索增强生成) 方法:通过检索外部知识库,将相关信息提供给模型,从而提升回答的准确性。

LangChain由Chains、Agents、Memory、Tools四个核心组件组成的框架,支持复杂任务分解和多模型协作,内置多种 Memory 管理模式,方便多轮对话,与知识库、搜索引擎等工具集成方便。

本文将带大家用 LangChain 框架,结合向量数据库,构建一个简易的 RAG 系统,并完成一个端到端的问答任务。

二、环境配置

首先需要安装必要的依赖,包括 langchain、faiss 以及大模型 API 相关的依赖。

# 安装必要的依赖包
!pip install langchain faiss-cpu openai tiktoken

这一步主要是为后续的文档切分、向量化存储以及调用大模型接口做准备。

三、加载与处理文档

我们需要先准备一个知识库,通常是一些本地的文本或 PDF 文件。LangChain 提供了丰富的文档加载器和文本切分工具。

from langchain.text_splitter import CharacterTextSplitter
from langchain.document_loaders import TextLoader
# 加载本地文本文件
loader = TextLoader("data/knowledge.txt", encoding="utf-8")
documents = loader.load()
# 使用字符切分器将文档分块,避免太长影响向量化效果
text_splitter = CharacterTextSplitter(chunk_size=500, chunk_overlap=50)
docs = text_splitter.split_documents(documents)
print(f"文档总块数: {len(docs)}")

这里的逻辑是:先加载 → 再切分。切分后的文档会作为知识库的基本单元。

四、向量数据库构建

RAG 的核心在于“检索”,因此我们需要把切分后的文档存入 向量数据库(FAISS),以便后续通过相似度检索找到相关内容。

from langchain.embeddings.openai import OpenAIEmbeddings
from langchain.vectorstores import FAISS
# 使用 OpenAI Embeddings 将文档转为向量
embedding_model = OpenAIEmbeddings()
# 构建向量数据库
db = FAISS.from_documents(docs, embedding_model)
# 保存数据库到本地,方便下次直接加载
db.save_local("faiss_index")

这样,我们就得到了一个可检索的知识库,可以随时调用。

五、大模型接入

在 LangChain 中,我们可以很方便地接入大语言模型(如 OpenAI GPT)。

from langchain.chat_models import ChatOpenAI
# 初始化大语言模型
llm = ChatOpenAI(model_name="gpt-3.5-turbo", temperature=0)

这里的 temperature=0 表示模型尽量给出确定性答案,减少随机性。

六、构建 RAG 问答链

现在我们将检索模块和大模型结合,形成一个 检索增强问答链。

from langchain.chains import RetrievalQA
# 将数据库作为检索器
retriever = db.as_retriever(search_kwargs={"k": 3})
# 构建 RAG 问答链
qa = RetrievalQA.from_chain_type(
llm=llm,
retriever=retriever,
return_source_documents=True
)
# 示例提问
query = "请介绍一下本文档中的核心方法是什么?"
result = qa({"query": query})
print("问题:", query)
print("回答:", result["result"])
print("引用文档:", result["source_documents"])

这一部分就是 RAG 的核心:先检索,再回答。模型不仅能给出答案,还能返回引用的文档片段,增强可解释性。

七、问答效果展示

我们可以进一步测试不同问题,观察 RAG 与普通 LLM 回答的区别。

# 提问 1
query1 = "该方法在应用中解决了什么问题?"
print("问题1:", query1)
print("回答1:", qa({"query": query1})["result"])
# 提问 2
query2 = "能否总结一下文档的主要内容?"
print("问题2:", query2)
print("回答2:", qa({"query": query2})["result"])

通过多轮问答,可以验证系统是否真正利用了外部知识库,而不是单纯依赖大模型的“想象力”。

八、总结

上面我们从零开始用了LangChain框架实现了RAG,整个流程包括:

1.文档加载与切分

2.向量化与数据库存储

3.检索器与大模型结合

4.构建端到端问答链

为了达到更好的效果,代码中可以替换为更强的开源 Embedding 模型(如 bge-large-zh),并且可以使用 Milvus、Weaviate 等更强大的数据库。

如果你看到了这里,恭喜你,你可以自己手动试试啦!

想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年 AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享

👇👇扫码免费领取全部内容👇👇

一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势

想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI

1. 100+本大模型方向电子书

在这里插入图片描述

2. 26 份行业研究报告:覆盖多领域实践与趋势

报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:

  • 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
  • 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
  • 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
  • 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。

3. 600+套技术大会 PPT:听行业大咖讲实战

PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:

在这里插入图片描述

  • 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
  • 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
  • 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
  • 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。

二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走

想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!

1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位

面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析

2. 102 道 AI 大模型真题:直击大模型核心考点

针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:

3. 97 道 LLMs 真题:聚焦大型语言模型高频问题

专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:


三、路线必明: AI 大模型学习路线图,1 张图理清核心内容

刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!

在这里插入图片描述

路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。

img

L1阶段:启航篇丨极速破界AI新时代

L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

img

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

img

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

img

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

img

L5阶段:专题集丨特训篇 【录播课】

img
四、资料领取:全套内容免费抱走,学 AI 不用再找第二份

不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:

👇👇扫码免费领取全部内容👇👇

2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐