Spring AI系列之RAG(检索增强生成)从原理到实战指南
Spring AI与RAG技术解析 本文深入探讨了检索增强生成(RAG)技术在Spring AI生态中的应用。RAG通过结合大语言模型(LLM)与外部知识检索,有效解决了传统LLM的知识截止、幻觉问题、上下文限制和领域专业度不足等痛点。 文章详细剖析了RAG的核心架构,包括离线索引和在线检索生成两大阶段,重点讲解了Embedding技术如何将文本转换为语义向量,以及余弦相似度和欧氏距离两种关键算法
Spring AI系列之RAG(检索增强生成)从原理到实战指南
在LLM(大语言模型)时代,如何让AI既拥有通用能力又具备专业知识?RAG技术给出了完美答案。本文将基于Spring AI生态,深入剖析RAG的核心原理、实现细节与优化策略。
一、为什么需要RAG?
在深入了解RAG之前,我们需要先认识传统LLM的局限性:
| 缺陷类型 | 具体表现 | RAG解决方案 |
|---|---|---|
| 知识截止 | 模型知识有截止日期,无法获取最新信息 | 实时检索外部知识库 |
| 幻觉问题 | 自信地生成看似合理但实际错误的内容 | 基于检索到的真实信息生成 |
| 上下文限制 | 长文本处理能力有限 | 只检索最相关的上下文片段 |
| 领域专业度 | 通用模型缺乏垂直领域深度知识 | 外挂专业领域知识库 |
比喻理解:如果将LLM比作一个"高中毕业生",那么:
- Fine-tuning(微调) = 让他花7年时间去医学院学习,然后成为医生
- RAG = 给他配备了一群专业主任医师作为顾问,遇到问题时先咨询专家再作答
二、RAG核心架构解析
2.1 整体工作流程
RAG的工作流程可以分为两大阶段:离线索引(Indexing) 和 在线检索生成(Retrieval & Generation)。
RAG论⽂:https://arxiv.org/pdf/2312.10997
中文版本:
详细流程说明:
-
索引阶段(离线):
- 文档加载:从PDF、Word、Excel等格式中提取文本
- 文本分割(Chunking):将长文档切分为适当大小的片段
- 向量化(Embedding):使用Embedding模型将文本转为向量
- 存储:存入Milvus、Redis等向量数据库
-
检索阶段(在线):
- 查询向量化:将用户问题转换为向量
- 相似度匹配:在向量空间中查找最相似的Top-K个片段
- 重排序(Reranking):(可选)对检索结果进行精排
-
生成阶段:
- 上下文组装:将检索到的片段作为"已知信息"注入Prompt
- LLM推理:模型基于提供的上下文生成答案
2.2 关键技术:Embedding与相似度计算
什么是Embedding?
Embedding是将文本、图像等转换为高维向量的技术。语义相似的文本在向量空间中的距离更近。
例如,⼆维空间中的向量可以表示为 (𝑥,𝑦),即表示从原点 (0,0) 到点 (𝑥,𝑦) 的有向线段
- 将⽂本转成⼀组浮点数:每个下标 i ,对应⼀个维度
- 整个数组对应⼀个 n 维空间的⼀个点,即⽂本向量叫
Embeddings - 向量之间可以计算距离,距离远近对应语义相似度⼤⼩
"这个多少钱" → [0.1, 0.5, -0.7, ..., 0.25]
"这个什么价格" → [0.12, 0.4, -0.3, ..., 0.3] ← 距离近(语义相似)
"给我报个价" → [0.15, 0.3, -0.2, ..., 0.3] ← 距离近(语义相似)
"我想要这个" → [0.8, -0.1, 0.4, ..., -0.1] ← 距离远(语义不同)

相似度计算方法:
-
余弦相似度(Cosine Similarity)
- 衡量两个向量方向的相似性,值域[-1, 1]
- 适合文本语义匹配,不受向量长度影响
- 公式: s i m i l a r i t y ( A , B ) = A ⋅ B ∥ A ∥ ∥ B ∥ similarity(A,B) = \frac{A \cdot B}{\|A\| \|B\|} similarity(A,B)=∥A∥∥B∥A⋅B
-
欧氏距离(Euclidean Distance)
- 衡量向量空间的实际距离
- 公式: d ( A , B ) = ∑ i = 1 n ( a i − b i ) 2 d(A,B) = \sqrt{\sum_{i=1}^{n}(a_i - b_i)^2} d(A,B)=∑i=1n(ai−bi)2
- 值越小越相似
具体选哪种方法?
- 欧式距离:如果更侧重于向量的实际距离,且向量的尺度相对一致时,更适合用欧式距离
- 余弦相似度:更适用于比较文本、关键词向量等场景。因为这些场景向量的方向比他们的模长更重要

三、实战:基于Spring AI + Milvus实现RAG
3.1 环境准备
依赖配置(Maven):
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-starter-openai</artifactId>
</dependency>
<dependency>
<groupId>io.milvus</groupId>
<artifactId>milvus-sdk-java</artifactId>
<version>2.2.10</version>
</dependency>
配置信息:
# OpenAI配置(用于Embedding和Chat)
spring.ai.openai.api-key=your-api-key
spring.ai.openai.embedding.api-key=your-api-key
spring.ai.openai.embedding.base-url=https://api.openai-hk.com
# Milvus配置
milvus.host=localhost
milvus.port=19530
3.2 核心代码实现
步骤1:创建向量集合
public void createCollection() {
List<FieldType> fieldTypes = Arrays.asList(
// 主键ID
FieldType.newBuilder()
.withName("id")
.withDataType(DataType.Int64)
.withPrimaryKey(true)
.withAutoID(true)
.build(),
// 向量字段(1536维,对应text-embedding-3-small)
FieldType.newBuilder()
.withName("feature")
.withDataType(DataType.FloatVector)
.withDimension(1536)
.build(),
// 原始文本
FieldType.newBuilder()
.withName("instruction")
.withDataType(DataType.VarChar)
.withMaxLength(65535)
.build(),
// 答案内容
FieldType.newBuilder()
.withName("output")
.withDataType(DataType.VarChar)
.withMaxLength(65535)
.build()
);
CreateCollectionParam createParam = CreateCollectionParam.newBuilder()
.withCollectionName("springai_rag")
.withFieldTypes(fieldTypes)
.build();
client.createCollection(createParam);
// 创建IVF_FLAT索引,加速检索
CreateIndexParam indexParam = CreateIndexParam.newBuilder()
.withCollectionName("springai_rag")
.withFieldName("feature")
.withIndexType(IndexType.IVF_FLAT)
.withMetricType(MetricType.L2)
.build();
client.createIndex(indexParam);
}
步骤2:数据向量化与存储
@Autowired
private EmbeddingModel embeddingModel;
public void insertData(List<FaqItem> items) {
for (FaqItem item : items) {
// 1. 文本向量化
float[] embeddings = embeddingModel.embed(item.getInstruction());
// 2. 构建插入参数
List<InsertParam.Field> fields = new ArrayList<>();
fields.add(new InsertParam.Field("feature",
Collections.singletonList(embeddings)));
fields.add(new InsertParam.Field("instruction",
Collections.singletonList(item.getInstruction())));
fields.add(new InsertParam.Field("output",
Collections.singletonList(item.getOutput())));
// 3. 插入Milvus
InsertParam insertParam = InsertParam.newBuilder()
.withCollectionName("springai_rag")
.withFields(fields)
.build();
client.insert(insertParam);
}
}
步骤3:RAG检索与生成
@Test
void ragTest() {
String userQuestion = "预算8000元以内,适合深度学习的笔记本电脑推荐";
// 1. 向量化查询
float[] queryEmbedding = embeddingModel.embed(userQuestion);
// 2. 向量检索Top-3
SearchParam searchParam = SearchParam.newBuilder()
.withCollectionName("springai_rag")
.withMetricType(MetricType.L2)
.withTopK(3)
.withVectors(Collections.singletonList(queryEmbedding))
.withVectorFieldName("feature")
.withOutFields(Arrays.asList("instruction", "output"))
.build();
SearchResults results = client.search(searchParam).getData();
List<RowRecord> records = new SearchResultsWrapper(results).getRowRecords();
// 3. 构建上下文
StringBuilder context = new StringBuilder();
for (RowRecord record : records) {
context.append("Q: ").append(record.get("instruction")).append("\n");
context.append("A: ").append(record.get("output")).append("\n\n");
}
// 4. 构建增强Prompt
String enhancedPrompt = String.format("""
# 角色设定
你是资深数码产品顾问,擅长根据用户需求推荐笔记本电脑。
请严格基于以下商品库信息回答,不要推荐库中不存在的商品。
# 商品库信息(Top-3匹配结果):
%s
# 用户需求:
%s
# 回答要求:
1. 先分析用户需求(用途、预算、性能要求)
2. 从商品库中推荐1-2款最合适的,说明理由
3. 如果商品库中没有匹配项,请明确告知"暂无符合要求的商品"
4. 最后可简要补充选购建议(非强制)
""", context, userQuestion);
// 5. 调用LLM生成
String answer = chatClient.prompt(enhancedPrompt).call().content();
System.out.println(answer);
}
四、RAG优化策略与痛点解决
4.1 文本分割的艺术(Chunking Strategy)
文本分割是影响RAG效果的关键因素,常用策略对比:
| 分割策略 | 实现方式 | 优点 | 缺点 | 适用场景 |
|---|---|---|---|---|
| 固定字符数 | 每N个字符切分 | 简单高效 | 可能切断语义 | 对上下文连续性要求不高的场景 |
| 滑动窗口 | 固定大小+重叠部分 | 保留上下文衔接 | 数据冗余,存储增加 | 需要连贯性的长文档 |
| 递归字符 | 按标点优先级切分(先句号→逗号→空格) | 保持语义完整 | 实现复杂 | 专业文档、论文 |
| 基于语义 | 使用NLP模型判断语义边界 | 最优语义保留 | 计算成本高 | 高精度要求的知识库 |
最佳实践:
- 结合文档结构(Markdown标题、PDF段落)进行分层切分
- chunk大小建议:256-512 tokens(根据embedding模型调整)
- 设置适当的重叠(overlap)保持上下文连贯
4.2 检索优化的进阶技巧
1. 混合检索(Hybrid Search)
结合关键词检索(BM25)和向量检索,兼顾精确匹配和语义理解:
// 伪代码示例
List<Document> keywordResults = keywordSearch(query);
List<Document> vectorResults = vectorSearch(query);
List<Document> hybridResults = rerank(merge(keywordResults, vectorResults));
2. 重排序(Reranking)
使用专门的交叉编码器(Cross-Encoder)模型对Top-K结果进行精排:
- 先使用向量检索召回Top-20
- 使用重排模型计算问题与文档的相关性分数
- 取Top-3作为最终上下文
3. 查询重写(Query Rewriting)
对用户的模糊查询进行扩展和澄清:
- 原查询:“这个多少钱?”
- 重写后:“iPhone 15 Pro Max 256GB 官方售价是多少?”
4.3 RAG痛点与解决方案
基于《Seven Failure Points When Engineering a Retrieval Augmented Generation System》的总结:
| 痛点类别 | 具体表现 | 解决方案 |
|---|---|---|
| Missing Content | 知识库中没有答案 | 设置兜底回复;持续扩充知识库 |
| Missed Top Ranked | 正确答案未进入Top-K | 调整similarity阈值;引入重排序 |
| Not in Context | 检索到内容但与问题无关 | 优化文本分割;提升向量模型质量 |
| Wrong Format | 需要JSON但返回了文本 | Prompt中明确输出格式示例;使用结构化输出 |
| Incomplete | 答案只覆盖问题部分 | 引导模型逐步思考(CoT);拆分复杂问题 |
| Not Extracted | 上下文中有答案但模型未提取 | 优化Prompt模板;增强上下文标识 |
五、RAG效果评估(RAGAS)
RAGAS(Retrieval-Augmented Generation Assessment)是评估RAG系统的标准框架,核心指标:
5.1 检索质量指标
-
Context Relevancy(上下文相关性)
- 衡量检索到的上下文与问题的相关程度
- 计算公式:相关句子数 / 总句子数
-
Context Recall(上下文召回率)
- 衡量检索结果是否包含回答问题所需的所有信息
- 基于标准答案(Ground Truth)进行判断
5.2 生成质量指标
-
Faithfulness(忠实性)
- 评估生成答案是否基于检索到的上下文,而非幻觉
- 值越高,模型"编造"内容越少
-
Answer Relevancy(答案相关性)
- 衡量答案与问题的直接相关程度
评估数据集格式:
{
"question": "预算8000元以内,适合深度学习的笔记本电脑推荐",
"contexts": [
"机械革命翼龙15 Pro配备RTX4060显卡,支持CUDA加速,售价7499元",
"联想拯救者Y7000P 2024款搭载i7-14650HX和RTX4060,售价8499元超出预算",
"轻薄本不适合深度学习,缺乏独立显卡"
],
"answer": "推荐机械革命翼龙15 Pro,配备RTX4060显卡支持CUDA加速,价格7499元符合预算",
"ground_truths": ["机械革命翼龙15 Pro,RTX4060,7499元"]
}
六、总结与展望
RAG vs Fine-tuning 选择指南
选择RAG的场景:
- 需要实时更新的知识(如新闻、股价)
- 数据量庞大且频繁变动
- 需要解释性强的应用场景(可溯源到具体文档)
- 预算有限,无法承担微调成本
选择Fine-tuning的场景:
- 需要改变模型行为风格(如特定语气、格式)
- 领域知识非常固定且通用模型表现极差
- 对延迟敏感(RAG需要额外检索时间)
未来趋势
- Agentic RAG:结合ReAct模式,让模型自主决定何时检索、检索什么
- 多模态RAG:支持图片、音频、视频的检索增强
- Graph RAG:结合知识图谱,处理复杂的多跳推理问题
参考资料:
- Spring AI官方文档
- 《Seven Failure Points When Engineering a Retrieval Augmented Generation System》
- Milvus向量数据库最佳实践
通过本文,你应该已经掌握了RAG技术的完整链路:从文档切分、向量化存储,到相似度检索和Prompt增强。在实际项目中,建议先从简单的关键字检索+向量混合方案开始,逐步引入重排序、查询重写等优化策略。
更多推荐



所有评论(0)