在 RAG、推荐系统、搜索引擎等场景中,粗排(Coarse-grained Ranking)精排(Fine-grained Ranking) 是一套 **“先海选、再精选”** 的两级检索排序策略,核心目的是在保证检索效率的前提下,大幅提升结果的精准度。

简单类比:

  • 粗排 = 简历初筛:HR 快速扫一遍简历,把 “学历、工作年限” 达标的候选人挑出来,不纠结细节;
  • 精排 = 复试面试:对初筛通过的候选人,深入考察专业技能、项目经验,最终确定录用名单。

在 RAG 的向量检索流程中,这套策略尤其适合海量数据场景(比如向量库中有百万 / 千万级文档片段),直接全局精排会严重拖慢速度,两级排序能兼顾 “快” 和 “准”。

一、粗排:快速筛选,缩小范围

1. 核心目标

全量向量数据中,快速筛选出与问题 “可能相关” 的候选集,过滤掉明显不相关的数据,减少后续精排的计算量。

2. 技术特点
  • 计算速度快:采用轻量级模型 / 规则,不追求高精度,只做 “快速过滤”;
    • 向量检索中:常用近似最近邻(ANN)算法(比如 Milvus 的 IVF_FLAT、HNSW),牺牲一点点精度换速度;
    • 其他场景:也可以用关键词匹配、标签过滤等简单规则(比如用户问 Spark,直接过滤掉 Hadoop 相关文档)。
  • 召回率优先:粗排要保证 “不漏掉潜在相关数据”,所以筛选条件比较宽松,候选集的数量通常是最终需要结果的 10~100 倍(比如要最终返回 10 条结果,粗排先选出 200 条候选)。
3. 在 RAG 中的应用示例

假设 Milvus 中有 100 万条技术文档向量,用户提问 “Spark 宽依赖和窄依赖的区别”:

  • 粗排步骤:用问题向量通过 HNSW 算法检索,快速返回 200 条候选片段(耗时毫秒级),这些片段都和 Spark 相关,但可能包含部署、调优、依赖关系等不同内容。

二、精排:精准排序,择优输出

1. 核心目标

对粗排筛选出的候选集,进行精细化相关性计算,最终按 “与问题的匹配度” 排序,选出最相关的 Top-K 结果。

2. 技术特点
  • 计算精度高:采用更复杂的模型 / 算法,深入计算 “问题与候选片段” 的语义相关性;
    • 向量检索中:常用余弦相似度、点积等精准度量方式,或引入交叉编码器(Cross Encoder)—— 专门用于计算 “文本对” 的相关性得分,比单向 Embedding 更精准;
    • 其他场景:也可以用深度学习模型(如 BERT 变体),建模问题与文本的深层语义关联。
  • 效率要求低:因为候选集已经被粗排缩小,所以即使精排算法复杂,整体耗时也可控。
3. 在 RAG 中的应用示例

对粗排选出的 200 条 Spark 相关候选片段:

  • 精排步骤 1:用 Cross Encoder 计算 “用户问题 ↔ 每个候选片段” 的相关性得分(置信度);
  • 精排步骤 2:按得分从高到低排序,选出 Top-5 最相关的片段(比如直接讲解依赖关系的文档);
  • 最终:把这 5 条片段传给大模型生成答案。

三、粗排 + 精排的完整流程(RAG 场景)

用户提问 → 问题向量化 → 粗排(ANN 检索全量数据,选出 N 条候选) → 精排(Cross Encoder 计算相关性,选出 K 条 Top 结果) → 传给大模型生成答案
阶段 核心算法 目标 速度 精度
粗排 近似最近邻(HNSW/IVF)、关键词过滤 快速召回候选集 快(毫秒级) 较低
精排 余弦相似度、交叉编码器(Cross Encoder) 精准排序候选集 中等(百毫秒级) 较高

四、为什么需要两级排序?

  • 只做粗排:速度快,但结果精度低,可能混入很多弱相关数据,影响 RAG 效果;
  • 只做精排:对全量数据逐一计算精准相似度,在海量数据下速度极慢(比如千万级数据需要几秒甚至几十秒),无法满足实时检索需求;
  • 粗排 + 精排:平衡了效率精度,是海量数据场景下的最优解。

五、实操小技巧(LangChain + Milvus 实现粗排 + 精排)

  1. 粗排:用 Milvus 的 HNSW 索引做近似检索,获取候选集;
  2. 精排:用 LangChain 的 CrossEncoderReranker 对候选集重新排序。
from langchain.retrievers import ContextualCompressionRetriever
from langchain.retrievers.document_compressors import CrossEncoderReranker
from langchain_community.cross_encoders import HuggingFaceCrossEncoder
from langchain_community.vectorstores import Milvus

# 1. 初始化 Milvus 粗排检索器
vector_db = Milvus(...)
coarse_retriever = vector_db.as_retriever(search_kwargs={"k": 200})  # 粗排召回 200 条

# 2. 初始化精排重排器(用 HuggingFace 的 Cross Encoder 模型)
model = HuggingFaceCrossEncoder(model_name="BAAI/bge-reranker-base")
compressor = CrossEncoderReranker(model=model, top_n=5)  # 精排选 Top-5

# 3. 组合粗排+精排
compression_retriever = ContextualCompressionRetriever(
    base_retriever=coarse_retriever,
    base_compressor=compressor
)

# 4. 检索
docs = compression_retriever.get_relevant_documents("Spark 宽依赖和窄依赖的区别")

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐