RAG(检索增强生成)技术赋予大模型读取外部知识库的能力。工作流程包括:将文档分片处理,用embedding模型转换为向量存入数据库;用户提问时,问题编码为向量并在数据库中召回相关内容;通过重排提高准确性;最后将问题与相关内容合并输入大模型生成答案。这项技术解决了大模型无法直接回答文档中问题的局限,使大模型能够基于外部知识回答复杂问题。

1. 引言

你刚刚入职,准备在公司大展拳脚,让同事们见识一下新人的能力,于是你主动去问领导有没有什么学习资料,领导非常高兴,给了你一大堆祖传文档让你自己去看。

你看了一天才看完一个屎山文档,还剩下一大堆文档等着你去看,你顿时感觉到无从下手,总不能把美好的生命都浪费在看这些屎山文档上吧。这时你忽然想起来,现在不是有大模型嘛,直接问大模型不就好啦,于是你满怀期待的把问题丢给无所不能的大模型,但是得到的回答只是冰冷的我不知道,你顿时又感觉好无助。

这个时候聪明的你又想了,如果我把领导给我的一大堆文档一块交给大模型,大模型不就知道了,但是文档太多了,大模型的输入长度又有限制,有没有什么办法能够让大模型自己去文档里找答案呢?

这个时候就有人大喊了一声,哎,有的有的,这也就是我们今天的主角——RAG,RAG全称Retrieval Augmented Generation,检索增强生成,它给了大模型读取外部知识的能力,如果大模型本身不知道,那他就会自己去外部知识库中查找,是不是有点像我们人类的逻辑了,下面我们就来看看RAG是怎么工作的。

2. RAG综述

有了RAG之后,当你再去问大模型一个问题的时候,如果大模型不知道,那么它就会主动去查找,他去哪里找呢?没错,就是去我们给他的文档里,查找到相关的内容之后,大模型就会知道之前不知道的信息,这一步也就是RAG中的R(检索)。

拿到检索得到的结果之后,大模型会把你一开始的问题和检索得到的内容进行合并,作为一个完整的prompt输入给大模型,这一步就是RAG中的A(增强)。

最后大模型根据完整的prompt生成答案,也就是RAG中的G(生成)。

3. RAG工作原理

3.1 分片

那么问题来了,我们把领导给我们的文档放在哪里呢?又怎么把和问题相关的内容检索出来呢?我们都知道,一个文档有很多片段组成,但是和我们的问题相关的可能也就两三个,我们最终的目的是把和我们问题有关的内容让大模型知道,因为无关的内容只会加重大模型的幻觉,让大模型胡言乱语。

那么我们在处理文档的时候就要把文档划分为一小块一小块的内容,这个过程就是分片,一个文档可以被分为若干个片段,分片的方法有很多种,比如按字数分,按段落分,按章节分,和按页码分。

3.2 向量化

分完片之后我们是不是要把它存在一个地方,如果文档太多直接存在数据库会对数据库造成很大的压力,成本也会提高,这个时候就需要一种技术能够把文本进行压缩。没错,这个方法就是索引,在创建索引的时候,我们用到了一个非常重要的工具——embedding模型,那么什么是embedding模型呢?

当你输入一段文本,embedding模型可以把输入的文本转换成一个固定长度的数字向量,无论你输入的是长篇大论的文档,还是一两句话,模型都会把输入的内容转换为固定长度的数字向量。

对于意思相近的两句话,embedding输出的向量是相近的,直观一些,我们在二维上举例,如果两句话意思相近,那么他们所在的位置也就越近,反之也就越远。

Embedding模型把文本编码成为向量之后,这时候就出现了一个新角色,向量数据库,不同于普通数据库,向量数据库实现了丰富的向量操作,比如相似度计算,top-k查询等等,我们把文本和向量存储到数据库中。

3.3 召回

这个时候我们也就解决了第一个问题,存是存好了,光存在那没用呀,把和我们的问题相关的内容检索出来交给大模型才有用,那么怎么把和问题相关的内容检索出来呢?这里就用到了召回+重排。

我们先来看召回,当用户提出问题的时候,我们用和之前相同的embedding模型,把问题编码成对应的向量,拿着这个向量,我们就可以去向量数据库中查找和我们的问题相关的内容,怎么查找和问题相关的内容呢?这里就可以使用我前面提到的向量数据库的内置功能,向量相似度和top-k查询,最终我们返回K个最相关的内容,这个过程就是召回。

3.4 重排

召回完了不就得到了我们想要的相关内容了嘛?直接交给大模型不就行了,要重排干什么呢?这是因为召回只是把最相关的k个查询出来,但是他们之间是没有一个先后顺序的,甚至有的还是没有关系的,所以重排这个时候就可以帮助我们更加精细的筛选出相关的内容。

如果对比一下召回和重排,召回的成本要低于重排,因为重排的计算更加复杂;同时,召回的耗时也就低于重排;但是重排的准确率要远远高于召回,这也是我们为什么要召回之后再使用重排的原因,能够减少成本和耗时的同时,提升准确率。

这个时候也就回答了第二个问题,现在相关内容也查找出来了。

3.5 生成

没错,最后一步就是生成,我们把最开始的问题和重排之后得到的相关内容合并,一起输入给大模型,大模型这个时候就知道了原来不知道的内容,就像开了个外挂,也就能够回答最开始不知道的问题。

4. 总结

最后我们再来回顾一下RAG的整体流程,首先外部文档进行分片,便于后续存储和检索,之后把分片之后的文档输入embedding模型,embedding模型把他们编码成固定长度的向量存储到向量数据库中,当用户提出问题时,会用相同的embedding模型把问题编码成固定长度的向量,之后把问题向量和向量数据库中所有向量进行比较,进行召回和重排之后得到相关的内容,最后,把用户最开始的问题和得到的相关内容合并一块输入给大模型,大模型就能生成用户想要知道的答案啦!

以上就是RAG的所有内容啦!

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套 AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2025 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要 《AI大模型入门+进阶学习资源包》下方扫码获取~
在这里插入图片描述

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
在这里插入图片描述

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
在这里插入图片描述

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
在这里插入图片描述

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
在这里插入图片描述

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
在这里插入图片描述

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

图片

以上资料如何领取?

在这里插入图片描述

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

图片

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!
在这里插入图片描述
在这里插入图片描述

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
在这里插入图片描述
在这里插入图片描述

以上全套大模型资料如何领取?

在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐