大语言模型存在"幻觉"问题,生成看似合理但实际错误的内容。检索增强生成(RAG)通过外部知识库、检索器和生成器三部分系统,让LLM从外部知识库中检索相关信息辅助生成,避免了对模型参数的修改。RAG提高了知识的时效性和准确性,降低了计算成本和运维复杂性,是比传统微调更具性价比、更易落地的解决方案,特别适用于需要快速集成新知识的场景。

一、RAG的定义

从外部知识库(Corpus)中检索出相关信息来辅助改善大语言模型生成质量的系统被称之为检索增强生成(Retrieval-Augmented Generation,RAG),是抑制幻觉的有效机制。外部知识库与LLM储存在参数中的知识相对,一个被称为参数化记忆,另一个被非参数化记忆。RAG系统的基本架构由外部知识库(Corpus)、信息检索器(Retriever)、生成器(Generator)组成,其系统链路大致如下:

图1. RAG系统链路图

针对用户提出的查询问题,做查询增强,可以做同义改写、多视角分解等语义增强,也可以做生成背景文档的内容增强。事先定义好的外部知识库为查询提供“抓手”,当前用户提出的查询作为“钩子”,实现查询与相关文档的抓取。

RAG 的核心优势在于不需要对大语言模型的内部知识进行更新,便可改善大语言模型的幻觉现象,提高生成质量。这可以有效避免内部知识更新带来的计算成本和对旧知识的灾难性遗忘(Catastrophic Forgetting)。此外,在知识时效性、领域适应性、生成内容的可解释性、灵活性与扩展性、生成的精准性上都表现出技术优势。

全量微调(Full Fine-Tuning,FFT)或参数高效微调(Parameter-Efficient Fine-Tuning,PEFT)通常可以让大语言模型更好地学习和掌握新的知识体系,尤其适用于各类垂直领域(如医疗、法律、金融等)的定制化任务。这些方法能够有效提升模型在特定任务或特定领域的表现,实现知识的“内化”。但是这种方法局限性也比较明显,体现在资源消耗、知识更新的灵活性、灾难性遗忘风险、运维和管理复杂性上。不同领域、不同任务可能需要维护多个微调模型,增加了系统的运维难度和成本。其所需的计算资源估计如下图1所示:

图2. 资源估算

计算资源估算:https://github.com/hiyouga/LLaMA-Factory?tab=readme-ov-file#supported-models

相较之下,RAG(Retrieval-Augmented Generation)则通过“外部检索+语言生成”的方式,有效绕开了上述问题:

  • 无需对模型参数进行修改即可灵活集成新知识;
  • 外部知识库实时可更新,具备更好的时效性和灵活性;
  • 降低了算力消耗和维护成本;
  • 提高了生成结果的可控性和可解释性。

因此,在需要快速集成、知识更新频繁或资源受限的场景下,RAG 往往是比微调更具性价比、更易落地的选择。

二、知识库(Corpus)

LLMs仅能处理文本输入,但现实文档包含多模态数据(文本/表格/图片/图表),结构化与半结构化文档(如PDF/Word/Excel)需要特殊解析技术。知识库的核心功能包括文档解析层和知识组织层,实现原始的知识文档到可检索单元的转变。

图3. KILT数据库内容

以Wikipedia语料为例,原始资料为XML格式的快照,经过清楚HTML标签、提取正文、段落分块,最后事先向量化存储。

三、检索器(Retriever)

在RAG(检索增强生成)系统中,检索器(Retriever) 扮演着"知识库导航员"的角色,专门负责在海量数据中快速锁定与问题最相关的信息片段,为大语言模型(LLM)的生成环节提供精准的辅助信息。其工作流程如下:

  1. 问题理解

    将用户提问转化为机器可理解的查询(如向量化表示或关键词组合)。

  2. 知识库搜索

    通过语义匹配或关键词检索,从知识库中筛选出Top-K最相关的文档段落(例如:维基百科条目、技术文档片段等)。

  3. 质量过滤

    对检索结果进行相关性评分,剔除低质量或无关内容(如使用BM25/稠密向量相似度计算)。

RAG的检索器像一位图书管理员,它不会自己写书,但能瞬间从千万本书中找出你需要的那几页——这正是LLM生成可靠答案的关键保障。

图4.检索器结果示意图

四、生成器(Generator)

在RAG系统中,生成器(Generator) 是大语言模型(LLM)的核心组件,负责将检索器提供的知识转化为自然语言回答。它就像一位"知识整合专家",能够结合检索到的外部信息和自身预训练的内部知识,生成准确、流畅且符合上下文的答案。

它的核心功能有三点:

知识融合:将检索器返回的文档片段(如维基百科段落、专业资料)与用户查询结合,通过注意力机制动态加权关键信息。

上下文学习(In-Context Learning,ICL):通过Prompt设计(如Few-shot示例、思维链提示)引导模型理解任务需求。

抗幻觉设计:当检索信息与内部知识冲突时,优先依赖检索结果(需配合检索质量优化)。部分先进架构(如SELF-RAG)会引入自省标记(Reflection Tokens),动态判断是否需检索或修正生成内容。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

在这里插入图片描述

为什么要学习大模型?

我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。

在这里插入图片描述

在这里插入图片描述

大模型入门到实战全套学习大礼包

1、大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

img


2、大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

在这里插入图片描述

3、AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

img

4、大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

img

5、大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

img

适用人群

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐