本文梳理了RAG(Retrieval-Augmented Generation)技术从第一代到第四代的演进历程。第一代RAG基于embedding和全文检索,但受限于大模型窗口大小和并发能力,效果一般;第二代RAG使用大模型进行召回,解决了速度和成本问题;第三代RAG引入了Agentic范式,能处理复杂问题;第四代RAG则提供了无需部署的开箱即用SDK,支持多种编程语言的集成。RAG是未来AI应用的基础设施,掌握其演进对程序员至关重要。

前三代 RAG 进化小史

第一代 RAG ,是以 embeding + 全文检索为基础做召回,以rerank模型为精排。这代其实RAG受限于当时的技术条件而诞生的一个技术,那个时候大模型窗口普遍4-8k,并发少,速度慢,模型效果也一般,所以只能采用传统技术来做召回,并且采用小模型(rerank)来做排序。 第一代RAG解决了从无到有的问题。下图是 一代 RAG 典型的流程。

第一代RAG 最大的问题就出在召回方案缺乏语义理解,受限于 embeding 对文本长度的支持,还长期受限于文本碎片化的困扰。后续RAG公司没有从根本上去解决这个问题,而是不断的在其上打补丁比如,加入实体图搜索,在数据预处理上进行大量场景定制,在召回策略上也要进行场景定制。一代RAG天花板太低,实际上效果很难再提升,唯一的出入就是定制,但这样很难控制成本。

随着大模型技术的发展,我们推出了第二代 RAG , 该RAG核心是使用大模型做召回,解决了海量数据召回速度和成本问题,同时高度优化窗口的使用率,彻底解决语义召回的难题。 效果也是出奇的好,并且实际成本相比定制化RAG 也更低,成本很透明:

但是第二代依然有明显的缺陷,对于需要复杂拆解的问题比较困难,下面图片是个例子:

于是我推出了第三代 RAG , Agentic RAG, 基于二代的基础上,我们引入了 Agentic 范式,并增加了联网以及规划能力,从而使用通用的方式解决了,下推演示了这种规划能力:

通过提前拆解规划问题,从而将复杂的问题拆解成一些简单的信息召回问题,然后结合多轮召回,最后给出答案。

这就是第三代 Agentic LLM Native RAG. 第三代 RAG 是已经 RAG 的顶级形态。 那么第四代 RAG 进化方向应该在哪呢?

第四代RAG

经过前三代RAG的积累,第四代 RAG 在使用方式开始进入新的阶段。传统方式将 RAG 作为一个服务(比如兼容 OpenAI 接口),比如这样:

auto-coder.rag serve --lite --port 8102 \
--doc_dir ./byzer-llm \
--model v3_chat

然后就可以通过 OpenAI SDK 通过 127.0.0.1:8102 进行访问了。这种方式对于和其他产品结合并不方便。

为此,我们提供了命令行模式:

echo "byzer-llm prompt 函数是什么" | auto-coder.rag run  \
--doc_dir ./byzer-llm --model v3_chat \
--output_format text \
--agentic

这意味着你可以随时随地的对任意一个目录进行 RAG 查询。命令行的方式几乎可以被任何Agent 调用,你可以很轻松的嵌入到 Cursor/Auto-Coder/Claude Code/Codex/Qoder 中,你只需要给这些 Code Agent 通过 Rule 添加一个简单的使用说明, Code Agent 就会在合适的时候使用知识库进行学习:

除了命令行,我们也提供了 Java,Go, NodeJS ,Python 的绑定,比如Java, 你可以添加如下依赖:

<dependency>
<groupId>tech.mlsql</groupId>
<artifactId>autocoder-rag-sdk</artifactId>
<version>0.0.2</version>
</dependency>

然后可以写类似的代码:

package com.example;
import com.autocoder.rag.sdk.RAGClient;
import com.autocoder.rag.sdk.RAGConfig;
import java.util.stream.Stream;
import java.util.stream.Collectors;
public class Main {
public static void main(String[] args) {
RAGConfig config = new RAGConfig("./byzer-llm");
config.setModel("v3_chat");
RAGClient client = new RAGClient(config);
String query = "byzer-llm prompt function是什么";
try {
Stream<String> stream = client.queryStream(query);
String result = stream.collect(Collectors.joining("\n"));
System.out.println(result);
} catch (Exception e) {
System.err.println("Error: " + e.getMessage());
System.exit(1);
}
}
}

就完成了流式的 RAG 查询,可以将 RAG 方便的各种集成到用户的应用中。

第四代RAG 无需部署即可实现开箱即用,并且能够让各种语言以库的方式被直接使用。所以我们将 第四代 RAG 称为 Agentic LLM Native RAG SDK. 你也可以简称为 RAG SDK.

RAG 是未来所有AI应用的基础设施,而 auto-coder.RAG 提供了更加便利友好方式和集成方式,以及最优秀的查询效果。期待大家使用和集成。

最后

对于正在迷茫择业、想转行提升,或是刚入门的程序员、编程小白来说,有一个问题几乎人人都在问:未来10年,什么领域的职业发展潜力最大?

答案只有一个:人工智能(尤其是大模型方向)

当下,人工智能行业正处于爆发式增长期,其中大模型相关岗位更是供不应求,薪资待遇直接拉满——字节跳动作为AI领域的头部玩家,给硕士毕业的优质AI人才(含大模型相关方向)开出的月基础工资高达5万—6万元;即便是非“人才计划”的普通应聘者,月基础工资也能稳定在4万元左右

再看阿里、腾讯两大互联网大厂,非“人才计划”的AI相关岗位应聘者,月基础工资也约有3万元,远超其他行业同资历岗位的薪资水平,对于程序员、小白来说,无疑是绝佳的转型和提升赛道。
图片
图片
对于想入局大模型、抢占未来10年行业红利的程序员和小白来说,现在正是最好的学习时机:行业缺口大、大厂需求旺、薪资天花板高,只要找准学习方向,稳步提升技能,就能轻松摆脱“低薪困境”,抓住AI时代的职业机遇。

如果你还不知道从何开始,我自己整理一套全网最全最细的大模型零基础教程,我也是一路自学走过来的,很清楚小白前期学习的痛楚,你要是没有方向还没有好的资源,根本学不到东西!

下面是我整理的大模型学习资源,希望能帮到你。

图片

👇👇扫码免费领取全部内容👇👇

在这里插入图片描述

最后

1、大模型学习路线

img

2、从0到进阶大模型学习视频教程

从入门到进阶这里都有,跟着老师学习事半功倍。

在这里插入图片描述

3、 入门必看大模型学习书籍&文档.pdf(书面上的技术书籍确实太多了,这些是我精选出来的,还有很多不在图里)

在这里插入图片描述

4、 AI大模型最新行业报告

2026最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

img

5、面试试题/经验

img

【大厂 AI 岗位面经分享(107 道)】

img

【AI 大模型面试真题(102 道)】

img

【LLMs 面试真题(97 道)】

img

6、大模型项目实战&配套源码

img

适用人群

在这里插入图片描述

四阶段学习规划(共90天,可落地执行)
第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型

  • 带你了解全球大模型

  • 使用国产大模型服务

  • 搭建 OpenAI 代理

  • 热身:基于阿里云 PAI 部署 Stable Diffusion

  • 在本地计算机运行大模型

  • 大模型的私有化部署

  • 基于 vLLM 部署大模型

  • 案例:如何优雅地在阿里云私有部署开源大模型

  • 部署一套开源 LLM 项目

  • 内容安全

  • 互联网信息服务算法备案

  • 👇👇扫码免费领取全部内容👇👇

    在这里插入图片描述

3、这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
在这里插入图片描述
在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐