📝 一些说明

  • 最近在学习 AI 相关的知识,「AI 日记」这个系列会记录我的一些输出与心得,正如我往常的输出内容一致,这并不是一份 stepbystep 的 Roadmap,而是单纯的个人记录、并且考虑到读者我会尽可能地解释清楚并争取让大家也能得到一些有效输入
  • 我是一个刚学习没多久的 AI 小白,文章中肯定有局限甚至错误之处,仅仅用来参考和一起交流
  • 这篇文章的排版是使用我上周用 AI 做出的「公众号自动排版工具」生成,如果有不尽流畅的阅读体验还请包容

🔍 背景梳理

🎯 需求

目前我有一些关于许多高等院校的信息,这些信息有非常多的方面和字数,而且经过了专人的检验,是相对网络数据更可靠的信息源;于是我希望做一个聊天机器人🤖,用户能够去询问这个聊天机器人关于高校的一些问题,而机器人会根据上述提到的可靠信息源来生成回复给到用户。

很显然如果我直接调用诸如 deepseek 的模型的话,它更多的参考依据是网络的数据,而我更希望向用户呈现的是经过我们的检验的可靠数据;但是我又不可能在每一次用户提问时,都把我的数据作为 Prompt(提示词)同用户的输入一起提交给模型,因为我的数据有成千上万条,字数多达百万级别,模型不可能在用户可接受的时间内一次处理这么多数据,这既不高效也不经济。

这时我们就需要一些手段来实现此类需求。

🔬 RAG(检索增强生成)

RAG(检索增强生成,Retrieval-Augmented Generation)是一种通过在生成响应之前从外部权威知识库中检索相关信息,来优化大语言模型(LLM)输出的AI技术。它让 AI “查资料再作答”,有效解决了大模型训练数据过期、生成内容不准确(幻觉)及缺乏领域私有知识的问题。

RAG 的核心要素与工作流程是:

  • 检索 (Retrieval)

    :系统将用户的查询与外部知识库(如企业文档、数据库、即时网络信息)进行比对,找出最相关的内容。

  • 增强 (Augmentation)

    :将检索到的知识与用户的提示词(Prompt)整合,形成上下文。

  • 生成 (Generation)

    :LLM 利用这些增强后的知识生成专业、准确、最新的回答

下面我来简单地画一张示意图来体现 RAG 中的一些核心流程:

这张图中省略了非常多的技术细节,但是最核心的流程无非就以下几步:

  1. Embedding(嵌入)

    :由于我们的数据源的数据量非常大,不可能等到用户实际发生提问时再来处理,所以我们必须要对其进行预处理,Embedding 就是一种将高维、离散的数据(如文本、图像、商品ID)映射为低维、连续的稠密向量的技术:嵌入模型可以将我们数据源中一段段文本(可能是关于某个高校的师资力量的信息)映射处理为一个高维向量(在接下来我的实例中是 1024 维),注意我这里虽然说它是一个「高维」向量,但是它已经比原始文本数据的维度低多了,所以并不和定义中的「低维」冲突;当这些可靠的数据源被处理成了一个个高维的向量,由文字转化为了数字,那么后续的匹配对比操作就是计算机更擅长的事了

  2. 相似度检测

    :当用户输入一个问题以后,这串输入首先会同样被 Embedding(没错,这个处理的模型应该和处理数据源的Embedding模型是同个模型:如果不是一个模型的话,它们最后就没法在同个嵌入的向量空间去做相似度检测,那就没意义了)成一个同维度的向量,然后根据一些相似度检测算法去进行检测,可以简单理解为就像是在一个平面直角坐标系中,我们去找到距离更近的两个点一样,只不过现在的维度不是2维而是1024维;接着通过一些参数的配置,我们可以返回那些和用户输入最接近的一些数据源片段(比如返回十个)

  3. Rerank(重排)

    :其实到这里数据复杂度已经大大下降了,但是如果还想做到更极致一些的话就可以用到重排;在通过相似度检测初步召回了一些相关性高的十个数据源片段后,我们可以利用精细的模型对候选片段同用户提问的语义相关性进行深度分析和重新排序,这里的算法和 Embedding 并不一样,而且会更加地耗时;比如我们通过 Rerank 完成了这十个数据源片段更加精细的相似度排名,并且只取前五个返回

  4. LLM输出(大语言模型输出)

    :接下来就来到了「最后一公里」,那就是我们拿着用户输入和经过 Rerank 的五个数据源片段,一股脑全部扔给 LLM,让大语言模型再去帮助我们分析问题、理解资料、回答用户的问题。

不难发现,我们通过一系列操作,使得大模型不必临场时再去开卷翻一遍并且现场理解所有的资料来回答用户,而是我们预先对于数据做了各种处理,使得最后大模型只需要处理少部分数据就可以得到精确的回答。

🛠️ 使用 RAGFlow 进行搭建

虽然自己动手写更多代码肯定能学到更多东西,但是我想要在速度上也有较快的正反馈,所以我使用了 RAGFlow,它有点像是开发的低代码平台,我觉得当你真的对于一些原子背后的结构和底层有一定了解之后,单纯去写各种调用或者设置参数的繁琐代码感觉性价比并不会更高。

RAGFlow(https://github.com/infiniflow/ragflow,RAGFlow 是一款领先的开源检索增强生成 ( RAG ) 引擎,它将前沿的 RAG 技术与代理功能融合,为生命周期管理 (LLM) 创建卓越的上下文层)。

跑 RAGFlow 需要在 docker 上运行,如果有部署需求,可以直接在公司的服务器或者开发机运行,或者在本地搞好 MVP 后,再把对应的配置文件同步过去。

跑 docker 的时候内存最好分配大一些(我分配了16GB),最开始我只分配了8GB,导致 Elasticsearch 一直因为内存不足而不断重启。

成功跑起来以后就可以在打开本机 IP 后进入图形化配置界面了,首先我们把必须的一些模型给配置好,冲着方便和便宜我就选了 deepseek 和通义千问的模型。

📊 处理数据集

然后我们就可以去处理我们的数据集了,我们可以上传我们的源数据(我这里是一个 xlsx 文件),在配置页面可以去选择和试错一些参数,然后点击运行解析就完成了,整个过程非常傻瓜式,

然后我们可以在测试页面去进行「检索测试」,比如输入一个问题,然后看看右侧召回的片段分别有哪些,并且在召回片段上侧还会返回混合相似度供参考,你可以根据这些来判断 Embedding 结果是否尽如人意。

当然,我们还可以稍微精细化一点,即自己创建一个 workflow 工作流来进行数据集处理(其实和上面的简化形式差不太多);

其实这一条 workflow 就像是 RAG 系统中的“后厨”逻辑,对我们的数据集进行各种拆解方便后续的大快朵颐:

  • Parser(解析器)

    :如果你使用不同的文件,比如 PDF、Word、Excel 等不同形式的文件,可能会有不同的效果更好的处理方式,解析器的任务是把我的数据源文件里的文字提取出来,并且最好适配原始的格式;你可以使用 RAGFlow 自带的 Parser,或者自己使用一些 Parser 模型,比如在这个流中我选择了 Spreadsheet(电子表格)类型,并使用了 qwen2-vl-plus(多模态大模型)作为解析方法

  • Chunker(分块器)

    :这里很好理解,就是先将我们的数据源进行分块处理,不然后续的片段查找就没意义了。现在的分块算法应该有挺多的,但是我不是特别了解这块,我在这里选择了 作为分隔符(因为我的表格会在Parse 过程中被转化成一个 HTML Table 对象)

  • Extractor(提取器)

    :这个流程非必须,但是却可以帮助我们提高分片数据和整个 RAG 流程的质量,比如提取器可能会利用大模型把这段话重写或提取 Metadata (关键标签),相当于将一些原始的分片数据转化成了带有标签和摘要的精品分块,这样可以极大增加搜索时的命中率,因为模型不仅能搜到字面意思,还能理解这一块内容到底在讲什么。这里我使用 deepseek-chat模型对每个小块进行深加工

  • Embedding(嵌入,分词器)

    :通过 Embedding 模型我们最终可以将分片数据转化成一串长长的数字列表,也就是前文说的高维向量,同时现在的嵌入模型还会做 Full-text(全文索引),通过建立关键词索引可以使得后续查询的时候不仅仅根据语义的相似度进行检索,还可以基于一些全文匹配的方式来辅助检索

🤖 生成聊天机器人

接下来的事情更加简单,我们直接建立一个 Chat 项目,在这个页面去配置一些系统提示词、选择已经处理好后的数据集、增加一些兜底措施、试图微调参数等。

然后我们就可以拿着调试好的成果去应用到我们自己的前端页面啦~只要复制好系统给的代码样例,然后就能来到我们文章开头的那一幕:

完成🤩

那么一个非常粗糙的基于我们自己数据集的聊天机器人就完成啦,依托于各种低代码配置,我只花了一天半的时间就完成了,并且还对整个 RAG 有了一些开天辟地的认知。

当然,越是操作简单无代码就说明可配置性越不够灵活嘛,其实我们还可以用其中的 agent Flow 模式来写我们的前端聊天逻辑,下图就非常清晰了:对于我们可靠数据源中能查到的信息我们直接返回并且告诉用户这是可靠信息,否则就使用网络搜索作为兜底并且提醒用户注意核实网络信息。(而这一点在上面那个更傻瓜式的配置界面不是特别好实现,只能在 Prompt 中做一些 hack 提示,但这里就会比较灵活)

如果需要更加灵活的方式那应该就需要涉及到写更多的代码了,比如就用 LangChain 来自己去写各种模块的内在逻辑和流程,这个就看业务的需求和复杂度了~ 😎

✍️ 写在最后

现在让我再来基于上面我所做的事情梳理一个更清晰的流程图:

得益于各种开源工具和生态,让我这个2026年才开始接触和学习 AI 的人也能上手做一些东西,而且学习一样事物的最快方法确实就是实践,先去网上看几十个小时的视频再来动手绝对会耗费大量的热情,而且现在各种 chat 模型已经可以充当非常好的指路人了。 🧭

AI时代,未来的就业机会在哪里?

答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具,到自然语言处理、计算机视觉、多模态等核心领域,技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。

在这里插入图片描述

掌握大模型技能,就是把握高薪未来。

那么,普通人如何抓住大模型风口?

AI技术的普及对个人能力提出了新的要求,在AI时代,持续学习和适应新技术变得尤为重要。无论是企业还是个人,都需要不断更新知识体系,提升与AI协作的能力,以适应不断变化的工作环境。

因此,这里给大家整理了一份《2026最新大模型全套学习资源》,包括2026最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题、AI产品经理入门到精通等,带你从零基础入门到精通,快速掌握大模型技术!

由于篇幅有限,有需要的小伙伴可以扫码获取!
在这里插入图片描述

1. 成长路线图&学习规划

要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。

在这里插入图片描述

2. 大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

在这里插入图片描述

3. 大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

在这里插入图片描述

4. 大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

在这里插入图片描述

5. 大模型行业报告

行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

在这里插入图片描述

6. 大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

在这里插入图片描述

为什么大家都在学AI大模型?

随着AI技术的发展,企业对人才的需求从“单一技术”转向 “AI+行业”双背景。企业对人才的需求从“单一技术”转向 “AI+行业”双背景。金融+AI、制造+AI、医疗+AI等跨界岗位薪资涨幅达30%-50%。

同时很多人面临优化裁员,近期科技巨头英特尔裁员2万人,传统岗位不断缩减,因此转行AI势在必行!

在这里插入图片描述

这些资料有用吗?

这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

在这里插入图片描述
在这里插入图片描述

大模型全套学习资料已整理打包,有需要的小伙伴可以微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费】

在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐