收藏!RAG全流程拆解(从入门到实操),小白也能学会打造企业级高精准知识库助手
在企业级场景中,一款高精准的知识库问答工具,是提升办公效率、规避业务风险的核心抓手。本文专为CSDN程序员、大模型小白打造,深度拆解RAG(检索增强生成)核心技术,从知识提取、分块、嵌入,到存储索引、检索、回答生成及效果评估,逐环节拆解核心选型技巧与实操优化思路,附带工具推荐和避坑指南,帮你快速掌握打造高精准度知识库助手的完整策略,新手也能快速上手落地。
在企业级场景中,一款高精准的知识库问答工具,是提升办公效率、规避业务风险的核心抓手。本文专为CSDN程序员、大模型小白打造,深度拆解RAG(检索增强生成)核心技术,从知识提取、分块、嵌入,到存储索引、检索、回答生成及效果评估,逐环节拆解核心选型技巧与实操优化思路,附带工具推荐和避坑指南,帮你快速掌握打造高精准度知识库助手的完整策略,新手也能快速上手落地。
现在市面上有很多低代码Agent搭建工具,比如Dify、Coze,它们把RAG的各类核心能力做了封装,用户只需在GUI界面上点击配置,就能快速搭建一个简易的知识库问答工具。这也让很多刚接触大模型的小白、甚至部分程序员产生了误解:以为靠“拖拉拽”就能搞定企业级知识库助手,无需掌握底层逻辑。

(图源ChatGPT帮忙生成)
但从实际企业落地场景来看,这种上层封装的低代码工具,局限性非常明显——问答精准度上限很低,能达到50、60分就已经算是不错的效果,而这个精准度,在企业级场景中完全无法使用。试想一下,你能允许AI在回答公司财务制度、行政规范、客户核心数据等问题时,出现一丝一毫的偏差吗?答案必然是不能的。
所以,真正体现RAG价值的,从来不是“从0到50分”的快速搭建,而是“从50分到90分”的精准优化。这也是小白和资深开发者的核心差距,更是企业级RAG落地的关键所在。
需要注意的是,这个优化过程绝非一蹴而就,也不是搞定某一个环节就能一劳永逸。从知识提取、向量化、分块、索引、检索,到最终的回答生成,每一个环节都有多种优化策略可供选择,不同策略适配不同的业务场景、数据质量和生成需求,需要结合实际情况灵活搭配。
换句话说,真正的RAG实操,是一系列复杂、细致的优化策略叠加的结果。这不仅要求我们持续更新知识体系,掌握最新的RAG优化方向,更需要熟悉数据形态和业务场景,能够根据最终的回答诉求,倒推每个环节的策略选型。
本文就把RAG全流程的核心选型和优化思路,拆解得明明白白,附带实操工具推荐,做成一份小白也能看懂、程序员可直接复用的RAG策略地图,供大家交流学习、收藏备用。

知识提取(Extracting)—— 搞定“数据源”,是精准问答的第一步
知识的形态多种多样,主要分为三大类:结构化数据(如表格、数据库)、半结构化数据(如网页、JSON)、非结构化数据(如PDF、Word、图片、音频、视频)。和我们熟悉的数据库不同,企业知识库中,非结构化数据占比极高,这虽然极大地扩展了知识库的覆盖范围,但也给知识提取的精准度带来了不小的技术挑战。
对于刚入门的小白来说,无需从零开发提取工具,市面上很多成熟框架都自带提取能力,还支持集成第三方提取工具。比如Dify、Langchain、LlamaIndex,它们都内置了基础的提取器,同时支持集成各类loader工具,满足不同格式数据的提取需求。
以大家常用的Dify为例,它不仅有自研的文件抽取方案,还支持集成Unstructured的抽取方案,小白只需简单配置,就能实现多种格式文件的提取,降低了入门门槛。

目前市面上常见的外部抽取工具,整理如下(小白可直接收藏选型):

这里重点推荐Unstructured——它是目前最火的通用抽取工具,支持PDF、Word、网页、图片等几乎所有常见文档格式,兼容性强、操作简单,非常适合小白作为基础通用抽取工具选型,快速完成大部分非结构化数据的提取。
当然,提取阶段也有核心难点,主要集中在PDF和图片文字提取上,这也是企业落地中最常遇到的问题,小白需要重点关注:
PDF提取难点及解决方案
PDF的核心难点的在于,它的布局灵活多变,且嵌套了大量的内容关系(比如图片穿插在文字中,可能是前文的示意图);同时,PDF会将标题、小标题、列表等布局“拍平”,无法像读取网页那样,轻易识别出title、body等内容结构,导致提取时容易出现内容混乱、关键信息遗漏的问题。

而企业中大部分正式流通的文件(如合同、规范、报表)都是PDF格式(可防止篡改编辑),因此必须使用专门的PDF抽取工具进行处理。推荐小白优先选用这些工具:Pymupdf、MinerU、PyPDF,它们都是针对PDF格式专门优化的抽取工具,类似于“元素解析器”,能够清晰识别PDF中的标题、正文、页眉、页脚、插图等不同元素,大幅提升PDF提取的精准度。

图片文字提取难点及解决方案
企业中还有大量图片类文档(如扫描件、照片版简历、银行回单),这类文档的文字提取精准度要求极高,尤其在金融、行政等场景中(比如基金公司审核管理人学历照片、监管部门审核银行回单),哪怕是一个字母、一个数字的错误,都可能造成严重后果。
如果直接用大模型提取图片文字,效果往往较差(比如小字体、模糊图片的识别准确率低),这时就需要借助OCR(光学字符识别Optical Character Recognition)技术来实现。
结合我们实际落地经验,给小白推荐两款好用的OCR工具,平衡准确率和性价比:闭源工具Textin(精准度高,适合企业商用)、开源工具百度飞浆(免费可用,适合小白测试、小项目落地)。大家可以根据自己的业务场景和预算,灵活选择。
知识分块(Chunking)—— 拆分“知识颗粒”,规避大模型幻觉
知识提取完成后,我们会得到大量的原始知识(文字、图片等),这些知识以完整文档的形式集合在一起。但在交给大模型进行向量化处理之前,必须进行分块处理——很多小白忽略这一步,直接把完整文档扔给大模型,最终导致问答精准度低、出现幻觉。
为什么必须分块?核心原因有两个:一是大模型的上下文长度有限(比如Qwen3的上下文长度为32768tokens,约5万字),而这个长度不仅要容纳检索到的知识块,还要包含用户的查询query、提示词prompt,若不分块,很容易超出上下文限制;二是即使大模型支持更长的上下文,过多的无关内容也会成为干扰,导致模型出现幻觉,降低问答精准度。

因此,分块的核心目的,是在有限的上下文长度内,实现更精准的检索,同时降低模型幻觉和算力成本。对于小白来说,无需纠结复杂的分块算法,先掌握常见的分块方式,再根据实际效果逐步优化即可。
常见分块方式(小白直接套用)

这里提醒小白一句:实际分块无需一开始就追求完美,建议采用“渐进式调整”策略:最开始先用最常规的“固定字符数分块”,然后通过测试分块效果、检索召回率,判断是否需要优化;若效果不佳,再调整字符数大小、增加分隔符递归分块,甚至手动调整分块内容,逐步提升分块的合理性。
另外,分块的核心是“服务于检索”,因此在分块阶段,就要提前考虑后续的索引逻辑,做好衔接——这也是很多小白容易忽略的点,导致分块和索引脱节,影响检索效果。
分块与索引衔接的3个实用技巧(小白必学)
\1. 混合生成父子文本块:先生成粒度较大的父文本块(比如整个章节),再将父文本块切分成更小的子文本块(比如每个段落),用ID将父子文本块关联起来。检索时,先召回相关的子文本块,再通过ID找到对应的父文本块,将两者一起传递给大模型,既能保证回答的精准性,又能提供更完整的上下文。
\2. 生成文本块元数据:分块后,同步为每个文本块生成元数据(如标题、页码、创建时间、文件名、所属分类等)。检索时,可将元数据作为过滤器,快速筛选出符合需求的文本块,提升检索效率。(重点提示:Dify v1.1.0版本已支持元数据配置,小白可直接用这个功能,无需手动开发)
\3. 生成摘要+细节文本块:类似父子文本块的逻辑,先为每个文档生成概要性摘要(粗粒度),再拆分出细节文本块(细粒度),将摘要与细节块关联,形成多层级结构。检索时,先通过摘要快速定位相关文档,再提取细节文本块,兼顾检索速度和精准度。
最后补充一句:分块、索引、检索这三个环节,一定要整合起来整体考虑,不能孤立优化——这是提升RAG整体效果的关键,小白入门时就要建立这个思维。
知识嵌入(Embedding)—— 给“知识颗粒”编码,实现语义检索
分块完成后,下一步就是对每个知识块进行语义理解和编码,也就是我们常说的Embedding(嵌入)——这是整个RAG流程中,第一次真正用到大模型的环节,也是实现“语义检索”的核心。
对于小白来说,无需深入理解嵌入的底层算法,只需掌握核心概念、两种嵌入方式的区别,以及选型技巧,就能快速上手。
常见的嵌入方式有两种:稀疏嵌入和稠密嵌入,我们日常讨论RAG时,大多指的是稠密嵌入,两者的核心区别的如下(小白可直接收藏):
\1. 稠密嵌入:将离散的文字(词、句子、知识块)映射到低维连续向量空间,向量中大部分元素都是非零实数,每个维度都隐含着某种语义特征。核心优势是能精准捕捉文本的语义关系,比如“苹果手机”和“iPhone”,虽然文字不同,但语义相近,稠密嵌入能将它们的向量距离拉近,适合精准语义检索。
\2. 稀疏嵌入:将文本映射到高维向量空间,向量中大部分元素都是0,只有少数元素非零。核心优势是计算速度快、存储成本低,适合关键词匹配类检索。
目前企业级RAG落地中,最常用的是“两者结合”的混合检索模式:用稠密嵌入捕捉语义相关性,用稀疏嵌入(如BM25算法,基于词的重要性匹配文档和查询)实现关键词精准匹配,兼顾语义理解和检索精准度。
嵌入模型选型推荐(小白避坑)
市面上有很多成熟的稠密嵌入大模型,小白无需从零训练,直接选用现成的模型即可。推荐几个常用的:OpenAI、Jina、Cohere、Voyage、阿里Qwen,大家可以在https://huggingface.co/spaces/mteb/leaderboard 查看全球最新的Embedding模型排名,根据排名和自身需求选型。

截至目前,多语言embedding模型中,排名第一的是gemini-embedding-001,而第二、三、四名都是阿里的Qwen-Embedding系列,性价比和适配性都很出色,尤其适合中文场景,小白可优先测试选用。
这里提醒小白一个误区:很多人以为只有生成类大模型可以微调,其实嵌入模型也支持微调,但很少有企业会做这一步。只有在遇到高度专业化的场景(如医学、法律、金融专业知识),或有特定格式、文化本地化需求时,才需要考虑嵌入模型的微调——微调后,能让语义相似的文本在向量空间中的距离更近,进一步提升检索精准度。
知识存储&索引—— 高效存储“向量数据”,让检索更快更准
经过Embedding处理后,我们会得到大量的向量数据——这类数据和我们常见的结构化数据(如MySQL中的数据)完全不同,无法用常规的关系型/非关系型数据库存储,必须使用专门的向量数据库,才能高效存储和管理向量数据。
这里要明确一个核心逻辑:存储的最终目的是为了检索——因此,我们将“存储”和“索引”放在一起讲解,小白要记住:好的存储搭配合理的索引,才能实现“快速检索+精准召回”。
向量数据库选型(小白分场景选用)
目前市面上热门的向量数据库有:Milvus、Faiss、Chroma、Weaviate、Qdrant、Pinecone、ElasticSearch,国内腾讯、阿里等大厂也推出了自己的向量数据库,适配国内企业场景。
针对小白和不同场景,给出明确的选型建议(直接套用,无需纠结):
- 轻量级测试、个人小项目:首选Faiss(Facebook开源的向量数据库),体积小、部署简单,上手门槛低,适合小白练手。
- 企业商用、大规模数据:优先考虑Milvus,稳定性强、扩展性好,支持大规模向量数据的存储和检索,是目前企业级落地的主流选择。
- 已有ElasticSearch部署:直接使用ElasticSearch的向量数据库功能,无需额外部署新的数据库,降低开发和维护成本。
- 用Dify搭建:无需额外选型,Dify官方默认的向量数据库是Weaviate,适配性强,满足大部分企业级场景需求。

(图源黄佳《RAG实战课》)
索引方式解析(小白重点掌握3种)
将向量数据存入数据库后,必须建立索引——索引就像医院的导诊图,能快速定位到目标数据,显著降低大规模数据集的查询耗时,提升相似度检索的效率。
常见的索引方式如下,小白无需全部掌握,重点理解3种核心索引思想即可(企业落地最常用):


(图源黄佳《RAG实战课》)
1. FLAT(精确搜索)
最基础、最简单的索引方式,本质是“暴力遍历”——检索时,会遍历数据库中的所有向量数据,找到与查询向量最相似的结果。优点是检索精准,没有误差;缺点是速度慢,只适合小批量向量数据(比如几千、几万条),大规模数据完全无法使用。
2. IVF_FLAT(倒排文件索引+精确搜索)
目前应用较广的索引方式,核心逻辑是“先聚类、再检索”:先将所有向量数据划分为若干个簇(类似“分类文件夹”),计算查询向量与每个簇中心的距离,筛选出相似度最高的n个簇,再在这n个簇中进行暴力遍历,找到目标向量。
举个例子:你想找“猫”相关的向量,先快速找到“动物类”这个簇,再在“动物类”中检索“猫”,比遍历所有数据快得多。优点是兼顾速度和精准度,适合中等规模数据;缺点是聚类过程需要消耗一定算力。
3. HNSW(基于图结构的近似最近邻搜索)
目前性能最好的ANN(近似最近邻搜索)算法之一,也是企业级落地的首选。核心逻辑是构建一个多层导航图,顶层稀疏、底层密集,检索时像坐地铁一样,通过顶层导航快速定位到目标区域,再逐步深入底层,最终找到目标向量,速度极快。
重点提示:Dify中Weaviate的默认索引方式就是HNSW,小白用Dify搭建RAG时,无需额外配置,直接就能享受高效的检索性能。
知识检索(Retrieval)—— RAG的核心,搞定“精准召回”
前面的所有环节(提取、分块、嵌入、存储索引),都是为“检索”做准备——这也是RAG(Retrieval-Augmented Generation)中,“R”(Retrieval,检索)真正发挥作用的环节。检索的核心目标,是根据用户的查询query,快速、精准地从向量数据库中召回相关的知识块,为后续的回答生成提供支撑。
对于小白来说,无需开发复杂的检索逻辑,重点掌握“检索前优化”和“检索后优化”的常用技巧,就能大幅提升检索精准度。
检索前优化(3种技巧,小白优先掌握前2种)
检索前的核心目的,是将用户的查询query,转化为更贴合向量数据库检索逻辑的形式,提升召回率。
1. 查询结构转化
将用户的自然语言查询,转化为更规范、更精准的检索格式,比如拆分关键词、补充上下文、修正歧义。比如用户问“如何用Dify做PDF提取”,可转化为“Dify + PDF提取 + 实操步骤”,提升检索精准度。

2. 查询翻译
主要用于多语言场景,将用户的查询query翻译成向量数据库中知识块的语言(比如用户用中文查询,而知识库中有英文知识块,就需要将中文query翻译成英文,再进行检索);另外,也可将口语化查询翻译成书面化查询,减少歧义。

3. 查询路由
根据用户查询的类型,选择合适的数据源或检索方式(比如用户查询简单关键词,用稀疏嵌入检索;查询复杂语义,用稠密嵌入检索)。这种方式应用场景相对较少,小白可先不深入,等后续有进阶需求再研究。
检索后优化(核心技巧,必学)
检索完成后,会得到一批召回的知识块,此时需要对这些知识块进行优化,剔除无关内容、提升相关性,为后续回答生成铺路。常见的优化策略如下(小白可直接套用):

这里给小白一个明确的优先级:查询结构转化、查询翻译、重排,这三个是必做的优化点,能快速提升检索效果;而查询路由、知识块压缩、校正,可根据实际问答效果,灵活选择是否添加——比如知识块过长时,可进行压缩;检索结果有偏差时,可进行校正。
进阶方向:Self-RAG(小白可关注,暂不实操)
目前RAG的新兴方向是Self-RAG,核心逻辑是让大模型自主决策:是否需要检索、检索什么内容、检索到的知识块是否足够、是否需要再次检索。简单来说,就是让大模型“自己优化检索效果”。
不过目前Self-RAG还不够成熟,存在成本高、响应时间长的问题,小白暂时无需实操,可持续关注这个方向的发展——未来大概率会通过微调多个小型专用模型,实现更高效的Self-RAG,成为企业级RAG的主流优化方向。
回答生成(Generation)—— 整合知识,生成精准回答
当我们完成检索,得到精准的知识块后,RAG的最后一步,就是“回答生成”:将用户的查询query、检索到的相关知识块,一并输入到大模型中,让大模型结合自身的语义理解能力,生成精准、流畅、贴合用户需求的回答。
到这一步,整个知识库RAG的核心流程就结束了。对于小白来说,这一步无需过多开发,重点是优化提示词(prompt),让大模型能更好地利用检索到的知识块——比如在prompt中明确要求“仅基于提供的知识块回答,不添加无关内容,若知识块不足,直接说明无法回答”,避免大模型出现幻觉。

提示词的优化技巧,后续会单独整理,小白目前只需掌握核心原则:明确约束大模型的回答范围,强制其基于检索到的知识块生成回答,就能大幅提升回答精准度。
效果评估(Evaluation)—— 验收RAG效果,持续优化
很多小白搭建完RAG后,就以为结束了,忽略了“效果评估”——这也是导致RAG无法落地企业级场景的核心原因之一。评估的核心价值,是判断RAG系统的问答效果是否符合需求,找到优化方向;尤其在给客户交付产品时,评估指标更是验收的关键。
需要注意的是,没有通用的评估标准——不同的客户、不同的业务场景,对应的评测集、评测模型都不一样。小白入门时,可先掌握市面上常见的通用评估指标和框架,再根据自身场景调整。
### 常见评估框架及核心指标(小白收藏备用)
评估主要分为两大块:检索评估(评估检索的精准度)和生成评估(评估回答的质量),具体框架和指标如下:
#### 1. 检索评估
| 评估框架 | 核心关注指标 |
|---|---|
| RAG TRIAD(RAG三角) | 上下文相关性、忠实度、答案相关性 |
| RAGAS | 上下文精确率、上下文召回率、上下文实体召回率、噪声敏感度 |
| DeepEval | 上下文精确率、召回率、相关性等 |
#### 2. 生成评估
| 评估框架 | 核心关注指标 |
|---|---|
| RAGAS | 答案相关性、忠实度、多模态忠实度、多模态相关性 |
| DeepEval | 答案相关性、忠实度等 |
小白入门建议:优先使用RAGAS或DeepEval框架,这两个框架操作简单、指标全面,无需手动搭建评测体系,直接套用即可完成基础的效果评估,快速找到RAG系统的优化点。
### 最后总结
本文从知识提取到效果评估,完整拆解了RAG全流程的核心选型和实操优化思路,重点适配CSDN小白和程序员受众,避开了复杂的底层原理,多了工具推荐、场景选型和避坑指南,小白可直接收藏复用,逐步上手搭建企业级高精准知识库助手。
记住:RAG的核心不是“快速搭建”,而是“精准优化”——从50分到90分的过程,才是RAG的价值所在。后续会持续更新各环节的进阶实操技巧(比如嵌入模型微调、提示词优化),关注不迷路,一起深耕大模型RAG领域~
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】


为什么要学习大模型?
我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。


大模型入门到实战全套学习大礼包
1、大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

2、大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

3、AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

4、大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

5、大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

适用人群

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多推荐

所有评论(0)