引言:从静态参数到动态知识流的范式转变

在大规模语言模型(LLM)的演进历程中,知识的存储与调用始终是核心矛盾之一。传统深度学习架构将世界知识存储于模型的突触权重中,这种形式被称为参数化记忆(Parametric Memory)。尽管诸如 GPT-4、Llama 3 等预训练模型展现出了惊人的语言合成与逻辑推理能力,但其作为知识库的局限性日益显现:

  • 知识切断(Knowledge Cut-off)

    :导致模型无法感知训练日期之后的实时信息;

  • 幻觉现象(Hallucinations)

    :使得模型在处理缺乏证据的查询时往往生成看似合理实则谬误的内容;

  • 对于企业私有数据或特定领域的高精度需求,通用预训练权重的覆盖能力显露疲态。

检索增强生成(Retrieval-Augmented Generation, RAG) 的出现,标志着人工智能从"闭卷考试"向"开卷考试"的思维转变。这一概念最早由 Facebook AI Research(现 Meta AI)的 Patrick Lewis 及其同事在 2020 年正式提出,旨在为预训练的序列到序列(Seq2Seq)模型提供非参数化记忆(Non-parametric Memory)

通过在生成阶段动态检索外部权威知识库,RAG 有效地将模型的语言生成能力与其知识储备解耦,使得模型能够像查阅百科全书的专家一样,在不重新训练的前提下实现知识的实时更新与事实对齐。这种架构不仅大幅降低了知识密集的自然语言处理任务中出现的幻觉风险,还为模型输出的可解释性与溯源性提供了坚实的技术支撑。


一、RAG 的核心架构:知识解耦的理论基础

RAG 系统的本质是一个混合系统,它结合了预训练模型的语义理解能力与信息检索系统的数据获取能力。其理论框架建立在将预测任务转化为条件概率问题的基础上,即给定查询 q q q,生成结果 y y y 的概率 P ( y ∣ q ) P(y|q) P(yq) 不再仅仅取决于预训练权重,而是取决于检索到的支撑文档 z z z 以及基于 q q q z z z 的联合建模。

1.1 参数化与非参数化记忆的协同效应

在 RAG 框架中:

  • 参数化记忆

    :由预训练的 Transformer 模型承担,负责语义逻辑、语法构造和基础常识的生成;

  • 非参数化记忆

    :通常表现为由文档片段构成的密集向量索引,可以是维基百科全书、企业内部文档或专业法律条文。

两者的结合通过**检索器(Retriever)生成器(Generator)**的解耦实现了互补:检索器负责在海量非结构化数据中寻找最具相关性的信息,而生成器则将这些原始信息转化为连贯且符合语境的自然语言。

特性 参数化记忆(LLM 权重) 非参数化记忆(外部知识库)
存储形式 神经元权重(数字矩阵) 向量索引或原始文本文档
更新难度 极高(需重新训练或微调) 极低(更新索引库即可)
事实准确性 存在幻觉风险 取决于源数据质量
透明度 较低(黑盒推理) 极高(可提供来源引用)
实时性 存在知识滞后 支持实时动态更新

这种解耦不仅提升了系统的灵活性,还显著优化了资源配置。对于企业而言,通过维护一套非参数化索引,可以避免数百万美元的模型重训成本,同时确保 AI 助理始终能够获取最新的财务报表或政策文件。

1.2 从"检索-阅读"到"检索-思考-生成"

早期的 RAG 研究主要集中在简单的**“检索-阅读”(Retrieve-Read)模式,即根据用户问题检索相关文档,并将其拼接到 Prompt 中交由模型阅读。然而,随着理论研究的深入,这一过程演变为更为复杂的知识融合机制,涉及到对检索信息的过滤、重排以及在生成过程中的动态边际化(Marginalization)**处理。


二、数据表征与索引构建:RAG 的感知基石

RAG 系统的性能在很大程度上取决于数据如何被编码和索引。这一阶段被称为**“摄取阶段”(Ingestion Stage)**,涉及文档的清洗、切分(Chunking)和向量化(Vectorization)。

2.1 文本分块的策略逻辑

由于大规模语言模型存在**上下文窗口(Context Window)**限制,将长篇大论直接输入模型是不现实且低效的。因此,必须将原始文档拆分为更小的语义单元,即"块"(Chunks)。分块策略的优劣直接影响检索的召回率与生成的上下文质量:

  • 固定长度分块

    :简单地按 Token 或字符数切分,虽易于实现,但常导致语义截断,破坏段落的完整性;

  • 滑动窗口分块

    :在相邻块之间设置重叠区域(Overlap),以确保跨越分界点的语义能够被保留,在一定程度上缓解了语义碎片化问题;

  • 递归语义分块

    :基于标点符号、段落标记或自然语言处理工具进行层次化拆分,力求每个块代表一个完整的语义点;

  • 父子块检索(Parent-Child Retrieval)

    :在索引时使用较小、更精准的语义单元进行匹配,但在生成阶段提供更大的父块背景信息,以平衡检索精度与上下文深度。

2.2 向量空间嵌入与语义捕捉

嵌入模型(Embedding Models)将文本块映射到一个高维向量空间,其中相似含义的文本在数学空间上的距离更近。例如,"犬类"与"狗"在文本层面截然不同,但在鲁棒的嵌入空间中,两者的余弦相似度极高。这种映射的核心在于捕捉语义而不仅仅是关键词匹配。

尽管 BM25 等传统稀疏检索算法在精确匹配(如产品序列号、专有名词)方面依然具有不可替代的优势,但密集向量检索赋予了系统"理解"同义词和上下文语境的能力。现代生产系统往往采用混合搜索(Hybrid Search),即将向量检索与关键词检索结果通过**对数融合(Reciprocal Rank Fusion, RRF)**等数学公式进行汇总,以获得最优的召回效果。


三、检索范式的演进:从朴素线性到模块化框架

RAG 的发展经历了从初级的**朴素 RAG(Naive RAG)到复杂的高级 RAG(Advanced RAG)再到模块化 RAG(Modular RAG)**的演进过程。

3.1 朴素 RAG 的局限性

朴素 RAG 采用简单的顺序流:检索 top-K 个文档片段,然后将其与原始查询连接送入生成器。然而,实际应用中发现这种方法存在严重的性能天花板:

  • 检索质量低下

    :容易检索到语义相似但事实无关的噪声片段(中低精确度)或漏掉真正关键的信息(中低召回率);

  • 冗余与冲突

    :多个检索到的片段可能包含重复信息,或由于来源不同而导致事实冲突,迫使模型在矛盾中进行推理;

  • 中间迷失(Lost in the Middle)

    :研究表明,当检索到的上下文过长时,LLM 往往只关注开头和结尾的信息,而忽略位于中间的重要证据。

3.2 高级 RAG 的优化层次

为了解决上述问题,高级 RAG 引入了**预检索(Pre-retrieval)后检索(Post-retrieval)**两个优化阶段。

预检索阶段——重点在于改进查询本身,技术手段包括:

  • 查询改写(Query Rewriting)
  • 查询扩展(Query Expansion)
  • 查询路由(Query Routing)

例如,通过将用户的模糊问题分解为多个子问题,可以分别检索不同的知识源,从而提高综合召回率。

后检索阶段——核心目标是减少生成器的负担并过滤噪声。**重排序(Reranking)**是最有效的手段之一:

由于初级检索通常基于高效但精度有限的余弦相似度,系统会先筛选出较多(如 50-100 个)候选项,再使用更强大的**交叉编码器(Cross-encoder)**模型对这些候选项进行深度相关性评分,仅保留最相关的 top-K 个(如 3-5 个)片段传递给 LLM。

3.3 模块化 RAG:灵活性与适配性

模块化 RAG 进一步解耦了系统组件,引入了搜索模块、内存模块、对齐模块等专用组件。这种架构不再遵循单一的线性逻辑,而是根据查询的复杂程度动态调整工作流。

模块类型 核心功能 代表性技术/应用
搜索模块 扩展检索范围至搜索引擎或知识图谱 KnowledGPT, Google Search API
重排序模块 精准校准语义相关性 Cross-Encoders (BERT, Cohere Rerank)
路由模块 智能选择数据路径或处理逻辑 Semantic Router, Multi-prompt Router
内存模块 管理历史对话记录以维持上下文 Self-Mem, Redis Chat Memory
改写模块 对齐查询与文档语义空间 HyDE, Rewrite-Retrieve-Read

四、检索阶段的技术深潜:重排序与二阶段架构

在 RAG 的理论中,**重排序(Reranking)**被视为平衡检索效率与生成质量的关键杠杆。

4.1 双编码器与交叉编码器的博弈

**双编码器(Bi-Encoders)**架构(如 DPR):查询向量和文档向量是独立计算的,允许对数百万个文档进行离线预计算并利用高效的向量搜索算法(如 ANN)在毫秒内完成匹配。然而,这种"独立计算"限制了模型捕获查询与文档之间细微交互的能力。

交叉编码器(Cross-Encoders):将查询和文档成对输入模型,利用注意力机制进行全方位的深度交互。这种方法精度极高,但由于无法进行离线预计算,其计算成本随文档数量呈线性增长,无法直接用于海量数据的搜索。

因此,工业界标准的二阶段架构由此诞生:

第一阶段(双编码器):大范围搜寻候选项(50-100个)        ↓第二阶段(交叉编码器):小范围精准精筛(top 3-5个)        ↓传递给 LLM 进行生成

4.2 针对"中间迷失"的上下文重组

鉴于 LLM 对位置的敏感性,先进的 RAG 系统会采用 "U 型排列"策略

  • 最重要的重排序结果放在上下文的开头
  • 第二重要的结果放在上下文的结尾
  • 将相对不重要的信息置于中间

实验证明,这种排列方式能显著提高 LLM 对关键事实的提取成功率,有效缓解由于长文本导致的注意力衰减。


五、查询重构理论:对齐语义鸿沟

用户输入的原始查询往往是不完美的。在 RAG 的理论框架中,**查询变换(Query Transformation)**旨在缩小"用户意图空间"与"文档存储空间"之间的距离。

5.1 假设性文档嵌入(HyDE)的原理

**HyDE(Hypothetical Document Embeddings)**是近年来检索理论的一项突破:

  • 传统检索

    :“用问题找答案”

  • HyDE

    :“用虚构答案找真实答案”

其核心逻辑是:使用 LLM 针对用户问题生成一个可能并不准确的"假设性回答",然后将这个虚构的回答转化为向量进行检索。由于检索器在比较"文本到文本"时比"问题到答案"时表现得更稳定,HyDE 能够利用生成的虚构文档中的领域词汇和语义结构,更精准地锁定知识库中的真实支撑内容。这对于处理简短、模糊或跨领域的查询尤为有效。

5.2 多查询与扩展检索

多查询(Multi-Query)检索通过 LLM 生成原始查询的多个变体(从不同角度描述同一意图),并进行并行检索。这种方式显著提高了系统的召回率(Recall),确保不会遗漏由于表述差异而导致的相关文档。然而,多查询也带来了更高的延迟和成本,需要结合精细的重排序和去重逻辑。


六、进阶理论框架:自我反思与纠错机制

为了解决检索信息不准确带来的负面影响,学术界提出了**自反思 RAG(Self-Reflective RAG)纠错 RAG(Corrective RAG, CRAG)**等增强型理论框架。

6.1 纠错 RAG(CRAG)的自我评估逻辑

CRAG 在传统的检索流中插入了一个轻量级的评估节点,对检索到的每个文档进行置信度分级:

评估结果 处理策略
确信(Correct) 直接提取关键知识条用于生成
不确信(Incorrect) 彻底丢弃,触发外部网络搜索(Web Search)获取新鲜信息
⚠️ 模糊(Ambiguous) 结合检索片段与网络搜索结果进行加权综合

这种"评估-干预"机制使得 RAG 系统具备了鲁棒性,即使在内部数据库质量欠佳的情况下,也能通过外部 fallback 机制确保输出的安全性。

6.2 自我反思 RAG(Self-RAG)与反思 Token

Self-RAG 通过在模型训练中引入特殊的**“反思 Token”(Reflection Tokens)**,让模型在推理过程中具备自主决策能力:

  • 是否检索

    :模型自主决定是否需要检索外部知识;

  • 相关性评分

    :对检索到的内容进行相关性评分;

  • 支撑度评分

    :评估检索内容对生成答案的支撑程度;

  • 整体效用评分

    :对最终输出进行综合质量评估。

这种方法将 RAG 从一个被动的流程转化为一个具备主观能动性的闭环系统,模型不再是盲目地整合信息,而是具备了批判性思维来筛选证据。


七、RAG 与微调:知识定制的权衡之道

在 RAG 的实践中,经常面临与微调(Fine-tuning)的选择博弈。两者的区别本质上是关于知识存储位置的决策。

7.1 知识存储的解构:行为 vs. 事实

  • 微调

    :通过调整模型权重来优化模型在特定格式、风格或领域词汇上的表现。然而,微调在存储事实性知识方面效率极低——它无法解决知识过时问题,且随着训练数据的增加,模型会出现灾难性遗忘(Catastrophic Forgetting)

  • RAG

    :将事实性知识交给外部数据库,让模型保持在通用的逻辑推理状态。这种"外挂大脑"的模式在数据隐私和成本控制方面具有明显优势。

维度 RAG(检索增强) Fine-Tuning(微调)
主要目标 获取事实知识、解决时效性 改变行为模式、学习特定格式
更新频率 秒级(更新索引库即可) 周/月级(需重新训练)
可追溯性 极高(可提供引用原文) 极低(黑盒权重)
算力成本 主要是推理开销 + 数据库维护 昂贵的训练开销(GPU)
幻觉抑制 强(基于证据生成) 弱(可能加剧过度拟合)
特定技能学习 较弱 强(如学习特定代码风格)

7.2 RAFT:RAG 与微调的融合范式

最新的研究趋势倾向于两者的结合,即 RAG-Fine-Tuning (RAFT)。这种理论认为,为了发挥 RAG 的最大潜力,应该对生成器模型进行微调,使其学会"如何阅读文档"并区分相关文档与无关文档(干扰项)。通过在微调数据集中包含正确文档、干扰文档和不含答案的文档,可以显著提升模型在复杂检索环境下的抗干扰能力推理鲁棒性


八、评价体系:RAGAS 与评估的黄金标准

评估 RAG 系统的效能是一个多维度的挑战。传统的语言指标(如 BLEU、ROUGE)因过于关注文本重叠而无法反映事实准确性。目前公认的评价标准是 **RAGAS(RAG Assessment)**框架。

8.1 RAGAS 的三元组度量

RAGAS 将评估拆解为检索端和生成端两部分,核心指标构成了所谓的"RAG 评估三元组":

指标 含义 重要性
忠实度(Faithfulness) 评估生成的答案是否完全源自检索到的上下文 抑制幻觉的关键指标
答案相关性(Answer Relevancy) 衡量生成的答案是否直接回答了用户的问题,没有冗余信息 评估输出质量
上下文精度(Context Precision) 衡量检索出的片段中,相关信息是否被排在较高位置 评估检索排序质量
上下文召回率(Context Recall) 衡量系统是否成功找到了所有能支撑标准答案的信息点 评估检索完整性

8.2 自动评估与人工验证的结合

RAGAS 框架通常使用更强大的 LLM(如 GPT-4)作为评估器。这种"AI 评测 AI"的方法虽然高效且具备可扩展性,但在处理极端细微的语义差异时仍需人工验证(Human-in-the-loop)。此外,企业级部署还需要考虑延迟(Latency)、吞吐量和资源开销等工程指标。


九、行业应用与案例:从理论到落地

RAG 已从学术论文走向了金融、法律和医疗等严谨行业,产生了显著的商业价值。

9.1 金融领域的深度应用:摩根大通与彭博

摩根大通(JP Morgan) 利用 RAG 架构构建了研究分析助理,通过直接连接私有金融数据库而非重训练模型,每年节省了约 1.5 亿美元的训练成本。这种架构确保了分析师获取的是实时市场快报和最新的监管文件,而非过时的预训练知识。

彭博(Bloomberg) 则展示了时效性的极限。通过每小时更新一次向量数据库,他们的系统能够对波动的金融市场做出实时响应,这在传统模型微调范式下是完全不可能实现的。

9.2 开发者生产力:GitHub Copilot 的进化

GitHub Copilot 的早期版本经常生成语法正确但逻辑错误的"幽灵代码"。在引入 RAG 策略后,系统可以实时检索用户当前项目的代码上下文、文档库和最佳实践。微软的报告显示,这一改进使 Copilot 的代码幻觉率降低了 94%,生成的建议更符合项目现有的代码风格和依赖版本。


十、挑战与瓶颈:RAG 部署的现实阻碍

尽管 RAG 前景广阔,但其实施过程中仍存在显著的技术挑战。

10.1 检索噪声与干扰文档

当检索系统返回大量无关或带有误导性的文档时,即使是最强大的生成器也会受到干扰。如何构建能够区分"似是而非"文档的强力检索器,是目前的研发重点。

10.2 隐私、安全与合规性

RAG 系统通常涉及对大量非结构化数据的处理。数据中的敏感信息(PII)可能在检索过程中被不当暴露,或者被 LLM 在生成阶段通过**提示词攻击(Prompt Injection)被诱导输出。因此,动态数据脱敏基于角色的访问控制(RBAC)**必须集成到 RAG 的每一层架构中。

10.3 延迟与成本的平衡

RAG 增加了额外的检索步、重排序步和多次模型调用,这显著提升了**首个字符输出(TTFT)**的延迟。在面向数百万用户的实时应用中,如何优化向量数据库的查询性能和并行化处理流程,是系统架构师必须面对的问题。


十一、未来展望:迈向智能"知识运行时"

RAG 的理论边界正在不断扩展,未来的发展将聚焦于更高维度的语义理解和更深层次的系统集成。

11.1 图增强检索(GraphRAG)

传统的向量检索将知识视为孤立的"点",而图增强检索(GraphRAG)则将其视为相连的"网"。通过结合知识图谱(Knowledge Graphs),模型可以沿着实体间的关系链进行多跳推理(Multi-hop Reasoning)

例如,在调查洗钱犯罪时,GraphRAG 可以追踪从账户 A 到账户 B 再到关联实体 C 的复杂资金流,这是单纯依靠向量相似度难以完成的任务。

11.2 多模态 RAG 的融合

未来的 RAG 将不再局限于文本。医疗影像、工业图纸、视频档案和音频记录都将被编码进统一的向量空间。多模态 RAG 将允许医生在咨询 AI 时,系统不仅查阅最新的医学文献(文本),还能调取相似病例的磁共振成像(图像)进行交叉验证。

11.3 语境工程(Context Engineering)

随着 LLM 的**长上下文窗口(Long Context)**不断扩大,RAG 的角色将从"信息提供者"转变为"上下文治理者"。语境工程将通过智能化的片段选取和排列,为长上下文模型提供最具有"语义连贯性"和"逻辑深度"的内容,从而在极长的 Prompt 中实现近乎完美的信息利用率。


结论:RAG 理论体系的系统化思考

RAG 不仅仅是大型语言模型的一个辅助插件,它代表了人工智能处理知识的一种新哲学。通过将检索与生成、行为与事实、逻辑与数据进行解耦,RAG 为构建可信、动态且成本可控的 AI 系统提供了蓝图。

从 Patrick Lewis 最初提出的简单框架,到如今集成重排序、查询改写、自我反思和图谱推理的复杂生态,RAG 的每一次进步都是在试图弥合机器计算与人类认知之间的鸿沟。

  • 对于研究者

    :理解 RAG 的理论核心在于把握知识的动态流动特性;

  • 对于开发者

    :其实践价值在于如何在效率、准确性和安全性之间寻找最优的平衡点。

在即将开启的 AI Agent 时代,RAG 将作为不可或缺的底层基础设施,为智能体提供源源不断的、可追溯的知识血液。

如何系统的学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

在这里插入图片描述

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

在这里插入图片描述

2025年大模型应用呈现爆发式增长,根据工信部最新数据:

国内大模型相关岗位缺口达47万

初级工程师平均薪资28K(数据来源:BOSS直聘报告)

70%企业存在"能用模型不会调优"的痛点

真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!

02.大模型 AI 学习和面试资料

1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工

📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐