从提示工程到上下文工程:打造AI智能体的“认知框架“,这篇教程值得收藏学习
上下文工程是AI智能体系统的核心技术,旨在解决大模型感知不足、理解局限、记忆缺失和注意力涣散的缺陷。它通过构建动态信息管道,整合指令、知识、工具和反馈等多维度信息,实现从静态提示到动态上下文管理的转变。随着技术演进,上下文工程正向多模态融合、自动化优化和多智能体协作方向发展,为AI提供更全面、立体的认知框架,推动AI从信息处理器向主动智能体转变。
上下文工程是AI智能体系统的核心技术,旨在解决大模型感知不足、理解局限、记忆缺失和注意力涣散的缺陷。它通过构建动态信息管道,整合指令、知识、工具和反馈等多维度信息,实现从静态提示到动态上下文管理的转变。随着技术演进,上下文工程正向多模态融合、自动化优化和多智能体协作方向发展,为AI提供更全面、立体的认知框架,推动AI从信息处理器向主动智能体转变。
智能体(Agent)是一种能够感知环境、制定决策并采取行动以实现特定目标的AI系统,具有意图理解、长短期记忆、决策规划、采取行动、工具调用等基本能力。
简单来说,智能体通过工具调用将大语言模型的“思考”能力与外部系统、工具、API的“行动”能力结合,实现从需求理解到任务执行的闭环。这一机制使智能体能突破自身知识局限,为用户提供更多复杂的智能服务。
智能体系统与大模型的区别是:一般情况下,大模型只说不做,而智能体系统不只说,还会做,可以帮助用户完成更加复杂的任务。
本文旨在对AI智能体系统的上下文工程进行一次全面深入的分析。从上下文工程技术的起源、基本概念、核心原理、关键突破、未来趋势等多个维度,系统性地梳理其发展脉络,让大家能够对智能体系统中的上下文工程有一个较为清晰的认识。
用大白话说,这篇文章就是讲述智能体系统中的上下文工程是个啥?由什么组成的?应该怎么做?未来会怎么发展?


提示词工程的兴起与核心挑战

在大语言模型应用开发的早期阶段,提示工程是开发者社区关注的焦点。它被视为一门“提问的艺术”,核心在于通过精心设计和组织输入文本(即提示词),来引导LLM生成最符合预期的输出 。这种方法在相对简单和可控的任务中,如单轮问答、文本摘要任务,取得了不错的效果。开发者们通过大量的实验,总结出了许多行之有效的提示技巧,例如角色扮演(“你是一个专业的翻译官”)、思维链(Chain-of-Thought)引导以及提供少样本示例(few-shot方法)等。这些技巧的本质,是通过优化输入端的指令,来激活模型内部在预训练阶段学到的特定知识或推理模式。
然而,随着LLM应用场景的深化,提示工程的局限性也日益凸显。其核心挑战在于,它过度依赖于一个静态的、一次性的输入,而忽略了模型在动态交互过程中对持续、丰富信息的需求 。
在一个有限的测试环境中,一个精心设计的提示或许能获得不错的结果,但在复杂的真实世界部署中,同样的提示可能会因为模型缺乏必要的背景信息(如相关数据、对话历史或实时状态)而彻底失败。
例如,一个智能客服机器人,如果仅仅依赖用户当前的一句话来生成回复,而不知道用户之前的订单历史、账户状态或之前的沟通记录,其回答很可能是不相关甚至错误的。这种 “一次性”的交互模式,使得提示工程难以支撑起需要多轮推理、长期记忆和与外部环境交互的复杂AI智能体应用。因此,我们开始意识到,仅仅优化“如何提问”是远远不够的,更关键的是要解决“如何让AI拥有回答问题的正确知识和环境”这一更深层次的问题。
AI应用需求从单轮对话向多轮推理的智能体应用的转变,是推动上下文工程兴起的最直接动力。早期的LLM应用大多是“一问一答”的单轮交互模式,用户的每一个请求都是独立的,模型无需考虑之前的对话历史。在这种模式下,提示工程通过优化单次输入,足以引导模型完成大多数任务。
然而,随着AI智能体的出现,应用场景变得愈发复杂。一个智能体不再是简单地响应指令,而是需要在一个持续的环境中,通过多轮次的 “思考-行动-观察”循环来完成复杂的任务 。
例如,一个电商领域的AI智能体可能需要执行以下流程:1) 理解用户的退款请求;2) 查询订单数据库验证订单详情;3) 检查库存系统确认商品状态;4) 调用支付接口处理退款;5) 更新用户记录;6) 发送通知邮件 。
在这个多步骤的推理过程中,每一步的决策都依赖于前一步的结果和整个任务的上下文。如果在第一步就出现了上下文理解错误,这个错误将会像多米诺骨牌一样,在后续的步骤中逐级放大,最终导致整个任务的失败 。这种 “级联失效”模式在自主系统中是可怕的,因为它不仅会产生错误的答案,更可能引发错误的现实世界行动,造成资源浪费甚至商业损失。
因此,AI智能体系统必须具备在多轮交互中有效管理和利用上下文的能力。这包括记住之前的对话内容、整合来自不同工具或数据源的新信息、并根据累积的知识动态调整后续的行动策略。
这种从静态、单轮交互到动态、多轮推理的需求转变,使得上下文管理从一个可选项变成了必需品,也标志着AI工程的核心工作从“提示工程”正式转向了“上下文工程” 。

上下文工程的诞生

随着大语言模型技术的飞速发展,AI智能体正从概念走向现实应用。然而,在它们展现出能力的同时,一个根本性的瓶颈也逐渐显现:AI与人类之间存在着一道深刻的“理解力鸿沟” 。这种鸿沟并非源于模型处理能力的不足,而是源于其认知模式的根本差异。
首先,AI的 “感官”是不完整的。人类在交流时,会无意识地接收并处理大量非文本信息,如环境氛围、对方的肢体语言和语调变化,这些信息共同构成了丰富的上下文。而当前绝大多数AI系统,尤其是单模态的大语言模型,其感知范围被严格限制在用户输入的文本中,无法主动捕捉和理解这些高熵的隐含信息,导致其“感知视野”极为狭窄 。
其次,即便能够获取所有信息,AI的 “理解能力”也存在局限性。人类大脑擅长整合多源信息,理解复杂逻辑和事物间的隐性关联。相比之下,AI大模型,特别是基于Transformer架构的模型,在处理长距离依赖和复杂关系信息时依然面临性能瓶颈,难以像人类一样进行深度整合与推理 。
第三,也是最关键的一点,是AI “记忆的缺失” 。Transformer架构虽然强大,但其上下文窗口的长度是有限的,这导致模型缺乏一个长期、稳定的记忆系统。它无法像人类一样,通过共享的过去对话和经验来建立稳固的背景共识,每一次交互都仿佛是一次“初见”,无法形成连贯的认知积累 。
最后,AI的 “注意力”是分散且低效的。即便通过检索增强生成(RAG)等技术为其配备了外部记忆库,当面对海量信息时,AI也常常表现出“上下文选择困难症”,不知道应该将注意力聚焦于何处,导致关键信息被淹没在噪声中 。这些固有的缺陷共同导致了AI在复杂、多轮、需要深度理解的交互场景中表现不佳,也催生了上下文工程的诞生。
上下文工程的诞生,标志着AI应用开发范式的转变。早期的LLM应用大多聚焦于一次性的文本生成任务,提示工程足以应对。但随着AI智能体的出现,它们需要在多轮推理和更长的时间尺度上自主运行,这要求系统能够动态管理包括系统指令、工具描述、外部数据、对话历史在内的整个上下文状态。
一个智能体在循环中运行会产生大量可能相关的数据,而上下文工程的技术就在于,如何从这个不断演变的信息宇宙中,为有限的上下文窗口筛选出最关键、最有价值的内容 。它不再是一个孤立的技巧,而是一个贯穿AI系统生命周期的工程学科,涵盖了从信息收集、管理到使用的完整闭环,旨在为AI提供一个稳定、可靠且持续进化的“行动指南”,从而解锁其在复杂现实世界任务中的真正潜力 。

上下文工程技术的简要介绍

根据AI领域领先公司Anthropic的描述,上下文工程可以被定义为 “一套用于策划和维护在大语言模型推理过程中的最优信息(token)集合的策略”。
这里的“上下文”指的是在模型进行内容生成时,输入给模型的全部token集合,它不仅包括用户直接输入的提示词,还涵盖了系统指令、工具描述、外部检索到的数据、历史对话记录等所有可能影响模型输出的信息 。而“工程”则强调了这是一个系统性、有目的性的优化过程,其核心目标是在LLM固有的上下文窗口限制下,最大化这些token的效用,从而稳定、可靠地达成预期的行为结果 。
简而言之,上下文工程的本质是构建一个动态的信息管道,它能够根据当前任务的需求,自动地从庞大的外部知识库、实时数据源和历史交互记录中,筛选、组装并注入最相关的信息到LLM的上下文窗口中。
与侧重于“如何提问”的提示工程不同,上下文工程更关注 “提供哪些重要信息”以及“如何提供重要信息”。它要求开发者从更宏观的视角来思考,即“什么样的上下文配置最有可能引导模型产生期望的行为” 。这涉及到一系列复杂的技术决策,例如如何设计高效的信息检索策略、如何对检索到的信息进行排序和压缩、如何管理长短期记忆、以及如何协调多个信息源、如何对大量的工具或者MCP服务进行筛选等。
因此,上下文工程不仅仅是一门技术,更是一种系统设计的思维方式,它将AI应用的开发从单纯的模型调用,提升到了构建复杂信息系统的层面。
上下文工程的核心理念,是要为通用的大语言模型注入高度专业化和情境化的信息,将其从一个“万事通”转变为一个在特定领域内可靠、高效的“专家” 。一个未经专门上下文配置的通用LLM,虽然知识广博,但在处理特定领域的复杂问题时,往往会因为缺乏深度和精确性而产生“幻觉”、参数提取失败、工具判断错误或给出不切实际的答案。
上下文工程的目标就是通过构建一个精心设计的“认知工程框架”,来弥补这一差距。这个框架为AI提供了执行任务所需的一切背景知识、规则约束和实时数据,使其能够在一个明确、清晰的边界内进行推理和决策。
这个理念的实现,依赖于对上下文的精细化管理和动态组装。例如,在构建一个医疗智能诊断辅助系统时,上下文工程不仅仅是让AI读取医学教科书。它更涉及到:
-
知识库构建:将权威的医学文献、临床指南、药物说明书等结构化或非结构化数据,构建成一个可供高效检索的知识库。
-
动态检索:当接收到患者的症状描述时,系统能够根据关键词、语义向量、全文检索等方式,从知识库中精准地检索出最相关的疾病信息、诊断标准和鉴别诊断要点。
-
上下文组装:将检索到的信息、患者的病历数据、以及预设的诊疗规范有机地组织起来,构成一个完整、有序的上下文,输入给LLM。
-
持续优化:根据模型的输出结果和医生的反馈,不断调整检索策略和上下文组装逻辑,提升系统的准确性和可靠性。通过这一系列操作,上下文工程将通用的AI模型“锚定”在了一个专业的知识领域内,使其输出不仅更加准确,而且更符合行业规范和最佳实践,从而真正成为人类专家值得信赖的助手 。

检索增强生成(RAG)系统的出现

上下文工程的雏形,可以追溯到检索增强生成(Retrieval-Augmented Generation, RAG)系统的出现。在LLM的上下文窗口还相对较小、且模型内部知识更新滞后的时期,如何让模型回答关于最新信息或特定领域私有知识的问题,是一个巨大的挑战。
RAG系统为此提供了一个优雅的解决方案,其基本思想是,在生成答案之前,先通过一个检索器从一个外部知识库(如文档集合、数据库)中,找到与用户问题最相关的信息片段,然后将这些片段作为上下文,连同用户问题一起输入给LLM,由LLM基于这些提供的上下文来生成最终答案。
RAG的出现,标志着AI应用开发从单纯依赖模型内部知识,转向了 “模型+外部知识库”的混合模式,这可以被看作是上下文工程的1.0版本。它首次系统性地解决了“如何为模型提供它不知道的信息”这一核心问题。早期的RAG系统主要关注于检索的准确性,即如何找到最相关的文档块。开发者们投入大量精力优化文本切分策略、向量嵌入模型和相似度搜索算法。
然而,随着应用的深入,人们发现仅仅“找到”信息是不够的,如何“呈现”这些信息同样至关重要。这就催生了对上下文进行更精细管理的需求,例如,如何处理检索到的多个信息片段之间的冲突?如何对它们进行排序以突出重点?如何压缩过长的上下文以适应模型的窗口限制?这些问题推动了RAG系统向更复杂的上下文工程范式演进,为后续智能体时代的到来奠定了基础。

上下文工程都包括什么?

随着AI智能体(Agent)的落地,上下文工程的发展进入了一个全新的阶段,其核心从静态的信息检索,演变为动态的上下文管理。在RAG系统中,上下文管理是一次性的:针对用户的单次提问,检索一次信息,构建一次上下文。但在一个能够自主行动的AI智能体中,上下文是持续演变和流动的。
一个智能体可能需要执行一个包含多个步骤的复杂任务,每一步的行动都依赖于前一步的结果和不断累积的“经验” 。这就要求上下文工程系统必须具备动态、持续地管理上下文的能力。
这个发展阶段的特点是,上下文不再仅仅是外部知识的堆砌,而是包含了更多维度的信息。一个智能体系统中的上下文通常包括以下几种类型 :
-
指令(Instructions):系统提示、行为规则、少样本示例、工具的描述和使用方法。
-
知识(Knowledge):从外部知识库检索到的领域事实、语义记忆、以及智能体在运行过程中产生的中间结果。
-
工具(Tools):外部API、函数或系统的描述,允许智能体主动与外部环境交互,执行操作(如搜索、计算、发送邮件)并获取新信息。
-
工具反馈(Tool Feedback):智能体调用外部工具(如API、数据库)后得到的返回结果,以及系统内部的运行信息。
为了有效管理这些动态且多维度的上下文,一系列更高级的策略应运而生。这包括如下内容:
- 上下文选择:智能体需要具备判断在特定时刻哪些信息最相关的能力,通过RAG、相似度搜索或过滤器,动态地检索所需的数据、指令或工具,而不是将所有信息一次性塞入上下文窗口 。
- 上下文压缩:为了应对有限的上下文窗口,系统需要能够对历史消息或工具输出进行摘要或修剪,以防止token数量膨胀 。
- 上下文隔离:在多智能体系统中,为了避免不同智能体之间的信息冲突和干扰,需要为每个智能体提供独立的、有作用域限制的上下文窗口 。
- 上下文写入:将重要的信息(如任务状态、决策历史)持久化地存储到外部记忆(如数据库、文件)中,以便智能体在后续步骤或未来的会话中能够引用 。
这一系列从“检索”到“管理”的演进,标志着上下文工程已经成为构建复杂AI智能体系统的核心内容,它使得AI能够在一个更接近人类工作记忆的框架内进行复杂的、多步骤的推理和行动。

上图详细说明了为弥补大模型的感知有限、理解局限、记忆确实、注意力涣散等缺陷而必须搭建的庞大脚手架系统——上下文工程系统,图片来源于上海交通大学和GAIR实验室发表的论文《Context Engineering 2.0: The Context of Context Engineering》,由腾讯科技的博阳进行了图片的翻译。文章请见:https://arxiv.org/pdf/2510.26493。

上下文工程技术的演进与突破

上下文工程作为一个系统性的学科,其技术实现依赖于几个相互关联的基础组件。这些组件共同构成了一个动态的信息处理流水线,旨在为大语言模型提供最优的决策环境。这些基础组件可以被划分为三个核心环节:上下文检索与生成、上下文处理以及上下文管理 。
这三个环节环环相扣,共同解决了“从哪里获取信息”、“如何处理信息”以及“如何有效利用信息”这三个根本性问题。
1、上下文检索与生成
上下文检索与生成是上下文工程的起点,其核心任务是根据当前的任务需求,从各种可能的信息源中动态地获取或生成相关的上下文信息。这个过程远不止是简单的关键词搜索。
在复杂的智能体系统中,信息源可能是多样化的,包括结构化的数据库、非结构化的文档集合、API的实时返回数据甚至是其他智能体的输出。因此,上下文检索需要采用更加智能和灵活的策略。例如,在需要回答一个复杂问题时,系统可能需要执行多跳推理 ,即先通过一次检索找到初步线索,再根据这些线索进行第二次、第三次检索,逐步拼凑出完整的答案 。
此外,上下文的“生成”也扮演着重要角色。这不仅仅指LLM生成文本,更包括将不同来源、不同格式的信息进行整合、转换和抽取摘要,使其更适合作为LLM的输入。例如,当检索到多个相关的文档片段时,系统可能需要对这些片段进行去重、排序并生成一个简洁的摘要,以突出核心信息并节省宝贵的上下文窗口空间。
在一些高级应用中,系统甚至会根据任务需求,主动生成一些“伪文档”或“假设性知识”,以引导LLM进行更有效的推理。这种动态组装信息的能力,是上下文工程区别于静态提示工程的关键所在,它使得AI系统能够根据实时情况,灵活地构建其“认知基础”。
2、上下文处理
上下文处理是上下文工程的核心技术环节,它主要解决的是如何将检索到的庞大和复杂的信息,有效地输入到LLM中。这个环节面临着两大核心挑战:长序列处理和复杂数据结构的处理。首先是长序列问题,尽管现代LLM的上下文窗口已经从最初的数千token扩展到数十万甚至上百万token,但处理超长序列仍然面临着巨大的计算和内存开销,并且模型在超长序列中捕捉关键信息的能力(即“大海捞针”问题)也存在瓶颈 。因此,上下文处理需要采用各种技术来优化长序列的利用效率。
其次是复杂数据的处理。现实世界的信息并非都是文本模态的,在复杂的应用场景中,上下文可能包含图结构(如知识图谱)、表格、代码、多模态数据(如图像、视频)等。如何将这些非结构化和半结构化的数据,转换成LLM能够有效理解和利用的格式,是一个巨大的挑战。例如,在处理一个代码库时,仅仅提供代码文件的内容是不够的,还需要让模型理解代码之间的依赖关系、调用关系等图状结构 。
同样,在处理一个涉及多步推理的科学问题时,将问题分解成一个逻辑链条(如思维链,Chain-of-Thought)或一个树状结构(如思维树,Tree-of-Thought),可以显著提升模型的推理能力 。因此,上下文处理不仅仅是文本的拼接,更是一种对信息进行结构化、序列化和优化的艺术,其目标是让LLM能够“看懂”并“用好”这些复杂的信息。
3、上下文管理:记忆、压缩与优化
上下文管理是上下文工程的“大脑”,负责在整个交互过程中,对上下文信息进行持续的监控、维护和优化。由于LLM的上下文窗口是有限的“工作记忆”,而智能体在运行过程中会产生源源不断的信息流,因此,如何高效地管理这个有限的记忆空间,就成为决定系统性能的关键。上下文管理主要涉及记忆、压缩和优化三个方面。
记忆管理旨在为AI构建一个类似人类的记忆系统。这通常通过引入外部存储(如向量数据库、知识图谱)作为“长期记忆”,与LLM内部的上下文窗口(“短期记忆”)相结合来实现 。记忆管理的核心机制包括:如何将短期记忆中的重要信息“巩固”到长期记忆中,以及如何在需要时从长期记忆中“检索”相关信息并加载到短期记忆中 。一些先进的系统甚至引入了“工作记忆”和“程序性记忆”等概念,以更精细地模拟人类的认知过程 。
记忆压缩是解决上下文窗口瓶颈的直接手段。当上下文信息过长时,系统需要对其进行压缩。压缩技术多种多样,从简单的截断、摘要,到更复杂的语义压缩和知识蒸馏 。例如,可以对冗长的对话历史进行摘要,只保留关键决策点和结论;或者从多个相似的文档中提取出核心观点和模式,形成一个更紧凑的知识表示 。
记忆优化则是一个更宏观的概念,它涉及到如何在整个系统层面提升上下文的效用。这包括上下文的选择策略(决定哪些信息最重要)、上下文的排序策略(将最关键的信息放在最前面或最后面,以利用LLM的注意力偏差)以及上下文的隔离策略(在多智能体系统中避免信息干扰)。通过这些精细的管理和优化手段,上下文工程确保了AI在任何时候都能在一个信息丰富、重点突出且无干扰的环境中进行决策,从而最大化其性能和可靠性。
4、基座大模型技术的相关突破
为了攻克Transformer模型在处理长序列时面临的二次方计算复杂度瓶颈,目前已经在多个技术方向上取得了关键性突破,这些突破大致可以分为对现有架构的优化和全新的架构设计两大类。
在优化现有Transformer架构方面,一个核心挑战是位置编码的限制。传统的位置编码方法在序列长度超出训练范围时会失效。为了解决这个问题,研究者们提出了位置插值技术,例如YaRN(Yet another RoPE-based NTK-aware method),它通过智能地重新缩放位置索引,而非简单地外推到未见过的位置,从而使模型能够处理远超其原始上下文窗口限制的序列 。LongRoPE等技术甚至通过两阶段微调,成功将上下文窗口扩展到了惊人的2048K token。这些技术在不改变模型核心架构的情况下,显著提升了长上下文处理能力。
然而,要从根本上解决二次方复杂度的难题,则需要更激进的架构创新。这催生了多种超越传统自注意力机制的新架构,其中,状态空间模型(State Space Models, SSMs) 如Mamba,通过引入一个固定大小的循环状态,实现了线性的计算复杂度和恒定的内存占用,使其在处理超长序列时比传统Transformer更具效率。
另一大创新方向是线性注意力(Linear Attention) ,它通过将注意力计算转化为线性形式,彻底摆脱了O(N²)的束缚 。此外,还有如LongNet这样的模型,它采用扩张注意力(Dilated Attention)机制,随着token间距离的增加而指数级扩大感受野,实现了线性复杂度,理论上可以处理超过十亿token的序列。
这些架构层面的革命性创新,不仅为长上下文处理提供了全新的解决方案,也为未来设计更高效、更具扩展性的AI模型开辟了新的道路。
大模型未来如何发展?普通人如何抓住AI大模型的风口?
※领取方式在文末
为什么要学习大模型?——时代浪潮已至
随着AI技术飞速发展,大模型的应用已从理论走向大规模落地,渗透到社会经济的方方面面。
- 技术能力上:其强大的数据处理与模式识别能力,正在重塑自然语言处理、计算机视觉等领域。
- 行业应用上:开源人工智能大模型已走出实验室,广泛落地于医疗、金融、制造等众多行业。尤其在金融、企业服务、制造和法律领域,应用占比已超过30%,正在创造实实在在的价值。

未来大模型行业竞争格局以及市场规模分析预测:
同时,AI大模型技术的爆发,直接催生了产业链上一批高薪新职业,相关岗位需求井喷:
AI浪潮已至,对技术人而言,学习大模型不再是选择,而是避免被淘汰的必然。这关乎你的未来,刻不容缓!
那么,我们如何学习AI大模型呢?
在一线互联网企业工作十余年里,我指导过不少同行后辈,经常会收到一些问题,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题,也不是三言两语啊就能讲明白的。
所以呢,这份精心整理的AI大模型学习资料,我整理好了,免费分享!只希望它能用在正道上,帮助真正想提升自己的朋友。让我们一起用技术做点酷事!
ps:微信扫描即可获取
加上后我将逐一发送资料
与志同道合者共勉
真诚无偿分享!!!

适学人群
我们的课程体系专为以下三类人群精心设计:
-
AI领域起航的应届毕业生:提供系统化的学习路径与丰富的实战项目,助你从零开始,牢牢掌握大模型核心技术,为职业生涯奠定坚实基础。
-
跨界转型的零基础人群:聚焦于AI应用场景,通过低代码工具让你轻松实现“AI+行业”的融合创新,无需深奥的编程基础也能拥抱AI时代。
-
寻求突破瓶颈的传统开发者(如Java/前端等):将带你深入Transformer架构与LangChain框架,助你成功转型为备受市场青睐的AI全栈工程师,实现职业价值的跃升。

※大模型全套学习资料展示
通过与MoPaaS魔泊云的强强联合,我们的课程实现了质的飞跃。我们持续优化课程架构,并新增了多项贴合产业需求的前沿技术实践,确保你能获得更系统、更实战、更落地的大模型工程化能力,从容应对真实业务挑战。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
01 大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。希望这份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

👇微信扫描下方二维码即可~

本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!
02 大模型学习书籍&文档
新手必备的权威大模型学习PDF书单来了!全是一系列由领域内的顶尖专家撰写的大模型技术的书籍和学习文档(电子版),从基础理论到实战应用,硬核到不行!
※(真免费,真有用,错过这次拍大腿!)

03 AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

04 大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

05 大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。


06 全套AI大模型应用开发视频教程
(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)

由于篇幅有限
只展示部分资料
并且还在持续更新中…
ps:微信扫描即可获取
加上后我将逐一发送资料
与志同道合者共勉
真诚无偿分享!!!
最后,祝大家学习顺利,抓住机遇,共创美好未来!
更多推荐



所有评论(0)