语言模型与智能体


1.1 大语言模型 (LLM)

大语言模型(Large Language Models, LLMs),如OpenAI的GPT系列和Anthropic的Claude系列,是现代AI智能体的认知核心与“大脑” 。这些模型基于Transformer架构,通过在海量文本和代码数据集上进行预训练,获得了强大的自然语言理解、生成、推理和代码能力 。在智能体系统中,LLM扮演着中央处理器的角色:它负责解析用户输入(感知),将复杂目标分解为可执行的步骤(规划),并生成相应的行动指令或工具调用请求(行动)。

1.2 小语言模型 (SLM)

与LLM并行发展的,是小语言模型(Small Language Models, SLMs),如Mistral 7B和Phi-3 。SLM的参数量通常在数十亿级别,远小于LLM的数千亿甚至万亿级别,它们通常针对特定领域或任务进行优化。

LLM与SLM在智能体应用中的选择,体现了通用性与专业化之间的权衡。LLM提供广泛的通用能力,但代价是高昂的计算资源和延迟;而SLM则在特定任务上表现出更高的效率、更低的成本和更快的响应速度,甚至可以在边缘设备上运行 。

在智能体开发领域,一个显著的趋势正在形成:并非所有任务都需要一个庞大的通用模型。对于大量重复、范围明确的子任务(例如,解析JSON、分类用户意图),使用SLM不仅成本更低,而且其行为更具可预测性,因此往往是更优选择 。这种趋势推动了智能体架构的演进,从依赖单一、巨大的LLM,转向一种更为高效的“混合模型”或“模型路由”架构。在这种架构中,一个能力更强的模型(通常是LLM)扮演“主管”或“路由器”的角色,负责分析复杂任务并将其分解,然后将不同的子任务分派给最合适的模型去执行——可能是用于特定任务的SLM,用于逻辑推导的推理模型,或是用于开放式创意生成的另一个LLM。因此,未来智能体开发的核心挑战之一,将是如何构建这种异构、多模型的系统,并实现智能化的模型路由与协同工作 。

表1:面向智能体系统的大语言模型 (LLM) 与小语言模型 (SLM) 对比

特性 小语言模型 (SLM) 大语言模型 (LLM)
参数数量 数百万至数百亿 数千亿至数万亿
训练数据 较小、更具领域针对性的数据集 巨大、多样化的通用数据集
计算要求 较低(可在本地或消费级硬件上运行推理) 极高(需要大规模云端GPU集群)
定制化 可通过专有数据进行高效微调,用于特定任务 可为复杂任务进行微调,但成本高昂
成本 训练和运营成本较低 训练和运营成本极高
领域专长 可为专业化任务进行深度微调,专长突出 具备广泛的通用知识和能力
理想应用场景 任务明确、重复性高的子任务、边缘计算、需要低延迟和高效率的场景 开放域对话、复杂推理、需要广泛世界知识的通用任务规划
1.3 定义“智能体”

一个AI智能体(Intelligent Agent)是一个能够感知其环境、基于感知进行思考和规划,并自主采取行动以达成特定目标的软件系统 。

智能体与更简单的聊天机器人 (ChatBot)AI助手 (AI Assistant)之间存在本质区别。其核心差异在于自主性(Autonomy)和主动性(Proactivity)。

  • 聊天机器人:通常遵循预定义的规则或脚本,进行被动响应。
  • AI助手:能够响应用户提示,提供信息或完成简单任务,但决策权仍在用户手中。
  • 智能体:拥有最高程度的自主性,能够独立决策和操作以实现一个设定的目标,其交互模式是主动的、目标导向的 。

示例:一个聊天机器人可以回答“巴黎的首都是什么?”。一个AI助手在被要求时,可能会建议几个飞往巴黎的航班。而一个智能体在接收到“预订下周去巴黎性价比最高的行程”这个目标后,会自主地搜索航班、比较酒店价格、检查用户日程、完成预订,并可能只在关键决策点(如最终支付)或信息不足时才寻求人类确认。

1.4 推理模型与非推理模型

在作为智能体“大脑”的语言模型中,存在一种重要的功能划分。

  • 推理模型 (Reasoning Model):这是一类专门设计的模型,其核心特点是在生成最终答案之前,会显式地将复杂问题分解为一系列更小、可管理的逻辑步骤,并展示其“思考”过程 。这种分步推理的方式使其输出更具可解释性、可靠性,并且更容易调试。OpenAI的o1系列模型就是推理模型的代表。

  • 非推理模型 (Non-Reasoning Model):这是指通用的LLM,它们通过极其复杂的模式匹配和下一个词元(token)预测来直接生成答案 。虽然它们可以通过“思维链”(Chain-of-Thought)等提示技巧来

    模仿推理过程,但这并非其固有的、内置的逻辑演绎机制 。它们的“推理”本质上是其庞大训练数据中统计规律的体现。

在智能体中的应用:对于需要高度逻辑保真度和过程透明度的任务,如科学分析、法律案例推理或复杂的故障排查,推理模型是理想选择。而对于需要创造力、流畅对话和一般性文本生成的任务,非推理模型则更具优势 。


第二部分:智能体


一个功能完备的智能体由多个相互关联的核心组件构成,这些组件共同协作,使其能够自主地执行任务。

2.1 智能体循环

智能体的运作遵循一个持续的循环,这个循环的不同阶段虽然在不同文献中称谓略有差异,但其核心功能是一致的:

  • 感知 (Perception):这是智能体与世界交互的起点。它通过各种输入源(如用户通过自然语言提出的查询、API返回的结构化数据、传感器读数或系统日志)来收集和解读关于其环境的信息 。
  • 规划 (Planning) / 认知 (Cognition):这是智能体的“思考”阶段。在接收到感知信息后,智能体利用其核心的LLM来处理这些信息,将宏观的目标分解为一系列具体的、可执行的子任务,并制定一个行动计划 。
  • 行动 (Action) / 工具调用 (Tool Calling):这是计划的执行阶段。智能体通过调用外部工具、API或执行代码来与数字或物理世界进行交互,从而实现其计划中的步骤 。
  • 学习 (Learning) / 适应 (Adaptation):这是一个高级阶段,智能体通过分析其行动的结果和外部反馈,来调整其内部模型或未来行为,从而持续改进其性能。

2.2 记忆

记忆机制是区分智能体与无状态工具的核心,它赋予智能体在交互中保持上下文、并从历史经验中学习的能力 。

  • 短期记忆 (Short-Term Memory):这相当于智能体的“工作记忆”,类似于计算机的RAM。它负责在单次对话或任务执行期间保存上下文信息,例如用户的聊天历史。短期记忆的容量通常受到LLM的上下文窗口 (Context Window) 大小的限制 。
    • 示例:智能体记住用户上一轮提问“我想去意大利旅游”,才能正确理解下一轮的追问“那里的食物怎么样?”。
  • 长期记忆 (Long-Term Memory):这相当于智能体的“硬盘”,用于持久化存储跨越多次对话或任务的信息。它使得智能体能够实现个性化服务和长期学习 。
    • 示例:一个电商客服智能体记住某位用户过去几个月的购买记录和偏好,以便在未来的互动中提供更精准的商品推荐。
    • 实现方式:长期记忆通常通过向量数据库 (Vector Database) 来实现。智能体将过去的交互或知识片段转化为向量嵌入(Embedding),存储在数据库中。当需要时,它可以通过语义相似度搜索来检索相关的记忆 。
  • 记忆的认知类型:从认知科学的角度,智能体的记忆也可以分为:
    • 情景记忆 (Episodic Memory):关于特定过去事件的记忆,如“上次用户问了什么”。
    • 语义记忆 (Semantic Memory):关于世界事实的记忆,如“巴黎是法国的首都”。
    • 程序记忆 (Procedural Memory):关于如何做某事的记忆,如“调用天气API的步骤” 。

2.3 工具与函数调用

如果说LLM是智能体的“大脑”,那么工具就是它的“手和眼”,使其能够与外部世界进行物理或数字层面的交互。

  • 工具 (Tool):指智能体可以调用的任何外部函数、服务或API,用以执行LLM自身不具备的能力,例如进行网络搜索、查询数据库、发送邮件或控制物联网设备。
  • 函数调用 (Function Calling):这是LLM表达使用工具意图的核心机制。模型本身不直接执行代码,而是生成一个结构化的数据对象(通常是JSON格式),其中明确指定了需要调用的函数名称及其参数 。应用程序的后端代码接收到这个JSON对象后,负责实际执行相应的函数,并将结果返回给LLM。
  • OpenAI调用格式 (OpenAI Calling Format):OpenAI为其模型定义的函数调用格式已成为事实上的行业标准。开发者在API请求的tools参数中,通过一个JSON Schema来定义每个可用工具的name(名称)、description(功能描述)和parameters(参数列表)。当模型决定使用工具时,API的返回中会包含一个tool_calls对象,其中包含了具体的调用指令 。
  • JSON模式 (JSON Mode) / 结构化输出:这是确保函数调用可靠性的关键特性。通过启用JSON模式,可以强制LLM的输出严格遵守一个给定的JSON Schema,确保其生成的函数调用参数格式正确、类型安全,能够被程序代码无误地解析和执行 。这极大地提高了智能体与外部工具交互的稳定性和可靠性。

从系统架构的角度看,函数调用机制构成了智能体的“神经系统”。LLM作为“大脑”,决定需要采取何种行动;工具是“肢体”和“感官”;而标准化的函数调用格式(如JSON)则是连接大脑与肢体的“神经信号”。一个格式错误的JSON就像一个紊乱的神经脉冲,会导致行动失败。因此,结构化输出的保证能力,是构建健壮、可信赖的智能体系统的基石。

第三部分:提示词与上下文工程


如何有效地与LLM沟通,引导其产生期望的行为,是智能体开发中的核心挑战。这一领域已从简单的指令编写,演进为系统的工程化方法。

3.1 提示词工程

提示词 (Prompt) 是用户与LLM交互的输入文本。提示词工程 (Prompt Engineering) 是一门研究如何设计和优化提示词,以高效利用语言模型完成各种任务的学科 。它不仅关乎措辞,更是一套理解和驾驭LLM能力与局限性的技能 。

  • 核心技术

    • 明确指令 (Clear Instructions):使用清晰的动词(如“总结”、“列出”、“比较”),定义角色(如“你是一个专业的法律顾问”),并明确指定输出的格式、长度和受众 。

    • 提供上下文 (Providing Context):在提示词中包含相关的背景信息、事实或数据,为模型的回答提供依据,减少凭空捏造(幻觉) 。

    • 少样本学习 (Few-Shot Learning):在提示词中提供一或多个输入-输出的示例(exemplars),向模型“演示”期望的行为模式。这能极大地提升模型在特定任务上的表现 。与之相对的是

      零样本学习 (Zero-Shot Learning),即不提供任何示例,直接提出请求 。

    • 高级技巧:包括思维链 (Chain-of-Thought, CoT)思维树 (Tree-of-Thought, ToT) 等,通过引导模型生成中间推理步骤来提升其在复杂问题上的逻辑能力 。

3.2 上下文工程

上下文 (Context) 是在推理时提供给LLM的全部信息,而不仅仅是用户的单次查询。上下文工程 (Context Engineering) 是提示词工程的自然演进,它是一门系统性地设计、构建和管理这个完整信息载荷的工程学科 。

  • 与提示词工程的区别:提示词工程关注的是如何写好用户的即时输入(query),而上下文工程则关注如何架构整个输入环境(context对象)。可以理解为,提示词工程是“问什么”,而上下文工程是“在什么样的信息背景下问” 。
  • 上下文的构成要素:一个精心设计的上下文通常由多个结构化部分动态组装而成
    • 指令/系统提示 (Instructions):定义智能体的身份、行事准则和总体目标。
    • 知识 (Knowledge):通过RAG等技术从外部知识库中检索到的相关信息。
    • 工具 (Tools):智能体可用的函数或API的定义。
    • 记忆 (Memory):当前的对话历史和从长期记忆中提取的相关事实。
    • 查询 (Query):用户的当前请求。

这种从“编写提示词”到“组装上下文”的转变,标志着开发者与LLM的交互方式正从一种艺术(art)走向一种工程(science)。智能体的核心逻辑,越来越多地体现在那些动态构建上下文的代码中,而不仅仅是LLM本身的权重。可以说,在现代智能体开发中,上下文即代码 (Context is the new code)

3.3 管理上下文窗口

LLM能够处理的输入信息量是有限的,这个限制被称为上下文窗口 (Context Window),通常以词元 (token) 数量来衡量 。当输入内容超出此限制时,会引发错误。即便在限制内,过长的上下文也可能导致模型性能下降,出现“大海捞针”或“中间遗忘”的问题 。

  • 上下文压缩 (Context Compression):为了应对这一挑战,上下文压缩技术应运而生。其核心思想是在保留最关键信息的前提下,减小上下文的体积,从而降低成本、减少延迟,并提高信噪比 。
  • 主要技术
    • 摘要化 (Summarization):利用LLM对长篇对话历史或文档进行总结,生成简短的摘要作为记忆 。
    • 过滤与提取 (Filtering/Extraction):在RAG流程中,不是返回整个检索到的文档,而是再用一个LLM根据查询,从文档中仅提取出最相关的片段 。
    • 先进压缩方法:学术界也在探索更高效的压缩技术,如循环上下文压缩 (Recurrent Context Compression, RCC)IC-Former,它们通过小型模型或新颖的架构将长上下文压缩成更短的、信息密集的软提示 (soft prompts) 。

第四部分:智能体推理与行动的范式


智能体如何“思考”并决定“做什么”是其核心能力的体现。业界已经发展出几种主流的推理与行动框架。

4.1 ReAct

ReAct (Reason + Act) 框架的核心思想是让LLM以一种交错的方式,同时生成推理轨迹 (thoughts)具体行动 (actions)

  • 思维-行动-观察循环 (Thought-Action-Observation Loop):ReAct的运作遵循一个迭代循环:
    1. 思维 (Thought):智能体首先对当前任务进行分析和推理,形成一个内在的思考步骤。(例如:“用户想知道法国的首都是哪里,我需要使用搜索工具。”)
    2. 行动 (Action):基于该思考,智能体决定并生成一个具体的工具调用指令。(例如:search("Capital of France")
    3. 观察 (Observation):智能体执行该行动,并从外部环境(如搜索引擎)获得一个结果或观察。(例如:“搜索结果是‘巴黎’。”)这个观察结果会被添加到智能体的上下文中,成为下一轮“思维”的基础。
  • 优势:这种推理与行动的紧密协同,使得智能体能够根据外部世界的实时反馈来动态调整其计划、处理异常情况,并将其推理过程“锚定”在客观事实上,有效缓解了纯思维链推理中常见的幻觉问题 。

4.2 ReWoo

尽管ReAct功能强大,但其在每个循环中都需要调用LLM,且需将完整的历史记录传入,导致了较高的token消耗和延迟 。

ReWoo (Reasoning WithOut Observation) 框架通过将规划过程与工具执行的观察过程解耦,提出了一种更高效的模块化范式 。

  • 规划器-执行者-解决器架构 (Planner-Worker-Solver Architecture)
    1. 规划器 (Planner) :在流程开始时,由一个LLM一次性生成完整的、多步骤的行动计划。这个计划包含了所有需要的工具调用及其参数。对于那些依赖于前序步骤结果的参数,规划器会使用占位符(如#E1, #E2)来表示 。
    2. 执行者 (Worker):该模块负责按照计划,依次执行所有工具调用。它会将前一步骤的实际产出结果,替换掉后续步骤参数中的占位符。这个阶段不需要LLM的参与 。
    3. 解决器 (Solver) :在所有工具执行完毕、所有证据都收集齐全后,最后一次调用LLM,将原始任务、完整计划以及所有执行者的产出结果一并提供给它,由其综合所有信息,生成最终的答案 。
  • 优势:通过大幅减少LLM的调用次数,ReWoo显著降低了token成本和执行延迟,同时其模块化的结构也使得系统更易于调试和优化 。

表2:智能体推理框架对比 (ReAct vs. ReWoo)

特性 ReAct (Reason + Act) ReWOO (Reasoning WithOut Observation)
核心原则 推理与行动交错进行,动态调整 规划与执行分离,一次性规划
工作流结构 迭代的“思维-行动-观察”循环 线性的“规划-执行-解决”三段式
LLM调用次数 多次,每个循环至少一次 通常为两次(规划器和解决器)
Token效率 较低,历史记录不断累加 较高,避免了冗余上下文的重复传递
延迟 较高,受多次LLM调用影响 较低,LLM调用次数少
适应性 强,能根据实时观察动态调整计划 较弱,计划一旦制定便不再更改
最佳适用场景 动态、不可预测的环境,需要实时反馈和调整的任务 步骤相对明确、可预先规划的多步任务,对效率和成本敏感的场景
4.3 DeepResearch 与 人在环路 (HITL)
  • DeepResearch:这是一种专门用于执行全面、深度研究任务的智能体模式。它通常采用多智能体架构(主管-下属模式),将一个复杂的研究课题分解为多个子主题,分配给不同的子智能体并行研究,最后由主管智能体汇总、综合所有信息,撰写一份详尽的报告 。DeepResearch是ReAct式循环在复杂研究场景下的一个高级应用。
  • 人在环路 (Human in the loop, HITL):这是一种将人类的智慧和监督融入智能体工作流的协作模式 。HITL对于确保智能体在关键任务中的可靠性和安全性至关重要,主要体现在以下方面:
    • 验证 (Validation):在智能体执行高风险操作(如金融交易、发送重要邮件)前,由人类进行最终确认 。
    • 伦理监督 (Ethical Oversight):确保智能体的行为符合人类的价值观、法律法规和伦理准则 。
    • 主观反馈 (Subjective Feedback):在处理没有唯一正确答案的模糊或创造性任务时,由人类提供方向性指导 。
    • 示例:一个智能体草拟了一封客户邮件,但在发送前,系统会暂停并等待人工审核批准。这是智能体工作流中常见的安全保障机制 。

第五部分:RAG


为了让智能体能够利用其训练数据之外的、最新的、专有的知识,检索增强生成 (Retrieval-Augmented Generation, RAG) 技术应运而生。

5.1 RAG架构

RAG是一个AI框架,它通过从外部知识库中检索相关信息,来增强和“锚定”LLM的生成过程,从而使其能够提供更准确、更新、可验证的答案 。

  • 解决的核心问题:RAG旨在克服标准LLM的两大固有缺陷:知识陈旧(其知识截止于训练数据的时间点)和内容幻觉(倾向于编造看似合理但不正确的信息) 。RAG相当于为LLM提供了一场“开卷考试”,允许它在回答问题前先查阅相关资料 。
  • 高级工作流
    1. 检索 (Retrieval):当接收到用户查询时,系统首先使用一个检索器在外部知识库(如一组文档、一个网站或一个数据库)中搜索,找出与查询最相关的信息片段。
    2. 增强 (Augmentation):将检索到的这些信息片段与原始的用户查询相结合,构建成一个内容更丰富的“增强提示词”。
    3. 生成 (Generation):最后,将这个增强提示词输入给LLM,由LLM基于所提供的上下文信息来生成最终的、有事实依据的回答 。

5.2 文档切片与分块策略

文档切片 (Document Splitting) 或分块 (Chunking) 是RAG流程的第一步。由于原始文档(如PDF、Word文档)通常太大,无法直接放入LLM的上下文窗口,因此必须将它们切割成更小的、语义完整的文本块 。

  • 分块策略:选择合适的分块策略对后续的检索效果至关重要。
    • 固定大小分块 (Fixed-Size Chunking):最简单的方法,按固定的字符数或token数进行切割,通常会设置重叠(overlap)区域以保持块之间的上下文连续性。缺点是容易切断完整的句子或段落,破坏语义完整性 。
    • 递归分块 (Recursive Chunking):一种更智能的方法,它会尝试使用一个预定义的、有优先级的字符列表(如段落分隔符\n\n、句子分隔符.等)来进行分割,尽可能地在自然的语义边界上切分文本。
    • 语义/内容感知分块 (Semantic/Content-Aware Chunking):更高级的策略,旨在根据文本的语义内容进行分块。例如,按句子或段落进行分割,或者使用一个LLM来识别文本中独立的“命题”或观点,并将每个命题作为一个独立的块 。这种方法能最大程度地保留每个块的语义内聚性。

表3:RAG文档分块策略概览

策略 描述 优点 缺点 最佳适用场景
固定大小分块 按固定字符或token数量切割文本,可带重叠。 实现简单,计算开销小,块大小统一。 容易破坏句子和段落的语义完整性。 结构简单、格式统一的文本文档,如日志文件。
递归分块 使用一个层次化的分隔符列表进行递归分割。 比固定大小分块更能尊重文本的结构。 需要为特定类型的文档(如代码)配置合适的分隔符。 结构化或半结构化的文档,如技术手册、代码库。
语义分块 按句子、段落等自然语义单元进行分割。 保持了每个块的语义连贯性和完整性。 实现相对复杂,块大小不一。 叙事性强、逻辑结构清晰的文档,如文章、报告。
命题分块 使用LLM将文本分解为独立的、自包含的原子事实或观点。 块的语义密度极高,非常适合精确的事实检索。 计算成本高,依赖于LLM的性能。 需要进行精细化事实问答的知识库。
5.3 向量化、Embedding与向量数据库
  • Embedding / 向量化 (Vectorization):Embedding是一种将文本、图片等非结构化数据转换为高维空间中数值向量的技术 。这个过程被称为

    向量化。其核心特性是,在向量空间中,语义上相似的内容其对应的向量在空间位置上也更接近 。例如,“国王”的向量会离“女王”很近,而离“苹果”很远。

  • 向量数据库 (Vector Database):是一种专门用于存储和高效查询这些高维向量的数据库。它使用近似最近邻(ANN)等算法,能够根据输入查询的向量,快速地在数百万甚至数十亿的向量中,找到与之最相似的向量集合 。

  • RAG中的流程

    1. 将经过分块的每个文档块,通过一个Embedding模型(如BERT或OpenAI的text-embedding系列)转换成一个向量。
    2. 将这些向量及其对应的原文块存储(即索引)到向量数据库中。
    3. 当用户提问时,使用同一个Embedding模型将用户的问题也转换成一个查询向量。
    4. 在向量数据库中执行相似度搜索,找出与查询向量最接近的文档向量,并返回它们对应的原文块 。


5.4 知识召回

知识召回 (Knowledge Recall) 是指检索系统从知识库中找出所有相关信息的能力。在RAG中,它衡量的是“是否把所有该找的都找到了”。其计算公式为:Recall=∣TP∣+∣FN∣∣TP∣,其中TP(True Positive)是检索到的相关文档,FN(False Negative)是未被检索到的相关文档 。高召回率对于避免遗漏关键信息至关重要。

知识精度 (Knowledge Precision) 是指检索系统返回的信息中有多少是真正相关的。它衡量的是“找回来的信息中有多少是正确的”。其计算公式为:Precision=∣TP∣+∣FP∣∣TP∣,其中FP(False Positive)是检索到的不相关文档 。高精确率有助于减少噪声,防止LLM被无关信息干扰。

  • 权衡:在RAG系统中,精确率和召回率之间存在天然的此消彼长的关系。例如,增加检索返回的文档数量(提高top-k值)通常能提高召回率(因为更有可能包含所有相关信息),但同时也可能引入更多不相关的文档,从而降低精确率。因此,优化RAG系统的核心任务之一,就是根据具体的应用场景,在这两者之间找到最佳的平衡点 。

第六部分:高级检索与推理架构


为了克服基础RAG的局限性,并处理更复杂的查询,一系列高级技术被开发出来,旨在提升检索的准确性和推理的深度。

6.1 问题改写与多路召回
  • 问题改写 (Query Rewriting) / 转换 (Transformation):指在将用户的原始查询发送给检索器之前,先对其进行改写或转换的过程。这是因为用户的自然语言提问往往存在模糊性、上下文依赖(如对话中的“它”或“那里”)或与文档库中的表述不匹配等问题 。
    • 技术手段:通常使用一个LLM来执行改写任务,例如:将口语化的提问变得更正式;在多轮对话中,将指代词替换为具体的实体(例如,将“那里的天气怎么样?”改写为“意大利罗马的天气怎么样?”);或者将一个复杂问题分解为多个更简单的子问题进行分别检索 。
  • 多路召回 (Multi-Path Recall) / 多步RAG (Multi-Step RAG):这是一种迭代式的检索策略。系统在进行初步检索后,会分析返回的结果,并基于这些初步信息来生成新的、更精确的查询,然后进行第二轮甚至更多轮的检索 。这种方法对于需要综合多个信息点才能回答的“多跳问题”(multi-hop questions)尤其有效。

6.2 ReRank

ReRank(重排序) 是在RAG流程中引入的一个可选但非常重要的第二阶段。其作用是对第一阶段检索器(如向量搜索)返回的候选文档列表进行重新排序,将最相关的文档排在最前面 。

  • 工作原理:第一阶段的检索器(通常是双编码器模型)独立地计算查询和文档的向量,然后比较它们的相似度,这种方式速度快但精度有限。而ReRank模型(通常是交叉编码器模型)则会将查询和每一个候选文档成对地输入模型中,进行更深层次的交互和语义相关性判断,从而给出更精准的相关性分数 。
  • 在RAG中的价值:通过“粗召回,精排序”的两阶段策略,ReRank能够在保证召回率的同时,极大地提升最终送入LLM的文档的精确率,从而显著改善生成答案的质量,尽管这会带来一定的延迟开销 。
6.3 GraphRAG

GraphRAG 是一种前沿的RAG技术,它利用知识图谱 (Knowledge Graph) 来组织和表示源数据中的实体及其相互关系 。

  • 工作原理:系统首先通过LLM从非结构化的文档中提取出关键实体(作为图的节点, Nodes)和它们之间的关系(作为图的边, Edges),构建一个知识图谱 。当用户提问时,系统不再是检索孤立的文本块,而是在图谱上进行遍历,检索出与问题相关的、由多个实体和关系构成的

    子图

  • 优势:相比于传统RAG返回的零散文本片段,GraphRAG提供的结构化子图包含了更丰富的上下文和深层逻辑关系。这使得LLM能够回答那些需要理解“谁和谁是什么关系”或“事件A如何导致事件B”等复杂关联性问题的能力大大增强 。

6.4 AgenticRAG

AgenticRAG智能体检索 (Agentic Retrieval) 是将智能体的自主决策能力应用于RAG流程本身 。

  • 核心思想:与其遵循一个固定的、预设的检索流程,不如将“如何最好地为当前问题检索信息”这个任务本身交给一个专门的“检索智能体”来完成。
  • 工作方式:这个检索智能体可以根据问题的复杂度和初步检索的结果,动态地决定下一步该做什么:是应该改写查询?还是应该分解问题?是使用向量搜索,还是切换到关键词搜索或图谱检索?这个过程体现了交错式的检索与推理 (interleaved retrieval and reasoning)

这一系列从基础RAG到高级技术的演进,揭示了一个清晰的趋势:RAG管道本身正在从一个静态的、线性的数据处理流程,演变为一个动态的、智能的、由智能体驱动的系统。最先进的架构将不再只有一个“问答智能体”,而是由一个“检索智能体”和一个“生成智能体”协同工作,前者负责用尽各种手段搜集最优质的信息,后者则负责基于这些信息给出最完美的答案。

第七部分:工作流与多智能体系统


当单个智能体的能力不足以解决复杂问题时,就需要将多个智能体组织起来,通过精心设计的工作流和通信协议,形成一个强大的协作系统。

7.1 智能体工作流

智能体工作流 (Agentic Workflow) 是指由一个或多个自主AI智能体决策、执行和协调任务的AI驱动流程 。

  • 演进:早期的工作流(如LangChain中的Chains)通常是线性的,即一系列固定的步骤。而现代的智能体工作流则是动态的,它们可以根据任务的实时进展和中间结果,进行条件分支、循环、甚至自我修正,形成一个复杂的、非线性的执行路径 。
  • 工作流编排 (Orchestration):指的是设计、实施、监控和优化这些复杂的、长周期的智能体流程的一整套技术和能力。它需要管理AI智能体、传统自动化(RPA)机器人以及人类参与者之间的协同工作 。

7.2 多智能体架构

多智能体系统 (Multi-Agent System, MAS) 由多个自主的智能体组成,它们通过相互协作来解决单个智能体无法完成的复杂任务 。这种架构允许

专业化分工,即每个智能体可以拥有特定的角色和技能,例如“研究员”、“程序员”、“测试员”和“项目经理” 。

  • 协作模式
    • 中心化/层级式 (Centralized/Hierarchical):由一个“主管”或“编排器”智能体负责任务分解,并将子任务分配给下属的“工作”智能体。这是目前最常见的模式,例如在DeepResearch框架中 。
    • 去中心化 (Decentralized):智能体之间以点对点的方式直接通信和协商,共同决定行动方案。这种模式更具鲁棒性和扩展性,但需要更复杂的协调协议 。
  • 通信机制:智能体之间的信息交换主要通过两种方式:共享内存(如共同读写一个中央状态对象)或消息传递(直接发送包含信息的结构化消息) 。

7.3 模型上下文协议 (MCP)

随着智能体和可用工具数量的爆炸式增长,出现了一个严重的“M x N”集成难题:M个智能体需要为N个工具编写N个定制化的集成方案 。

模型上下文协议 (Model Context Protocol, MCP) 是为解决此问题而提出的一种开放、标准化的通信协议。它定义了AI应用(客户端)如何发现、理解并与外部工具和数据源(服务器)进行交互 。MCP的目标是成为AI智能体领域的“USB-C”接口,实现工具的即插即用 。

  • 核心组件与角色
    • MCP客户端 (MCP Client):需要使用工具的AI应用或智能体,例如Claude桌面端、Cursor代码编辑器,或一个自定义的智能体应用 。
    • MCP服务器 (MCP Server):将自身能力通过MCP标准协议暴露出来的工具或数据源,例如一个Slack MCP服务器可以提供收发消息的功能,一个GitHub MCP服务器可以提供读写代码仓库的功能 。
    • MCP工具 (MCP Tool):由MCP服务器提供的、可供智能体调用的具体功能 。
    • MCP市场 (MCP Market):一个新兴的概念,指一个集中的注册中心或市场,开发者可以在这里发布、发现和使用公开的MCP服务器,从而形成一个繁荣、可互操作的AI工具生态系统 。

第八部分:框架、平台与产品


智能体开发生态系统正在迅速成熟,涌现出大量框架、平台和工具,以满足不同层次的开发需求。

8.1 基础开发框架:LangChain, LangGraph, 与 Spring AI
  • LangChain:一个功能全面、模块化的开源框架,用于构建由LLM驱动的应用程序。其核心优势在于提供了标准化的组件抽象(如Chains, Agents, Retrievers)和对数百个第三方服务的广泛集成,非常适合快速构建原型和线性的工作流 。
  • LangGraph:作为LangChain的扩展,LangGraph专为构建有状态的、多智能体的复杂应用而设计。它将工作流表示为图 (Graph)(由节点和边构成),从而能够轻松实现循环、条件分支和更复杂的控制流。LangGraph是构建生产级、可循环、可修正的智能体的首选工具 。
  • Spring AI:这是一个面向Java生态系统的AI工程框架,它将Spring框架的设计哲学(如模块化、可移植性)应用于AI开发。它为各类AI模型和向量数据库提供了统一的抽象接口,使Java开发者可以方便地构建企业级AI应用 。
  • spring-ai-alibaba:这是Spring AI的一个特定变体,深度集成了阿里云的AI生态系统。它提供了独特的Graph多智能体框架(可视为LangGraph的Java实现)、与阿里云百炼平台的RAG和ChatBI服务的无缝对接,以及通过Nacos实现的企业级MCP解决方案 。

8.2 低代码/无代码开发平台

这些平台旨在降低AI应用开发的门槛,使非专业开发者也能快速构建和部署智能体。

  • dify:一个功能全面的LLM应用开发平台,提供可视化的工作流构建器、强大的RAG引擎和智能体创建功能,支持从原型到生产的全过程 。
  • coze:由字节跳动推出的无代码/低代码AI聊天机器人和应用开发平台。它以其直观的拖拽式界面和强大的工作流设计能力而闻名,并于近期开源了其核心组件Coze Studio(可视化开发平台)和Coze Loop(智能体全生命周期管理) 。
  • n8n:一个强大的工作流自动化平台,特别擅长于通过其可视化的节点编辑器,将AI智能体、自定义代码和“人在环路”审批节点整合到复杂的业务流程中 。
  • ragflow:一个专注于“深度文档理解”的开源RAG引擎。它提供了一个用户友好的界面,用于创建知识库、优化分块和解析,并在此基础上构建RAG聊天机器人和智能体 。

8.3 专业化智能体平台

这些平台通常提供更高级、更具针对性的智能体解决方案,面向企业级应用。

  • Manus:一个雄心勃勃的通用AI智能体平台,旨在以最少的人工干预,自主完成现实世界中的复杂任务。其特点是采用多智能体协作架构,并提供一个透明的“智能体计算机”界面,让用户可以实时观察其工作过程 。

8.4 领先的AI模型及其生态系统
  • Claude:由Anthropic公司开发的系列模型,以其巨大的上下文窗口(高达200K tokens)、卓越的性能和以“宪法AI (Constitutional AI)”为指导的安全优先理念而著称。其生态系统不断扩展,已支持工具使用、外部应用集成和高级研究功能 。
  • Gemini:谷歌推出的原生多模态模型系列(包括Pro、Flash等版本),专为智能体任务设计。它们具备强大的推理能力、工具使用能力和长上下文窗口,并深度集成于谷歌的全线产品和云平台中 。

8.5 AI编程智能体

这些工具将智能体的能力直接嵌入到程序员的日常开发环境中。

  • Cursor:一个“AI优先”的代码编辑器,是VS Code的一个分支。它具备深度代码库理解、智能代码重构和可以端到端完成开发任务的“智能体模式” 。
  • trae:一个AI驱动的集成开发环境(IDE),其核心是一个名为“Builder”的编码智能体,支持多模态输入(如根据UI图片生成代码)和MCP工具集成 。
  • cline:一个开源的自主编码智能体,以VS Code扩展的形式运行。它强调过程透明、模型选择自由,并通过“人在环路”机制确保安全性。其独特的“规划 (Plan)”和“行动 (Act)”两阶段模式,让开发者对AI的行为有完全的控制权 。
  • GeminiCli:谷歌推出的开源命令行工具,将强大的Gemini模型能力直接带入终端,使其成为一个可用于编码、研究和自动化任务的多功能AI智能体 。

表4:主要AI智能体开发框架与平台

类别 工具/平台名称 主要用途 目标用户 关键特性
基础框架 LangChain / LangGraph 构建可定制的LLM应用和复杂智能体 开发者、AI工程师 模块化组件、广泛集成、支持循环和状态的图结构
基础框架 Spring AI 在Java生态中构建企业级AI应用 Java/企业开发者 可移植API、与Spring生态深度集成、Graph框架
低代码平台 dify / coze 快速创建和部署AI聊天机器人和应用 开发者、产品经理、业务人员 可视化工作流、拖拽式界面、内置RAG和智能体功能
低代码平台 n8n / ragflow 自动化业务流程,构建RAG知识库 IT/运维人员、数据分析师 节点式流程编辑器、强大的集成能力、深度文档理解
AI赋能IDE Cursor / cline / trae 将智能体能力深度集成到编码工作流中 软件开发者 代码库感知、自主编码、任务规划、人机协作

第九部分:应用与未来方向


智能体技术正迅速渗透到各个行业,催生出新的应用形态,并向着更通用、更强大的方向发展。

9.1 专业化应用
  • 智能客服 (Intelligent Customer Service):智能体技术正在将传统的ChatBot提升到新的高度。现代客服智能体能够处理复杂的、多轮对话 (Multi-turn Conversation),通过连接CRM系统来获取客户上下文,并自主执行退款、改签等操作,而不仅仅是回答预设问题 。
  • 对话式商业智能 (ChatBI)ChatBI 正在颠覆传统的数据分析模式。它允许非技术背景的业务人员通过自然语言与企业数据库进行交互,提出“上个季度哪个产品的销售额最高?”这样的问题,智能体则会自动将其转化为复杂的SQL查询,并以图表或报告的形式呈现结果,极大地降低了数据驱动决策的门槛 。
  • 自然语言到SQL (N2SQL):这是实现ChatBI等应用的核心技术。N2SQL 系统通常采用多智能体架构,由不同的智能体分别负责理解用户意图、识别数据库模式(schema)、生成SQL代码、验证代码正确性等步骤,最终将用户的自然语言问题准确地翻译成可执行的数据库查询语句 。

9.2 多模态

多模态 (Multimodal) 智能体是智能体发展的下一个重要方向。它们能够统一处理和理解来自多种信息渠道(模态)的数据,如文本、图像、音频和视频 。

  • 架构:一个典型的多模态智能体架构包含一个统一的输入层,然后是针对不同模态的专用处理器(如用于图像的计算机视觉模型,用于语音的自动语音识别模型),最后通过一个融合层 (Fusion Layer) 将从各个模态提取的特征和信息整合起来,形成一个统一、丰富的语义表示 。
  • 影响:多模态能力使得智能体能够获得对周围世界更全面、更接近人类的感知。例如,一个多模态智能体可以看着一张产品图片,听着用户的语音描述,然后生成一段详细的产品介绍文本。这极大地扩展了智能体的应用场景,使其在自动驾驶、医疗诊断、智能家居等领域发挥关键作用 。

9.3 通用智能体

通用智能体 (General-Purpose Agent),或称“超级通用AI智能体”,是智能体研究的终极目标之一。它指的是一种高度自主的系统,能够在几乎没有领域限制的情况下,理解并完成人类能用计算机完成的各种复杂任务 。

  • 当前进展:像Manus这样的平台已经展现出这一愿景的雏形,它们通过多智能体协同、持久化记忆和自我完善机制,能够自主执行从市场研究到软件开发等一系列复杂工作流 。
  • 挑战:实现真正的通用智能体仍然面临巨大挑战,包括如何进行稳健的长期规划、如何获得并运用常识知识,以及如何确保其在高度自主的情况下,其行为始终与人类的价值观和安全要求保持一致。

这些新兴应用的需求,反过来又在强力驱动着智能体底层架构的创新。例如,N2SQL的复杂性催生了精细分工的多智能体架构;ChatBI对图表和报告的理解需求,推动了多模态融合技术的发展;而通用智能体的宏大目标,则对智能体的规划、记忆和学习能力提出了前所未有的要求。应用层与技术层的这种紧密、共生的反馈循环,正在加速整个智能体领域的进化。

结论


趋势
  1. 模型专业化:从盲目追求“越大越好”的单一LLM,转向根据任务需求,智能地选用和组合大型、小型、推理、非推理等多种模型的混合架构。
  2. 指令工程化:从手工艺式的“提示词工程”,演进为系统化的“上下文工程”,将对AI的控制从简单的指令编写,提升到对完整信息环境的架构设计。
  3. 流程解耦化:在智能体执行逻辑上,出现了将复杂的“思考-行动”循环进行解耦的趋势(如ReWoo),通过分离规划与执行,以换取更高的效率和可控性。
  4. 检索智能化:RAG技术自身正在“智能体化”,从固定的数据处理管道,演变为由专门的检索智能体驱动的、能够自主优化查询和检索策略的动态系统。
  5. 生态标准化:随着多智能体系统成为主流,业界正在通过MCP等开放协议,构建一个可互操作的工具和服务生态系统,以解决集成碎片化的问题。
未来架构

展望未来,一个先进的AI智能体系统将不再是单一技术的产物,而是一个高度集成、协同工作的复杂系统。其典型架构可能呈现如下形态:

  • 认知核心:由一个强大的LLM作为“总指挥”,负责顶层规划和决策,但其下协同着一个由多个专业化SLM和推理模型组成的“专家团队”,负责执行具体的子任务。
  • 知识基础:通过一个智能体化的、基于知识图谱(GraphRAG)的先进RAG管道,与外部世界保持实时、可靠的连接,确保其决策基于事实。
  • 记忆系统:拥有分层的记忆机制,结合受上下文窗口限制的短期记忆和基于向量数据库的持久化长期记忆。
  • 交互接口:通过MCP等标准化协议,无缝地调用外部工具,并与其他智能体进行高效协作。
  • 安全保障:在所有关键决策和行动环节,都保留了“人在环路”的监督和干预机制,确保系统的安全可控。

普通人如何抓住AI大模型的风口?

领取方式在文末

为什么要学习大模型?

目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过 30%。
在这里插入图片描述

随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:
在这里插入图片描述

人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!

最后

只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!

在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

【附赠一节免费的直播讲座,技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等,欢迎大家~】
在这里插入图片描述

大模型全套学习资料展示

自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。

图片

希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!

01 教学内容

图片

  • 从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!

  • 大量真实项目案例: 带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

02适学人群

应届毕业生‌: 无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌: 非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能突破瓶颈: 传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

image.png

vx扫描下方二维码即可
【附赠一节免费的直播讲座,技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等,欢迎大家~】
在这里插入图片描述

本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!

03 入门到进阶学习路线图

大模型学习路线图,整体分为5个大的阶段:
图片

04 视频和书籍PDF合集

图片

从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)

图片

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)
图片

05 行业报告+白皮书合集

收集70+报告与白皮书,了解行业最新动态!
图片

06 90+份面试题/经验

AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)图片
在这里插入图片描述

07 deepseek部署包+技巧大全

在这里插入图片描述

由于篇幅有限

只展示部分资料

并且还在持续更新中…

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

【附赠一节免费的直播讲座,技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等,欢迎大家~】
在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐