今年一直在学习并实践AI Agent、Workflow等,最近研读了google发布的智能体设计模式,并在实践过程中对AI Agent的常见术语定义与问题进行了整理,主要结合AI对一些面试中用到的Agent问题进行了梳理,供大家参考。

一、常见问题

1. 什么是提示链(Prompt Chaining)?它如何解决单个复杂提示的局限性?
解析:提示链是一种将复杂问题分解为一系列更小、更易于管理的子问题的一种策略。每个子问题通过一个专门设计的提示来解决,前一个提示的输出会作为后一个提示的输入。这种方法通过循序渐进的工作流提高了可靠性和可控性,解决了单个复杂提示可能导致模型忽略指令、上下文漂移或错误传播的问题。

2. 请解释路由(Routing)模式的核心作用,并列举一种实现路由机制的方法:
解析:路由模式的核心作用是为智能体的工作流引入条件逻辑,使其能够根据用户输入或当前状态等标准,在多个可能的行动或子流程之间动态地选择执行路径。一种实现方法是基于LLM的路由,即通过提示让语言模型分析输入并输出一个类别标识符,系统根据这个标识符来决定下一步的操作。

3. 什么是知识检索(RAG)?它如何增强大语言模型(LLM)的能力?
解析:知识检索(RAG)是一种在生成回应前,让大语言模型访问外部知识库的模式。它首先根据用户查询进行语义搜索,检索出最相关的信息片段,然后将这些信息“增强”或添加到原始提示中,再交给LLM处理。这使得LLM能够提供更准确、最新且有事实依据的答案,克服了其知识仅限于训练数据的局限性。

4. 在多智能体协作(Multi-Agent Collaboration)模式中,“批判者-评审者”(Critic-Reviewer)模型是如何工作的?
解析:在“批判者-评审者”模型中,一组智能体(生产者)负责创建初始输出,如计划、草稿或代码。第二组智能体(批判者)则专门评估这些输出,检查其是否符合策略、安全性、正确性和质量等标准。批判者的反馈随后被用于指导初始创建者或最终智能体进行修订,从而提高最终结果的稳健性和质量。

5. 解释什么是“人在环路”(Human-in-the-Loop, HITL)模式,并说明其在AI系统中的重要性。
解析:人在环路”模式是一种将人类的认知能力(如判断力、创造力和细致理解)与AI的计算能力相结合的策略。它的重要性在于确保AI在道德和安全协议内运行,尤其是在复杂、模糊或高风险领域,人类的监督、战略输入和协作互动对于防止错误和保证系统与人类价值观保持一致是不可或缺的。

6. 智能体记忆管理分为哪两种主要类型?请简要描述它们的功能。
解析:智能体记忆管理分为短期记忆(上下文记忆)和长期记忆(持久性记忆)。短期记忆通常存在于模型的上下文窗口中,保存当前交互的最近信息,但会话结束后会丢失。长期记忆则将信息存储在外部数据库(如向量数据库)中,使智能体能够跨会话保留和检索知识,实现真正的持久性。

7. 自我修正(Self-Correction)模式通常涉及哪两个关键的逻辑角色?它们各自的职责是什么?
解析:自我修正模式的一个高效实现是“生产者-批判者”(Producer-Critic)模型。生产者智能体的主要职责是执行任务并生成初始内容。批判者智能体的唯一目的是评估生产者的输出,它被赋予不同的指令(如“你是一名高级软件工程师”),以根据特定标准发现缺陷并提供结构化反馈,用于指导生产者进行改进。

8.什么是“思维链”(Chain-of-Thought, CoT)提示技术?它如何提升模型的推理能力?
解析:思维链是一种提示技术,它引导模型在给出最终答案之前,先生成一系列中间的推理步骤,模仿人类分解问题的过程。这种方法通过将一个困难问题转化为一系列更简单的步骤,显著提高了模型在算术、常识和符号推理等多步推理任务上的表现,并增强了其推理过程的透明度。

9. 根据源材料,当前阶段的AI智能体存在哪些主要的技术短板或局限性?
解析:根据源材料,现阶段的AI智能体在几个方面存在局限。首先,其推理能力(REASON)是明显的短板。其次,记忆大多局限于通过提示构建的短期记忆,缺乏对话之外的持久知识累积机制。最后,智能体的“大脑”仍以语言模型为主,缺乏对多模态信息的深入理解。

10. 资源感知优化(Resource-Aware Optimization)模式旨在解决什么问题?请举一个实际应用例子。
解析:资源感知优化模式旨在解决在计算、时间和财务资源受限的情况下,平衡AI系统输出质量与运营成本的挑战。一个实际应用例子是智能问答系统,它会评估问题的难度,对简单查询使用成本效益高的模型(如Gemini Flash),而对需要深度分析的复杂查询,则在预算和时间允许的情况下使用更强大但更昂贵的模型(如Gemini Pro)。

二、核心术语

AI Agent核心术语词汇表如下:

术语 (中文) 术语 (英文) 定义
智能体 (Agent) Agent 一种能够感知其环境、自主做出决策并执行动作以实现预定目标的计算实体。它具备规划、使用工具和记忆的能力,是标准大语言模型的演进。
智能体系统 (Agentic Systems) Agentic Systems 由一个或多个能够理解上下文、做出决策并与环境动态交互的智能体组成的复杂系统。
提示链 (Prompt Chaining) Prompt Chaining 一种将复杂任务分解为一系列更小、相互关联的子任务的模式。前一个任务的输出被用作下一个任务的输入,形成一个逻辑工作流。
路由 (Routing) Routing 一种使智能体能够根据特定标准(如用户输入或当前状态)在多个潜在行动或子流程之间动态选择执行路径的机制。
并行化 (Parallelization) Parallelization 一种同时执行多个独立任务(如LLM调用或工具使用)以减少总执行时间的模式,对于提高复杂工作流的效率至关重要。
反思 (Reflection) Reflection 一种智能体评估自身工作、输出或内部状态,并利用该评估来改进性能或优化响应的模式,常通过“生产者-批判者”模型实现。
工具使用 (Tool Use) Tool Use / Function Calling 使智能体能够与外部API、数据库、服务或代码执行环境交互的模式。LLM决定何时以及如何使用特定外部功能来完成任务。
规划 (Planning) Planning 智能体将一个高层级目标自主分解为一系列可执行的中间步骤或子目标的过程。这是智能体从被动响应转向主动实现目标的关键能力。
多智能体协作 (Multi-Agent Collaboration) Multi-Agent Collaboration 一种将系统设计为由多个拥有不同角色和能力的专业智能体组成的合作整体的模式,它们通过通信共同完成复杂目标。
记忆管理 (Memory Management) Memory Management 智能体用来保留和利用过去交互信息的机制,分为用于维持当前对话上下文的短期记忆和用于跨会话存储知识的长期记忆。
学习与适应 (Learning and Adaptation) Learning and Adaptation 智能体根据新经验和数据改变其思维、行为或知识的过程,使其能够自主改进并处理新情况。
人在环路 (Human-in-the-Loop) Human-in-the-Loop (HITL) 一种将人类监督、干预和反馈整合到AI工作流中的模式,以确保在处理复杂、模糊或高风险任务时的准确性、安全性和道德合规性。
知识检索 (RAG) Knowledge Retrieval (RAG) “检索增强生成”的缩写。一种在生成响应前,通过从外部知识库中检索相关信息来增强LLM上下文的模式,以提高答案的准确性和时效性。
智能体间通信 (A2A) Agent2Agent (A2A) 一种开放的、基于HTTP的标准协议,旨在使不同框架(如ADK、LangGraph)构建的AI智能体能够相互通信和协作。
资源感知优化 (Resource-Aware Optimization) Resource-Aware Optimization 智能体根据预算、延迟或计算能力等资源限制,动态选择模型、工具或执行路径的模式,以平衡成本与性能。
推理技术 (Reasoning Techniques) Reasoning Techniques 用于增强智能体解决复杂问题能力的方法,如思维链(CoT)和ReAct框架,它们指导模型进行逻辑推导和与环境的互动。
护栏/安全模式 (Guardrails/Safety Patterns) Guardrails / Safety Patterns 为确保智能体安全、合乎道德地运行而实施的一系列约束和过滤机制,用于防止有害、有偏见或不当的输出。
评估与监控 (Evaluation and Monitoring) Evaluation and Monitoring 对智能体系统的性能、效率、可靠性和合规性进行持续测量的过程,包括分析智能体轨迹和使用LLM作为评审员等方法。
上下文工程 (Context Engineering) Context Engineering 一门系统性地设计、构建和交付完整信息环境给AI模型的学科。它主张模型输出的质量更多地取决于所提供上下文的丰富性,而非模型架构本身。
思维链 (Chain-of-Thought) Chain-of-Thought (CoT) 一种通过提示引导模型在给出最终答案前,先生成一步步中间推理过程的技术,从而提高其在复杂任务上的表现。
ReAct框架 ReAct (Reason and Act) 一种将推理(Reasoning)和行动(Acting)结合在循环中的智能体范式。智能体通过“思考-行动-观察”的迭代过程与外部工具和环境互动,动态调整其计划。
自洽性 (Self-Consistency) Self-Consistency 一种通过生成多个不同的推理路径,然后通过多数投票选择最一致答案来提高CoT可靠性的技术。
自我修正 (Self-Correction) Self-Correction 一种使智能体能够评估和迭代改进自己输出的模式,通常通过一个“批判者”角色提供反馈,然后由“生产者”角色进行修正。
向量数据库 (Vector Database) Vector Database 一种专门用于存储和高效查询高维数据(如文本嵌入)的数据库,是实现RAG中语义搜索的关键基础设施。
嵌入 (Embeddings) Embeddings 将文本等非结构化数据转换为数值向量的表示形式。这些向量能捕捉数据的语义信息,使得计算机可以基于意义进行比较和检索。
语义搜索 (Semantic Search) Semantic Search 一种基于用户查询的意图和上下文含义来检索信息的搜索方法,而不是简单地匹配关键词。这是RAG模式的核心检索机制。
智能体轨迹 (Agent Trajectories) Agent Trajectories 智能体为达成目标而采取的一系列步骤、决策和工具使用的序列。评估轨迹是理解和改进智能体推理过程的关键。
模型上下文协议 (MCP) Model Context Protocol (MCP) 一个开放标准,旨在标准化LLM与外部应用、数据源和工具的通信方式,简化集成过程。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐