前言

AI智能体(AI Agent)、智能体式AI(Agentic AI)、智能体架构(Agentic Architecture)、智能体工作流(Agentic Workflow)。智能体无处不在。但它们到底是什么?它们真的能做任何事吗?
本文整合了向量数据库公司weaviate关于Agentic Workflow以及Agentic RAG两篇文章,对Agentic这个理念进行了全方位的阐述,包括模式(Patterns)、用例(Use Cases)、示例(Examples),以及优缺点的分析,有非常好的指导作用。


AI智能体(AI Agent)、智能体式AI(Agentic AI)、智能体架构(Agentic Architectures)、智能体工作流(Agentic Workflow)。智能体无处不在。但它们到底是什么?它们真的能做任何事吗?

新技术随之带来的,是一堆混杂不清的东西 —— 令人费解的术语、不切实际的期待,还有那些自诩为专家的网络达人。在本文中,我们将拨开围绕AI智能体的噪音和炒作,解释并阐明智能体式AI的一个关键信条:智能体工作流(Agentic Workflow)

智能体,单凭自己,做不了太多事。它们需要被赋予角色、目标和结构来达成目标。这就是工作流的用武之地。

理解智能体工作流,可以让你明白AI智能体如何以及为何如此运作。为了帮助理解,本文将介绍AI智能体的关键组成部分,给你一个智能体工作流的简洁定义,解释是什么让工作流具有“智能体性(Agentic)”,详细阐述智能体工作流中反复出现的关键模式,详述真实世界的示例和用例,并对使用智能体工作流的好处和挑战进行诚实的概述。

什么是AI智能体(AI Agent)?

AI智能体是结合了用于推理和决策的LLM与用于与现实世界交互的工具的系统,使它们能够在有限的人类参与下完成复杂的任务。智能体被分配了特定的角色,并被赋予不同程度的自主权来完成其最终目标。它们还配备了记忆,使它们能够从过去的经验中学习并随时间提高其性能。

为了更好地理解AI智能体如何融入智能体工作流,我们将探讨AI智能体的核心组成部分。

AI智能体的组成部分

尽管AI智能体被设计用于半自主决策,但它们依赖于一个更大的组件框架才能正常运作。这个框架包括使智能体能够有效推理的LLM、帮助智能体完成任务的工具,以及使智能体能够从过去的经验中学习并随时间改善响应的记忆。

AI智能体的组件

推理 (Reasoning)

AI智能体之所以如此有效,部分原因在于它们的迭代推理能力,这实质上允许智能体在整个问题解决过程中主动“思考”。AI智能体的推理能力源于其底层的LLM,并服务于两个主要功能:规划(planning)和反思(reflecting)

规划(planning) 阶段,智能体执行 任务分解(task decomposition),即将一个更复杂的问题分解成更小、可操作的步骤的过程。这项技术使智能体能够系统地处理任务,并允许它们为不同的任务使用不同的工具。它还允许进行 查询分解(query decomposition),即将复杂的查询分解成更简单的查询,从而提高LLM响应的准确性和可靠性。

智能体还通过 反思(reflecting) 其行动的结果来进行推理。这使它们能够评估并根据外部来源获取的结果和数据,迭代地调整其行动计划。

工具 (Tools)

LLM拥有静态的、参数化的知识,这意味着它们的理解仅限于训练期间编码的信息。为了将其能力扩展到原始数据集之外,智能体可以利用外部工具,如网络搜索引擎、API、数据库和计算框架。这意味着智能体可以访问实时的外部数据来指导其决策,并完成需要与其他应用程序交互的任务。

工具通常与权限配对,例如查询API、发送消息或访问特定文档或数据库模式的能力。下表概述了AI智能体的一些常见工具及其执行的任务。

工具 任务
互联网搜索(Internet search) 检索和总结实时信息。
向量搜索(Vector search) 检索和总结外部数据。
代码解释器 迭代运行由智能体生成的代码。
API 检索实时信息并与外部服务和应用程序执行任务。

当LLM选择一个工具来帮助完成任务时,它会进行一种称为函数调用(function calling)的行为,将其能力扩展到简单的文本生成之外,并允许它与现实世界进行交互。

选择使用哪个工具可以由最终用户预先确定,也可以留给智能体决定。让智能体动态选择工具对于解决更复杂的任务可能很有帮助,但对于更简单的工作流,当预定义工具更有效时,这可能会增加不必要的复杂性。

记忆 (Memory)

从过去的经验中学习并记住行动发生的上下文,是智能体工作流与纯LLM驱动的工作流区别开来的部分原因。记忆是一个关键组成部分,它能够在多个用户交互和会话中捕获和存储上下文及反馈。智能体主要有两种类型的记忆:短期记忆和长期记忆

短期记忆(Short-term memory) 存储更即时的信息,如对话历史,这有助于智能体确定下一步要采取哪些步骤来完成其总体目标。
长期记忆(Long-term memory) 存储随时间、在多个会话中积累的信息和知识,从而实现智能体的个性化并随时间提高性能。

什么是智能体工作流(Agentic Workflow)?

一般来说,工作流是为实现特定任务或目标而设计的一系列相互连接的步骤。最简单类型的工作流是确定性的,意味着它们遵循预定义的步骤序列,无法适应新信息或变化的情况。例如,一个自动化的费用审批工作流可能是这样的:“如果费用被标记为‘食品和餐饮’且金额低于30美元,则自动批准。”

然而,一些工作流利用了LLM或其他机器学习模型或技术。这些通常被称为AI工作流(AI workflow),可以是智能体式的,也可以是非智能体式的。在非智能体工作流中,LLM被提示一个指令并生成一个输出。例如,一个文本摘要工作流会将一段较长的文本作为输入,提示LLM对其进行总结,然后简单地返回摘要。然而,仅仅因为一个工作流使用了LLM,并不一定意味着它是智能体式的。

一个 智能体工作流(Aentic Workflow) 是由一个智能体或一系列智能体动态执行的一系列相互连接的步骤,以实现特定任务或目标。智能体由其用户授予权限,这给了它们有限的自主权来收集数据、执行任务和做出将在现实世界中执行的决策。智能体工作流还利用了AI智能体的核心组成部分,包括它们的推理能力、使用工具与环境交互的能力以及持久的记忆,从而将传统工作流彻底转变为响应迅速、适应性强和自我演进的过程。

工作流的类型

是什么让一个工作流具有“智能体性”?

当一个或多个智能体引导和塑造任务的进展时,一个AI工作流就变得具有“智能体性”。将智能体添加到现有的非智能体工作流中,创造了一种混合方法,它结合了结构化工作流的可靠性和可预测性与LLM的智能和适应性。智能体工作流的定义在于它们的能力:

  • 制定计划。一个智能体工作流始于规划。LLM被用来通过任务分解将复杂的任务分解成更小的子任务,然后确定最佳的执行路径。
  • 使用工具执行行动。智能体工作流使用一套预定义的、与权限配对的工具来完成任务并执行其生成的计划。
  • 反思(Reflect)和迭代(Iterate)。智能体可以在每一步评估结果,如果需要就调整计划,并循环往复,直到结果令人满意。

正如你所见,我们需要区分三种类型的工作流:传统的非AI工作流、非智能体AI工作流和智能体工作流。传统、基于规则的工作流与AI工作流的区别在于,前者使用预定义的步骤,而后者使用AI模型来完成任务。其次,非智能体AI工作流与智能体AI工作流的区别在于,前者使用静态的AI模型,而后者使用动态的AI智能体。这使得智能体工作流比非智能体工作流更具适应性和动态性。

智能体架构与工作流的区别

任何新兴技术都会带来大量新术语。虽然有些人可能会交替使用“智能体架构”和“智能体工作流”这两个术语,但它们实际上有一个重要的区别。

一个智能体工作流,是智能体为实现某个目标而采取的一系列步骤。这些步骤可能包括使用LLM来制定计划、将任务分解为子任务、使用像互联网搜索这样的工具来完成任务,以及使用LLM来反思任务的结果并调整其总体计划。

而一个智能体架构,则是为实现给定任务而使用的技术框架和整体系统设计。智能体架构多种多样且富有创造性,但总是至少包含一个具有决策和推理能力的智能体、智能体可以用来实现其目标的工具,以及用于短期和长期记忆的系统。

智能体工作流中的模式

回想一下,智能体工作流是为完成特定任务(也称为最终目标)而采取的结构化步骤系列。所以,当我们谈论智能体工作流时,我们谈论的是使智能体能够实现其最终目标的特定行为模式。我们前面提到的AI智能体的核心组成部分,在智能体工作流模式中扮演着关键角色。智能体的推理能力促进了规划和反思模式,而它们使用工具与环境交互的能力则是工具使用模式的基础。

规划模式 (Planning Pattern)

规划设计模式允许智能体自主地将更复杂的任务分解成一系列更小、更简单的任务,这个过程被称为任务分解。任务分解能带来更好的结果,因为它减少了LLM的认知负荷,改善了推理能力,并最大限度地减少了幻觉和其他不准确性。

当实现最终目标的方法不明确,且问题解决过程中的适应性至关重要时,规划尤其有效。例如,一个被指示修复软件错误的AI智能体可能会使用规划模式将任务分解为子任务,如阅读错误报告、识别相关代码段、生成潜在原因列表,并最终选择一个特定的调试策略。如果第一次修复错误的尝试不起作用,智能体可以在执行后读取错误消息并调整其策略。

虽然规划可以帮助智能体更好地处理更复杂的任务,但与更具确定性的工作流相比,它也可能导致结果的可预测性降低。因此,最好只在需要高强度问题解决和多跳推理的任务中使用规划模式。

规划模式

工具使用模式 (Tool Use Pattern)

生成式LLM的一个重要限制是它们依赖于预先存在的训练数据,这意味着它们无法检索实时信息或验证超出其先前学习范围的事实。因此,当它们不知道答案时,可能会生成不符合事实的响应或“猜测”。检索增强生成 (RAG) 通过为LLM提供相关的、实时的外部数据来缓解这一限制,从而实现更准确、更具上下文基础的响应。

然而,工具使用超越了朴素的RAG,它允许LLM动态地与现实世界互动,而不仅仅是从中检索数据。在智能体工作流中,工具使用模式通过允许智能体与外部资源和应用程序、实时数据或其他计算资源进行交互,扩展了智能体的能力。

常见的工具包括API、信息检索(例如向量搜索)、网络浏览器、机器学习模型和代码解释器。这些工具被用来执行特定的任务,如搜索网络、从外部数据库检索数据,或阅读或发送电子邮件,以帮助智能体实现其目标。

工具使用模式

反思模式 (Reflection Pattern)

反思是一种强大的智能体设计模式,实现起来相对简单,并且可以为智能体工作流带来显著的改进。反思模式是一种自我反馈机制,智能体在最终确定响应或采取进一步行动之前,会迭代地评估其输出或决策的质量。这些批评随后被用来完善智能体的方法,纠正错误,并改善未来的响应或决策。

当智能体在第一次尝试中不太可能成功实现其目标时,反思尤其有用,例如编写代码。在这种情况下,智能体可能会生成一个代码片段,在沙盒或执行环境中运行它,并迭代地将错误反馈给LLM,并附上指令来完善代码,直到它成功执行。

反思的力量在于智能体能够批评自己的输出,并动态地将这些见解整合到工作流中,从而在没有直接人类反馈的情况下实现持续改进。这些反思可以被编码到智能体的记忆中,从而在当前用户会话中实现更高效的问题解决,并通过适应用户偏好来启用个性化并改善未来的交互。

反思模式

智能体工作流用例与深度解析

像规划和工具使用这样的原子设计模式,可以以创造性的方式组合起来,有效地利用智能体式AI来完成不同领域的各种任务。除了组合设计模式,还可以为AI智能体提供不同的工具组合,甚至赋予它们根据需要动态选择工具的能力。它们还可以与人类反馈循环集成,并被赋予不同级别的自主权和决策权。

这些多样化的配置使得智能体工作流能够为各行各业的广泛任务量身定制。为了展示这一点,我们首先深度剖析一个特别强大的用例:智能体式RAG,然后介绍其他几个有影响力的应用。

智能体式RAG (Agentic RAG)

智能体式检索增强生成 (Agentic RAG)

智能体式RAG的基础

智能体式RAG描述的是一种基于AI智能体的RAG实现方式。在我们深入探讨之前,让我们快速回顾一下RAG和AI智能体的基本概念。

什么是检索增强生成 (RAG)

检索增强生成 (RAG)[1] 是一种构建LLM驱动应用的技术。它利用外部知识源为LLM提供相关上下文,以减少幻觉。

一个朴素的RAG流水线由一个检索组件(通常由嵌入模型和向量数据库组成)和一个生成组件(一个LLM)构成。在推理时,用户查询被用于在已索引的文档上进行相似性搜索,以检索与查询最相似的文档,并为LLM提供额外的上下文。

原生RAG

典型的RAG应用有两个显著的局限性:

    1. 朴素的RAG流水线只考虑一个外部知识源。然而,某些解决方案可能需要两个外部知识源,而另一些解决方案可能需要外部工具和API,例如网络搜索。
    1. 它们是一次性解决方案,这意味着上下文只被检索一次。对于检索到的上下文的质量,没有进行推理或验证。

AI系统中的智能体是什么

随着LLM的普及,AI智能体和多智能体系统的新范式已经出现。AI智能体是拥有角色和任务,并且可以访问记忆和外部工具的LLM。LLM的推理能力帮助智能体规划所需的步骤并采取行动,以完成手头的任务。

一个流行的框架是 ReAct框架[2]。一个ReAct智能体可以通过将路由、查询规划和工具使用结合成一个单一实体,来处理顺序性的多部分查询,同时保持状态(在记忆中)。

ReAct = 推理 (Reason) + 行动 (Act) (使用LLM)

该过程包括以下步骤:

  • • 思考 (Thought):在接收到用户查询后,智能体对下一步要采取的行动进行推理。
  • • 行动 (Action):智能体决定一个行动并执行它(例如,使用工具)。
  • • 观察 (Observation):智能体观察来自行动的反馈。
  • • 这个过程会迭代进行,直到智能体完成任务并向用户做出回应。

ReAct框架

智能体式RAG是如何工作的?

尽管智能体可以被整合到RAG流水线的不同阶段,但智能体式RAG最常指的是在检索组件中使用智能体。

具体来说,检索组件通过使用能够访问不同检索器工具的检索智能体而变得“智能体化”,这些工具例如:

  • • 向量搜索引擎(也称为查询引擎),在向量索引上执行向量搜索(就像在典型的RAG流水线中一样)
  • • 网络搜索
  • • 计算器
  • • 任何以编程方式访问软件的API,例如电子邮件或聊天程序
  • • 以及更多。

然后,RAG智能体可以对以下示例检索场景进行推理和行动:

    1. 决定是否需要检索信息
    1. 决定使用哪个工具来检索相关信息
    1. 自己构建查询
    1. 评估检索到的上下文,并决定是否需要重新检索
智能体式RAG架构

与顺序性的朴素RAG(Navie RAG)架构相比,智能体式RAG架构的核心是智能体。智能体式RAG架构可以有不同层次的复杂性。在最简单的形式中,单智能体RAG架构就是一个简单的路由器。然而,你也可以将多个智能体加入到一个多智能体RAG架构中。

单智能体RAG (路由器)

在其最简单的形式中,智能体式RAG是一个路由器。这意味着你至少有两个外部知识源,智能体决定从哪一个中检索额外的上下文。然而,外部知识源不必局限于(向量)数据库。你也可以从工具中检索更多信息。例如,你可以进行网络搜索,或者使用API从Slack频道或你的电子邮件账户中检索额外信息。

单智能体RAG系统 (路由器)

多智能体RAG系统

正如你所猜测的,单智能体系统也有其局限性,因为它仅限于一个智能体集推理、检索和答案生成于一身。因此,将多个智能体链接成一个多智能体RAG应用是有益的。

例如,你可以有一个主智能体,它在多个专业的检索智能体之间协调信息检索。例如,一个智能体可以从专有的内部数据源检索信息。另一个智能体可以专门从你的个人账户(如电子邮件或聊天)中检索信息。还有一个智能体也可以专门从网络搜索中检索公共信息。

多智能体RAG系统

智能体式RAG vs. 原生RAG (Vanilla RAG)

虽然RAG的基本概念(发送查询、检索信息、生成响应)保持不变,但工具的使用将其泛化了,使其更加灵活和强大。

可以这样想:普通的(原生)RAG就像(在智能手机出现之前)身处图书馆,为了回答一个特定的问题。而智能体式RAG,则像是手里拿着一部智能手机,上面有网络浏览器、计算器、你的电子邮件等等。

原生 RAG 智能体式 RAG
访问外部工具
查询预处理
多步检索
验证检索到的信息
实现智能体式RAG

如前所述,智能体由多个组件构成。要构建一个智能体式RAG流水线,有两种选择:使用支持函数调用的语言模型,或使用一个智能体框架。两种实现方式都能达到相同的结果,这取决于你想要的控制和灵活性。

支持函数调用的语言模型

语言模型是智能体式RAG系统的主要组件。另一个组件是工具,它使语言模型能够访问外部服务。支持函数调用的语言模型提供了一种构建智能体系统的方法,它允许模型与预定义的工具进行交互。

要构建一个工具,你首先需要定义函数。在这个代码片段中,我们正在编写一个使用Weaviate的混合搜索[3]从数据库中检索对象的函数:

defget_search_results(query: str) -> str:
"""向Weaviate的混合搜索发送一个查询。将响应解析成 {k}:{v} 格式的字符串。"""

    response = blogs.query.hybrid(query, limit=5)

    stringified_response = ""
for idx, o inenumerate(response.objects):
        stringified_response += f"搜索结果: {idx+1}:\n"
for prop in o.properties:
            stringified_response += f"{prop}:{o.properties[prop]}"
        stringified_response += "\n"

return stringified_response

然后,我们将通过一个tools_schema将该函数传递给语言模型。这个模式随后会在给语言模型的提示中使用:

tools_schema=[{
'type': 'function',
'function': {
'name': 'get_search_results',
'description': '为提供的查询获取搜索结果。',
'parameters': {
'type': 'object',
'properties': {
'query': {
'type': 'string',
'description': '搜索查询。',
            },
          },
'required': ['query'],
        },
    },
}]

由于你是直接连接到语言模型API,你需要编写一个在语言模型和工具之间进行路由的循环:

defollama_generation_with_tools(user_message: str,
                                 tools_schema: List, tool_mapping: Dict,
                                 model_name: str = "llama3.1") -> str:
    messages=[{
"role": "user",
"content": user_message
    }]
    response = ollama.chat(
        model=model_name,
        messages=messages,
        tools=tools_schema
    )
ifnot response["message"].get("tool_calls"):
return response["message"]["content"]
else:
for tool in response["message"]["tool_calls"]:
            function_to_call = tool_mapping[tool["function"]["name"]]
print(f"正在调用函数 {function_to_call}...")
            function_response = function_to_call(tool["function"]["arguments"]["query"])
            messages.append({
"role": "tool",
"content": function_response,
            })

    final_response = ollama.chat(model=model_name, messages=messages)
return final_response["message"]["content"]

智能体框架

像DSPy、LangChain、CrewAI、LlamaIndex和Letta这样的智能体框架已经出现,以方便构建基于语言模型的应用。这些框架通过将预构建的模板拼接在一起,简化了智能体式RAG系统的构建。

为什么企业正在采用智能体式RAG

企业正在从原生RAG转向构建智能体式RAG应用。Replit发布了一个帮助开发者构建和调试软件的智能体。此外,微软也发布了与用户协同工作以提供任务完成建议的copilots。这些只是生产环境中智能体应用的几个例子,其可能性是无穷的。

智能体式RAG的好处主要在于检索到的额外信息质量的提升。通过添加可以访问工具的智能体,检索智能体可以将查询路由到专门的知识源。此外,智能体的推理能力在检索到的上下文被用于进一步处理之前,为其提供了一层验证。因此,智能体式RAG流水线可以带来更稳健和准确的响应。

然而,凡事都有两面性。为一个子任务使用AI智能体意味着引入一个LLM来完成一项工作。这带来了在任何应用中使用LLM的局限性,例如增加了延迟和不可靠性。

其他用例:智能体式研究助理 (Agentic Research Assistants)

智能体式研究助理,被一些AI公司也称为“深度研究(deep research)”,通过搜寻网络和各种外部数据,生成关于复杂主题的深入报告和详细见解。它们利用智能体式RAG从网络和其他外部来源检索信息以响应用户查询。然而,这些助理与传统RAG的区别在于,它们能够综合和分析信息,而不仅仅是从外部来源检索相关数据来增强LLM生成的输出。

这种独特的能力归功于几个特点。首先,智能体式研究助理通常使用专门为网页浏览、任务分解和动态规划而微调的LLM。其次,这些工作流中的智能体积极寻求用户指导,请求额外信息或澄清以更好地理解最终目标。第三,这些智能体能够根据它们检索到的信息调整其计划并改变方向。

因此,智能体式研究助理能够获得更深入的见解,识别随时间变化的趋势,并就主题编写完整的报告,而不仅仅是检索现有知识。

其他用例:智能体式编码助理 (Agentic Coding Assistants)

智能体式编码助理可以在最少的人类干预下生成、重构、完善和调试代码。非智能体式的编码助理,如GitHub Copilot的第一个版本,由经过微调以生成代码的生成式LLM驱动,但其功能仅限于此——生成代码。

使编码助理具有“智能体性”的是其与环境交互的能力,即执行生成的代码并根据执行结果、错误或反馈进行迭代式完善。这些助理还可以被赋予权限,通过创建提交(commits)和拉取请求(PRs)来对现有代码库进行更改。此外,重要的是,智能体式编码助理可以通过将错误编码到长期记忆中来从错误中学习,从而随时间变得更聪明。

智能体工作流真实世界示例

现在我们已经概述了智能体工作流的一些用例,接下来我们将更详细地了解两个真实世界智能体的工作流的各个步骤:Claygent[4] 和 ServiceNow AI Agents[5]。

Claygent (Clay)

对于增长和销售团队来说,潜在客户研究和数据丰富可能是一项乏味的任务。Clay[6] 是一家数据丰富和外联自动化公司,它通过Claygent[7] 简化了这一过程——这是一个由AI驱动的研究智能体,它持续扫描网络和内部数据库,以提供实时的、可操作的见解。

Claygent是一个相对灵活的智能体工作流的例子,它可以以创造性的方式进行定制,同时仍然通过为特定任务预先配置的提示模板为智能体提供指导。

ServiceNow AI Agents

ServiceNow[8] 是一个基于云的平台,它简化和自动化了IT、运营、人力资源和客户服务领域的工作流。如今,其 ServiceNow 平台已纳入 AI 智能体功能,旨在实现重复性任务和既有工作流程的自动化,同时仍让人类完全掌控决策过程。

这是一个智能体工作流如何帮助解决技术支持案例的例子。当客户提交技术支持工单时,工作流被触发。工单中的信息随后被传递给一个或多个智能体,这些智能体在内部IT支持知识库上执行RAG。智能体总结调查结果,分析类似的案例,并为IT支持专家生成一份摘要。最后,它生成一个关于如何进行的建议,专家可以批准或拒绝。

智能体工作流的优缺点

AI智能体已迅速从机器学习社区走向主流。鉴于围绕智能体式AI的所有兴奋、期待和期望,要将炒作与现实分开,并理解其真正的能力和局限性,可能会很困难。在本节中,我们将为您提供一个关于智能体工作流的好处、挑战和局限性的平衡观点。

智能体工作流的好处

智能体工作流通过使AI智能体能够规划、适应和随时间改进,超越了传统自动化。与遵循固定规则的确定性工作流不同,智能体工作流可以动态地响应复杂性,通过反馈完善其方法,并扩展以处理更高级的任务。

  • 灵活性、适应性和可定制性
  • 在复杂任务上表现更佳
  • 自我纠正和持续学习
  • 运营效率和可扩展性

智能体工作流的挑战与局限性

尽管有其好处和创新特性,AI智能体也带来了一些挑战和局限性。由于其概率性,AI智能体天生会给工作流增加复杂性。

  • 对于简单任务不必要的复杂性
  • 自主性增加导致可靠性降低
  • 伦理和实践考量

鉴于这些局限性,我们建议花时间反思在给定的工作流中使用智能体是否真的有必要。一些可以帮助你确定这一点的问题可能包括:

  • • 任务是否复杂到需要自适应决策,还是确定性方法就足够了?
  • • 一个更简单的AI辅助工具(如没有智能体的RAG)能否达到同样的效果?
  • • 工作流是否涉及不确定性、变化的条件或多步推理,而智能体可以更有效地处理这些?
  • • 赋予智能体自主权会带来哪些风险,这些风险是否可以被缓解?

总结

智能体工作流是帮助自动化完成需要决策和推理的复杂任务的强大工具。在本文中,我们回顾了AI智能体的核心组成部分,讨论了常见的工作流模式,并深度解析了智能体式RAG这一关键用例,最后触及了智能体工作流的好处以及它们的局限性和挑战。

最后

为什么要学AI大模型

当下,⼈⼯智能市场迎来了爆发期,并逐渐进⼊以⼈⼯通⽤智能(AGI)为主导的新时代。企业纷纷官宣“ AI+ ”战略,为新兴技术⼈才创造丰富的就业机会,⼈才缺⼝将达 400 万!

DeepSeek问世以来,生成式AI和大模型技术爆发式增长,让很多岗位重新成了炙手可热的新星,岗位薪资远超很多后端岗位,在程序员中稳居前列。

在这里插入图片描述

与此同时AI与各行各业深度融合,飞速发展,成为炙手可热的新风口,企业非常需要了解AI、懂AI、会用AI的员工,纷纷开出高薪招聘AI大模型相关岗位。
在这里插入图片描述
最近很多程序员朋友都已经学习或者准备学习 AI 大模型,后台也经常会有小伙伴咨询学习路线和学习资料,我特别拜托北京清华大学学士和美国加州理工学院博士学位的鲁为民老师给大家这里给大家准备了一份涵盖了AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频 全系列的学习资料,这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

AI大模型系统学习路线

在面对AI大模型开发领域的复杂与深入,精准学习显得尤为重要。一份系统的技术路线图,不仅能够帮助开发者清晰地了解从入门到精通所需掌握的知识点,还能提供一条高效、有序的学习路径。

img

但知道是一回事,做又是另一回事,初学者最常遇到的问题主要是理论知识缺乏、资源和工具的限制、模型理解和调试的复杂性,在这基础上,找到高质量的学习资源,不浪费时间、不走弯路,又是重中之重。

AI大模型入门到实战的视频教程+项目包

看视频学习是一种高效、直观、灵活且富有吸引力的学习方式,可以更直观地展示过程,能有效提升学习兴趣和理解力,是现在获取知识的重要途径

在这里插入图片描述
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

海量AI大模型必读的经典书籍(PDF)

阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。
在这里插入图片描述

600+AI大模型报告(实时更新)

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
在这里插入图片描述

AI大模型面试真题+答案解析

我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下
在这里插入图片描述

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐