(附代码)手把手教你搭建“Prompt Chaining”流水线,让你的AI从“聊天”变“工作”!
提示链技术(Prompt Chaining),有时也被称为管线模式,是一种利用大语言模型(LLM)处理复杂任务时非常有效的方法。与其LLM能够一次性解决整个复杂问题,提示链技术更倾向于采用分而治之的策略。它的核心思想是将原本难以处理的复杂问题分解为一系列更小、更易于管理的子问题。每个子问题都会通过专门设计的Prompt提示词来单独解决,而从一个Prompt中得到的输出结果会被策略性地作为下一次输入
内容来自Antonio Gullí的Agentic Design Patterns: A Hands-On Guide to Building Intelligent Systems一书。
Prompt Chaining概述
提示链技术(Prompt Chaining),有时也被称为管线模式,是一种利用大语言模型(LLM)处理复杂任务时非常有效的方法。与其LLM能够一次性解决整个复杂问题,提示链技术更倾向于采用分而治之的策略。它的核心思想是将原本难以处理的复杂问题分解为一系列更小、更易于管理的子问题。每个子问题都会通过专门设计的Prompt提示词来单独解决,而从一个Prompt中得到的输出结果会被策略性地作为下一次输入,用于后续的处理。
这种顺序处理本质上就为LLM的交互带来了模块化和清晰度。通过将复杂的任务分解为多个子步骤,我们就能更容易地理解并调试每一个单独的环节,从而使整个处理过程更加稳健且易于理解。链中的每一个步骤都可以经过精心设计和优化,以便专注于更大问题中的某个特定方面,从而产生更加准确、更具针对性的结果。
一个步骤的输出作为下一个步骤的输入,这一点非常重要。这种信息传递机制建立了一条依赖链,因此才有了“依赖链”这个名称–先前操作的上下文和结果会指导后续的处理过程。这样一来,LLM就能够在已有知识的基础上不断进步,深化对问题的理解,并逐步接近理想的解决方案。
此外,Prompt Chaining不仅有助于分解问题,还能实现外部知识和工具的整合。在每个处理步骤中,LLM都可以和外部系统、应用程序或数据库进行交互,增加了LLM的知识能力和功能能力,可以突破自身内部已有训练数据的限制。这种能力极大地扩展了LLM的能力,使得LLM不仅能作为独立的模型运行,还能成为更复杂、更智能的系统中不可或缺的组成部分。
Prompt Chaining的重要性不仅体现在解决简单的问题上。它还是一种构建复杂人工智能Agent的基础技术。这些Agent可以利用Prompt Chaining在动态环境中自主地进行规划、推理和行动。通过策略性地安排Prompt的顺序,Agent能够处理那些需要多步骤推理、规划与决策的任务。这样的Agent工作流程能够更贴近人类的思维过程,从而在与复杂领域和系统的交互中实现更加自然和有效的沟通。
单一提示词的局限性:对于涉及多方面的任务而言,为LLM使用单一且复杂的Prompt往往效率低下。这种做法会导致模型难以应对各种限制和指令要求,进而可能引发以下问题:
- Prompt中的某些内容会被忽略
- 模型失去对初始上下文的理解,导致“上下文漂移”
- 早期出现的错误被不断放大,引发“错误传播”
- Prompt需要较长的上下文信息窗口,但模型获取的信息却不足以做出有效的回应
此外,过高的认知负荷还可能增加模型产生错误信息的风险。
例如,如果要求模型分析一份市场研究报告、总结研究成果、根据数据的识别市场趋势,并撰写一封邮件,那么这种任务很可能会很失败–因为模型或许能够很好地完成总结工作,但却可能无法正确提取数据或撰写符合要求的邮件。
通过顺序分解提升可靠性:Prompt Chaining技术通过将复杂的任务分解为有序、连续的工作流程来应对这些挑战,从而显著提高了系统的可靠性和可控性。以上述例子为例,这种流水线或链式处理方法可以具体描述如下:
-
第一个Prompt(总结摘要):“总结一下市场研究报告的主要发现:[报告文本]。”该模型的唯一功能就是生产摘要,这大大提高了这一初始步骤的准确性。
-
第二个Prompt(识别):“根据这份总结,找出最重要的三个趋势。分析新兴趋势,并提取出能够支持这些趋势的具体数据点:[输出结果]”。这个Prompt现在更加具体了,它是建立在已经验证过的内容之上的。
-
趋势
-
第三个Prompt(撰写电子邮件):“给营销团队写一封简短的电子邮件,以下是总结出的各种趋势以及其相关数据支持:[步骤2的输出结果]”。
这种分解方式使得对整个处理流程的控制更加细致和精确。每个步骤都变得更加简单、清晰易懂,从而减轻了模型所需的计算负担,最终也使得输出结果更加准确可靠。这种模块化的设计类似于计算流程中的各个环节:每个功能都会执行特定的操作,然后将结果传递给下一个功能。为了确保模型能够针对每项具体任务给出准确的响应,可以在模型的每个阶段为其分配明确的角色。例如,在上述场景中,第一个处理步骤可以被定义为“市场分析师”,第二个步骤为“数据趋势分析师”,第三个步骤为“专家文档撰写者”,依次类推。
结构化输出的作用:Prompt Chaining的可靠性在很大程度上取决于各步骤之间传递的数据的完整性。如果某个提示的输出结果含糊不清或格式错误,那么后续的提示可能会因为输入数据的问题而无法正常运行。为了解决这个问题,规定一种结构化的输出格式(如JSON或XML)就显得至关重要了。
例如,趋势识别步骤的输出结果可以被格式化为一个JSON对象:

这种结构化的格式确保了数据能够被机器识别,并且可以被精确地解析并插入到下一个处理步骤中,而不会出现任何歧义。这种做法有效地减少了因解读自然语言而可能产生的错误,是构建可靠、多步骤的基于LLM的系统的关键组成部分。
应用实践和使用案例
Prompt Chaining是一种非常灵活的设计模式,适用于构建智能系统时的各种场景。它的核心作用在于将复杂问题分解为一系列有序且易于处理的步骤。以下是几个实际的应用案例:
- 信息处理工作流:许多任务都需要通过多次转换来处理原始信息。例如,总结一份文档、提取其中的关键实体,然后利用这些实体来查询数据库或生产报告。这样的处理流程可以描述为:
- Prompt1:从给定的URL或文档中提取文本内容。
- Prompt2:对提取出的文本进行整理和总结。
- Promp3:从总结内容或原始文本中提取特征的实体信息(例如姓名、日期、地点等)。
- Prompt4:利用这些实体信息在内部知识库中进行搜索。
- Prompt5:生产一份最终报告,其中包含文本总结、提取出来的实体信息以及搜索结果。
这种方法被应用于自动化内存分析、基于人工智能的研究助手开发以及复杂报告的生产等领域。
- 复杂查询解答:对于那些需要经过多步骤推理或信息检索才能解答的复杂问题,这种技术具有重要的应用价值。例如:“1929年股市崩盘的主要原因是什么?政府采取了哪些应对措施?”
- Prompt1:识别用户查询中的核心子问题(导致股市崩盘的原因,以及政府的应对措施)。
- Prompt2:研究或检索有关1929年股市崩盘原因的具体信息。
- Prompt3:研究或检索有关政府在1929年股市崩盘后所采取的政策应对措施的具体信息。
- Prompt4:将步骤2和步骤3中获取的信息综合起来,形成一个针对用户原始查询的连贯答案。
这种顺序处理方法对于开发能够进行多步骤推理和信息整合的人工智能系统至关重要。当某个问题无法通过单个数据点来解答,而是需要经过一系列逻辑推理过程,或者需要整合来自不同来源的信息时,这类系统就显得十分必要了。
例如,一个旨在针对特定主题生产全面报告的自动化研究工具会执行一种混合式的计算工作流程。首先,该系统会检索大量相关文章;随后,系统会同时从每篇文章中提取关键信息。这一阶段非常适合进行并行处理–通过同时运行多个独立的子任务来最大化处理效率。
然而,一旦各个单独的数据提取工作完成,整个流程就变得具有明显的顺序性。系统首先需要整理这些提取出来的数据,然后将其整合成一份连贯的初稿,最后再对这份初稿进行审查和修改,以完成最终的报告。这些后续步骤中的每一个,都在逻辑上依赖于前一个步骤的顺利完成。正是在这里,Prompt Chaining被应用了起来:整理好的数据成为了文本合成环节的输入,而合成后的文本又成为了最终审查环节的输入。因此,复杂的处理过程通常会结合并行处理来独立收集数据,同时利用Prompt Chaining技术来处理那些相互依赖的合成与修改环节。
3.数据提取与转换:将非结构化文本转换为结构化格式通常需要通过迭代过程来完成,这一过程中需要不断对数据进行处理,以提高输出结果的准确性和完整性。
- Prompt1:尝试从发票中提取特定的字段信息(例如,姓名、地址、金额等)。
- 处理步骤:检查是否已提取所有必要的字段,并确认这些字段是否符合格式要求。
- Prompt2(条件性提示):如果某些字段缺失或格式不正确,应重新生成提示,要求模型去查找这些缺失或格式错误的信息;此时可以提供与上次尝试失败相关的上下文信息。
- 处理步骤:再次验证处理结果。如有必要,可重复此步骤。
- 输出结果:提供经过提取和验证后的结构化数据。
这种顺序处理方法特别适用于从非结构化数据源中提取和分析信息,这些数据源包含表格、发票或电子邮件等。例如,要解决复杂的光学字符识别(OCR)问题–比如处理PDF格式的表格–采用分步处理的方法会更为有效。
在获取到ODA接到的文档图像后,模型会对原始数据进行处理以进行标准化处理。在这个过程中,模型可能会将诸如“一千零五十”这样的数据文本转换为其对应的数值形式,即1050。对于LLM来说,进行精确的数学计算是一种重大挑战。因此,在后续步骤中,系统可以将任何所需的算术运算任务委托给外部计算工具来完成。LLM会识别出需要进行的计算,将标准化处理后的数值输入到这些计算工具中,然后获取到最终的结果。通过这种文本提取、数据标准化以及外部工具协同使用的处理流程,最终能够得到一个准确的结果。而这样的结果往往很难仅通过单词LLM查询就可以看到地获得。
4.内容生成工程流:构建复杂内容是一项需要按步骤完成的任务,通常会被分解为几个不同的阶段,包括初始的构思、结构规划、草稿撰写以及后续的修订工作。
- Prompt1:根据用户的兴趣,生成5个主题想法。
- 处理步骤:让用户选择一个想法,或者系统自动选择最合适的那个。
- Promp2:根据用户选定的主题,生产一个详细的大纲。
- Promp3:根据大纲中的第一个要点,撰写一个初稿段落。
- Prompt4:根据大纲中的第二个要点撰写一个初稿段落,并在前一个段落的基础上提供必要的背景信息。依次类推,完成所有大纲要点的撰写。
- Prompt5:审阅并修改整个初稿,确保文章在逻辑连贯性、语气表达和语法准确性方面都达到最佳状态。
这种方法被广泛应用于各种自然语言生产任务中,包括自动生成创意叙事内容、技术文档以及各种结构化的文本内容。
5.具有状态功能的对话式Agents:尽管复杂的状态管理架构采用了比简单顺序连接更为复杂的方法。但是Prompt Chaining为保持对话的连贯性提供了基础保障。这种技术能够确保对话的流畅性与连贯性。通过将每次对话环节视为一个新的Prompt来构建对话的上下文,这个新Prompt会系统地整合来自对话序列中前序互动的信息或提取出的实体内容。
- Prompt1:处理用户输入的文本1,识别用户的意图及其中的关键信息。
- 处理步骤:根据识别出的意图和关键信息更新对话状态。
- Prompt2:根据当前的对话状态,生产相应的回复内容,或者确定下一步需要获取的信息。
- 后续的对话过程会不断重复这一流程:每当用户再次发言时,系统都会利用之前积累的对话历史信息来生成新的回应或确定下一步需要收集的数据。
这一原则是开发对话式Agent的基础,它使得这些助手能够在长时间、多轮的对话中保持对话的连贯性与逻辑性。通过记录并保存对话历史,系统能够理解用户基于之前交流内容提出的新请求,并做出恰当的回应。
6.代码生产与优化:生产代码通常是一个多阶段的过程,需要将问题分解为一系列离散的逻辑操作,并按顺序逐步执行这些操作。
- Prompt1:理解用户的功能需求,生产伪代码或代码框架。
- Prompt2:根据代码框架编写初始的代码。
- Prompt3:使用静态分析工具或其他语言模型来识别代码中可能存在的错误或需要改进的地方。
- Prompt4:根据识别出的问题重新编写或优化代码。
- Prompt5:为代码添加文档说明和测试用例。
在诸如AI辅助软件开发之类的应用中,Prompt Chaining的实用性在于它能够将复杂的编码任务分解为一系列易于处理的子问题。这种模块化结构降低了LLM在每一步中的运算复杂度。更重要的是,这种方法还允许在模型调用之间插入确定性逻辑,从而实现中间数据处理、输出验证以及工作流程中的条件分支。通过这种方法,原本可能导致结果不可靠或不完整的复杂请求,被转化为由底层执行框架管理的、结构化明确的操作序列。
7.多模态与多步骤推理:分析包含多种数据形式的数据集时,需要将问题分解为更小、更具体的子任务。例如,要解读一张包含图片、嵌入在图片中的文本、标注特定文本片段的标签,以及用于解释这些标签的表格数据,就必须采用这种推理方法。
- Prompt1:从用户提供的图片中提取并理解其中的文字内容。
- Promtp2:将提取出的图片文字与其对应的标签建立关联。
- Prompt3:利用表格形式整理这些收集到的信息,从而得出所需的输出结果。
动手实践代码示例
这些框架专门用于管理控制流、状态以及组件之间的集成。诸如LangChain、LangGraph、Crew AI 以及Google Agent Development Kit(ADK)等工具,为构建和执行这些多步骤流程提供了结构化的环境。对于复杂的系统架构而言,这样的工具无疑具有显著的优势。
为了演示,LangChain和LangGraph是适合的选择,因为它们的核心应用程序结构(APIs)是专门为构建操作链和操作图而设计的。LangChain为线性序列提供了基本的抽象层,而LangCraph则进一步扩展了这些功能,以支持具有状态变化和循环特性的计算,这些功能对于实现更复杂的智能行为至关重要。本示例将重点介绍基本的线性序列。
以下代码实现了一个包含两个处理步骤的流程,该流程充当数据处理管道的角色。第一个阶段用户解析非结构化文本并提取其中的具体信息;第二个阶段则接受这些提取出的数据,并将其转换为结构化的数据格式。
【注】目前已经发布了LangChain1.0,将LangChain和LangGraph结合在了一起,底层是LangGraph,所以以下我们使用LangChain1.0作为例子。
要重复此操作,必须先安装所需的库。可以使用以下命令安成:
https://docs.langchain.com/oss/python/langchain/install
import os
from langchain_core.prompts import PromptTemplate
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser
from langchain_deepseek import ChatDeepSeek
from dotenv import load_dotenv
load_dotenv()
llm = ChatDeepSeek(
model="deepseek-chat",
temperature=0,
max_tokens=None,
timeout=None,
max_retries=2,
# other params...
)
# messages = [
# (
# "system",
# "You are a helpful assistant that translates English to French. Translate the user sentence.",
# ),
# ("human", "I love programming."),
# ]
# ai_msg = llm.invoke(messages)
# ai_msg.content
# print(ai_msg.content)
# prompt_template = PromptTemplate.from_template("What is {thing}?")
# llm_chain = prompt_template | llm
# result = llm_chain.invoke({"thing": "LCEL"})
# print(result.content)
# --- Prompt 1: Extract Information ---
prompt_extract = ChatPromptTemplate.from_template("Extract the technical specifications from the followingtext:\n\n{text_input}")
# --- Prompt 2: Transform to JSON ---
prompt_transform = ChatPromptTemplate.from_template("Transform the following specifications into a JSON object with'cpu', 'memory', and 'storage' as keys:\n\n{specifications}")
# --- Build the Chain using LCEL ---
# The StrOutputParser() converts the LLM's message output to a simple string.
extraction_chain = prompt_extract | llm | StrOutputParser()
# The full chain passes the output of the extraction chain into the 'specifications'
# variable for the transformation prompt.
full_chain = (
{"specifications": extraction_chain}
| prompt_transform
| llm
| StrOutputParser()
)
# --- Run the Chain ---
input_text = "The new laptop model features a 3.5 GHz octa-coreprocessor, 16GB of RAM, and a 1TB NVMe SSD."
# Execute the chain with the input text dictionary.
final_result = full_chain.invoke({"text_input": input_text})
print(final_result)
print("\n--- Final JSON Output ---")
{
"cpu": "3.5 GHz octa-core",
"memory": "16 GB",
"storage": "1 TB NVMe SSD"
}
这段Python代码展示了如何使用LangChain库来处理文本。代码中使用了两个不同的提示:一个用于从输入字符串中提取技术规格信息,另一个则用于将这些规格信息格式化为JSON对象。在语言模型交互方面,代码使用了ChatOpenAI模型;而StrOutputParser则确保了输出结果能够以可用的字符串形式呈现出来。
LangChain表达语言(LCEL)被用来将这些提示与语言模型优雅地连接在一起。首先,提取链(extraction_chain)用于提取产品的详细规格信息;随后,全链处理模块(full_chain)会使用提取到的这些信息作为输入,进一步生成相应的转换提示。示例中提供了描述一台笔记本电脑的输入文本,full_chain模块会使用这段文本,依次执行这两个处理步骤。最终得到的结果是一个JSON字符串,其中包含了被提取并格式化后的产品规格信息,这个结果会被输出到屏幕上显示。
上下文工程和提示工程
上下文工程是一门系统性的学科,其核心在于生产模型所需的token数据之前,为AI模型设计、构建并提供一个完整的信息环境。这种方法论任务,模型输出的质量并不主要取决于模型本身的架构,而是更依赖于所提供的上下文信息的丰富程度。

图1:上下文工程是一门为AI构建丰富、全面的信息环境的学科。
这代表了从传统的提示工程向更先进的技术的显著演变。传统的提示工程主要侧重于优于用户输入查询的表述方式,而“上下文工程”则将研究范围扩展到了多个信息层面–其中包含系统的提示机制。系统的提示机制是一组基础性的指令,用于定义AI系统的运作方式。这些参数例如可以是“你是一名技术文档撰写者,因此你的表达方式必须正式且精确。”此外,系统还会通过外部数据来进一步丰富上下文信息。这些外部数据包括从知识库中检索到的文档–人工智能会主动从知识库中获取相关信息来生产相应内容,比如为某个项目获取技术规格资料。系统还会整合工具的输出结果,这些结果是通过人工智能使用外部应用程序接口获取的实时数据,例如查询日历以确定用户的可用时间。这些显性的数据会与一些关键的隐性数据相结合,比如用户身份、交互历史以及系统所处的环境状态。核心原则在于:即使是最先进的模型,如果所获得的关于运行环境的认知信息有限或存在缺陷,其性能也会大打折扣。
因此,这种做法将任务的重点从单纯回答问题,转变为为Agent构建一个全面的操作框架。例如,一个经过“上下文工程”处理的Agent不仅会回应用户的查询,还会首先整合用户的日程安排信息(这些信息来自外部工具)、与邮件收件人的职业关系(这些属于隐含数据),以及之前会议中记录的笔记(这些数据是从相关文档中提取的)。这样一来,该模型就能生成出高度相关、个性化且具有实际应用价值的输出结果。“工程化”环节主要包括:构建可靠的流程来在运行时获取并处理这些数据;同时建立反馈机制,以不断优化情境信息的质量。
为实现这一目标,可以使用专门的调优系统来自动化大规模的优化过程。例如,像谷歌的Vertex Al提示优化器这样的工具,可以通过系统地评估模型在一系列样本输入和预定义的评估指标下的表现,从而提升模型性能。这种方法能够在不同模型之间灵活调整提示内容与系统指令,而无需进行大量的手动修改。通过向这类优化器提供样本提示、系统指令以及相应的模板,它就能够以编程的方式对输入内容进行优化处理,从而为实施复杂的上下文工程提供了结构化的方法。
这种结构化的方法正是将初级的人工智能工具与更复杂、具备情境感知能力的系统区分开来的关键所在。该方法将“上下文”视为最重要的组成部分,着重关注Agent所掌握的信息、获取这些信息的时间点,以及它如何利用这些信息。这种做法确保了模型能够全面理解用户的意图、使用历史以及当前所处的环境。从根本上说,上下文工程是一种至关重要的方法论,它能够帮助无状态聊天机器人发展成为具备高度智能和情境感知能力的系统。
What:当在单一提示中处理复杂任务时,大型语言模型往往会不堪重负,从而导致严重的性能问题。这会增加模型所需的认知负荷。出现错误的可能性包括:忽略相关指令、无法正确理解问题的背景信息,以及生成错误的信息。单一的提示系统难以有效处理多种限制条件及复杂的推理步骤,从而导致输出结果不可靠且不准确——因为LLM无法全面应对这些复杂请求的所有方面。
Why:忽略相关指令、无法正确理解问题的背景信息,以及生成错误的信息。单一的提示系统难以有效处理多种限制条件及复杂的推理步骤,从而导致输出结果不可靠且不准确——因为大型语言模型无法全面应对这些复杂请求的所有方面。
经验法则:当某个任务过于复杂,无法通过单一的提示来完成;或者该任务包含多个不同的处理阶段;又或者需要在各个处理步骤之间与外部工具进行交互;再或者是在构建需要执行多步骤推理并维护状态的智能系统时,就应该使用这种模式。

以下是一些关键要点:
- Prompt Chaining将复杂的任务分解为一系列更小、更具体的步骤。这种方法有时也被称为“管道模式”。
- 链中的每个步骤都涉及对LLM的调用或相应的处理逻辑,这些步骤会以前一步的输出作为输入。
- 这种模式提高了与LLM进行复杂交互时的可靠性和可管理性。
- 像LangChain/LangGraph以及Google ADK这样的框架提供了强大的工具,用于定义、管理和执行这些多步骤序列。
结论
通过将复杂问题分解为一系列更简单、更易于处理的子任务,Prompt Chaining技术为引导LLM提供了坚实的框架。这种“分而治之”的策略通过让模型一次只专注于一个特定的操作,显著提升了输出的可靠性和可控性。作为一种基础性的设计模式,该技术使得开发出具备多步推理能力、工具集成能力和状态管理功能的先进人工智能代理成为可能。最终,掌握提示链技术对于构建强大且具备上下文感知能力的系统至关重要——这样的系统能够执行远超单个提示所能处理范围的复杂工作流程。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多推荐


所有评论(0)