在人工智能技术向自主决策演进的过程中,智能体(Agent)架构的设计直接决定了系统处理复杂任务的能力。从单一智能体的独立决策,到工作流的结构化编排,再到多智能体的协同分工,不同架构模式适用于不同复杂度的业务场景,且各有其核心优势与技术挑战。

一、单智能体:独立决策的"智能单元"

单智能体是人工智能自主执行任务的基础形态,其核心在于具备自主规划、工具调用与记忆存储的能力。OpenAI前应用研究主管Lilian Weng曾提出,一个成熟的单智能体需以三大核心能力构建"认知中枢",这三大能力如同人类解决问题时的思考、操作与记忆过程,共同支撑智能体的自主决策:

  • 规划(Planning):类比棋手拆解棋局的思路,能将复杂任务分解为逻辑连贯的子步骤,例如将"撰写市场分析报告"拆分为"收集行业数据→分析竞品动态→提炼核心结论"等环节;
  • 工具使用(Tool use):类似工匠选择工具的逻辑,可根据任务需求从"工具库"中筛选适配工具并完成调用,如调用数据查询接口获取行业数据、使用可视化工具生成图表;
  • 记忆(Memory):分为短期记忆与长期记忆,短期记忆存储任务执行中的即时信息(如当前步骤的中间结果),长期记忆沉淀历史经验与领域知识(如过往同类任务的成功方案)。

单智能体核心能力架构图

基于这三大核心能力,单智能体衍生出两种主流工作模式:ReAct模式与Plan-and-Execute模式,二者在决策逻辑与适用场景上存在显著差异。

1. ReAct模式:"边思考边行动"的动态决策

ReAct模式的核心逻辑是"先推理、再行动、后观察",通过循环迭代的方式逐步推进任务,本质是协调大语言模型(LLM)与外部工具、信息源的交互,让LLM的"认知能力"与工具的"执行能力"形成互补。若将LLM比作智能体的"大脑",ReAct框架则是连接大脑与外部世界的"手脚"——既帮助LLM获取外部信息(如调用搜索引擎查最新数据),又能执行LLM的决策(如根据分析结果生成报告),同时还能反馈执行结果(如告知LLM"数据获取成功"或"工具调用失败")。

其完整流程可拆解为四个环节:

  1. 思考(Thought):针对任务目标拆解核心需求,明确当前需解决的关键问题与推理逻辑,例如面对"分析某产品Q3销量下滑原因"的任务,思考环节会确定"需先获取Q3销量数据、对比Q2数据差异、排查市场环境变化"等关键方向;
  2. 行动(Action):根据思考结果执行具体操作,包括调用工具(如查询销售数据库)、访问外部资源(如爬取竞品促销信息)或生成中间内容(如计算销量环比降幅);
  3. 观察(Observation):记录行动后的反馈结果,判断是否符合预期,例如"成功获取Q3销量数据,环比下降15%“或"竞品促销信息接口调用失败,需更换数据源”;
  4. 循环迭代:结合观察结果重复"思考-行动-观察"流程,直至任务完成,例如若发现"竞品Q3降价20%“,则需补充分析"价格因素对销量的影响”。
(1)核心优势
  • 可解释性与可信度更高:将推理过程显性化记录,每一步行动都有明确的思考依据,相比LLM直接输出答案,能大幅降低"幻觉生成"(如编造不存在的数据)的概率,例如分析销量下滑时,可追溯"调用竞品数据工具"的思考逻辑;
  • 资源消耗更可控:每一步仅聚焦当前子问题,无需一次性处理全量任务,响应速度更快,且能避免因任务复杂导致的无效计算。
(2)技术局限
  • 输出稳定性不足:受LLM本身特性影响,相同任务可能出现不同的推理路径与行动选择,例如两次分析销量下滑,可能一次优先查内部数据,一次优先查外部市场;
  • Token消耗不可控:任务拆解的步骤数与LLM调用次数由模型自主决定,若遇到复杂任务(如多维度的行业分析),可能出现循环次数过多、Token超支的情况;
  • 响应时间适配难:LLM单次响应需秒级时间,叠加多轮循环后,整体耗时会显著增加,无法满足毫秒级响应的场景(如实时推荐);若采用异步处理,又会降低用户体验,限制应用范围。
(3)适用场景

ReAct模式更适合中等复杂度、需动态调整步骤的任务,尤其是步骤依赖中间结果的场景,例如:

  • 智能客服中的"问题排查":需根据用户反馈(如"登录失败")逐步调用账号查询、设备检测工具;
  • 学术文献辅助检索:需根据初步检索结果(如"某领域近3年论文少")调整关键词或数据库。

2. Plan-and-Execute模式:"先规划再执行"的结构化决策

与ReAct的"动态迭代"不同,Plan-and-Execute模式强调"先制定完整计划,再逐步落地执行",核心是通过提前规划降低执行过程中的不确定性,尤其适用于步骤可预判的复杂任务。其流程分为两大阶段:

(1)规划阶段(Planning)

围绕任务目标拆解子任务清单,明确步骤顺序与执行要求,规划方式可分为两种:

  • LLM自主规划:让模型根据任务需求输出步骤列表,例如"撰写年度工作总结"可拆解为"收集全年工作数据→梳理核心成果→分析不足→制定下年计划";
  • 模板约束规划:结合行业模板或规则优化计划结构,例如数据分析任务可强制遵循"数据获取→数据清洗→特征工程→模型训练→结果可视化"的固定框架,确保步骤完整性。
(2)执行阶段(Execution)

按规划顺序执行子任务,并根据实际结果动态调整计划:若某一步执行成功(如"数据清洗完成"),则推进至下一步;若执行失败(如"数据清洗后仍有大量缺失值"),则重新规划该环节(如"补充数据填充步骤")或调整后续步骤(如"改用对缺失值容忍度高的模型")。

(1)核心优势
  • 流程可控性更强:提前生成的计划可被人工审查与调整,例如数据分析前,可修正"模型训练"步骤的参数设置,避免执行偏差;
  • 执行过程可视化:子任务清单可作为进度跟踪依据,用户能清晰了解任务所处阶段(如"已完成数据清洗,进入特征工程"),提升使用体验。
(2)技术局限
  • 资源开销更大:需额外调用LLM生成计划,且执行阶段仍需多次调用模型,相比ReAct,Token消耗更高、响应速度更慢;
  • 初始计划依赖性高:若规划阶段存在疏漏(如遗漏"数据异常值处理"步骤),会导致后续执行偏差,虽可动态调整,但调整过程需额外的模型交互与逻辑设计,增加系统复杂度。
(3)适用场景

Plan-and-Execute模式适合高复杂度、步骤可预判、正确性优先的任务,例如:

  • 数据分析报告生成:步骤固定为"数据获取→清洗→分析→可视化→报告撰写";
  • 软件项目开发辅助:可规划"需求文档生成→接口设计→代码编写→测试用例生成"的流程;
  • 财务报表整理:需按"凭证收集→账目核对→报表编制→审计校验"的顺序执行。

二、工作流架构:结构化编排的"任务管道"

当单智能体无法满足复杂业务的流程化需求时,工作流(Workflow)架构通过对LLM与工具的结构化编排,实现更稳定、更可控的任务执行。根据智能决策能力的介入程度,工作流可分为"静态Workflow"与"静态Workflow+局部智能"两种模式。

1. 静态Workflow:全流程固化的"确定性执行"

静态Workflow的核心是"人工定义流程,LLM仅作为执行节点",即开发者根据业务逻辑,将任务拆解为固定步骤,并明确每个步骤的执行主体(LLM或工具),整个流程无自主决策环节,如同一条"预设轨道"。

例如"电商订单自动售后处理"的静态Workflow可设计为:

  1. 工具调用:查询订单状态(判断是否已发货);
  2. 条件判断:若未发货→调用LLM生成"取消订单通知";若已发货→调用物流接口获取快递单号;
  3. 工具调用:向用户发送包含快递单号的"退货地址通知";
  4. LLM调用:生成"售后进度查询指引"。

在该流程中,LLM仅负责文本生成,不参与"下一步做什么"的决策,所有步骤切换由预设代码逻辑控制。

(1)核心优势
  • 确定性与稳定性高:流程完全由人工定义,系统行为可预测、易测试,避免LLM自主决策带来的不确定性(如错误调用工具);
  • 工程化落地成本低:开发逻辑类似传统软件的流程控制,调试与监控简单,例如可通过日志快速定位"物流接口调用失败"的问题;
  • 资源消耗可控:每个步骤的LLM调用与工具使用都有明确目的,无无效推理,执行速度快、Token消耗低。
(2)技术局限
  • 灵活性极差:无法应对预设流程外的场景,例如上述售后流程中,若用户"已收到货但包装破损",静态Workflow无法自主新增"拍照验证"步骤;
  • 扩展性弱:业务流程变化时需重新开发代码,例如若新增"售后退款时效查询"功能,需调整整个Workflow的步骤顺序;
  • 智能化程度低:仅能处理规则明确的重复性任务,无法应对复杂的模糊需求(如用户的个性化售后咨询)。
(3)适用场景

静态Workflow适合规则明确、高频重复、无灵活调整需求的任务,例如:

  • 企业固定报表生成:按"数据提取→格式转换→公式计算→报表导出"的固定流程执行;
  • 标准化邮件发送:如"新用户注册欢迎邮件",流程固定为"获取用户信息→LLM生成邮件内容→调用邮件接口发送";
  • 简单客服话术生成:针对"订单查询"等固定问题,按预设流程调用订单工具并生成回复。

2. 静态Workflow+局部智能:"全局可控+局部灵活"的平衡方案

静态Workflow+局部智能模式在保留全局固定流程的基础上,在关键步骤引入智能决策能力,实现"流程稳定性"与"局部灵活性"的平衡。其核心逻辑是:人工定义整体流程框架,仅在复杂子任务环节授予智能体自主规划权限

例如"企业市场活动策划"的工作流可设计为:

  1. 静态步骤:调用行业数据库获取"竞品近3个月活动数据"(工具执行,无智能决策);
  2. 智能步骤:由智能体自主规划"竞品活动分析"流程(如"提取活动主题→统计参与人数→分析转化效果"),并生成分析报告(LLM自主决策);
  3. 静态步骤:将分析报告同步至市场部邮箱(工具执行);
  4. 智能步骤:智能体根据分析结果,生成3套"活动策划方案",并标注各方案的优劣势(LLM自主推理)。

在该流程中,“数据获取”“邮件同步"等标准化步骤由静态逻辑控制,而"竞品分析”"方案生成"等复杂环节则由智能体自主决策。

(1)核心优势
  • 可控性与灵活性兼顾:全局流程由人工把控,避免智能体"越权决策";局部智能环节可应对复杂需求,例如竞品分析时,智能体可根据数据差异调整分析维度;
  • 迭代成本低:新增智能功能时,仅需优化局部智能节点,无需修改整体流程,例如若需新增"活动预算测算",只需在"方案生成"环节补充智能决策逻辑;
  • 落地门槛适中:相比全自主智能体,开发难度更低;相比纯静态Workflow,又能覆盖更多复杂场景,适合逐步推进智能化升级。
(2)技术局限
  • 系统复杂度提升:需设计"静态流程"与"智能节点"的交互逻辑,例如如何将静态步骤的结果(如竞品数据)传递给智能体,如何处理智能节点的异常输出(如生成的方案不符合要求);
  • 局部智能稳定性不足:智能节点的决策仍依赖LLM,可能出现输出波动,例如两次生成的活动方案差异较大,需额外设计校验机制(如人工审核)。
(3)适用场景

该模式适合整体流程固定、但存在局部复杂决策点的任务,例如:

  • 内容创作流程:静态步骤为"选题确定→素材收集→内容发布",智能步骤为"文章撰写→标题优化"(LLM自主完成);
  • 人力资源招聘:静态步骤为"简历筛选→面试安排→Offer发放",智能步骤为"候选人能力评估报告生成"(LLM分析简历后输出);
  • 产品需求梳理:静态步骤为"需求收集→需求分类→原型设计",智能步骤为"需求优先级排序"(LLM结合业务目标推理)。

三、多智能体:协同分工的"智能团队"

当任务复杂度超过单智能体的处理能力(如跨领域、多步骤、大上下文)时,多智能体架构通过"专业化分工+动态协作",突破单一智能体的能力边界。其核心逻辑是:将复杂任务拆解为多个子任务,由不同领域的"专家智能体"分别处理,再通过协同机制整合结果,最终实现"1+1>2"的智能涌现效果。

多智能体协同架构图

1. 多智能体的核心价值:解决单智能体的能力瓶颈

单智能体在处理复杂任务时,常面临三大瓶颈:

  • 工具选择过载:当工具库包含数十种工具(如数据查询、代码生成、图像处理)时,单智能体难以快速筛选适配工具;
  • 上下文窗口限制:LLM的上下文长度有限(如GPT-4 Turbo为128k Token),无法同时处理大量信息(如百万字的文献库);
  • 领域知识局限:单智能体难以兼顾多个专业领域(如同时具备"数据分析"与"法律合规"能力)。

多智能体通过以下方式突破瓶颈:

  • 模块化拆分:将系统拆分为多个独立智能体,每个智能体专注于单一领域(如"数据分析师Agent"“法律审核Agent”),降低开发与维护难度;
  • 专业化分工:每个智能体具备领域内的专属工具与知识(如"数据分析师Agent"内置统计分析工具,"法律审核Agent"沉淀合规条款库),提升任务处理精度;
  • 可控化协同:明确智能体间的通信规则(如"数据分析师Agent"向"法律审核Agent"传递分析结果),避免混乱决策。

多智能体解决单智能体瓶颈示意图

2. 主流多智能体协作模式

多智能体的协作效率取决于架构设计,目前主流模式可分为"指挥官模式"“协作模式"与"分层规划模式”,其中分层规划模式因职责清晰、扩展性强,在复杂任务中应用最广。

(1)分层规划模式:"高层规划+低层执行"的金字塔结构

分层规划模式将智能体分为"高层Agent"与"低层Agent",二者各司其职、协同推进任务,类似企业中的"管理层"与"执行层":

  • 高层Agent(规划者/经理):聚焦全局目标,负责任务拆解、子任务分配与进度监控,不直接与外部工具交互。例如处理"新药研发文献综述"任务时,高层Agent会拆解为"文献检索→数据提取→合规审核→综述撰写"4个子任务,并分配给对应低层Agent;
  • 低层Agent(执行者/员工):专注于具体子任务的执行,可采用ReAct或Plan-and-Execute模式完成工作,并向高层Agent反馈结果。例如"文献检索Agent"调用学术数据库工具获取文献,"合规审核Agent"检查文献中的实验是否符合伦理规范。

该模式的协作流程为:

  1. 高层Agent接收任务目标,生成子任务清单与分配方案;
  2. 低层Agent执行子任务,输出中间结果(如文献列表、审核报告);
  3. 高层Agent汇总中间结果,判断是否需要调整计划(如"文献数量不足,需补充检索");
  4. 重复步骤2-3,直至所有子任务完成,高层Agent整合结果输出最终答案(如完整的文献综述)。
(2)其他协作模式
  • 指挥官模式:由一个"指挥官Agent"统一决策,其他智能体仅执行指令,无自主决策权。例如指挥官Agent判断"需先分析用户需求",则指令"需求分析Agent"执行任务,适合任务步骤高度依赖中央决策的场景;
  • Network模式:所有智能体平等通信,任何Agent可自主调用其他Agent。例如"内容创作Agent"可直接调用"图像生成Agent"制作配图,适合小型、灵活的协作场景;
  • Supervisor模式:设置一个"监督者Agent"作为协作中枢,所有智能体仅与监督者通信,由监督者决定下一步调用哪个Agent。例如"用户咨询退款"时,监督者先指令"订单查询Agent"获取订单状态,再根据结果(如"已发货")指令"物流协调Agent"安排退货,避免智能体间直接通信导致的流程混乱,适合对协作秩序要求较高的场景。

3. 多智能体的适用场景

多智能体架构的核心优势在于"复杂任务的专业化拆解与协同",因此更适合规模大、领域跨度广、需多角色配合的任务,典型场景包括:

(1)软件工程全流程

将任务拆解为"需求分析→架构设计→代码编写→测试调试→文档生成",由对应专业智能体协作完成:

  • 需求分析Agent:对接用户需求,生成结构化需求文档;
  • 架构设计Agent:根据需求输出技术架构方案(如微服务拆分);
  • 代码编写Agent:基于架构方案生成核心代码(支持多语言);
  • 测试Agent:自动生成测试用例并执行,输出bug报告;
  • 文档Agent:整合上述环节成果,生成用户手册与开发文档。
    高层规划Agent则负责把控各环节进度,例如若测试Agent发现代码bug,会反馈至高层,由高层指令代码编写Agent修改。
(2)跨境电商运营

覆盖"市场调研→选品→供应链协调→营销推广→售后"全链路,需多领域智能体协同:

  • 市场调研Agent:调用海外电商平台接口,分析目标市场热门品类与竞争格局;
  • 选品Agent:结合调研结果,生成高潜力选品清单(含定价建议);
  • 供应链Agent:对接供应商系统,确认库存与物流时效,输出采购计划;
  • 营销Agent:根据选品特性,生成多语言推广文案(如亚马逊Listing);
  • 售后Agent:处理用户咨询,协调跨境退货与退款。
    监督者Agent可实时监控各环节衔接,例如若供应链Agent反馈"某商品缺货",则快速指令选品Agent补充备选方案。
(3)学术研究辅助

针对"选题→文献检索→实验设计→数据处理→论文撰写"的研究流程,实现专业化分工:

  • 选题Agent:分析领域内研究热点与空白,生成选题建议(如"AI在罕见病诊断中的应用");
  • 文献Agent:检索中英文数据库(如PubMed、CNKI),筛选高相关性文献并生成文献综述;
  • 实验设计Agent:基于选题与文献,输出实验方案(如样本量、变量控制);
  • 数据处理Agent:导入实验数据,执行统计分析(如回归模型、聚类分析)并可视化;
  • 论文Agent:按学术规范(如APA、GB/T)整合上述成果,生成论文初稿,支持引用格式自动校对。

4. 多智能体系统的优化方向

为提升多智能体的协作效率与决策准确性,需从"通信、决策、学习"三个维度进行优化,常见方法包括:

(1)通信效率优化:标准化信息交互
  • 统一数据格式:定义通用的中间数据模板(如JSON结构),确保不同Agent间数据可直接复用。例如需求分析Agent输出的"用户需求文档",可被架构设计Agent直接读取,无需额外格式转换;
  • 精简通信内容:采用"关键信息摘要"模式,避免冗余数据传输。例如测试Agent向高层反馈时,仅输出"核心bug列表(Top3)",而非完整的万字测试报告,减少通信成本。
(2)决策准确性优化:增强规划能力
  • 多轮反馈校准:在子任务执行前,增加"计划评审"环节。例如高层Agent生成子任务分配方案后,先同步给相关低层Agent,收集反馈(如"代码编写Agent认为架构方案存在兼容性问题"),再调整计划,降低初始决策偏差;
  • 领域知识注入:为每个专业Agent构建专属知识库,提升决策专业性。例如法律审核Agent内置"跨境电商合规条款库",在审核采购合同的时,可直接调用库中条款判断是否存在风险(如关税条款缺失)。
(3)系统迭代优化:强化学习与经验沉淀
  • 失败案例复盘:记录协作过程中的失败场景(如"因供应链Agent未及时反馈缺货,导致选品延误"),生成改进规则(如"供应链Agent需实时同步库存变动"),更新至系统策略库;
  • 强化学习(RL)训练:以"任务完成效率""结果准确率"为奖励指标,训练监督者/高层Agent的决策模型。例如若某类任务中,"先调用市场调研Agent再调用选品Agent"的成功率更高,则模型会逐渐强化该决策路径;
  • 跨任务经验迁移:将某一领域的协作经验迁移到相似场景。例如将"国内电商运营"的多Agent协作流程,调整后应用于"跨境电商",减少重复开发成本。

四、总结:智能体架构的选择逻辑

从单智能体到工作流,再到多智能体,三种架构并非"替代关系",而是针对不同任务复杂度的"适配方案"。在实际应用中,需根据任务复杂度、可控性需求、成本预算三个核心维度选择架构,具体决策逻辑如下:

架构类型 任务复杂度 可控性需求 成本预算(Token/开发) 核心选择依据
单智能体(ReAct) 中等(单领域、步骤动态) 低-中 需灵活调整步骤,且对响应速度有一定要求(如智能客服问题排查)
单智能体(Plan-and-Execute) 中高(单领域、步骤可预判) 正确性优先,步骤可提前规划(如数据分析报告生成)
静态Workflow 低(规则明确、重复) 极高 任务流程固定,需稳定执行(如标准化邮件发送、固定报表生成)
静态Workflow+局部智能 中高(全局固定、局部复杂) 需平衡流程稳定与局部灵活(如企业市场活动策划、人力资源招聘)
多智能体 高(多领域、协同需求强) 中-高 任务规模大、领域跨度广,需专业化分工(如软件工程全流程、跨境电商运营)

随着AI技术的演进,未来智能体架构将进一步向"混合式协同"发展——例如多智能体系统中,部分子任务采用"静态Workflow+局部智能"模式,既保留全局协同的优势,又通过结构化流程控制局部风险。而架构设计的核心,始终是"以最低成本,实现任务目标的高效、准确落地"。

五、如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

在这里插入图片描述

六、为什么要学习大模型?

我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。

在这里插入图片描述

在这里插入图片描述

七、大模型入门到实战全套学习大礼包

1、大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

img


2、大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

在这里插入图片描述

3、AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

img

4、大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

img

5、大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

img

适用人群

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐