本文详解了大模型智能体架构中的Skills层,作为LLM与工具间的逻辑抽象层,通过封装专业知识和工作流程,实现流程的刚性控制、Token节省和错误自愈。Skills将智能体从"单兵作战"转向"兵团作战",通过"神经+符号"架构融合,解决大模型在复杂工业场景中的不确定性,是构建高效智能体的关键组件。


一、基础架构

(1)大脑层 (The Brain - LLM)

这是智能体的核心,负责高级认知。

  • 功能:语义理解、意图识别、逻辑推理。
  • 输入:用户的自然语言。
  • 输出:决策指令(例如:决定调用哪个 Skill)。

(2)规划层 (Planning) —— 智能体的“前额叶”

  • 任务拆解 (Decomposition):将大目标拆成 Step 1, 2, 3。
  • 反思 (Reflection):对初步计划进行自我纠错(Self-Correction)。

(3)记忆层 (Memory) —— 智能体的“经验库”

  • 短期记忆:对话上下文(Context window)。
  • 长期记忆:通过 RAG 技术检索的行业知识、历史审计案例。

(4)执行与技能层 (Action & Skills) —— 重点区域

这里是 Skills 和 Tools 的交互区:

  • Skill 封装:包含 专家 SOP(怎么审)和 逻辑判断(遇到错误怎么办)。
  • MCP 协议层:标准化的接口转换器,负责把 Skill 指令传给外部。
  • Tools/API:具体的执行工具(ERP 数据库、网页搜索、邮件系统)。

Skill 到底长什么样? 可以把它想象成一个 “带有逻辑的说明书”。如果用代码化的方式描述,它大致长这样:

Skill_Name: "Supply_Chain_Risk_Audit"
Role_Template: "Senior_Auditor_Prompt_v1.2" # 这里是你的专家提示词
Workflow:
- Step_1: Call_MCP(erp_server, get_supplier_info)
- Step_2: Call_MCP(search_server, check_news)
- Step_3: If (Risk_Score > 80) then Call_MCP(mail_server, draft_email)
Constraints:
- Max_Token_Usage: 2000
- Human_In_The_Loop: true # 关键操作必须由人类确认

二、工作流程

  • 没有 Skill 的流程:用户 -> 大脑 -> 工具。大模型容易在复杂的工具调用中“迷路”。
  • 有 Skill 的流程:用户 -> 大脑 -> Skill (SOP 逻辑) -> 多个工具组合。流程变得可预测、专业化且高效。

对应的图例:

三、实现

在现代智能体开发框架(如 LangGraph, CrewAI 或企业级自定义引擎)中,Skill 不再只是一段 Prompt,而是一个声明式的逻辑实体

  1. Skill 的代码结构定义

一个健壮的 Skill 通常由 描述(Metadata)逻辑流(Logic Flow)工具绑定(Tool Binding) 三部分组成。

以下是以 YAML/JSON 混合风格定义的“供应商风险审计 Skill”示例:

skill_id: "supply_chain_risk_analyzer_v2"
version: "2026.01.06"
# 1. 专家 Prompt 注入:赋予模型特定的审计思维
system_prompt_extension: >
你现在是首席审计专家。在调用工具前,必须先建立假设。
在获取数据后,必须寻找'交付延迟'与'外部负面新闻'的关联度。
如果风险评分超过 75,必须强制生成预防性建议。
# 2. 依赖的工具集(通过 MCP 协议连接)
required_tools:
- mcp_server: "enterprise_erp"
tools: ["get_supplier_performance", "get_unfulfilled_orders"]
- mcp_server: "global_intelligence"
tools: ["search_news", "get_weather_alerts"]
# 3. 确定性的逻辑流 (The Workflow)
workflow_control:
mode: "sequential_with_reflection" # 顺序执行带自省
steps:
- id: "internal_audit"
action: "get_supplier_performance"
retry_policy: "max_3_times"
- id: "external_scan"
action: "search_news"
condition: "if internal_audit.delayed_rate > 0.1" # 只有延迟率超标才查新闻,节省 Token
- id: "final_judgment"
logic: "python_interpreter" # 运行一段确定的数学公式计算风险分
code: "risk_score = (data.delay * 0.7) + (data.news_sentiment * 0.3)"
  1. Skill 执行的内部状态机

为了保证复杂任务不掉线,Skill 在执行时会维护一个“状态机” (State Machine)。

为什么需要状态机?

  • 断点续传:如果网络闪断或 MCP 服务器重启,智能体知道自己执行到了“Step 2”,不需要从头再来。
  • 多轮交互:当 Skill 发现缺失关键信息(比如供应商代码错误)时,它可以将状态挂起(Suspend),向人类询问后继续。
  1. Skill vs. Tool 调用流程对比(代码逻辑视角)

普通工具调用 (Direct Tool Use)

# 模型直接决定调哪个,很松散
response = llm.call(tools=[google_search, send_email], prompt="帮我看看供应商风险")
# 结果:模型可能直接发了邮件,但忘了看内部数据。

基于 Skill 的调用 (Skill-Based)

# 通过 Skill 引擎执行,逻辑受控
audit_skill = SkillEngine.load("risk_analyzer")
result = audit_skill.run(input="供应商 A")
# 内部闭环:
# 1. 强制先查 ERP
# 2. 强制做风险建模
# 3. 最后才给出结论
  1. 总结:给开发者的建议

如果你要构建自己的 Skill 库,请遵循以下三个原则:

(1)原子化工具,复合化技能:把工具(MCP)做得尽可能简单,把业务逻辑(Skill)封装得尽可能专业。

(2)逻辑硬化:对于计算分数、判断权限等****不容出错的逻辑,写死在 Skill 的代码/脚本里,不要让模型去猜测。

(3)上下文隔离:每个 Skill 应该只携带与其相关的知识,避免把成千上万个工具的描述全塞进大模型的 Context 里(那是目前 Agent 崩溃的主要原因)。

四、进阶实现

首先是给工具注入灵魂(编写 Skill Prompt),其次是给大脑安装导航(设计路由逻辑)

第一步:为 MCP 工具编写配套的 Skill Prompt

假设你已经有一个基础的 MCP 工具叫 erp_connector,它只能干巴巴地返回 JSON 数据。我们要把它包装成一个“财务健康诊断 Skill”。

(1)原始工具(MCP)能力:

  • get_cash_flow(period): 返回现金流数字。
  • get_debt_ratio(): 返回资产负债率。

(2)封装后的 Skill Prompt:

你要在 Skill 的定义层注入这段指令,强制模型在调用工具前后进行“专家思考”:

### Skill: Financial_Health_Validator
**Context**: 你现在是一名资深 CFO 助理。你的目标不是罗列数字,而是评估稳定性。
**Execution Logic**:
1. **预判 (Pre-computation)**: 在调用 `get_cash_flow` 前,先根据对话历史确认当前的行业基准值。
2. **数据获取 (Data Acquisition)**: 调用工具获取原始 JSON。
3. **分析模型 (Analysis Model)**:
- 禁止直接输出结果。必须应用“杜邦分析法”思维。
- 如果 `debt_ratio` > 70%,必须自动触发下一步:检索该供应商的授信记录。
4. **输出标准**:
- 必须包含[风险结论]、[核心指标]、[改进建议]三部分。
- 如果数据缺失,禁止胡编,必须明确指出“由于缺少XX数据,无法完成完整审计”。

第二步:设计多 Skill 之间的“自动路由逻辑”

当你的智能体拥有多个技能(如:审计 Skill、法务 Skill、物流 Skill)时,它需要一个**“调度员”**来决定:现在该用哪本秘籍?

1、实现路由的三种方式:

A. 语义路由 (Semantic Router) - 最快

利用向量相似度。如果用户说“合同里的赔偿条款怎么写?”,系统不经过大模型,直接在向量库匹配到“法务 Skill”。

  • 优点:省钱、极速。
  • 缺点:无法处理复杂、模糊的混合意图。

B. LLM 分发员 (LLM Dispatcher) - 最智能

专门用一个较小、反应快的模型(如 Gemini 1.5 Flash)作为“前台”,它只负责看一眼需求,然后从 Skill 列表中选出 ID。

Dispatcher 的指令示例:

“你有以下技能:[Audit, Legal, Logistics]。根据用户输入,只输出技能 ID。如果输入复杂,输出技能序列(如 Audit, then Legal)。”

C. 规划器模式 (Planner Mode) - 最强大

模型不直接选 Skill,而是先写一个 Plan

  • Plan Step 1: 使用 Audit_Skill 检查坏账。
  • Plan Step 2: 如果坏账超标,启动 Legal_Skill 起草催收函。

2、实战案例:路由逻辑如何处理“突发状况”

想象一下,用户说:“我们最大的供应商最近因为暴雨停产了,这会对我们的交付产生什么影响?我们要不要起诉他们违约?”

路由逻辑的运作流程:

(1)意图识别:发现包含“停产(供应链)”和“起诉(法务)”两个领域。

(2)链式调度 (Skill Chaining)

首先激活 Logistics_Skill:通过 MCP 查库存余量,计算撑几天。然后激活 Legal_Skill:读取合同中的“不可抗力”条款。

(3)最终汇总:将两个 Skill 的执行结果整合成一份“风险与对策建议书”。

五、生产级代码实现

我们将展示两种模式:一种是极速的 关键词/if-else 路由,另一种是强大的 LLM 语义路由

import json
from typing import List, Dict
# 模拟 Skill 库定义
SKILLS_REGISTRY = {
"audit_skill": {
"name": "供应链风险审计",
"description": "用于分析供应商延迟、财务风险和地缘政治影响。",
"tools": ["erp_mcp", "news_mcp"]
},
"legal_skill": {
"name": "合同法务分析",
"description": "用于分析合同条款、不可抗力证明和法律风险。",
"tools": ["contract_db", "legal_search"]
}
}
class AgentDispatcher:
def __init__(self, model_client):
self.client = model_client
# 方案 A:极速路由 (Keyword/If-Else)
def fast_route(self, user_input: str) -> str:
text = user_input.lower()
if any(word in text for word in ["审计", "供应商", "延迟", "到货"]):
return "audit_skill"
if any(word in text for word in ["合同", "起诉", "违约", "条款"]):
return "legal_skill"
return "general_chat"
# 方案 B:LLM 语义路由 (LLM-Select) - 更加智能
def llm_route(self, user_input: str) -> str:
prompt = f"""
你是一个智能体调度员。请根据用户输入,从以下 Skill 列表中选择最合适的一个。
只需输出 Skill ID,不要输出其他任何字符。
Skill 列表:
{json.dumps(SKILLS_REGISTRY, ensure_ascii=False)}
用户输入: "{user_input}"
"""
# 假设使用的是类似 OpenAI/Gemini 的调用方式
selected_id = self.client.generate(prompt).strip()
return selected_id if selected_id in SKILLS_REGISTRY else "general_chat"
def execute(self, user_input: str):
# 1. 决策:该用哪个 Skill?
skill_id = self.llm_route(user_input)
print(f"--- [调度器决策]:激活 {skill_id} ---")
# 2. 执行:根据选定的 Skill 加载对应的 SOP 和工具
if skill_id == "audit_skill":
# 这里会进入之前我们编写的专家审计思维 Prompt 流程
return "正在启动审计 SOP,调取 ERP 数据中..."
elif skill_id == "legal_skill":
return "正在检索合同库,分析法务条款..."
else:
return "作为通用助手为你解答..."
# --- 使用示例 ---
# dispatcher = AgentDispatcher(model_client)
# print(dispatcher.execute("由于暴雨导致供应商延期,我们要看下合同里的违约条款"))

在真正的生产环境下,我们通常采用混合路由

(1)首先运行 Fast-Route(if-else),捕捉明显的指令。

(2)如果无法匹配,再交给 LLM-Select 进行深度理解。

(3)这样既保证了响应速度,又兼顾了处理复杂问题的能力。

六、方法论

Skills 是在 LLM 与 Tools 之间强行插入了一个“逻辑抽象层”。

从架构上演进,这实际上是从“扁平结构”向“层级结构”的转变。

这样,LLM 选择 Tools 时的困难,是否会同样发生在选择 Skills 上?

——正是目前智能体工程(Agent Engineering)最前沿的痛点。

  1. 架构演进:从“自由市场”到“职能部门”

我们可以用一个公司管理的例子来理解这种层级的引入:

第一阶段:LLM + Tools (扁平架构)

  • 模式:LLM 面对 100 个原子工具(API)。
  • 问题:这就像一个 CEO 每天要直接管理 100 个基层员工。CEO(模型)会感到困惑,容易叫错人、记错参数,或者在处理复杂任务时,不知道该按什么顺序派人。
  • 本质:决策空间(Action Space)太大,熵值过高。

第二阶段:LLM + Skills + Tools (层级架构)

  • 模式:你把 100 个工具封装成了 5 个“专业技能”(Skill)。
  • 变化:LLM 现在只需要面对 5 个 Skill。它选择“审计技能”,这个技能内部会自动去调度那 20 个基层工具。
  • 本质:通过高内聚、低耦合**,人为地压缩了 LLM 的初始决策空间。**
  1. 核心矛盾:问题消失了吗?还是转移了?

你提到的“同样的问题依然存在”,在技术上表现为以下两个方面:

A. 选择困难症(Selection Ambiguity)依然存在

如果 Skills 定义得不够清晰,或者两个 Skills 之间有功能重叠(比如“法务审计”和“财务审计”都包含风险评估),LLM 依然会选错。

  • 现状:虽然选项从 100 个变成了 5 个,模型选错的概率降低了,但选错后的代价变大了**。选错一个工具可能只是错一步,选错一个 Skill 可能导致整个任务方向性错误。**

B. 参数提取的压力依然存在

LLM 调用 Skill 时,依然需要从对话中提取参数。

  • 现状:Skill 的参数往往比 Tool 更抽象。LLM 必须更准确地理解“业务上下文”才能满足 Skill 的启动条件。
  1. 为什么我们要引入 Skills 层?(它的真实价值)

既然问题依然存在,为什么行业还要推行 Skills?因为它解决了三个 LLM 无法通过“提示词”独立解决的问题:

(1)流程的“刚性控制” (Constraint)

LLM 具有随机性。如果你让它直接调工具,它可能会先发邮件再审合同(顺序错误)。

  • Skill 的价值:将SOP(标准作业程序)硬编码在 Skill 内部。LLM 只要选择了这个 Skill,执行流程就是确定的(Deterministic)。这用“硬代码”弥补了模型的“软逻辑”。

(2)Token 节省与上下文清洗 (Context Compression)

  • Tools 模式:你必须把 100 个工具的说明全塞进 Context。
  • Skills 模式:你只需要塞 5 个 Skill 的简介。当 LLM 选定某个 Skill 后,系统才会动态地把该 Skill 内部的工具细节加载进来(即 Dynamic Prompting)。这极大地释放了模型的思考空间。

(3)错误自愈 (Self-healing)

当工具报错时,LLM 往往会陷入死循环。

  • Skill 的价值:Skill 内部可以包含 Python 级别的 try-except 或逻辑重试机制。它在内部就把小错误消化了,传回给 LLM 的是“已经处理好的结果”。
  1. 总结:Skills 的本质是“知识的封装”

层级的引入并没有消除决策行为本身,它只是改变了决策的粒度。

  • Tools 层面:解决的是“怎么连(Connectivity)”的问题。
  • Skills 层面:解决的是“怎么做(Methodology)”的问题。

5. 未来的解决方向:

为了解决“选择 Skills 依然会错”的问题,目前的趋势是:

(1)语义路由器 (Semantic Router):不完全依赖 LLM 推理,而是用向量计算来辅助 Skill 的精准匹配。

(2)分层调度:先由一个微型模型(Gatekeeper)做初步分类,再由大模型做精细决策。

七、追本溯源

关于 Skills 的提出,它并不是一个像“Transformer”那样由单一论文定义的里程碑,而是一个“工程实践倒逼学术定义”的产物。它的演进路径可以概括为:从 AutoGPT 的雏形,到学术界的 Agent 框架定义,再到工业界的协议标准化。

  1. 萌芽期:工程实践的“暴力拆解” (2023年初)

Skills 的概念最早源于开发者在玩 AutoGPTBabyAGI 时的痛苦经历。

当时,开发者发现如果给 LLM 塞入几十个 API(Tools),模型会迅速陷入“幻觉”或“死循环”。为了解决这个问题,社区开始自发地将功能进行模块化封装

  • 工程尝试:开发者开始将“搜索+抓取+总结”三个工具打包,在代码里写死逻辑,并给它起名叫“Web Browser”。
  • 本质:此时的 Skill 只是为了节省 Token 和提高成功率而进行的硬编码封装**。**
  1. 形成期:学术论文的“架构定义” (2023年中)

随后,几篇核心论文将这种工程直觉上升到了方法论高度,正式引入了“技能库”的概念。

A. 《Voyager: An Open-Ended Embodied Agent with Large Language Models》

https://arxiv.org/pdf/2305.16291

这是 Skills 概念最重要的学术里程碑。Nvidia 的团队在 Minecraft(我的世界)游戏中展示了 Agent。

  • 核心创新:提出了 Skill Library(技能库)
  • 方法论:Agent 发现自己写出了一段有用的代码(比如制作一把木剑),就将其存储为“Skill”。下次遇到类似任务,它直接从库中检索这段代码,而不是重新推理。
  • 贡献:它证明了 Skills 是可以被累积和重用的执行程序,而不仅仅是临时指令。

B. 《Toolformer》 与 《ReAct》

  • ReAct (Reason + Act)

    奠定了模型如何使用工具的思维逻辑。

  • Toolformer

    证明了模型可以学习“何时”调用工具。 这为 Skills 层的引入提供了理论上的可行性——即模型具备调度复杂逻辑的能力。

  1. 成熟期:工业级的“协议化” (2024年至今)

当学术界证明了 Skill 的有效性后,工业界(OpenAI, Anthropic, LangChain)开始将其标准化,将其从“论文里的想法”变成“开发者的 SDK”。

  • LangChain / LangGraph:将 Skill 抽象为“可组合的子图(Subgraphs)”。
  • OpenAI GPTs:将其产品化为“Actions”。
  • MCP (Model Context Protocol):这是最新的工程突破。它试图将底层 Tools 标准化,从而让上层的 Skills 能够跨模型、跨平台复用。
  1. 深度复盘:为什么是这种路径?

我们可以从方法论的角度看 Skills 提出的逻辑必然性:

  1. 结论:Skills 的“名分”

Skills 是在工程实践中被发现需求,在 《Voyager》等学术论文中被定义架构,最后在 LangGraph 等现代框架中被最终工程化

它标志着智能体从“单兵作战(调用一个 API)”转向“兵团作战(调用一套封装好的业务逻辑)”。

八、方法论升华

**如果 Skills 的本质是“程序的封装”,那么智能体的进化是否终将导致“自然语言编程”与“传统代码逻辑”的彻底融合?**你想探讨 Skills 在这种“神经+符号(Neuro-Symbolic)”架构中的角色吗?

Skills 是如何通过“神经+符号(Neuro-Symbolic)”的融合,解决大模型在复杂工业场景下的不确定性。

1. 神经与符号的“粘合剂”:Skills 的桥梁作用

在 AI 历史上,存在两派:

  • 连接主义(Neural):也就是大模型,擅长直觉、语义理解、模糊处理,但容易产生幻觉,逻辑不严密。
  • 符号主义(Symbolic):也就是传统的代码逻辑,擅长确定性计算、严格流程、因果推理,但缺乏灵活性。

Skills 的本质,就是在大模型这个“神经网络”里,嵌入了一个个“符号化的逻辑块”。

  • LLM 负责“模糊匹配”:理解用户的意图。
  • Skill 负责“刚性执行”:一旦 LLM 选择了某个 Skill,后续的流程就从“概率计算”变成了“程序运行”。这种融合让智能体既能听懂人话,又能把事办稳。

2. 知识的“固化”与“解耦”

从方法论看,Skills 实现了知识在智能体架构中的多态存储

(1)参数化知识(LLM):存在于权重里。它是“通才”,但容易忘、容易乱。

(2)插件化知识(Skills):存在于代码和 SOP 模板里。它是“专才”。

**这种解耦带来了一个巨大的方法论变革:技能的“可插拔性”。**在传统的智能体中,你如果想让模型变专业,得去微调(Fine-tuning)它。而有了 Skills 架构,你只需要给它一本新的“操作手册(Skill Package)”。这就好比你不需要为了让员工学会用某款软件而去给他做大脑手术,你只需要给他发一份说明书。

3. 进化的终局:从“写代码”到“生技能”

这是目前学术界(如之前的 Voyager 论文)最迷人的方向:自动技能发现(Automatic Skill Discovery)

在未来的方法论中,Skills 可能不是由人类程序员预定义的,而是智能体在尝试解决问题的过程中,通过“尝试 -> 成功 -> 总结 -> 固化”循环自动生成的:

  • 尝试 (Trial):LLM 尝试调用多个原子工具解决了一个从未见过的问题。
  • 固化 (Codification):LLM 将这段成功的调用逻辑(Python 代码)提取出来。
  • 索引 (Indexing):将其存入 Skill Library,并打上标签。
  • 复用 (Reuse):下次遇到同类问题,它不再重新推理,而是直接加载这个生成的 Skill。

如何系统的学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

在这里插入图片描述

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

在这里插入图片描述

2025年大模型应用呈现爆发式增长,根据工信部最新数据:

国内大模型相关岗位缺口达47万

初级工程师平均薪资28K(数据来源:BOSS直聘报告)

70%企业存在"能用模型不会调优"的痛点

真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!

02.大模型 AI 学习和面试资料

1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工

📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐