最近一年都在讨论 Agent。MCP、Subagent、多 Agent、工作流,一个比一个高级。但我想问你一个很简单的问题:

当你说“我在用 Agent”的时候——

你到底是在给 AI 工具,

还是在让它真的学会一种能力?

直到我认真看完 Claude Code Skills 的设计,我才意识到:我们很可能一直在把这几件事混着用。

这篇文章,我想用最直观的比喻,把一件事讲清楚:

Claude Code Skills,和 MCP、Subagent、工作流,

到底解决的是不是同一类问题。


什么是 Claude Code Skills?

Anthropic 推出的 Claude Code 中,
Skills 并不是一个新的工具接口,也不是新的 Agent 类型
而是一种 对 Agent 能力进行组织和加载的官方机制设计

Anthropic 在 Claude Code 里的核心判断是:

Agent 的问题,已经不只是“能不能接工具”,
而是“如何在不污染上下文的情况下,合理使用这些能力”。

基于这个判断,Claude Code 对不同概念做了非常清晰的区分:

  • MCP(Model Context Protocol)
    是 Anthropic 提出的 工具接入与上下文协议
    解决的是:👉 “AI 如何标准化地访问外部工具与能力”
  • Subagent / Multi-Agent 架构
    是一种 任务分工与并行执行的系统设计
    解决的是:👉 “不同类型的任务,如何由不同 Agent 负责”
  • Workflow
    是一种 预定义执行路径的流程机制
    解决的是:👉 “在确定步骤的前提下,如何稳定地完成任务”

Claude Code Skills,关注的是完全不同的一件事:

在保持单一 Agent 连贯思考的前提下,
如何让 Agent 具备可扩展、可复用、按需加载的“能力”。

因此,从 Anthropic 的官方设计视角来看:

  • MCP 关注的是 工具接口
  • Subagent 关注的是 角色分工
  • Workflow 关注的是 执行顺序
  • Skills 关注的是 Agent 的“能力结构”

这也是为什么这四个概念经常被一起提起,但并不处在同一个层级


用最直观的比喻

  • MCP:你手里多了一把锤子
  • Subagent:你多雇了一个木匠
  • Workflow:你照着装修步骤做
  • Skills:你学会了“木工”这项技能

再换几个更极端的比喻:

  • Skills ≠ 给你一艘船
  • Skills = 你学会了游泳
  • Skills ≠ 给你一架钢琴
  • Skills = 你学会了弹钢琴
  • Skills ≠ 给你翅膀
  • Skills = 你学会了飞天遁地

👉 这是“能力内化”,不是“工具外挂”


Claude Code Skills 在技术上是怎么做到这件事的?

这里我们才进入技术层,但逻辑其实已经很好懂了。

Claude Code 里,一个 Skill 本质上就是一种能力,而每一种能力,都会用一个 SKILL.md 文件来描述。这个文件并不是随便写一段说明,而是有明确分工的:它不会把所有细节一次性塞给 Agent。

SKILL.md 里的第一部分,是对这项能力的“认知描述”——它是干嘛的、什么时候该用、适合什么场景。这一层信息会被提前加载进 Agent 的上下文,让 Claude 知道:“我会游泳、会开车、会做饭。”

而真正的操作细节,则被放在第二层:具体要怎么做、用哪些命令、有哪些执行步骤。这一部分 默认不会加载,只有在 Agent 判断“现在真的需要用这项能力”时,才会通过工具去读取对应内容。这种只在需要时才展开细节的设计,有一个很贴切的名字,叫 渐进式披露(Progressive Disclosure)

这套设计,正好击中了老一代 Agent 架构的两个致命问题。以前的 Agent,往往会在一开始就把所有工具、所有说明一次性塞进 Prompt 里,结果就是 Prompt 迅速膨胀,不仅 Token 成本高,而且大量“暂时用不到的信息”会直接参与思考,反而干扰判断。Claude Code Skills 的做法完全相反:Agent 只需要记住“我会什么能力”,而不是“每个能力具体怎么用”,真正的执行细节,等到需要时再去读取。

这也直接缓解了上下文污染的问题。旧模式下,思考阶段和执行阶段混在一起,Agent 在推理时就已经背着一堆操作细节;而 Skills 把这两件事拆开了——思考阶段的上下文保持极度干净,只围绕“要不要用某个能力”来判断,等确定要行动了,才加载对应的细节去执行。这正是 Claude Code Skills 的核心价值所在。


Claude Code Skills 目前能在哪用,这一点一定要说清楚。

到目前为止,官方原生支持 Skills 的,只有 Anthropic 自己的 Claude Code。像 Cursor、VS Code 这些 IDE,本身并不支持 Claude Code 的 Skills 机制,如果你想在这些环境里复刻类似能力,就需要借助 OpenSkills 之类的开源工具实现。换句话说,Claude Code 是“技能系统的原厂设计”,而其他 IDE 更多是社区在做的“能力复刻版”,理念相同,但并非官方内建。

理解了这一点,再来看 Skills 的配置,其实就会发现它并不复杂。Skill 本质上就是一段你写给 AI 的“能力说明书”:告诉它这项能力是干嘛的、什么时候该用,以及一旦要用,具体应该怎么做。在 Claude Code 里,这通常是通过一个 SKILL.md 文件来完成的。

比如,一个最小可用的 Skill,可以只描述一件事——如何完成一次规范的 git 提交。你只需要在某个 skills 目录下创建一个文件夹,并写一个类似这样的 SKILL.md

# Skill: Git Commit
## Description
用于在当前项目中完成一次规范的 git 提交。
## When to use
当代码修改完成,需要提交版本时。
## Steps
1. 执行 `git status`,确认当前修改内容
2. 执行 `git add .`
3. 执行 `git commit -m "简要描述本次修改内容"`

当 Claude Code 在对话中判断:“现在这个场景需要提交代码”,它并不会一开始就加载这些执行细节,而是在决定要用这个能力之后,再读取对应的 SKILL.md,并按你写好的步骤,通过 Bash 等工具逐条执行。这也是为什么 Skills 不会造成 Prompt 爆炸——它们是按需展开的

Claude Code 官方自带的 Skills,主要覆盖的也是这些基础工程能力,比如 Git 操作、Bash 命令、文件系统访问,以及项目的构建、运行和测试。但真正值钱的,并不在这些内置能力上,而在于你自己能把什么经验沉淀成 Skill。你完全可以把「初始化一个 AI 项目」「Next.js + Supabase 的固定搭法」「一套 Vibecoding 的 PRD → 代码流程」「部署到 Vercel 的完整步骤」,甚至是「我个人偏好的代码规范和工作习惯」,都写成类似这样的 Skill。从这个角度看,Skill 本质上就是你经验的“可复用形态”。


到这里,其实已经可以看清楚 Claude Code Skills 想解决的到底是什么问题了。它不是在和 MCP、Subagent、工作流“抢位置”,而是在补一个长期被忽略的空缺:Agent 到底该如何管理自己的能力结构

当你开始把 Skill 当成“能力”,而不是“工具说明”,很多设计选择就会变得顺理成章——为什么要按需加载、为什么要保持单 Agent 的连贯性、为什么它对个人开发者特别友好。这不是一个小技巧,而是 Agent 架构在走向长期可维护之前,必须补上的一块拼图。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐