装上这四个技能,让你的 AI 真正能干活

在这里插入图片描述

这篇是手把手教你如何自己创建skills。

上一篇给 AI 装技能的四个工具聊了 find-skillsskill-creatorbrainstormingsystematic-debugging 四个工具的定位。这篇教你装上它们,跑通一个完整的使用闭环。

先看装完之后你会得到什么能力。

🔍 find-skills
搜技能

📐 brainstorming
想清楚

🛠️ skill-creator
造技能

🐛 debugging
修问题

搜技能。想清楚。造技能。修问题。四个环节,一个闭环。

好。开始。

第一步:安装四个工具

前提:你已经装好了 Claude Code 或其他支持 Skills 的 AI Agent。

安装 Superpowers(包含 brainstorming 和 systematic-debugging)。

claude install-skill https://github.com/obra/superpowers

安装 Anthropic 官方 Skills(包含 skill-creator)。

claude install-skill https://github.com/anthropics/skills

安装 Vercel find-skills。

claude install-skill https://github.com/vercel-labs/skills

装完验证。在终端跑一下。

npx skills find test

如果能看到搜索结果,说明 find-skills 装好了。

在 Claude Code 里输入 /,看看命令列表里有没有 brainstorming 相关的命令。有就说明 Superpowers 装好了。

第二步:用 find-skills 搜一个技能

先练手。假设你想让 AI 帮你写单元测试。

在终端里执行。

npx skills find "unit testing"

它会列出相关的技能。每个技能显示名称、功能说明、安装命令。

找到了

没找到

npx skills find
输入关键词

搜索结果
按安装量排序

找到合适的?

一键安装

自己造

找到合适的就直接装。找不到就自己造。

不习惯命令行的话,打开 skills.sh 网站。可以按领域浏览。

几个搜索技巧。

关键词要具体。不要搜「testing」,搜「react unit testing」。

看安装量。排在前面的是经过大量用户验证的。优先选这些。

看更新时间。超过半年没更新的要谨慎。

第三步:用 brainstorming 设计一个需求

现在你有了一个想法。比如想给项目加一个用户反馈功能。

不要直接动手写。先跑 brainstorming。

在 Claude Code 里描述你的需求。AI 会自动触发 brainstorming 流程。

它会按这个顺序走。

📋 方案确认

2-3个方案对比

逐模块确认

💬 细化需求

逐个提问

明确标准

🔍 了解上下文

查项目文件

查提交记录

第一步它不会直接问你要做什么。它会先看你的项目。查文件、查文档、查最近的提交。了解上下文。

然后才开始提问。一次一个问题。不会一口气问你十个。

你的目的是什么。有什么约束条件。成功标准是什么。用户场景是什么。

问清楚之后,它会给出2-3个方案。每个方案的优缺点写清楚。附上推荐理由。

你选一个方向。它按模块逐步展示设计。每个模块你确认了才推进下一个。

全部确认后,设计文档自动存入 docs/plans/ 目录。

然后才能开始写代码。

一条硬规则。哪怕你觉得这个需求很简单。也要走完这个流程。越简单的需求越容易因为跳过设计而踩坑。

第四步:用 skill-creator 造一个自己的技能

假设你搜了一圈,没找到合适的技能。需要自己造。

先想清楚这个技能要做什么。用 brainstorming 走一遍设计(对,造技能之前也要先设计)。

设计确认后,告诉 AI 你要创建一个新的 Skill。skill-creator 会引导你走完整个流程。

先初始化目录。

python scripts/init_skill.py my-skill

生成的目录结构。

my-skill/
├── SKILL.md       ← 核心文件,必须有
├── scripts/       ← 可选,放脚本
├── references/    ← 可选,放参考文档
└── assets/        ← 可选,放模板和图片

然后写 SKILL.md。这是核心。分两部分。

---
name: my-skill
description: 用一句话说清楚这个技能做什么(约100词)
---

# 技能名称

具体的执行指令写在这里。
告诉 AI 什么时候用这个技能。
用了之后按什么步骤做。
做完之后怎么验证。

控制在5000词以内。

YAML 元数据是 AI 判断是否触发的依据。description 写得好,触发就准。写得模糊,AI 就不知道什么时候该用。

写完之后不是直接发布。是跑测试。

🔄 迭代

不满意

满意

📦 发布

扩大测试集

打包发布

✏️ 编写

写初稿

准备测试prompt

跑测试

满意?

改指令

写 → 测 → 改 → 再测。循环迭代直到满意。

满意之后打包。

python scripts/package_skill.py my-skill

会自动校验结构完整性,剔除冗余文件,生成 .skill 安装包。

四个设计原则要记住。

渐进式加载。不要把所有内容都塞进 SKILL.md。AI 先读元数据,触发了再读正文,需要时再读引用资源。

自由度匹配。任务越精细指令越具体。任务越灵活指令越宽松。

最小化冗余。不加 README、安装指南这些 AI 不需要的东西。

可验证性。自带结构校验。元数据完整性、脚本可执行性、资源路径引用。

第五步:用 systematic-debugging 排查问题

代码写着写着出 Bug 了。测试跑不过。行为不符合预期。

不要凭感觉改。跑 systematic-debugging。

铁律。没有找到根本原因之前,禁止尝试任何修复。

四个阶段。必须按顺序走。

🧪 假设测试

通过

不通过

✅ 落地修复

写失败测试

修复根因

📊 模式分析

找相似代码

对比差异

🔍 根因调查

读错误信息

稳定复现

检查改动

单一假设

通过?

阶段一。根因调查。仔细读错误信息,不要跳过。稳定复现问题。检查最近的代码和配置改动。如果是多组件系统,在每个组件边界加诊断日志,看数据在哪一层断掉了。

阶段二。模式分析。找到功能相似的、能正常工作的代码。对比两者差异。不要主观判定某个差异无关紧要。

阶段三。假设测试。针对根因提出一个假设。用最小改动测试。一次只改一个变量。如果测试不通过,回到阶段一重新调查。不要在这里连续猜。

阶段四。落地修复。先写一个会失败的测试用例。然后修复根因。最后验证修复效果。

如果连续3次修复失败。停下来。不是继续试。是退一步审视架构设计是否有问题。

完整闭环

四个工具组合起来,覆盖 AI 开发的全流程。

🚀 场景三:执行

开发执行

debugging 排查

🛠️ 场景二:定制

brainstorming 设计

skill-creator 开发

🔍 场景一:日常

find-skills 搜索

直接安装

三种场景。日常先搜再用。定制先设计再造。执行先设计再做,出问题系统排查。

第一次用的建议

从 find-skills 开始。搜一个你当前项目需要的技能。装上试试。感受一下「给 AI 加技能」是什么体验。

然后找一个小需求。跑一遍 brainstorming。感受「先设计再动手」的节奏。

等你觉得现有技能不够用了。再用 skill-creator 造一个自己的。从最简单的开始。一个只有 SKILL.md 的技能就够了。

systematic-debugging 不用刻意练。等你遇到 Bug 的时候自然会用上。记住铁律就行。没找到根因之前不要动手修。

容易踩的坑

第一个。find-skills 搜到了就直接装,不看文档。有些技能的触发条件很特殊。装之前看一眼 SKILL.md 的 description,确认它做的是你想要的。

第二个。brainstorming 觉得太慢想跳过。越简单的需求越容易跳过。但越简单的需求越容易因为没想清楚而返工。几句话的设计也是设计。

第三个。skill-creator 写 SKILL.md 的 description 太模糊。比如只写「帮助用户写代码」。AI 不知道什么时候该触发。要写具体。「当用户需要为 React 组件编写单元测试时触发」。

第四个。systematic-debugging 没找到根因就开始改。改了一个地方没用,又改另一个。越改越乱。铁律就是铁律。先调查,再修复。

第五个。一上来就想造一个复杂的技能。先从最简单的开始。一个 SKILL.md 加几条指令。跑通了再加 scripts 和 references。

不是让 AI 更聪明。是给 AI 装上对的技能。

从搜一个技能开始。

开源地址:
find-skills · skill-creator · brainstorming · systematic-debugging

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐