给 AI 编程助手装上“纪律“:Superpowers 与代码质量的平衡术
Superpowers是一个AI编程辅助框架,它通过强制AI执行结构化工作流程来解决当前AI编程工具"太快"的问题。这个GitHub热门项目(4.7万星)不是让AI写代码更快,而是让它写得更正确。它通过Markdown规则文件定义各种“技能”,强制AI在设计阶段提问、拆分任务、采用TDD开发、验证完整性。实际使用中,虽然开发时间增加75%,但代码质量显著提升,测试覆盖率达85%
AI 编程助手有个通病:太快了。
快到它根本不问你要解决什么问题,就开始写代码。快到测试、文档、边界情况统统跳过。快到你两分钟就拿到一个"能跑"的功能,然后花两天修它留下的坑。
Superpowers 的思路很简单:既然 AI 不会自己慢下来,那就强制它慢下来。
GitHub 4.7 万星,三个月内从 0 到现在。不是因为它让 AI 写代码更快,而是因为它让 AI 写对代码。
它是什么
Superpowers 是一个为 AI 编程助手设计的"技能框架"。它最初由 Jesse Vincent 在 2025 年 10 月发布,三个月内在 GitHub 上获得了 4.7 万颗星。
但它不是一个代码生成工具,也不是 AI 模型本身。它更像是一套"工作流程规范"——强制 AI 助手在写代码之前,先问清楚需求、设计方案、制定计划,然后才动手实现。
核心机制:Skills
Superpowers 的核心是"Skills"——一组用 Markdown 写成的规则文件,每个文件描述了在特定场景下 AI 应该遵循的工作流程。
比如:
- brainstorming:在写代码之前,先通过提问细化需求,最后生成一份设计文档
- test-driven-development:强制使用 TDD,先写测试,再实现功能
- systematic-debugging:四阶段调试流程,包括根因追踪和防御性编程
- verification-before-completion:在声称完成之前,必须验证功能真的可用
这些 Skills 不是"建议",而是强制执行的流程。只要 AI 助手检测到相关的场景,就会自动激活对应的 Skill。
它解决什么问题
如果你用过 Claude Code、Cursor、Aider 这类 AI 编程工具,应该遇到过这些情况:
场景一:跳过设计,直接写代码
你说:“帮我实现用户登录功能”,它立刻开始写代码。等你看到成品,才发现它没考虑密码加密、没做输入验证、也没有错误处理。
场景二:测试?不存在的
AI 生成的代码能跑,但没有测试。你想补测试,它说"好的",然后给你生成了一堆只测试 happy path 的敷衍测试。
场景三:改了一个 Bug,引入三个新 Bug
你让它修一个问题,它改了五个文件,跑起来好像没问题。两天后你发现,边界情况全崩了。
根本原因:AI 助手太"急"了。它的训练目标是"快速响应",不是"高质量交付"。
Superpowers 的思路很简单:既然 AI 不会自己慢下来,那就强制它慢下来。
它怎么工作
1. 强制设计阶段
启用 Superpowers 后,当你说"帮我实现 XX 功能",AI 不会立刻写代码。它会先激活 brainstorming skill,开始问你问题:
- 这个功能是给谁用的?
- 有哪些边界情况需要考虑?
- 性能要求是什么?
- 数据怎么存储?
问完之后,它会生成一份设计文档,分段展示给你确认。只有你批准设计后,它才进入下一步。
2. 自动制定计划
设计通过后,AI 激活 writing-plans skill,把工作拆分成一个个小任务(每个 2-5 分钟):
Task 1: 创建用户表结构 (2 分钟)
Task 2: 实现密码哈希函数 (3 分钟)
Task 3: 编写登录 API (5 分钟)
Task 4: 添加 JWT token 生成 (4 分钟)
...
3. TDD + 子代理并行执行
接下来,AI 会为每个任务启动一个"子代理",使用 TDD 流程实现:
- 先写测试(红灯)
- 实现功能(绿灯)
- 重构优化
多个任务可以并行执行。每个子代理完成后,会有一个 code-review 代理检查代码质量。
4. 验证完整性
所有任务完成后,verification-before-completion skill 启动,确保:
- 所有测试通过
- 文档已更新
- 没有遗留的 TODO
- 边界情况已覆盖
我的使用体验
拿一个实际项目说话:重构一个数据同步模块。
之前(纯 Claude Code):
- 时间:2 小时
- 生成代码:500 行
- 测试覆盖率:0%
- 发现的 Bug:上线后发现 3 个
启用 Superpowers 后:
- 时间:3.5 小时
- 生成代码:450 行(更简洁)
- 测试覆盖率:85%
- 发现的 Bug:在测试阶段就发现了 5 个
时间增加了 75%,但代码质量有了质的提升。更重要的是,我不用再花两天时间修 Bug 了。
最大的改变:从"写代码"到"想清楚"
启用 Superpowers 后,AI 会逼着你回答那些问题:边界情况是什么?性能要求多少?数据如何持久化?
以前我总想"先写出来再说",现在我会先把这些问题想清楚。想清楚之后,AI 帮我执行;执行的速度很快,但前期的思考时间省不了。
它适合谁
推荐使用 Superpowers 的场景:
- 复杂功能开发(2+ 小时的工作量)
- 生产环境代码(需要高质量和测试覆盖)
- 团队协作项目(需要统一代码质量标准)
- 需要长时间自主工作的 AI(多小时的自主开发)
不推荐的场景:
- 快速修 Bug(一两个文件的小改动)
- 原型验证(需要快速试错,结构性流程反而限制创造力)
- 单文件脚本(工作流开销大于收益)
- 探索性编程("试试这个想法"的阶段,结构会束缚思路)
核心判断标准:如果这段代码未来一周还要维护,用 Superpowers;如果只是临时用一次,不用。
它的局限性
说实话,Superpowers 不是银弹。
1. 认知负担增加
使用 Superpowers 后,你需要管理:
- 设计文档
- 实现计划
- 多个子代理的进度
- 代码审查反馈
有用户在 Hacker News 上说:“使用高级代理系统让开发在认知上变得’更累’——即使代码质量提高了,管理结构化工作流的心理负担是真实存在的。”
2. 缺乏严格的基准测试
目前 Superpowers 的效果主要依靠作者和用户的主观体验。有批评者指出:“看起来不错,但没有基准测试或评估方法,实际价值难以衡量。”
3. 安装复杂度差异大
- Claude Code:2 条命令,1 分钟搞定
- Codex / OpenCode:需要克隆仓库、创建符号链接、平台特定配置
4. 对简单任务过度工程
如果你只是想改一个变量名,Superpowers 会问你"为什么改?影响范围?有测试吗?"——这时候你会觉得,算了,我自己手动改吧。
金句时刻
如果 AI 的价值是"快",那 Superpowers 让它变"慢"了。
但它让"慢"变得有意义——慢在设计,快在执行。
Superpowers 的作者 Jesse Vincent 在博客里说,他现在能让 Claude 自主工作数小时,而他自己只需要在关键节点做决策。
这让我想起《反脆弱》里的一个观点:真正的效率不是"做得快",而是"做对的事"。
AI 能让我们写代码很快,但 Superpowers 提醒我们:快不是目的,对才是。
如何开始
如果你想试试 Superpowers,这是最简单的方法:
Claude Code 用户(推荐)
# 1. 添加插件市场
/plugin marketplace add obra/superpowers-marketplace
# 2. 安装 Superpowers
/plugin install superpowers@superpowers-marketplace
# 3. 重启 Claude Code
# 4. 验证安装
/help # 应该看到 /superpowers:brainstorm 等命令
其他平台
最后的思考
Superpowers 让 AI 变慢了吗?
从"开始写代码"的时间点看,是的。但从"交付可靠功能"的时间点看,它反而更快了——因为它省掉了后期改 Bug、补测试、重构烂代码的时间。
这个工具解决的不是"AI 写代码不够快"的问题,而是"AI 写代码太快、快到跳过了该有的流程"的问题。
它强制在 AI 的每个动作之间,留一点时间——设计、规划、测试、验证。这些时间,是 AI 找到"正确位置"的时间。
如果你现在用 AI 写的代码经常要返工,Superpowers 值得一试。
如果你现在用 AI 原型验证很爽,那就先别装这个——它会让你觉得束手束脚。
选择权在你手里。
Superpowers 项目地址:https://github.com/obra/superpowers
当前 Star 数:47.2k(截至 2026 年 2 月)
如果你觉得这篇文章有帮助,欢迎分享给也在使用 AI 编程工具的朋友。
如果你有使用 Superpowers 的经验或问题,欢迎在评论区讨论。
—— 欢迎关注公众号:夜猫子弦月 ——
白天写代码,晚上写文章,偶尔弹古琴
更多推荐


所有评论(0)