AI 编程助手有个通病:太快了。

快到它根本不问你要解决什么问题,就开始写代码。快到测试、文档、边界情况统统跳过。快到你两分钟就拿到一个"能跑"的功能,然后花两天修它留下的坑。

Superpowers 的思路很简单:既然 AI 不会自己慢下来,那就强制它慢下来。

GitHub 4.7 万星,三个月内从 0 到现在。不是因为它让 AI 写代码更快,而是因为它让 AI 写对代码


它是什么

Superpowers 是一个为 AI 编程助手设计的"技能框架"。它最初由 Jesse Vincent 在 2025 年 10 月发布,三个月内在 GitHub 上获得了 4.7 万颗星。

但它不是一个代码生成工具,也不是 AI 模型本身。它更像是一套"工作流程规范"——强制 AI 助手在写代码之前,先问清楚需求、设计方案、制定计划,然后才动手实现。

核心机制:Skills

Superpowers 的核心是"Skills"——一组用 Markdown 写成的规则文件,每个文件描述了在特定场景下 AI 应该遵循的工作流程。

比如:

  • brainstorming:在写代码之前,先通过提问细化需求,最后生成一份设计文档
  • test-driven-development:强制使用 TDD,先写测试,再实现功能
  • systematic-debugging:四阶段调试流程,包括根因追踪和防御性编程
  • verification-before-completion:在声称完成之前,必须验证功能真的可用

这些 Skills 不是"建议",而是强制执行的流程。只要 AI 助手检测到相关的场景,就会自动激活对应的 Skill。


它解决什么问题

如果你用过 Claude Code、Cursor、Aider 这类 AI 编程工具,应该遇到过这些情况:

场景一:跳过设计,直接写代码

你说:“帮我实现用户登录功能”,它立刻开始写代码。等你看到成品,才发现它没考虑密码加密、没做输入验证、也没有错误处理。

场景二:测试?不存在的

AI 生成的代码能跑,但没有测试。你想补测试,它说"好的",然后给你生成了一堆只测试 happy path 的敷衍测试。

场景三:改了一个 Bug,引入三个新 Bug

你让它修一个问题,它改了五个文件,跑起来好像没问题。两天后你发现,边界情况全崩了。

根本原因:AI 助手太"急"了。它的训练目标是"快速响应",不是"高质量交付"。

Superpowers 的思路很简单:既然 AI 不会自己慢下来,那就强制它慢下来。


它怎么工作

1. 强制设计阶段

启用 Superpowers 后,当你说"帮我实现 XX 功能",AI 不会立刻写代码。它会先激活 brainstorming skill,开始问你问题:

  • 这个功能是给谁用的?
  • 有哪些边界情况需要考虑?
  • 性能要求是什么?
  • 数据怎么存储?

问完之后,它会生成一份设计文档,分段展示给你确认。只有你批准设计后,它才进入下一步。

2. 自动制定计划

设计通过后,AI 激活 writing-plans skill,把工作拆分成一个个小任务(每个 2-5 分钟):

Task 1: 创建用户表结构 (2 分钟)
Task 2: 实现密码哈希函数 (3 分钟)
Task 3: 编写登录 API (5 分钟)
Task 4: 添加 JWT token 生成 (4 分钟)
...

3. TDD + 子代理并行执行

接下来,AI 会为每个任务启动一个"子代理",使用 TDD 流程实现:

  1. 先写测试(红灯)
  2. 实现功能(绿灯)
  3. 重构优化

多个任务可以并行执行。每个子代理完成后,会有一个 code-review 代理检查代码质量。

4. 验证完整性

所有任务完成后,verification-before-completion skill 启动,确保:

  • 所有测试通过
  • 文档已更新
  • 没有遗留的 TODO
  • 边界情况已覆盖

我的使用体验

拿一个实际项目说话:重构一个数据同步模块。

之前(纯 Claude Code):

  • 时间:2 小时
  • 生成代码:500 行
  • 测试覆盖率:0%
  • 发现的 Bug:上线后发现 3 个

启用 Superpowers 后

  • 时间:3.5 小时
  • 生成代码:450 行(更简洁)
  • 测试覆盖率:85%
  • 发现的 Bug:在测试阶段就发现了 5 个

时间增加了 75%,但代码质量有了质的提升。更重要的是,我不用再花两天时间修 Bug 了

最大的改变:从"写代码"到"想清楚"

启用 Superpowers 后,AI 会逼着你回答那些问题:边界情况是什么?性能要求多少?数据如何持久化?

以前我总想"先写出来再说",现在我会先把这些问题想清楚。想清楚之后,AI 帮我执行;执行的速度很快,但前期的思考时间省不了。


它适合谁

推荐使用 Superpowers 的场景:

  1. 复杂功能开发(2+ 小时的工作量)
  2. 生产环境代码(需要高质量和测试覆盖)
  3. 团队协作项目(需要统一代码质量标准)
  4. 需要长时间自主工作的 AI(多小时的自主开发)

不推荐的场景:

  1. 快速修 Bug(一两个文件的小改动)
  2. 原型验证(需要快速试错,结构性流程反而限制创造力)
  3. 单文件脚本(工作流开销大于收益)
  4. 探索性编程("试试这个想法"的阶段,结构会束缚思路)

核心判断标准:如果这段代码未来一周还要维护,用 Superpowers;如果只是临时用一次,不用。


它的局限性

说实话,Superpowers 不是银弹。

1. 认知负担增加

使用 Superpowers 后,你需要管理:

  • 设计文档
  • 实现计划
  • 多个子代理的进度
  • 代码审查反馈

有用户在 Hacker News 上说:“使用高级代理系统让开发在认知上变得’更累’——即使代码质量提高了,管理结构化工作流的心理负担是真实存在的。”

2. 缺乏严格的基准测试

目前 Superpowers 的效果主要依靠作者和用户的主观体验。有批评者指出:“看起来不错,但没有基准测试或评估方法,实际价值难以衡量。”

3. 安装复杂度差异大

  • Claude Code:2 条命令,1 分钟搞定
  • Codex / OpenCode:需要克隆仓库、创建符号链接、平台特定配置

4. 对简单任务过度工程

如果你只是想改一个变量名,Superpowers 会问你"为什么改?影响范围?有测试吗?"——这时候你会觉得,算了,我自己手动改吧。


金句时刻

如果 AI 的价值是"快",那 Superpowers 让它变"慢"了。
但它让"慢"变得有意义——慢在设计,快在执行。

Superpowers 的作者 Jesse Vincent 在博客里说,他现在能让 Claude 自主工作数小时,而他自己只需要在关键节点做决策。

这让我想起《反脆弱》里的一个观点:真正的效率不是"做得快",而是"做对的事"。

AI 能让我们写代码很快,但 Superpowers 提醒我们:快不是目的,对才是。


如何开始

如果你想试试 Superpowers,这是最简单的方法:

Claude Code 用户(推荐)

# 1. 添加插件市场
/plugin marketplace add obra/superpowers-marketplace

# 2. 安装 Superpowers
/plugin install superpowers@superpowers-marketplace

# 3. 重启 Claude Code

# 4. 验证安装
/help  # 应该看到 /superpowers:brainstorm 等命令

其他平台


最后的思考

Superpowers 让 AI 变慢了吗?

从"开始写代码"的时间点看,是的。但从"交付可靠功能"的时间点看,它反而更快了——因为它省掉了后期改 Bug、补测试、重构烂代码的时间。

这个工具解决的不是"AI 写代码不够快"的问题,而是"AI 写代码太快、快到跳过了该有的流程"的问题。

它强制在 AI 的每个动作之间,留一点时间——设计、规划、测试、验证。这些时间,是 AI 找到"正确位置"的时间。

如果你现在用 AI 写的代码经常要返工,Superpowers 值得一试。
如果你现在用 AI 原型验证很爽,那就先别装这个——它会让你觉得束手束脚。

选择权在你手里。


Superpowers 项目地址https://github.com/obra/superpowers
当前 Star 数:47.2k(截至 2026 年 2 月)

如果你觉得这篇文章有帮助,欢迎分享给也在使用 AI 编程工具的朋友。
如果你有使用 Superpowers 的经验或问题,欢迎在评论区讨论。


—— 欢迎关注公众号:夜猫子弦月 ——
白天写代码,晚上写文章,偶尔弹古琴

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐