如果你每月花 200 美元订阅一款 AI 编程助手,却发现它开始对你隐瞒它在代码库里的所作所为——比如只告诉你「Read 3 files」,却不说是哪 3 个——你会作何感想?这并非假设,而是 Claude Code 用户近期遭遇的真实困境。这款由 Anthropic 公司推出的终端 AI 编程工具,在 2.1.20 版本中悄然移除了一个核心功能:实时显示文件路径和搜索模式的详细日志。这一改动在开发者社区引发了激烈反弹,甚至让人质疑 AI 工具的商业逻辑是否正在侵蚀技术透明度。

改动本身:从「显微镜」到「老花镜」的退化

在旧版本中,当 Claude Code 读取文件或执行搜索时,终端会清晰显示类似 src/utils/parser.ts 这样的具体路径,以及 grep -r "function validate" 这类精确命令。这种粒度让用户能瞬间判断 AI 是否跑偏:它是不是在读取过时的文档?是不是翻到了测试夹具里的错误示例?是不是像无头苍蝇一样在整个 monorepo 里乱搜?

新版本把这些全部替换成了 Read 3 filesSearched for 1 pattern 的模糊统计。Anthropic 的官方解释是「为大多数用户简化体验,减少噪音」。但正如一位用户在 GitHub issue 中尖锐指出:「Read 3 files (ctrl+o to expand) 这样的提示,如果不显示具体文件,其信息量基本等同于零——你不如干脆别显示它。」

更讽刺的是,所谓「展开」功能(Ctrl+O)并非实时显示,而是事后查阅,且在高强度使用场景下延迟严重。对于习惯在 AI 跑偏瞬间按 Ctrl+C 中断并纠正的开发者来说,这种事后诸葛亮等于剥夺了干预能力。

「Verbose 模式」的蹩脚药方

面对抗议,Anthropic 的解决方案不是回退或添加配置开关,而是建议用户启用 verbose 模式。但这剂药方的副作用让老用户更愤怒——verbose 模式会倾泻大量调试信息:完整的思考轨迹(thinking traces)、钩子输出、子代理完整会话,整个终端瞬间变成信息洪流。

社区的核心诉求非常明确:他们要的既不是完全隐藏,也不是洪水猛兽般的调试日志,而是恰到好处的透明度——仅显示文件路径和搜索模式,其他一概不要。一个布尔配置项就能解决,实现成本远低于在 verbose 模式上做微创手术。但 Anthropic 选择了一条更迂回的路径:逐步给 verbose 模式「减肥」,砍掉思考日志和钩子输出,试图把它改造成用户真正需要的样子。结果两头不讨好:习惯用 verbose 模式调试的人失去了工具,而想要简洁信息的用户还得忍受多余内容。

这种「用 verbose 模式冒充解决方案」的做法,被社区视为典型的 PM cope(产品经理式自我安慰)。就像航空公司取消免费餐后说「你可以付费购买商务舱」,本质是在回避用户最需要的经济舱升级。

GitHub 上的拉锯战

多个 GitHub issue中,开发者用近乎统一的口吻要求:「还我文件路径,至少给个开关。」但官方回复始终围绕 verbose 模式打转。

有用户用一句话点破荒谬:「如果 30 个人齐声说『回退或加开关』,你的回答却是『让我改造 verbose 模式来适应你』——这已经不是技术讨论,而是权力不对等。」

另一个高赞评论将此事定性为「enshittification」(平台劣化)的经典案例:先培养核心用户群体,再为扩大市场规模而牺牲深度功能。Anthropic 的超级碗广告还在宣称「我们从不轻视用户」,转头就在 GitHub 用「试试 verbose 模式」打发付费用户,这种反差被做成梗图疯狂传播。

Hacker News 上的派系撕裂

这场争论在 Hacker News 上呈现出鲜明的派系对立:

「Vibe Coders」与「老派工程师」的路线之争

一方认为:「Agentic coding 正在走向主流,默认设置必须照顾非技术用户。」这类用户被称为「vibe coders」——他们更关注最终结果,不在意 AI 翻了多少文件。有评论讽刺道:「如果你真需要知道读的是哪 3 个文件,也许 AI 辅助编程不适合你。」

但这种观点立刻遭到资深工程师的猛烈反击:「当你在 monorepo 里工作,发现 Claude 开始读取 /tmp/backup/old_docs 里的废弃文档时,你会感谢那个让你能瞬间喊停的路径显示。」更有人指出,非技术用户根本不会用终端工具,「如果他们连 bash 命令都不懂,CLI 本身就是错的 UX 选择,你该去推 Cowork 网页版。」

这场争论的实质,是 AI 工具究竟应该增强开发者能力,还是取代开发者认知。前者把 AI 当聪明但需监督的实习生,后者则希望 AI 是全自动黑箱。Claude Code 的改动被解读为向后者倾斜。

Opus 4.6 的质量疑云

多个用户报告,伴随 UI 改动,Opus 4.6 模型本身表现异常:简单查询会消耗 15k token 并「思考」三分钟,反复循环却无法解决问题,token 消耗速度达到 4.5 版本的 10 倍。有人实测,让模型读取 4 个文件(最长 380 行),它却用了 14 次工具调用,甚至对同一文件分别执行 head -n 20tail -n 20

更可疑的是,当用户接近日/周额度上限后,模型质量断崖式下跌,被戏称为「sleepy Claude」。这引发了阴谋论:Anthropic 是否在通过降低透明度掩盖 token 浪费?一位用户讽刺道:「他们刚做出 4.5 这个爆款,商业模式的毒性就 kick in 了——立刻开始 enshittify。」

Anthropic 工程师 Boris 在 HN 长文中解释,Opus 4.6 能「连续运行数分钟、数小时甚至数天」,导致输出量爆炸,必须简化终端显示。但社区不买账:既然 OpenCode 能同样流畅处理 Opus 4.6 的长输出,为何独独 Claude Code 要给用户戴眼罩?

商业逻辑的幽灵

更深层的担忧指向商业模型。Claude Code 的订阅制(Max 版每月 200 美元)与 API 按量计费形成鲜明对比。有用户用 ccusage 工具计算,他订阅的 token 用量若走 API 要花费 3000 美元/月——这意味着 Anthropic 在巨额亏损运营订阅服务。当公司面临 IPO 压力,「通过降低透明度让用户多耗 token」就成了理性选择。

一位产品经理背景的评论者点破:「这不是 UX 设计,这是经典的产品管理:以『提升用户体验』为名,行『降低服务成本』之实。」 更有开发者怀疑,简化输出是为后续推出更贵的「专业版」埋伏笔——先在免费/基础版砍功能,再让深度用户付费解锁。

这种猜测并非空穴来风。Anthropic 同时被诟病的还有屏蔽 OpenCode 等第三方客户端。OpenCode 是个开源的 Claude Code 替代 UI,功能更灵活,但 Anthropic 通过服务条款限制订阅用户接入,理由是「安全与合规」。这种「既要开源生态,又要商业闭环」的矛盾姿态,被社区视为 vendor lock-in(供应商锁定)的典型操作。

开源与自主的呼声

评论区反复出现一个名字:OpenCode。这个开源项目允许用户自定义 UI,甚至接入其他模型。尽管 Anthropic 试图封堵,技术用户总有办法绕开。有人提议用 straceinotify 系统调用监控 Claude 实际访问了哪些文件,还有人逆向工程了 Claude Code 的 minified JS 包。

更具建设性的讨论指向自托管方案。如项目 pi 所示,构建自有 Agent 框架、灵活切换 SOTA 模型,正在成为一种新思潮。正如一位用户所说:「如果你连自己的编程代理都无法控制,如何确保思考过程不被商业利益绑架?」

这让人联想到 RSS 阅读器、电子邮件客户端的历史——最初由商业公司主导,最终因开放标准而繁荣。AI 编程工具可能也正处在类似十字路口:是接受黑盒化、商业化的「便利」,还是拥抱可审计、可定制的「自由」?

历史回响:UI 简化的陷阱

有评论将这次改动比作 Skyrim 的「RPG 简化」——Bethesda 为扩大用户群,不断精简游戏系统,最终导致核心玩家流失,新作 Starfield 口碑崩盘。另一位用户回忆起微软 90 年代的「向导式」设计:认为隐藏 DOS 提示、用「下一步」按钮就能让所有人成为开发者,结果造就了一代只会点击不会思考的用户,直到 PowerShell 问世才部分纠正。

这些历史类比揭示了一个普遍规律:为『简化』而移除关键信息,往往是对核心用户的背叛。浏览器地址栏逐渐隐藏协议和证书详情、手机系统关闭电池健康数据——现代软件无处不在的「保护性简化」,正在培养用户的数字蒙昧主义。

对于编程工具,这种趋势尤为危险。当 AI 开始编辑生产环境代码,开发者需要的不只是结果,更是可审计的过程。知道 AI 访问了 /config/production.yml 而不是 /config/staging.yml,可能意味着一次 P0 事故和正常部署的区别。「Read 3 files」这种抽象,在关键时刻等于告诉消防员「某处有点热」。

尾声:当 AI 公司开始「vibe coding」自己的产品

颇具讽刺意味的是,Boris 在长文回复中承认:「最近的 PR 几乎都是 Claude Code 自己写的。」这解释了为何 UX 决策如此脱离实际——当团队自己也在「vibe coding」(靠 AI 感觉编码)时,很容易忽视那些需要人脑判断的细微差异。AI 不会抱怨 verbose 模式信息过载,因为它没有真正的工作流。

这也引出一个元问题:如果 Claude Code 的开发过程高度依赖 Claude Code,那么团队是否还能保持对用户体验的直觉?当「让 AI 写代码」成为常态,「为 AI 设计界面」是否会导致人类工程师失去对自身工具的批判性距离?

一位用户的总结或许最贴切:「Anthropic 的超级碗广告说『我们从不轻视用户』,但 GitHub 上的回复是『你们试试 verbose 模式』。这种精神分裂,比任何技术缺陷都更说明问题。」

目前,这场争论仍在继续。Anthropic 承诺在后续版本中改进 subagent 输出,但拒绝添加独立开关的立场未变。社区则在用脚投票:有人锁死在 2.1.19 版本,有人转向 Codex 5.3 或 OpenCode,还有人开始认真评估自研 Agent 的可行性。

但有一点已成共识——当 AI 工具开始隐藏它的思考过程,它失去的不仅是透明度,更是用户的信任。在技术世界中,信任比 token 更昂贵,也更难生成。

在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐