AI巨头的“代码裸奔”事故:51万行源码遭泄露,竟因实习生级打包失误?


一觉醒来,Claude的“底裤”被扒光了

2026年3月31日深夜,整个AI开发者社区炸开了锅。Anthropic——这家估值600亿美元、手握顶尖Claude模型的公司,在一次平平无奇的npm发布中,亲手将自家核心产品Claude Code51.2万行源代码打包送上公网。

没有黑客攻击,没有内鬼泄密,没有0-day漏洞。肇事者是一行本该被忽略的配置,以及一个59.8MB的.map文件

这场“代码裸奔”事件,不仅让全球开发者瞬间获得了一本免费的“顶级AI Agent工程教科书”,更撕开了AI行业光鲜外表下“头重脚轻”的结构性伤疤。


事件还原:一个.map文件引发的惨案

源码藏在哪里?

事情要从npm说起。Anthropic在发布@anthropic-ai/claude-code v2.1.88版本时,打包进了一个不该出现的东西——cli.js.map

Source map本无过,它只是压缩代码与源码之间的“导航地图”。但问题在于,这份地图的sourcesContent字段,直接嵌入了所有TypeScript源文件的完整内容

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

为什么是“实习生级”失误?

技术细节并不复杂:

  • Claude Code使用Bun打包,Bun默认生成source map
  • Anthropic既没在.npmignore中排除.map文件
  • 也没在构建配置中关闭source map生成
  • 更致命的是——这已经是第二次了

2025年2月,Claude Code预览版发布时,就曾因同样的原因泄露过源码。显然,那次教训没能固化到发布流程中。

一错再错,堪称教科书级的“重复踩坑”案例。


泄露内容:不止是代码,更是“工程说明书”

当开发者们连夜下载、反解、分析这份59.8MB的宝藏时,他们发现:Claude Code远非简单的“API套壳”,而是一个工业级复杂的AI智能体系统。

1. 核心架构全曝光

模块 规模 作用
QueryEngine.ts 4.6万行 LLM调用、工具循环、上下文管理,堪称“超级大脑”
工具模块 40+ 文件编辑、Bash执行、LSP协议,配有六级权限门控
多智能体协调 完整实现 Coordinator-Worker架构,支持并行子代理和复杂任务调度

2. 未发布的“彩蛋”与未来功能

代码中曝光了大量原计划未来上线或作为愚人节彩蛋的功能:

🐣 Buddy System(电子宠物)

一个完整的ASCII宠物养成系统:

  • 18个物种可选
  • 稀有度等级(闪光概率1%)
  • 种子盐值friend-2026-401——直指2026年愚人节
🤖 KAIROS(永驻AI)

一个可在后台持续运行的“守护进程”,具备**“夜间做梦”机制**——能在用户空闲时自主进行记忆整合和学习。如果这上线了,你的Claude可能晚上偷偷“复习”你白天的工作。

🚀 ULTRAPLAN(深度规划)

可将复杂任务上传云端,由更强的Opus 4.6模型思考长达30分钟后再返回结果。这是要搞“AI外包AI”的节奏。

🕵️ Undercover Mode(卧底模式)

专门用于在提交代码时自动抹除AI生成痕迹,防止内部信息泄露。结果——

这套系统没防住自己裸奔,堪称年度最大讽刺


后续反应:封杀、换壳与行业震动

全网狂欢

源码被迅速备份至GitHub,仓库一夜冲上11,000+ Star17,000+ Fork。开发者们像过年一样蜂拥而至,争相“学习先进经验”。

紧急封杀

Anthropic反应迅速,24小时内通过DMCA投诉封杀了所有原始TypeScript代码仓库。但这阻止了什么呢?

“净室”重构反杀

最有戏剧性的一幕来了。开发者Sigrid Jin在凌晨4点利用AI辅助工作流,将51万行TypeScript代码在几小时内分别重写为Python和Rust版本,发布了名为claw-code的“净室实现”。

由于是独立重写而非复制,版权投诉失效

你用AI写的代码被AI泄露,然后被AI重写后开源——这就是2026年的魔幻现实。

行业技术拆解

AI大牛Sebastian Raschka等开发者深度拆解代码,总结了Claude Code的六大工程秘笈

  • 激进的Prompt缓存策略
  • 结构化会话记忆机制
  • 六级权限门控系统
  • Coordinator-Worker多智能体协调
  • LSP协议深度集成
  • 精确的Token计数与成本控制

一位资深开发者感叹:“Claude Code靠的不是模型本身,是这套软件外壳。


深层反思:AI巨头的“头重脚轻”

一周内的第二次安全事故

这不是Anthropic第一次“漏风”。3月26日——仅5天前——刚因CMS配置错误泄露了约3000份内部文件(含未发布模型“Claude Mythos”的草稿)。

过去半年还曝出过:

  • CVE-2025-66032 高危漏洞
  • 多次API密钥泄露事件
  • Prompt注入攻击实例

结构性矛盾

Anthropic:估值600亿美元,模型能力世界顶尖(Sonnet 4.6 / Opus 4.6),核心团队多为研究型人才。

却在最基础的npm发布流程上反复栽跟头。

这折射出AI公司一个通病:研究能力强,工程能力弱。安全意识跟不上模型创新速度。

供应链风险警示

Anthropic的官方回应称“无敏感客户数据或凭证泄露”,定性为“人为失误”而非“安全入侵”。

但安全专家指出:源码暴露意味着攻击者可以系统性地分析权限模型漏洞,大幅增加Prompt注入RCE的风险。

不是没出事,是还没出事。


写在最后:AI安全不能靠“裸奔”

51万行代码的泄露,给整个行业敲响了警钟:

  • 工程安全是护城河,不是成本项。当AI被赋予越来越高的权限去管理代码和系统时,任何微小的工程疏忽都可能演变成波及全球的破坏性事件。
  • 流程固化比技术崇拜更重要。再强的模型也救不了“实习生级”的配置失误。
  • AI的安全,不能建立在“我相信它不会出事”的侥幸之上

讽刺的是,Anthropic专门建了一套“Undercover Mode”系统来防止AI泄密,结果自己把全部源码打包发了上去。

愿这场“代码裸奔”成为行业的转折点,而不是开篇

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐