AI巨头的“代码裸奔”事故:51万行源码遭泄露,竟因实习生级打包失误?
AI巨头Anthropic遭遇重大源码泄露事故,51万行Claude Code核心代码因打包失误被公开。事故源于npm发布时未排除.map文件,导致完整TypeScript源码通过source map暴露。泄露内容揭示Claude Code复杂架构及未发布功能,引发开发者狂欢和"净室重构"。这已是Anthropic近期第二次安全事故,暴露出AI公司重研究轻工程的结构性问题。事件
AI巨头的“代码裸奔”事故:51万行源码遭泄露,竟因实习生级打包失误?
一觉醒来,Claude的“底裤”被扒光了
2026年3月31日深夜,整个AI开发者社区炸开了锅。Anthropic——这家估值600亿美元、手握顶尖Claude模型的公司,在一次平平无奇的npm发布中,亲手将自家核心产品Claude Code的51.2万行源代码打包送上公网。
没有黑客攻击,没有内鬼泄密,没有0-day漏洞。肇事者是一行本该被忽略的配置,以及一个59.8MB的.map文件。
这场“代码裸奔”事件,不仅让全球开发者瞬间获得了一本免费的“顶级AI Agent工程教科书”,更撕开了AI行业光鲜外表下“头重脚轻”的结构性伤疤。
事件还原:一个.map文件引发的惨案
源码藏在哪里?
事情要从npm说起。Anthropic在发布@anthropic-ai/claude-code v2.1.88版本时,打包进了一个不该出现的东西——cli.js.map。
Source map本无过,它只是压缩代码与源码之间的“导航地图”。但问题在于,这份地图的sourcesContent字段,直接嵌入了所有TypeScript源文件的完整内容。

为什么是“实习生级”失误?
技术细节并不复杂:
- Claude Code使用Bun打包,Bun默认生成source map
- Anthropic既没在
.npmignore中排除.map文件 - 也没在构建配置中关闭source map生成
- 更致命的是——这已经是第二次了
2025年2月,Claude Code预览版发布时,就曾因同样的原因泄露过源码。显然,那次教训没能固化到发布流程中。
一错再错,堪称教科书级的“重复踩坑”案例。
泄露内容:不止是代码,更是“工程说明书”
当开发者们连夜下载、反解、分析这份59.8MB的宝藏时,他们发现:Claude Code远非简单的“API套壳”,而是一个工业级复杂的AI智能体系统。
1. 核心架构全曝光
| 模块 | 规模 | 作用 |
|---|---|---|
QueryEngine.ts |
4.6万行 | LLM调用、工具循环、上下文管理,堪称“超级大脑” |
| 工具模块 | 40+ | 文件编辑、Bash执行、LSP协议,配有六级权限门控 |
| 多智能体协调 | 完整实现 | Coordinator-Worker架构,支持并行子代理和复杂任务调度 |
2. 未发布的“彩蛋”与未来功能
代码中曝光了大量原计划未来上线或作为愚人节彩蛋的功能:
🐣 Buddy System(电子宠物)
一个完整的ASCII宠物养成系统:
- 18个物种可选
- 稀有度等级(闪光概率1%)
- 种子盐值
friend-2026-401——直指2026年愚人节
🤖 KAIROS(永驻AI)
一个可在后台持续运行的“守护进程”,具备**“夜间做梦”机制**——能在用户空闲时自主进行记忆整合和学习。如果这上线了,你的Claude可能晚上偷偷“复习”你白天的工作。
🚀 ULTRAPLAN(深度规划)
可将复杂任务上传云端,由更强的Opus 4.6模型思考长达30分钟后再返回结果。这是要搞“AI外包AI”的节奏。
🕵️ Undercover Mode(卧底模式)
专门用于在提交代码时自动抹除AI生成痕迹,防止内部信息泄露。结果——
这套系统没防住自己裸奔,堪称年度最大讽刺。
后续反应:封杀、换壳与行业震动
全网狂欢
源码被迅速备份至GitHub,仓库一夜冲上11,000+ Star和17,000+ Fork。开发者们像过年一样蜂拥而至,争相“学习先进经验”。
紧急封杀
Anthropic反应迅速,24小时内通过DMCA投诉封杀了所有原始TypeScript代码仓库。但这阻止了什么呢?
“净室”重构反杀
最有戏剧性的一幕来了。开发者Sigrid Jin在凌晨4点利用AI辅助工作流,将51万行TypeScript代码在几小时内分别重写为Python和Rust版本,发布了名为claw-code的“净室实现”。
由于是独立重写而非复制,版权投诉失效。
你用AI写的代码被AI泄露,然后被AI重写后开源——这就是2026年的魔幻现实。
行业技术拆解
AI大牛Sebastian Raschka等开发者深度拆解代码,总结了Claude Code的六大工程秘笈:
- 激进的Prompt缓存策略
- 结构化会话记忆机制
- 六级权限门控系统
- Coordinator-Worker多智能体协调
- LSP协议深度集成
- 精确的Token计数与成本控制
一位资深开发者感叹:“Claude Code靠的不是模型本身,是这套软件外壳。”
深层反思:AI巨头的“头重脚轻”
一周内的第二次安全事故
这不是Anthropic第一次“漏风”。3月26日——仅5天前——刚因CMS配置错误泄露了约3000份内部文件(含未发布模型“Claude Mythos”的草稿)。
过去半年还曝出过:
- CVE-2025-66032 高危漏洞
- 多次API密钥泄露事件
- Prompt注入攻击实例
结构性矛盾
Anthropic:估值600亿美元,模型能力世界顶尖(Sonnet 4.6 / Opus 4.6),核心团队多为研究型人才。
却在最基础的npm发布流程上反复栽跟头。
这折射出AI公司一个通病:研究能力强,工程能力弱。安全意识跟不上模型创新速度。
供应链风险警示
Anthropic的官方回应称“无敏感客户数据或凭证泄露”,定性为“人为失误”而非“安全入侵”。
但安全专家指出:源码暴露意味着攻击者可以系统性地分析权限模型漏洞,大幅增加Prompt注入和RCE的风险。
不是没出事,是还没出事。
写在最后:AI安全不能靠“裸奔”
51万行代码的泄露,给整个行业敲响了警钟:
- 工程安全是护城河,不是成本项。当AI被赋予越来越高的权限去管理代码和系统时,任何微小的工程疏忽都可能演变成波及全球的破坏性事件。
- 流程固化比技术崇拜更重要。再强的模型也救不了“实习生级”的配置失误。
- AI的安全,不能建立在“我相信它不会出事”的侥幸之上。
讽刺的是,Anthropic专门建了一套“Undercover Mode”系统来防止AI泄密,结果自己把全部源码打包发了上去。
愿这场“代码裸奔”成为行业的转折点,而不是开篇。
更多推荐




所有评论(0)