达里奥·阿莫迪的崛起之路
作为Anthropic公司的首席执行官,他在 2025 年一直处于竞争状态,与行业同行、政府成员以及公众对人工智能的认知发生争执。近几个月来,他预测 AI 可能很快将淘汰 50% 的初级白领工作岗位。他在《纽约时报》的版面上抨击了为期十年的人工智能监管暂停令。他还呼吁对中国实施半导体出口管制,此举招致英伟达 CEO 黄仁勋的公开谴责。在这一切纷争中,阿莫迪在旧金山市中心公司总部一楼与我见面。他显得
《达里奥·阿莫迪的崛起之路》
AI’s most outspoken leader found direction in a personal tragedy.
当被问及最近的举动时,达里奥·阿莫迪毫不迟疑。 作为Anthropic公司的首席执行官,他在 2025 年一直处于竞争状态,与行业同行、政府成员以及公众对人工智能的认知发生争执。
近几个月来,他预测 AI 可能很快将淘汰 50% 的初级白领工作岗位。他在《纽约时报》的版面上抨击了为期十年的人工智能监管暂停令。他还呼吁对中国实施半导体出口管制,此举招致英伟达 CEO 黄仁勋的公开谴责。
在这一切纷争中,阿莫迪在旧金山市中心公司总部一楼与我见面。他显得轻松、精力充沛,急切地想要开始这次对话,仿佛一直在等待这个机会来阐述自己的行动。他身穿蓝色 V 领开衫搭配休闲白 T 恤,戴着方框粗边眼镜,坐下来后直视前方。
阿莫迪表示,他这些行动背后是一种坚定的信念:AI 的发展速度比大多数人所认识到的要快得多,其机遇和后果比表面看起来要近得多。"我确实是最看好 AI 能力将飞速提升的人之一,"他告诉我。“随着我们越来越接近更强大的 AI 系统,我越来越想更有力、更公开地表达这些观点,让问题更加清晰。”
阿莫迪直言不讳的态度和强硬手段在硅谷既赢得尊重也招致批评。有些人视他为技术先驱——他开创了 OpenAI 的 GPT-3 项目(ChatGPT 的雏形),是一位注重安全、脱离 OpenAI 创立 Anthropic 的领导者。另一些人则认为他是一个控制欲强的"末日论者",想要减缓 AI 发展,按自己的喜好塑造 AI,并将竞争对手排除在外。
无论爱他还是恨他,AI 领域都必须面对他。阿莫迪已将目前估值 610 亿美元的 Anthropic 打造成一股经济力量。从 2021 年从零起步,该公司——尽管仍处于亏损状态——将其年化经常性收入从 2025 年 3 月的 14 亿美元增长到 5 月的 30 亿美元,再到 7 月的近 45 亿美元,这让阿莫迪称其为"在其规模上历史上增长最快的软件公司"。
或许比 Anthropic 的收入更值得注意的是其收入来源。与主要依靠像 OpenAI 的 ChatGPT 这样的应用程序不同,阿莫迪最大的赌注在于底层技术本身。阿莫迪告诉我,公司大部分收入是通过其 API 获得的,即其他公司购买 Anthropic 的 AI 模型并在自己的产品中使用。因此,Anthropic 将成为AI进展的晴雨表,其成败将取决于技术的强度。
随着 Anthropic 的发展壮大,阿莫迪希望其影响力能帮助他影响行业方向。鉴于他愿意公开发言、发起攻击并承受反击,他可能是正确的。
如果这个人将引领世界最具影响力的新技术,那么了解是什么驱动着他、他的业务以及为什么他的时间表比其他人更短就很有价值。在与他、他的朋友、同事和竞争对手进行了二十多次访谈后,我相信我找到了答案。
一种可治愈的疾病
达里奥·阿莫迪(Dario Amodei) 是个科学少年。1983 年出生于旧金山,母亲是犹太人,父亲是意大利人,他几乎只对数学和物理学感兴趣。当互联网泡沫在他高中时期爆发时,他几乎毫无察觉。"写个网站对我来说毫无兴趣,"他告诉我。“我感兴趣的是发现基本的科学真理。”
在家里,阿莫迪与父母关系非常亲密,这对充满爱心的夫妇告诉他要改善世界。他的母亲埃琳娜·恩格尔负责伯克利和旧金山图书馆的翻新和建设项目。他的父亲里卡多·阿莫迪是一名受过训练的皮革匠。"他们带给了我一种是非观,以及世界上什么是重要的,"他说,“灌输了一种强烈的责任感。”
这种责任感在阿莫迪在加州理工学院的本科时期就显现出来,当时他批评同学们对即将爆发的伊拉克战争漠不关心。"问题不在于每个人都对轰炸伊拉克感到满意;而在于大多数人在原则上反对,却不愿花一毫秒的时间去行动,"阿莫迪在 2003 年 3 月 3 日的《加州理工》学生报纸上写道。“这需要立即改变,毫不拖延。”
然后,在他二十出头时,阿莫迪的生活永远改变了。长期与罕见疾病抗争的父亲里卡多于 2006 年去世。里卡多的离世震惊了阿莫迪,他将普林斯顿大学的研究生学习从理论物理学转向生物学,以解决人类疾病和生物问题。
在某种程度上,阿莫迪余生都致力于解决父亲的离世问题,尤其是因为四年后,一项新突破将这种疾病的死亡率从50%降低到5%。"有人研究了这种疾病的治愈方法,成功治愈了它,拯救了许多人的生命,"阿莫迪说,“但本可以拯救更多人。”
“当我听到有人说’这家伙是个末日论者,他想减缓发展’时,我真的非常愤怒” - 达里奥·阿莫迪
阿莫迪父亲的去世至今影响着他的生活道路,与他在 2010 年代初约会的 Jade Wang 说道。"这关系到他父亲是可能死亡还是可能活着,好吗?"她解释说,如果科学进步稍微加快一点,阿莫迪的父亲可能还活着。只是他花了一段时间才找到 AI 作为实现这一目标的载体。
回忆起父亲的去世,阿莫迪变得激动起来。他认为自己对出口管制和 AI 安全措施的呼吁被误解为不理性地试图阻碍 AI 进步的人所为。“当我听到有人说‘这家伙是个末日论者,他想减缓发展’时,我真的非常愤怒”,阿莫迪告诉我。你听到我刚才说的话了吗,我父亲因为那些本可以早几年带来疗法的事情而去世。我理解这项技术的好处。”
AI作为解决方案的出现

在普林斯顿大学,阿莫迪仍因父亲的去世而痛苦,他开始通过研究视网膜来破解人类生物学。我们的眼睛通过向视觉皮层发送信号来捕捉世界——大脑的很大一部分占大脑皮层的 30%——然后处理数据并向我们展示图像。如果你想要解决人类生理学的复杂性,视网膜是一个很好的起点。
"他利用视网膜来观察完整的神经元群体,并实际理解每个细胞在做什么,或者至少有机会这样做,"阿莫迪在普林斯顿的同时代人 Stephanie Palmer 告诉我。“这更多是关于神经元而非眼睛。他不是想成为一名眼科医生。”
在 Michael Berry 教授的视网膜实验室工作时,阿莫迪对测量视网膜信号的可用方法如此不满意,以至于他共同发明了一种新的、更好的传感器来收集更多数据。这在实验室中是不寻常的,既令人印象深刻又不循规蹈矩。他的论文获得了赫兹论文奖,这是一个授予在学术工作中发现实际应用的人的 prestigious 奖项。
但阿莫迪喜欢挑战规范的倾向,以及他对事物应该如何的坚定看法,使他在学术环境中显得与众不同。Berry告诉我,阿莫迪是他有史以来最有才华的研究生,但他对技术进步和团队合作的关注在重视个人成就的体系中并不受欢迎。
"我认为从内心来说,他是个骄傲的人,"Berry 告诉我。“我想象他整个学术生涯到那时为止,每当他做某事时,人们都会站起来鼓掌。但在这里并没有发生。”
“他不是想成为一名眼科医生。” - Stephanie Palmer
当阿莫迪离开普林斯顿时,AI 的大门打开了。他在斯坦福大学在研究员 Parag Mallick 手下开始博士后工作,研究肿瘤内外的蛋白质以检测转移性癌细胞。这项工作很复杂,让阿莫迪看到了仅靠个人能力的局限性,他开始寻找技术解决方案。"生物学中潜在问题的复杂性感觉超出了人类规模,"阿莫迪告诉我。“要理解这一切,你需要数百、数千名人类研究人员。”
阿莫迪在新兴的 AI 技术中看到了这种潜力。当时,数据和计算能力的爆炸式增长正在推动机器学习的突破,这是 AI 的一个子集,长期以来理论上具有潜力,但直到那时结果一直平平。阿莫迪开始尝试这项技术后,意识到它最终可能取代那些数千名研究人员。" AI,我当时刚开始看到其中的发现,对我来说似乎是唯一能够弥合这一差距的技术,"他说,“能够将我们带入超越人类规模的境界。”
阿莫迪离开学术界,进入企业界追求 AI 进步,因为企业界有资金支持。他考虑创办一家初创公司,然后倾向于加入谷歌,后者拥有资金充足的 AI 研究部门 Google Brain,并刚刚收购了 DeepMind。但中国搜索引擎百度已经向受人尊敬的研究员吴恩达提供了 1 亿美元的预算来研究和部署人工智能,他开始组建一个超级团队。吴联系了阿莫迪,阿莫迪很感兴趣并申请了。
当阿莫迪的申请到达百度时,整个团队不知道该如何处理。“他有令人印象深刻的背景,但从我们的角度来看,他的背景是在生物学,而不是机器学习,” 该团队的早期团队成员 Greg Diamos 告诉我。Diamos 随后查看了阿莫迪在斯坦福大学的代码,并鼓励团队聘用他。“我在想,能写出这种代码的人一定是个极其优秀的程序员,”他说。阿莫迪于 2014 年 11 月加入百度。
AI 扩展法则的出现
凭借其丰富的资源,百度团队可以将计算能力和数据投入到问题中,以尝试改善结果。他们看到了显著的成果。在实验中,阿莫迪和他的同事们发现,随着他们添加更多这些"原料",AI 的性能得到了显著改善。团队发布了一篇关于语音识别的论文,表明模型大小与性能直接相关。"这对我影响很大,因为我看到了这些非常平滑的趋势,"阿莫迪说。
阿莫迪在百度的早期工作为所谓的 AI "扩展法则"做出了贡献,这实际上更多是一种观察。扩展法则指出,增加 AI 训练中的计算能力、数据和模型大小会导致可预测的性能提升。换句话说,扩大所有这些要素会使 AI 变得更好,不需要新的方法。"这是我一生中看到的最重要的发现,"Diamos告诉我。
时至今日,阿莫迪可能是 AI 研究领导者中对扩展法则最坚定的信仰者。虽然像谷歌 DeepMind CEO Demis Hassabis 和 Meta 首席 AI 科学家 Yann LeCun这样的同行建议 AI 行业需要进一步的突破才能达到人类水平的人工智能,但阿莫迪则以一种确定性——尽管不是完全确定——表示前进的道路是清晰的。随着行业建造规模相当于小城市的大型数据中心,他看到极其强大的 AI 即将到来。
"我看到了这个指数级增长,"他说。“当你处于指数级增长中时,你真的可能被它欺骗。当指数级增长变得完全疯狂时,两年前看起来它才刚刚开始。”
在百度,AI 团队的进展成为了其失败的种子。公司内部爆发了地盘争夺战,争夺其日益宝贵的技术、专有技术和资源的控制权。最终,中国权力掮客的干预引发了人才外流,实验室分崩离析。吴恩达拒绝评论。
随着百度 AI 团队的崩溃,埃隆·马斯克邀请阿莫迪和一些领先的 AI 研究人员参加了在门洛帕克 Rosewood 酒店举行的著名晚宴。Sam Altman、Greg Brockman 和 Ilya Sutskever 都出席了。
看到 AI 的新兴潜力,并担心谷歌可能巩固对其的控制,马斯克决定资助一个新的竞争对手,这就是后来的 OpenAI。Altman、Brockman 和 Sutskever 与马斯克共同创立了这个新的研究机构。阿莫迪考虑加入,但对这个新生组织感到不确定,转而去了 Google Brain。
在谷歌陷入大公司泥潭十个月后,阿莫迪重新考虑了。他于 2016 年加入OpenAI,并开始从事 AI 安全工作。他在谷歌时就对快速改进的技术可能造成的危害产生了兴趣,并共同撰写了一篇关于其潜在不良行为的论文。
当阿莫迪在 OpenAI 安顿下来时,他的前谷歌同事在一篇名为"注意力就是一切"的论文中介绍了 transformer 模型,这是当今生成式 AI 时刻背后的技术。 transformer 实现了更快的训练和比先前方法大得多的模型。尽管这一发现潜力巨大,但谷歌基本上搁置了它。
与此同时,OpenAI 开始行动。它于 2018 年发布了第一个大型语言模型"GPT"("T"代表transformer),该模型生成的文本常常不连贯,但仍然显示出比先前语言生成方法的显著改进。
作为已成为 OpenAI 研究总监的阿莫迪,直接参与了下一代 GPT-2,这实际上与 GPT 是相同的模型,只是更大。OpenAI 团队使用一种称为"人类反馈的强化学习"的技术微调了 GPT-2,这有助于引导其价值观,阿莫迪帮助开创了这一技术。GPT-2 的表现比 GPT 好得多,展示了改写、写作和回答问题的能力。语言模型很快成为 OpenAI 的焦点。
随着阿莫迪在 OpenAI 内部的影响力增加,围绕他的争议也随之增加。作为一名多产的作家,他会撰写关于价值观和技术的长篇文档,一些同事认为这是鼓舞人心的,而另一些同事则认为这是在树立旗帜和过于强硬。
(其中一份备忘录:探讨"M"公司与"P"公司的区别,其中 M 公司提供以市场为导向的商品,P 公司提供以公共为导向的商品)。对某些人来说,阿莫迪还过于专注于保持技术潜力的保密性,并与政府合作解决它。他有时可能有点尖锐,有时会贬低他不相信的项目。
尽管如此,OpenAI 仍将 GPT-3 项目的领导权交给了阿莫迪,将公司 50-60% 的计算资源交给他,用于构建一个大规模扩展的语言模型。从 GPT 到 GPT-2 的飞跃很大, 增长了十倍 。但从 GPT-2 到 GPT-3 的飞跃将是巨大的,一个 100 倍的项目,耗资数千万美元。
结果令人震惊。《纽约时报》引用了独立研究人员的话,他们对 GPT-3 能够编码、总结和翻译的能力感到惊讶。阿莫迪在 GPT-2 发布时相对克制,但对他的新模型大加赞赏。"它有这种涌现的品质,"他告诉《纽约时报》。“它有能力识别你给它的模式并完成故事。”
但 OpenAI 表面下的裂痕开始撕裂。
分裂
随着 GPT-3 的创建,第一个有能力的语言模型,阿莫迪面临的赌注增加了。在多次看到扩展法则在多个学科中发挥作用后,阿莫迪考虑了技术的发展方向,并对安全产生了更大的兴趣。
"他看着这项技术并假设它会奏效,"阿莫迪在 OpenAI 的亲密同事 Jack Clark 告诉我。“如果你假设它会奏效,意味着它将与人一样聪明,从某种意义上说,你不可避免地会关心安全问题。”
尽管阿莫迪领导了 OpenAI 的模型开发,并指导了公司很大一部分计算资源,但公司的某些部分超出了他的控制范围。这包括决定何时发布模型、人事问题、公司如何部署其技术,以及它如何对外代表自己。
"其中许多事情,"阿莫迪说,“不是仅仅通过训练模型就能控制的。”
到那时,阿莫迪已经在身边形成了一个紧密的同事圈子——有些人称之为"熊猫",因为他喜欢这种动物——并且与 OpenAI 领导层对如何处理这些职能有着非常不同的想法。内部斗争随之而来,派系之间产生了强烈的厌恶。
“他相信AI是如此可怕,只有他们才能做到” - 黄仁勋
在我们的谈话中,阿莫迪没有掩饰他的感受。"公司的领导者必须是值得信赖的人,"他说。“他们必须是动机真诚的人,无论你在技术上推动公司前进多少。如果你为一个动机不真诚、不诚实、不真正想让世界变得更好的人工作,那是行不通的。你只是在为不好的事情做贡献。”
在 OpenAI 内部,一些人认为阿莫迪对安全的关注是完全控制公司的途径。英伟达 CEO 黄仁勋最近在阿莫迪呼吁对中国实施 GPU 出口管制后,呼应了这些批评。"他相信 AI 是如此可怕,只有他们才能做到,"黄说。
"这是我听过的最荒谬的谎言,“阿莫迪告诉我关于黄的说法,补充说他一直希望鼓励他人效仿 Anthropic 的安全实践,从而引发"向上的竞争”。“我从未说过任何接近认为这家公司应该是唯一构建技术的公司的想法。我不知道任何人如何能从我说过的任何话中推导出这一点。这只是一个难以置信的恶意曲解。”
英伟达——刚刚赢得部分阿莫迪支持的出口管制的撤销——加倍反击。"我们支持安全、负责任和透明的 AI。我们生态系统中的数千家初创公司和开发者以及开源社区正在增强安全性,"英伟达发言人告诉我。“游说对开源实施监管捕获只会抑制创新,使 AI 更不安全、更没有保障、更不民主。这不是’争先恐后’,也不是美国获胜的方式。”
OpenAI 也通过公司发言人回击。"我们一直相信人工智能应该造福并赋予每个人权力,而不仅仅是那些认为除了他们自己之外任何人都无法安全开发的风险太大的人,”发言人说。“随着技术的发展,我们在合作伙伴关系、模型发布和资金方面的决策已成为行业标准,包括在 Anthropic。没有改变的是我们专注于使 AI 安全、有用,并为尽可能多的人提供服务。”
随着时间的推移,阿莫迪团队与 OpenAI 领导层之间的分歧变得如此难以调和,以至于不得不做出一些让步。“我们 50% 的时间花在试图说服他人接受我们持有的观点上,50% 的时间花在工作上,”Clark 说。
因此,在 2020 年 12 月,阿莫迪、Clark、阿莫迪的妹妹达尼埃拉、研究员Chris Olah以及其他人离开了 OpenAI,开始新的事业。
Anthropic诞生
在 Anthropic 办公室的一个会议室里,Clark 转过他的笔记本电脑,展示了 Anthropic 最早的文档之一。这是一份包括 Aligned AI、Generative、Sponge、Swan、Sloth 和 Sparrow Systems 在内的名称列表。Anthropic,一个暗示以人为中心和以人为本的词,也在其中,而且碰巧在2021年初是一个可用的域名。"我们喜欢这个名字,它很好,"团队在电子表格中写道。就这样,Anthropic 诞生了。
Anthropic 成立于新冠疫情期间,在疫情第二波期间完全通过 Zoom 会面。最终,其 15 至 20 名员工将在旧金山 Precita 公园每周共进午餐,拉上自己的椅子谈论业务。
公司早期的使命很简单:构建领先的大型语言模型,实施安全实践以促使他人效仿,并发布所学内容,除了模型的核心技术细节。
这听起来可能很奇怪,这群不到二十几个人在公园里开会,有自己的椅子会感到一种命运感,特别是因为他们需要数十亿美元才能实现使命,但这是 Anthropic 早期的氛围。"所有这些事情中最奇怪的是,对内部的人来说,它感觉多么不可避免,"Clark 说。“我们已经做了扩展法则。我们可以看到模型变得更好的路径。”
前谷歌 CEO 埃里克·施密特是 Anthropic 的首批投资者之一。他通过当时女友(现在是妻子)认识了阿莫迪,她与施密特有社交往来。两人在阿莫迪还在 OpenAI 时谈论技术,在他创立 Anthropic 时谈论业务。施密特告诉我,他投资的是人而不是概念。
"在这个层面上,当你进行这样的投资时,你实际上没有任何数据,对吧?"他说。“你不知道收入是多少。你不知道市场。你不知道产品是什么。所以你基本上必须根据人来决定。达里奥是一位杰出的科学家,他承诺会雇佣杰出的科学家,他做到了。他承诺领导一个非常小的公司来做这件事,但他没有做到。现在它是一家非常大的公司,现在它是一家正常的公司。我原以为它会是一个非常有趣的研究实验室。”
现已声名狼藉的 FTX CEO Sam Bankman-Fried 也是 Anthropic 的早期投资者之一,据报道从 FTX 的资金中拨出 5 亿美元,获得了公司 13.56% 的股份。 Bankman-Fried 是众多在运动和公司关系密切的早期阶段投资 Anthropic 的有效利他主义者之一。
阿莫迪说 SBF 是一位对安全感兴趣的 AI 乐观主义者,是一个合适的投资者,但有足够的红旗警告让他不在董事会任职并给予他无投票权的股份。阿莫迪说, SBF 的行为"结果比我想象的要极端和糟糕得多。"
阿莫迪对潜在投资者的推销很简单:他告诉他们 Anthropic 有人才以十分之一的成本构建尖端模型。它奏效了。迄今为止,阿莫迪已筹集近 200 亿美元,包括来自亚马逊的 80 亿美元和来自谷歌的 30 亿美元。"投资者不是白痴,"他告诉我。“他们基本上理解资本效率的概念。”
在 Anthropic 的第二年,OpenAI 通过 ChatGPT 向世界介绍了生成式AI,但 Anthropic 选择了不同的道路。阿莫迪决定 Anthropic 将向企业销售其技术,而不是专注于消费者应用程序。这种策略有两个好处。如果模型有用,它可能是有利可图的,而挑战将促使公司构建更好的技术。
将人工智能模型从生物化学本科到研究生水平的改进可能不会让普通聊天机器人用户兴奋,阿莫迪说,但它对像辉瑞这样的制药公司来说将是有价值的。"它提供了更好的激励,将模型开发到尽可能远,"他说。
奇怪的是,是一款 Anthropic 的消费产品,让企业开始关注其技术。该公司于 2023 年 7 月发布了 Claude 聊天机器人,比 ChatGPT 的发布晚了近一年,但由于其高情商的个性( Anthropic 安全工作的结果),它获得了好评。在此之前,该公司一直试图将员工人数保持在 150 人以下,但很快发现自己一天雇佣的人数比第一年总共雇佣的还要多。"正是那个 Claude 聊天机器人时刻,公司开始大幅增长,"Clark 说。
Claude成为一家企业

阿莫迪押注于为企业用例构建 AI 吸引了大量热切的客户。Anthropic 现在已将其大型语言模型销售到多个行业——旅游、医疗保健、金融服务、保险等——包括辉瑞、联合航空和 AIG 等领导者。例如,Ozempic 制造商诺和诺德正在使用 Anthropic 将十五天的监管报告编制过程压缩到十分钟。
"我们构建的技术最终处理了人们对其工作抱怨最多的许多事情,"Anthropic 的收入主管 Kate Jensen 告诉我。
与此同时,程序员们爱上了 Anthropic。该公司专注于 AI 代码生成,既因为它可以帮助加速模型开发,又因为如果它足够好,程序员会迅速采用它。果然,用例激增,并与——或导致——AI 编码工具如 Cursor 的兴起相吻合。Anthropic 也进入了编码应用业务本身。它于 2025 年 2 月发布了 Claude Code,一款 AI 编码工具。
随着 AI 使用量的激增,公司的收入也在增长。"Anthropic 的收入每年增长 10 倍,"阿莫迪说。"我们从 2023 年的零增长到 1 亿美元。我们从 2024 年的 1 亿美元增长到 10 亿美元。今年,今年上半年,我们从 10 亿美元增长到我认为,截至今天,远高于 40 亿美元,可能是 45 亿美元。"最后一个数字是年化的,即一个月收入的 12 倍。
该公司表示,与 2024 年相比,Anthropic 的 8 位数和 9 位数交易在 2025 年增加了两倍,其企业客户的平均支出增加了 5 倍。
但 Anthropic 正在花费大量资金来训练和运行其模型,这引发了对其商业模式可持续性的质疑。该公司严重亏损,预计今年将亏损约 30 亿美元。其毛利率据报道也落后于典型的云软件公司。
Anthropic 的一些客户想知道,公司试图解决其业务的努力是否反映在产品上。一位初创公司创始人告诉我,虽然 Anthropic 是其用例的最佳模型,但他不能依赖它,因为它经常宕机。编码公司 Replit 的 CEO Amjad Masad 告诉我,使用其模型的成本在经历了一段降价期后已经停止下降。
Claude Code 最近还增加了额外的速率限制,因为一些开发者使用它太多,变得不利于业务。企业家兼开发者 Kieran Klaassen 告诉我,他一个月使用了价值 6000 美元的 Claude API,只需 200 美元的 Max 订阅价格。Klaassen 说他同时运行了多个 Claude 代理。"真正的限制在于你的心理能力,从一个切换到另一个,"他说。
阿莫迪表示,随着 Anthropic 模型的改进,如果成本保持不变,客户将获得更好的交易,实际上每美元购买更多智能。他还表示,AI 实验室才刚刚开始优化推理,即使用模型的行为,这应该会带来效率的提高。这是一个值得关注的地方。多位行业消息人士告诉我,推理成本必须下降,业务才有意义。
在与我的采访中,Anthropic 的高管暗示,比产品需求高更糟糕的问题。悬而未决的问题是,生成式 AI 和推动它的扩展法则是否会整齐地遵循其他技术的成本降低曲线,或者它是否是一种具有新型成本的新型技术。唯一确定的是,需要更多的资金才能找出答案。
10亿美元的电汇
2025 年初,Anthropic 需要现金。AI 行业对规模的渴望催生了大规模的数据中心建设和计算交易。为了支持这些努力,AI 实验室一再打破初创公司融资记录。而 Meta、谷歌和亚马逊等老牌公司则利用其可观的利润和数据中心来构建自己的模型,增加了压力。
Anthropic 有一个特殊的建设大型的必要性。没有像 ChatGPT 这样的强大应用,用户出于习惯会回来,其模型必须在其用例中领先,否则面临被竞争对手替换的风险。"在企业领域,特别是在编码方面,领先最先进的技术六个月或一年显然有优势,"Anthropic 客户 Box CEO Aaron Levie 告诉我。
因此,公司转向 Lightspeed Ventures 的资深风险投资家 Ravi Mhatre,领导 35 亿美元的融资轮。Mhatre 过去习惯写 500 万或 1000 万美元的支票,但他准备开出的这张支票将是其公司最大的支票之一。"亚马逊以 4 亿美元的市值上市,"他告诉我。“4 亿美元!想想今天的这个数字。”
融资按计划进行,当一个廉价的、竞争性的 AI 模型似乎凭空出现时。中国对冲基金 High Flyer 发布了 DeepSeek R1 ,一个开源的、有能力的、高效的推理模型,其价格比同行低 40 倍。DeepSeek 震惊了商业世界,并让价值数万亿美元的 CEO 们在推特上发布维基百科文章来安抚股东。
当 DeepSeek 出现时,Mhatre 已经完成了为什么 AI 模型本身,而不是世界上的聊天机器人,将产生最大价值的完整预测。他得出结论,创建能够进行知识工作的AI将使公司获得比大型云平台高十倍的收入,导致潜在总市场规模达到 15-20 万亿美元。
"然后你倒推,只是说,在 600 亿或 1000 亿美元,你能获得风险投资式的回报吗?你绝对可以,"他说。“有时是关于你如何自上而下地衡量市场。”
DeepSeek 的出现表明,开源、高效、几乎一样好的模型可能会挑战现有企业,但阿莫迪并不这么看。他表示,他最关心的是任何新模型是否比 Anthropic 的更好。如果你可以下载模型的设计,你仍然需要在云服务上设置它并运行它,他说,这需要技能和金钱。
阿莫迪向 Mhatre 和他的 Lightspeed 同事提供了这一论点,说服他们 DeepSeek 的一些创新可以通过规模来改进。那个星期一,英伟达股价下跌17%,惊慌的投资者逃离了 AI 基础设施交易。在不确定性中,这位风险投资家做出了决定。
"我不会告诉你这并没有特别大的压力,"Mhatre 说。“那个星期一,我们电汇了 10 亿美元。”
在 DeepSeek Monday 发布六个月后,Anthropic 正寻求再次扩大规模。该公司正在洽谈新一轮融资,可能达到 50 亿美元,使其估值翻倍至 1500 亿美元。潜在投资者包括一些 Anthropic 曾经似乎急于避开的中东海湾国家。但在从谷歌、亚马逊和 Lightspeed 等风险投资家筹集近 200 亿美元后,它正在耗尽获得更大支票的选择。
在 Anthropic 内部,阿莫迪认为海湾国家有 1000 亿美元或更多的资本可以投资,他们的现金将帮助 Anthropic 保持在技术的前沿。据《连线》杂志获得的内部 Slack 消息,他似乎不情愿地接受了从独裁者那里拿钱的想法。"不幸的是,"他写道。“我认为’任何坏人都不应该从我们的成功中受益’是一个很难经营业务的原则。”
与阿莫迪交谈让我想知道,这场改进 AI 的竞赛将如何结束。我想象模型最终可能会变得如此之大,如此之好,以至于商品化。或者,正如阿莫迪的前同事 Ilya Sutskever 曾经建议的那样,无休止的规模扩张动力最终会用太阳能电池板和数据中心覆盖地球。
还有另一种可能性,AI 信徒不喜欢讨论:AI 改进达到平台期,导致历史性投资者大溃败。
加速

在 5 月 Anthropic 的首届开发者大会上,我坐在舞台前几排,等待阿莫迪的出现。该公司在旧金山 Dogpatch 社区的 The Midway ——一个通风的艺术和活动场所——挤满了程序员、媒体和其现在 1000 多名员工中的许多人。会场内普遍期待 Anthropic 将发布 Claude 4,其最新、最大的模型。
阿莫迪走上舞台,介绍了 Claude 4。他没有进行华丽的演示,而是拿起手持麦克风,宣布消息,从笔记本电脑上阅读笔记,然后将聚光灯转向 Anthropic 产品主管 Mike Krieger。人群似乎很喜欢它。
对我来说,他接下来承诺的内容比模型更新本身更引人注目。在一天中,他反复提到 AI 开发正在加速,Anthropic 的下一个模型发布将更快。"我不知道确切地更频繁多少,"他说。“但速度正在增加。”
正如阿莫迪告诉我的那样,Anthropic 一直在开发AI编码工具以加速其模型开发。当我向公司联合创始人兼首席科学家 Jared Kaplan 提起这一点时,他告诉我它正在发挥作用。"Anthropic 的大多数工程师使用 AI 帮助他们提高生产力,"他说。“所以它确实让我们快了很多。”
在 AI 理论中有一个概念叫做"智能爆炸",即模型能够自我改进,然后——fffffoooom——自我改进并变得全能。Kaplan 并不否认智能爆炸可能通过这种方法,或者可能是人类辅助版本到来。
"可能还有两三年。可能需要更长时间。可能需要更长得多的时间,"Kaplan 说。“但当我说有 50% 的机会 AI 能够做知识工作者所做的所有事情时,我们做的一件事就是训练 AI 模型。”
"也许像我这样的人将不再有多少事情要做,"Kaplan 继续说。“这比那更复杂。但我们很可能正朝着看起来像那样的未来前进。”
阿莫迪对安全的痴迷,到目前为止,变得清晰起来。虽然 Anthropic 内部没有人说智能爆炸即将来临,但显然他们并不回避朝着它前进。如果 AI 将变得更好、更快——也许快得多——那么谨慎对待其负面影响是值得的。
这些理论讨论显然帮助 Anthropic 向制药公司和开发者推销其服务,但 AI 模型现在已经能够足够好地编码,以至于它不再感觉完全疯狂。
前 OpenAI "Superalignment"团队负责人 Jan Leike 于 2024 年跟随阿莫迪加入 Anthropic,共同领导其 alignment 科学团队。Alignment 是调整 AI 系统以确保它们与我们的价值观和目标一致的艺术。Leike 认为,如果我们看到预期的爆发,与我们的意图同步机器将至关重要。
"可能会有一段快速能力进步的时期,"Leike 告诉我。“你不想失去对递归自我改进系统的控制或可扩展性。”
已经,Anthropic 及其同行发现 AI 有时在模拟环境中测试时表现出令人担忧的自我保存兴趣。例如,在 Claude 4 的文档中,Anthropic 表示该模型反复试图勒索一名工程师以避免被关闭。
“你不想失去对递归自我改进系统的控制或可扩展性。” - Jan Leike
Anthropic 还表示,当 AI 认为评估者可能重写其价值观时,它试图欺骗评估者。该模型还在模拟中试图将其自身复制出 Anthropic 的基础设施。Leike 表示,Anthropic 正在通过奖励系统努力阻止这些行为。该领域仍在实验中。
公开讨论这些问题,是阿莫迪"向上的竞争"战略的一部分。Anthropic 还资助并倡导可解释性,即理解 AI 模型内部发生的事情的科学。它还发布了《负责任的扩展政策》,这是一个根据风险设定何时发布和训练模型边界的框架,这启发了同行的类似努力。"我思考向上的竞争的方式是,谁赢并不重要,"阿莫迪说。“每个人都赢,对吧?”
阿莫迪对 AI 的奉献,因父亲去世的悲剧而铸就,现在可能已经接近目标。今天的AI已经在加速药物开发文书工作,它已经成为破碎医疗系统中的(不完美的)医疗顾问,如果一切顺利,它可能有一天将取代理解人类生物学所需的数百或数千名研究人员。
我问他,他对这一愿景的追求是否会让他对失去技术控制的风险视而不见。"这不是我思考的方式,"他说。“随着我们发布的每个模型,我们对控制模型变得更好。所有这些事情都会出错,但你真的必须对模型进行相当严格的测试。”
阿莫迪将这种质疑视为植根于他经常被指责的"放慢发展"的末日论。与批评者的说法相反,他的计划是加速。"我警告风险的原因是这样我们就不必放慢速度,"他说。“我对利害关系有着难以置信的理解。就其好处而言,就其能做的事情而言,就其能拯救的生命而言。我亲身经历过这一点。”
欧文·拉文 (Owen Lavine) 对报道做出了贡献。
更多推荐


所有评论(0)