李想「偷师」达里奥·阿莫迪:当一台增程车开始信仰AI安全

所有人都在学OpenAI,李想却把准星对准了那个硅谷最“讨厌”的人。一家卖“冰箱彩电大沙发”的车企,为何要拜入AI安全原教旨主义的门庭?


01 被忽略的平行人生

2025年的一个技术闭门会上,李想被问到:“你心里理想的AI公司长什么样?”

他没有提OpenAI,也没有提特斯拉。他说了一个让在场多数人意外的名字——Anthropic

这并非偶然。如果把李想和达里奥·阿莫迪的人生履历叠放在一起,会发现一条惊人的暗线。

达里奥,普林斯顿物理学博士,半路出家搞AI,在OpenAI主导了GPT-2和GPT-3,2021年拉着妹妹丹妮拉出走,创立Anthropic。他不信“大力出奇迹”就能解决一切,他信的是对齐、控制、安全第一。硅谷既敬畏他,又嫌他啰嗦。

李想,高中辍学,从泡泡网到汽车之家再到理想汽车,把“增程”这条路走通了全行业。就在外界以为他会死磕冰箱彩电大沙发的时候,他宣布:“理想是一家人工智能企业。”

2024到2026年间,李想在内部讲话、财报会、战略信中反复提到一个核心判断:“模型能力本身是最关键的。 Anthropic的Claude已经证明,纯模型潜力巨大,我们决定跟随这条路线。”

这不是一句口号。往后的每一次动作,都能看到那个蓝色Anthropic幽灵般的身影。

02 安全不是公关词,是模型基因

Anthropic最核心的标签是什么?宪法式人工智能。给模型写一部“宪法”,让它自己学会什么能做、什么不能做,而不是只靠人类事后打分。

李想看到了一个重要真相:车端大模型,是最需要这种能力的场景。一个语言模型胡说八道,用户一笑了之;一个智能驾驶模型产生“幻觉”,可能就是一条人命。

于是他做了一个全球车企都不敢做的决定:组建100人的超级对齐团队

这不是普通的测试部门。他们要做的事和Anthropic的安全团队高度同构——当模型被训练得更强大之后,专门找出它可能出现的“流氓行为”:无故加塞、违反交规、幽灵刹车……然后从对齐层面根治,而不是写几条规则打补丁。

2025年,理想通过OTA 7.5版本推送了“超级对齐”技术。这是全球第一次有量产车将AI超级对齐理念工程化落地

行业的反应很安静。但真正懂行的人看得出来:这是把AI安全从一个论文概念,塞进了行驶在真实道路上的钢铁躯体里。

李想对此有一句很淡的总结:“我们不是做Demo,我们是真交付。”

这恰恰是达里奥·阿莫迪最欣赏的逻辑——安全不是功能,是技术体系的本身

03 “模型能力派”的同盟

如果把现在的AI公司分成两个流派:一种是“系统派”,依赖复杂的工程链路和规则把体验做上去;一种是“模型能力派”,认为只要模型足够强、足够懂安全,就应该让它直接面对任务,中间层的干预越少越好。

Anthropic是后者的旗手。他们做Claude,追求的是模型直接读懂复杂文档、直接写代码、直接做决策,而不是分解成十几个子任务串起来完成。

李想把这条路学得很透。

理想在做的VLA(视觉-语言-动作)司机大模型,就是让模型像人类司机一样,直接“看懂环境、做出驾驶动作”。传统的“感知-规划-控制”流水线正在被端到端模型逐步取代。李想多次提到,他希望AI成为 “生产工具”,而不是一个助手。真能独立完成任务的,才叫工具。

所以他明确指出,理想的Agent路线,对标的就是Anthropic的Claude路径:专注纯模型能力,专注高价值垂直场景。不做通用聊天机器人,不追Sora那一波,只死磕两个空间——车内的物理空间,和人形机器人所在的家庭空间。

这也不是巧合。Anthropic的商业模式正是直取高信任、高合规、高客单价的金融、医疗、政务,不做广告变现的C端热闹生意。理想跟着走:企业客户收入占比80%以上的逻辑,被完全平移到汽车智能化上——我们的用户不是在玩一个AI玩具,他们是在把命交给智能驾驶。

04 芯片、模型、组织的三重投诚

走进理想2026年的研发体系,“三件套”让所有传统车企脊背发凉。

第一件,自研推理芯片“马赫100”。

Anthropic并没有自己造芯片,但达里奥·阿莫迪对算力-模型-安全这一闭环的控制欲,是出了名的。理想自己下场,5nm制程,2026年量产,替代英伟达Orin-X。这不只是为了省成本。更深层的逻辑是:智能驾驶的端侧推理,不能让任何第三方芯片成为安全黑箱。这和Anthropic坚决要把模型用宪法管起来的执念如出一辙。

第二件,全栈自研基座模型。

从认知大模型MindGPT,到驾驶基础模型MindVLA-o1,理想的AI大脑全是自己做的。没有拿开源模型微调交差,也没有把灵魂交给第三方。李想说得很直白:“我们不会把命运交给别人的API。”

第三件,组织重构。

理想已经把研发体系切割为三大板块:基座模型、软件本体、硬件本体。这本质上是在公司体内,建立一个类似于AI实验室+工程团队的结构,确保模型研究离产品不到一堵墙的距离。

这种重构的代价是什么?2025年,理想AI研发投入超过60亿元,占研发总费用的一半以上。多少汽车公司在智能驾驶上还在纠结要不要做、用谁家的芯片、要不要搞端到端,理想已经把身家性命全押在了一个和Anthropic高度对位的AI蓝图之上。

05 为什么一定是Anthropic?

汽车圈有人问:OpenAI的ChatGPT用户量那么大,特斯拉的FSD跑得那么早,为什么非得是Anthropic?

原因藏在三个关键词里。

第一,可信。 驾驶场景不需要一个能写诗的模型,但绝对需要一个“行为可预测、决策可解释”的模型。Anthropic在可解释性和对抗稳健性上的积累,恰恰是车端AI最缺少的拼图。

第二,敢关。 达里奥·阿莫迪坚持:如果一个模型不够安全,宁可不上线。李想学着说:“我们交付的是确定性的能力,不是概率。” 这种价值观的合拍,比技术路线本身更难找到。

第三,非共识。 在所有人追逐多模态娱乐、AI社交陪聊的时候,李想盯上的是那个硅谷最“讨厌”的人——讨厌是因为他说出了别人不愿意面对的真相。达里奥反复讲:“AI的能力提升速度远超社会准备。” 李想虽然没有天天上媒体喊,但他用行动对这句话投了赞成票:2026年,被他称为AI头部公司的最后窗口期。自研芯片必须量产,VLA必须全系标配——不是在展台上摆一辆概念车,而是成千上万辆交付到真实道路上。

06 模仿还是共振?

我们当然可以把这一切解读为“理想在学习Anthropic”。但往深了看,也许背后还有另一层逻辑:当一个行业走进无人区,最远的探路者会吸引到同一频率的人。

达里奥·阿莫迪的父亲死于一种罕见病,这件事塑造了他对速度的执念——想尽早做出AGI救人,又怕AGI失控害人。所以一边拼命加速,一边疯狂搞安全。

李想的轨迹里同样有这种矛盾:一边高喊2026年是窗口期,一边在AI安全上砸下最重的资本。他经历过混动技术的争议、亏损的至暗时刻、交付的生死局,他知道物理世界容错率是零。

这两个人在世俗意义上没有任何交集,但在技术哲学的底色上,共享了一种少见的清醒:真正重要的技术,不能只当作生意来做。

这才是理想学Anthropic最根本的逻辑——不是崇拜,是被同样的命题砸中后,做出了相似的选择。

写在最后

当一台曾经以“没有里程焦虑”崛起的增程车,开始埋头刻画自己的AI安全宪法;当一个曾经卖网站、写评测的连续创业者,把公司研发体系按照AI实验室的逻辑推倒重来——这已经不只是企业转型的故事。

它暗示着一幅更大的图景:汽车产业百年变局的下半场,裁判权正在从动力总成、底盘调校,悄然转移到模型能力、对齐水平和安全信仰上。

也许某一天,用户买车的依据不再只是百公里加速,而是“这辆车的AI大脑,学会说谎的概率有多大”。

到那一天,谁先读懂了达里奥·阿莫迪,谁就可能在撞线的位置,占到一个不被轻易替代的席位。

李想,试图成为那个最先冲到那里的人。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区