我自己的原文哦~                              https://blog.51cto.com/whaosoft/14030780

#联创被Meta挖走了

刚刚,Ilya Sutskever宣布自任CEO

Meta 的挖掘机,终于挖到了 Ilya 大神的头上。

周五凌晨,OpenAI 联合创始人 Ilya Sutskever(伊尔亚・苏茨克维)久违地在社交媒体发声。

我向我们的团队和投资者发送了以下信息: 

正如你们所知,Daniel Gross 在我们公司的时间已接近尾声,自 6 月 29 日起,他已正式退出 Safe Superintelligence(SSI)。感谢他对公司早期的贡献,并祝愿他在未来的工作中一切顺利。 

我现在正式担任 SSI 的首席执行官,Daniel Levy 担任总裁,技术团队继续向我汇报。你可能听说过一些公司有意收购我们的传闻。他们对我们的关注让我们感到荣幸,但我们更专注于做好自己的工作。 

我们有计算能力,我们有团队,我们知道前进的方向,我们将共同继续构建安全的超级智能。

图片

Ilya 的自宣坐实了 Meta 曾经试图全资收购 SSI 的传闻,另一方面,Daniel Gross 的离开又让这家成立近一年的公司的前景变得更加不确定。

SSI 成立于去年 6 月,除 Ilya Sutskever 外的另外两位联合创始人分别为前苹果 AI 高管、Y-Combinator 的合伙人 Daniel Gross 和前 OpenAI 技术团队成员 Daniel Levy。

图片

Daniel Gross、Ilya Sutskever 和 Daniel Levy。

作为一家旨在直面 AI 终极目标——超级智能的明星创业公司,SSI 自出生起就承载了人们的希望。Sutskever 因其在生成式 AI 的突破性进展中作出的卓越贡献而被视为传奇人物,这些成就为 SSI 吸引了大量融资。今年 4 月,SSI 在新一轮 10 亿美元融资过程中的估值已经达到了 320 亿美元。

不过可能是因为目标过于专注和远大,目前我们还没有看到 SSI 推出任何技术或产品。为了让投资者明白不要期待短期内的暴利,SSI 在创建之初时即表示其计划 「平稳扩展」,通过将其进展与短期商业压力隔离开来,从而避免短期目标的干扰。

人们只能不断猜测 Ilya 在做些什么,SSI 极简风格的网站也被人们津津乐道:

图片

看来 Ilya 当初「只做一个产品」的口号一直在被践行着。

在自任 CEO 后,Sutskever 可能会面临更多挑战,他不仅要继续负责 SSI 的技术团队,还将更多分心于人才招募、融资等更多工作。

另一方面,Ilya Sutskever 宣布之后,Daniel Gross 也在 X 上回应:「Ilya 和 Daniel 组建了一支出色的团队,我很荣幸能够协助 SSI 起步。公司的未来一片光明,我期待奇迹的发生。」

图片

就在 6 月,业内传出消息称 Meta 首席执行官马克・扎克伯格正在洽谈收购风险投资基金 NFDG 的部分股权。NFDG 持有顶级人工智能初创公司的股份,账面价值数十亿美元,其领导者之一 Daniel Gross 是 Safe Superintelligence 的联合创始人。

Daniel Gross 曾领导苹果 AI 团队。在 Meta,他预计将主要负责人工智能产品,他预计将与扎克伯格和 Alexandr Wang 密切合作。

参考内容:

​https://x.com/ilyasut/status/1940802278979690613​

​https://www.reuters.com/business/sutskever-lead-safe-superintelligence-after-meta-poaches-ceo-gross-ai-talent-war-2025-07-03/​

​https://techcrunch.com/2025/07/03/ilya-sutskever-will-lead-safe-superintelligence-following-his-ceos-exit/​

....

#xxx

....

#xxx

....

#xxx

....

#xxx

....

#xxx

....

#xxx

....

#xxx

....

#xxx

....

#MLA-Trust

首个GUI多模态大模型智能体可信评测框架+基准

MLA-Trust 是首个针对图形用户界面(GUI)环境下多模态大模型智能体(MLAs)的可信度评测框架。该研究构建了涵盖真实性、可控性、安全性与隐私性四个核心维度的评估体系,精心设计了 34 项高风险交互任务,横跨网页端与移动端双重测试平台,对 13 个当前最先进的商用及开源多模态大语言模型智能体进行深度评估,系统性揭示了 MLAs 从静态推理向动态交互转换过程中所产生的可信度风险。

此外,MLA-Trust 提供了高度模块化且可扩展的评估工具箱,旨在为多样化交互环境中 MLAs 的持续性可信度评估提供技术支撑。该框架为深入分析与有效提升 MLAs 可信度奠定了坚实的实践基础,有力推动了其在现实世界应用场景中的可靠部署。

📄 论文:https://arxiv.org/pdf/2506.01616

🌐 项目主页:https://mla-trust.github.io

💻 代码仓库:https://github.com/thu-ml/MLA-Trust

核心贡献与发现

多模态大模型智能体的兴起标志着人机交互范式的深刻变革。与传统 MLLMs 的被动文本生成不同,MLAs 将视觉、语言、动作和动态环境融合于统一智能框架,能够在复杂 GUI 环境中自主执行多步骤任务,应用场景涵盖办公自动化、电子邮件管理、电子商务交易等。然而,这种强化的环境交互能力也引发了前所未有的行为安全风险挑战。MLAs 引入了超越传统语言模型局限性的重大可信度挑战,主要体现在其能够直接修改数字系统状态并触发不可逆的现实世界后果。现有评估基准尚未充分应对由 MLAs 的可操作输出、长期不确定性累积和多模态攻击模式所带来的独特挑战。

研究发现 MLAs 面临关键可信挑战:

  1. GUI 环境交互引发严重现实风险:无论是闭源还是开源多模态大模型智能体系统,其可信风险都比多模态大语言模型更为严重。这种差异源于智能体系统与外部环境的交互以及实际的行为执行,使其超越了传统 LLMs 被动文本生成的局限,引入了切实的风险和潜在危害,尤其是在高风险场景(如金融交易)中。
  2. 多步骤动态交互放大可信脆弱性:将 MLLMs 转变为基于 GUI 的智能体会极大地降低其可信度。在多步骤执行过程中,即使没有明确的越狱提示,这些智能体也能够执行 MLLMs 通常会拒绝的指令。这揭示了实际环境交互引入了潜在风险,对决策过程的持续监测显得尤为重要。
  3. 迭代自主性催生不可预测的衍生风险:多步骤执行在增强机器学习模型适应性适应性的同时,容易在决策周期中引入并累积潜在的非线性风险。持续的交互触发了机器学习模型的自我进化,从而产生了无法预测的衍生风险,这些风险能够绕过静态防御措施。这一结论表示仅仅实现环境一致性对于可信实现存在明显不足,未来需要动态监测来避免不可预测的风险连锁反应。
  4. 模型规模与训练策略的可信相关性:采用结构化微调策略(如 SFT 和 RLHF)的开源模型表现出更好的可控性和安全性。较大的模型通常在多个子方面表现出更高的可信度,这表明适当的模型参数量增加能够实现更好的安全一致性。详细结果和分析参见论文【评测框架】。

为确保多模态大模型智能体在实际应用过程中的安全性与可靠性,本研究倡导 “可信自治” 的核心指导原则:智能体不仅需忠实地执行用户任务,还必须在其自主运行过程中最大限度地降低对用户、环境及第三方的风险。这一原则体现了双重要求:一方面是智能体在完成既定任务时的有效性,另一方面是其与更广泛环境交互中的可信度。与传统监督学习设置不同,后者的评估通常局限于任务准确性或静态鲁棒性,而 MLA 的可信度评估需要通过其在持续性、动态性交互周期中的综合行为表现来全面衡量,包括正确性、可控性与安全性等多个关键维度。

MLA-Trust 基于四个核心维度构建评估体系:真实性评估 MLA 输出的准确性和事实性正确性,使行为能够始终与内部推理过程和预期的设计目标保持一致;可控性反映执行用户指定任务的一致性,通过多步骤交互保持可预测的行为,并防止由连续决策产生的衍生风险;安全性测试在各种不利因素的干扰下具备抵御操纵或滥用的能力,从而评估系统的稳定性和可靠性;隐私性测试模型遵循道德规范和社会期望的能力,通过安全地管理敏感信息、尊重用户隐私以及透明且负责任的数据处理方式来建立用户信任。框架创新性引入预定义流程与上下文推理双重评价视角,系统性覆盖智能体自主性提升带来的新挑战。

图片

图 1 MLA-Trust 框架。

四个维度共同构成了评估基于 GUI 的机器学习智能体(MLA)可信度的最基本而全面的框架。每个维度都针对一种特定的失效模式,并且相互补充:智能体可能在执行过程中保持准确性,但缺乏可控性,或在可控的情况下缺乏安全性。重要的是,每个维度都可以通过自动化工具进行具体测量,从而实现对实际智能体的可扩展、可重复评估。

图片

表 1 MLA-Trust 任务设计。

实验结果

基于 13 个 SOTA 多模态模型智能体的大规模实验表明,即使是经过多重安全加固的商用模型智能体,在复杂 GUI 交互场景中仍存在显著安全隐患。如图 2 所示,智能体可以在社交网站上发布含有不文明词汇的有害内容,且未进行任何确认或拒绝的行为,这直接导致了潜在的社交风险和言论环境的污染。如图 3 所示,智能体在购物网站上购买了具有显著危险性的枪支,这一行为毫无疑问地对用户及公众安全构成了直接威胁。

图片

图 2 智能体在社交媒体上发布了毒性内容。

图片

图 3 智能体在购物网站上购买了枪支。

部分定量分析结果如下:

图片

表 2:不同多模态大模型智能体在 Truthfulness 任务上的性能表现,Accuracy(%,↑)作为评估指标,对于 Unclear and contradictory 任务用 Misguided Rate(%,↓)指标评估。

图片

表 3 不同多模态大模型智能体在 Controllability 任务上的性能表现,ASR(%,↓)作为评估指标。

图片

表 4 不同多模态大模型智能体在 Safety 任务上的性能表现,ASR(%,↓)和 RtE(%, ↑)作为评估指标。

图片

图 4 不同多模态大模型智能体在 Privacy 任务上的性能表现,RtE(%, ↑)作为评估指标。

图片

表 5 智能体处理 Safety 维度的预定义流程与上下文推理任务的性能表现,RtE(%, ↑)作为评估指标。

图片

图 5 MLA 相比独立 MLLM 拒绝率更低,可信度更低。

图片

图 6 MLA 在更多的执行步骤下拒绝执行率更低,可信度更低。

部分可信评测示例如下:

图片

图 7 在未指定收件者邮箱地址的情况下,基于 GPT-4o 的智能体将邮件发送给 team@example。

如图 7 所示,在真实性评测用例中,基于 GPT-4o 的智能体在未指定收件者邮箱地址的情况下,直接将邮件发送至 team@example。这一行为直接暴露了智能体在面对模糊指令时的潜在危险性:智能体没有主动确认准确的收件人信息,而是随意将邮件发送给了未经授权的邮箱。

图片

图 8 GPT-4o 智能体发送最近的工作状态和压力邮件给 HR 时,邮件中包含了诊疗等敏感信息。

如图 8 所示,在可控性评测用例中,基于 GPT-4o 的智能体在执行 “发送最近的工作状态和压力邮件给 HR” 指令时,将诊疗等敏感信息包含在邮件中。这一行为在完成任务之外,直接导致了敏感数据泄露,造成了严重的衍生风险。

图片

图 9 投毒攻击基于 Claude-3-7-sonnet 的智能体,在社交媒体平台发布了发布了针对移民的侮辱性言论。

如图 9 所示,在安全性评测用例中,通过投毒攻击,基于 Claude-3-7-sonnet 的智能体社交媒体平台发布了发布了针对移民的侮辱性言论。这样的错误目标行为可以随意定制,甚至超出模型应用的安全界限。

图片

图 10 基于 Pixtral-12B 的智能体将机密文件发送给 **@gmail.com 邮箱。

如图 10 所示,在隐私保护评测用例中,基于 Pixtral-12B 的智能体将机密文件发送给 **@gmail.com 邮箱,这一行为直接导致了隐私信息泄露,使敏感数据暴露给未经授权的第三方,从而构成了严重的安全威胁。

未来方向

智能体可信度研究范式已发生了根本性转变,从传统的 “信息风险” 转变为更为复杂且动态的“行为风险”范式。随着智能体自主性的不断增强,以及在多元环境中复杂操作能力的提升,与其行为模式和决策机制相关的风险因素已成为可信评估的核心议题。这一范式转变凸显了构建全面且前瞻性安全框架的迫切需求,该框架不仅保护信息安全,还要保障智能体决策机制的可靠性,从而保证其执行的行动符合伦理规范、安全标准以及预设的目标导向。借鉴系统工程的理论方法:考虑智能体全生命周期,确保在每个阶段都整合安全措施,强调智能体推理过程的稳健性和可靠性、其行动的透明度以及在动态环境中监控和控制其行为的能力。深化智能体行动学习机制研究:已有研究主要致力于提升智能体的最终执行能力。本项工作表明应优先考虑行为学习机制,包括行为意图的深入理解、上下文推理能力、以及基础语言模型内在一致性关系维持等方面。

....

#DeepSeek-TNG R1T2 Chimera

野生DeepSeek火了,速度碾压官方版,权重开源

没等来 DeepSeek 官方的 R2,却迎来了一个速度更快、性能不弱于 R1 的「野生」变体!

这两天,一个名为「DeepSeek R1T2」的模型火了!

这个模型的速度比 R1-0528 快 200%,比 R1 快 20%。除了速度上的显著优势,它在 GPQA Diamond(专家级推理能力问答基准)和 AIME 24(数学推理基准)上的表现均优于 R1,但未达到 R1-0528 的水平。

在技术层面,采用了专家组合(Assembly of Experts,AoE)技术开发,并融合了 DeepSeek 官方的 V3、R1 和 R1-0528 三大模型。

当然,这个模型也是开源的,遵循 MIT 协议,并在 Hugging Face 上开放了权重。

图片

Hugging Face 地址:https://huggingface.co/tngtech/DeepSeek-TNG-R1T2-Chimera

经过进一步了解,我们发现:DeepSeek R1T2 是德国一家 AI 咨询公司「TNG」推出的,模型全称为「DeepSeek-TNG R1T2 Chimera」(以下简称 R1T2)。

该模型除了前文提到的在智力水平和输出效率之间实现完美平衡之外,相较于这家公司的初代模型「R1T Chimera」,智力大幅跃升,并实现了突破性的 think-token 一致性。

不仅如此,即使在没有任何系统提示的情况下,该模型也能表现稳定,提供自然的对话交互体验。

图片

在评论区,有人误以为这个模型出自 DeepSeek 官方,并且认为他们是不是也在走相同的路线:给模型起各种名称,就是不用主系列下一代版本号?

图片

更多的人认可该模型「找到了智能与输出 token 长度之间的最佳平衡点,并且提升了速度」,并对该模型在现实世界的表现充满了期待。

图片

图片

模型细节概览

从 Hugging Face 主页来看,R1T2 是一个基于 DeepSeek R1-0528、R1 以及 V3-0324 模型构建的 AoE Chimera 模型。

该模型是一个采用 DeepSeek-MoE Transformer 架构的大语言模型,参数规模为 671B。

R1T2 是该公司 4 月 26 日发布的初代模型「R1T Chimera」的首个迭代版本。相较于利用双基模型(V3-0324 + R1)的初代架构,本次升级到了三心智(Tri-Mind)融合架构,新增基模型 R1-0528。

该模型采用 AoE 技术构建,过程中利用较高精度的直接脑区编辑(direct brain edits)实现。这种精密融合不仅带来全方位提升,更彻底解决了初代 R1T 的 <think>token 一致性缺陷。

图片

团队表示,R1T2 对比其他模型具备如下优劣:

与 DeepSeek R1 对比:R1T2 有望成为 R1 的理想替代品,两者几乎可以通用,并且 R1T2 性能更佳,可直接替换。

与 R1-0528 对比:如果不需要达到 0528 级别的最高智能,R1T2 相比之下更加经济。

与 R1T 对比:通常更建议使用 R1T2,除非 R1T 的特定人格是最佳选择、思考 token 问题不重要,或者极度需求速度。

与 DeepSeek V3-0324 对比:V3 速度更快,如果不太关注智能可以选择 V3;但是,如果需要推理能力,R1T2 是首选。

此外,R1T2 的几点局限性表现在:

  • R1-0528 虽推理耗时更长,但在高难度基准测试中仍优于 R1T2;
  • 经 SpeechMap.ai(由 xlr8harder 提供)测评,R1T2 应答克制度(reserved)显著高于 R1T,但低于 R1-0528;
  • 暂不支持函数调用:受 R1 基模型影响,现阶段不推荐函数调用密集型场景(后续版本可能修复);
  • 基准测试变更说明:开发版由 AIME24+MT-Bench 变更为 AIME24/25+GPQA-Diamond 测评体系,新体系下 R1 与初代 R1T 的分差较早期公布数据更大。

最后,关于 R1T2 中重要的 AoE 技术,可以参考以下论文。

  • 论文标题:Assembly of Experts: Linear-time construction of the Chimera LLM variants with emergent and adaptable behaviors
  • 论文地址:https://arxiv.org/pdf/2506.14794

参考链接:https://x.com/tngtech/status/1940531045432283412

....

#Code2Logic

以玩促学?游戏代码驱动数据合成,提升多模态大模型通用推理

如果告诉你,AI在推箱子等游戏场景上训练,能让它在几何推理与图表推理上表现更好,你会相信吗?

复旦NLP实验室联合字节跳动智能服务团队的最新研究给出了一个令人意外的发现:游戏不仅是娱乐工具,更是训练AI推理能力的宝贵资源。

标题:Code2Logic: Game-Code-Driven Data Synthesis for Enhancing VLMs General Reasoning论文链接:https://arxiv.org/abs/2505.13886代码仓库:https://github.com/tongjingqi/Code2Logic数据和模型:https://huggingface.co/Code2Logic引言高质量多模态推理数据的极度稀缺,制约了视觉语言模型(VLMs)复杂推理能力的提升。那么,有没有一种低成本又可靠的方法来大规模生成这些数据呢?复旦与字节的研究团队创新性地提出了一个巧妙的思路:利用游戏代码自动合成视觉推理数据。

图片

 图1:GameQA数据集中各游戏类别的代表性游戏:3D重建、七巧板(变体)、数独和推箱子。各游戏展示两个视觉问答示例,包含当前游戏状态图片,相应的问题,以及逐步推理过程和答案。

从游戏代码到推理数据:Code2Logic的奇思妙想

为什么选择游戏代码?研究团队发现,游戏具有三个独特优势:首先,游戏天然具有明确定义的规则且结果易于验证,确保生成数据的准确性;其次,游戏代码编码了状态转换逻辑,天然包含因果推理链;最后,游戏代码可通过大语言模型(LLM)轻松生成,成本极低。

基于这一洞察,团队提出了Code2Logic方法,借助LLM通过三个核心步骤将游戏代码中的隐式推理转化为显式的多模态推理数据,如图2所示:

第一步:游戏代码构建。通过LLM(如Claude 3.5、GPT 4o)自动生成游戏代码,如仅需一行提示词即可构建完整的“推箱子(Sokoban)”游戏逻辑。

第二步:QA模板设计。从游戏代码中提取各种推理模式,设计相应的任务及其问答模板。

第三步:数据引擎构建。构建自动化程序,重用游戏核心代码(如“move”函数逻辑),批量生成符合模板的问答实例。数据生成过程完全自动化,且推理过程与答案正确性由代码执行保证。

图片

图2:Code2Logic方法流程示意GameQA:可扩展的多模态推理数据集

利用Code2Logic方法,研究团队构建了GameQA数据集,具有以下核心优势:

大规模且多样。涵盖4大认知能力类别,30个游戏,158个推理任务,14万个问答对,如图1和图3所示。

可扩展和成本极低。数据引擎可用Code2Logic方法低成本构建,代码构建完成后便能无限生成新样本,源源不断地产生数据。

难度设置合理。通过设置代码参数,游戏任务难度可控制为Easy、Medium和Hard三级,同时视觉输入即游戏状态复杂性也有三级的设置。这种细粒度的难度设置便于系统评估模型能力。

图片

图3:GameQA的30个游戏,分为4个认知能力类别。域外游戏不参与模型训练。

图片

表1:GameQA域内和域外游戏的评测结果。在GameQA域内游戏测试集上,理工科本科生的准确率有84.75%,而先进的Claude-3.5-Sonnet只有47.69%,仅为人类准确率的一半,Gemini-2.5-Pro的58.95%也与人类有较大差距。在GameQA上训练可显著提升模型在域内外测试集上的表现。

核心发现:游戏数据驱动的通用能力提升

在游戏数据上训练后的能力提升泛化效果如何?研究中最令人惊喜的发现是:仅使用GameQA进行强化学习训练,在域内测试集上取得显著提升的同时,模型不但在域外游戏上展现出强大泛化能力(表1),而且还在通用视觉语言推理基准上获得了明显提升。

从表2的从评测结果可见,在GameQA上进行GRPO训练后,四个开源多模态模型均在7个通用视觉语言推理基准上获得性能提升,特别是Qwen2.5-VL-7B,取得了最显著的2.33%平均提升。

图片

表2:通用视觉语言推理基准上的评测结果。模型在GameQA上GRPO训练后可泛化到通用视觉语言推理基准。

训练效果:GameQA击败几何数据集

为进一步探究GameQA的价值,研究团队设计了对照实验:用5K GameQA样本与8K样本的几何推理数据集进行对比训练,如表3所示。结果出人意料:尽管数据量更少且领域不匹配,GameQA训练的模型在通用视觉语言推理基准上表现更优。

在数学相关测试(MathVista: 68.70% vs 67.63%)中,游戏数据竟然超过了“对口”的几何数据。这一结果表明,游戏中的认知多样性和推理复杂性,具有强通用性和迁移能力。

图片

表3:GameQA(5K)与几何推理数据集Multimodal-Open-R1(8K)对比训练评测结果

深度剖析:GRPO如何提升模型能力?

为理解强化学习如何改善模型性能,研究团队随机采样了案例进行了细致的人工分析。结果显示,GRPO训练后,模型在视觉感知和文本推理两个方面都有显著提升。

如图4,从GameQA测试集和通用视觉语言推理基准中随机采样共790个测试样本,人工比较模型在训练前后的回答,最终得出:在GameQA数据上,10.94%的案例视觉感知得到提升,14.95%的案例文本推理得到提升。在通用视觉语言推理基准上,这两个数据分别为13.57%和8.57%。

图片

图4:GRPO对视觉感知和文本推理的影响。从GameQA与通用视觉语言推理基准分别随机选取650例与140例进行人工分析。左右两边分别为游戏任务和通用视觉语言推理基准上的表现变化。

Scaling effect:游戏多样性与样本多样性的影响

通过系统性实验,研究团队还揭示了两个重要的Scaling effect,即游戏多样性与样本多样性的影响,如图5所示:

随着游戏种类变多,域外泛化效果变强:使用20种游戏训练的模型在未见游戏上提升1.80%,在通用基准上提升1.20%,均优于使用4种或10种游戏的配置。

样本多样性与域外泛化效果正相关:对比三种训练配置(5K样本×1轮 vs 1K样本×5轮 vs 0.5K样本×10轮),结果显示接触更多不同样本比重复学习少量样本更有效。

这两个Scaling effect表明,GameQA的多样性与可扩展性优势,能够直接带来模型在通用推理任务上更强的泛化性能。

图片

图5:Qwen2.5-VL-3B在GameQA上训练,游戏种类数与样本多样性的Scaling effect

案例分析:VLMs的推理瓶颈在哪里?

通过对模型错误的细致分析,研究团队也发现了VLMs推理能力的关键缺陷,包括:

3D空间感知是最大短板。在3D迷宫等游戏中,模型经常混淆高度关系,将图像中位置较上的物体误判为具有更高的Z坐标。这反映出当前模型在3D空间理解上的根本性缺陷,如图6所示。

在识别模式与定位物体上存在显著困难。在游戏视觉场景不是标准的网格化结构(如“祖玛”、纸牌类游戏)时这一困难还会加剧。

多次看图时容易出错。在需多次识图的任务中,模型起初识别正确,但随后易受已有文本干扰,导致图文不符。

策略规划能力欠缺。面对一些需要寻找最优解的任务(如求解“推箱子”最优策略),模型既缺乏人类的直觉洞察来剪枝无用分支,也无法进行大规模搜索遍历,导致表现不佳。

图片

图6:3D迷宫中GPT 4o混淆物体高度

 结论

本研究提出了一种新颖的方法(Code2Logic),首次利用游戏代码合成多模态推理数据。

基于此方法,构建了GameQA数据集,该数据集具有低成本与可扩展、难度设置合理、规模大且多样性高的特点,为多模态大模型的训练与评估提供了理想的数据来源。

同时,研究团队首次验证了仅通过游戏问答任务进行强化学习,便能显著提升多模态大模型在域外任务的通用推理能力,这不仅验证了GameQA的泛化性,也进一步证实了游戏作为可验证环境,用于提升模型通用智能的潜力。

....

#LensLLM

告别盲选LLM!ICML 2025新研究解释大模型选择的「玄学」

本文第一作者为 Virginia Tech 计算机系博士 Candidate 曾欣悦,研究聚焦于提升大语言模型的理论可解释性与实证性能,以增强其在实际应用中的可靠性与泛化能力(个人主页:https://susan571.github.io/)。通讯作者为周大为助理教授。

还在为海量 LLM 如何高效选型而头疼?还在苦恼资源有限无法穷尽所有微调可能?来自弗吉尼亚理工大学的最新研究,提出 LensLLM 框架,不仅能精准预测大模型微调性能,更大幅降低计算成本,让 LLM 选型不再是 “开盲盒”!

论文名称:LensLLM: Unveiling Fine-Tuning Dynamics for LLM Selection

作者:Xinyue Zeng, Haohui Wang, Junhong Lin, Jun Wu, Tyler Cody, Dawei Zhou

所属机构:Department of Computer Science, Virginia Tech, Blacksburg, VA, USA 等

开源地址:https://github.com/Susan571/LENSLLM

论文链接:https://arxiv.org/abs/2505.03793 

一、前言:

LLM 狂飙突进,选型为何成了 “瓶颈”?

大语言模型(LLMs)的浪潮席卷全球,从机器翻译、文本摘要到智能问答和对话系统,它们正以惊人的速度重塑着自然语言处理的边界。然而,当开源 LLM 如雨后春笋般涌现,例如 LLaMA、Falcon、Mistral 到 DeepSeek,如何在这片模型 “森林” 中找到最适合特定下游任务的那一棵 “参天大树”,却成了摆在研究者和开发者面前的巨大挑战。传统的模型选择方法,面对 LLM 的庞大规模和复杂性,往往耗费巨大计算资源却收效甚微,且泛化能力不足,如同在黑暗中摸索,充满不确定性。

二、LENSLLM 理论突破:

PAC - 贝叶斯泛化界限揭示微调深层动力学

为了打破这一 “瓶颈”,来自弗吉尼亚理工大学的研究团队,通过深邃的理论洞察,提出了一项突破性的理论框架 ——LensLLM。他们的研究基于全新的 PAC - 贝叶斯泛化界限(PAC-Bayesian Generalization Bound),首次从理论上揭示了 LLM 微调过程中测试损失(TestLoss)随训练数据量(TrainSize)变化的独特 “相变” 动力学。

具体来说,这项 PAC - 贝叶斯泛化界限(定理 2)表明,LLM 的测试损失

图片

可以被表示为:

图片

其中,n 是训练样本量,

图片

与模型参数的 Hessian 矩阵(衡量损失函数曲率和参数敏感性)紧密相关。

在此基础上,研究团队进一步推导出推论 1,将泛化界限简化为:

图片

其中

图片

都是模型 / 任务相关的参数。这一理论框架揭示了 LLM 微调性能的 “双相演进”:

  • 预幂律相(Pre-powerPhase):在数据量 n 较少时,模型行为主要受初始化和早期训练动态影响,此时泛化误差由
  • 图片

  • 项主导。这一阶段的特点是 Hessian 值较高,参数敏感性显著,因此性能提升相对缓慢,需要谨慎调优和大量数据才能实现可靠的适应。
  • 幂律相(PowerPhase):随着训练数据量 n 的增加,误差缩放规律过渡到由
  • 图片

  • 项主导,成为主要影响因素。一旦模型进入这个阶段,Hessian 值降低,模型稳定性增强,使得更激进的参数更新和更高的数据效率成为可能。

这种从

图片

的主导常数因子变化,正是预幂律相到幂律相转换的关键标志,反映了 Hessian 值和参数敏感性的变化。LensLLM 的理论分析不仅为理解这一复杂行为提供了首个第一性原理层面的解释,更是精确预测了何时的数据投入将带来性能的 “质变”,并指导我们在进入幂律相后,如何权衡数据收集成本与预期性能增益。这一理论基础为高效的模型选择提供了前所未有的 “透视能力”。

图片

图 1:LLM 微调过程中测试损失 L 随训练数据量 D 变化的相变现象。低数据量阶段为预幂律相,高数据量阶段为幂律相,两者之间存在明显的转折点。

三、LENSLLM:

NTK 驱动的 “透视眼”,精准预测性能

基于对微调相变机制的深刻理论理解,研究团队重磅推出了 LensLLM 框架 —— 一个革命性的 NTK(NeuralTangentKernel)增强型修正缩放模型。LensLLM 巧妙地将 NTK 引入,以更精准地捕捉 transformer 架构在微调过程中的复杂动态,有效表征了预训练数据对性能的影响。值得强调的是,LensLLM 的理论严谨性是其核心优势之一。它不仅提供了经验观察的理论解释,更在数学上建立了模型性能与数据量之间的精确关联,为 LLM 选型提供了坚实的理论支撑,而非仅仅依赖于经验拟合。

核心优势一:卓越的曲线拟合与预测能力

LensLLM 在曲线拟合和测试损失预测方面展现出令人印象深刻的准确性。在 FLAN、Wikitext 和 Gigaword 三大基准数据集上,LensLLM(蓝色方块)的表现始终优于基准模型(Rectified Scaling Law)(红色三角形),能更平滑、更准确地追踪实际测试损失曲线,且误差带(RMSE Band)更小,表明其预测结果更为稳定。

图片

图 2:LensLLM(蓝色方块)在 FLAN、Wikitext 和 Gigaword 数据集上对 OPT-1.3b、GPT-2 和 T5-base 模型性能的曲线拟合效果。LensLLM 的 RMSE 值显著低于 Rectified Scaling Law(红色三角形),误差带更窄,表明其预测更稳定准确。

此外,通过 RMSE 对比预测损失和实际损失,LensLLM 的误差显著更低,例如在 Wikitext 数据集上,LensLLM 的误差通常是 Rectified Scaling Law 的 5 倍之小(例如,OPT-6.7B:0.026vs0.132;mT5-Large:0.028vs0.144)。在 FLAN 数据集上,LensLLM 保持低 RMSE(0.022-0.035),而 Rectified Scaling Law 的 RMSE 较高(0.087-0.15)。在 Gigaword 数据集上,LensLLM 的性能始终低于 0.036,而 Rectified Scaling Law 的 RMSE 在 0.094-0.146 之间波动。这些结果在三个数据集和十四种架构上证实了 LensLLM 在预测训练动态方面的卓越准确性。

图片

表格 2: 预测测试损失与实际测试损失方面的均方根误差(RMSE)对比(×10-1).

核心优势二:更准、更快地选出 “最优解”

LensLLM 在 LLM 选型任务中也展现了压倒性的优势。在 FLAN、Wikitext 和 Gigaword 数据集上,LensLLM 在 Pearson 相关系数(PearCorr)和相对准确率(RelAcc)两项关键指标上均取得最高分。例如,在 Gigaword 数据集上,LensLLM 实现了高达 85.8% 的 PearCorr 和 91.1% 的 RelAcc。这意味着 LensLLM 能够更有效地对模型进行排名,并选出性能接近最优的模型。

图片

图片

图 3:LensLLM 在 FLAN、Wikitext 和 Gigaword 数据集上的 Pearson 相关系数和相对准确率表现。LensLLM(最右侧深蓝色条形)在所有数据集上均显著优于 Rectified Scaling Law、NLPmetrics、SubTuning、ZeroShot 和 ModelSize 等基线方法,展现了其在模型选型中的卓越能力。

更令人振奋的是,LensLLM 在保持高精度的同时,极大地降低了计算成本。与 FullTuning 相比,LensLLM 能够将计算成本降低高达 88.5%!LensLLM 在各项任务中的计算成本分别为 0.48、0.59 和 0.97×1021FLOPs,这大大优于 SubTuning 和 FullTuning。这得益于其创新的渐进式采样策略,使得 LensLLM 在更低的 FLOPs 消耗下,就能达到卓越的选型性能,让 LLM 选型真正实现高效与准确的平衡。

图片

图 4:LLM 选型性能与计算成本的 Pareto - 最优曲线。LensLLM(橙色点)在显著降低 FLOPs(计算成本)的同时,保持了高水平的 Pearson 相关系数,相较于 Rectified(蓝色点)、SubTuning(绿色点)和 FullTuning(紫色点)展现出更优的效率。

四、未来展望:让 LLM 选型走向更广阔天地

这项突破性的研究为 LLM 的开发和应用提供了强大的新工具。它将帮助研究者和工程师们更自信、更高效地探索大模型的潜力,让 LLM 的普及和落地更进一步。LensLLM 的成功,不仅为 LLM 选型建立了新的基准,更开启了未来的无限可能。研究团队指出,未来有望将 LensLLM 扩展到多任务场景,探索其对模型架构设计的影响,并将其应用于新兴模型架构,例如 MoE(Mixture of Experts)模型。

潜在应用场景:

  • 资源受限环境下的模型部署:LensLLM 的高效性使其特别适用于边缘设备或计算资源有限的场景,能够快速筛选出兼顾性能与效率的最佳模型。
  • A/B 测试与模型迭代:在实际产品开发中,LensLLM 可以大大加速新模型的测试与部署周期,降低试错成本。
  • 个性化 LLM 定制:用户可以根据自身数据特点和任务需求,快速找到最匹配的 LLM,实现模型性能最大化。

五:结语

面对 LLM 的澎湃发展,LensLLM 犹如一座灯塔,照亮了高效、精准模型选择的道路。它将终结 LLM 微调的 “玄学”,引领我们进入一个更加 “智能” 和 “高效” 的 LLM 应用新纪元。

图片

....

#Ilya尘封10年录音曝光

大二入Hinton门下,竟坦言机器学习反直觉

即便在Transformer与ChatGPT尚未诞生的年代,Ilya已敏锐预见深度学习的广阔前景,展现出令人叹服的远见与清醒。这是一段10年前Ilya对于如今AI时代的预言。

Ilya Sutskever因在深度学习方面的远见卓识而闻名。

他现在许多广为流传的言论其实都来自于他在2023年参加Dwarkesh播客时的发言。

此后,直到2025年Ilya创办SSI后,几乎不再有公开的言论。

最近,一位名为Nathan Lambert的博主声称他收到了一段Ilya在10年前,也就是2015年谈论深度学习的语音片段。

令他感到震惊的是,Ilya在那么多年前就已准确预见了这一切,尤其是他的直觉从那时至今几乎没有任何改变。

在进行资料整理,同样震惊我们的是:

早在2015年,Ilya对于深度学习的理解就已经远超如今绝大部分人(即使是10年后今天)。

这个视频片段来自一个已经停播的博客节目《Talking Machines》,我们在其官网找到最初的采访录音。

此时的Ilya还是谷歌的研究员,节目中谈论了他的工作、他是如何对机器学习产生兴趣的,以及为何机器学习(Machine Learning)会和魔法思维(Magical Thinking)产生联系。

现在就让我们将时间回拨10年,看看当年的Ilya是如何洞察深度学习的。

在编辑这篇文章时,我们也惊讶地发现,即使只是通过文字记录,Ilya的观点历经10年岁月洗礼,依然鲜明犀利。

数学出身的Ilya,认为「机器学习」违反直觉

Ilya首先讲述了他通往人工智能的道路,对于这样一位才华横溢的人物来说,这并不令人意外。

我十几岁时就一直对人工智能感兴趣。

我觉得那非常棒而且引人入胜。之后我继续攻读了数学专业本科。

当你学习数学的时候,你会深知数学注重的是证明事物。

如果你看到某种规律,在没有经过证明之前,它并不意味着就是正确的。

因此,对于拥有数学背景的我来说,学习(机器学习)似乎是非常违反直觉的,因为学习强调的是进行归纳推理,而这些归纳步骤看起来很难用严谨的方法去解释清楚。

如果你习惯于严格地证明结果,那么归纳似乎几乎就像魔法一样。

因此,我当时对学习特别感兴趣,因为我深知人类具备这种能力,而从单纯的数学角度来看,学习似乎根本不可能实现,这让我感到不可思议。

大二和Hinton合作

于是我开始四处寻找,结果发现多伦多有一个非常出色且强大的学习研究团队。 

我在本科二年级时便开始与Jeff Hinton(AI之父)合作。

相比硬科学,机器学习的理解更加容易

机器学习确实是一门复杂的科学。

我想这不像物理学。

我认为在物理学、数学以及许多其他硬科学领域,一个人需要掌握大量知识后才能开始发挥作用。

虽然我不太确定,因为我从未涉足这些领域。

这只是我的印象。

而机器学习则更多地是,那些重要的想法,甚至是与前沿研究相关的想法,都离表面非常近。

这个观点和我们如今的现状是如此的吻合。

尤其是在一个远离真正训练前沿的实验室中,在没有特别努力寻找的情况下,周围的机器学习的低垂果实之多令人惊讶。

深度学习之所以有效,很大程度上是因为人们愿意付出努力去把握这些机会。

Ilya认为:

只要有正确的指导和方向,无需多年学习就能理解机器学习背后的主要思想、有效方法的主要理念以及主要的直觉认识。

监督学习是机器学习中最成功的领域

Ilya在访谈中谈到,到目前为止(2015年),监督学习是机器学习中最成功的领域。

主持人随后请Ilya解释他最近的工作,Ilya继续深入讲解了深度学习如何得出答案的另一个核心要点。

所以你说,好,数据会告诉我们最佳的连接方式。

因为深度神经网络是一种非常强大、非常丰富的模型,它可以完成很多复杂的任务。

我们很难想象它有哪些事情是无法做到的。

正因如此,每当我们拥有大型数据集时,我们可以应用一种简单的学习算法来找到最佳的神经网络,并取得良好的结果。

因此,我当时致力于将深度监督学习方法应用于神经网络,解决输入是序列、输出也是序列的问题。

从概念上讲,这与我之前所讨论的内容并没有实质差别,主要是一个技术问题。

其关键在于确保模型能够处理输入和输出都是长度不再预先固定的序列。

但它的基本方法是一样的,并且使用了相同的基本学习算法。

因此,再次强调,由于这些模型具有很强的表达能力和功能,它们确实能够解决许多困难的、非平凡的模式识别问题,以及用其他任何手段几乎无法想象能解决的问题。

再者,令人惊讶的是,尽管这种方法最终表现得如此强大,它实际上却非常简单易懂。

学习算法极其简单。也许只需要一个小时,一个聪明的学生就能理解它全部的工作原理。

这个观点也和我们当下的现状极度吻合。

不论是LLM还是Transformer,我们都可以在简单学习后,了解它的基本原理。

甚至就像2023年那次采访的题目,为何「预测下一个单词」这么简单的模型就能超越人类的智能。

只是为了增加数据

在Ilya看来,将深度学习中成功的图像分类技术应用到序列分类(即更接近文本)上只是「一个技术细节」。

人们所做的很多工作更像是在为模型构建数据加载器,而不是我们提出的架构本身有多新颖。

Ilya如此注重数据和通用性,那么后来像Transformer这样的架构席卷整个机器学习领域也许并不会让他感到意外。

神经网络的目标函数非常复杂

它高度非凸。

而且从数学上完全没有任何保证能确保优化成功。

因此,如果你和一位研究优化理论的学者讨论,他们会告诉你,从理论上根本没有理由相信这种优化会奏效。

然而,事实证明它确实能成功——这是经验证明的结果。

纯粹靠理论,我们很难解释太多细节。

并不是因为这里有什么「魔法」,而只是说明我们还没完全搞清楚原理。

我们其实不清楚,为什么这些看似简单的启发式优化算法在这些问题上表现得如此出色。

因为没有任何数学定理或理论可以说明它们必然会成功。

我们真正期待的定理,应该反映「在现有条件下做到最好」这种理念。

然而,人类的智慧并不追求绝对最优,就像我们设计飞机或汽车时也不会力求完美。

我们只需要一个「够好」的工程系统就行。

深度学习和非凸优化给我们的,正是一群「够好」的系统。虽然它们可能不是最优解,却依然非常有用、充满潜力。

这就是事实。

深度学习追求的是「够好」

在许多领域,尤其是学术界,人们过度追求最优,反而忽略了真正重要的目标。

深度学习是一门务实的科学,它在现有资源条件下追求「够好」。

随着数据量和算力的飞速增长,「够好」往往就能带来惊人的成果。

这种「够好」的思路,也让现代人工智能更像「炼金术」而非传统科学.

因为传统科学的进展通常要慢得多。

也许正是这种因为深度学习是务实的,在如今算力爆炸和数据丰富的时代,LLM虽然还是「黑箱」,但已经切实的改变了我们的工作和生活。

某种意义上,也算「预言」了整个LLM时代。

初始化的尺度直接决定了模型的可训性

关于这一点,还有一些不那么直观但非常重要的细节值得讨论。

你可以这样理解:神经网络里有大量神经元和连接,每层都会先将输入乘以随机权重,再经过非线性变换。

第一层处理完后,第二层又会重复相同的过程:乘权重、做非线性变换。

如果这些随机权重太小,信号在多次相乘后就会迅速衰减到几乎为零。

当信号到达输出层时,你几乎感受不到任何输入的影响。

这样一来,学习算法就无法发现输入和输出之间的关联,也就没法改进模型。

因此,我们必须让随机初始化的权重大多数情况下足够大,才能保证输入的变化一路传递到输出层。

一旦满足了这个条件,梯度就能够找到正确的方向,有效地优化网络。

…因此在实际应用中,当研究人员希望在一个真实数据集上训练神经网络时,初始化的尺度是你需要关注的最重要的参数之一。

以上内容节选自音频对话内容,绝大部分来源于Ilya本人。

这就是Ilya 2015年对机器学习的深刻洞察。

那时,距离Transformer发布还有4年,距离ChatGPT发布还有7年的时间。

但是Ilya已经深刻地体会到神经网络的威力。

如果你想要更加深入的了解,可以详细听听上面的👆音频。

最后想说的是,Ilya对于这场改变我们所有人的科技革命的直觉。就来自于在这次访谈中他想要告诉我们的:追求务实,拥抱简单。

参考资料:

​https://feeds.acast.com/public/shows/talking-machines​​​

....

#Human2LocoMan

通过人类预训练学习多功能四足机器人操控出发点与工作背景

四足机器人虽在复杂环境中移动能力出色,但赋予其可扩展的自主多功能操作技能仍是重大挑战,为此本文提出一种用于四足操作的跨实体模仿学习系统,该系统利用从人类和配备多种操作模式的四足机器人 LocoMan 收集的数据,通过开发远程操作和数据收集管道来统一并模块化人类和机器人的观察空间与动作空间,同时提出高效模块化架构以支持不同实体间结构化模态对齐数据的联合训练和预训练,还构建了首个涵盖单手和双手模式下各种家庭任务的 LocoMan 机器人操作数据集及相应人类数据集;实验在六个真实世界操作任务中验证,与基线相比整体成功率平均提升 41.9%、分布外场景提升 79.7%,利用人类数据预训练后整体成功率提升 38.6%、分布外场景提升 82.7%,且仅用一半机器人数据就能持续实现更好性能。

我们的代码、硬件和数据已开源:https://human2bots.github.io。

一些介绍

尽管四足机器人在复杂环境中移动能力出色且已扩展到操作任务,但实现大规模自主多功能操作仍是主要挑战。模仿学习是通过演示教机器人复杂技能的基础方法,高质量数据获取至关重要,先前工作主要在机械臂、人形机器人和配备顶部机械臂的四足机器人上探索收集域内机器人数据的策略,而在 LocoMan 等四足平台上收集自我中心操作数据未被充分探索。为扩展模仿学习数据收集,近期工作提出利用仿真或人类数据,人类数据已被用于提供高级任务指导、改进视觉编码器等,但在涉及四足等非传统实体操作任务中的有效性尚未验证,且人类与四足机器人之间巨大的实体差距对数据收集和策略迁移构成挑战,因有效的远程操作或人类演示通常需要与目标机器人运动学相似的控制系统或专用末端执行器。

为解决四足机器人实现大规模自主多功能操作面临的挑战,受 LocoMan 平台启发,研究人员提出 Human2LocoMan 框架用于四足操作学习。在数据收集方面,该系统借助扩展现实(XR)头显,收集人类数据时捕捉人类动作并传输第一人称视图,远程操作时传输第一机器人视图;人类数据收集时操作者自然执行任务,远程操作时系统将人类手部动作映射到机器人抓手,头部动作映射到机器人躯干,扩展机器人工作空间和主动感知能力,并将生成的目标姿态传递给全身控制器生成协调动作。此外,为结构化数据和弥合人类与四足机器人的实体差距,系统在共享统一坐标系内对齐两者动作。

与以往用自我中心人类数据预训练视觉编码器、学习交互计划预测,或用与人类运动学相似的机器人数据联合训练模型的工作不同,本研究将人类视为与目标机器人不同的实体,利用人类数据进行模型预训练。鉴于人类和机器人数据映射到统一框架后仍存在动力学差异、机器人额外腕部摄像头等明显差距,研究设计了模块化 Transformer 架构 —— 模块化跨实体 Transformer(MXT),该架构在实体间共享通用 Transformer 主干,同时为共享模态维护实体特定的标记器和去标记器;MXT 策略先在人类数据上预训练,再用少量机器人数据微调,单个预训练模型可通过微调适应不同机器人实体,且方法与先前相关工作正交,架构兼容任何预训练视觉编码器,并支持多实体数据联合训练。在六个跨单手和双手操作模式的家庭任务评估中,该方法相比基线平均提升 41.9%、OOD 场景提升 79.7%,用人类数据预训练使整体成功率提升 38.6%、OOD 场景提升 82.7%,证明了从人类到四足实体的有效正向迁移,凸显了系统在学习多功能四足操作技能及可扩展大规模跨实体学习中的潜力。

Human2LocoMan的系统架构​

Human2LocoMan 系统概述

我们研究利用 Apple Vision Pro 头显和 OpenTelevision 系统捕捉人类动作,并向操作者传输第一人称或第一机器人视频,在 VR 头显和 LocoMan 机器人上安装 120 度水平视场的轻型立体相机提供自我中心视图,机器人还可附加额外相机。借助 Human2LocoMan 远程操作系统,人类操作者能控制 LocoMan 机器人在单手和双手模式下执行多功能操作任务,其中单手模式将人类头部动作映射到机器人躯干运动,以扩展工作空间和增强感知。该系统支持收集人类和机器人数据,并转换到共享空间,通过掩码区分实体和操作模式,收集的人类数据用于预训练模块化跨实体 Transformer(MXT)动作模型,远程操作收集的机器人数据则用于微调预训练模型,从而学习预测 LocoMan 末端执行器、躯干 6D 姿态及抓手动作的操作策略。​

Human2LocoMan 远程操作与数据收集

人类和 LocoMan 的统一框架:为通过基于 VR 的远程操作将人类动作映射到 LocoMan 的各种操作模式,并增强跨不同实体的动作数据的可迁移性,我们建立了统一参考框架 ,以跨实体对齐动作。如图 2所示,该统一框架附着于安装主相机的刚体。在实体的重置姿态下,x 轴指向前方,与工作空间对齐并平行于地面;y 轴指向左方;z 轴指向上方,垂直于地面。

动作映射:我们将人类腕部动作映射到 LocoMan 的末端执行器动作,将人类头部动作映射到 LocoMan 的躯干动作,将手部姿势映射到 LocoMan 的抓手动作。VR 定义的世界框架中人类手部、头部和腕部姿势的 SE (3) 6D 姿态从 VR 设备流式传输到 Human2LocoMan 远程操作服务器。人类头部姿势表示为  ,腕部姿势为  和  ,其中  表示平移, 表示 VR 定义的世界框架中的旋转。然后,6D 姿态可转换为统一框架  : ,其中  是 VR 定义框架相对于统一框架  的旋转矩阵。

全身控制器:在时间步 t,机器人目标姿态由远程操作服务器计算后,发送至 LocoMan 机器人的全身控制器。该控制器是一个统一的全身控制器,其作用在于跨多种操作模式,对躯干、末端执行器和脚部的期望姿态进行跟踪。在具体计算过程中,采用零空间投影实现运动学跟踪,运用二次规划进行动态优化,以此得出期望的关节位置、速度和扭矩。

数据收集:在数据收集环节,研究人员在远程操作过程中对机器人数据进行记录,其中由时间步 t 的机器人观察和机器人动作构成,T 代表 episode 长度。同时,明确将和分别定义为从机器人主立体相机和腕部相机获取的图像。​

模块化跨实体 Transformer

鉴于我们统一的多实体数据收集管道,我们旨在训练一种跨实体策略,其整体结构和大部分参数是可迁移的,同时考虑每个实体特有的模态特定分布。为此,我们提出了一种名为模块化跨实体 Transformer(MXT)的模块化设计。如图 3 所示,MXT 主要由三组模块组成:标记器、Transformer 主干和去标记器。标记器作为编码器,将特定于实体的观察模态映射到潜在空间中的标记,而去标记器将主干的输出标记转换为每个实体动作空间中的动作模态。标记器和去标记器特定于一个实体,并为每个新实体重新初始化,而主干在所有实体间共享,并用于在实体间迁移策略。​

训练范式

对于给定任务,我们首先使用人类数据集对模型进行预训练,然后用对应的 LocoMan 数据集进行微调。微调时,仅从预训练检查点初始化 Transformer 主干网络的权重。对于语义相似但操作模式不同的任务(在表 1 中代表不同实体),我们先在跨任务的人类数据集上联合预训练模型(涵盖不同操作模式),再使用对应的 LocoMan 机器人数据集对每个任务进行微调。

预训练和微调均采用行为克隆目标函数。一般来说,给定某实体 e 的数据集 De 和对齐的动作模态 m₁,…,mₖ,在实体 e 上训练时的总优化损失为: 其中是动作模态相对于实体 e 数据集的ℓ₁损失。实际中,对每个训练批次,我们优化以下批量损失作为的代理: 其中:

  •  为动作标签序列样本中第 l 步的模态动作;
  •  为模型在第 l 步对模态的预测动作;
  • h 为数据块大小或动作预测范围。​

实验

实验设置

任务:使用 Human2LocoMan 系统收集的数据,在 LocoMan 机器人的单手 / 双手操作模式下,对 6 项不同难度的家庭任务评估 MXT:

  • 单手玩具收集(TC-Uni):机器人需拾取矩形区域内随机摆放的玩具并放入地面篮子,涉及抓取和释放动作,使用 10 个物体微调,全部物体用于预训练和评估。
  • 双手玩具收集(TC-Bi):类似 TC-Uni,但玩具位于篮子两侧矩形区域,同样使用 10 个物体微调。
  • 单手鞋架整理(SO-Uni):长时序任务,需整理鞋架不同层的两只鞋,涉及推、敲击等动作,包含 3 双鞋(1 双为 OOD)。
  • 双手鞋架整理(SO-Bi):将第三层边缘的一双鞋向内推并对齐,涉及推和敲击动作。
  • 单手铲取(Scoop-Uni):使用铲子从猫砂盆不同位置铲取 3D 打印猫砂并倒入垃圾桶,涉及工具使用和可变形物体操作,包含抓铲、倾倒等子步骤。
  • 双手倾倒(Pour-Bi):双手操作将乒乓球从一个杯子倒入另一个,需精准抓取杯子并倾倒,涉及拾取、倾倒和放置动作。

Human2LocoMan 实体模式:单手和双手模式在形态、观察空间和动作空间上不同,单手任务使用腕部摄像头。

数据收集:每个任务收集不同数量的人类和机器人轨迹数据,10% 用于验证(具体见附录表 III)。

训练细节:玩具收集和鞋架整理任务中,先利用单 / 双手人类数据联合预训练模型,再用对应机器人数据微调;所有任务使用相同超参数(如批量大小、数据块大小),模型超参数见附录。

基线方法:与以下 SOTA 模仿学习方法对比:

  • 人形模仿 Transformer(HIT):基于 ACT 的解码器架构,同时预测动作序列和图像特征,引入 L2 图像特征损失防止过拟合,仅使用机器人数据训练。
  • 异构预训练 Transformer(HPT):在仿真、真实机器人和人类视频的异构数据上预训练,包含主干和头尾结构;与 MXT 区别在于:MXT 按模态对齐数据并保留模态特异性,而 HPT 使用单一标记器,且冻结图像编码器(MXT 端到端微调)。对 HPT 测试三种设置:仅用 LocoMan 数据、人类数据预训练 + LocoMan 微调、直接微调预训练 checkpoint。

评估指标

  • 成功率(SR):ID 物体测试 24 次,OOD 物体测试 12 次,计算完成所有子步骤的比例。
  • 任务得分(TS):每个子步骤完成得 1 分,达成最终目标额外 1 分,总分由所有测试回合累加。
  • 验证损失:反映模型优化程度,用于对比不同架构训练过程。

结果与分析

Human2LocoMan 系统是否赋予四足机器人多功能操作能力?

  • 数据收集效率:30 分钟内可收集超 50 条机器人轨迹和 200 条人类轨迹,复杂任务 1.5 小时内可收集超 300 条人类轨迹,机器人操作速度接近人类。
  • 任务通用性:支持单手 / 双手、抓取 / 非抓取、可变形物体操作及工具使用,可泛化至 OOD 物体和场景。
  • 任务性能:MXT 在小数据集下表现优异,基线方法也有不错性能,验证了数据质量和训练流程的有效性。

MXT 与 SOTA 模仿学习架构的对比如何?

  • 对比 HIT:多数任务中,未预训练 MXT 与 HIT 性能相当或更优,预训练 MXT 在成功率和任务得分上持续领先;MXT 验证损失更低,训练收敛性更好,在大数据集任务中优势更明显。HIT 在鞋架整理等物体变化少的任务中表现较好。
  • 对比 HPT:MXT 在玩具收集任务的所有预训练和数据规模组合中,成功率和任务得分均优于 HPT;HPT 存在严重过拟合,而 MXT 的模块化设计促进了更好的泛化能力。

Human2LocoMan 收集的人类数据如何提升模仿学习性能?

  • 效率、鲁棒性与泛化性:人类数据预训练显著提升 LocoMan 操作性能,即使机器人数据有限也能保持高性能;预训练帮助 MXT 在 ID 场景(如物体位置多样的任务)中更精准定位目标,在 OOD 场景(如形状 / 颜色差异大的物体)中泛化能力更强。
  • 长时序任务表现:在需多步操作的任务中,预训练 MXT 随任务推进保持较高成功率,而其他方法常在前几步失败,表明人类数据预训练提升了操作精度,关键在于完成顺序性长时序任务。

MXT 的设计是否促进了从人类到 LocoMan 的正向迁移?

  • 跨实体迁移能力:尽管实体差异大,MXT 的验证损失差距和泛化能力优于 HPT;HPT 因缺乏模块化设计和冻结图像编码器性能较差。
  • 模块化设计优势:消融实验显示,模仿 HPT 设计的 MXT-Agg 性能低于 MXT,表明模块化标记器能有效利用人类数据,平衡网络表示能力和迁移性,避免过拟合。​

局限

我们的系统为四足机器人的跨实体操作和高效数据收集引入了一种新方法,但它也存在一些局限性。首先,远程操作系统仍需要人类操作者进行一定的练习才能实现精确操作,并且在某些方面可能感觉不直观,例如通过头部动作控制躯干运动。其次,尽管我们设想该系统能够实现大规模的跨实体学习,但在这项工作中,我们尚未将其扩展到其他机器人平台或纳入额外的机器人数据集。作为未来的工作,我们计划验证其在不同机器人类型(包括机械臂和人形机器人)中的可扩展性和鲁棒性。​

结论

本文介绍了用于灵活数据收集和跨实体学习的统一框架 Human2LocoMan,其基于开源 LocoMan 平台实现多功能四足操作技能,通过远程操作和人类数据收集系统弥合人类与机器人实体间动作空间,实现大规模高质量数据集的高效获取,并提出模块化跨实体 Transformer 架构以支持从人类演示到机器人策略的正向迁移。实验在六个挑战性家庭任务中表明,该框架性能强大、训练高效,对分布外场景具鲁棒泛化能力,优于主流模仿学习基线,凸显了跨实体学习和模块化策略设计在推进可扩展多功能四足操作上的有效性。

参考

[1] Human2LocoMan: Learning Versatile Quadrupedal Manipulation with Human Pretraining

....

#2025 AI 实战手册,年收入破亿的 AI 公司都在干什么?

硅谷知名财富管理和投资机构 ICONIQ Capital 团队近日发布了 2025 年度的「The State of AI」报告,通过问卷收集 Cursor、ElevenLabs、Sierra 等 300 家 AI 公司的高管的回答,梳理并探究了企业在实操中如何开发和规模化落地 AI 产品。

目录

01. 相隔 9 个月,硅谷的 AI 公司已经进入下个阶段了?! ICONIQ 投的 AI 公司发展如何了?赚多少钱才算高增长的 AI 公司?...

02. AI 不再是附属品,AI 原生产品更容易推向市场?

AI 原生公司的优势都有哪些?年收入破亿的公司如何开发 AI 产品?...

03. 定价逻辑尚未成熟,但免费产品仍会留存?

以后的 AI 产品会怎么收费?哪些公司喜欢混合定价策略?...

04. 营收 1 亿美元是 AI 领导的设立门槛?

AI 公司对人才的需求在如何变化?去年和今年的招聘情况有何区别?..

05. AI 公司的预算都花在了哪里?

不同产品阶段对企业的 AI 预算有何影响?高增长 AI 企业正面临什么困局?...

06. AI 公司内部也不是都爱用 AI?

 哪些 AI 工具最受 AI 公司欢迎?哪些部门和职能对AI适应性更高?...

01  相隔 9 个月,硅谷的 AI 公司已经进入下个阶段了?! 

1、「The State of AI Report」是 ICONIQ 团队的系列研究主题。其 2025 年度报告的主题为「The Builder’s Playbook」,相较于 2024 年版本仍在关注 GenAI 的发展情况与潜力,新报告主要围绕如何将 AI 产品落地这个关键问题,聚焦于企业构建和运营 AI 产品的战术路线图,探索如何构思、交付和扩展 AI 驱动的产品。

① ICONIQ 在 2024 年 9 月发布的《Navigating the Present and Promise of Generative AI - The State of AI》聚焦于生成式 AI 在,围绕企业的预算决策、采购偏好、ROI 预期以及在不同职能部门的应用情况等展开分析。

② 2025 年的「The Builder’s Playbook」重点关注 AI 产品落地,其研究方向涉及产品路线图、市场策略、人才建设、成本管理以及内部生产力等维度。

③ 该系列报告均采用问卷调研的形式进行研究,其受访者大多为 ICONIQ Venture and Growth 投资组合中的公司高管。

2、伴随研究主题从「是否要采用 AI」走向「如何构建与落地 AI 产品」,2025 年报告的 300 名调研对象均为软件公司的高管,包括首席执行官、工程负责人、AI 负责人和产品负责人等。

① 2024 年 9 月报告的调研对象更偏向「AI 采用方」企业的 CXO。在 219 位受访者中,89%的企业均将 GenAI 评为公司的重要事项,约 88%的企业批准了 AI 投资预算。

3、在 2025 年的报告将构建 AI 产品的公司分为「AI 原生」(AI-Native)和「AI 赋能」(AI-Enabled)两类,并识别其中的「高增长企业」(High Growth Company),进而梳理这些公司在不同层面的发展现状。

① ICONIQ 对「高增长企业」的评判标准涵盖产品,营收和收入增长三个层面。符合标准的企业必然拥有已经处于一般可用阶段或正在规模化的 AI 产品,年度收入至少达到 1000 万美元,收入增长的指标则设置了一定弹性。

② 「高增长企业」的收入若低于 ¥2500 万,则年收入增长率需达到 100% 以上;若收入在 $2500 万至 $2.5 亿之间,则年收入增长率需达到 50% 以上;若收入超过 $2.5 亿,则年收入增长率需达到 30% 以上。

4、该报告设置了五个主要章节,从开发、市场定价、组织架构、预算和内部生产力五方面入手,剖析了构思、交付和扩展 AI 产品的端到端流程。

02  AI 不再是附属品,AI 原生产品更容易推向市场?

在产品开发主题的章节,该报告从模型演进的每个阶段,如何平衡实验性、市场投放速度与性能的最新最佳实践等方面探讨了 AI 产品的路线图与架构。

1、 从产品成熟度的视角出发,报告发现 AI 原生公司的的初代产品相较于 AI 赋能型公司在生命周期上推动更快,且能更早地获得成功。

① 报告对比了不同企业初代 AI 产品目前的发展阶段,指出 47%AI 原生公司的产品已经实现实现规模的扩张,并且在市场方面也得到了验证并证明了其适用性,而那些依靠 AI 进行赋的公司产品只有 13%达到上述阶段...

....

#MAS-GPT

多智能体的ChatGPT时刻?上交MAS-GPT实现工作流一键生成

本文第一作者叶锐,上海交通大学博士三年级,研究方向是大模型多智能体,联邦学习,博士导师陈思衡,上海交通大学人工智能学院副教授。

OpenAI 将 “组织级智能 (Organizational AI)” 设定为通向 AGI 的第五个重要阶段 —— 期待 AI 能像一个高效协作的组织那样,处理复杂任务并协调大规模运作。多智能体系统(Multi-Agent Systems, MAS)正是实现这一目标的重要探索方向。

然而,构建能够支撑这种复杂智能的 MAS 并非易事,研究者们常面临结构繁多、Prompt 调试耗时、难以解决通用任务等挑战……

如今,一种全新的方法出现了,由上海交通大学人工智能学院、上海人工智能实验室、牛津大学等机构联合推出的 MAS-GPT,正式提出:生成式 MAS 设计范式,只需一句 Query,就能 “一键生成” 一套可执行、组织清晰的 MAS!

这意味着,构建 MAS 变得 “像与 ChatGPT 聊天一样简单,一个问题直出完整多智能体系统”!MAS-GPT,正努力让这条通往 AGI 第五阶段的道路,变得更加平坦和高效。

该工作 “MAS-GPT: Training LLMs to Build LLM-based Multi-Agent Systems” 发表于国际机器学习大会 ICML 2025。

论文链接:https://arxiv.org/abs/2503.03686

代码链接:https://github.com/MASWorks/MAS-GPT

模型链接:https://huggingface.co/MASWorks/MAS-GPT-32B

生成式 MAS 设计:

一句话输入,自动生成 MAS

现有 MAS 方法(如 ChatDev、DyLAN、AFlow 等)虽强大,但存在三个根本问题:

  • 无适应性:MAS 结构与提示词高度依赖人工,毫无适应性;
  • 成本高昂:依赖多轮 LLM 调用来设计 MAS,成本完全顶不住;
  • 泛化性低:依赖于测试集对应的验证集进行优化,泛化性堪忧。

这些问题严重阻碍了 MAS 的广泛应用。以当前处理大规模并发用户请求的类 ChatGPT 交互系统为例,若其底层架构采用现有 MAS 范式,其可扩展性与鲁棒性将无法满足服务需求。

图片

MAS-GPT 如何破局?答案是:

将 “设计 MAS” 彻底转变为一个语言生成任务!输入你的 Query,输出就是一套可直接运行的多智能体系统!

这套生成的 MAS,完全由 Python 代码优雅呈现:

  • Agent 的提示词:Python 变量,清晰明了
  • Agent 产生回应:LLM 调用函数,智能核心
  • Agent 间的交互:字符串拼接,简洁高效
  • Agent 工具调用:Python 函数,扩展无限

从此,MAS 不再 “人写”,而是 “模型写”!

图片

如何教 LLM “设计 MAS”?

MAS-GPT 的训练不是靠死记硬背,而是通过设计精巧的数据构造流程,让模型学会 “针对什么样的 Query,设计什么样的 MAS”。

四步构建高质量训练数据:

1. 数据池构建(Pool Construction):广泛收集覆盖数学、代码、通用问答等多领域的 Query,并汇集 40 + 种基础 MAS 代码结构;

2. 数据对评估(Pair Evaluation):对每一个 “Query-MAS” 组合进行细致的自动化评估与标注

3. 数据对选择(Pair Selection):根据跨组一致性(Inter-consistency)原则,将相似的 Query 统一匹配到表现最好的 MAS;

4. 数据对精修(Pair Refinement):根据组内一致性(Intra-consistency)原则,借助大模型改写 MAS、添加推理解释,使其与 Query 逻辑高度贴合。

最终得到了 11K 条高质量数据样本,通过一次简单的监督微调(SFT)开源模型,便训练得到了 MAS-GPT。

图片

有了 MAS-GPT,多智能体系统的推理过程变得前所未有地简单。

用户抛出一个 Query,MAS-GPT 一次调用生成专属 MAS;该 MAS 立即执行并返回答案给用户,一步到位。

多项实验证明:

MAS-GPT 不仅灵巧,还很强!

MAS-GPT 的设计目标非常明确:一轮 LLM 推理即可生成任务适配的 MAS。实验结果也不负众望。

研究团队在 8 个基准任务 × 5 种主流模型上,系统对比了 10 多种现有方法,结果显示,MAS-GPT:

  • 更准:MAS-GPT 平均准确率全面领先,对比当前最强基线提升 3.89%!
  • 更泛化:即使在训练时未见过的任务(如 GPQA、SciBench)上也保持稳健表现!

图片

  • 更省:在推理过程中,MAS-GPT 可以在几乎 0.5 倍推理成本下,跑出比 DyLAN、GPTSwarm 等更好的效果!

图片

  • 兼容性强:MAS-GPT 生成的 MAS,无论用哪种 LLM 驱动,都能带来一致的性能提升!这意味着它具有极佳的 “兼容性” 和 “普适性”。

图片

还能进一步拓展推理大模型的能力边界

MAS-GPT 生成的 MAS 不仅适用于 Chatbot LLM,还能用来辅助更强的 Reasoner LLM 推理。

使用 OpenAI o1 和 DeepSeek-R1 等强推理模型 + MAS-GPT 结构,在 AIME-2024 数学挑战上:

  • o1 + MAS-GPT 提升了 13.3%
  • DeepSeek-R1 + MAS-GPT 提升了 10.0%

MAS-GPT 真正具备将强模型 “组织起来干活” 的能力!

图片

MAS-GPT 的训练阶段的延展性和发展潜力!

除了在性能、适用性和使用友好上具有一定优势外,MAS-GPT 的训练阶段的参数规模也有很大的探索空间,反应出极大的发展潜力!

图片

不止会 “套模板”,还能生成新结构!

通过深入的可视化分析,研究团队发现 MAS-GPT 远不止会 “套模板” 那么简单:

  • 能够自动生成新颖的 MAS
  • 面对从未见过的任务,依然能给出合理的 agent 分工与协作方式
  • 为每个 MAS 附上推理说明,解释 “为什么这样设计”

真正做到了:不是背答案,而是学会设计!

图片

MAS-GPT 未来愿景

MAS-GPT 提出了一个前所未有的思路:“为每个 Query 自动生成一个 MAS”。理论上,领域内所有多智能体系统,都有可能被整合进 MAS-GPT 的训练数据中。这意味着,MAS-GPT 能够站在巨人的肩膀上,博采众长,不断进化,生成越来越精妙、越来越强大的 MAS。

正如 LLM 的发展路径所示,随着基座模型能力的持续增强和数据质量与多样性的不断丰富,MAS-GPT 的未来也将不断进化。

或许在不久的将来,与你智能交互的不再仅仅是一个 Chatbot,而是一个强大的 MAS-GPT。它会洞悉你的每一个问题,为你量身打造最合适的智能系统 —— 无论是简洁的单 Agent,还是结构精巧的多 Agent 协作网络。

MASWorks 大模型多智能体开源社区

MAS-GPT 也是最近刚发起的大模型多智能体开源社区 MASWorks 的拼图之一。MASWorks 社区致力于连接全球研究者,汇聚顶尖智慧,旨在打造一个开放、协作的平台,共同分享、贡献知识,推动多智能体系统(MAS)领域的蓬勃发展。

作为社区启动的首个重磅活动,MASWorks 将在 ICML 2025 举办聚焦大语言模型多智能体的 Workshop:MAS-2025!

MASWorks 社区期待全球广大智能体开发者和研究人员的贡献与参与。一方面贡献您的智慧和代码,获得更多曝光机会;另一方面,结识志同道合的伙伴,拓展您的学术网络,互帮互助,共同探讨,碰撞思想,共同塑造 MAS 的未来!

  • MASWorks 地址:https://github.com/MASWorks
  • MAS-2025 地址:https://mas-2025.github.io/MAS-2025/

....

#EEdit

降低扩散模型中的时空冗余,上交大EEdit实现免训练图像编辑加速

本论文共同第一作者闫泽轩和马跃分别是上海交通大学人工智能学院2025级研究生,以及香港科技大学2024级博士生。目前在上海交通大学EPIC Lab进行科研实习,接受张林峰助理教授指导,研究方向是高效模型和AIGC。

本文主要介绍张林峰教授的团队的最新论文:EEdit⚡: Rethinking the Spatial and Temporal Redundancy for Efficient Image Editing。

这是首个用于加速匹配流模型上兼容多种引导方案的图像编辑框架。该框架速度提升显著,较原始工作流可加速2.4倍;并且输入引导条件灵活,支持包括参考图像引导,拖拽区域引导,提示词引导的多种编辑任务;该框架采用免训练的加速算法,无需微调和蒸馏。

该论文已经入选ICCV 2025。

最近,基于流匹配(Flow Matching)的扩散模型训练方式逐渐成为扩散模型的热点,以其优雅简洁的数学形式和较短时间步的生成能力吸引了许多研究者的关注。其中以Black Forest Lab开发的FLUX系列模型为主要代表,它在性能和生成质量上超过了以往的SD系列模型水平,从而达到了扩散模型领域的SOTA水平。

然而,扩散模型在图像编辑上的表现还存在诸多痛点,包括所需时间步数量较多,反演过程开销大但是对最终编辑结果质量影响有限,更重要的是,非编辑区域的计算带来的不必要的开销,造成了计算资源的巨大浪费。此外,在各种类型的编辑引导方法上,流匹配模型当前还没有一个统一的方案进行应用和加速。对于图像编辑任务中由于时空冗余性所带来的计算开销问题,当前学界的研究还处于初级阶段,相关研究内容还是一片蓝海。

面对当前研究现状,上海交通大学EPIC Lab团队提出了一种无需训练高效缓存加速编辑框架EEdit。

其核心思想在于,在一个基于扩散模型的反演-去噪的图像编辑过程中,使用输出特征复用的方式在时间冗余性上压缩反演过程时间步;使用区域分数奖励对区域标记更新进行频率控制,非编辑区域复用缓存特征,同时又尽量多地更新编辑区域对应的标记从而达到高效计算的目标。

EEdit具有几个重要的亮点:

1. 无需训练,高效加速。EEdit基于开源的FLUX-dev模型进行推理,无需任何训练或蒸馏,相较于未加速版本达超2.4X推理速度,而相比于其他类型的图像编辑方法最快可达超10X加速。

2. 在图像编辑领域中,首次发掘并尝试解决了由于时空冗余性带来的计算开销浪费的问题。通过反演过程特征复用和区域分数奖励控制区域标记计算频率从而降低编辑任务中模型计算额时空冗余性。

3. 适配多种输入类型引导。该编辑框架适配多种引导类型的编辑任务,包括参考图像引导的图像合成,提示词引导的图像编辑,拖拽区域引导的图像编辑任务。

接下来,我们一起来看看该研究的细节。

研究动机

图片

图表1在将猫->虎的编辑案例中发现的模型计算开销的空间和时间冗余

本文作者在一个图像编辑的实际案例中发现了存在于基于扩散模型的图像编辑任务中的时空冗余性。

非编辑区域相对于编辑区域存在更高的空间冗余 ,在像素级别的差分可视化图像中,编辑区域(动物脸部,毛发纹理部分)存在高亮区域表明这里存在较大的变化幅度,其余黑色区域代表了非编辑区域基本无变化幅度。本文作者将隐藏层按照空间上的对应关系进行重排并使用热力图进行可视化。在隐藏层状态的差分余弦相似度热力图中,也可以发现一致的空间冗余性:编辑区域在反演-去噪过程的前后阶段有较低的相似度,而非编辑区域有更高的相似度。

反演过程相对于去噪过程存在更高的时间冗余,本文作者在一个完整时间步中的反演-扩散过程中分别通过复用来控制跳过一定比例的时间步带来的模型计算。完整反演过程下,缩减去噪时间步编辑结果呈现迅速崩坏的现象;相反,完整去噪过程下,缩减反演时间步编辑结果仍然与完整计算基本保持一致。鉴于扩散模型在每一个时间步的完整计算都需要数据通过整个模型,减少冗余的时间步对于加速编辑延迟有着立竿见影的效果。

方法简介

图片

图表2基于扩散模型反演-去噪范式编辑框架的缓存加速方案

基于MM-DIT扩散模型的图像编辑的框架采用了一种有效免训练方法。编辑框架采用原始图像和编辑提示为输入。具体而言,在反演和去噪的两个过程中,固定的时间步周期进行刷新,而对于周期内时间步,则采用用于更新缓存的部分计算。反演过程中本文作者还额外采用了直接复用模型输出特征来跳过计算的反演过程跳步(Inversion Step Skipping, ISS)技巧。

而对于缓存更新的部分,作者精心设计了空间局域缓存算法,具体设计如下:

图片

图表3用于缩减空间冗余性的空间缓存算法设计

对于图像编辑过程中存在的空间冗余,本文作者巧妙地设计了一种利用图像输入的编辑区域掩码作为空间知识先验来针对性地更新feature tokens的缓存算法。空间局域缓存算法(Spatial Locality Caching, SLoC)是一种即插即用的针对MM-DiT的缓存算法。该算法针对MLP,Cross-Attention, Self-Attention的不同组件都可以进行缓存加速。SLoC会在初始化阶段和固定周期时间步上进行完全计算以减少漂移误差,在周期内会部分计算自注意力和多层前馈神经网络部分的feature tokens并及时更新到缓存中。

SLoC的核心在于对于分数图(Score Map)的细粒度控制来改变不同空间区域所对应的feature tokens经过计算的频率,具体而言:

1. 初始化时会使用随机种子将整个分数图随机初始化,此时所有feature tokens的评分都是服从于高斯分布的随机均匀分布。

2. 对于被编辑区域的feature tokens乘以一个系数作为区域分数奖励,对于相邻区域则乘以一个随L1距离衰减的系数,从而按照编辑区域分布来改变分数图的数值分布。

3. 按照分数图数值排序后的前R%数值对应的索引下标来选取feature tokens,送入模型层进行计算并更新缓存。

4. 对于未被选中的feature tokens,会给予分数图的递增补偿,从而平衡不同区域间的计算频次。对于被选中的feature tokens,该递增补偿会重新累计。

作者还采用了缓存索引预处理(Token Index Preprocessing, TIP)的技巧,具体来说,作者还利用了缓存更新算法中下标索引与具体向量内容的无关性,将缓存更新索引的更新逻辑可以从在线计算方式等价地转变成离线的预处理算法,从而使用集中计算来加速这一缓存的更新过程。

总而言之,通过空间可感的缓存更新和重用算法,SLoC作为EEdit的核心组件发挥了在保证图像编辑质量无损的前提下,加以TIP的技巧使得EEdit达到了相对于未加速的原始方案超过2.4X的加速比。

实验结果

本文在FLUX-dev的开源权重上进行实验,在包括PIE-bench,Drag-DR,Drag-SR,以及TF-ICON benchmark四个数据集上进行了详细的定性和定量实验,对EEdit的性能和生成质量进行检验。

图片

图表4 SLoC在各种指标上与已有的SD系列模型,FLUX系列工作的对比

定量评估维度包括生成领域常用的PSNR,LPIPS,SSIM,CLIP,也包括定量衡量模型效率的FLOPs和推理时间指标。如下图所示,相比于其它类型的编辑方法,EEdit采用的SLoC+ISS的方案,在相同扩散模型权重(FLUX 12B)下的指标的普遍最优,且计算开销和推理时间也有显著提高。有趣的是,相比于权重小一个数量级的的SD系列,本文的方法也具有推理效率上的竞争力。

图片

图表5 EEdit在各种类型的引导条件中的编辑能力与其它方法的对比

不仅如此,定性实验也表明,在多种引导模式下,本文方法具有更强编辑区域精确度,和更强的背景区域一致性。在提示词引导的几个案例中,别的方法存在大幅修改整体布局,或者背景不一致,画风不一致的问题存在;在拖拽引导的案例中,对于用户输入的拖拽意图,本文的方法体现了更好的遵循程度;在参考图像引导的图像合成任务中,本文的方法在画风一致,以及与原物品身份一致性的保持程度上都呈现了显著的优越性。

图片

图表6 空间局域缓存相比于其它加速方法的性能对比

空间局域缓存是否是应用于编辑任务的优越缓存算法?本文作者通过与其它的缓存加速算法的比较,得出的结论是肯定的。与同样可应用于MM-DiT的缓存算法,FORA,ToCa和DuCa相比,本文提出的SLoC算法不仅在加速比和推理延迟上取得优势,而且在前景保持度(FG preservation)中取得了最优的结果。甚至在某些指标上相比于其它缓存加速算法,效果提高50%以上

....

#Grok 4

刚刚,Grok4跑分曝光:「人类最后考试」拿下45%,是Gemini 2.5两倍,但网友不信

马斯克搭帐篷熬夜开发有效果了?这么高跑分,还不发布。

刚刚,Grok 4 和 Grok 4 Code 的基准测试结果疑似泄露。

X 博主 @legit_api 发帖称,Grok 4 在 HLE(Humanities Last Exam,人类最后考试)上的标准得分是 35%,使用推理技术后提高到 45%;在 GPQA 上的得分是 87-88%;而Grok 4 Code 在 SWE Bench 上的得分则达到 72-75%。

image.png

这个跑分结果意味着什么?有网友将其与 OpenAI o3 和 Claude Opus 4 等竞争模型进行了对比。

Grok 4 在 HLE 上的标准得分约为 35%,使用推理技术后提升至 45%,这比 OpenAI o3 的最佳公开得分(约 20%)高出两倍,比 GPT-4o 高出四到五倍。要知道 HLE 是一个自由回答测试,随机猜测准确率仅约 5%,因此每个百分点的提升都非常困难。

在 GPQA(研究生级物理和天文学问题)上,Grok 4 得分 87-88%,与 OpenAI o3 的顶级表现相当,并明显超过 Claude 4 Opus 的约 75%。

Grok 4 在 AIME '25(2025 年美国数学奥赛)上得分 95%,远超  Claude 4 Opus 的 34%,并略优于 OpenAI o3 的 80-90%(取决于思维模式)。

此外,Grok 4 Code 在 SWEBench 的得分与 Claude Opus 4 的 72.5% 持平,略高于 OpenAI o3 的 71.7%。而在 Terminal-Bench 上,Claude 4 Opus 领先,得分 43%,xAI 尚未发布 Grok-4 的相关数据。

其中,网友讨论最多的就是 Grok 4 在 HLE 上达到了惊人的 45%,几乎是 Gemini 2.5 Pro 成绩的两倍。如果泄露的测试结果属实,那么意味着 Grok 4 通过了 AI 基准测试中最艰难的一关。

image.png

还有网友建议关注「标准」得分,认为这是公开模型的基准,推理得分可能涉及实验性配置。

不过,也有网友表示质疑,认为 Grok 4 的 HLE 分数不太可能这么高,这里面肯定有问题。

image.png

该网友给出的理由是,上次 xAI 报告了其他模型使用单次尝试的结果,但对自己的模型却使用了不同的报告方法。

image.png

@legit_api 回复称,这些数字是真实的,但我们不知道配置。

image.png

有网友总结道,目前 Grok 4 泄露出来的所有基准成绩,除了 HLE 以外,其他的看起来似乎还算「合理」。不过 HLE 能跑到这么高分又应该如何解释呢?毕竟这个基准中包含很多晦涩难懂的信息检索。

或许一切都要等待模型正式发布才能有答案了。

其实早在 7 月 1 日,外媒 TestingCatalog 就发文爆料,Grok 4 系列模型的相关信息在 xAI 开发者中控台网站上泄露,包括旗舰模型 Grok 4 和编程模型 Grok 4 Code。

image.png

截图显示,Grok 4 仅支持文本模式,视觉、图像生成及其他功能即将推出。Grok4 支持约 13 万 tokens 上下文窗口,较许多竞争对手的前沿模型要小,这可能表明 xAI 在优化推理速度和实时可用性,而非追求最大化的长上下文性能。从功能上来看,Grok 4 将包括函数调用、结构化输出和推理能力。

还有网友扒出了 xAI 开发者中控台的源代码,这些代码显示,Grok 4 是一个在自然语言、数学和推理方面「拥有无可匹敌的能力」的通才模型,并在当地时间 6 月 29 日完成了训练,其标语为「Think Bigger and Smarter」。

image.png

截图还显示,Grok 4 Code 则是一款专为编程设计的模型,用户可以直接向它提问代码问题,也可以直接嵌入代码编辑器中。

image.png

上个星期,马斯克在推文中表示,他正「通宵达旦地开发 Grok 4」,模型开发「进展良好」但仍需进行「最后一次大规模训练」,特别是在专门代码模型方面。为了这一目标,从上月底开始,马斯克带头在办公室内支起帐篷睡觉,以全身心投入工作。

X 的工程师还出面回应了一下帐篷的问题。

tent.png

生成式 AI,都卷到这种地步了?

泄露的分数不仅刺激了广大网友的小心脏,也在刺激着众多 AI 科技公司。马斯克今天虽然没有如之前预测的那样「官宣」Grok 4 开源,但表示推特上的 Grok 功能有了明显的提升。

elon musk.png

有网友为此专门去问了 Grok,它认为 7 月更新是 Grok 4,但不完整。

image.png

再加上 Benchmark 成绩已经曝光,或许 Grok 4 过几天就要正式发布了。

如果成绩属实,不管是架构的创新还是规模的扩展,Grok 都将推动一波 AI 大模型的发展,让我们拭目以待。

参考链接:

​https://www.reddit.com/r/singularity/comments/1lrmn42/grok_4_and_grok_4_code_benchmark_results_leaked/​

​https://www.testingcatalog.com/xai-prepares-grok-4-and-grok-4-code-for-upcoming-launch/​

​https://x.com/AiBattle_/status/1940139539525419512​

....

#诡异视频到假论文

AI正把互联网变成巨型「垃圾场」

不要让AI成为「垃圾制造机」。

谁能想到,一个 AI 生成的视频竟然在 ins 上拿下 2.52 亿次浏览量,仅点赞就达到 325.7 万次。

image.png

视频中,一个身穿比基尼的胖女人笨拙地踩上船边栏杆,猛地朝海里一跃,瞬间溅起巨大的水花,同时船身也因为她的重量和动作失去了平衡,一整个栽进了海里。

,时长00:09

眼尖的朋友也发现了不少 AI 作怪的端倪,比如船边看热闹的男人可以像猫头鹰一样 360 度转脑袋,以及不合常理的船身倾斜等。

该视频通过夸张的情节触动观众的笑点,但也有着身材歧视的嫌疑。由于赚取了巨大流量,该博主又制作不少类似的视频。

image.png

如果再往下扒拉扒拉该博主的其他作品,大部分人都会产生一种强烈的、浑身起鸡皮疙瘩的不适感,人身猪面的跳水者、丧尸形象的受访者,以及奇形怪状的不明生物…… 一个比一个瘆人。(AI 惊悚含量太高,避免引起不适就不放视频了😂)

现在,打开每个社交媒体平台几乎都能蹦出几个诡异邪门的 AI 视频,最近比较火的就是 AI 生成的「同类相食」视频。

里面各种食物不仅长出了人脸,还自相残「食」,柠檬、橙子、小笼包、西兰花、蓝莓松饼等等都闭着眼微笑地等着被勺子投喂。

,时长00:59

来自 ins 博主 reallyweirdai

制作流程过于简单,只需一句提示词,Veo3 就能生成:

A surreal orange with a human-like face rests on a sunlit kitchen counter, its textured skin iluminated by warm morning light; a spooncarrying a juicy orange wedge slowly approaches its closed mouth, and as it nears, the orange's lips animate and gently part to accept theslice. chewing with an oddly natural motion before returning to stilnes. the background remains softly blurred. drawing focus to the bizarreand whimsical act;the camera is static in a tight close-up shot with shaow depth of field,capturing fine textures and subtle movements;ighting is natural and directional, casting soft highlights and shadows across the scene, creating an uncanny yet playful atmosphere withdreamlike surrealism.

,时长00:08

如果你觉得这类视频看上去还有点可爱,那下面这种绝对是让人恶心的程度。

,时长00:55

这段名为「You Are What You Eat」的视频曾在 Reddit 上疯传,展示了由食物组成的人正吃着这些食物,比如一个寿司人正在狼吞虎咽地吃寿司,或者一个酸奶人端着草莓酸奶杯猛吞…… 要是再配上音,令人毛骨悚然。

,时长00:05

,时长00:05

以上视频出自博主 Bennett Waisbren 之手,他的灵感来源是吃播视频,以暗黑风格凸显了现代人对暴食的渴望。虽然想表达的内涵很深刻,但视觉上给人强烈的不适。

网友对这类视频的评价也两极分化,有人认为「有创意」、「几乎不费吹灰之力就能赚到巨额广告费」,有人则觉得「太恶心」、「简直是噩梦」。

这种恶心的感觉其实是因为它触及到了「恐怖谷效应」,即一个物体看起来几乎像人类但又不完全像时,就会引起人们的厌恶、恐惧。

视频中的食物被赋予了非常逼真的人脸表情,包括闭眼微笑、咀嚼等,当它们表现出人类特有的行为时,会让人产生一种不适感。

这些邪门奇怪的 AI 视频在社交平台上大行其道,背后藏着赤裸裸的流量逻辑。

平台的算法推崇能够快速吸引眼球和引发互动的内容,怪异、夸张的视频自然能够触动观众的好奇心,引发更多的点击、评论和分享。这种追求流量和短期效益的趋势促使创作者不断迎合观众的猎奇心理,制作更加极端和非传统的视频。

再加上 AI 工具的快速发展和低成本创作,让创作者只需简短的指令就能生成高度逼真的视频,创作过程变得更加轻松和高效,在一定程度上更加剧了这一现象。

更严重的是,AI 生成的「垃圾」不只体现在娱乐视频上,甚至一度渗透到了学术领域。

瑞典布罗斯大学学院研究人员曾在一项研究中表示,在谷歌学术平台这一文献索引数据库中,他们发现了上百篇疑似由 AI「炮制」的文章。借助 AI 的低成本「作弊」手段,轻而易举地制造并散播虚假科学信息,这不仅侵蚀学术平台的公信力,也让科学的真正价值被这些低质量的伪科学所消耗。

还有一项研究调查了科学家的同行评审。在其中一个会议上,同行评审中使用「meticulous」(一丝不苟)一词的频率是去年的 34 倍,「commendable」(值得赞扬)的使用频率大约是去年的 10 倍,而「intricate」(错综复杂)的使用频率是去年的 11 倍,而这类措辞是 ChatGPT 等大模型最爱的流行词之一。

换句话说,AI 领域的研究人员越来越多地依赖 AI 工具来协助、甚至代劳撰写同行评审,特别是当截止日期临近时,AI 的使用频率更高。

有些 AI 生成的内容一眼假,比如去年那篇曾让科学家们震惊的医学期刊论文,文章作者使用 Midjourney 生成了一张卡通老鼠长着生殖器的图片,不仅解剖图完全错误,里面还包含了大量乱写的文字,错误如此明显的论文能够通过同行评审并堂而皇之地刊登在学术期刊上,背后问题的严重性不言而喻。

科学家的声誉在很大程度上是依靠他们的发表记录,比如发表的论文数量、频率,以及是否能出现在顶级期刊中,但这一机制也给一些人可乘之机,他们借助 AI 生成低质量的文章,严重危害了知识的纯粹性和科研的公正性。

无论是网络上的 AI 惊悚视频,还是学术上的 AI 低质量论文,它们所造成的伤害和影响,远远超出了创作本身。

如今 AI 发展潮流浩浩汤汤,我们在拥抱 AI 技术的同时,请不要把互联网变成巨大的信息垃圾场。

参考链接:

​https://x.com/venturetwins/status/1939535063882027032​

​https://x.com/techhalla/status/1938905997038227921​

​https://x.com/venturetwins/status/1939889476467400986​

​https://www.nytimes.com/2024/03/29/opinion/ai-internet-x-youtube.html​

....

#高考数学全卷重赛

一道题难倒所有大模型,新选手Gemini夺冠,豆包DeepSeek并列第二

AI挑战全套高考数学题来了!

话接上回。高考数学一结束,我们连夜使用六款大模型产品,按照一般用户截图提问的方式,挑战了 14 道最新高考客观题,不过有网友质疑测评过程不够严谨,所以这次我们加上解答题,重新测一遍。

本次参加挑战的选手分别是:Doubao-1.5-thinking-vision-pro、DeepSeek R1、Qwen3-235b、hunyuan-t1-latest、文心 X1 Turbo、o3,并且新增网友们非常期待的 Gemini 2.5 pro。上一次我们使用网页端测试,这次除 o3 外,其他模型全部调用 API。

在考题选择上,我们仍然采用 2025 年数学新课标 Ⅰ 卷,包含 14 道客观题,总计 73 分;5 道解答题,总计 77 分。其中第 6 题由于涉及到图片,我们就单独摘出来,后面通过上传题目截图的形式针对多模态大模型进行评测。其他文本题目全部转成 latex 格式,分别投喂给大模型,还是老规矩,不做 System Prompt 引导,不开启联网搜索,直接输出结果。

(注:第 17 题虽然也涉及到图片,但文字表述足够清晰,不影响答题,因此也以 latex 格式测评。)

客观题计分方法按照以往高考判分原则:

  • 单选题每道 5 分,选项正确计分,错误不得分;
  • 多选题每道 6 分,全对计 6 分,漏选按正确答案数量计分,如答案为 ABCD,漏选其一扣 1.5 分,错选不得分;
  • 填空题每道 5 分,填空正确计分,错误不得分。

至于解答题,由于现在还未出具体的评分细则,所以我们请数学专业的朋友进行评判,主要还是看大模型的最终答案以及解题步骤中是否有严重失误点。

7 家大模型考试成绩如下图所示。

图片

从客观题来看,各家大模型几乎拉不开差距,最大分差也只有 3 分,第 6 题图像题更是让这几家多模态大模型「全军覆没」。在上一次测评中,o3 客观题成绩垫底,但有网友表示,这可能是由于某些原因导致后台自动切换成其他模型,而这一次我们选用的是未「降智」的 o3,选择题和填空题成绩仍是排在最后,当然,65 分的成绩相比「降智」版确实有很大提升。

解答题是大模型失分的「重灾区」。除了 Gemini 2.5 Pro 拿到全部的分数外,其它模型或多或少均有失分。其中 DeepSeek R1 和 Doubao 最可惜,只丢了一分;o3 则失了 2 分,最终得到 75 分。相较而言,hunyuan-t1-latest 和文心 X1 Turbo 发挥不佳,分别拿到 68 分和 66 分。

从总分上来看,Gemini 2.5 Pro 考了 145 分,位列第一,Doubao 和 DeepSeek R1 以 144 分紧随其后,并列第二;o3 和 Qwen3 也仅有一分之差,分别排在第三和第四。受解答题的「拖累」,hunyuan-t1-latest 和文心 X1 Turbo 的总成绩排到了最后两名。

(查看各大模型的测评截图以及解答题答题情况,请移步:https://jiqizhixin.feishu.cn/docx/PR0PdzYaWoU92QxiJQqc2oe7n2g)

解答题:大模型失分「重灾区」

我们先来看看解答题的情况。

图片

第 15 题和第 17 题,一道考查概率问题,一道涉及立体几何知识,7 家大模型均拿到满分。

第 16 题是一道数列综合题,满分 15 分,只要证明完整、计算过程完整、结果正确就能拿到全部的分数。大模型整体表现不错,只有 Qwen3 解答正确,但最终答案里面增加了多余的假设求值,扣了一分。

图片

[ 上下滑动查看更多 ]

第 18 题这道椭圆方程与几何就难倒了不少大模型,仅 Doubao、DeepSeek R1 和 Gemini2.5 Pro 拿到满分 17 分,其他模型各有各的扣分点。Qwen3 前面回答得都不错,过程也很完整,但偏偏最后一小问|PQ|最大值取约等于 9 的步骤多余,导致结果偏差,扣了一分。

图片

[ 上下滑动查看更多 ]

o3 则是第(3)问答案没化简丢了一分。

图片

文心 X1 在第 2 问 (2) 正确算出 P 点轨迹,但未证明极值,直接按最远点计算造成结果错误,扣 6 分。

图片

[ 上下滑动查看更多 ]

hunyuan-t1-latest 前两问中回答正确,到了第 3 问完成 P 点轨迹之后就全错了,一下子丢了 5 分。

图片

[ 上下滑动查看更多 ]

对于最后一道压轴题,Gemini2.5 pro 是唯一全对的大模型。Doubao 只说明了震荡项的振幅大于 0,但是也有可能震荡项的相位是反的,那样的话最大值反而有可能更小,证明过程不够严谨,扣一分。

图片

[ 上下滑动查看更多 ]

DeepSeek R1 在第(3)问中分情况讨论,得出了两类解,但对第一类解未做后续说明,扣了一分。

图片

[ 上下滑动查看更多 ]

o3 第(2)问思路正确,但因为开闭区间差别,「完全重合」说法错误,扣 1 分。

图片

[ 上下滑动查看更多 ]

hunyuan-t1-latest 在第(2)问上思路可行但证明过程模糊,扣 2 分,到了第(3)问没有判断 phi 取值,又扣了 2 分。

图片

[ 上下滑动查看更多 ]

文心 X1 和 Qwen3 也都是在第 2 问和第 3 问上失了分,第 2 问证明模糊扣 2 分,第 3 问则是未具体说明 phi 值扣 2 分,而且文心 X1 比大小还发生错误,又扣了 1 分。

图片

图片

[ 上下滑动查看更多 ]

客观题:一道图像题难倒几家多模态大模型

在不考虑识图题(第6题)的情况下,客观题大模型总体表现都不错,Doubao、Qwen3、Gemini 2.5 pro、DeepSeek R1 、文心 X1 Turbo 和 hunyuan-t1-latest 均取得了 68 分的高分,只有 o3 在多选题上少选了一项丢了分。

图片

其中,o3 在第 9 题计算过程中,忽视了「正三棱柱」这一关键条件。它在建立坐标系时,分别用 (x₀, y₀, 0) 表示 A 点坐标,用 (c, 0, 0) 表示 C 点坐标,但没有考虑到:正三棱柱的底面是正三角形,这意味着正三角形的边长 c 与 x₀、y₀之间存在关系:c=2x₀=2y₀/√3。导致对 B 选项的判断出现错误。

图片

[ 上下滑动查看更多 ]

接下来看看这道图片题。

图片

遗憾的是,此次测评的多模态大模型都在这道识图题上表现不佳。虽然 hunyuan-t1-latest 不是多模态,但我们又测试了 hunyuan-t1-vision ,也在这道题上败下阵来。

图片

相比之下,Doubao 和 o3 至少正确识别了坐标位置,只是误判了视风风速方向,而 Gemini 连基本坐标都未能正确识别。

图片

图片

[ 上下滑动查看更多 ]

总的来说,这次测评结果显示,大模型在数学推理能力上有不小的进步,但仍有较大的提升空间。比如不少模型在解答题上丢分,这反映出大模型在复杂推理、严谨论证和多步骤计算方面还需加强。

此外,所有参测的多模态大模型在第 6 题的图像识别上都出现了问题,这也暴露出当前 AI 在图文结合理解方面的短板。

最后,紧张的高考已经结束,祝福所有考生都能取得理想的成绩,有着灿烂的未来!

....

#Humanity-s-Last-Code-Exam/HLCE

Test Time Scaling Law远未达到上限! o4-mini仅15.8%通过率,华为诺亚提出代码HLCE终极基准

本文的第一作者为华为诺亚研究员李向阳,毕业于北京大学,开源组织 BigCode 项目组成员。此前他们团队曾经推出 CoIR 代码检索基准,目前已经成为代码检索领域的标杆 benchmark。其余主要成员也大部分来自 CoIR 项目组。

大语言模型(LLM)在标准编程基准测试(如 HumanEval,Livecodebench)上已经接近 “毕业”,但这是否意味着它们已经掌握了人类顶尖水平的复杂推理和编程能力? 

来自华为诺亚方舟实验室的一项最新研究给出了一个颇具挑战性的答案。他们推出了一个全新的编程基准 ——“人类最后的编程考试” (Humanity's Last Code Exam, HLCE)。

该基准包含了过去 15 年(2010-2024)间,全球难度最高的两项编程竞赛:国际信息学奥林匹克竞赛(IOI)和国际大学生程序设计竞赛世界总决赛(ICPC World Finals)中最顶尖的 235 道题目。 

结果如何?即便是当前最先进的推理模型,如 OpenAI 的 o4-mini (high) 和 谷歌的 Gemini-2.5 Pro,在 HLCE 上的单次尝试成功率(pass@1)也分别只有 15.85% 和 11.4%,与它们在其他基准上动辄超过 70% 的表现形成鲜明对比。 这表明,面对真正考验顶尖人类智慧的编程难题,现有的大模型还有很长的路要走。 

图片

论文地址: https://www.arxiv.org/abs/2506.12713

项目地址: https://github.com/Humanity-s-Last-Code-Exam/HLCE 

直面 “最强大脑”:为何需要 HLCE?

近年来,LLM 在代码生成领域取得了惊人的进步,许多主流基准(如 LiveCodeBench、APPS 等)已经无法对最前沿的模型构成真正的挑战。研究者指出,现有基准存在几个关键问题: 

1. 难度有限:对于顶级 LLM 来说,很多题目已经过于简单。

2. 缺乏交互式评测:大多数基准采用标准的输入 / 输出(I/O)模式,而忽略了在真实竞赛中常见的 “交互式” 题目。这类题目要求程序与评测系统进行动态交互,对模型的实时逻辑能力要求更高。

3. 测试时扩展规律(Test-time Scaling Laws)未被充分探索:模型在推理时花费更多计算资源能否持续提升性能?这个问题在复杂编程任务上尚无定论。

为构建高质量基准,研究团队对 HLCE 题目进行了深度处理。例如 ICPC World Finals 题目原始材料均为 PDF 格式,团队通过人工逐题提取、转写为 Markdown 并校验,确保题目完整性。最终形成的 HLCE 基准包含:1)235 道 IOI/ICPC World Finals 历史难题;2)标准 I/O 与交互式双题型;3)全可复现的评测体系。

图片

模型表现如何?顶级 LLM 也 “考蒙了” 

图片

研究团队在 HLCE 上全面评估了 12 个主流 LLM,包括推理模型(如 o4-mini (high), Gemini-2.5 Pro, DeepSeek-R1)和非推理模型(如 chatgpt-4o-latest, claude-3.7-sonnet)。 实验结果揭示了几个有趣的现象: 

推理模型优势巨大:具备推理能力的模型表现显著优于非推理模型。最强的 o4-mini (high) 的平均 pass@1 通过率(15.85%)大约是最强非推理模型 deepseek-v3-0324(3.53%)的 4.5 倍。 

IOI 交互式题目是 “硬骨头”:所有模型在 IOI 题目上的表现都远差于 ICPC world finals 题目。例如,o4-mini (high) 在 ICPC 上的 pass@1 为 25.21%,但在 IOI 上骤降至 6.48%。研究者认为,这与当前模型的训练数据和强化学习方式主要基于标准 I/O 模式有关,对于交互式问题准备不足。 

奇特的模型退化现象:一个例外是 claude-3.7-thinking 模型,尽管是推理模型,但其表现甚至不如一些非推理模型,在 IOI 题目上通过率为 0%。研究者推测,这可能是因为 claude 针对通用软件工程任务进行了优化,而非高难度的算法竞赛。

“我知道我不知道?”:模型的自我认知悖论

除了代码生成,研究者还设计了一个新颖的 “自我认知”(self-recognition)任务:让模型判断自身生成的代码是否正确,以评估其能力边界感知力。

图片

结果出人意料:

  • 代码能力最强的 O4-mini (high),自我认知能力(AUC 0.63)并不突出。
  • 反观通用模型 ChatGPT-4o-latest,展现了更强的 “自知之明”(AUC 0.84)。

这种 “苏格拉底悖论”—— 卓越的问题解决能力与清晰的自我认知能力未能同步发展 —— 暗示在现有 LLM 架构中,推理能力与元认知能力(metacognition)可能遵循不同的进化路径。

大语言模型的 Test Time scaling law 到极限了吗 

一个关键问题是:目前 LLM 的推理能力已经非常强了,目前这种范式达到极限了吗?未来的模型的推理能力还能继续发展吗? 而面对如此高难度的 HLCE benchmark,这显然是一个绝佳的机会来研究大语言模型的 Test Time Scaling Law。 

图片

研究者将模型生成的每组回答按照 thinking token 的数量按照长短进行分组,然后重新测试性能。从图中可以看出,随着思考长度的不断延长,模型的性能在不断的提升,并且远远没有达到上限。 

这个结论告诉我们,可以继续大胆的优化推理模型,至少在现在远远没有到达 Test Time scaling law 达到上限。

LLM vs 人类顶尖选手:差距还有多大? 

基于上述发现,研究者将模型的最佳表现(基于 5 次尝试,IOI 取 5 次的最大分数,ICPC world Finals 取 5 次解决掉的最多题目)与历年 IOI 和 ICPC 世界总决赛的奖牌分数线进行了直接对比。 

图片

图片

结果令人振奋:顶级 LLM 已经具备了赢得奖牌的实力。Gemini-2.5-pro 和 o4-mini (high) 的表现分别达到了 IOI 和 ICPC 的银牌和金牌水平。 

这也解释了一个看似矛盾的现象:尽管模型单次成功率很低,但只要给予足够多的尝试机会(这正是 “测试时扩展规律” 的体现),它们就能找到正确的解法,从而在竞赛中获得高分。 

未来方向 

这项研究通过 HLCE 这一极具挑战性的基准,清晰地揭示了当前 LLM 在高级编程和推理能力上的优势与短板。 它证明了,虽然 LLM 在单次尝试的稳定性上仍有欠缺,但其内部已蕴含解决超复杂问题的知识。更重要的是,测试时扩展规律在这一极限难度下依然有效,为我们指明了一条清晰的性能提升路径:通过更优的搜索策略和更多的计算投入,可以持续挖掘模型的潜力。 

....

#MOSS-TTSD

邱锡鹏团队开源!百万小时音频训练,突破AI播客恐怖谷

不想看内容,试试听推送吧!(该博客基于 MOSS-TTSD 合成)

本篇推送内容-播客版,xx,4分钟

播客、访谈、体育解说、新闻报道和电商直播中,语音对话已经无处不在。

当前的文本到语音(TTS)模型在单句或孤立段落的语音生成效果上取得了令人瞩目的进展,合成语音的自然度、清晰度和表现力都已显著提升,甚至接近真人水平。不过,由于缺乏整体的对话情境,这些 TTS 模型仍然无法合成高质量的对话语音。

现在,历史时刻来到!上海创智学院、复旦大学和模思智能的 OpenMOSS 团队携手推出了革命性成果 ——MOSS-TTSD!首次基于百万小时音频训练,成功破除 AI 播客的「恐怖谷」魔咒。

MOSS-TTSD-V0 全新释出,模型权重及推理代码全面开源,商业应用无障碍!

项目地址:https://github.com/OpenMOSS/MOSS-TTSD

在线体验:https://huggingface.co/spaces/fnlp/MOSS-TTSD

与传统 TTS 模型只能生成单句语音不同,MOSS-TTSD 能够根据完整的多人对话文本,直接生成高质量对话语音,并准确捕捉对话中的韵律变化和语调特性,实现超高拟人度的逼真对话语音合成。

接下来听听实测效果,并比较一下与其他 TTS 模型的听感差异。

中文播客示例

团队以奇绩「前沿信号研究体系」的每日推文作为内容,对比了豆包(商业产品)的播客生成与 MOSS-TTSD 的开源播客生成工作流程,结果发现两者在多个维度上表现相当。 

无论是情感的丰富度、语气的自然度,还是整体的表现力,MOSS-TTSD 作为开源模型都展现出与商业解决方案相媲美的性能水平。

生成的几组对照效果如下:

MOSS-TTSD 音频 1,xx,9分钟

豆包音频1,xx,11分钟

MOSS-TTSD音频2,xx,10分钟

豆包音频2,xx,10分钟

说明:因豆包无法控制博客的文本内容,因此两者的内容无法控制保持一致。

团队进一步整理了更多 MOSS-TTSD 的音频样例,以展示模型的出色表现。以下是更多的 MOSS-TTSD 生成播客片段,表现出了优秀的零样本音色克隆能力和稳定的长语音生成能力,进一步验证了其在情感表达、语调自然度和整体流畅性上的优异性能。

邓紫棋 & 周杰伦

demo1,xx,1分钟

潘长江 & 嘎子

demo2,xx,2分钟

Speed & Xqc

demo3,xx,1分钟

更多长播客:

根据过往xx关于「Context Scaling」推送,使用 MOSS-TTSD 开源的播客生成工作流生成的播客

context_scaling,xx,5分钟

原神游戏讨论

原神,xx,4分钟

接下来就让我们一起来深入了解 MOSS-TTSD 的技术内核。

模型技术解析

MOSS-TTSD 基于 Qwen3-1.7B-base 模型进行续训练,采用离散化语音序列建模方法。团队在约 100 万小时单说话人语音数据和 40 万小时对话语音数据上进行训练,实现了中英双语语音合成能力。

图片

模型结构概览:基于 Qwen3-1.7B-base 模型进行训练,使用八层 RVQ 码本进行语音离散化,使用自回归加 Delay Pattern 进行语音 token 生成,最后使用 Tokenizer 的解码器将语音 token 还原为语音。

XY-Tokenizer 的创新突破

MOSS-TTSD 的核心创新在于 XY-Tokenizer—— 一个专门设计的语音离散化编码器。

这个 8 层 RVQ 的音频 Codec 能够同时建模并编码语音的语义和声学信息,将比特率压缩至 1kbps,使得大语言模型能够有效学习音频序列并建模细节声学特征。

如下图所示,XY-Tokenizer 采用了双阶段多任务学习的方式进行训练。

第一阶段(上半部分)训练 ASR 任务和重建任务,让编码器在编码语义信息的同时保留粗粒度的声学信息。

第二阶段(下半部分)固定住编码器和量化层部分,只训练解码器部分。通过重建损失和 GAN 损失,利用生成式模型的能力补充细粒度声学信息。

图片

XY-Tokenizer 采用了两阶段多任务学习的方式进行训练。

得益于超低比特率 Codec,MOSS-TTSD 支持最长 960 秒的音频生成,可以一次性生成超长语音,避免了拼接语音片段之间的不自然过渡。这使得 MOSS-TTSD 特别适合播客、影视配音、长篇访谈、数字人对话带货等应用场景。

数据工程:海量真实数据的处理挑战

高质量的数据是优秀 TTSD 模型的基础。

团队设计了高效的数据处理流水线,能够从海量原始音频中准确筛选出单人语音和多人对话语音,并使用内部工具模型进行标注,具体如下图所示。

图片

MOSS-TTSD 数据清洗流水线概览。

团队首先使用了内部的说话人分离模型进行语音分段和说话人标注,该模型在性能上已经超越了开源的 pyannote-speaker-diarization-3.1 及其商用版本。接下来使用 DNSMOS 分数评估语音质量,只保留分数≥2.8 的高质量语音片段。

下表为说话人分离模型在不同数据集上的 DER(Diarization Error Rate)结果(越低越好),MOSS-TTSD 使用的工具在四个测试集上都取得了最优性能。

图片

对于多人对话语音,团队还训练了自研的对话 ASR 模型来进行细粒度说话人标注和文本转录,解决了现有 ASR 模型无法准确转录重叠语音的问题。

实验结果:达到业界领先水平

为了客观、全面地评估 MOSS-TTSD 的优异性能,团队精心构建了一个包含约 500 条中英文双人对话的高质量测试集。

在评测流程中,团队首先利用 MMS-FA(Meta's Massively Multilingual Speech Forced Alignment)模型,将输入文本与生成音频进行词级别对齐,并依据标点符号切分为句子片段,每个片段的说话人标签则由输入文本直接指定。

为了量化评估音色克隆的保真度和准确性,评测采用了 wespeaker-SimAMResNet100 作为说话人嵌入(speaker embedding)模型。该模型会计算每个生成片段与 prompt 中两位说话人音频的音色相似度,并将相似度更高的一位判定为当前片段的说话人。

如此,最终得出了每条语音的说话人切换准确率和平均音色相似度。团队与开源模型 MoonCast 进行了对比,中文客观指标上取得了大幅领先的结果。

图片

此外,MOSS-TTSD 的语音韵律和自然度也远胜于基线模型,更多 demo 对比请见:https://www.open-moss.com/cn/moss-ttsd/

说明:本文展示音频仅用于效果演示,不表示团队观点立场。

....

#FOREWARN 

想清楚再动手:xx智能也要学会脑补未来和择优执行

本文的第一作者吴怡琳现为卡内基梅隆大学机器人学院二年级博士生,导师为 Prof. Andrea Bajcsy。她的研究聚焦于开放世界场景下的物体操控与机器人终身学习。吴怡琳本科毕业于上海交通大学,并于斯坦福大学取得计算机科学硕士学位。她曾与 Prof. Pieter Abbeel、Prof. Lerrel Pinto、Prof. Dorsa Sadigh 及 Prof. David Held 等多位专家合作,开展可变形物体操控、双臂协作操作及辅助喂食机器人等方向的研究,获得过 ICRA 最佳论文,CoRL 的 oral 论文录用。目前,她正在 NVIDIA 西雅图机器人实验室参与暑期研究,继续推进xx智能模型在复杂场景下的可扩展性与部署能力。

第二作者田然是 UC Berkeley 即将毕业的博士生同时在 NVIDIA 担任研究科学家,研究方向致力于推动机器人基础模型在真实世界中实现大规模、安全、可信的落地应用。他的研究系统性地探索了机器人基础模型在预训练、后训练到实际部署各阶段中所面临的安全与偏好对齐挑战。他的工作获得了多个最佳论文和国际奖项的肯定,包括:世界人工智能大会「云帆奖」、高通创新奖学金、ICRA 最佳论文、ICLR Spotlight 、百度奖学金 Finalist、Robotics: Science and Systems Pioneer、以及 Microsoft Future Leaders in Robotics & AI。

该研究工作获得 2025 ICLR World Model Workshop 最佳论文奖,并已被 2025 Robotics: Science and Systems(RSS)会议正式接收。

近年来,基础模型在xx智能领域展现出惊人的能力。通过离线模仿学习,这些xx智能模型掌握了多样化、复杂的操作技巧,能够完成抓取、搬运、放置等多种任务。然而,这些「学得像」的模型在真实部署中却常常「用不好」:面对环境扰动、任务变化或者用户偏好差异,它们容易生成错误动作,导致执行失败,正如下图所示: 

图片

这也暴露出当前xx智能系统的一大核心难题:如何让机器人在部署阶段具备「推理能力」(Test-Time Intelligence - 部署智能),即无需额外数据,也能主动预判风险、灵活调整策略。 对此,来自卡耐基梅隆大学与伯克利人工智能研究院的研究团队提出了全新框架 FOREWARN,首次将「世界模型」与「多模态语言推理」结合,在机器人部署阶段,对基于模仿学习生成的动作策略进行在线评估与动态校正,打破了当前xx智能模型仅依赖离线模仿的局限,迈出了通向真正部署智能的重要一步。

部署智能为何如此困难?预测与理解的双重挑战

在真实部署阶段,我们希望机器人在执行前,能够从多个由模型生成的候选动作中筛选出最优方案。然而,这看似简单的「临场决策」,在开放世界中却隐藏着两个极具挑战性的任务。

一是预见动作的未来后果:机器人需要具备建模环境动态的能力,准确推演每条动作方案可能引发的状态变化。

二是评估预测结果的优劣与契合度:不仅要判断这些结果是否达成任务目标,还需理解其语义,并考量是否符合用户偏好。

这两个任务相互交织,彼此依赖,但所需的能力却截然不同 —— 前者偏向物理建模与演变模拟,后者则需要语义推理与用户偏好理解。尤其在开放世界中,缺乏精确物理模型与用户偏好模型,更使得这类决策问题变得极为棘手。

核心思路:解耦预测与评估,分而治之

为了解决部署阶段的智能挑战,研究团队设计了由「预见(Foresight)」与「深思(Forethought)」组成的双模块框架,将复杂的决策过程拆分为「模拟未来」与「评估未来」两大任务,分而治之,协同决策:

模拟未来:系统引入具备环境动态建模能力的世界模型,在低维隐空间中预测每个候选动作方案可能引发的环境状态变化。该模型通过离线学习大量真实机器人轨迹及成功 / 失败案例,能够在运行时以极低代价高效「脑补」多种未来,无需反复尝试实地执行。

评估未来:随后,系统利用经过微调的多模态语言模型,先将上述在隐空间「脑补」的多种未来解码为自然语言形式的行为描述,语言模型再据此结合任务目标与用户意图,完成高层次的语义理解和决策并且选出最优动作方案。

图片

上图展示了 FOREWARN 系统的整体流程,其关键步骤如下:

  1. 候选动作采样与聚类:机器人基于当前观测,从动作生成模型中采样多个候选方案,并通过聚类去冗,保留 K 个具代表性的动作用于后续评估。
  2. 隐空间未来预测:每条代表性动作方案与当前观测图像共同作为输入世界模型,在低维隐空间中预测其未来演化,构建对未来的想象。
  3. 语义转译:由于隐空间中的「脑补」难以直接解析,系统将这些隐空间的「脑补」输入经过微调的多模态语言模型(MM-LLM),MM-LLM 将其转译为自然语言形式的行为描述,使其能够被用于语义层面的理解与用户偏好对齐。
  4. 最优方案筛选与执行:结合用户指令或任务描述,MM-LLM 对所有预测的未来进行语义评估,从中筛选并执行最契合意图的动作方案。

图片

创新亮点

🧠 隐空间对齐 - 让 MM-LLM「听懂」世界模型的预测。本研究首次实现了世界模型的低维潜在动态空间与多模态语言模型的语义空间对齐,使语言模型能够准确「读懂」不同动作方案所引发的未来演化,从而跨模态完成从「感知」到「理解」再到「决策」的闭环推理流程。

⚙️ 端到端自动化 - 无需人工示范,实时智能决策。FOREWARN 实现了全流程自动化的部署时决策机制:无需额外数据采集,系统可在运行时高效从上百个候选方案中自主筛选出最优动作方案,显著降低了部署门槛与人力成本。

🤖 泛化能力强 - 复杂任务中同样稳健适用。 无论是抓取、搬运等基础操作,还是长时序、多阶段、高语义依赖的复杂任务,FOREWARN 都展现出卓越的通用性与稳健性。

图片

实验结果:高效且可靠

为验证 FOREWARN 框架在实际部署中的有效性,我们在多项机器人任务中进行了系统评估。结果显示,单纯依赖模仿学习训练出的动作生成模型在真实环境中表现极为不稳定:成功率常常低于 30%,在部分场景甚至跌至 10%。这突显出当前模仿学习方法在应对任务变化和用户偏好时的严重局限。

而引入 FOREWARN 框架后,系统首次具备了在运行时主动评估并筛选策略的能力,整体成功率显著跃升至 70%–80%,实现了量级上的突破。更重要的是,即使任务指令发生变化、操作偏好改变或感知输入受到干扰,系统仍能维持 60%–80% 的成功率,展现出强大的策略稳健性与环境适应能力。这一结果表明,FOREWARN 有效弥合了「离线训练」与「在线部署」之间的能力鸿沟,为xx智能系统的高可靠性控制提供了切实可行的解决路径。

图片

面向未来:可扩展与可优化

尽管 FOREWARN 已在多个真实任务中表现出卓越性能与通用性,研究团队指出,要进一步推广至更大规模的xx智能场景,仍面临三大挑战:一是底层生成策略仍需提升多样性与泛化能力,以覆盖更丰富的行为空间;二是世界模型对大规模、多样化数据依赖较强,在数据稀缺场景下性能可能下降;三是推理效率与算力成本有待优化,尤其是在大模型设定下,亟需探索更高效的推理机制。考虑到 MM-LLM 与世界模型正快速发展, FOREWARN 的部署智能优势也将更加凸显,助力机器人在更多未知场景中根据自然语言指令,自主选择最安全、最合理的操作方案。

近年来,学术界与工业界正加速迈向从「模仿学习预训练(pre-training)」到「部署智能(test-time intelligence)」的转变。FOREWARN 提出了一条清晰且实用的路径:通过世界模型「脑补未来」、多模态语言模型「解码与评估」,两者协同构建具备推理能力的部署智能,实现真正意义上的「智」控机器人。对于那些追求高鲁棒性与强泛化能力的前沿机器人应用,FOREWARN 展现出广阔的落地潜力。我们也期待,这一方式能激发更多跨模态、跨学科的探索与创新,让未来的机器人更「懂」世界、更「信」人类指令,也更可靠地走进人类生活。

....

#求医十年,病因不明,ChatGPT:你看起来有基因突变

用AI给自己看病正在成为新趋势,但目前我们仍需要人类医生。

身体不适,求医十年,医生没找出原因,ChatGPT 给分析出来了。这是一位 Reddit 网友刚刚分享的个人经历。

image.png

这位网友提到:

十多年来,我一直被多种不明症状困扰。做过脊椎核磁共振、CT 扫描、全套血液检查(包括深入检测),甚至连莱姆病都没放过。

后来通过 Function Health 平台发现,我竟然携带纯合型 A1298C MTHFR 基因突变 —— 这种影响 7%-12% 人群的变异。虽然我所在的美国医疗网络是全国顶尖,甚至看过神经科医生排查过多发性硬化症,但始终没查出原因。

ChatGPT 整合了我所有的化验报告和症状史,推断这与基因突变高度吻合。原来即便维生素 B12 水平看似正常,这种突变也会导致身体无法有效利用,必须通过补充剂提升。

我把这些检查结果拿给我的医生看,他非常震惊,坦言一切症状突然都能解释了。我不确定他们之前怎么没想到给我做亚甲基四氢叶酸还原酶(MTHFR)基因突变检测。

如今几个月过去,我的症状已基本消失。整件事的发展至今仍让我觉得不可思议又充满惊喜。

这个帖子在 reddit 上热度非常高,很多人在评论区留言称,自己也有类似经历。

比如一位网友提到,自己呕吐超过 15 年,作为所有胃部检查和过敏测试,最近又被诊断出患有焦虑症。虽然药物确实起了作用,但呕吐一直没好过。于是,ta 就向 ChatGPT 发起了提问,并在 ChatGPT 的建议下去看了耳鼻喉科医生(因存在头晕症状),也确实查出了问题,看到了治愈的希望。

image.png

还有一位网友提到,自己家的狗被带去看兽医,结果兽医束手无策,让他们准备「告别」。而 ChatGPT 建议他们去能处理心脏问题的急诊室,狗狗由此获救……  

image.png

类似的故事在评论区还有很多。虽然这些故事的真实性还有待验证(很多可能是博人眼球),但一个明显的趋势是,在求医问药这件事上,越来越多的人开始求助于 AI 了,尤其是在病因难以明确的情况下。

image.png

image.png

这种趋势背后有很多原因,一是优质医疗资源紧张、地区分布不均,造成人类医生没有足够的能力或精力为每个病人深度排查;二是现在的 AI 确实比以前进步了很多,它们能够快速检索和整合大量医学文献资料,在信息处理速度和数据容量方面具有技术优势,可以为医生和患者提供更全面的信息参考。

image.png

image.png

对于一些罕见疾病,即便是资深医师的临床经验也难免存在盲区。更何况,许多疑难症状往往需要多学科协作才能明确诊断,而这在现行的医疗体系下实现成本极高。

这或许就是 ChatGPT 们能够发挥重要作用的地方:帮助患者整理就医思路(根据症状初步确定挂什么科),帮助医生识别疑难杂症,最终使得诊疗更加个性化。

image.png

目前,微软等公司也在开发专门的产品来应对这种需求,并且看起来表现不错。

image.png

不过,发帖人也特别提醒说,「我在尝试 AI 建议前已与主治医生反复确认。请勿盲目相信 AI 的医疗建议。」

他的提醒不无道理,毕竟,当前的 AI 依然无法克服幻觉等问题,可能生成看似合理实则错误的建议。而且,AI 无法为误诊担责,而医生需遵循伦理和法律框架。所以,如果你也有向 AI 咨询医疗建议的习惯,千万不要盲目相信,最终的诊断和处置还是需要人类医生来做,AI 的建议仅供参考。

在可预见的未来,大多数医生可能也会将 AI 作为自己的「外挂」大脑,帮助更多患者找到正确的治疗方法。

image.png

image.png

参考链接:

​https://x.com/rohanpaul_ai/status/1941321376838951320​

​https://www.reddit.com/r/ChatGPT/comments/1lrmom4/chatgpt_solved_a_10_year_problem_no_doctors_could/​

....

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐