25年9月来自法兰西 AI 安全中心、CMU、牛津大学和耶鲁大学的论文“Embodied AI: Emerging Risks and Opportunities for Policy Action”。

具身人工智能 (EAI) 领域正在迅速发展。与虚拟人工智能不同,EAI 系统可以存在于物理世界中,从物理世界中学习、推理并在物理世界中行动。随着人工智能模型和硬件的最新进展,EAI 系统在更广泛的操作领域中的能力越来越强。虽然 EAI 系统可以提供许多好处,但它们也带来重大风险,包括恶意使用造成的物理伤害、大规模监视以及经济和社会混乱。这些风险需要制定政策者紧急关注,因为现有的管理工业机器人和自动驾驶汽车的政策不足以解决 EAI 系统带来的全部问题。为了帮助解决这个问题,本文首先对 EAI 系统带来的物理、信息、经济和社会风险进行了分类。其次,分析美国、欧盟和英国的政策,以评估现有框架如何应对这些风险并找出关键差距。最后,为 EAI 系统的安全和有效部署提出政策建议,例如强制性测试和认证计划、明确的责任框架以及管理 EAI 潜在变革性经济和社会影响的策略。


具身人工智能 (EAI) 是指扎根于物理世界,通过感知和行动进行学习的人工智能 (AI) 系统和智体 [1, 2]。EAI 系统可以在各种环境中运行。例如,现有的 EAI 应用可以递送包裹 [3]、在公共场所担任保安巡逻 [4],或在养老院等私密环境中照顾人类 [5, 6]。EAI 的功能和领域在未来几年可能会显著扩展 [7, 8]。

EAI 为人类带来机遇和风险。EAI 系统已经帮助行动不便人士探索世界(例如自动驾驶汽车),而随着劳动年龄人口的减少,未来的系统可能会填补关键的农业或制造业岗位。通过增强和补充人类劳动力,EAI 可以促进显著的经济发展和繁荣 [9]。另一方面,与完全虚拟的 AI 系统相比,EAI 系统更容易造成直接的物理损害,并且随着人类与 EAI 系统建立更紧密的联系(尤其是与以陪伴为目的的应用程序),可能会造成严重的社会危害 [10, 11]。如图展示传统机器人、智体型人工智能 (Agentic AI) 和具身人工智能 (EAI) 的示意图对比。

请添加图片描述

人工智能能力的最新突破,尤其是在大语言模型 (LLM) 和大型多模态模型 (LMM) 方面,催化具身人工智能系统在物理世界中导航和行动的能力取得前所未有的进步 [12, 13]。与此同时,视觉-语言-动作模型 (VLA) 的兴起——它将控制权转化为对交错的视觉和语言 token 的下一个 token 预测——为机器人技术的“ChatGPT 时刻”开启了可能性,其能力、部署和公众认知度都将大幅提升。Gemini Robotics-ER、阿里巴巴的 Qwen2.5-VL 和 NVIDIA 的 Isaac GR00T N1 等模型的近期亮相标志着具身人工智能算法的重大进步,尽管这些模型与足够先进的硬件的匹配速度还很慢,不足以将虚拟能力转化为现实世界的动作 [13–15]。例如,在过去的几个月里,EAI 系统已经完成了半程马拉松,并展示了在几乎没有任何先验背景信息的情况下拆开杂货的能力 [16, 17],而来自 Physical Intelligence 和 Unitree 等行业参与者的开源资源可能会刺激技术的持续进步 [18, 19]。

数据采集——由于训练模型所需的物理世界信息量巨大且复杂——传统上一直是 EAI 发展的瓶颈 [20],而目前,开源数据集和跨模态方法正在部分解决这个问题 [21]。同时,触觉感知、数据分块雷达、激光雷达、执行器和电力系统方面的创新正在扩展 EAI 系统的潜在形态和功能 [22–24]。物理能力、数据收集和部署方面的进步可能会降低创建关于外部世界如何运作的高质量模型的门槛 [25]。这些世界模型涉及复杂的感知、规划、推理和记忆 [26],增加 EAI 的资金和研究可以带来更精确的世界模型和积极的 EAI 发展反馈循环。随着对供应链和国家产业政策的担忧日益凸显,EAI 的研究和创新也正迅速成为地缘政治冲突的新前沿 [27, 28]。

EAI 在能力和部署方面的快速增长将增加潜在危害的严重性和应对风险的紧迫性。这种增长将需要对社会、法律和经济体系进行重大更新 [8, 29]。尽管 EAI 与虚拟智体 AI [30] 有许多共同特征,例如 Kasirzadeh [31]在“表征 AI 智体以进行协调和治理”一文中强调的不同程度的自主性和能力,但 EAI 系统的物理体现引入需要特别关注的独特考虑因素和风险 [32]。 EAI 系统可能会有意或无意地击打、割伤、碰撞、致残、攻击等等。物理世界的复杂性给在虚拟仿真中训练的数字模型带来巨大的适应性挑战 [33, 34]。即将到来的技术突破浪潮也可能开启一个可扩展性的新时代,EAI 将通过不断改进的软件堆栈快速发展,减少人为瓶颈,从而提高潜在的变革速度并压缩行动时间表 [35]。

在仓促采取策略动作之前,必须指出,EAI 并非一个新概念,而是传统机器人技术的演变。EAI 领域建立在数十年的科幻想象、人机交互研究以及对先进机器人技术的预测之上 [36–38]。事实上,“具身人工智能”一词本身在某种程度上是一种营销技巧,用于区分近期创新与传统机器人技术。

对 EAI 的安全担忧同样由来已久,因为研究人员几十年来一直在研究机器人技术的安全性 [39, 40]。用于正式验证机器人行为的工具包括模型预测控制 (MPC)[41]、控制屏障函数 [42] 和时序逻辑 [43] 以及其他一些关键创新。许多专注于安全人工智能设计的开创性论文都突出地将虚拟机器人作为安全的人机协作的例子 [44, 45]。近期的研究重点是从现实世界数据为机器人创建安全护栏,例如 Sermanet 的论文[46] “生成机器人体质和语义安全基准”。然而,除了联合国最近启动关于致命自主武器讨论的决议 [47] 之外,国家和国际层面在 EAI 安全方面仍然存在令人担忧的政策真空。

在一个 AI 能力等同于或超越通用人工智能 (AGI)(无论如何定义)的世界里,理解和尽量降低 EAI 带来的风险将变得更加重要 [48]。例如,AI 生成的网络攻击能力的增强可能导致永久的攻击-防御循环,EAI 系统将成为攻击的目标 [49]。AGI 级能力对 EAI 发展的确切影响仍不确定,这可能会加速部署,同时实现更强大的安全措施。撇开 AGI 的不确定性不谈,EAI 风险的研究严重不足且理解甚少,目前的监管框架通常不足以指导安全的 EAI 开发。

基于现有研究和当前对具身人工智能 (EAI) 发展轨迹的预测,探讨具身人工智能 (EAI) 风险的四个关键领域:物理风险、信息风险、经济风险和社会风险(如图所示)。基于此分类,探讨现有政策框架如何应对(或未能应对)这些 EAI 风险。

请添加图片描述

下表所示主要 EAI 风险政策覆盖范围摘要,以及应对 EAI 相关技术风险的政策或治理框架。特指自动驾驶汽车 (AV),而非更广泛的 EAI,因为迄今为止大多数 EAI 法规都已涵盖自动驾驶汽车。

请添加图片描述

了解现行法规如何适用于(或未能适用于)EAI系统,对于政策制定者和研究人员都至关重要。

关键政策

目前最完善的与具身人工智能 (EAI) 相关的政策和框架主要关注物理风险和信息风险。重点关注适用于自动驾驶汽车 (AV) 和机器人的法律和标准,因为目前缺乏针对虚拟智体的规则制定。

物理风险

新兴的 EAI 物理风险治理方法主要针对自动驾驶汽车和无人机。专门针对自动驾驶汽车的法律通常遵循以下两种方法之一:调整传统汽车法律或制定定制立法 [125,126]。例如,英国 2024 年《自动驾驶汽车法案》引入了授权自动驾驶实体 (ASDE) 和无用户负责 (NUiC) 运营商的概念。这些实体(通常是制造商或车队运营商)在车辆处于自动驾驶模式时承担法律责任,实际上代替了“驾驶员” [127]。这些 ASDE 和 NUiC 实体为其他形式的高度自动化 EAI 提供了有益的先例;然而,鉴于其他汽车监管工作的连续性,这些角色可能更容易引入。不同形式的 EAI(例如家庭护理或教育 EAI)不会具有相同的预先存在的基础。许多欧盟国家并未制定专门针对自动驾驶汽车的立法,而是主要使用现有的产品责任范式来管理自动驾驶汽车,当系统在预期参数(即操作设计领域)内运行时造成损害时,制造商要承担责任。然而,这些框架在应用于自主系统时面临挑战。例如,德国责任法规定,在操作具有 SAE International 3 级自主性的自动驾驶汽车时,人类仍被视为驾驶员,在这种模式下,当系统请求时,人类必须接管车辆的操作,但在其他情况下不得操纵车辆。在 SAE 4 级车辆中,由于只需要极少的人工输入,因此被称为车辆“保管人”的类似所有者的实体对伤害负有严格责任 [128]。这种对现有产品责任法的依赖可能有助于管理某些形式的 EAI,但在发生生命损失时直接向模型的“保管人”收费似乎忽略了原始制造商、软件更新者、操作员和所有者之间复杂的关系网。严格依赖产品责任法也可能阻碍有益的 EAI 开发和部署;在法院试图协调现有法律与日益智能化和自主化的系统之际,制造商可能不愿冒险面临司法不确定性。

在美国,最近提出的配备自动驾驶系统的车辆安全、透明度和评估计划 (AV STEP) 将要求获得批准的自动驾驶汽车制造商分享其车辆开发和运行的详细信息。这将包括用于训练车辆算法的模拟类型、车辆预期运行的环境类型,以及为确保运行安全而制定的相关车辆监督机制的信息 [129]。AV STEP 是一个很有前景的框架,可以扩展到其他 EAI 环境,尽管目前尚不清楚哪个监管机构将监督其他形式的 EAI。美国国家标准与技术研究院的风险管理框架可以为全面的跨机构物理安全认证方法提供一个有益的起点 [130]。

有关空中无人机的法律也与 EAI 政策相关,尽管当今的许多无人机并不涉及人工智能,并且自主运行能力有限 [131]。例如,欧盟无人机法规区分了遥控无人机、自主无人机(无需飞行员干预即可动态导航)以及自动无人机(按预定路线飞行)。[132] 欧盟要求所有无人机均由远程飞行员操作,飞行员负责每次飞行。自主无人机和其他高风险无人机的飞行员必须通过理论知识和实践技能课程。然而,国家航空管理局通常依赖飞行员的自我声明,即他们的操作对附近人群的威胁极小,例如,不会飞越与无人机操作“无关”的人群。非自主无人机的操作培训要求较低,但面临严格的操作限制;例如,这些无人机的飞行员必须始终将无人机保持在视线范围内。英国的法规在很大程度上反映了欧盟的无人机规则,包括要求无人机在系统故障或通信中断时能够安全返回地面 [133]。由于2025年6月的一项行政命令,美国的无人机监管环境正在迅速演变。该命令除其他变化外,还将使无人机更容易在飞行员视线之外进行商业和公共安全作业[134]。美国联邦政府要求所有无人机都配备远程识别功能,并且必须能够广播无人机的身份、位置、高度等信息[135]。英国将于2026年实施类似的追踪要求[136]。

另一项关键立法是欧盟的《机械法规》(MR),该法规于2023年通过[137]。MR更新了2006年的类似立法,规范了欧盟多种类型的机器人,并明确涉及人工智能和具身人工智能(EAI)的安全问题。Tobias Mahler深入研究了MR与欧盟《人工智能法案》[138]的互动和重叠之处,指出MR试图通过提及具有“自我进化行为……旨在以不同程度的自主性运行”的机器来确保其法规面向未来。MR涵盖了一系列物理安全问题,从所用材料到紧急停止系统,再到被困在机器内的风险。MR规定,在欧盟销售的机器必须经过测试,以确保符合这些安全法规;与其他欧盟法规一样,第三方评估机构(或“公告机构”)会测试机器是否符合安全要求。除了立法之外,国际标准还为制造商和部署者提供了强有力的机器人安全指导,主要侧重于物理安全。例如,ISO 10218:2025 推荐了用于评估风险、降低风险(例如通过控制、安全功能、停止功能)以及工业机器人安全设计认证的安全协议 [139]。此外,ISO 13482:2025 还满足了个人和专业环境中服务机器人的安全要求,强调传感器可靠性、不确定性管理协议以及通过多种传感方式进行决策验证 [140]。对于自动驾驶汽车,也有许多明确的标准。例如,ISO/SAE 21434:2021 和联合国法规 155 为道路车辆的网络安全工程提供了标准 [141, 142]。这些网络安全标准与许多形式的移动 EAI 尤其相关,特别是考虑到 EAI 系统可能部署在无法定期访问可信网络的情况下 [143](例如,在灾难救援任务期间,或在敌对领土上与执法部门合作时)。

信息风险

许多信息风险适用于虚拟和实体 AI 应用。管理 EAI 信息风险的关键框架包括欧盟的《人工智能法案》和《通用数据保护条例》(GDPR)。该立法禁止了几种与 EAI 相关的数据实践,例如无针对性的面部图像抓取和操纵性决策影响技术 [144]。这些限制对于在公共和私人环境中持续收集数据的 EAI 系统至关重要 [145]。欧盟和英国的 GDPR 立法对数据的捕获、使用和存储制定了严格的治理要求。GDPR 要求仅出于“合法利益”收集数据,并且收集数据的实体被归类为“数据控制者”,他们必须记录数据收集实践、使用模式和存储方法,同时实施强大的安全措施 [146]。这些规定解决了许多与 EAI 系统收集的数据的隐私和处理有关的担忧。然而,在公共场所部署 EAI 对传统的同意模型和控制者识别提出了挑战 [145]。随着EAI的部署,数据控制者和默示同意被记录的概念需要进行实质性的改变或澄清。例如,在公共场所部署EAI系统引发了一些问题,例如如何选择退出数据收集、了解谁接收和控制从系统传感器收集的数据,甚至公共空间和私人空间的划分[147]。

经济风险

针对EAI经济影响的监管框架仍然不完善。现有立法,例如英国1996年的《就业权利法》和美国的《工人调整和再培训通知法》,为面临技术性失业的工人提供的保护有限[148,149]。劳工组织在对抗自动化方面取得了一些孤立的胜利,例如国际码头工人协会最近成功挑战港口自动化[150]。政策制定者必须更好地应对EAI在工业和服务业部署造成的大规模劳动力流失。在重新调整和重塑劳动力结构的过程中,EAI创新可能会引发一段快速的创造性经济破坏时期[151]。

一些观察人士认为,人工智能发展代表着一种不同于以往的技术转型,因为人工智能除了取代体力劳动外,还可能取代认知任务 [8, 152]。经济政策可能不需要像第二节中提到的许多物理和信息风险那样针对技术故障。相反,经济风险可能是因为企业人工智能系统运行过于良好,迅速颠覆了对人力的需求而出现的。因此,政策制定者应该考虑制定社会政策来应对这些新出现的紧张局势 [153]。

社会风险很少有法规直接涉及企业人工智能的社会影响。现有的法规主要管理人与企业人工智能系统的直接交互问题,而没有解决随着这些实体变得越来越普遍和强大,社会将如何转型的更大问题。《欧盟人工智能法案》对侵犯基本权利的广泛禁止可以扩展到解决缺乏信任、缺乏透明度、不健康或危险的依恋关系以及偏见和歧视等问题,但这需要进一步明确。在问责制方面,拟议的将​​行为归因于虚拟代理并将权限委托给虚拟代理的框架可能对企业人工智能 (EAI) 有所帮助 [154, 155]。

GDPR 第 22 条提供了一个具有指导意义的例子,现有法规涉及 EAI 系统,但并未直接针对 EAI 系统。该条款的设计很可能考虑到了虚拟 AI 应用,禁止个人“接受仅基于自动化处理的决策”,前提是该决策对个人具有法律或类似的重大后果 [146]。然而,目前尚不清楚如何将本条款与完全自主的 EAI 相协调,也不清楚个人如何在与 EAI 系统发生直接物理交互或冲突时寻求人工干预(正如本条款后续规定的那样)。
除了立法之外,一些针对制造商和开发商的国际标准也强调了 EAI 系统的透明度、合乎道德的设计和可信度。然而,这些标准,包括IEEE 7000系列关于自主系统透明度[156]、算法偏见[157]以及机器人技术对人类福祉的影响[158]的标准,都是自愿性的。这些标准可以适用于各种各样的EAI实例或应用,但其自愿性同样会限制其影响力。

最显著的差距是什么?

尽管应对具身人工智能 (EAI) 系统危害的主要措施已经存在,但关于具身人工智能安全的一些关键政策差距亟待关注。

首先,不同具身人工智能 (EAI) 模式的健全认证流程存在显著差距。由于自动驾驶汽车 (AV) 的运行范围明确(例如,汽车通常停留在道路上),监管自动驾驶汽车在很多方面都很简单。欧盟的《制造商法规》(MR) 要求对更广泛的具身人工智能 (EAI) 模式进行安全认证(自动驾驶汽车或空中无人机除外),并规定具身人工智能 (EAI)“不得……执行超出其既定任务和活动范围的操作”。现行的无人机法规涵盖空中无人机的许多方面,但该法规主要侧重于缺乏真正自主导航能力的无人机。然而,未来的具身人工智能 (EAI) 实例可能会显著扩大其活动范围,使其能够进入私人住宅和商业场所,并在学校或公共区域进行监控。这些扩展的领域需要周密的流程来认证具身人工智能 (EAI) 系统的运行安全性——而目前此类框架尚不存在。期望现有的消费者安全实验室(目前主要测试材料和锁定机制等机器部件的安全性)来评估具身人工智能 (EAI) 系统的安全性是不现实的。确定相关监管机构等基本问题是关键的起点——应该在多大程度上设立拥有人工智能专业知识的专门针对 EAI 的消费者保护委员会,还是应该由现有的第三方测试实验室承担这一责任?

其次,一旦建立了合适的设备,就应该用可靠有效的评估和基准来衡量 EAI 的能力。迄今为止,尽管存在一系列针对虚拟人工智能系统的基准 [159],但这些基准却很少 [46]。自愿标准可以提供技术指导,但缺乏在所有四个关键风险领域(物理、信息、经济和社会)强制执行基准测试和评估的法律,是一个关键的政策空白。评估可以涵盖我们分类法中概述的一系列考虑因素,例如评估模拟与现实协议的稳健性(“现实差距”)、EAI 系统与其既定运行域的一致性、对越狱的稳健性、网络安全措施、软件和硬件功能的一致性以及硬件的耐用性和可靠性等领域。

第三,目前用于部署后 EAI 监控的政策或框架不明确或缺乏细节。其他人工智能系统已经强调此类监督和监控机制 [160]。然而,现行法规要求 EAI 系统包含用于在发生事故、碰撞或滥用时记录和保存数据的“黑匣子”,这些法规很模糊。欧盟的 MR 规定,与安全相关的决策过程数据在收集后必须保存一年 [137]。与此同时,欧盟的《人工智能法案》提供了相互矛盾的指导,即高风险人工智能系统必须保留这些信息至少六个月 [144]。除了实时数据监控外,这类记录系统还可以增强系统安全性,并协助事故后调查 [161, 162]。欧盟法规还规定,“应始终能够纠正机械设备……以维护其固有安全性”,但对于高度或完全自主的系统,这种监督概念需要进行重大澄清。这是否涉及实时调整 EAI 操作、无线发送新模型更新或其他干预措施的能力?谁在进行这种监控——用户、政府,还是私人委托的监督机构(或许本身就由人工智能驱动)?

未来发展建议

为了有效缓解这些紧迫的 EAI 风险,确保 EAI 的良性发展,并营造均衡的监管环境,政策制定者必须采取务实的措施,以适应新兴 EAI 技术的复杂性,填补当今碎片化政策格局中的空白。

1 投资 EAI 安全研究
2 在 EAI 部署前制定严格的认证要求
3 推广行业主导的标准以应对 EAI 风险
4 明确完全自动驾驶系统的责任制度
5 规划并准备应对 EAI 带来的变革性经济和社会影响

局限性

分析存在一些局限性,例如,本文涉及的地域范围以及EAI应用的类型。此外,针对主要观点的几个关键反驳论点值得进一步关注。

地域限制
应用限制
方法论挑战
市场力量、激励措施或社会压力
技术解决方案与 EAI 危害
硬件和物理工程限制
EAI 风险与更广泛的 LLM 风险的重叠

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐