具身人工智能整合多模态大模型:技术架构、应用场景与未来挑战

1 引言:具身智能与多模态大模型的融合基础

具身智能(Embodied Intelligence)作为人工智能领域的前沿方向,正经历着革命性的技术变革。这一领域的核心目标是构建能够通过身体与环境交互,完成复杂任务的智能系统。与传统人工智能不同,具身智能强调智能体与环境的持续互动,通过感知-理解-推理-执行的闭环过程,实现从"被动认知"到"主动交互"的转变。近年来,随着多模态大模型(Multimodal Large Language Models)的迅猛发展,具身智能迎来了新的发展机遇。多模态大模型通过融合视觉、语言、动作等多种模态信息,为智能体提供了更强大的环境理解和任务规划能力。

具身智能的历史演进从早期的基于规则的控制系统,到基于学习的自适应方法,再到当前的大模型驱动范式,其发展脉络清晰可见。早期机器人主要依赖预编程指令和精确的环境模型,在结构化环境中执行重复性任务,但缺乏适应未知场景的能力。随着机器学习技术的发展,尤其是强化学习和模仿学习的应用,机器人开始具备从经验中学习的能力,能够处理一定程度的环境变化。然而,这些方法仍然受限于任务专用、数据需求量大和泛化能力弱等问题。

多模态大模型的出现为具身智能带来了颠覆性技术突破。这些在互联网规模数据上预训练的基座模型,不仅拥有强大的语言理解和生成能力,还能够处理视觉、语音等多种模态信息。将其应用于具身智能,使得智能体能够理解抽象指令、进行常识推理、并规划长周期任务。例如,谷歌DeepMind于2025年3月发布的Gemini Robotics模型,基于多模态大模型Gemini 2.0开发,成功解决了机器人技术长期面临的"知识到物理动作转化"难题,在折纸、密封零食袋等需要精细操作的任务中表现出色。

多模态大模型的技术优势主要体现在三个方面:一是跨模态理解与推理能力,能够建立语言、视觉与动作之间的关联;二是强大的零样本泛化能力,无需针对特定任务进行大量微调即可适应新环境;三是自然的人机交互接口,允许用户通过自然语言指挥机器人完成任务。上海人工智能实验室发布的"书生"具身全栈引擎Intern-Robotics,实现了"一脑多形"的创新突破,即开发一套模型即可适配10余种机器人形态,大幅降低了具身智能的开发门槛和应用成本。

科学价值与产业意义方面,具身智能与多模态大模型的融合不仅推动了人工智能基础理论的进步,也为智能制造、服务机器人、智慧城市等领域的应用提供了技术支撑。2025年政府工作报告首次将"具身智能"纳入国家重点发展方向,提出要加快突破人形机器人、具身智能等关键技术,持续推进"人工智能+"行动。这一政策导向进一步加速了技术研发和产业落地进程。

本篇文章将系统分析具身智能与多模态大模型融合的技术架构、核心挑战、应用场景与发展趋势,通过三个关键技术表格和代表性开源项目介绍,为读者提供全面而深入的技术视角,助力学术界和产业界在这一前沿领域的探索与创新。
在这里插入图片描述

2 多模态大模型的技术体系构建

多模态大模型为具身智能提供了强大的"大脑",使其能够像人类一样理解和交互复杂环境。要理解这一技术革命,我们需要深入分析多模态大模型的技术体系,包括其基础架构、训练方法和在具身智能中的具体实现路径。

2.1 感知与认知基础模型

感知与认知是具身智能与环境交互的基础。现代多模态大模型通过统一的多模态编码机制,将不同模态的输入映射到统一的语义空间,使得模型能够理解各模态信息之间的语义关联。在具身智能系统中,这表现为视觉-语言模型(VLM) 的应用,它能够同时处理图像和文本信息,理解其内在联系。

上海人工智能实验室开发的Intern-Robotics系统中的操作大模型构建了覆盖"思考-行动-自主学习"的完整闭环。其中,具身操作"大脑"InternVLA M1负责高阶的空间推理与任务规划,采用两阶段训练策略:先通过空间感知预训练,增强模型的空间推理与规划能力;再以隐式空间推理方式实现高效的动作后训练。这种设计使机器人能够理解抽象指令并将其转化为具体动作序列

北京大学电子学院程翔教授团队提出的"机器联觉(Synesthesia of Machines, SoM)“概念,进一步推动了多模态感知与通信的融合。该概念受到人类联觉的启发,旨在实现通信与多模态感知的智能融合,使具身智能体能同时利用通信单元实现"顺风耳"和融合射频感知实现"千里眼”,从而超越人类执行复杂超视距任务。

2.2 视觉-语言-动作(VLA)模型

视觉-语言-动作(Vision-Language-Action,VLA)模型是多模态大模型在具身智能中的具体实现形式,它直接将视觉和语言感知与动作输出相连,形成端到端的控制体系。与传统方法相比,VLA模型的最大优势在于能够将高层语义理解与低层控制策略无缝连接,实现从感知到执行的端到端学习。

清华大学智能产业研究院(AIR)与上海人工智能实验室联合发布的X-VLA模型是这一领域的代表性工作。作为首个实现120分钟无辅助自主叠衣任务的全开源模型,X-VLA以仅0.9B的参数量在五大权威仿真基准上刷新了性能纪录。该模型采用了一系列创新技术:

  • 面向本体泛化的Soft-Prompt机制:动态地将具身本体的硬件配置信息编码为连续表征,使模型能够解耦任务策略与具体执行器,增强对异构机器人平台的适应能力。
  • 基于功能分工的多模态编码策略:任务相关的主视角图像由高性能视觉-语言模型编码,提取高层语义特征;而辅助视角则通过轻量化网络进行局部特征提取。
  • 基于flow-matching的生成式动作解码器:采用概率生成的方式建模机器人动作序列,增强动作轨迹的平滑性与对不确定环境的鲁棒性。

谷歌DeepMind的Gemini Robotics模型则展示了VLA模型在复杂操作任务中的卓越表现。该模型在Gemini 2.0基础上新增物理动作输出模块,形成"视觉-语言-动作"闭环,能够执行训练数据中未包含的任务,如理解折纸原理并自主完成折叠动作。其关键技术突破包括:

  • 通用性:无需针对特定任务微调即可执行新指令,在综合泛化基准测试中的表现较此前最优模型(如RT-2)提升一倍以上。
  • 互动性:支持自然语言指令及动态调整能力,用户可用日常对话修改指令,系统能即时调整动作序列。
  • 灵巧性:在复杂操作中展现精确控制能力,如折纸任务中精确计算纸张折叠角度与力度。

2.3 多模态大模型的技术实现路径

多模态大模型在具身智能中的应用主要有三种技术路径:端到端学习、模块化系统和混合方法

端到端学习方法试图使用单一模型直接完成从感知到控制的全部任务,如X-VLA和Gemini Robotics。这种方法的优势在于减少信息损失和误差累积,但需要大量高质量的训练数据和计算资源。如表1所示,不同类型的多模态大模型在具身智能中各有侧重。

表1:多模态大模型在具身智能中的技术对比

模型名称 研发机构 参数量 核心创新 适用场景 性能表现
X-VLA 清华大学AIR、上海AI实验室 0.9B Soft-Prompt机制、flow-matching动作解码 长时序灵巧操作 120min自主叠衣,五大基准SOTA
Gemini Robotics 谷歌DeepMind 未公开 视觉-语言-动作闭环、动态调整 通用精细操作 较RT-2提升一倍以上
Pelican-VL 1.0 X-Humanoid 7B-72B DPPO框架、金属循环训练 多机器人协同、触觉操作 超越100B级开源模型10.6%
InternVLA系列 上海AI实验室 未公开 双系统架构、一脑多形 导航、操作、运动控制 60Hz连续推理,跨场景零样本泛化
RoboBrain 北京大学 未公开 任务规划+A-LoRA+T-LoRA三模块 长程操作任务 在OpenEQA等基准上超越GPT-4V

模块化系统采用分层架构,将感知、认知、规划和控制等功能分配给不同的模块,各模块可独立优化。北京大学的RoboOS系统是模块化系统的典型代表,采用"大脑-小脑"分层架构,通过模块化设计、智能任务管理和跨本体协作,为机器人提供高效、灵活、可扩展的底层支持。在该系统中:

  • RoboBrain(云端大脑):负责任务理解、规划决策和上下文感知,将抽象指令映射为具象动作序列。
  • 小脑执行模块(端侧):负责感知、认知、决策和行动闭环协作,实现高效执行。

这种架构实现了复杂场景感知与决策能力高效执行能力的深度结合,确保在长周期、高动态任务中的稳定运行。

混合方法结合了端到端学习和模块化系统的优点,在保证系统可靠性的同时提高灵活性。英特尔中国研究院王志刚研究员提出的神经符号具身智能框架是混合方法的典型代表,将神经网络(数据驱动学习)与符号逻辑(规则驱动推理)融合。在该框架中:

  • 神经网络负责感知与模式识别,将原始传感器数据转换为高层语义信息。
  • 符号逻辑(如PDDL等形式化语言)确保规划可靠性与可验证性,定义动作原语、前置条件与执行效果。

这种方法在移动单臂机器人拆卸电动汽车废旧电池包螺栓的任务中,使任务成功率从纯神经网络方案的<80%提升至一次成功率95.7%,经重规划验证后可达100%。

3 使能技术与代码实践

具身智能整合多模态大模型依赖于一系列关键使能技术,这些技术解决了数据稀缺、本体差异、仿真到现实迁移等核心挑战。本节将深入分析核心技术,并提供具体的代码实现示例。

3.1 跨本体适配与软提示技术

在具身智能中,硬件本体的多样性(如自由度、传感器配置、运动范围等)是一个核心挑战。传统的解决方法需要为每个机器人平台重新训练模型,成本极高。软提示(Soft-Prompt)技术通过将机器人本体参数编码为可学习的连续向量,使单一模型能够适配不同的机器人平台。

清华大学X-VLA模型采用的Soft-Prompt机制是一个创新解决方案。该机制动态地将具身本体的硬件配置信息编码为一种连续表征,使模型在预训练中能够解耦任务策略与具体执行器,显著增强模型对异构机器人平台的适应能力。

以下是一个基于PyTorch的Soft-Prompt实现示例:

import torch
import torch.nn as nn
from transformers import VitsModel, VitsTokenizer

class SoftPromptEmbedding(nn.Module):
    """
    软提示嵌入模块,用于将机器人本体参数编码为连续向量
    """
    def __init__(self, robot_config_dim, prompt_dim, hidden_size):
        super(SoftPromptEmbedding, self).__init__()
        self.robot_config_proj = nn.Sequential(
            nn.Linear(robot_config_dim, hidden_size),
            nn.GELU(),
            nn.Linear(hidden_size, prompt_dim)
        )
        self.prompt_tokens = nn.Parameter(torch.randn(1, prompt_dim))
        
    def forward(self, robot_config):
        """
        前向传播
        
        Args:
            robot_config: 机器人配置张量 [batch_size, robot_config_dim]
            
        Returns:
            prompt_emb: 提示嵌入 [batch_size, prompt_dim]
        """
        # 投影机器人配置
        config_emb = self.robot_config_proj(robot_config)
        
        # 结合可学习的提示令牌
        prompt_emb = self.prompt_tokens + config_emb.unsqueeze(1)
        
        return prompt_emb

class CrossPlatformVLA(nn.Module):
    """
    跨平台视觉-语言-动作模型
    """
    def __init__(self, vision_encoder, language_encoder, action_decoder, robot_config_dim=32, prompt_dim=256):
        super(CrossPlatformVLA, self).__init__()
        self.vision_encoder = vision_encoder
        self.language_encoder = language_encoder
        self.action_decoder = action_decoder
        
        # 软提示模块
        self.soft_prompt = SoftPromptEmbedding(robot_config_dim, prompt_dim, 512)
        
        # 跨模态融合模块
        self.fusion_transformer = nn.TransformerEncoder(
            nn.TransformerEncoderLayer(d_model=512, nhead=8),
            num_layers=4
        )
        
    def forward(self, images, instructions, robot_config):
        """
        前向传播
        
        Args:
            images: 视觉输入 [batch_size, num_cameras, C, H, W]
            instructions: 语言指令
            robot_config: 机器人配置 [batch_size, robot_config_dim]
        """
        batch_size = images.shape[0]
        
        # 提取视觉特征
        visual_features = []
        for i in range(images.shape[1]):
            feat = self.vision_encoder(images[:, i])  # [batch_size, visual_feat_dim]
            visual_features.append(feat)
        visual_features = torch.stack(visual_features, dim=1)  # [batch_size, num_cameras, visual_feat_dim]
        
        # 提取语言特征
        text_features = self.language_encoder(instructions)  # [batch_size, text_feat_dim]
        
        # 生成软提示
        prompt_emb = self.soft_prompt(robot_config)  # [batch_size, 1, prompt_dim]
        
        # 融合多模态特征
        fused_features = self.fusion_features(visual_features, text_features, prompt_emb)
        
        # 解码动作
        actions = self.action_decoder(fused_features)
        
        return actions
    
    def fusion_features(self, visual_features, text_features, prompt_emb):
        """
        融合多模态特征
        """
        # 平均池化视觉特征
        visual_global = visual_features.mean(dim=1)  # [batch_size, visual_feat_dim]
        
        # 拼接视觉和语言特征
        base_features = torch.cat([visual_global, text_features], dim=1)  # [batch_size, visual_feat_dim + text_feat_dim]
        base_features = base_features.unsqueeze(1)  # [batch_size, 1, visual_feat_dim + text_feat_dim]
        
        # 添加软提示
        fusion_input = torch.cat([base_features, prompt_emb], dim=1)  # [batch_size, 2, feat_dim]
        
        # 通过Transformer融合
        fused_features = self.fusion_transformer(fusion_input)
        
        return fused_features

该代码展示了如何通过软提示技术将机器人本体配置融入多模态大模型。在实际应用中,机器人配置可以包括自由度数量、关节限位、最大速度等参数。通过这种方式,模型能够动态适应不同的机器人平台,而无需为每个平台重新训练。

3.2 数据生成与增强技术

数据稀缺是具身智能面临的主要挑战之一。真实世界的数据采集成本高、效率低,且难以覆盖所有可能的环境和任务变化。合成数据生成数据增强技术成为解决这一问题的关键。

上海AI实验室的Intern-Robotics数据引擎使用物理仿真和生成式AI相结合的数据合成技术,基于十万级场景物体资产和数据处理管线,搭建具备真实物体分布的可交互场景Intern·Scenes。该数据引擎能够实现单台服务器日合成数据量高达5万条,成本较传统方法降低66%。

以下是一个使用生成式AI进行机器人操作数据增强的示例:

import numpy as np
import torch
import torch.nn as nn
from diffusers import DDIMPipeline
from scipy.spatial.transform import Rotation as R

class RobotDataAugmentation:
    """
    机器人数据增强类
    """
    def __init__(self, device="cuda"):
        self.device = device
        # 加载预训练的扩散模型用于图像生成
        self.diffusion_pipeline = DDIMPipeline.from_pretrained("google/ddim-cifar10")
        self.diffusion_pipeline.to(device)
        
    def geometric_augmentation(self, images, actions, camera_poses):
        """
        几何增强:随机改变相机视角和物体位置
        """
        batch_size = images.shape[0]
        augmented_images = []
        augmented_actions = []
        
        for i in range(batch_size):
            # 随机仿射变换
            angle = np.random.uniform(-10, 10)  # 随机旋转角度
            translate_x = np.random.uniform(-0.1, 0.1)  # 随机平移
            translate_y = np.random.uniform(-0.1, 0.1)
            scale = np.random.uniform(0.9, 1.1)  # 随机缩放
            
            # 构建仿射变换矩阵
            theta = torch.tensor([[
                [scale * np.cos(np.deg2rad(angle)), -np.sin(np.deg2rad(angle)), translate_x],
                [np.sin(np.deg2rad(angle)), scale * np.cos(np.deg2rad(angle)), translate_y]
            ]], dtype=torch.float32)
            
            # 应用仿射变换到图像
            grid = nn.functional.affine_grid(theta, images[i:i+1].size())
            transformed_image = nn.functional.grid_sample(images[i:i+1], grid)
            augmented_images.append(transformed_image)
            
            # 相应地调整动作
            action = actions[i].copy()
            # 假设action的前3个元素是x,y,z位置
            action[0:2] = self.transform_action(action[0:2], theta[0].numpy())
            augmented_actions.append(action)
            
        return torch.cat(augmented_images, dim=0), np.array(augmented_actions)
    
    def transform_action(self, action, transform_matrix):
        """
        根据图像变换调整动作
        """
        # 将动作点表示为齐次坐标
        point = np.array([action[0], action[1], 1.0])
        # 应用变换
        transformed_point = np.dot(transform_matrix, point)
        return transformed_point[0:2]
    
    def diffusion_augmentation(self, images, instructions):
        """
        使用扩散模型进行图像增强
        """
        augmented_images = []
        
        for image in images:
            # 将图像转换为适合扩散模型的格式
            image_pil = self.tensor_to_pil(image)
            
            # 使用扩散模型生成变体
            with torch.no_grad():
                augmented_image = self.diffusion_pipeline(
                    image_pil, 
                    num_inference_steps=20,
                    eta=0.0
                ).images[0]
            
            augmented_images.append(self.pil_to_tensor(augmented_image))
            
        return torch.stack(augmented_images, dim=0)
    
    def semantic_augmentation(self, instructions):
        """
        语义增强:通过同义词替换和句式变换增强语言指令
        """
        augmented_instructions = []
        synonym_dict = {
            'pick': ['grab', 'take', 'lift'],
            'place': ['put', 'set', 'position'],
            'blue': ['azure', 'cobalt', 'sapphire'],
            'red': ['crimson', 'scarlet', 'ruby']
        }
        
        for instruction in instructions:
            words = instruction.lower().split()
            augmented_words = []
            
            for word in words:
                if word in synonym_dict and np.random.random() > 0.7:
                    # 以0.3的概率替换同义词
                    synonyms = synonym_dict[word]
                    replacement = np.random.choice(synonyms)
                    augmented_words.append(replacement)
                else:
                    augmented_words.append(word)
                    
            augmented_instructions.append(' '.join(augmented_words))
            
        return augmented_instructions

    def tensor_to_pil(self, tensor):
        """将张量转换为PIL图像"""
        # 实现细节省略
        pass
        
    def pil_to_tensor(self, pil_img):
        """将PIL图像转换为张量"""
        # 实现细节省略
        pass

# 使用示例
if __name__ == "__main__":
    aug = RobotDataAugmentation()
    
    # 模拟输入数据
    batch_images = torch.randn(4, 3, 224, 224)  # 4张RGB图像
    batch_actions = np.random.randn(4, 7)  # 4个动作,每个动作7维
    batch_instructions = ["pick the blue block", "place the red cube"]
    
    # 应用几何增强
    aug_images, aug_actions = aug.geometric_augmentation(batch_images, batch_actions, None)
    
    # 应用扩散增强
    diff_aug_images = aug.diffusion_augmentation(batch_images, batch_instructions)
    
    # 应用语义增强
    aug_instructions = aug.semantic_augmentation(batch_instructions)

该数据增强实现展示了三种关键增强技术:几何增强通过随机仿射变换改变视角和位置;扩散增强利用生成式模型创建图像变体;语义增强通过同义词替换增加语言指令的多样性。这些技术共同作用,大幅提高了训练数据的多样性和规模,增强了模型的泛化能力。

3.3 仿真与迁移学习

仿真环境为具身智能提供了安全、高效、可扩展的训练场所,而迁移学习则将在仿真中学到的知识应用到真实世界。上海AI实验室的Intern-Robotics仿真引擎通过模块化设计,让用户可轻松实现场景、机器人、评价指标的自由切换。其分布式工具包支持"同步"和"异步"两种多机仿真部署模式,帮助数据采集和评测任务在集群和服务器上一键启动。

以下是一个基于PyBullet的仿真环境与迁移学习实现:

import pybullet as p
import pybullet_data
import numpy as np
import torch
import torch.nn as nn
from collections import deque
import random

class RobotSimEnv:
    """
    机器人仿真环境
    """
    def __init__(self, robot_type="franka", gui=False):
        self.robot_type = robot_type
        self.gui = gui
        
        # 连接物理引擎
        if gui:
            self.physics_client = p.connect(p.GUI)
        else:
            self.physics_client = p.connect(p.DIRECT)
            
        p.setAdditionalSearchPath(pybullet_data.getDataPath())
        p.setGravity(0, 0, -9.8)
        
        # 加载场景和机器人
        self.setup_scene()
        
    def setup_scene(self):
        """设置仿真场景"""
        # 加载地面
        self.plane_id = p.loadURDF("plane.urdf")
        
        # 加载桌子
        self.table_id = p.loadURDF("table/table.urdf", basePosition=[0.5, 0, 0])
        
        # 根据机器人类型加载机器人
        if self.robot_type == "franka":
            self.robot_id = p.loadURDF("franka_panda/panda.urdf", basePosition=[0, 0, 0.5], useFixedBase=True)
        elif self.robot_type == "ur5":
            self.robot_id = p.loadURDF("ur5/ur5.urdf", basePosition=[0, 0, 0.5], useFixedBase=True)
            
        # 设置仿真参数
        p.setTimeStep(1/240.)  # 仿真时间步长
        
    def reset(self):
        """重置环境"""
        # 重置机器人状态
        self.reset_robot()
        
        # 随机初始化物体
        self.spawn_random_objects()
        
        # 获取初始观察
        observation = self.get_observation()
        
        return observation
    
    def reset_robot(self):
        """重置机器人状态"""
        # 重置到初始姿态
        if self.robot_type == "franka":
            joint_positions = [0, -0.785, 0, -2.356, 0, 1.571, 0.785, 0.04, 0.04]
            for i, pos in enumerate(joint_positions):
                p.resetJointState(self.robot_id, i, pos)
                
    def spawn_random_objects(self):
        """随机生成物体"""
        # 移除之前的物体
        if hasattr(self, 'object_ids'):
            for obj_id in self.object_ids:
                p.removeBody(obj_id)
                
        self.object_ids = []
        
        # 随机生成3-5个物体
        num_objects = np.random.randint(3, 6)
        for i in range(num_objects):
            # 随机选择物体类型
            obj_type = np.random.choice(["cube", "sphere", "cylinder"])
            
            # 随机位置
            pos = [np.random.uniform(0.3, 0.7), np.random.uniform(-0.2, 0.2), 0.7]
            
            # 随机颜色
            color = [np.random.random(), np.random.random(), np.random.random(), 1]
            
            if obj_type == "cube":
                obj_id = p.loadURDF("cube.urdf", basePosition=pos, globalScaling=0.05)
            elif obj_type == "sphere":
                obj_id = p.loadURDF("sphere.urdf", basePosition=pos, globalScaling=0.05)
            elif obj_type == "cylinder":
                obj_id = p.loadURDF("cylinder.urdf", basePosition=pos, globalScaling=0.05)
                
            # 设置颜色
            p.changeVisualShape(obj_id, -1, rgbaColor=color)
            
            self.object_ids.append(obj_id)
    
    def get_observation(self):
        """获取环境观察"""
        # 获取图像观察
        camera_info = self.get_camera_image()
        
        # 获取机器人状态
        robot_state = self.get_robot_state()
        
        # 获取物体状态
        object_states = self.get_object_states()
        
        observation = {
            'camera_image': camera_info,
            'robot_state': robot_state,
            'object_states': object_states
        }
        
        return observation
    
    def get_camera_image(self):
        """获取相机图像"""
        # 相机参数
        camera_pos = [0.5, -1, 1]
        target_pos = [0.5, 0, 0.5]
        up_vector = [0, 0, 1]
        fov = 60
        aspect = 640 / 480
        near_plane = 0.1
        far_plane = 10
        
        # 获取相机视图矩阵和投影矩阵
        view_matrix = p.computeViewMatrix(camera_pos, target_pos, up_vector)
        projection_matrix = p.computeProjectionMatrixFOV(fov, aspect, near_plane, far_plane)
        
        # 获取相机图像
        _, _, rgb_img, depth_img, seg_img = p.getCameraImage(
            width=640,
            height=480,
            viewMatrix=view_matrix,
            projectionMatrix=projection_matrix
        )
        
        return {
            'rgb': np.array(rgb_img)[:, :, :3],  # 去除alpha通道
            'depth': np.array(depth_img),
            'segmentation': np.array(seg_img)
        }
    
    def get_robot_state(self):
        """获取机器人状态"""
        joint_states = p.getJointStates(self.robot_id, range(p.getNumJoints(self.robot_id)))
        joint_positions = [state[0] for state in joint_states]
        joint_velocities = [state[1] for state in joint_states]
        
        # 获取末端执行器位置
        end_effector_index = 7  # 假设第7个关节是末端执行器
        end_effector_state = p.getLinkState(self.robot_id, end_effector_index)
        end_effector_pos = end_effector_state[0]
        end_effector_orn = end_effector_state[1]
        
        return {
            'joint_positions': joint_positions,
            'joint_velocities': joint_velocities,
            'end_effector_pos': end_effector_pos,
            'end_effector_orn': end_effector_orn
        }
    
    def get_object_states(self):
        """获取物体状态"""
        object_states = []
        for obj_id in self.object_ids:
            pos, orn = p.getBasePositionAndOrientation(obj_id)
            lin_vel, ang_vel = p.getBaseVelocity(obj_id)
            object_states.append({
                'position': pos,
                'orientation': orn,
                'linear_velocity': lin_vel,
                'angular_velocity': ang_vel
            })
        return object_states
    
    def step(self, action):
        """
        执行动作
        
        Args:
            action: 动作,可以是关节角度、末端执行器位姿等
        """
        # 根据动作类型执行
        if isinstance(action, np.ndarray):
            if action.shape[0] == p.getNumJoints(self.robot_id):
                # 关节空间控制
                self.joint_control(action)
            else:
                # 任务空间控制
                self.task_space_control(action)
        
        # 仿真一步
        p.stepSimulation()
        
        # 获取新观察
        observation = self.get_observation()
        
        # 计算奖励
        reward = self.compute_reward()
        
        # 检查是否终止
        done = self.check_termination()
        
        info = {}
        
        return observation, reward, done, info
    
    def joint_control(self, target_joint_positions):
        """关节空间控制"""
        for i, target_pos in enumerate(target_joint_positions):
            p.setJointMotorControl2(
                bodyUniqueId=self.robot_id,
                jointIndex=i,
                controlMode=p.POSITION_CONTROL,
                targetPosition=target_pos,
                force=500
            )
    
    def task_space_control(self, target_pose):
        """任务空间控制"""
        # 目标位姿:位置和方向
        target_pos = target_pose[:3]
        target_orn = target_pose[3:]
        
        # 使用逆运动学计算关节角度
        joint_positions = p.calculateInverseKinematics(
            self.robot_id,
            endEffectorLinkIndex=7,  # 末端执行器链接索引
            targetPosition=target_pos,
            targetOrientation=target_orn
        )
        
        # 应用关节控制
        self.joint_control(joint_positions)
    
    def compute_reward(self):
        """计算奖励"""
        # 简化的奖励函数
        reward = 0
        
        # 检查是否接近目标物体
        for obj_id in self.object_ids:
            obj_pos, _ = p.getBasePositionAndOrientation(obj_id)
            ee_pos = self.get_robot_state()['end_effector_pos']
            
            distance = np.linalg.norm(np.array(obj_pos) - np.array(ee_pos))
            if distance < 0.1:
                reward += 0.1 * (0.1 - distance)
                
        return reward
    
    def check_termination(self):
        """检查是否终止"""
        # 简化的终止条件
        return False

class DomainAdaptationModule:
    """
    域适应模块:处理从仿真到真实的迁移
    """
    def __init__(self, feature_dim=512):
        self.feature_dim = feature_dim
        self.domain_classifier = nn.Sequential(
            nn.Linear(feature_dim, 256),
            nn.ReLU(),
            nn.Linear(256, 128),
            nn.ReLU(),
            nn.Linear(128, 2)  # 2个域:仿真和真实
        )
        
    def domain_adversarial_training(self, source_features, target_features):
        """
        域对抗训练
        """
        # 合并特征
        features = torch.cat([source_features, target_features], dim=0)
        
        # 创建域标签:0表示源域(仿真),1表示目标域(真实)
        domain_labels = torch.cat([
            torch.zeros(source_features.shape[0]),
            torch.ones(target_features.shape[0])
        ]).long()
        
        # 域分类损失
        domain_preds = self.domain_classifier(features)
        domain_loss = nn.CrossEntropyLoss()(domain_preds, domain_labels)
        
        return domain_loss
    
    def gradient_reversal(self, x, lambda_val=1.0):
        """
        梯度反转层
        """
        class GradientReversal(torch.autograd.Function):
            @staticmethod
            def forward(ctx, x, lambda_val):
                ctx.lambda_val = lambda_val
                return x.view_as(x)
            
            @staticmethod
            def backward(ctx, grad_output):
                return grad_output.neg() * ctx.lambda_val, None
                
        return GradientReversal.apply(x, lambda_val)

# 使用示例
if __name__ == "__main__":
    # 创建仿真环境
    env = RobotSimEnv(robot_type="franka", gui=False)
    
    # 重置环境
    obs = env.reset()
    
    # 执行随机动作
    for i in range(100):
        action = np.random.randn(7)  # 7维关节空间动作
        obs, reward, done, info = env.step(action)
        
        if done:
            break
            
    # 关闭环境
    p.disconnect()

该仿真环境提供了真实的物理交互丰富的传感器模拟,包括RGB-D相机、关节状态和物体状态。域适应模块则通过域对抗训练减小仿真和真实世界之间的差异,提高模型的迁移能力。

4 应用场景与典型案例分析

具身智能整合多模态大模型的技术已在多个领域展现出巨大潜力。从工业制造到家庭服务,从医疗康复到智慧城市,这些技术正在重塑人与机器的交互方式。本节将深入分析几个典型应用场景,并通过案例展示其实际效果。

4.1 工业制造与协作

工业制造是具身智能最早落地也是最为成熟的领域之一。在工业5.0倡导的以人为中心的智能制造背景下,人机协作的智能化需求日益凸显。上海交大胡洁教授团队的研究指出,多模态大语言模型与具身智能的快速发展为自然人机协作带来了前所未有的演进机遇。

典型案例:智能装配与质量检测
联想集团的机器人技术布局展示了具身智能在工业环境中的应用价值。其三大核心方向包括:本体研发(低成本、高容错、场景定义的多形态机器人)、AI技术的大小脑融合(小脑基于模仿学习和强化学习的运动控制,大脑以三维空间智能为核心),以及数据与闭环迭代(聚焦行业缺陷数据、正样本检测数据和三维模型数据)。

在联想的具体实践中,通过Daystar World Deploy虚拟部署工具,可以在三维建模的虚拟环境中完成机器人任务配置,大幅减少实地调试时间。结合支持二次开发的开放SDK,该系统已与IBM等企业合作集成到资产管理系统中,实现高效的工业自动化流程。

技术优势:

  • 任务泛化能力:同一机器人可适应多种装配任务,无需重新编程
  • 人机自然交互:工人可通过自然语言指挥机器人,无需专业编程技能
  • 快速部署:通过仿真到现实的迁移学习,大幅缩短现场调试时间

英特尔中国研究院的神经符号方法在工业场景中取得了显著成效。在移动单臂机器人拆卸电动汽车废旧电池包螺栓的任务中,通过结合神经网络(生成初始任务规划)和符号逻辑(验证计划正确性),任务成功率从纯神经网络方案的<80%提升至一次成功率95.7%,经重规划验证后可达100%。

4.2 家庭服务与智慧生活

家庭服务机器人是具身智能的另一个重要应用领域,要求机器人能够理解人类意图适应复杂环境安全交互。多模态大模型为家庭服务机器人提供了强大的语义理解和情境感知能力。

典型案例:长期自主作业与复杂任务执行
清华大学X-VLA模型在家庭服务场景中展现了卓越性能,成功实现了120分钟无辅助自主叠衣任务,这是首个实现这一能力全开源模型。该任务对机器人的长时序规划精细操作环境适应性提出了极高要求。

X-VLA的成功关键在于其创新的Soft-Prompt机制flow-matching动作解码器,使模型能够适应不同类型的家庭环境,并生成平滑、可靠的动作轨迹。在真实机器人测试中,X-VLA在大量常规抓取和复杂桌面操作任务中展现了强大性能,并能够零样本迁移部署至全新的家庭环境。

技术特点:

  • 长时序任务规划:能够将复杂任务(如"整理房间")分解为一系列可执行的子任务
  • 环境自适应:通过实时视觉反馈调整动作,适应不确定的家庭环境
  • 安全交互:采用概率生成的动作解码,确保与人类共处的安全性

谷歌DeepMind的Gemini Robotics模型在家庭任务中同样表现出色,如折叠纸张、密封零食袋等需要精细操作的任务。该模型支持自然语言指令及动态调整能力,用户可用日常对话修改指令,例如临时要求"先检查苹果是否成熟,再拿香蕉",机器人能即时调整动作序列。

4.3 智慧城市与公共服务

在智慧城市领域,具身智能体可以执行巡逻安保物流配送环境维护等公共服务任务。这些场景要求机器人能够在复杂动态环境中自主导航和决策。

典型案例:多机器人协同作业
北京大学的RoboOS系统展示了具身智能在跨机器人协同方面的潜力。在"递送苹果和水果刀"的任务场景中,基于RoboOS及RoboBrain,睿尔曼单臂机器人、宇树人形G1、松灵双臂机器人成功实现了相互之间的分工协作。

具体任务执行流程如下:

  1. RoboOS接收"拿离杯子最近的水果,并递送一把水果刀"指令后,递送RoboBrain进行任务拆解
  2. RoboBrain通过"空间记忆"感知环境,确定果篮、苹果位置,并拆解任务为宇树G1挑拣苹果、睿尔曼传递果篮、松灵机器人抓取水果刀、睿尔曼返回几个步骤
  3. 在各机器人本体执行子任务过程中,由RoboOS提供端云协作能力,将任务规划为技能粒度,实现云端RoboBrain分发规划,端侧执行技能并实时反馈

系统优势:

  • 跨本体协作:不同类型机器人可共享任务,发挥各自优势
  • 实时状态同步:通过共享记忆系统实现多机器人之间的状态同步
  • 动态任务调度:支持优先级抢占与资源优化分配,确保复杂场景下实时响应

上海AI实验室的Intern-Robotics在智慧城市场景中也展现了强大潜力。其导航大模型InternVLA N1可以60Hz的连续推理效率实现跨场景、跨本体的零样本泛化,在6个主流基准测试中的得分达到国际领先水平。这对于城市环境中长期导航动态避障至关重要。

4.4 医疗康复与辅助技术

医疗康复是具身智能的另一个重要应用领域,机器人可以协助患者康复训练手术辅助日常活动辅助。多模态大模型使机器人能够理解患者的特定需求和限制。

典型案例:个性化康复辅助
银河通用机器人的技术展示了具身智能在医疗辅助领域的潜力。其机器人具备高泛化抓取能力,同一款硬件可适配多种场景,如货架取货、药品补货、工业搬箱、桌面泛化抓取等,无需针对单一任务定制硬件。这种能力对于辅助老年人或残疾人的日常生活尤为重要。

银河通用机器人刚刚在"人形机器人运动会"医药分拣赛中夺冠,可从8个货架、数百种药品中精准抓取并放入药篮,备赛周期仅一周。这展示了其快速适应新任务的能力,在医疗物资处理方面有广阔应用前景。

技术特色:

  • 精细操作能力:可处理复杂场景中的物体,如软质物品、密集排列的物品
  • 物理属性感知:对物体位置、姿态、摩擦力等物理属性有精准感知
  • 长期稳定运行:支持在多样化真实场景中长期稳定运行,而非仅单次或低概率成功

Pelican-VL 1.0模型在接触式触觉操作方面的突破也为医疗康复提供了新的可能性。作为第一个能够通过预测和持续优化抓握力来闭合感觉运动环路的VLM,它在需要精细力控的康复训练中具有重要应用价值。

表2:具身智能在不同应用场景的技术要求对比

应用场景 关键技术要求 主要技术挑战 代表性技术与模型 性能指标
工业制造 高精度、高可靠性、人机协作安全 环境结构化、任务多样性、安全要求 神经符号方法(英特尔)、RobotOS(北大) 任务成功率>95.7%,响应延迟<10ms
家庭服务 长时序任务、环境适应、人机自然交互 环境非结构化、任务开放性、安全隐私 X-VLA(清华)、Gemini Robotics(谷歌) 120分钟自主作业,零样本泛化
智慧城市 多机协同、长期导航、动态规划 环境动态性、任务复杂性、系统可靠性 InternVLA N1(上海AI实验室)、RoboOS(北大) 60Hz推理效率,跨平台协同
医疗康复 精细操作、个性化适应、力控精度 安全性要求高、个体差异大、伦理考量 Pelican-VL 1.0、银河通用机器人 百亿级仿真数据,快速任务适配

4.5 行业关键洞察

通过对以上应用场景的分析,我们可以得出以下关于具身智能落地的关键洞察:

数据驱动的发展范式
具身智能的发展正越来越依赖大规模高质量数据。银河通用机器人通过Sim to Real(仿真到现实)数据生成技术,在仿真器中合成百亿级数据,通过随机生成场景参数训练模型,克服"视觉鸿沟"和"物理鸿沟",大幅降低对真实数据的依赖。这种数据驱动的范式使得机器人能够快速适应新任务,仅需少量真实数据即可实现高效迁移。

端云协同的架构趋势
现代具身智能系统普遍采用端云协同架构,将复杂推理任务放在云端,实时控制任务放在端侧。北京大学的RoboOS是这一趋势的典型代表,其端云协同机制使机器人在注册后即可与RoboBrain建立双向通信链路,通过高效发布-订阅机制实现实时任务调度和状态反馈,指令响应延迟低于10ms。这种架构既保证了系统的响应速度,又提供了强大的计算能力。

基础模型+后训练的适应模式
在机器人落地应用中,基础大模型+后训练已成为主流适应模式。银河通用机器人基于"基础大模型+后训练"模式,通过海量仿真数据预训练后,仅需少量真实数据(一人/天采集量)即可快速适配新任务,且能举一反三。这种模式大幅降低了机器人适应新环境的成本和时间,加速了技术的规模化落地。

5 挑战与未来方向

尽管具身智能整合多模态大模型取得了显著进展,但该领域仍面临诸多挑战。理解这些挑战并明确未来发展方向,对于推动技术成熟和落地至关重要。

5.1 技术瓶颈与解决方案

数据稀缺与质量不一
真实世界的机器人交互数据仍然是稀缺资源,尤其是在特定领域和长尾场景中。虽然仿真和合成数据可以在一定程度上缓解这一问题,但仿真到现实的差距仍然存在。

解决方案包括:

  • 先进的数据增强技术:如上海AI实验室在Intern-Robotics中使用的生成式AI方法,通过物理仿真和生成式AI相结合的数据合成技术,构建"互联网数据-合成数据-真机数据"的虚实混合数据金字塔。
  • 跨任务知识迁移:利用在大量任务上预训练的基座模型,通过少量样本适应新任务。Pelican-VL 1.0采用的DPPO(Deliberate Practice Policy Optimization)框架,通过金属循环教学AI刻意练习,实现RL-Refine → Diagnose → SFT的循环,有效扩大了模型的能力范围。
  • 高效数据收集框架:如银河通用机器人采用的Sim to Real技术,在仿真器中合成海量数据(百亿级),通过随机生成场景参数训练模型,大幅降低对真实数据的依赖。

模型泛化与适应性
当前模型在陌生环境新任务中的表现仍然不稳定,特别是在面对动态变化的环境和复杂的长时序任务时。

改进方向包括:

  • 跨本体泛化技术:如X-VLA模型的Soft-Prompt机制,动态地将具身本体的硬件配置信息编码为连续表征,使模型能够解耦任务策略与具体执行器。
  • 元学习与快速适应:让模型学会如何快速学习,仅通过少量演示就能掌握新任务。Gemini Robotics展示的零样本学习能力,能够执行训练数据中未包含的任务,如理解折纸原理并自主完成折叠动作。
  • 模块化与组合性:通过组合已有的技能模块来解决新任务,降低学习难度。RoboOS的"大脑-小脑"架构实现了任务规划与执行的解耦,支持技能的即插即用。

计算效率与实时性
大型多模态模型通常需要大量计算资源,这与机器人系统的实时性要求形成矛盾。特别是在端侧设备上,模型的轻量化至关重要。

应对策略包括:

  • 模型压缩与加速:通过知识蒸馏、量化和剪枝等技术减小模型尺寸。X-VLA以仅0.9B的参数量在五大权威仿真基准上实现SOTA性能,证明了小模型也能具备强大能力。
  • 分级推理系统:将简单的例行任务交给轻量级模型,复杂任务才交由大型模型处理。Intern-Robotics的双系统架构实现了高层远距离目标空间推理规划和底层敏捷执行的解耦。
  • 边缘-云计算协同:将重型模型推理放在云端,端侧只负责实时控制。RoboOS的端云协作机制实现了指令响应延迟低于10ms。

5.2 安全与伦理考量

随着具身智能在人类环境中越来越普及,安全与伦理问题变得尤为重要。机器人需要确保物理安全、数据安全和行为可控。

安全框架设计
谷歌DeepMind采用的分层安全策略值得借鉴,其保留传统防碰撞传感器、关节力矩限制等底层防护措施,同时引入受阿西莫夫"机器人三定律"启发的"机器人宪法"。具体措施包括:

  • 多层次安全保障:从硬件层面的力矩限制,到软件层面的安全约束,再到高层的行为伦理规则。
  • 安全验证体系:如谷歌新发布的ASIMOV数据集,包含数万条测试场景,用于评估模型决策安全性。
  • 透明与可解释性:使机器人的决策过程对人类可理解,特别是在人机协作场景中。

隐私保护
具身智能体通常配备多种传感器,可能会收集到敏感信息。数据隐私保护是必须考虑的问题。

解决方案包括:

  • 本地处理:尽可能在设备本地处理数据,避免敏感数据上传
  • 差分隐私:在训练数据中添加噪声,保护个体隐私
  • 联邦学习:在不共享原始数据的情况下协同训练模型

伦理与公平性
具身智能系统的决策可能会对不同群体产生不同影响,需要确保公平和公正

关键考量包括:

  • 偏见检测与缓解:定期检测模型决策中的偏见,并采取缓解措施
  • 多样化数据:确保训练数据覆盖不同群体和使用场景
  • 透明算法:使算法的决策逻辑尽可能透明和可解释

5.3 未来发展趋势

基于当前技术发展和应用需求,我们可以预测具身智能整合多模态大模型的几个未来趋势:

通用性与专用性的平衡
未来可能会形成通用基座模型领域专用模型并存的生态体系。北京大学程翔教授团队提出的两类基座模型——通用基座模型(大语言模型)和领域专用基座模型(无线基座模型),为这一趋势提供了理论框架。

人机融合的增强智能
未来具身智能系统将更加注重人类与机器的协同,发挥各自优势。上海交大胡洁教授团队的研究指出,通过多模态大语言模型与具身智能的整合,可以实现从"人-计算机"交互智能到"人-机器人"技能迁移的转变。

持续学习与进化能力
未来的具身智能系统将具备持续学习的能力,能够在实际运行中不断改进和适应。Pelican-VL 1.0的DPPO框架代表了这一方向,通过RL-Refine → Diagnose → SFT的循环实现持续改进。

标准化与开源生态
技术的发展和普及离不开标准化和开源生态的建设。上海AI实验室开源的Intern-Robotics全栈引擎,推动具身大脑从"碎片化开发"迈向"全栈化量产"时代。类似地,清华大学开源的X-VLA模型为具身智能社区提供了性能强劲、完全开源的新基线。

表3:具身智能关键技术挑战与应对策略

技术挑战 当前局限性 应对策略 预期进展时间表
数据稀缺与质量不一 真实数据收集成本高,仿真到现实差距大 生成式AI合成数据、Sim to Real迁移、跨任务知识迁移 短期(1-2年):数据合成技术成熟;中期(3-5年):高质量大规模仿真平台
模型泛化能力不足 对新环境和任务适应能力有限 元学习、软提示技术、模块化设计、基础模型+微调 短期:跨任务泛化提升;中期:跨本体泛化实现
计算效率与实时性 大模型推理延迟高,端侧资源有限 模型压缩、分级推理、边缘-云计算协同 短期:轻量化模型发展;中期:专用硬件与算法协同优化
安全与可靠性 复杂环境中行为不确定性高 分层安全框架、形式化验证、对抗性测试 短期:安全基准测试建立;中期:可证明的安全保障
人机自然交互 意图理解不准确,交互模式单一 多模态融合、情境感知、个性化适应 短期:场景受限的自然交互;中期:开放环境自然交互

6 结论:迈向通用具身智能之路

具身智能与多模态大模型的融合代表了人工智能领域的一个重要发展方向,旨在创建能够在物理世界中感知、推理、行动和学习的智能体。通过本文的分析,我们可以得出以下结论:

技术融合已成为主流范式
单一技术路径已无法解决具身智能面临的复杂挑战。多模态大模型传统机器人学认知科学通信技术的深度融合正在形成新的技术范式。北京大学的"机器联觉"概念代表了这一趋势,通过通信与多模态感知的智能融合,使具身智能体能够超越人类执行复杂超视距任务。

开源开放驱动创新加速
开源社区在推动具身智能发展方面发挥着越来越重要的作用。从上海AI实验室的Intern-Robotics、清华大学的X-VLA,到北京大学的RoboOS,主要研究机构纷纷选择开源策略,促进了技术传播和协作创新。这种开放生态大大降低了研究门槛,加速了技术创新和产业落地。

端到端与模块化架构并存
端到端学习方法与模块化系统架构各有优势,未来可能会形成混合架构。英特尔中国研究院的神经符号方法和北京大学的RoboOS大脑-小脑架构都展示了混合方法的潜力,既利用了大模型的强大推理能力,又保持了传统控制方法的可靠性和可解释性。

从单机智能到群体智能
具身智能正从单机智能群体智能发展。北京大学的RoboOS通过共享记忆系统的方法,实现多个机器人之间的状态同步与智能协作,突破传统机器人协作中"信息孤岛"限制。这种群体智能将使机器人团队能够协作解决超出单个机器人能力的复杂任务。

标准化与规模化是关键挑战
随着技术成熟,标准化规模化成为关键挑战。上海AI实验室的"书生"具身全栈引擎通过构建仿真、数据、训测三大引擎,一站式破解具身智能从数据、训练到实际应用的全链条难题,推动具身大脑从"碎片化开发"迈向"全栈化量产"时代。这种全栈式平台对于技术的规模化落地至关重要。

回顾具身智能的发展历程,我们正处在一个技术融合和突破的关键时期。多模态大模型为具身智能提供了"大脑",使其能够理解和回应复杂的非结构化环境;而机器人系统则为大模型提供了"身体",使其能够通过与环境互动获得物理常识。这种融合正在缩小数字智能与物理智能之间的差距。

尽管前路依然漫长,但具身智能整合多模态大模型的技术已经显示出变革人类与机器交互方式的潜力。从工业制造到家庭服务,从医疗康复到智慧城市,这些技术正在为各行各业创造新的可能性。随着技术的不断进步和成熟,我们有理由相信,通用具身智能——能够在复杂物理环境中执行各种任务的智能体——将逐步从愿景走向现实。

参考文献

  1. 北京大学视频与视觉技术国家工程研究中心. “中关村论坛发布 | 首个跨本体具身大小脑协作框架与开源具身大脑使机器人迈向群体智能”
  2. 上海人工智能实验室. “上海AI实验室发布『书生』具身全栈引擎,推动机器人大脑进入量产时代 | WAIC 2025”
  3. ISTIS. “Gemini Robotics 将人工智能带入机器人世界”
  4. 北京大学电子学院. “电子学院程翔教授团队首次提出基座模型赋能机器联觉的全新设计范式”
  5. WFM System Group. “Pelican-VL 1.0: A Foundation Brain Model for Embodied Intelligence”
  6. 上海交通大学机械与动力工程学院. “胡洁教授团队提出具身智能和多模态大模型赋能,开辟智能制造新路径”
  7. 上海人工智能实验室. “具身智能开源周:导航、操作、运动大模型及数据集批量上线,上海AI实验室加速助力机器人训练及应用”
  8. 邮电设计技术. “基于多模态大模型的智能机器人平台研究与应用”
  9. CCF. “具身智能机器人的大模型与应用研发 | TF技术前线173期回顾”
  10. 清华大学智能产业研究院. “AIR科研|X-VLA重磅开源,全面刷新机器人基准性能记录”

🤖 代表性模型与官方链接

如果你想深入了解甚至亲自动手尝试,以下几个开源项目是不可错过的资源:

模型/系统名称 核心特征 官方链接
Pelican-VL 1.0 全球最大规模开源具身多模态模型;参数覆盖7B至72B;具备强大的空间理解和长程任务规划能力。 项目主页与代码库:
Pelican-VL 项目主页
GitHub 代码库
模型下载:
Hugging Face
ModelScope
RoboOS & RoboBrain 跨本体具身大小脑协作框架;实现多机器人群体智能;任务规划、轨迹预测性能卓越。 该研究由北京大学视频与视觉技术国家工程研究中心发布,相关信息可在其官网查阅。
Skywork R1V4-Lite 轻量级多模态智能体;集成视觉操作、推理与规划;具备主动图像操作能力。 模型由昆仑万维发布,相关信息可关注其官方渠道。
Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐