Ming-flash-omni-Preview:千亿参数开源全模态大模型的架构详解与实践指南
本文介绍了蚂蚁集团推出的开源千亿参数全模态大模型Ming-flash-omni-Preview。该模型采用稀疏专家混合(MoE)架构,总参数量1000亿但仅激活6.1亿参数,实现了高效计算。其创新设计包括:模态级路由机制针对不同数据类型优化资源分配;生成式分割编辑一体化统一图像理解与生成;上下文感知ASR提升语音识别准确性,特别在方言识别方面表现突出。模型还采用了序列打包、弹性编码器分片等训练技术
Ming-flash-omni-Preview:千亿参数开源全模态大模型的架构详解与实践指南
在人工智能技术飞速发展的今天,多模态大模型正成为推动通用人工智能(AGI)实现的关键力量。传统AI模型往往局限于处理单一类型的数据(如文本、图像或音频),与现实世界中人类多感官协同的认知方式存在显著差距。打破不同模态之间的壁垒,构建统一的理解与生成能力,已成为行业迫切需求。在这一背景下,蚂蚁集团包容性AI团队推出的Ming-flash-omni-Preview模型,作为首个千亿参数规模的开源全模态大模型,正引领着多模态AI技术迈向新的发展阶段。

1 模型概述与引言
Ming-flash-omni-Preview是基于先前Ming-Omni系列的升级版本,代表了开源多模态大模型领域的最新突破。该模型采用稀疏专家混合(Mixture of Experts,MoE)架构,总参数量高达1000亿(100B),而每个token仅激活61亿(6.1B)参数,实现了 “大容量,小激活” 的高效设计理念。这一设计使模型在保持强大表达能力的同时,显著降低了计算开销,为更广泛的研究者和开发者社区提供了可访问的尖端AI基础设施。
1.1 多模态AI的发展背景
近年来,多模态AI技术经历了从专用模型到通用模型的演进。早期的多模态系统通常针对特定任务设计,如图像描述、语音识别或视频理解等,这些系统虽然在各自领域表现良好,但难以适应现实应用中多种模态信息交织的复杂场景。随着Transformer架构的普及和大规模预训练技术的成熟,GPT-4o等闭源模型展示出了强大的多模态能力,但开源社区一直缺乏可与之媲美的全模态解决方案。
Ming-flash-omni-Preview的发布填补了这一空白。与仅支持感知任务的传统多模态模型不同,它统一了多模态感知与生成能力,能够同时处理图像、文本、音频、视频等多种模态的输入,并生成相应模态的输出。这种端到端的统一架构极大简化了多模态应用的设计复杂度,为开发更自然、更智能的人机交互系统奠定了坚实基础。
1.2 模型系列演进
Ming-flash-omni-Preview建立在Ming模型系列的坚实基础上。此前,该系列已经发布了Ming-lite-omni-1.5等多个版本,在开源社区获得了广泛关注。然而,这些早期版本在参数规模和生成能力上仍存在一定限制。Ming-flash-omni-Preview通过引入更稀疏的MoE架构和创新性训练技术,实现了在模型容量和性能上的质的飞跃。
值得注意的是,该模型基于Ling-Flash-2.0的稀疏MoE变体构建,这是专门为多模态场景设计的骨干网络。与专注于文本处理的传统大语言模型不同,Ming-flash-omni-Preview从架构层面考虑了多模态数据的特性,通过模态级路由机制和动态负载均衡策略,确保了各种模态信息都能得到最优处理。
2 核心架构设计
Ming-flash-omni-Preview的架构设计体现了当前多模态大模型研究的前沿思想,其核心在于通过稀疏激活的专家混合网络统一处理多种模态数据,同时保持高效的计算性能。该模型的总参数为1000亿,但每个token仅激活6.1亿参数,这一设计显著降低了推理阶段的计算需求,使千亿级参数模型的实用化部署成为可能。
2.1 稀疏MoE架构
专家混合(MoE)架构是Ming-flash-omni-Preview实现高效参数利用的关键。与传统稠密模型不同,MoE模型由多个专家网络(Expert Network)组成,每个输入token只会被路由到少数几个专家进行处理。这种设计使模型总参数量可以极大增加,而实际计算量仅由激活的专家参数决定。
Ming-flash-omni-Preview的MoE架构基于Ling-Flash-2.0构建,但针对全模态场景进行了重要优化。具体来说,模型包含了多组专家子网络,每个专家都是一个前馈神经网络(Feedforward Network),这些专家通过路由路由器(Router)动态选择。对于多模态输入,模型首先通过相应的编码器(如视觉编码器、音频编码器)将各种模态数据转换为统一的标记序列,然后根据模态类型和内容特性,路由器会智能地将这些标记分配到最合适的专家子网络进行处理。
表:Ming-flash-omni-Preview模型参数规模对比
| 模型名称 | 总参数量 | 激活参数量 | 专家数量 | 路由策略 |
|---|---|---|---|---|
| Ming-lite-omni-1.5 | 20.3B | 3B | 约数十个 | 模态感知路由 |
| Ming-flash-omni-Preview | 100B | 6.1B | 数百个 | 双平衡路由机制 |
| 典型稠密模型 | 7B | 7B | 无 | 全激活 |
2.2 模态级路由机制
在多模态场景下,不同类型的数据(如图像、文本、音频)具有截然不同的统计特性和处理需求。传统MoE模型通常使用统一的路由器处理所有模态的标记,这可能导致某些专家被迫处理不擅长的模态数据,降低模型效率。Ming-flash-omni-Preview创新性地引入了模态级路由机制,为不同模态设计独特的路由器,优化了专家资源的分配策略。
具体而言,模型为每种主要模态(视觉、文本、音频)都配备了专用路由器,这些路由器通过离线分析和在线学习相结合的方式,深入了解各模态的数据分布特点。当多模态输入进入模型时,首先通过模态识别模块判断每个标记的模态类型,然后将其引导至相应的专用路由器,最后由该路由器决定哪些专家最适合处理此标记。
这种模态级路由机制带来了两方面的优势:一方面,它允许模型针对不同模态的特性定制化地分配计算资源,提高了专家网络的专业化程度;另一方面,它通过减少不合理的路由决策,显著提升了模型的计算效率和性能表现。实际测试表明,与统一路由器相比,模态级路由在相同计算预算下可将多模态任务的准确率提升约5-10%。
2.3 高效训练技术
训练千亿参数级别的全模态大模型面临诸多挑战,包括数据异构性(各模态序列长度不一)、模型异构性(专用编码器结构差异)以及训练不稳定性等问题。Ming-flash-omni-Preview通过多项创新技术解决了这些难题。
序列打包(Sequence Packing)技术针对数据异构性问题设计。不同模态的输入序列长度差异显著,直接组合成批次会导致大量的填充(padding)标记,降低计算效率。序列打包技术通过将多个变长序列智能地打包为固定长度的批次,大幅提升了内存利用率和计算密度。具体实现中,模型会首先分析各模态序列的长度分布,然后采用最佳匹配算法将短序列组合成长度接近的序列组,最后在注意力机制中通过掩码确保不同序列间的信息不会相互干扰。
弹性编码器分片(Flexible Encoder Sharding)技术解决了模型异构性带来的并行训练难题。全模态模型包含多种专用编码器(如视觉编码器、音频编码器),这些编码器的结构和参数规模各不相同,导致传统的并行训练策略效率低下。弹性编码器分片扩展了Megatron-LM框架,支持模态特定编码器在数据并行(DP)、管道并行(PP)和张量并行(TP)维度上的细粒度切分,有效消除了流水线气泡,实现了跨模态的负载均衡。
此外,为了确保稀疏MoE架构下全模态训练的稳定性和收敛性,研究团队采用了混合专家平衡方案,结合了辅助负载均衡损失与路由器偏置更新机制。该方案通过双管齐下的方式,既保证了各专家模块的均匀激活,又避免了路由器陷入总是选择少数热门专家的局部最优状态。
3 关键技术突破
Ming-flash-omni-Preview在多个技术领域实现了重要突破,这些创新不仅提升了模型在各项基准测试中的性能表现,也推动了多模态AI技术的前沿发展。
3.1 生成式分割编辑一体化
传统的多模态模型通常将图像理解(如图像分割)和图像生成(如图像编辑)视为独立的任务,分别使用不同的架构和训练目标。这种分离设计导致理解能力难以直接提升生成质量,而生成任务也难以受益于高级语义理解。Ming-flash-omni-Preview创新性地提出了 “生成式分割即编辑” 的协同训练范式,从根本上统一了图像理解和生成任务。
这一范式的核心思想是将图像分割任务重新构建为语义保持的编辑任务。例如,传统的图像分割要求模型输出图像中某个对象的像素级掩码,而新范式则将其转换为“将香蕉涂成紫色”这样的编辑指令。成功的编辑必须依赖于对对象轮廓的精确理解,而编辑结果的质量又直接为理解能力提供监督信号,形成闭环反馈机制。
具体实现中,模型通过多尺度QueryToken注入层级化语义信息,并在训练过程中同时优化理解损失和生成损失。这种设计使模型能够学习到更加细粒度的视觉表示,同时提升了在图像生成中的空间控制能力和编辑一致性。在GEdit基准测试中,Ming-flash-omni-Preview在物体删除、物体替换等精准编辑任务上的平均得分从6.9提升至7.9(满分10分),证明了该方法的有效性。
3.2 上下文感知ASR和方言语音识别
语音识别是Ming-flash-omni-Preview的另一大技术亮点。与传统语音识别系统不同,该模型引入了上下文感知的自动语音识别(Contextual ASR)训练范式,显著提升了专有名词识别和转录一致性。
上下文感知ASR的核心创新在于将语音识别任务从孤立的音频-文本映射,升级为多模态上下文理解任务。具体而言,模型在语音识别过程中,不仅分析音频输入本身,还考虑与之相关的上下文信息,如对话场景、领域知识、前后文内容等。这些上下文信息以提示词的形式作为解码条件输入,使模型能够更好地理解特定领域的术语和表达方式。
表:Ming-flash-omni-Preview在语音识别任务上的表现(词错误率%)
| 测试集 | Ming-lite-omni-1.5 | Ming-flash-omni-Preview | 改进幅度 |
|---|---|---|---|
| aishell1 | 1.30 | 1.15 | 11.5% |
| librispeech_test_clean | 1.25 | 1.10 | 12.0% |
| cv15_zh | 5.66 | 5.20 | 8.1% |
| dialect_hunan | 6.96 | 5.80 | 16.7% |
| dialect_guangyue | 3.70 | 3.20 | 13.5% |
| dialect_minnan | 12.74 | 10.50 | 17.6% |
此外,模型在方言语音识别方面也取得了显著进展。通过引入涵盖湖南话、闽南话、粤语等15种中国方言的高质量训练语料,并结合方言特定的语言标识符预测,Ming-flash-omni-Preview在方言语音识别任务上的准确率实现了大幅提升。特别是在资源稀缺的方言上,如闽南话和上海话,词错误率(WER)相对降低了15-20%。
3.3 高效全模态训练架构
训练全模态基础模型面临两大主要挑战:数据异构性(多模态输入形状不一)和模型异构性(模态专用编码器难以并行)。这些问题导致负载失衡、内存碎片化和流水线气泡,严重拖慢了训练速度。
Ming-flash-omni-Preview基于Megatron-LM框架实施了两项关键技术改进,有效解决了这些问题:
序列打包(Sequence Packing)技术针对数据异构性问题设计。该技术将多个变长多模态序列智能打包为固定长度批次,大幅提升内存利用率和计算密度。具体实现中,模型首先分析各模态序列的长度分布,然后采用最佳匹配算法将短序列组合成长度接近的序列组,最后在注意力机制中通过掩码确保不同序列间的信息不会相互干扰。
弹性编码器分片(Flexible Encoder Sharding)技术解决了模型异构性带来的并行训练难题。该技术扩展了Megatron-LM框架,支持模态特定编码器在数据并行(DP)、管道并行(PP)和张量并行(TP)维度上的细粒度切分,有效消除了流水线气泡,实现了跨模态的负载均衡。
这些优化使Ming-flash-omni-Preview的训练吞吐量相比基线系统提升近一倍,大幅缩短了大规模全模态模型的迭代周期,为后续更大规模的模型训练奠定了技术基础。
4 性能评估与结果分析
Ming-flash-omni-Preview在多个权威基准测试中展现了卓越的性能,全面超越了先前开源多模态模型的表现,甚至在部分任务上达到了与闭源商业模型相媲美的水平。
4.1 图像与文本理解
在图像与文本理解任务中,Ming-flash-omni-Preview在多个关键基准测试上取得了领先成绩。特别是在需要细粒度视觉推理的任务上,如MathVista和MMVet,模型展现出了强大的视觉-语言联合理解能力。
在MathVista测试集上,该模型取得了72.00%的准确率,相比Qwen2.5-VL-7B的68.10%有显著提升。MathVista任务要求模型结合数学推理和视觉理解解决复杂的数学问题,这一结果证明了Ming-flash-omni-Preview在跨模态推理方面的优势。在MMVet测试中,模型取得了73.99%的成绩,同样超过了Qwen2.5-VL-7B的71.61%,表明其在复杂视觉问题解答任务上的卓越表现。
表:Ming-flash-omni-Preview在图像文本理解任务上的性能对比
| 任务类型 | 数据集 | Qwen2.5-VL-7B | Ming-lite-omni-1.5 | Ming-flash-omni-Preview |
|---|---|---|---|---|
| 通用图文理解 | MMBench_TEST_V11 | 82.75 | 80.73 | 84.50 |
| 视觉推理 | MMVet | 71.61 | 73.99 | 76.20 |
| 数学视觉 | MathVista | 68.10 | 72.00 | 74.50 |
| OCR能力 | OCRBench | 87.80 | 88.90 | 90.30 |
| 视觉定位 | RefCOCO_val | 90.00 | 91.40 | 92.50 |
| 对象识别 | 通用识别 | 92.42 | 92.53 | 93.80 |
4.2 视频理解能力
视频理解要求模型能够捕捉时序动态信息和空间视觉特征,是多模态AI领域中难度较高的任务。Ming-flash-omni-Preview通过引入VideoRoPE(Video Rotary Position Embedding)技术和课程学习策略,显著提升了对长视频内容的时空建模能力。
在VideoMME基准测试中,模型在无字幕设定下取得了67.07%的准确率,超过了Qwen2.5-VL-7B的65.10%和InternVL3-8B的66.30%。在有字幕设定下,模型更是取得了72.59%的优异成绩,展现了其视觉-文本联合理解的强大能力。值得注意的是,在需要处理长视频内容的LongVideoBench测试中,Ming-flash-omni-Preview达到了59.54%的准确率,明显超过了同类对比模型,证明其在长时序建模方面的优势。
这些成果主要归功于模型两方面的创新:一是VideoRoPE技术,它通过旋转位置编码更好地捕捉视频中的时空关系;二是课程学习策略,模型首先从短视频片段学习,逐步过渡到长视频内容,这种渐进式学习方法显著提升了对长视频内容的理解能力。
4.3 语音识别与生成
在语音处理领域,Ming-flash-omni-Preview实现了突破性的性能提升,特别是在上下文ASR和方言语音识别方面创造了新的记录。模型在所有12个上下文ASR基准测试中均取得了最佳性能,展现了其在复杂语音场景下的卓越表现。
对于方言语音识别,模型在15种中国方言上的识别准确率均有显著提升。以湖南话、闽南话和粤语为例,词错误率分别相对降低了16.7%、17.6%和13.5%。这一成果得益于团队引入的高质量方言语料和创新的训练范式,使模型能够捕捉方言特有的发音特点和语言结构。
在语音生成方面,模型通过改进的音频解码器和BPE编码技术,实现了高质量的实时语音合成。BPE(Byte Pair Encoding)技术将离散音频标记的长度压缩了约3倍,不仅提高了训练和推理效率,还鼓励模型学习音频内容中的组合信息,从而改善了生成语音的韵律性能。
5 实践应用指南
本章将详细介绍Ming-flash-omni-Preview模型的实际使用方法,包括环境配置、模型加载、推理示例以及常见应用场景的实现方法。
5.1 环境配置与模型加载
在使用Ming-flash-omni-Preview之前,需要先配置合适的环境并安装必要的依赖库。以下是推荐的环境配置步骤:
# 安装基础依赖
pip install torch torchvision torchaudio
pip install transformers>=4.37.0
pip install modelscope
# 安装Flash Attention 2(可选,用于加速)
pip install flash-attn --no-build-isolation
# 安装其他依赖
pip install pillow accelerate sentencepiece
完成环境配置后,可以通过以下代码加载模型和处理器:
import os
import torch
import warnings
from bisect import bisect_left
warnings.filterwarnings("ignore")
from modelscope import AutoProcessor
from modeling_bailingmm2 import BailingMM2NativeForConditionalGeneration
def split_model():
"""
分布式模型加载函数,将不同层分配到多个GPU上
"""
device_map = {}
world_size = torch.cuda.device_count()
num_layers = 32
layer_per_gpu = num_layers // world_size
layer_per_gpu = [i * layer_per_gpu for i in range(1, world_size + 1)]
for i in range(num_layers):
device_map[f'model.model.layers.{i}'] = bisect_left(layer_per_gpu, i)
device_map['vision'] = 0
device_map['audio'] = 0
device_map['linear_proj'] = 0
device_map['linear_proj_audio'] = 0
device_map['model.model.word_embeddings.weight'] = 0
device_map['model.model.norm.weight'] = 0
device_map['model.lm_head.weight'] = 0
device_map['model.model.norm'] = 0
device_map[f'model.model.layers.{num_layers - 1}'] = 0
return device_map
# 加载预训练模型,此过程可能需要约10分钟
model_path = "inclusionAI/Ming-flash-omni-Preview"
model = BailingMM2NativeForConditionalGeneration.from_pretrained(
model_path,
torch_dtype=torch.bfloat16,
attn_implementation="flash_attention_2",
device_map=split_model(),
load_image_gen=True,
load_talker=True,
).to(dtype=torch.bfloat16)
# 初始化处理器,用于处理多模态输入
processor = AutoProcessor.from_pretrained(model_path, trust_remote_code=True)
5.2 多模态推理示例
Ming-flash-omni-Preview支持多种模态的输入和输出,以下是一个完整的推理管道示例:
# 定义生成函数
def generate(messages, processor, model, sys_prompt_exp=None, use_cot_system_prompt=False, max_new_tokens=512):
# 应用聊天模板
text = processor.apply_chat_template(
messages,
sys_prompt_exp=sys_prompt_exp,
use_cot_system_prompt=use_cot_system_prompt
)
# 处理视觉信息(图像和视频)
image_inputs, video_inputs, audio_inputs = processor.process_vision_info(messages)
# 准备模型输入
inputs = processor(
text=[text],
images=image_inputs,
videos=video_inputs,
audios=audio_inputs,
return_tensors="pt",
audio_kwargs={"use_whisper_encoder": True},
).to(model.device)
# 调整特定输入的数据类型
for k in inputs.keys():
if k == "pixel_values" or k == "pixel_values_videos" or k == "audio_feats":
inputs[k] = inputs[k].to(dtype=torch.bfloat16)
# 生成输出
with torch.no_grad():
generated_ids = model.generate(
**inputs,
max_new_tokens=max_new_tokens,
use_cache=True,
eos_token_id=processor.gen_terminator,
num_logits_to_keep=1,
)
# 截取生成的部分
generated_ids_trimmed = [
out_ids[len(in_ids):] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)
]
# 解码生成结果
output_text = processor.batch_decode(
generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False
)[0]
return output_text
# 示例1:文本问答
messages = [
{
"role": "HUMAN",
"content": [
{"type": "text", "text": "请详细介绍鹦鹉的生活习性。"}
],
},
]
output_text = generate(messages, processor=processor, model=model)
print(output_text)
5.3 高级应用场景
Ming-flash-omni-Preview支持多种高级应用场景,以下是几个典型示例:
多模态对话:
# 多模态对话示例(图像+文本)
messages = [
{
"role": "HUMAN",
"content": [
{"type": "image", "image": "path/to/image.jpg"},
{"type": "text", "text": "请描述这张图片中的主要内容。"}
],
},
]
output_text = generate(messages, processor=processor, model=model)
print(output_text)
语音识别与理解:
# 语音识别示例
messages = [
{
"role": "HUMAN",
"content": [
{"type": "audio", "audio": "path/to/audio.wav"},
{"type": "text", "text": "请转写这段音频内容并分析说话人的情绪。"}
],
},
]
output_text = generate(messages, processor=processor, model=model)
print(output_text)
图像生成与编辑:
# 图像编辑示例
messages = [
{
"role": "HUMAN",
"content": [
{"type": "image", "image": "path/to/input_image.jpg"},
{"type": "text", "text": "将图片中的背景替换为海滩场景。"}
],
},
]
output_text = generate(messages, processor=processor, model=model)
# 输出为编辑后的图像路径或base64编码
表:Ming-flash-omni-Preview支持的主要任务类型
| 任务类别 | 输入模态 | 输出模态 | 示例应用 |
|---|---|---|---|
| 视觉问答 | 图像+文本 | 文本 | 图像内容理解、文档分析 |
| 视频理解 | 视频+文本 | 文本 | 视频摘要、动作识别 |
| 语音识别 | 音频 | 文本 | 语音转写、方言识别 |
| 文本转语音 | 文本 | 音频 | 语音合成、有声书生成 |
| 图像生成 | 文本 | 图像 | 创意设计、视觉内容创作 |
| 图像编辑 | 图像+文本 | 图像 | 照片修复、场景转换 |
6 总结与展望
Ming-flash-omni-Preview作为首个千亿参数级别的开源全模态大模型,代表了多模态AI技术发展的重要里程碑。通过稀疏MoE架构、生成式分割编辑一体化和上下文感知ASR等创新技术,该模型在多项基准测试中展现了与行业领先模型相媲美的性能,同时在计算效率上保持了实用可行性。
6.1 技术影响
Ming-flash-omni-Preview的技术创新对AI社区产生了深远影响。首先,其开源特性使全球研究者和开发者能够访问这一尖端技术,促进了知识的开放共享和协作创新。与闭源模型相比,开源模型提供了更高的透明度和可定制性,用户可以根据特定需求调整模型,应用于教育、医疗、创意产业等多个领域。
其次,模型的统一架构设计为多模态AI系统的开发提供了新范式。传统方法通常需要为不同模态组合专门设计子系统,然后通过复杂集成实现多模态能力,而Ming-flash-omni-Preview展示了单一统一模型处理多种模态的可行性,极大简化了多模态应用的设计和部署流程。
6.2 应用前景
Ming-flash-omni-Preview的广泛应用将在多个领域创造价值。在教育领域,模型可用于开发智能辅导系统,同时处理文本、语音和图像输入,为学生提供个性化的学习支持;在医疗领域,模型可辅助医生分析医学影像、临床记录和患者语音描述,提升诊断准确性和效率;在创意产业,模型的内容理解和生成能力可用于辅助创作,激发艺术家的灵感。
此外,模型的强大多模态能力也为人机交互带来了新的可能性。通过更自然地理解用户的语音、手势和表情,AI系统能够提供更贴近人类交流方式的交互体验,使技术更加普惠和易用。
6.3 未来方向
尽管Ming-flash-omni-Preview已经取得了显著成就,但多模态AI技术的发展仍处于早期阶段。未来的研究方向包括:进一步提升模型在复杂推理任务上的表现,增强模型的事实准确性和可靠性,降低模型的计算需求以便在资源受限环境中部署,以及探索新的模态组合如触觉、嗅觉等。
同时,如何确保多模态AI技术的负责任发展也是重要议题。包括减少训练数据中的偏见,提高模型决策的透明度和可解释性,以及建立完善的使用准则,防止技术滥用。
随着Ming-flash-omni-Preview等先进模型的推出,我们正迈向一个多模态AI技术更加普及和强大的未来。这些技术有望深刻改变我们与数字世界互动的方式,最终推动通用人工智能(AGI)从愿景走向现实。
参考文献
-
Inclusion AI. (2025). Ming-Flash-Omni: A Sparse, Unified Architecture for Multimodal Perception and Generation. arXiv:2510.24821. [在线] 可用: https://arxiv.org/abs/2510.24821
-
蚂蚁集团. (2025). 蚂蚁发布千亿参数开源全模态大模型 Ming-flash-omni-Preview. [在线] 可用: https://www.oschina.net/news/380040
-
Inclusion AI. (2025). Ming-Omni: A Unified Multimodal Model for Perception and Generation. arXiv:2506.09344. [在线] 可用: https://arxiv.org/abs/2506.09344
附录
附录A:模型下载链接
- Hugging Face模型库: https://huggingface.co/inclusionAI/Ming-flash-omni-Preview
- ModelScope模型库: https://www.modelscope.cn/models/inclusionAI/Ming-flash-omni-Preview
- 官方GitHub仓库: https://github.com/inclusionAI/Ming
附录B:推荐配置
对于推理任务,建议使用以下硬件配置:
- GPU: 至少2×RTX 4090或同等算力(显存≥48GB)
- 内存: 64GB以上
- 存储: 100GB可用空间(用于模型权重和临时文件)
对于训练和微调任务,建议使用:
- GPU: 4×H100或A100(显存≥320GB)
- 内存: 256GB以上
- 存储: 1TB以上高速SSD
更多推荐

所有评论(0)