系列篇章💥

No. 文章
1 【AI大模型前沿】深度剖析瑞智病理大模型 RuiPath:如何革新癌症病理诊断技术
2 【AI大模型前沿】清华大学 CLAMP-3:多模态技术引领音乐检索新潮流
3 【AI大模型前沿】浙大携手阿里推出HealthGPT:医学视觉语言大模型助力智能医疗新突破
4 【AI大模型前沿】阿里 QwQ-32B:320 亿参数推理大模型,性能比肩 DeepSeek-R1,免费开源
5 【AI大模型前沿】TRELLIS:微软、清华、中科大联合推出的高质量3D生成模型
6 【AI大模型前沿】Migician:清华、北大、华科联手打造的多图像定位大模型,一键解决安防监控与自动驾驶难题
7 【AI大模型前沿】DeepSeek-V3-0324:AI 模型的全面升级与技术突破
8 【AI大模型前沿】BioMedGPT-R1:清华联合水木分子打造的多模态生物医药大模型,开启智能研发新纪元
9 【AI大模型前沿】DiffRhythm:西北工业大学打造的10秒铸就完整歌曲的AI歌曲生成模型
10 【AI大模型前沿】R1-Omni:阿里开源全模态情感识别与强化学习的创新结合
11 【AI大模型前沿】Qwen2.5-Omni:阿里巴巴的多模态大模型,实现看、听、说、写一体化
12 【AI大模型前沿】SmolDocling:256M参数的轻量级多模态文档处理利器,10分钟搞定百页PDF
13 【AI大模型前沿】Stable Virtual Camera:Stability AI 推出的2D图像转3D视频模型,一键生成沉浸式视频
14 【AI大模型前沿】阿里 Qwen3 震撼开源,模型新王诞生,开启全球大模型新纪元
15 【AI大模型前沿】InternVL:OpenGVLab开源多模态大模型,解锁视觉问答与多语言翻译的全能应用图鉴
16 【AI大模型前沿】Fin-R1:上海财经大学联合财跃星辰推出的金融推理大模型,凭7B参数拿下评测第二,离行业第一仅差3分
17 【AI大模型前沿】Med-R1:基于强化学习的医疗视觉语言模型,突破跨模态医学推理的普适性
18 【AI大模型前沿】Baichuan-M1-14B:百川智能推出专为医疗优化的开源大语言模型
19 【AI大模型前沿】一键生成宫崎骏动画风,EasyControl Ghibli 让照片秒变吉卜力艺术品
20 【AI大模型前沿】TxGemma:谷歌推出的高效药物研发大模型,临床试验预测准确率超90%
21 【AI大模型前沿】F5R-TTS:腾讯推出TTS领域的新王者,又快又准又自然,零样本语音克隆新高度
22 【AI大模型前沿】MiniMind-V:低成本打造超小多模态视觉语言模型(仅需1.3元人民币和1小时)
23 【AI大模型前沿】MoCha:端到端对话角色视频生成模型、电影级对话角色合成黑科技、重新定义动画创作
24 【AI大模型前沿】HuatuoGPT-o1-7B:中英文双语医学推理,打破语言障碍的AI大模型
25 【AI大模型前沿】MedReason:大规模医学推理数据集、借用知识图谱将大模型打造成“医术”专家
26 【AI大模型前沿】SkyReels-V2:昆仑万维开源的无限时长电影生成模型,开启视频生成新纪元
27 【AI大模型前沿】Dia:Nari Labs开源16亿参数TTS模型,只需文本输入,生成媲美真人对话的语音
28 【AI大模型前沿】阿里巴巴开源LHM:单图生成可动画3D人体模型,开启3D建模新纪元
29 【AI大模型前沿】TinyLLaVA-Video-R1:北航开源视频推理模型、小尺寸大智慧、参数少一半,性能翻一番
30 【AI大模型前沿】TTRL:测试时强化学习,开启无标签数据推理新篇章
31 【AI大模型前沿】Aero-1-Audio:Qwen2.5架构加持,轻量级音频模型天花板、吊打Whisper
32 【AI大模型前沿】DianJin-R1:阿里云通义点金联合苏大推出的金融推理增强大模型
33 【AI大模型前沿】VITA-Audio:腾讯开源的高效语音交互多模态大语言模型
34 【AI大模型前沿】Multiverse:全球首个AI多人游戏世界模型,低成本高效率新突破
35 【AI大模型前沿】Seed1.5-VL:多模态理解的效率革新者,以小博大,性能惊艳
36 【AI大模型前沿】ViLAMP:蚂蚁集团和人民大学联手打造的长视频理解利器,单卡处理3小时视频
37 【AI大模型前沿】Muyan-TTS:开源零样本语音合成模型、0.33秒极速生成播客级语音、小白也能玩转AI配音
38 【AI大模型前沿】Dolphin:字节跳动开源文档解析大模型,轻量级、高效、多格式,开启文档处理新时代
39 【AI大模型前沿】ChatTS:字节跳动联合清华大学开源、多模态时序大模型助力时序数据对话与推理
40 【AI大模型前沿】Index-AniSora:B站开源的动漫视频生成模型,助力高效创作
41 【AI大模型前沿】RelightVid:上海 AI Lab联合复旦等高校推出的视频重照明模型
42 【AI大模型前沿】BAGEL:字节跳动开源、多模态大模型的创新突破与实践指南
43 【AI大模型前沿】Matrix-Game:昆仑万维开源大模型,一键生成你的专属虚拟世界
44 【AI大模型前沿】Pixel Reasoner:滑铁卢联合港科大等高校推出的视觉语言模型,助力视觉推理新突破
45 【AI大模型前沿】CoGenAV:多模态语音表征新范式、通义联合深技大打造、噪声环境WER降低70%+
46 【AI大模型前沿】Ming-Lite-Omni:蚂蚁集团开源的统一多模态大模型的创新实践
47 【AI大模型前沿】DeepEyes:小红书与西安交大联合打造的多模态深度思考模型
48 【AI大模型前沿】OmniAudio:阿里通义实验室的空间音频生成模型,开启沉浸式体验新时代
49 【AI大模型前沿】MiniCPM 4.0:面壁智能开源的极致高效端侧大模型(小版本、低消耗、220倍极致提速)
50 【AI大模型前沿】SmolVLA:Hugging Face开源的轻量级视觉-语言-行动机器人模型
51 【AI大模型前沿】Time-R1:伊利诺伊大学香槟分校开源的时间推理语言模型、实现过去→未来全链路推演
52 【AI大模型前沿】MonkeyOCR:基于结构-识别-关系三元组范式的文档解析模型
53 【AI大模型前沿】GLM-4.5:智谱打造的开源SOTA模型,推理、代码与智能体能力融合先锋
54 【AI大模型前沿】百度飞桨PaddleOCR 3.0开源发布,支持多语言、手写体识别,赋能智能文档处理
55 【AI大模型前沿】Stream-Omni:多模态交互的“黄金三角”——视觉、语音、文本的完美融合
56 【AI大模型前沿】Vui:Fluxions-AI开源的轻量级语音对话模型,开启自然语音交互新时代
57 【AI大模型前沿】腾讯AI Lab开源的SongGeneration:音乐生成大模型的技术探索与实践
58 【AI大模型前沿】Osmosis-Structure-0.6B:小型语言模型在结构化信息提取中的突破
59 【AI大模型前沿】Kwai Keye-VL:颠覆认知!国产多模态大模型突然发布,视频理解能力堪比人类
60 【AI大模型前沿】Nanonets-OCR-s:从学术论文到法律合同,智能识别公式、签名、表格与图像
61 【AI大模型前沿】OmniAvatar:浙大联合阿里打造的音频驱动全身视频生成模型
62 【AI大模型前沿】DAMO GRAPE:阿里达摩院与浙江肿瘤医院联合打造的早期胃癌识别AI模型
63 【AI大模型前沿】阿里开源Lingshu:一个模型搞定12种医学影像诊断
64 【AI大模型前沿】原石科技MetaStone-S1:突破性反思型生成式大模型的技术解析与实践指南
65 【AI大模型前沿】清华实验室开源MOSS-TTSD:口语对话语音生成的突破
66 【AI大模型前沿】昆仑万维开源Skywork-R1V3:38B多模态推理模型,高考数学142分刷新开源SOTA
67 【AI大模型前沿】Voxtral:Mistral AI开源的高性价比语音转录与理解模型
68 【AI大模型前沿】Goedel-Prover-V2:普林斯顿联合清华开源的定理证明模型,AI数学研究新里程碑
69 【AI大模型前沿】Seed-X:字节跳动开源的7B参数多语言翻译模型,挑战超大型模型性能
70 【AI大模型前沿】OpenReasoning-Nemotron:英伟达开源的推理利器,助力数学、科学与代码任务
71 【AI大模型前沿】阿里通义千问 Qwen3-Coder:开启智能代码生成与代理式编程新时代
72 【AI大模型前沿】Qwen3-SmVL:基于阿里通义千问3和SmolVLM拼接打造1 GB显存可跑的中文超小多模态大模型
73 【AI大模型前沿】通义万相Wan2.2:阿里270亿参数巨兽开源,消费级显卡就能跑,免费平替Sora上线
74 【AI大模型前沿】Higgs Audio V2杀疯:Boson AI开源语音大模型(克隆声音、同步BGM、低延迟对话一键搞定)
75 【AI大模型前沿】腾讯混元3D世界生成模型HunyuanWorld-1.0:开启沉浸式3D内容创作新纪元
76 【AI大模型前沿】Intern-S1:上海AI Lab打造的科学多模态大模型,助力科研智能化
77 【AI大模型前沿】腾讯混元Dense模型:从智能座舱到客服机器人,用0.5B参数打穿全场景
78 【AI大模型前沿】Qwen-Image:免费开源、写段文案→直接出图→还能继续精修,全程不用PS
79 【AI大模型前沿】小米开源MiDashengLM:语音、音乐、环境声一网打尽、智能座舱直接起飞
80 【AI大模型前沿】InternVL3.5:上海 AI Lab 开源多模态大模型、荣登多模态开源榜首
81 【AI大模型前沿】Qwen3-Max-Preview:阿里通义千问的万亿参数大模型,开启AI新纪元
82 【AI大模型前沿】dots.vlm1:小红书hi lab开源的高性能多模态大模型、免费可商用,图表推理直接封神
83 【AI大模型前沿】GLM-4.5V:智谱最新一代视觉推理模型,开源即巅峰,42项SOTA碾压全场,多模态一键秒杀
84 【AI大模型前沿】Jan-v1:基于阿里云Qwen3-4B-Thinking的高性能本地运行AI模型
85 【AI大模型前沿】KittenTTS:KittenML开源的轻量级文本转语音模型,离线部署与高效性能的完美结合
86 【AI大模型前沿】Baichuan-M2:百川智能开源医疗增强大模型,助力医疗智能化转型
87 【AI大模型前沿】MiroThinker:基于Qwen3构建的开源Agent模型系列,助力复杂任务解决
88 【AI大模型前沿】DINOv3:Meta开源的自监督视觉模型,卫星/医疗/自拍全通杀,性能吊打CLIP全家桶
89 【AI大模型前沿】VibeVoice:微软开源7B模型,跨语言、多说话人、长文本一次到位
90 【AI大模型前沿】Waver 1.0:字节跳动推出的AI视频生成模型,支持文本/图像到高清视频的创作
91 【AI大模型前沿】MobileCLIP2:苹果开发端侧大模型,让手机秒变AI神器、拍照就能写文案、搜图片零误差
92 【AI大模型前沿】MiniCPM-V 4.5:OpenBMB推出的高性能端侧多模态大模型
93 【AI大模型前沿】Step-Audio 2 mini:阶跃星辰开源的端到端语音大模型,听得清楚、想得明白、说得自然
94 【AI大模型前沿】HunyuanWorld-Voyager:腾讯开源的超长漫游世界模型,开启3D场景生成新纪元
95 【AI大模型前沿】EmbeddingGemma:谷歌开源的移动端优先文本嵌入模型,200MB 内存搞定 100 种语言 RAG,性能翻倍
96 【AI大模型前沿】Apertus:瑞士首个开源大模型,多语言支持,合规训练,高效性能
97 【AI大模型前沿】OneCAT:美团联合上交大推出的纯解码器多模态模型
98 【AI大模型前沿】MiniCPM4.1:面壁智能重磅开源,128K长文本推理秒级响应,端侧性能狂飙7倍
99 【AI大模型前沿】VoxCPM:OpenBMB 推出的无分词器 TTS 模型,实现上下文感知语音生成与逼真语音克隆
100 【AI大模型前沿】IBM Granite-Docling-258M:开源企业级文档 AI 模型的创新与应用
101 【AI大模型前沿】小红书开源FireRedTTS-2:突破性多说话人长对话语音生成系统完全解析
102 【AI大模型前沿】PP-OCRv5:百度飞桨的高效多语言文字识别利器,0.07 亿参数狂飙 370 字/秒,支持 40+ 语种
103 【AI大模型前沿】小米AI实验室发布ZipVoice系列语音合成模型,重塑语音交互体验
104 【AI大模型前沿】IndexTTS2:B站开源的零样本语音合成模型,实现情感与时长精准控制
105 【AI大模型前沿】Ling-V2:蚂蚁百灵团队打造的高效智能语言模型
106 【AI大模型前沿】腾讯ARC开源AudioStory:大语言模型驱动的长篇叙事音频生成技术
107 【AI大模型前沿】Mini-o3:字节跳动联合港大推出的开源视觉推理模型
108 【AI大模型前沿】InternVLA-N1:上海 AI Lab 开源的端到端双系统导航大模型
109 【AI大模型前沿】InternVLA-A1:上海AI实验室开源的具身操作大模型,助力机器人实现理解、想象与执行一体化
110 【AI大模型前沿】深度解析DeepSeek-R1-Safe:华为与浙大合作的安全大模型
111 【AI大模型前沿】小米开源语音大模型 Xiaomi-MiMo-Audio:开启语音领域的“LLaMA时刻”
112 【AI大模型前沿】百度Qianfan-VL:企业级多模态大模型的领域增强解决方案,OCR、数学、图表一把抓
113 【AI大模型前沿】Qwen3Guard:阿里云通义千问团队推出的安全防护模型
114 【AI大模型前沿】Qwen3-VL:阿里云通义千问的多模态视觉语言模型,开启智能交互新纪元
115 【AI大模型前沿】Qwen3-Omni:阿里巴巴通义千问团队引领全模态大模型新突破
116 【AI大模型前沿】Qwen3-TTS-Flash:阿里通义的多语言多音色语音合成利器
117 【AI大模型前沿】FLM-Audio:智源研究院开源的全双工音频对话大模型,开启自然流畅语音交互新时代
118 【AI大模型前沿】DeepSeek-V3.2-Exp:基于稀疏注意力机制的高效长文本处理大模型
119 【AI大模型前沿】智谱GLM-4.6:355B参数的旗舰级AI模型,代码能力与推理性能全面升级
120 【AI大模型前沿】Logics-Parsing:阿里巴巴开源的端到端文档解析模型
121 【AI大模型前沿】Ming-UniAudio:蚂蚁集团开源的多功能统一语音大模型


前言

在人工智能领域,语音处理技术一直是研究的热点之一。随着大语言模型(LLM)的快速发展,语音语言模型在语音理解、生成和编辑等方面取得了显著进展。然而,现有的大多数语音模型要么将理解与生成任务的表示分离,要么采用离散化表示,导致语音细节损失。为了解决这些问题,蚂蚁集团推出了Ming-UniAudio,这是一个基于统一连续分词器的语音大模型,能够同时处理语音理解、生成和编辑任务。
在这里插入图片描述

一、项目概述

Ming-UniAudio 是蚂蚁集团开源的一个创新语音处理项目,旨在通过统一的连续语音分词器 MingTok-Audio 和端到端的语音语言模型,实现语音理解、生成和编辑任务的高效融合。MingTok-Audio 基于 VAE 框架和因果 Transformer 架构,能够有效整合语义和声学特征,为语音理解和生成任务提供统一的表示。在此基础上,Ming-UniAudio 开发了一个端到端的语音语言模型,支持语音理解和生成任务,并通过扩散头技术确保高质量的语音合成。
在这里插入图片描述

二、核心功能

(一)语音理解

能够准确识别多种语言和方言的语音内容,并将其转录为文本。这使得它在语音助手、会议记录等场景中表现出色,能够实时提供准确的语音识别结果。同时支持多种语言和方言,包括但不限于普通话、英语、湖南话、闽南话等,极大地扩展了其应用场景。

(二)语音生成

根据文本生成自然流畅的语音,适用于有声读物、语音播报等应用。生成的语音不仅自然,而且具有高相似度,接近真人发音。通过扩散头技术,确保生成语音的高质量和自然度,提供优质的听觉体验。

(三)语音编辑

支持自由形式的语音编辑,如插入、删除、替换等操作,无需手动指定编辑区域。这使得音频后期制作和语音内容创作更加高效。通过自然语言指令引导的语音编辑,简化了编辑流程,提高了用户体验。例如,用户可以通过简单的指令完成复杂的语音编辑任务。

(四)多模态融合

支持文本和音频等多种模态输入,能够实现复杂的多模态交互任务。这使得模型在处理复杂的交互场景时更加灵活和强大。支持多种模态的输入和输出,提升了模型的通用性和适应性,适用于多种应用场景。

(五)高效分词

采用统一的连续语音分词器 MingTok-Audio,有效整合语义和声学特征,提升模型性能。这使得模型在处理语音任务时更加高效和准确。通过层次化的特征表示,MingTok-Audio 能够更好地捕捉语音的细节和语义信息。

(六)高质量合成

通过扩散头技术,确保生成语音的高质量和自然度。这使得生成的语音不仅自然,而且具有高相似度,接近真人发音。另外通过多任务学习,平衡了语音生成和理解的能力,提升了在不同任务上的性能表现。

(七)开源易用

提供开源代码和预训练模型,方便开发者快速部署和二次开发。这使得开发者可以轻松地在现有模型基础上进行定制和扩展。并提供详细的使用指南和示例,帮助开发者快速上手和应用。

三、技术揭秘

(一)统一连续语音分词器

Ming-UniAudio 的核心是 MingTok-Audio,一个基于 VAE(变分自编码器)框架和因果 Transformer 架构的连续语音分词器。它能够有效整合语义和声学特征,为语音理解和生成任务提供统一的表示。这种分词器不仅支持层次化的特征表示,还能通过连续的特征空间捕捉语音的细节和语义信息,从而实现高质量的语音处理。

(二)端到端语音语言模型

Ming-UniAudio 预训练了一个端到端的语音语言模型,支持语音理解和生成任务。该模型通过单个语言模型(LLM)主干网络进行预训练,结合扩散头技术确保高质量的语音合成。这种设计不仅提高了模型在语音任务上的性能,还通过多任务学习平衡了生成和理解的能力,使其在多种任务中表现出色。

(三)指令引导的自由形式语音编辑

Ming-UniAudio 引入了首个指令引导的自由形式语音编辑框架,支持复杂的语义和声学修改。用户可以通过自然语言指令完成插入、删除、替换等编辑操作,无需手动指定编辑区域。这种设计极大地简化了语音编辑流程,提高了用户体验,适用于音频后期制作和语音内容创作。

(四)多模态融合

Ming-UniAudio 支持文本和音频等多种模态输入,能够实现复杂的多模态交互任务。这种多模态融合不仅提升了模型的通用性和灵活性,还使其在处理复杂的交互场景时更加高效。例如,在语音助手和智能对话系统中,模型可以同时处理语音和文本输入,提供更加自然和流畅的交互体验。

(五)高质量语音合成

Ming-UniAudio 通过扩散模型技术生成高质量、自然流畅的语音。这种技术确保了生成语音的高质量和自然度,使其接近真人发音。无论是在有声读物、语音播报还是其他语音生成场景中,Ming-UniAudio 都能提供优质的听觉体验,满足用户对语音质量的高要求。

(六)多任务学习

Ming-UniAudio 通过多任务学习平衡了语音生成和理解的能力。这种学习方式不仅提高了模型在不同任务上的性能,还增强了其在复杂场景中的适应性。通过大规模音频和文本数据的预训练,Ming-UniAudio 能够更好地理解和生成语音内容,从而在多种语音处理任务中表现出色。

(七)大规模预训练

Ming-UniAudio 基于大规模音频和文本数据进行预训练,极大地增强了模型的语言理解和生成能力。这种大规模预训练不仅提高了模型的性能,还使其能够处理复杂的语音任务。通过丰富的数据和先进的训练方法,Ming-UniAudio 在语音理解、生成和编辑任务中都取得了显著的成果,为语音处理领域的发展提供了新的思路和方法。

四、基准评测

(一)语音分词

在 Seed-zh 和 Seed-en 数据集上,MingTok-Audio 的 PESQ、SIM 和 STOI 指标均优于其他模型。
在这里插入图片描述

(二)语音理解

在多种方言的语音识别任务中,Ming-UniAudio 的错误率(WER)显著低于其他模型,例如湖南方言的 WER 仅为 9.80%,闽南语的 WER 为 16.50%。
在这里插入图片描述

(三)语音生成

在 Seed-zh 中文数据集上,Ming-UniAudio 的 WER 仅为 0.95%,合成语音的相似度(SIM)达到 0.70,接近真人发音。
在这里插入图片描述

五、应用场景

(一)语音助手

Ming-UniAudio 的语音理解和生成能力使其成为语音助手的理想选择。它能够准确识别用户的语音指令并生成自然流畅的语音回应,支持多种语言和方言,极大地提升了用户体验。无论是智能家居设备、智能手机还是车载系统,Ming-UniAudio 都能提供高效、准确的语音交互功能。

(二)有声读物

Ming-UniAudio 的语音生成功能可以将文本内容转换为自然流畅的语音,适用于有声读物的制作。它支持多种语言和方言,生成的语音质量高,接近真人发音,能够为用户提供优质的听觉体验。这不仅提高了有声读物的制作效率,还降低了成本。

(三)音频后期制作

Ming-UniAudio 的自由形式语音编辑功能为音频后期制作提供了强大的工具。用户可以通过自然语言指令完成复杂的语音编辑任务,如插入、删除、替换等操作,无需手动指定编辑区域。这不仅简化了编辑流程,还提高了制作效率,适用于电影、广告、播客等多种音频内容的后期制作。

(四)多模态交互

Ming-UniAudio 支持文本和音频等多种模态输入,能够实现复杂的多模态交互任务。在智能对话系统和虚拟助手等应用中,模型可以同时处理语音和文本输入,提供更加自然和流畅的交互体验。这种多模态融合能力使其在多种复杂交互场景中表现出色。

(五)语音内容创作

Ming-UniAudio 的指令引导的语音编辑功能为语音内容创作提供了极大的便利。创作者可以通过简单的自然语言指令完成复杂的语音编辑任务,无需专业的音频编辑技能。这不仅提高了创作效率,还激发了更多创意,适用于播客、有声故事、语音广告等多种语音内容的创作。

六、快速使用

(一)环境准备

  • 使用 pip 安装依赖:
https://github.com/inclusionAI/Ming-UniAudio.git
cd Ming-UniAudio
pip install -r requirements.txt
  • 使用 Docker 构建环境:
git clone --depth 1 https://github.com/inclusionAI/Ming-UniAudio
cd Ming-UniAudio
docker build -t ming:py310-cu121 docker/docker-py310-cu121
docker run -it --gpus all -v "$(pwd)":/workspace/Ming-UniAudio ming:py310-cu121 ming:py310-cu121 /bin/bash

(二)下载源代码

git clone	https://github.com/inclusionAI/Ming-UniAudio
cd Ming-UniAudio

(三)下载模型

下载 Ming-UniAudio 模型权重并在源代码目录中创建软链接

pip install modelscope
modelscope download --model inclusionAI/Ming-UniAudio-16B-A3B --local_dir inclusionAI/Ming-UniAudio-16B-A3B  --revision master
mkdir inclusionAI ln -s /path/to/inclusionAI/Ming-UniAudio-16B-A3B inclusionAI/Ming-UniAudio-16B-A3B

(四)使用示例

官方提供了一个关于此仓库使用的简单示例,有关详细用法,可参阅 demobook.ipynb。

import warnings
import torch
from modelscope import AutoProcessor

from modeling_bailingmm import BailingMMNativeForConditionalGeneration

import random
import numpy as np
from loguru import logger

def seed_everything(seed=1895):
    random.seed(seed)
    np.random.seed(seed)
    torch.manual_seed(seed)
    torch.cuda.manual_seed(seed)
    torch.cuda.manual_seed_all(seed)
    torch.backends.cudnn.deterministic = True
    torch.backends.cudnn.benchmark = False

seed_everything()
warnings.filterwarnings("ignore")

class MingAudio:
    def __init__(self, model_path, device="cuda:0"):
        self.device = device
        self.model = BailingMMNativeForConditionalGeneration.from_pretrained(
            model_path,
            torch_dtype=torch.bfloat16,
            low_cpu_mem_usage=True,
        ).eval().to(torch.bfloat16).to(self.device)
        self.processor = AutoProcessorinclusionAI/Ming-UniAudio-16B-A3Bfrom_pretrained(".", trust_remote_code=True)
        self.tokenizer = self.processor.tokenizer
        self.sample_rate = self.processor.audio_processor.sample_rate
        self.patch_size = self.processor.audio_processor.patch_size
        
    def speech_understanding(self, messages):
        text = self.processor.apply_chat_template(messages, add_generation_prompt=True)
        image_inputs, video_inputs, audio_inputs = self.processor.process_vision_info(messages)

        inputs = self.processor(
            text=[text],
            images=image_inputs,
            videos=video_inputs,
            audios=audio_inputs,
            return_tensors="pt",
        ).to(self.device)

        for k in inputs.keys():
            if k == "pixel_values" or k == "pixel_values_videos" or k == "audio_feats":
                inputs[k] = inputs[k].to(dtype=torch.bfloat16)
        logger.info(f"input: {self.tokenizer.decode(inputs['input_ids'].cpu().numpy().tolist()[0])}")

        generated_ids = self.model.generate(
            **inputs,
            max_new_tokens=512,
            eos_token_id=self.processor.gen_terminator,
        )
        generated_ids_trimmed = [
            out_ids[len(in_ids) :] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)
        ]
        output_text = self.processor.batch_decode(
            generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False
        )[0]

        return output_text

    def speech_generation(
        self, 
        text,
        prompt_wav_path,
        prompt_text,
        lang='zh',
        output_wav_path='out.wav'
    ):
        waveform = self.model.generate_tts(
            text=text,
            prompt_wav_path=prompt_wav_path,
            prompt_text=prompt_text,
            patch_size=self.patch_size,
            tokenizer=self.tokenizer,
            lang=lang,
            output_wav_path=output_wav_path,
            sample_rate=self.sample_rate,
            device=self.device
        )
        
        return waveform

    def speech_edit(
        self, 
        messages,
        output_wav_path='out.wav'
    ):
        text = self.processor.apply_chat_template(messages, add_generation_prompt=True)
        image_inputs, video_inputs, audio_inputs = self.processor.process_vision_info(messages)

        inputs = self.processor(
            text=[text],
            images=image_inputs,
            videos=video_inputs,
            audios=audio_inputs,
            return_tensors="pt",
        ).to(self.device)

        ans = torch.tensor([self.tokenizer.encode('<answer>')]).to(inputs['input_ids'].device)
        inputs['input_ids'] = torch.cat([inputs['input_ids'], ans], dim=1)
        attention_mask = inputs['attention_mask']
        inputs['attention_mask'] = torch.cat((attention_mask, attention_mask[:, :1]), dim=-1)
        for k in inputs.keys():
            if k == "pixel_values" or k == "pixel_values_videos" or k == "audio_feats":
                inputs[k] = inputs[k].to(dtype=torch.bfloat16)
        logger.info(f"input: {self.tokenizer.decode(inputs['input_ids'].cpu().numpy().tolist()[0])}")

        edited_speech, edited_text = self.model.generate_edit(
            **inputs,
            tokenizer=self.tokenizer,
            output_wav_path=output_wav_path
        )
        return edited_speech, edited_text

if __name__ == "__main__":
    model = MingAudio("inclusionAI/Ming-UniAudio-16B-A3B")
    
    # ASR
    messages = [
        {
            "role": "HUMAN",
            "content": [
                {
                    "type": "text",
                    "text": "Please recognize the language of this speech and transcribe it. Format: oral.",
                },
                
                {"type": "audio", "audio": "data/wavs/BAC009S0915W0292.wav"},
            ],
        },
    ]
    
    response = model.speech_understanding(messages=messages)
    logger.info(f"Generated Response: {response}")

    # TTS
    model.speech_generation(
        text='我们的愿景是构建未来服务业的数字化基础设施,为世界带来更多微小而美好的改变。',
        prompt_wav_path='data/wavs/10002287-00000094.wav',
        prompt_text='在此奉劝大家别乱打美白针。',
    )

结语

Ming-UniAudio 作为蚂蚁集团开源的多功能统一语音大模型,通过创新的连续语音分词器 MingTok-Audio 和端到端的语音语言模型,实现了语音理解、生成和编辑任务的统一表示。其强大的性能和多功能性使其在多种应用场景中具有广泛的应用前景。开发者可以通过开源代码和预训练模型快速部署和二次开发,推动语音处理技术的发展。

项目地址

  • 项目官网:https://xqacmer.github.io/Ming-Unitok-Audio.github.io/
  • Github仓库:https://github.com/inclusionAI/Ming-UniAudio
  • Hugging Face 模型库:https://huggingface.co/inclusionAI/Ming-UniAudio-16B-A3B

在这里插入图片描述

🎯🔖更多专栏系列文章:AI大模型提示工程完全指南AI大模型探索之路(零基础入门)AI大模型预训练微调进阶AI大模型开源精选实践AI大模型RAG应用探索实践🔥🔥🔥 其他专栏可以查看博客主页📑

😎 作者介绍:资深程序老猿,从业10年+、互联网系统架构师,目前专注于AIGC的探索(CSDN博客之星|AIGC领域优质创作者)
📖专属社群:欢迎关注【小兵的AI视界】公众号或扫描下方👇二维码,回复‘入群’ 即刻上车,获取邀请链接。
💘领取三大专属福利:1️⃣免费赠送AI+编程📚500本,2️⃣AI技术教程副业资料1套,3️⃣DeepSeek资料教程1套🔥(限前500人)
如果文章内容对您有所触动,别忘了点赞、⭐关注,收藏!加入我们,一起携手同行AI的探索之旅,开启智能时代的大门!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐