系列篇章💥

No. 文章
1 【AI大模型前沿】深度剖析瑞智病理大模型 RuiPath:如何革新癌症病理诊断技术
2 【AI大模型前沿】清华大学 CLAMP-3:多模态技术引领音乐检索新潮流
3 【AI大模型前沿】浙大携手阿里推出HealthGPT:医学视觉语言大模型助力智能医疗新突破
4 【AI大模型前沿】阿里 QwQ-32B:320 亿参数推理大模型,性能比肩 DeepSeek-R1,免费开源
5 【AI大模型前沿】TRELLIS:微软、清华、中科大联合推出的高质量3D生成模型
6 【AI大模型前沿】Migician:清华、北大、华科联手打造的多图像定位大模型,一键解决安防监控与自动驾驶难题
7 【AI大模型前沿】DeepSeek-V3-0324:AI 模型的全面升级与技术突破
8 【AI大模型前沿】BioMedGPT-R1:清华联合水木分子打造的多模态生物医药大模型,开启智能研发新纪元
9 【AI大模型前沿】DiffRhythm:西北工业大学打造的10秒铸就完整歌曲的AI歌曲生成模型
10 【AI大模型前沿】R1-Omni:阿里开源全模态情感识别与强化学习的创新结合
11 【AI大模型前沿】Qwen2.5-Omni:阿里巴巴的多模态大模型,实现看、听、说、写一体化
12 【AI大模型前沿】SmolDocling:256M参数的轻量级多模态文档处理利器,10分钟搞定百页PDF
13 【AI大模型前沿】Stable Virtual Camera:Stability AI 推出的2D图像转3D视频模型,一键生成沉浸式视频
14 【AI大模型前沿】阿里 Qwen3 震撼开源,模型新王诞生,开启全球大模型新纪元
15 【AI大模型前沿】InternVL:OpenGVLab开源多模态大模型,解锁视觉问答与多语言翻译的全能应用图鉴
16 【AI大模型前沿】Fin-R1:上海财经大学联合财跃星辰推出的金融推理大模型,凭7B参数拿下评测第二,离行业第一仅差3分
17 【AI大模型前沿】Med-R1:基于强化学习的医疗视觉语言模型,突破跨模态医学推理的普适性
18 【AI大模型前沿】Baichuan-M1-14B:百川智能推出专为医疗优化的开源大语言模型
19 【AI大模型前沿】一键生成宫崎骏动画风,EasyControl Ghibli 让照片秒变吉卜力艺术品
20 【AI大模型前沿】TxGemma:谷歌推出的高效药物研发大模型,临床试验预测准确率超90%
21 【AI大模型前沿】F5R-TTS:腾讯推出TTS领域的新王者,又快又准又自然,零样本语音克隆新高度
22 【AI大模型前沿】MiniMind-V:低成本打造超小多模态视觉语言模型(仅需1.3元人民币和1小时)
23 【AI大模型前沿】MoCha:端到端对话角色视频生成模型、电影级对话角色合成黑科技、重新定义动画创作
24 【AI大模型前沿】HuatuoGPT-o1-7B:中英文双语医学推理,打破语言障碍的AI大模型
25 【AI大模型前沿】MedReason:大规模医学推理数据集、借用知识图谱将大模型打造成“医术”专家
26 【AI大模型前沿】SkyReels-V2:昆仑万维开源的无限时长电影生成模型,开启视频生成新纪元
27 【AI大模型前沿】Dia:Nari Labs开源16亿参数TTS模型,只需文本输入,生成媲美真人对话的语音
28 【AI大模型前沿】阿里巴巴开源LHM:单图生成可动画3D人体模型,开启3D建模新纪元
29 【AI大模型前沿】TinyLLaVA-Video-R1:北航开源视频推理模型、小尺寸大智慧、参数少一半,性能翻一番
30 【AI大模型前沿】TTRL:测试时强化学习,开启无标签数据推理新篇章
31 【AI大模型前沿】Aero-1-Audio:Qwen2.5架构加持,轻量级音频模型天花板、吊打Whisper
32 【AI大模型前沿】DianJin-R1:阿里云通义点金联合苏大推出的金融推理增强大模型
33 【AI大模型前沿】VITA-Audio:腾讯开源的高效语音交互多模态大语言模型
34 【AI大模型前沿】Multiverse:全球首个AI多人游戏世界模型,低成本高效率新突破
35 【AI大模型前沿】Seed1.5-VL:多模态理解的效率革新者,以小博大,性能惊艳
36 【AI大模型前沿】ViLAMP:蚂蚁集团和人民大学联手打造的长视频理解利器,单卡处理3小时视频
37 【AI大模型前沿】Muyan-TTS:开源零样本语音合成模型、0.33秒极速生成播客级语音、小白也能玩转AI配音
38 【AI大模型前沿】Dolphin:字节跳动开源文档解析大模型,轻量级、高效、多格式,开启文档处理新时代
39 【AI大模型前沿】ChatTS:字节跳动联合清华大学开源、多模态时序大模型助力时序数据对话与推理
40 【AI大模型前沿】Index-AniSora:B站开源的动漫视频生成模型,助力高效创作
41 【AI大模型前沿】RelightVid:上海 AI Lab联合复旦等高校推出的视频重照明模型
42 【AI大模型前沿】BAGEL:字节跳动开源、多模态大模型的创新突破与实践指南
43 【AI大模型前沿】Matrix-Game:昆仑万维开源大模型,一键生成你的专属虚拟世界
44 【AI大模型前沿】Pixel Reasoner:滑铁卢联合港科大等高校推出的视觉语言模型,助力视觉推理新突破
45 【AI大模型前沿】CoGenAV:多模态语音表征新范式、通义联合深技大打造、噪声环境WER降低70%+
46 【AI大模型前沿】Ming-Lite-Omni:蚂蚁集团开源的统一多模态大模型的创新实践
47 【AI大模型前沿】DeepEyes:小红书与西安交大联合打造的多模态深度思考模型
48 【AI大模型前沿】OmniAudio:阿里通义实验室的空间音频生成模型,开启沉浸式体验新时代
49 【AI大模型前沿】MiniCPM 4.0:面壁智能开源的极致高效端侧大模型(小版本、低消耗、220倍极致提速)
50 【AI大模型前沿】SmolVLA:Hugging Face开源的轻量级视觉-语言-行动机器人模型
51 【AI大模型前沿】Time-R1:伊利诺伊大学香槟分校开源的时间推理语言模型、实现过去→未来全链路推演
52 【AI大模型前沿】MonkeyOCR:基于结构-识别-关系三元组范式的文档解析模型
53 【AI大模型前沿】GLM-4.5:智谱打造的开源SOTA模型,推理、代码与智能体能力融合先锋
54 【AI大模型前沿】百度飞桨PaddleOCR 3.0开源发布,支持多语言、手写体识别,赋能智能文档处理
55 【AI大模型前沿】Stream-Omni:多模态交互的“黄金三角”——视觉、语音、文本的完美融合
56 【AI大模型前沿】Vui:Fluxions-AI开源的轻量级语音对话模型,开启自然语音交互新时代
57 【AI大模型前沿】腾讯AI Lab开源的SongGeneration:音乐生成大模型的技术探索与实践
58 【AI大模型前沿】Osmosis-Structure-0.6B:小型语言模型在结构化信息提取中的突破
59 【AI大模型前沿】Kwai Keye-VL:颠覆认知!国产多模态大模型突然发布,视频理解能力堪比人类
60 【AI大模型前沿】Nanonets-OCR-s:从学术论文到法律合同,智能识别公式、签名、表格与图像
61 【AI大模型前沿】OmniAvatar:浙大联合阿里打造的音频驱动全身视频生成模型
62 【AI大模型前沿】DAMO GRAPE:阿里达摩院与浙江肿瘤医院联合打造的早期胃癌识别AI模型
63 【AI大模型前沿】阿里开源Lingshu:一个模型搞定12种医学影像诊断
64 【AI大模型前沿】原石科技MetaStone-S1:突破性反思型生成式大模型的技术解析与实践指南
65 【AI大模型前沿】清华实验室开源MOSS-TTSD:口语对话语音生成的突破
66 【AI大模型前沿】昆仑万维开源Skywork-R1V3:38B多模态推理模型,高考数学142分刷新开源SOTA
67 【AI大模型前沿】Voxtral:Mistral AI开源的高性价比语音转录与理解模型
68 【AI大模型前沿】Goedel-Prover-V2:普林斯顿联合清华开源的定理证明模型,AI数学研究新里程碑
69 【AI大模型前沿】Seed-X:字节跳动开源的7B参数多语言翻译模型,挑战超大型模型性能
70 【AI大模型前沿】OpenReasoning-Nemotron:英伟达开源的推理利器,助力数学、科学与代码任务
71 【AI大模型前沿】阿里通义千问 Qwen3-Coder:开启智能代码生成与代理式编程新时代
72 【AI大模型前沿】Qwen3-SmVL:基于阿里通义千问3和SmolVLM拼接打造1 GB显存可跑的中文超小多模态大模型
73 【AI大模型前沿】通义万相Wan2.2:阿里270亿参数巨兽开源,消费级显卡就能跑,免费平替Sora上线
74 【AI大模型前沿】Higgs Audio V2杀疯:Boson AI开源语音大模型(克隆声音、同步BGM、低延迟对话一键搞定)
75 【AI大模型前沿】腾讯混元3D世界生成模型HunyuanWorld-1.0:开启沉浸式3D内容创作新纪元
76 【AI大模型前沿】Intern-S1:上海AI Lab打造的科学多模态大模型,助力科研智能化
77 【AI大模型前沿】腾讯混元Dense模型:从智能座舱到客服机器人,用0.5B参数打穿全场景
78 【AI大模型前沿】Qwen-Image:免费开源、写段文案→直接出图→还能继续精修,全程不用PS
79 【AI大模型前沿】小米开源MiDashengLM:语音、音乐、环境声一网打尽、智能座舱直接起飞
80 【AI大模型前沿】InternVL3.5:上海 AI Lab 开源多模态大模型、荣登多模态开源榜首
81 【AI大模型前沿】Qwen3-Max-Preview:阿里通义千问的万亿参数大模型,开启AI新纪元
82 【AI大模型前沿】dots.vlm1:小红书hi lab开源的高性能多模态大模型、免费可商用,图表推理直接封神
83 【AI大模型前沿】GLM-4.5V:智谱最新一代视觉推理模型,开源即巅峰,42项SOTA碾压全场,多模态一键秒杀
84 【AI大模型前沿】Jan-v1:基于阿里云Qwen3-4B-Thinking的高性能本地运行AI模型
85 【AI大模型前沿】KittenTTS:KittenML开源的轻量级文本转语音模型,离线部署与高效性能的完美结合
86 【AI大模型前沿】Baichuan-M2:百川智能开源医疗增强大模型,助力医疗智能化转型
87 【AI大模型前沿】MiroThinker:基于Qwen3构建的开源Agent模型系列,助力复杂任务解决
88 【AI大模型前沿】DINOv3:Meta开源的自监督视觉模型,卫星/医疗/自拍全通杀,性能吊打CLIP全家桶
89 【AI大模型前沿】VibeVoice:微软开源7B模型,跨语言、多说话人、长文本一次到位
90 【AI大模型前沿】Waver 1.0:字节跳动推出的AI视频生成模型,支持文本/图像到高清视频的创作
91 【AI大模型前沿】MobileCLIP2:苹果开发端侧大模型,让手机秒变AI神器、拍照就能写文案、搜图片零误差
92 【AI大模型前沿】MiniCPM-V 4.5:OpenBMB推出的高性能端侧多模态大模型
93 【AI大模型前沿】Step-Audio 2 mini:阶跃星辰开源的端到端语音大模型,听得清楚、想得明白、说得自然
94 【AI大模型前沿】HunyuanWorld-Voyager:腾讯开源的超长漫游世界模型,开启3D场景生成新纪元
95 【AI大模型前沿】EmbeddingGemma:谷歌开源的移动端优先文本嵌入模型,200MB 内存搞定 100 种语言 RAG,性能翻倍
96 【AI大模型前沿】Apertus:瑞士首个开源大模型,多语言支持,合规训练,高效性能
97 【AI大模型前沿】OneCAT:美团联合上交大推出的纯解码器多模态模型
98 【AI大模型前沿】MiniCPM4.1:面壁智能重磅开源,128K长文本推理秒级响应,端侧性能狂飙7倍
99 【AI大模型前沿】VoxCPM:OpenBMB 推出的无分词器 TTS 模型,实现上下文感知语音生成与逼真语音克隆
100 【AI大模型前沿】IBM Granite-Docling-258M:开源企业级文档 AI 模型的创新与应用
101 【AI大模型前沿】小红书开源FireRedTTS-2:突破性多说话人长对话语音生成系统完全解析
102 【AI大模型前沿】PP-OCRv5:百度飞桨的高效多语言文字识别利器,0.07 亿参数狂飙 370 字/秒,支持 40+ 语种
103 【AI大模型前沿】小米AI实验室发布ZipVoice系列语音合成模型,重塑语音交互体验
104 【AI大模型前沿】IndexTTS2:B站开源的零样本语音合成模型,实现情感与时长精准控制
105 【AI大模型前沿】Ling-V2:蚂蚁百灵团队打造的高效智能语言模型
106 【AI大模型前沿】腾讯ARC开源AudioStory:大语言模型驱动的长篇叙事音频生成技术
107 【AI大模型前沿】Mini-o3:字节跳动联合港大推出的开源视觉推理模型
108 【AI大模型前沿】InternVLA-N1:上海 AI Lab 开源的端到端双系统导航大模型
109 【AI大模型前沿】InternVLA-A1:上海AI实验室开源的具身操作大模型,助力机器人实现理解、想象与执行一体化
110 【AI大模型前沿】深度解析DeepSeek-R1-Safe:华为与浙大合作的安全大模型
111 【AI大模型前沿】小米开源语音大模型 Xiaomi-MiMo-Audio:开启语音领域的“LLaMA时刻”
112 【AI大模型前沿】百度Qianfan-VL:企业级多模态大模型的领域增强解决方案,OCR、数学、图表一把抓
113 【AI大模型前沿】Qwen3Guard:阿里云通义千问团队推出的安全防护模型
114 【AI大模型前沿】Qwen3-VL:阿里云通义千问的多模态视觉语言模型,开启智能交互新纪元
115 【AI大模型前沿】Qwen3-Omni:阿里巴巴通义千问团队引领全模态大模型新突破


前言

在人工智能领域,多模态大模型的发展正不断刷新着我们对智能交互的认知。阿里巴巴通义千问团队推出的 Qwen3-Omni,作为业界首个原生端到端全模态 AI 模型,凭借其卓越的性能和广泛的应用前景,成为了当下备受瞩目的焦点。它不仅能够处理文本、图像、音频和视频等多种模态数据,还能以文本和自然语音的形式提供实时流式响应,为全球用户带来了全新的交互体验。
在这里插入图片描述

一、项目概述

Qwen3-Omni 是阿里巴巴 Qwen 团队最新开源的原生端到端多语言“全模态”大模型,一次性打通文本、图片、音频、视频的理解与生成,并且能做文字 + 自然语音的实时流式响应(自然轮流对话、低延迟首包)。它支持 119 种文本语言、19 种语音输入、10 种语音输出,既能“听懂世界”,也能流利地“说出来”,在加入音视能力后,并没有牺牲纯文本与图像基准的表现,同时在音频 / 音视频任务上拿到非常强的成绩。
在这里插入图片描述

二、核心功能

(一)原生全模态

Qwen3-Omni 是原生全模态大模型,预训练全模态不降智,能够无缝处理文本、图像、音频和视频等多种输入形式,并通过实时流式响应同时生成文本与自然语音输出。

(二)强大的性能

在 36 项音频及音视频基准测试中斩获 32 项开源 SOTA 与 22 项总体 SOTA,超越 Gemini - 2.5 - Pro、Seed - ASR、GPT - 4o - Transcribe 等闭源强模型,同时图像和文本性能在同尺寸模型中达到 SOTA 水平。

(三)多语言

Qwen3 - Omni 支持 119 种文本语言、19 种语音理解语言和 10 种语音生成语言。这种多语言能力使得模型能够在全球范围内为用户提供服务。例如,用户可以用中文上传一段音频,模型能够理解并以英文生成文本或语音回复。

(四)更快响应

Qwen3 - Omni 在响应速度上表现出色。纯模型端到端音频对话延迟低至 211 毫秒,视频对话延迟低至 507 毫秒。这种低延迟使得模型能够实时处理用户输入并提供即时反馈,极大地提升了用户体验。

(五)长音频

Qwen3 - Omni 支持长达 30 分钟的音频理解。这一功能使得模型能够处理长篇音频内容,如播客、会议录音等。例如,用户可以上传一段 30 分钟的会议录音,模型能够理解并生成详细的会议纪要或摘要。

(六)个性化

Qwen3 - Omni 支持系统提示词(system prompt)的自定义。用户可以根据自己的需求修改回复风格、人设等。例如,用户可以将系统提示词设置为“你是一位专业的法律顾问”,模型在回复时会以专业法律顾问的风格和语气进行回答。

(七)工具调用

Qwen3 - Omni 支持 function call,能够实现与外部工具和服务的高效集成。例如,用户可以通过模型调用天气查询 API,获取实时天气信息并生成相应的文本或语音回复。

(八)开源通用音频 Captioner

Qwen3 - Omni 开源了 Qwen3 - Omni - 30B - A3B - Captioner,这是一个低幻觉且非常详细的通用音频 caption 模型。该模型能够为任意音频输入生成详细的描述文本,填补了开源社区在这一领域的空白。例如,用户可以上传一段音乐音频,模型能够生成描述音乐风格、节奏和情感的详细文本。
在这里插入图片描述

三、技术揭秘

(一)Thinker - Talker 架构

  • Thinker:主要负责文本生成任务,能处理文本输入、输出高层语义表征,为后续的语音生成提供基础信息。
  • Talker:专注于流式语音 Token 的生成,直接用 Thinker 输出的语义表征,通过自回归方式预测多码本序列,实现低延迟的逐帧流式语音生成。
  • MTP 模块:在解码过程中,MTP 模块负责输出当前帧的残差码本,通过 Code2Wav 模块将码本合成对应的音频波形,实现高效的流式音频生成。

(二)创新架构设计

  • AuT 音频编码器:基于海量音频数据(2000 万小时)训练而成,具备强大的通用音频表征能力,为模型处理音频任务提供坚实基础。
  • MoE 架构:Thinker 和 Talker 均采用 MoE(Mixture of Experts)架构,支持高并发处理和快速推理,显著提升模型在多任务处理时的效率和性能。
  • 多码本技术:Talker 用多码本自回归方案,在每步生成过程中,能生成一个编解码帧,MTP 模块会同步输出剩余的残差码本,设计进一步优化语音生成的效率和质量。

(三)全模态不降智

在文本预训练阶段,模型将单模态数据与跨模态数据混合训练。混合训练方式保证了各模态的性能与纯单模态训练相当,显著增强模型的跨模态能力,使模型在处理多模态任务时更加得心应手。

(四)实时音频和音视频交互

整个流程(包括 AuT 音频编码、Thinker 文本处理、Talker 语音生成及 Code2wav 音频合成)均实现全流式处理,支持首帧 Token 直接流式解码为音频输出,确保实时音频和音视频交互的高效性和流畅性。

四、性能表现

Qwen3-Omni在全方位性能评估中,其单模态任务表现与类似大小的Qwen系列单模态模型持平,尤其在音频任务中展现显著优势。该模型在36项音视频基准测试中,36项测试中的32项取得开源领域最佳性能,22项达到SOTA水平,性能超越Gemini-2.5-Pro、Seed-ASR、GPT-4o-Transcribe等性能强大的闭源模型。
在这里插入图片描述

五、应用场景

(一)内容创作

Qwen3 - Omni 为内容创作者提供了强大的支持。无论是撰写文章、创作剧本,还是生成图像、音频和视频内容,Qwen3 - Omni 都能提供丰富的创意素材和高质量的生成结果。例如,创作者可以输入一段简单的文本描述,模型能够生成详细的文本内容、相关的图像或音频片段,甚至创作出完整的视频脚本。

(二)智能客服

在智能客服领域,Qwen3 - Omni 的多语言文本和语音交互能力使其能够快速准确地理解用户问题并提供解决方案。例如,用户可以通过语音或文本向客服系统提问,Qwen3 - Omni 能够实时理解问题并生成详细的回复。

(三)教育领域

Qwen3 - Omni 在教育领域的应用前景广阔。它能够生成个性化的学习材料和互动内容,满足不同学生的学习需求。例如,教师可以上传一段教学视频,模型能够生成相关的文字讲解、图像示例和音频讲解,帮助学生更好地理解和掌握知识。

(四)医疗辅助

在医疗领域,Qwen3 - Omni 的多模态处理能力使其能够辅助医生进行诊断和治疗方案制定。例如,医生可以上传患者的医学影像和语音记录,模型能够理解并生成详细的诊断报告和治疗建议。

(五)多媒体娱乐

Qwen3 - Omni 为多媒体娱乐行业带来了新的可能性。它能够创作音乐、视频等多媒体内容,为用户提供个性化娱乐体验。例如,用户可以根据自己的喜好输入一段文本描述,模型能够生成相应的音乐或视频内容。

(六)智能办公

在智能办公场景中,Qwen3 - Omni 能够显著提升工作效率。例如,用户可以上传会议录音,模型能够实时生成会议纪要和摘要,帮助用户快速回顾会议内容。此外,Qwen3 - Omni 还可以为办公文档生成详细的语音讲解,提升文档的可读性和理解度。这种多模态处理能力使得 Qwen3 - Omni 成为智能办公的得力助手,帮助用户更高效地完成工作任务。

六、快速使用

(一)安装依赖

安装相关依赖,准备了服务器环境:

# If you already have transformers installed, please uninstall it first, or create a new Python environment
# pip uninstall transformers
pip install git+https://github.com/huggingface/transformers
pip install accelerate
# 安装工具包,需要提前准备 ffmpeg
pip install qwen-omni-utils -U
# 安装FlashAttention 2 
pip install -U flash-attn --no-build-isolation

(二)模型下载

以下是以 Qwen3 - Omni - 30B - A3B - Instruct模型为例的代码示例:

# Download through ModelScope (recommended for users in Mainland China)
pip install -U modelscope
modelscope download --model Qwen/Qwen3-Omni-30B-A3B-Instruct --local_dir ./Qwen3-Omni-30B-A3B-Instruct
modelscope download --model Qwen/Qwen3-Omni-30B-A3B-Thinking --local_dir ./Qwen3-Omni-30B-A3B-Thinking
modelscope download --model Qwen/Qwen3-Omni-30B-A3B-Captioner --local_dir ./Qwen3-Omni-30B-A3B-Captioner

# Download through Hugging Face
pip install -U "huggingface_hub[cli]"
huggingface-cli download Qwen/Qwen3-Omni-30B-A3B-Instruct --local-dir ./Qwen3-Omni-30B-A3B-Instruct
huggingface-cli download Qwen/Qwen3-Omni-30B-A3B-Thinking --local-dir ./Qwen3-Omni-30B-A3B-Thinking
huggingface-cli download Qwen/Qwen3-Omni-30B-A3B-Captioner --local-dir ./Qwen3-Omni-30B-A3B-Captioner

(三)推理示例

下面代码示例,展示如何使用 Qwen3-Omni 与 transformers 和 qwen_omni_utils :

import soundfile as sf

from transformers import Qwen3OmniMoeForConditionalGeneration, Qwen3OmniMoeProcessor
from qwen_omni_utils import process_mm_info

MODEL_PATH = "Qwen/Qwen3-Omni-30B-A3B-Instruct"
# MODEL_PATH = "Qwen/Qwen3-Omni-30B-A3B-Thinking"

model = Qwen3OmniMoeForConditionalGeneration.from_pretrained(
    MODEL_PATH,
    dtype="auto",
    device_map="auto",
    attn_implementation="flash_attention_2",
)

processor = Qwen3OmniMoeProcessor.from_pretrained(MODEL_PATH)

conversation = [
    {
        "role": "user",
        "content": [
            {"type": "image", "image": "https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen3-Omni/demo/cars.jpg"},
            {"type": "audio", "audio": "https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen3-Omni/demo/cough.wav"},
            {"type": "text", "text": "What can you see and hear? Answer in one short sentence."}
        ],
    },
]

# Set whether to use audio in video
USE_AUDIO_IN_VIDEO = True

# Preparation for inference
text = processor.apply_chat_template(conversation, add_generation_prompt=True, tokenize=False)
audios, images, videos = process_mm_info(conversation, use_audio_in_video=USE_AUDIO_IN_VIDEO)
inputs = processor(text=text, 
                   audio=audios, 
                   images=images, 
                   videos=videos, 
                   return_tensors="pt", 
                   padding=True, 
                   use_audio_in_video=USE_AUDIO_IN_VIDEO)
inputs = inputs.to(model.device).to(model.dtype)

# Inference: Generation of the output text and audio
text_ids, audio = model.generate(**inputs, 
                                 speaker="Ethan", 
                                 thinker_return_dict_in_generate=True,
                                 use_audio_in_video=USE_AUDIO_IN_VIDEO)

text = processor.batch_decode(text_ids.sequences[:, inputs["input_ids"].shape[1] :],
                              skip_special_tokens=True,
                              clean_up_tokenization_spaces=False)
print(text)
if audio is not None:
    sf.write(
        "output.wav",
        audio.reshape(-1).detach().cpu().numpy(),
        samplerate=24000,
    )

(四)性能优化

为了优化性能,可以使用以下技巧:

  • 使用 GPU 加速:确保模型在 GPU 上运行以提高推理速度。
  • 启用 FlashAttention:在使用 Hugging Face Transformers 时,启用 FlashAttention 2 可以显著降低 GPU 内存占用。
  • 调整模型大小:根据实际需求选择合适的模型版本,较小的模型版本在推理速度上可能更快。

七、结语

Qwen3 - Omni 作为阿里巴巴通义千问团队推出的原生端到端全模态大模型,凭借其卓越的性能和广泛的应用场景,为多模态人工智能的发展注入了新的活力。它不仅在音频、图像和文本等多种模态任务上表现出色,还通过实时流式响应能力为用户带来了全新的交互体验。随着技术的不断进步和应用场景的不断拓展,Qwen3 - Omni 必将为人工智能领域带来更多的惊喜和突破。

八、项目地址

  • 项目官网:https://qwen.ai/blog?id=65f766fc2dcba7905c1cb69cc4cab90e94126bf4&from=research.latest-advancements-list
  • GitHub 仓库:https://github.com/QwenLM/Qwen3-Omni
  • HuggingFace 模型库:https://huggingface.co/collections/Qwen/qwen3-omni-68d100a86cd0906843ceccbe
  • 技术论文:https://github.com/QwenLM/Qwen3-Omni/blob/main/assets/Qwen3_Omni.pdf

在这里插入图片描述

🎯🔖更多专栏系列文章:AI大模型提示工程完全指南AI大模型探索之路(零基础入门)AI大模型预训练微调进阶AI大模型开源精选实践AI大模型RAG应用探索实践🔥🔥🔥 其他专栏可以查看博客主页📑

😎 作者介绍:资深程序老猿,从业10年+、互联网系统架构师,目前专注于AIGC的探索(CSDN博客之星|AIGC领域优质创作者)
📖专属社群:欢迎关注【小兵的AI视界】公众号或扫描下方👇二维码,回复‘入群’ 即刻上车,获取邀请链接。
💘领取三大专属福利:1️⃣免费赠送AI+编程📚500本,2️⃣AI技术教程副业资料1套,3️⃣DeepSeek资料教程1套🔥(限前500人)
如果文章内容对您有所触动,别忘了点赞、⭐关注,收藏!加入我们,一起携手同行AI的探索之旅,开启智能时代的大门!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐