系列篇章💥

No. 文章
1 【AI大模型前沿】深度剖析瑞智病理大模型 RuiPath:如何革新癌症病理诊断技术
2 【AI大模型前沿】清华大学 CLAMP-3:多模态技术引领音乐检索新潮流
3 【AI大模型前沿】浙大携手阿里推出HealthGPT:医学视觉语言大模型助力智能医疗新突破
4 【AI大模型前沿】阿里 QwQ-32B:320 亿参数推理大模型,性能比肩 DeepSeek-R1,免费开源
5 【AI大模型前沿】TRELLIS:微软、清华、中科大联合推出的高质量3D生成模型
6 【AI大模型前沿】Migician:清华、北大、华科联手打造的多图像定位大模型,一键解决安防监控与自动驾驶难题
7 【AI大模型前沿】DeepSeek-V3-0324:AI 模型的全面升级与技术突破
8 【AI大模型前沿】BioMedGPT-R1:清华联合水木分子打造的多模态生物医药大模型,开启智能研发新纪元
9 【AI大模型前沿】DiffRhythm:西北工业大学打造的10秒铸就完整歌曲的AI歌曲生成模型
10 【AI大模型前沿】R1-Omni:阿里开源全模态情感识别与强化学习的创新结合
11 【AI大模型前沿】Qwen2.5-Omni:阿里巴巴的多模态大模型,实现看、听、说、写一体化
12 【AI大模型前沿】SmolDocling:256M参数的轻量级多模态文档处理利器,10分钟搞定百页PDF
13 【AI大模型前沿】Stable Virtual Camera:Stability AI 推出的2D图像转3D视频模型,一键生成沉浸式视频
14 【AI大模型前沿】阿里 Qwen3 震撼开源,模型新王诞生,开启全球大模型新纪元
15 【AI大模型前沿】InternVL:OpenGVLab开源多模态大模型,解锁视觉问答与多语言翻译的全能应用图鉴
16 【AI大模型前沿】Fin-R1:上海财经大学联合财跃星辰推出的金融推理大模型,凭7B参数拿下评测第二,离行业第一仅差3分
17 【AI大模型前沿】Med-R1:基于强化学习的医疗视觉语言模型,突破跨模态医学推理的普适性
18 【AI大模型前沿】Baichuan-M1-14B:百川智能推出专为医疗优化的开源大语言模型
19 【AI大模型前沿】一键生成宫崎骏动画风,EasyControl Ghibli 让照片秒变吉卜力艺术品
20 【AI大模型前沿】TxGemma:谷歌推出的高效药物研发大模型,临床试验预测准确率超90%
21 【AI大模型前沿】F5R-TTS:腾讯推出TTS领域的新王者,又快又准又自然,零样本语音克隆新高度
22 【AI大模型前沿】MiniMind-V:低成本打造超小多模态视觉语言模型(仅需1.3元人民币和1小时)
23 【AI大模型前沿】MoCha:端到端对话角色视频生成模型、电影级对话角色合成黑科技、重新定义动画创作
24 【AI大模型前沿】HuatuoGPT-o1-7B:中英文双语医学推理,打破语言障碍的AI大模型
25 【AI大模型前沿】MedReason:大规模医学推理数据集、借用知识图谱将大模型打造成“医术”专家
26 【AI大模型前沿】SkyReels-V2:昆仑万维开源的无限时长电影生成模型,开启视频生成新纪元
27 【AI大模型前沿】Dia:Nari Labs开源16亿参数TTS模型,只需文本输入,生成媲美真人对话的语音
28 【AI大模型前沿】阿里巴巴开源LHM:单图生成可动画3D人体模型,开启3D建模新纪元
29 【AI大模型前沿】TinyLLaVA-Video-R1:北航开源视频推理模型、小尺寸大智慧、参数少一半,性能翻一番
30 【AI大模型前沿】TTRL:测试时强化学习,开启无标签数据推理新篇章
31 【AI大模型前沿】Aero-1-Audio:Qwen2.5架构加持,轻量级音频模型天花板、吊打Whisper
32 【AI大模型前沿】DianJin-R1:阿里云通义点金联合苏大推出的金融推理增强大模型
33 【AI大模型前沿】VITA-Audio:腾讯开源的高效语音交互多模态大语言模型
34 【AI大模型前沿】Multiverse:全球首个AI多人游戏世界模型,低成本高效率新突破
35 【AI大模型前沿】Seed1.5-VL:多模态理解的效率革新者,以小博大,性能惊艳
36 【AI大模型前沿】ViLAMP:蚂蚁集团和人民大学联手打造的长视频理解利器,单卡处理3小时视频
37 【AI大模型前沿】Muyan-TTS:开源零样本语音合成模型、0.33秒极速生成播客级语音、小白也能玩转AI配音
38 【AI大模型前沿】Dolphin:字节跳动开源文档解析大模型,轻量级、高效、多格式,开启文档处理新时代
39 【AI大模型前沿】ChatTS:字节跳动联合清华大学开源、多模态时序大模型助力时序数据对话与推理
40 【AI大模型前沿】Index-AniSora:B站开源的动漫视频生成模型,助力高效创作
41 【AI大模型前沿】RelightVid:上海 AI Lab联合复旦等高校推出的视频重照明模型
42 【AI大模型前沿】BAGEL:字节跳动开源、多模态大模型的创新突破与实践指南
43 【AI大模型前沿】Matrix-Game:昆仑万维开源大模型,一键生成你的专属虚拟世界
44 【AI大模型前沿】Pixel Reasoner:滑铁卢联合港科大等高校推出的视觉语言模型,助力视觉推理新突破
45 【AI大模型前沿】CoGenAV:多模态语音表征新范式、通义联合深技大打造、噪声环境WER降低70%+
46 【AI大模型前沿】Ming-Lite-Omni:蚂蚁集团开源的统一多模态大模型的创新实践
47 【AI大模型前沿】DeepEyes:小红书与西安交大联合打造的多模态深度思考模型
48 【AI大模型前沿】OmniAudio:阿里通义实验室的空间音频生成模型,开启沉浸式体验新时代
49 【AI大模型前沿】MiniCPM 4.0:面壁智能开源的极致高效端侧大模型(小版本、低消耗、220倍极致提速)
50 【AI大模型前沿】SmolVLA:Hugging Face开源的轻量级视觉-语言-行动机器人模型
51 【AI大模型前沿】Time-R1:伊利诺伊大学香槟分校开源的时间推理语言模型、实现过去→未来全链路推演
52 【AI大模型前沿】MonkeyOCR:基于结构-识别-关系三元组范式的文档解析模型
53 【AI大模型前沿】GLM-4.5:智谱打造的开源SOTA模型,推理、代码与智能体能力融合先锋
54 【AI大模型前沿】百度飞桨PaddleOCR 3.0开源发布,支持多语言、手写体识别,赋能智能文档处理
55 【AI大模型前沿】Stream-Omni:多模态交互的“黄金三角”——视觉、语音、文本的完美融合
56 【AI大模型前沿】Vui:Fluxions-AI开源的轻量级语音对话模型,开启自然语音交互新时代
57 【AI大模型前沿】腾讯AI Lab开源的SongGeneration:音乐生成大模型的技术探索与实践
58 【AI大模型前沿】Osmosis-Structure-0.6B:小型语言模型在结构化信息提取中的突破
59 【AI大模型前沿】Kwai Keye-VL:颠覆认知!国产多模态大模型突然发布,视频理解能力堪比人类
60 【AI大模型前沿】Nanonets-OCR-s:从学术论文到法律合同,智能识别公式、签名、表格与图像
61 【AI大模型前沿】OmniAvatar:浙大联合阿里打造的音频驱动全身视频生成模型
62 【AI大模型前沿】DAMO GRAPE:阿里达摩院与浙江肿瘤医院联合打造的早期胃癌识别AI模型
63 【AI大模型前沿】阿里开源Lingshu:一个模型搞定12种医学影像诊断
64 【AI大模型前沿】原石科技MetaStone-S1:突破性反思型生成式大模型的技术解析与实践指南
65 【AI大模型前沿】清华实验室开源MOSS-TTSD:口语对话语音生成的突破
66 【AI大模型前沿】昆仑万维开源Skywork-R1V3:38B多模态推理模型,高考数学142分刷新开源SOTA
67 【AI大模型前沿】Voxtral:Mistral AI开源的高性价比语音转录与理解模型
68 【AI大模型前沿】Goedel-Prover-V2:普林斯顿联合清华开源的定理证明模型,AI数学研究新里程碑
69 【AI大模型前沿】Seed-X:字节跳动开源的7B参数多语言翻译模型,挑战超大型模型性能
70 【AI大模型前沿】OpenReasoning-Nemotron:英伟达开源的推理利器,助力数学、科学与代码任务
71 【AI大模型前沿】阿里通义千问 Qwen3-Coder:开启智能代码生成与代理式编程新时代
72 【AI大模型前沿】Qwen3-SmVL:基于阿里通义千问3和SmolVLM拼接打造1 GB显存可跑的中文超小多模态大模型
73 【AI大模型前沿】通义万相Wan2.2:阿里270亿参数巨兽开源,消费级显卡就能跑,免费平替Sora上线
74 【AI大模型前沿】Higgs Audio V2杀疯:Boson AI开源语音大模型(克隆声音、同步BGM、低延迟对话一键搞定)
75 【AI大模型前沿】腾讯混元3D世界生成模型HunyuanWorld-1.0:开启沉浸式3D内容创作新纪元
76 【AI大模型前沿】Intern-S1:上海AI Lab打造的科学多模态大模型,助力科研智能化
77 【AI大模型前沿】腾讯混元Dense模型:从智能座舱到客服机器人,用0.5B参数打穿全场景
78 【AI大模型前沿】Qwen-Image:免费开源、写段文案→直接出图→还能继续精修,全程不用PS
79 【AI大模型前沿】小米开源MiDashengLM:语音、音乐、环境声一网打尽、智能座舱直接起飞
80 【AI大模型前沿】InternVL3.5:上海 AI Lab 开源多模态大模型、荣登多模态开源榜首
81 【AI大模型前沿】Qwen3-Max-Preview:阿里通义千问的万亿参数大模型,开启AI新纪元
82 【AI大模型前沿】dots.vlm1:小红书hi lab开源的高性能多模态大模型、免费可商用,图表推理直接封神
83 【AI大模型前沿】GLM-4.5V:智谱最新一代视觉推理模型,开源即巅峰,42项SOTA碾压全场,多模态一键秒杀
84 【AI大模型前沿】Jan-v1:基于阿里云Qwen3-4B-Thinking的高性能本地运行AI模型
85 【AI大模型前沿】KittenTTS:KittenML开源的轻量级文本转语音模型,离线部署与高效性能的完美结合
86 【AI大模型前沿】Baichuan-M2:百川智能开源医疗增强大模型,助力医疗智能化转型
87 【AI大模型前沿】MiroThinker:基于Qwen3构建的开源Agent模型系列,助力复杂任务解决
88 【AI大模型前沿】DINOv3:Meta开源的自监督视觉模型,卫星/医疗/自拍全通杀,性能吊打CLIP全家桶
89 【AI大模型前沿】VibeVoice:微软开源7B模型,跨语言、多说话人、长文本一次到位
90 【AI大模型前沿】Waver 1.0:字节跳动推出的AI视频生成模型,支持文本/图像到高清视频的创作
91 【AI大模型前沿】MobileCLIP2:苹果开发端侧大模型,让手机秒变AI神器、拍照就能写文案、搜图片零误差
92 【AI大模型前沿】MiniCPM-V 4.5:OpenBMB推出的高性能端侧多模态大模型
93 【AI大模型前沿】Step-Audio 2 mini:阶跃星辰开源的端到端语音大模型,听得清楚、想得明白、说得自然
94 【AI大模型前沿】HunyuanWorld-Voyager:腾讯开源的超长漫游世界模型,开启3D场景生成新纪元
95 【AI大模型前沿】EmbeddingGemma:谷歌开源的移动端优先文本嵌入模型,200MB 内存搞定 100 种语言 RAG,性能翻倍
96 【AI大模型前沿】Apertus:瑞士首个开源大模型,多语言支持,合规训练,高效性能
97 【AI大模型前沿】OneCAT:美团联合上交大推出的纯解码器多模态模型
98 【AI大模型前沿】MiniCPM4.1:面壁智能重磅开源,128K长文本推理秒级响应,端侧性能狂飙7倍
99 【AI大模型前沿】VoxCPM:OpenBMB 推出的无分词器 TTS 模型,实现上下文感知语音生成与逼真语音克隆
100 【AI大模型前沿】IBM Granite-Docling-258M:开源企业级文档 AI 模型的创新与应用
101 【AI大模型前沿】小红书开源FireRedTTS-2:突破性多说话人长对话语音生成系统完全解析
102 【AI大模型前沿】PP-OCRv5:百度飞桨的高效多语言文字识别利器,0.07 亿参数狂飙 370 字/秒,支持 40+ 语种
103 【AI大模型前沿】小米AI实验室发布ZipVoice系列语音合成模型,重塑语音交互体验
104 【AI大模型前沿】IndexTTS2:B站开源的零样本语音合成模型,实现情感与时长精准控制
105 【AI大模型前沿】Ling-V2:蚂蚁百灵团队打造的高效智能语言模型
106 【AI大模型前沿】腾讯ARC开源AudioStory:大语言模型驱动的长篇叙事音频生成技术
107 【AI大模型前沿】Mini-o3:字节跳动联合港大推出的开源视觉推理模型
108 【AI大模型前沿】InternVLA-N1:上海 AI Lab 开源的端到端双系统导航大模型
109 【AI大模型前沿】InternVLA-A1:上海AI实验室开源的具身操作大模型,助力机器人实现理解、想象与执行一体化
110 【AI大模型前沿】深度解析DeepSeek-R1-Safe:华为与浙大合作的安全大模型
111 【AI大模型前沿】小米开源语音大模型 Xiaomi-MiMo-Audio:开启语音领域的“LLaMA时刻”
112 【AI大模型前沿】百度Qianfan-VL:企业级多模态大模型的领域增强解决方案,OCR、数学、图表一把抓
113 【AI大模型前沿】Qwen3Guard:阿里云通义千问团队推出的安全防护模型
114 【AI大模型前沿】Qwen3-VL:阿里云通义千问的多模态视觉语言模型,开启智能交互新纪元
115 【AI大模型前沿】Qwen3-Omni:阿里巴巴通义千问团队引领全模态大模型新突破
116 【AI大模型前沿】Qwen3-TTS-Flash:阿里通义的多语言多音色语音合成利器
117 【AI大模型前沿】FLM-Audio:智源研究院开源的全双工音频对话大模型,开启自然流畅语音交互新时代
118 【AI大模型前沿】DeepSeek-V3.2-Exp:基于稀疏注意力机制的高效长文本处理大模型
119 【AI大模型前沿】智谱GLM-4.6:355B参数的旗舰级AI模型,代码能力与推理性能全面升级
120 【AI大模型前沿】Logics-Parsing:阿里巴巴开源的端到端文档解析模型
121 【AI大模型前沿】Ming-UniAudio:蚂蚁集团开源的多功能统一语音大模型
122 【AI大模型前沿】Ling-1T:蚂蚁集团开源万亿参数的高效推理非思考模型
123 【AI大模型前沿】微软UserLM-8b:AI助手的“逼真陪练”,多轮对话精炼利器
124 【AI大模型前沿】NeuTTS Air:Neuphonic打造的超拟真离线语音合成模型
125 【AI大模型前沿】Youtu-Embedding:腾讯优图开源的高性能通用文本表示模型
126 【AI大模型前沿】UniPixel:香港理工大学联合腾讯推出的像素级多模态大模型
127 【AI大模型前沿】SongBloom:腾讯AI Lab开源的全长度歌曲生成模型
128 【AI大模型前沿】SAIL-VL2:字节跳动开源的“小而强”视觉语言模型,2B参数也能吊打大模型
129 【AI大模型前沿】PaddleOCR-VL:百度0.9B超轻量级文档解析利器,多语言多模态功能强大
130 【AI大模型前沿】HunyuanWorld-Mirror:腾讯开源的多功能3D重建大模型
131 【AI大模型前沿】DeepSeek-OCR:开启OCR 2.0时代,用视觉压缩技术革新文档处理
132 【AI大模型前沿】FIBO:首个开源原生支持JSON的文本生成图像模型
133 【AI大模型前沿】SoulX-Podcast:多语言、多方言、多说话人的语音合成新突破
134 【AI大模型前沿】美团 LongCat-Flash-Omni:低延迟音视频交互的全模态大模型
135 【AI大模型前沿】Ouro:字节跳动Seed团队推出的循环语言模型,开启推理新纪元
136 【AI大模型前沿】UniWorld:基于强化学习的图像编辑大模型技术解析与应用探索
137 【AI大模型前沿】FG-CLIP:360推出的双语细粒度视觉语言对齐模型,助力多模态理解新突破
138 【AI大模型前沿】Maya1:Maya Research开源的语音合成模型,让AI声音充满情感
139 【AI大模型前沿】Step-Audio-EditX:全球首个开源LLM音频编辑大模型,开启音频创作新纪元
140 【AI大模型前沿】OmniVinci:NVIDIA全模态大模型,语音、图像、视频全搞定的六边形战士
141 【AI大模型前沿】Open-o3-Video:北大联合字节开源的时空推理视频模型
142 【AI大模型前沿】SenseNova-SI:商汤开源的空间智能大模型,性能超越GPT-5
143 【AI大模型前沿】ERNIE 4.5:百度文心大模型的多模态技术革新与应用实践
144 【AI大模型前沿】腾讯KaLM-Embedding:高性能多语言文本嵌入模型的创新与实践
145 【AI大模型前沿】Bee:腾讯混元与清华联合开源的全栈多模态大模型创新项目
146 【AI大模型前沿】InfinityStar:字节跳动推出的高效视频生成模型,开启视频创作新纪元
147 【AI大模型前沿】Meta SAM 3D:从单图到3D世界的神奇钥匙
148 【AI大模型前沿】Meta SAM 3:基于概念提示的图像与视频分割模型
149 【AI大模型前沿】腾讯 HunyuanVideo-1.5:用消费级显卡解锁高清视频生成的无限可能
150 【AI大模型前沿】Olmo 3:开源时代的 AI 定制先锋,打造专属智能模型
151 【AI大模型前沿】Fara-7B:微软打造的高效计算机操作代理模型,开启智能办公新时代
152 【AI大模型前沿】HunyuanOCR:腾讯混元推出的高效端到端OCR视觉语言模型


前言

随着数字化转型的加速,文本识别与处理需求日益增长。腾讯混元团队推出的 HunyuanOCR,凭借其轻量化架构和强大的多模态处理能力,为复杂文档解析、信息提取等任务提供了高效解决方案,推动了OCR技术的发展。
在这里插入图片描述

一、项目概述

HunyuanOCR 是腾讯混元团队推出的一款开源端到端OCR视觉语言模型,专为高效处理复杂文档和多语言文本设计。它依托混元原生多模态架构,仅用1B参数量就实现了多项OCR任务的SOTA性能。HunyuanOCR 支持文本检测与识别、复杂文档解析、开放字段信息抽取、视频字幕抽取以及图像文本翻译等功能,覆盖了经典OCR任务的全场景应用。其轻量化设计和强大的多语言支持能力,使其在实际应用中表现出色,广泛适用于文档处理、票据解析、视频内容创作等多个领域。

二、核心功能

(一)文本检测与识别

HunyuanOCR能够精准检测并识别图片中的文字,输出文本内容及其坐标信息。它适用于多种场景,包括文档、艺术字、街景、手写等。通过先进的视觉识别技术,模型可以快速定位并提取文字,为后续处理提供基础支持。

(二)复杂文档解析

HunyuanOCR支持多语种文档的电子化处理,能够将文档中的文本内容按阅读顺序组织,公式以LaTeX格式表示,表格以HTML格式表达。这一功能特别适合处理复杂的学术文档、报告等,帮助用户高效提取和利用文档信息。

(三)开放字段信息抽取

HunyuanOCR可以对常见卡证和票据中的感兴趣字段(如姓名、地址、金额等)进行标准JSON格式解析。这一功能极大地方便了信息提取和后续处理,广泛应用于财务、行政等领域,提高了工作效率。

(四)视频字幕抽取

HunyuanOCR能够自动化抽取视频中的字幕,支持单语和双语字幕。这一功能适用于视频内容制作和翻译场景,帮助视频创作者快速提取字幕,提升视频内容的可访问性和多语言支持。

(五)图像文本翻译

HunyuanOCR支持14种小语种(如德语、西班牙语、日语等)翻译成中文或英文,以及中英互译。这一功能特别适用于跨语言文档处理和交流,帮助用户突破语言障碍,实现信息的快速传递。

三、技术揭秘

(一)端到端架构

HunyuanOCR采用全端到端的训练和推理范式,模型直接从输入图像到输出结果,无需复杂的级联处理。这种架构设计显著提高了效率和准确性,避免了传统级联方案中常见的误差累积问题,使模型在多种OCR任务中表现出色。

(二)多模态融合

基于混元原生多模态架构,HunyuanOCR将视觉信息和语言信息深度融合。模型能够更好地理解和解析图像中的文本内容,支持复杂文档的多语言处理和信息提取,展现出强大的多模态交互能力。

(三)高质量数据训练

HunyuanOCR使用大规模高质量的应用导向数据进行训练,并结合在线强化学习。这种训练策略使模型在多种实际应用场景中表现出色,具有很强的泛化能力,能够适应不同的文档类型和语言环境。

(四)轻量化设计

HunyuanOCR仅使用1B参数量,通过高效的模型结构设计,在保持高性能的同时大幅降低了计算成本和部署难度。这种轻量化设计使其适合多种硬件环境,易于在实际应用中快速部署。

(五)多语言支持

HunyuanOCR支持100多种语言,能够处理单语言和多语言混合的复杂文档。通过优化语言理解和生成能力,模型在全球化应用场景中表现出色,适应不同语言环境下的文档处理需求。

四、基准评测/性能评估表现

(一)复杂文档解析基准

在业界普遍使用的 OmniDocBench 基准测试中,HunyuanOCR取得了94.1分的优异成绩,显著超越了DeepSeek-OCR、Gemini-3.0-Pro等竞品。此外,在多语言文档解析的内部基准测试中,HunyuanOCR也表现出了极低的编辑距离,证明了其在处理复杂多语言文档方面的强大能力。
在这里插入图片描述

(二)文字检测和识别能力

HunyuanOCR在自建的覆盖9大应用场景(文档、艺术字、街景、手写、广告、票据、截屏、游戏、视频)的基准测试中,大幅度领先开源方案和商用OCR接口。这表明HunyuanOCR在多种复杂场景下都能高效准确地检测和识别文本。
在这里插入图片描述

(三)OCRBench榜单

在OCRBench榜单上,HunyuanOCR总得分为860分。尽管其参数量仅为1B,但该模型在总参数3B以下的模型中取得了SOTA成绩。这证明了HunyuanOCR在保持轻量化的同时,依然能够提供顶级的性能。
在这里插入图片描述

(四)小语种翻译能力

HunyuanOCR支持14种高频小语种翻译成中文或英文,并在ICDAR2025端到端文档图像翻译比赛的小模型赛道中获得冠军。这表明HunyuanOCR在跨语言文档处理方面具有显著优势。
在这里插入图片描述

(五)信息抽取性能

在信息抽取任务的内部基准测试中,HunyuanOCR在卡片、票据和视频字幕提取等任务上均取得了优异成绩。例如,在处理卡片和票据时,HunyuanOCR的准确率分别达到了92.29%和92.53%,在视频字幕提取任务中,准确率达到了92.87%。
在这里插入图片描述

五、应用场景

(一)文档处理

HunyuanOCR能够高效处理多语种文档的电子化需求。它支持复杂文档解析,可将文档中的文本、公式(LaTeX格式)和表格(HTML格式)按阅读顺序提取和组织。这一功能广泛应用于学术研究、企业文档管理等领域,帮助用户快速将纸质文档转化为可编辑的电子格式。

(二)票据字段抽取

在财务和行政领域,HunyuanOCR可以快速准确地提取票据中的关键字段,如金额、日期、编号等。通过标准JSON格式输出,这些信息可直接用于数据录入和后续处理,极大提高了工作效率,减少了人工操作的错误率。

(三)视频字幕提取

HunyuanOCR能够自动化提取视频中的字幕,支持单语和双语字幕。这一功能适用于视频内容制作、翻译和字幕生成,帮助视频创作者快速提取字幕内容,提升视频的多语言支持能力,拓展视频内容的受众范围。

(四)拍照翻译

HunyuanOCR支持多种小语种的拍照翻译功能,可将图片中的文字翻译成中文或英文。这一功能特别适用于旅行、学习和跨语言交流场景,帮助用户快速获取和理解不同语言的文本信息。

(五)信息抽取

HunyuanOCR可以从图像中提取特定字段或信息,如从身份证、名片中提取姓名、地址等,并支持多种格式输出。这一功能广泛应用于信息录入、数据采集等领域,帮助用户快速提取关键信息。

(六)视频内容创作

对于视频创作者,HunyuanOCR能够快速提取视频中的文字内容,用于字幕制作和内容分析。这一功能帮助创作者高效处理视频中的文本信息,提升创作效率和内容质量。

(七)教育与学习

在教育领域,HunyuanOCR辅助学生和研究人员快速提取文献、教材中的关键信息,支持多语言学习和研究。它能够帮助用户快速获取和理解学术资料中的重要信息,提升学习和研究效率。

六、快速使用

(一)环境准备

HunyuanOCR的部署需要满足以下系统环境要求:

  • 操作系统:Linux
  • Python版本:3.12+(推荐并经过测试)
  • CUDA版本:12.9
  • PyTorch版本:2.7.1
  • GPU:NVIDIA GPU,支持CUDA
  • GPU显存:至少20GB(用于vLLM)
  • 磁盘空间:至少6GB

(二)安装步骤

  1. 创建虚拟环境并激活
uv venv hunyuanocr
source hunyuanocr/bin/activate
  1. 安装依赖库
uv pip install -U vllm --pre --extra-index-url https://wheels.vllm.ai/nightly
uv pip install -r requirements.txt
  1. 安装CUDA兼容包(推荐)
sudo dpkg -i cuda-compat-12-9_575.57.08-0ubuntu1_amd64.deb
echo 'export LD_LIBRARY_PATH=/usr/local/cuda-12.9/compat:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc
# 验证cuda-compat-12-9安装
ls /usr/local/cuda-12.9/compat

(三)模型部署与推理

  1. 模型部署
    使用vLLM框架部署HunyuanOCR模型:
vllm serve tencent/HunyuanOCR \
    --no-enable-prefix-caching \
    --mm-processor-cache-gb 0 \
    --gpu-memory-utilization 0.2
  1. 模型推理
    使用Python脚本进行推理,示例代码如下:
from vllm import LLM, SamplingParams
from PIL import Image
from transformers import AutoProcessor

def clean_repeated_substrings(text):
    """清理文本中的重复子字符串"""
    n = len(text)
    if n < 8000:
        return text
    for length in range(2, n // 10 + 1):
        candidate = text[-length:]
        count = 0
        i = n - length
        while i >= 0 and text[i:i + length] == candidate:
            count += 1
            i -= length
        if count >= 10:
            return text[:n - length * (count - 1)]
    return text

model_path = "tencent/HunyuanOCR"
llm = LLM(model=model_path, trust_remote_code=True)
processor = AutoProcessor.from_pretrained(model_path)
sampling_params = SamplingParams(temperature=0, max_tokens=16384)

img_path = "/path/to/image.jpg"
img = Image.open(img_path)
messages = [
    {"role": "system", "content": ""},
    {"role": "user", "content": [
        {"type": "image", "image": img_path},
        {"type": "text", "text": "检测并识别图片中的文字,将文本坐标格式化输出。"}
    ]}
]
prompt = processor.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = {"prompt": prompt, "multi_modal_data": {"image": [img]}}
output = llm.generate([inputs], sampling_params)[0]
print(clean_repeated_substrings(output.outputs[0].text))
  1. 使用提供的示例脚本
    如果需要快速测试,可以直接使用项目提供的示例脚本:
cd Hunyuan-OCR-master/Hunyuan-OCR-vllm && python run_hy_ocr.py

七、结语

HunyuanOCR凭借其轻量化架构和强大的多模态处理能力,在OCR领域展现了卓越性能和广泛的应用前景。它为开发者和企业提供了高效、便捷的文本识别与处理解决方案,推动了OCR技术的发展和应用。

八、项目地址

  • 项目官网:https://hunyuan.tencent.com/vision/zh?tabIndex=0
  • Github仓库:https://github.com/Tencent-Hunyuan/HunyuanOCR
  • Huggingface模型库:https://huggingface.co/tencent/HunyuanOCR
  • 技术报告:https://github.com/Tencent-Hunyuan/HunyuanOCR/blob/main/HunyuanOCR_Technical_Report.pdf
  • 在线体验:https://huggingface.co/spaces/tencent/HunyuanOCR

在这里插入图片描述

🎯🔖更多专栏系列文章:AI大模型提示工程完全指南AI大模型探索之路(零基础入门)AI大模型预训练微调进阶AI大模型开源精选实践AI大模型RAG应用探索实践🔥🔥🔥 其他专栏可以查看博客主页📑

😎 作者介绍:资深程序老猿,从业10年+、互联网系统架构师,目前专注于AIGC的探索(CSDN博客之星|AIGC领域优质创作者)
📖专属社群:欢迎关注【小兵的AI视界】公众号或扫描下方👇二维码,回复‘入群’ 即刻上车,获取邀请链接。
💘领取三大专属福利:1️⃣免费赠送AI+编程📚500本,2️⃣AI技术教程副业资料1套,3️⃣DeepSeek资料教程1套🔥(限前500人)
如果文章内容对您有所触动,别忘了点赞、⭐关注,收藏!加入我们,一起携手同行AI的探索之旅,开启智能时代的大门!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐