小模型十年演进
小模型十年演进(2015-2025):从移动端工具到端云协同核心 2015-2025年,AI小模型完成了从大模型压缩附属品到端云协同智能核心的跨越式发展。这一演进以轻量化、低延迟、低功耗为核心特性,覆盖CV、NLP、语音、机器人控制等领域,成为AI普惠落地的关键桥梁。十年间经历两次范式革命:2016-2019年原生轻量化架构突破端侧算力瓶颈;2022-2025年大模型时代端云协同体系成型,小模型升
小模型十年演进(2015-2025)
2015-2025年,是AI小模型完成从“大模型压缩附属的移动端辅助工具”,到“端云协同智能核心、具身普惠化的基础载体”、从海外架构绝对垄断到国产全链条自主可控全球领跑的黄金十年。
本文聚焦的小模型,是相对于千亿级参数的通用大模型而言,参数规模在百万级至百亿级以内,以轻量化、低延迟、低功耗、端侧可部署、高性价比为核心特性的AI模型体系,覆盖计算机视觉(CV)、自然语言处理(NLP)、语音识别、机器人实时控制、工业边缘智能等全领域,是AI从云端巨头专属走向千行百业普惠落地的核心桥梁,更是此前机器人Locomotion/Manipulation、规划决策、模仿学习、工业巡检等技术规模化落地的核心端侧底座。
这十年,小模型完成了两次颠覆性范式革命:第一次是2016-2019年,以MobileNet、TinyBERT为代表的原生轻量化架构成熟,解决了传统模型端侧部署的算力瓶颈,实现了从云端到边缘的场景延伸;第二次是2022-2025年,大模型时代的端云协同体系成型,小模型从“大模型的缩小版”升级为“通用智能的端侧载体”,实现了从专用任务工具到垂直场景通用智能的本质跃迁。
这十年,小模型的演进与中国制造2025战略落地、移动端AI爆发、自动驾驶普及、人形机器人与具身智能革命深度绑定,完成了**「启蒙定型期、工程突破期、范式重构期、普惠成熟期」**四次核心范式跃迁,与全球AI与机器人产业的十年发展完全同频。
一、十年演进总纲与四大里程碑
小模型的十年演进,始终围绕参数效率、部署普惠性、场景泛化性、实时性、自主国产化五大核心主线,核心突破始终围绕「如何让AI从云端机房走向终端设备,从巨头专属变成千行百业可负担、可落地的普惠能力」,整体可划分为四大里程碑阶段,与此前系列内容时间线完全对齐:
- 2015-2017 启蒙定型期:模型剪枝/量化/蒸馏为核心手段,CNN/RNN架构为主流,小模型是大模型的“压缩附属品”,仅能在移动端简单场景落地,完全由海外学术机构主导,国内仅能实现应用层简单复刻,无自主核心技术。
- 2018-2020 工程突破期:原生轻量化架构全面工程化,从CV领域扩散至NLP领域,TensorFlow Lite/PyTorch Mobile端侧部署框架成熟,工业、安防、自动驾驶场景实现规模化试点,国产技术实现从0到1的突破,整体国产化率突破20%。
- 2021-2023 范式重构期:大模型时代开启,小模型从“压缩附属”升级为端云协同体系的核心,大模型知识蒸馏、端侧Transformer轻量化、扩散模型压缩技术爆发,机器人、工业场景实现端侧实时闭环,国产技术百花齐放,整体国产化率突破60%,跻身全球第一梯队。
- 2024-2025 普惠成熟期:端云协同成为行业标配,原生端侧小模型架构成熟,垂直场景性能逼近甚至超越通用大模型,端侧多模态小模型全面普及,从单点设备部署升级为全场景分布式智能体系,国产技术实现从跟跑到领跑的跨越,主导垂直领域行业标准制定。
二、四大阶段详细演进详解
第一阶段:2015-2017 启蒙定型期——压缩技术起步,移动端辅助工具定位
产业背景
2015年,以ResNet为代表的深度卷积网络解决了梯度消失难题,深度学习正式从实验室走向工业落地,但主流大参数量模型仅能在云端服务器运行,移动端、嵌入式设备的算力完全无法支撑。这一阶段,小模型的核心定位是把云端大模型压缩到移动端可运行的辅助工具,核心需求来自智能手机的人脸识别、图片分类等简单视觉场景,整体仍以学术研究为主,无规模化工业落地能力。
全球范围内,谷歌、DeepMind、伯克利等海外机构垄断了核心算法研究,2016年SqueezeNet实现了AlexNet级精度,参数量压缩50倍,首次验证了轻量化模型的可行性;2017年MobileNet v1发布,开创了移动端轻量化模型的新纪元。国内AI产业仍处于应用层跟随状态,核心算法完全复刻海外开源框架,仅商汤、旷视、海康威视等企业在安防人脸识别场景实现了简单的应用层落地,无自主架构创新。
核心技术演进
- 模型压缩技术体系初步成型:模型剪枝、权重量化、知识蒸馏三大核心压缩技术完成理论验证,通过剔除冗余参数、降低数值精度、迁移大模型知识,实现了大模型的轻量化压缩,解决了移动端部署的基础可行性问题,但普遍存在压缩后精度大幅损失的痛点。
- 原生轻量化架构实现里程碑突破:2017年谷歌发布MobileNet v1,首次将深度可分离卷积工业化落地,将标准卷积分解为通道内卷积与通道间卷积,计算量降低8-9倍,在ImageNet分类任务上实现70.6%的Top-1精度,成为移动端CV模型的奠基之作,彻底开启了小模型的工程化时代。
- 核心技术局限:小模型完全依附于大模型,无独立的架构设计能力,仅能完成简单的图像分类、人脸识别任务,泛化性极差;NLP领域仍以RNN/LSTM为主,轻量化模型仅能实现简单的语音唤醒、关键词识别,无法处理复杂语言任务;完全依赖海量标注数据,样本效率极低,换场景必须重新训练。
国产发展状态
国内处于完全跟随的空白状态,整体国产化率不足5%;仅能在安防、智能手机人脸识别场景实现压缩模型的应用层复刻,无自主轻量化架构创新;核心专利布局集中在应用层,底层算法、架构创新几乎为零;工业场景落地几乎为空白,端侧AI部署框架100%依赖海外开源项目。
产业格局与核心痛点
- 产业格局:海外顶尖高校与科技巨头形成绝对垄断,掌控了核心算法、架构创新的全部话语权;国内企业仅能在应用层零星布局,无任何底层技术话语权,形成了「海外做架构、国内做集成」的被动格局。
- 核心痛点:压缩后精度损失严重,无法满足工业级场景需求;仅能适配简单视觉任务,无复杂场景处理能力;完全依附于大模型,无独立的技术演进路径;核心技术、部署框架完全被海外垄断,国内无自主研发能力。
第二阶段:2018-2020 工程突破期——原生轻量化架构成熟,工业场景规模化试点
产业背景
2018-2020年,智能手机AI芯片、自动驾驶域控制器、IoT智能终端爆发,端侧算力实现质的飞跃,对轻量化AI模型的需求暴涨;同时,Transformer架构在NLP领域全面崛起,BERT等大模型的端侧落地需求,推动了NLP领域小模型的技术突破。这一阶段,小模型从「大模型的压缩版」升级为「原生轻量化架构设计」,从CV领域扩散至全模态,工业、安防、自动驾驶场景实现规模化试点。
ROS生态全面成熟,TensorFlow Lite、PyTorch Mobile等端侧部署框架发布,彻底解决了小模型的端侧落地门槛;国内仓储物流、3C电子产业爆发,协作机器人、AGV、工业质检对端侧实时AI的需求,为国产小模型技术提供了核心落地场景。
核心技术演进
- CV领域原生轻量化架构全面成熟:MobileNet迭代至v2/v3版本,通过倒残差结构、线性瓶颈、NAS神经架构搜索,实现了精度与效率的最优平衡,ImageNet Top-1精度提升至75%以上;ShuffleNet、EfficientNet-Lite等架构先后发布,针对不同端侧硬件实现了定制化优化,在工业质检、自动驾驶视觉感知、安防监控场景实现规模化落地。
- NLP领域小模型实现从0到1突破:2019年华为诺亚方舟实验室发布TinyBERT,通过分层知识蒸馏,将BERT参数量压缩至1/7,推理速度提升9.4倍,GLUE基准性能损失仅3%,彻底解决了Transformer大模型的端侧部署难题;后续MobileBERT、ALBERT、DistilBERT等模型先后发布,NLP小模型实现了从简单关键词识别到复杂语义理解的跨越,在智能客服、语音交互、边缘文本分析场景实现试点落地。
- 端侧部署生态全面成型:TensorFlow Lite、PyTorch Mobile正式发布,实现了模型训练、压缩、部署、推理的全流程工具链支持,适配安卓、iOS、嵌入式Linux等全平台,大幅降低了小模型的端侧落地门槛;国内阿里MNN、腾讯NCNN等开源端侧推理框架先后发布,实现了对海外框架的追赶。
- 域适应技术突破,Sim2Real能力提升:通过域自适应技术,实现了仿真环境训练的小模型向真实世界的迁移,大幅降低了真实场景的标注成本,在机器人视觉抓取、自动驾驶场景实现了工程化应用。
国产发展状态
国产小模型技术实现了从0到1的核心跨越,整体国产化率突破20%;百度飞桨、华为MindSpore先后发布自主深度学习框架,内置了完整的模型压缩、轻量化工具链,打破了海外框架的垄断;华为TinyBERT、百度ERNIE-Tiny等国产NLP小模型,技术水平跻身国际第一梯队;地平线、寒武纪等企业推出了端侧AI芯片,与国产小模型实现了软硬协同优化,在自动驾驶、工业场景实现规模化落地;核心专利数量年复合增长率超150%,从完全复刻转向自主架构创新。
产业格局与核心痛点
- 产业格局:海外机构仍在架构创新层面保持领先,但国内企业在工程化落地、场景适配方面实现了快速追赶,中低端工业场景实现了国产替代;行业从「海外学术垄断」转变为「海外引领理论、国内追赶落地」的竞争格局。
- 核心痛点:小模型仍以单任务专用模型为主,跨场景泛化性不足,换场景必须重新训练;Transformer小模型的端侧推理延迟仍较高,无法满足机器人实时控制、自动驾驶等低延迟场景需求;高端端侧AI芯片仍依赖高通、英伟达,国产芯片的生态完善度仍有差距。
第三阶段:2021-2023 范式重构期——大模型时代端云协同成型,定位全面升级
产业背景
2022年11月ChatGPT的爆发,彻底重构了AI行业的技术范式,通用大模型展现了前所未有的通用智能能力,但同时也面临着推理成本高、延迟大、隐私安全风险、云端依赖等核心痛点,小模型的价值被重新定义——从「大模型的压缩版」升级为端云协同智能体系的核心载体。
这一阶段,大模型知识蒸馏技术全面成熟,通过大模型作为教师模型,向小模型迁移通用知识,让小模型在保持轻量化的同时,获得了远超传统训练的泛化能力;同时,离线强化学习、扩散模型轻量化技术的突破,让小模型从感知任务延伸至决策、生成任务,在机器人控制、工业决策、AIGC端侧部署场景实现了质的飞跃。
核心技术演进
- 端云协同体系全面成型,小模型定位彻底重构:形成了「云端通用大模型做全局规划、知识蒸馏与任务拆解,端侧轻量化小模型做实时推理、闭环执行」的标准范式,既保留了大模型的通用智能能力,又实现了端侧的低延迟、隐私安全、离线可用,成为行业公认的主流落地架构。
- 大模型蒸馏技术爆发,小模型通用能力实现质的飞跃:通过大模型的知识蒸馏,小模型不仅能学习任务的执行逻辑,还能继承大模型的常识推理、跨场景泛化能力,7B/13B参数的小模型,在垂直场景的性能可逼近甚至超越GPT-3.5等百亿级大模型,同时可在端侧设备实现实时推理。
- 端侧多模态与生成式小模型实现突破:Stable Diffusion等扩散模型的轻量化版本落地,实现了端侧文生图、图像编辑功能;端侧多模态小模型实现了视觉、文本、语音、传感器数据的统一建模,在机器人视觉-语言-动作(VLA)模型、工业多传感融合场景实现规模化应用,谷歌RT系列模型验证了端侧小模型在机器人具身智能中的核心价值。
- 模型压缩技术实现全面升级:INT4/INT2超低精度量化、稀疏化、结构化剪枝技术成熟,百亿参数大模型可压缩至十亿级,在手机、汽车、机器人控制器上实现端侧实时推理,延迟低至毫秒级,彻底解决了大模型的端侧部署难题。
国产发展状态
国产小模型技术实现了从跟跑到并跑的全面跨越,整体国产化率突破60%;百度文心、阿里通义、华为盘古、智谱GLM等国产大模型,先后推出了轻量化端侧版本,在中文理解、工业垂直场景的性能实现了对海外模型的追赶;面壁智能MiniCPM、DeepSeek等国产端侧小模型,用2B/4B参数实现了百亿级大模型的性能,技术水平跻身全球第一梯队;国产端侧推理框架、AI芯片实现了软硬协同优化,在工业机器人、自动驾驶、智能家居场景的国内市场占有率突破70%,实现了中低端场景的全面替代,高端场景渗透率突破30%。
产业格局与核心痛点
- 产业格局:全球形成中美双雄主导的竞争格局,美国在通用大模型、基础架构创新领域保持领先,中国在垂直场景小模型、端侧工程化落地、软硬协同优化方面实现全面追赶,跻身全球第一梯队;开源生态全面繁荣,技术门槛大幅降低,小模型从科技巨头的专属技术,变成了全行业可落地的普惠工具。
- 核心痛点:端侧小模型的长上下文、逻辑推理能力仍与通用大模型有较大差距,复杂长周期任务的完成率不足;模型压缩后的幻觉问题仍未完全解决,高安全要求的工业、医疗场景仍需人工兜底;高端AI训练芯片仍依赖英伟达,国产芯片的大模型蒸馏训练效率仍有差距。
第四阶段:2024-2025 普惠成熟期——端侧原生架构成熟,全场景普惠落地
产业背景
2024-2025年,大模型产业从「百模大战」走向「场景落地」,端侧AI成为全球科技竞争的核心焦点,智能手机、智能汽车、人形机器人、智能家居、工业设备全面开启端侧AI升级;小模型从「大模型的附属品」,升级为具身智能原生的端侧核心大脑,端云协同体系成为行业标配,原生端侧小模型架构实现了对传统压缩模型的全面超越。
这一阶段,人形机器人进入量产前夜,工业黑灯工厂、家庭服务、医疗康复等场景,对端侧低延迟、高隐私、离线可用的AI能力需求全面爆发;国产小模型技术实现了从并跑到领跑的跨越,从算法、框架到算力、场景落地,形成了完整的自主可控生态,开始向全球市场输出技术与解决方案。
核心技术演进
- 原生端侧小模型架构全面成熟:专门为端侧设备设计的小模型架构成为行业主流,不再是大模型的简单压缩,而是针对端侧算力、内存、功耗特性进行了全链路架构优化,4B/7B参数的端侧小模型,在垂直场景的性能全面超越通用大模型,同时实现了端侧毫秒级实时推理,功耗低于1W。
- 具身智能原生的端侧小模型体系全面落地:视觉-语言-动作(VLA)端侧小模型实现原生融合,大模型完成任务拆解与全局规划后,端侧小模型直接实现环境感知、运动规划、动作执行、反馈优化的端到端闭环,人形机器人可在无网络环境下完成复杂家务、工业操作任务,进入量产适配阶段。
- 端云协同进化体系全面成型:形成了「云端大模型持续蒸馏知识→端侧小模型本地推理与数据采集→联邦学习反向优化云端与端侧模型」的全链路闭环,小模型可在端侧实现终身持续学习,越用越智能,无需人工重新训练,同时保证了用户数据的隐私安全,完全本地处理,不上传原始数据。
- 全场景端侧部署全面普及:小模型已全面渗透至智能手机、智能汽车、工业机器人、智能家居、IoT设备、医疗仪器等全场景,端侧AI渗透率突破90%,从高端旗舰设备下沉至千元级消费电子、工业边缘设备,真正实现了AI的普惠化落地。
国产发展状态
国产小模型技术实现了从并跑到领跑的全面跨越,整体国产化率突破75%,高端场景国产化率突破50%;端侧轻量化小模型、工业垂直场景专用小模型的技术水平全球领先,人形机器人具身智能小模型落地速度稳居全球第一;国产AI全链条实现自主可控,从昇腾/寒武纪国产算力、飞桨/MindSpore深度学习框架,到端侧小模型、推理部署工具链,形成了完整的自主生态;产品出口至全球50多个国家和地区,在东南亚、中东、欧洲市场实现规模化落地,从国产替代正式走向全球市场竞争。
产业格局
全球小模型与端侧AI产业形成中美双雄领跑的稳态格局,中国在垂直场景落地、端侧软硬协同优化、具身智能工程化方面实现全球领先,美国在通用大模型、基础理论研究领域保持优势;开源生态全面繁荣,技术门槛大幅降低,小模型从科技巨头的专属技术,变成了千行百业数字化转型的普惠基础设施。
三、小模型十年核心维度演进对比表
| 核心维度 | 2015-2017年(启蒙定型期) | 2018-2020年(工程突破期) | 2021-2023年(范式重构期) | 2024-2025年(普惠成熟期) | 十年核心质变 |
|---|---|---|---|---|---|
| 核心范式 | 大模型压缩附属,单任务专用模型 | 原生轻量化架构,单领域多任务模型 | 端云协同核心,大模型知识蒸馏通用模型 | 具身智能原生,端云协同持续进化体系 | 从大模型的压缩附属品,到端侧通用智能核心的范式革命 |
| 核心算法体系 | 剪枝/量化/蒸馏基础压缩技术,MobileNet v1 | 原生轻量化CNN架构,TinyBERT等NLP小模型,端侧推理框架 | 大模型分层蒸馏,端侧Transformer轻量化,扩散模型压缩 | 原生端侧架构,联邦持续学习,端侧多模态VLA模型 | 从手工压缩算法,到原生端侧通用智能体系 |
| 参数效率 | 压缩后精度损失严重,参数效率低 | 原生架构优化,参数效率提升10倍以上 | 大模型知识蒸馏,参数效率提升100倍以上 | 端侧原生架构优化,4B参数对标百亿级大模型 | 参数效率提升超1000倍,实现极致的能效平衡 |
| 场景泛化性 | 零泛化,仅适配固定场景单一任务 | 弱泛化,可适配同领域多任务 | 强泛化,可跨场景迁移,零样本初步落地 | 通用泛化,垂直场景性能超越大模型,终身持续学习 | 从零泛化的固定任务,到全场景通用智能 |
| 与大模型融合度 | 零融合,完全独立的压缩工具 | 初步融合,大模型特征提取辅助小模型 | 深度融合,大模型蒸馏为小模型核心知识来源 | 原生融合,端云协同双向进化体系 | 从完全独立的两个领域,到原生融合的统一智能体系 |
| 整体国产化率 | 不足5%,核心技术全进口 | 突破20%,自主框架实现从0到1 | 突破60%,国产方案实现规模化落地 | 突破75%,全链条自主可控 | 从完全进口依赖,到国产主导全球市场,份额提升超15倍 |
| 端侧部署能力 | 仅能在旗舰手机运行简单视觉任务 | 可在中端手机、嵌入式设备部署,延迟百毫秒级 | 可在汽车、机器人控制器部署,延迟毫秒级 | 可在全品类终端设备部署,延迟低至微秒级 | 从旗舰机专属,到全品类终端普惠部署 |
| 部署周期 | 人工标注+压缩训练,部署周期数周 | 轻量化架构微调,部署周期数天 | 大模型蒸馏+迁移学习,部署周期数小时 | 零样本/小样本适配,部署周期分钟级 | 部署门槛降低超1000倍,实现全场景普惠落地 |
| 核心应用场景 | 智能手机人脸识别、图片分类 | 工业质检、安防监控、智能客服、自动驾驶感知 | 机器人具身控制、端侧AIGC、工业边缘决策 | 人形机器人、智能汽车、智能家居、工业全场景普惠 | 从单一消费场景,到千行百业全场景落地 |
| 行业话语权 | 海外巨头绝对垄断,国内零话语权 | 海外引领理论,国内追赶落地 | 中美双雄格局,国内跻身全球第一梯队 | 中美领跑,国内主导垂直领域国际标准 | 从完全跟随,到全球行业规则制定者 |
四、十年演进的五大核心本质转变
1. 范式转变:从大模型的压缩附属,到端云协同智能的核心载体
十年间,小模型完成了最核心的范式革命:从「把大模型压缩变小的辅助工具」,升级为「端云协同智能体系的核心载体」,最终形成了具身智能原生的端侧闭环架构。彻底打破了“大模型做智能、小模型做执行”的传统定位,小模型不仅继承了大模型的通用知识,还实现了端侧实时闭环、隐私安全、离线可用的核心价值,成为AI从云端走向终端的核心桥梁。
2. 能力升级:从单任务专用工具,到垂直场景通用智能的本质跨越
十年间,小模型的核心能力实现了指数级提升:从仅能完成固定场景的简单图像分类、人脸识别,升级为可处理多模态数据、完成常识推理、跨场景泛化的通用智能体,在垂直场景的性能甚至超越了百亿级通用大模型。彻底解决了传统小模型泛化性差、换场景必须重新训练的核心痛点,实现了从“专用工具”到“通用智能载体”的本质跨越。
3. 产业格局:从海外学术垄断,到国产全链条自主可控全球领跑
十年间,小模型的产业格局完成了根本性逆转:从海外顶尖高校与科技巨头垄断核心架构、算法与部署框架,国内企业仅能做应用层复刻的被动局面,到如今中国实现了从算力芯片、深度学习框架、模型架构到场景落地的全链条自主可控,在端侧小模型、垂直场景应用方面实现全球领先。中国从完全的技术跟随者,成长为全球端侧AI领域的核心创新者与市场主导者。
4. 价值定位:从移动端性能妥协方案,到AI普惠化的核心基础设施
十年间,小模型的产业价值完成了本质升级:从「移动端算力不足的妥协方案」,升级为AI普惠化的核心基础设施。小模型的成熟,让AI从云端机房的巨头专属技术,变成了千元级手机、工业边缘设备、智能家居都可承载的普惠能力,彻底打破了AI的算力门槛与成本门槛,推动AI从“锦上添花的创新”变成了“千行百业数字化转型的刚需”。
5. 技术逻辑:从手工压缩的参数瘦身,到原生设计的知识密度提升
十年间,小模型的技术逻辑完成了颠覆性重构:从「通过剪枝、量化给大模型“瘦身”,牺牲精度换体积」的压缩逻辑,升级为「通过原生架构设计、大模型知识蒸馏,提升单位参数的知识密度」的原生设计逻辑。面壁智能等企业提出的“模型密度法则”,实现了用更小的参数承载更多的知识,彻底改变了小模型的技术演进路径,实现了精度、体积、功耗的最优平衡。
五、现存核心挑战
-
通用能力与推理深度仍有差距
尽管端侧小模型在垂直场景实现了性能突破,但在长上下文理解、复杂逻辑推理、长周期任务规划方面,仍与通用大模型有较大差距;模型压缩后的幻觉、逻辑错误问题仍未完全解决,高安全要求的工业、医疗、核电场景,仍无法实现完全无人化的端侧自主决策。 -
端侧算力与能效平衡仍有瓶颈
端侧小模型的推理高度依赖端侧AI芯片的算力支撑,尽管国产芯片实现了突破,但在算力密度、能效比、生态完善度方面,仍与高通、英伟达的顶尖产品有代差;百亿级参数大模型的端侧部署,仍面临内存占用高、功耗大的问题,在低功耗嵌入式设备上的落地仍有难度。 -
持续学习与终身进化体系仍不完善
端侧小模型的终身持续学习能力仍有不足,在端侧采集新数据后,容易出现灾难性遗忘问题,无法实现越用越智能的持续进化;联邦学习、端云协同进化的技术体系仍不完善,跨设备、跨场景的知识共享与模型优化,仍面临数据隐私、通信效率的核心挑战。 -
可解释性与安全合规仍需完善
端侧小模型仍存在黑盒问题,决策逻辑的可解释性不足,无法完全预判模型在极端场景下的行为;全球各国的数据安全、隐私保护法规日益严格,端侧模型的本地训练、数据合规、安全防护体系仍需进一步完善,制约了小模型的全球化落地。 -
行业标准与生态互通仍不统一
不同厂商的端侧推理框架、模型格式、硬件适配接口仍不统一,模型跨平台、跨设备部署的适配成本仍较高;行业缺乏统一的端侧小模型性能评估、安全合规标准,制约了行业的规模化发展与技术迭代。
六、未来发展趋势(2025-2030)
1. 世界模型驱动的端侧小模型全面成熟,实现物理世界通用智能
2030年前,世界模型将与端侧小模型实现原生融合,通过学习物理世界的运行规律,让端侧智能体具备人类级别的常识推理、未来预测与行为规划能力;无需云端大模型支持,端侧小模型即可在未知环境中完成复杂长周期任务,真正实现物理世界的端侧通用智能。
2. 端云协同的分布式智能体系全面普及,实现全域智能协同
2030年前,「云端超大规模通用大模型+边缘域模型+端侧轻量化小模型」的分布式智能体系将全面普及,实现算力、数据、智能的最优分配,既保证了通用智能能力,又实现了实时性、隐私安全、低功耗的平衡;AI将从集中式的云端智能,变成无处不在的分布式普惠智能,融入所有设备与场景。
3. 存算一体与神经拟态芯片,实现端侧智能的能效革命
2030年前,存算一体芯片、神经拟态芯片将实现规模化落地,模仿人类大脑的神经元工作机制,端侧AI推理的能效比提升1000倍以上,功耗降低99%,彻底解决端侧小模型的算力与能耗瓶颈;千亿级参数的大模型可在端侧设备实时运行,实现真正的端侧通用智能。
4. 终身持续学习体系全面落地,实现越用越智能的自进化
2030年前,端侧小模型的终身持续学习体系将全面成熟,通过持续学习、联邦学习、增量训练技术,端侧模型可在不遗忘原有能力的前提下,持续从本地数据中学习新的知识与技能,实现越用越智能的自进化;无需人工重新训练与部署,即可适配全新的场景与任务,真正实现通用人工智能的持续进化能力。
5. 国产技术全面主导全球市场,中国成为端侧AI创新中心
2030年前,中国将在端侧小模型与边缘智能领域实现全面领跑,国产芯片、框架、模型、解决方案占据全球60%以上的市场份额,主导端侧AI的国际标准制定;中国将从全球最大的AI应用市场,成长为全球端侧智能技术的创新中心与规则制定者,支撑中国在新型工业化、具身智能、智能制造领域的全球领先地位。
更多推荐



所有评论(0)