强强联手!深度求索与寒武纪同步发布 DeepSeek-V3.2 模型架构及 vLLM 适配源码

2025 年 9 月 29 日,深度求索公司正式发布新一代模型架构 DeepSeek-V3.2,引发业界广泛关注。值得关注的是,在该模型发布的同时,寒武纪也宣布完成对 DeepSeek-V3.2 的适配,并同步开源基于 vLLM 的大模型推理引擎源代码。这一消息在国内外 AI 社区引起热议。


在这里插入图片描述

🔹 DeepSeek-V3.2:迈向新一代架构的重要一步

本次发布的 DeepSeek-V3.2-Exp(Experimental)版本,是深度求索迈向下一代架构的重要过渡节点。该版本在 V3.1-Terminus 的基础上,引入了 DeepSeek Sparse Attention(稀疏注意力机制),在长文本的训练与推理效率方面进行了探索性优化与验证。

目前,DeepSeek 官方 App、网页版与小程序均已同步升级至 V3.2-Exp。与此同时,官方还宣布 API 价格大幅下调,鼓励开发者与用户广泛测试并反馈使用体验。


🔹 寒武纪率先完成适配并开源 vLLM-MLU

与此同时,寒武纪宣布完成对 DeepSeek-V3.2-Exp 的底层适配,并正式开源大模型推理引擎 vLLM-MLU 的源代码。开发者可通过文末链接获取代码与测试步骤,在寒武纪软硬件平台上第一时间体验 V3.2-Exp 的性能亮点。

业内专家认为,这一同步适配动作背后,透露出中国顶尖科技企业深度协同创新的信号。


🔹 深度协同的背后:技术与信任的积淀

从技术层面看,DeepSeek-V3.2 的模型体量高达 671GB。据行业测算,即便在带宽充足的理想条件下,下载模型也需约 8–10 小时。而芯片与大模型的适配过程,涉及底层架构优化、算力资源调度及兼容性调试等多项复杂工程,绝非短时间内能够完成

有 AI 行业资深专家分析指出:

“如此快速的适配响应,充分说明寒武纪早在 DeepSeek-V3.2 发布前就已启动相关研发。双方在技术层面的沟通与协作早已悄然展开。”

这种低调务实、专注技术的行事风格,正是当前中国头部科技企业的典型特征。


🔹 中国 AI 协同创新的典范

在全球 AI 竞争愈发激烈的背景下,中国要在国际舞台上保持竞争力,离不开产业链头部企业间的深度协同与技术共进。此次深度求索与寒武纪的快速联动,正是国内 AI 生态协同创新、共赢发展的生动例证

展望未来,这一产业链上下游的深度合作,将有望显著降低大模型在长序列场景下的训练与推理成本,并加速 AI 应用的“涌现”与落地。


Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐