前言

阿里千问正式发布了 Qwen 3.5 系列模型!Qwen 3.5 不仅仅是一个普通的模型升级,更是一个全规格、多模态、本地部署的 AI 解决方案。

就在 3 小时前,Qwen 3.5 已经上线 Ollama,意味着我们可以在自己的电脑上运行强大的千问模型了!
image.png

Qwen 3.5 核心亮点

1. 全规格覆盖

Qwen 3.5 提供了从轻量到超大的 8 个规格:

模型规格 大小 上下文 特点
qwen 3.5:0.8 b 1.0 GB 256 K 极致轻量,笔记本也能跑
qwen 3.5:2b 2.7 GB 256 K 轻量级,性能不错
qwen 3.5:4b 3.4 GB 256 K 平衡之选
qwen 3.5:9b 6.6 GB 256 K 主流选择
qwen 3.5:27b 17 GB 256 K 性能强劲
qwen 3.5:35b 24 GB 256 K 高性能
qwen 3.5:122 b 81 GB 256 K 旗舰级
qwen 3.5: latest 6.6 GB 256 K 默认最新版本

2. 原生多模态

Qwen 3.5 是原生支持多模态的模型家族,这意味着:

  • 视觉理解:可以理解图片内容
  • 图像问答:可以回答关于图片的问题
  • 文档理解:可以分析截图和图表
  • 视频理解:支持视频内容分析

而且是 Early Fusion(早期融合)技术,在多模态 token 上实现了与 Qwen 3 相当的性能,在推理、编码、代理和视觉理解基准测试中甚至超越了 Qwen 3-VL 模型。

3. 超长上下文

所有规格都支持 256 K 上下文窗口,这是目前开源模型中最长的上下文之一。意味着可以:

  • 处理超长文档
  • 进行深度代码分析
  • 支持复杂的多轮对话
  • 实现 RAG(检索增强生成)

4. 高效架构

Qwen 3.5 采用了创新的混合架构:

  • Gated Delta Networks:门控_delta 网络
  • 稀疏 MoE:稀疏专家混合模型
  • 实现高吞吐量推理,最小化延迟和成本

5. 全球语言支持

支持 201 种语言和方言,真正实现了全球化的部署能力。

性能表现

根据官方基准测试,Qwen 3.5 在多个领域都展现了强劲的实力:

语言理解

  • MMLU-Pro:87.8%(接近 GPT-4.5 的 89.5%)
  • MMLU-Redux:94.9%
  • C-Eval:93.0%

编程能力

  • SWE-bench Verified:76.2%
  • Terminal Bench 2:52.5%

视觉理解

  • MMMU:85.0%
  • MathVision:88.6%
  • Mathvista:90.3%

如何在本地运行

安装 Ollama

首先需要安装 Ollama:

# macOS
curl -fsSL https://ollama.com/install.sh | sh

# Windows
# 直接从官网下载安装包
# https://ollama.com/download/windows

运行 Qwen 3.5

# 运行默认版本(9B)
ollama run qwen3.5

# 运行特定规格
ollama run qwen3.5:0.8b   # 最轻量
ollama run qwen3.5:4b     # 平衡之选
ollama run qwen3.5:9b    

API 调用

# 使用 curl
curl http://localhost:11434/api/chat \
  -d '{
    "model": "qwen3.5",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

# Python
from ollama import chat

response = chat(
    model='qwen3.5',
    messages=[{'role': 'user', 'content': 'Hello!'}]
)
print(response.message.content)

与 AI 工具集成

Qwen 3.5 已经支持多种 AI 工具的本地运行:

OpenCode

ollama launch opencode --model qwen3.5

Claude Code

ollama launch claude --model qwen3.5

OpenClaw

ollama launch openclaw --model qwen3.5

这意味着我们可以:

  • 用本地千问模型作为 OpenCode 、openclaw 的后端
  • 实现完全私密的 AI 编码体验
  • 原生支持多模态,性能比上一代更强,可以实现更多功能

总结

Qwen 3.5 的发布,是千问家族的重要里程碑,更是本地 AI 发展的重要节点。从 0.8 B 到 122 B 的全规格覆盖,让不同需求的用户都能找到适合自己的方案。

原生多模态支持、256 K 超长上下文、高效的推理架构,再加上 Ollama 的便捷部署,Qwen 3.5 正在让本地 AI 变得更加普及和实用。

最后,开源还得是千问~


本文主要参考了 Ollama Qwen3.5 模型页面

如果这篇分享对你有所启发,欢迎关注!期待你的点赞、收藏、转发、推荐或留言~ 你的支持,是我持续创作的最大动力!感谢!🙏
微信公众号:环境猫 er
CSDN : 细节处有神明
个人博客:https://maoyu92.github.io/

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐