之前随手发过使用ollama本地部署qwen3-30b-a3b-thinking_q8 以及 qwen3-30b-a3b-instruct_q8 的简单命令。

有的朋友问是如何将刚发布不久的模型从modelscope或者huggingface转换成ollama上的文件的。

其实思路很简单,就是下载模型,然后用llama.cpp转换成gguf,再用ollama中create命令创建对应模型,然后push推送上去。

本文的步骤零是直接使用现成的

而后面的步骤,则是介绍如何从modelscope下载模型,然后使用 llama.cpp 转换成gguf格式,再用 Ollama 部署 Qwen3-Coder-30B-A3B-Instruct 模型。

环境要求

  • Python 3.10+

  • Git

  • Ollama

  • 足够的磁盘空间(约100GB+,模型本体61G,q8量化后大约30G)

步骤零:直接用转换好的

模型已转换好,直接使用 Ollama 运行即可。

 ollama run hopephoto/qwen3-coder-30b-a3b-instruct_q8

大概需要30G左右的磁盘空间。

步骤一:安装依赖

1.1 安装 ModelScope

 pip install modelscope

1.2 克隆 llama.cpp 仓库

 git clone https://github.com/ggml-org/llama.cpp
 cd llama.cpp

步骤二:下载模型

使用 ModelScope 下载 Qwen3-Coder-30B-A3B-Instruct 模型:

 modelscope download --model Qwen/Qwen3-Coder-30B-A3B-Instruct

模型将下载到:C:\Users\用户名\.cache\modelscope\hub\models\qwen\Qwen3-Coder-30B-A3B-Instruct

步骤三:转换模型格式

将 Hugging Face 格式转换为 GGUF 格式:

 python convert_hf_to_gguf.py "C:\Users\HP\.cache\modelscope\hub\models\qwen\Qwen3-Coder-30B-A3B-Instruct"--outfile models\qwen3-coder-30b-a3b-instruct_q8.gguf --verbose--outtype q8_0

参数说明

  • --outfile: 输出文件路径

  • --verbose: 显示详细转换信息

  • --outtype q8_0: 量化类型,q8_0 提供较好的质量与大小平衡

步骤四:创建 Ollama Modelfile

创建配置文件 Modelfile_qwen3_coder,文件内容如下所示(要注意文件名和路径与前面转换的匹配,比如一定注意都是qwen3-coder-30b-a3b-instruct_q8.gguf  这个文件哈):

 FROM models/qwen3-coder-30b-a3b-instruct_q8.gguf 
 
 TEMPLATE """<|im_start|>system
 {{ .System }}<|im_end|>
 <|im_start|>user
 {{ .Prompt }}<|im_end|>
 <|im_start|>assistant
 """
 
 PARAMETER stop "<|im_end|>"
 PARAMETER stop "<|im_start|>"
 
 SYSTEM """你是Qwen,由阿里云开发的AI助手。你对用户的问题和请求总是有帮助、准确和诚实的。"""

配置说明

  • FROM: 指定模型文件路径

  • TEMPLATE: 定义对话模板,使用 Qwen 特定的格式

  • PARAMETER stop: 设置停止标记

  • SYSTEM: 设置系统提示词

步骤五:在 Ollama 中创建模型

 ollama create qwen3-coder-30b-a3b-instruct_q8 -f Modelfile_qwen3_coder

步骤六:验证安装

运行以下命令测试模型:

 ollama run qwen3-coder-30b-a3b-instruct_q8

使用示例

代码生成示例

 ollama run qwen3-coder-30b-a3b-instruct_q8 "请写一个Python函数来计算斐波那契数列"

代码解释示例

 ollama run qwen3-coder-30b-a3b-instruct_q8 "解释这段代码的功能:def quicksort(arr): ..."

性能评估

在 AMD 7950X + 128G DDR5 RAM + 4060 GPU 8GRAM 的配置的笔记本电脑上运行如下命令:

 ollama run hopephoto/qwen3-coder-30b-a3b-instruct_q8 "请写一个Python函数来计算斐波那契数列"--verbose

得到的性能评测结果为:

 total duration:       1m37.1833561s
 load duration:        11.3397894s
 prompt eval count:    53 token(s)
 prompt eval duration: 2.8421457s
 prompt eval rate:     18.65 tokens/s
 eval count:           410 token(s)
 eval duration:        1m23.0009177s
 eval rate:            4.94 tokens/s

故障排除

常见问题

  1. 转换失败:确保有足够的磁盘空间和内存

  2. Ollama 创建失败:检查 Modelfile 路径是否正确

  3. 运行缓慢:考虑使用更小的量化级别(如 q4_0)

性能优化

  • GPU 加速:如果有 NVIDIA GPU,确保安装了 CUDA 支持

  • 内存优化:调整 --ctx-size 参数控制上下文长度

文件结构

 llama.cpp/
 ├── models/
 │   └── qwen3-coder-30b-a3b-instruct_q8.gguf
 ├── Modelfile_qwen3_coder
 └── convert_hf_to_gguf.py

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐