2 月 4 日,Qwen3-Coder-Next 正式对外开源发布。该模型面向编程智能体与本地开发场景打造,提供完整开源权重,适合开发者进行二次开发与工程集成。昇腾已适配支持该模型相关模型与权重已同步上线 AtomGit AI。

👉 立即体验:https://ai.gitcode.com/hf_mirrors/Qwen/Qwen3-Coder-Next/model-inference

图片

01|模型介绍

Qwen3-Coder-Next 本质上是一款专门为编程和智能体场景打造的超大模型。它采用了混合专家(MoE)架构,也可以理解为:模型里有很多“专家模块”,每次只调动最合适的一小部分来工作,而不是把全部参数都跑一遍。这样做的好处是,在保持模型能力很强的同时,大幅降低了实际推理开销,更适合真实部署和长期跑服务。

同时,它基于 Qwen3-Next-80B-A3B-Base 构建,并结合新的注意力结构,让模型在写代码、理解工程上下文和处理复杂任务流程时更稳定、更聪明。

效果演示

我们展示其在 OpenClaw、Web 开发的示例:

使用OpenClaw与其进行聊天:

图片

使用 Web 开发 实现一个聊天界面:

图片

02|硬件建议

图片

03|MindSpeed LLM 全流程部署实战

MindSpeed LLM 已完成对 Qwen3-Coder-Next 的首发适配,支持在昇腾 NPU 上进行预训练、指令微调与推理部署,适合构建长期运行的编程智能体与企业级研发平台。

3.1 软件栈与环境依赖

在使用 MindSpeed LLM 部署 Qwen3-Coder-Next 前,需要准备如下基础环境:

图片

3.2 环境准备与仓库部署

拉取核心代码仓库

# MindSpeed-LLM 主仓库
git clone https://gitcode.com/ascend/MindSpeed-LLM.git
# Megatron-LM(MindSpeed-LLM 依赖)
git clone https://github.com/NVIDIA/Megatron-LM.git
cd Megatron-LM
git checkout core_v0.12.1
# 拷贝 Megatron 到 MindSpeed-LLM
cp -r megatron ../MindSpeed-LLM/
cd ../MindSpeed-LLM
git checkout master

创建 Python 运行环境

conda create -n qwen3-coder python=3.10
conda activate qwen3-coder

安装 PyTorch 与昇腾 NPU 依赖

pip install torch-2.7.1-cp310-cp310m-manylinux2014_aarch64.whl
pip install torch_npu-2.7.1*-cp310-cp310m-linux_aarch64.whl

    安装 MindSpeed 加速库

    git clone https://gitcode.com/ascend/MindSpeed.git
    cd MindSpeed
    git checkout master
    pip install -r requirements.txt
    pip install -e .

    安装完成后,MindSpeed 将自动接管 Transformer、Attention 与 MoE 等核心模块的加速执行路径。

    3.3 权重转换:打通 HuggingFace 生态

    Qwen3-Coder-Next 官方以 HuggingFace 格式发布权重。

    MindSpeed LLM 提供一键式转换脚本,可将权重转换为 Megatron / MindSpeed 可直接使用的格式。

    cd MindSpeed-LLM
    bash examples/mcore/qwen3_coder_next/ckpt_convert_qwen3_coder_next_80b_hf2mcore.sh

    该过程会自动完成:

    • 权重切分与并行映射

    • MoE 专家参数重排

    • 与昇腾并行策略对齐

    3.4 数据预处理流程

    预训练数据处理

    bash examples/mcore/qwen3_coder_next/data_convert_qwen3_coder_next_pretrain.sh \
      --input /path/to/raw_data \
      --tokenizer-name-or-path /path/to/tokenizer \
      --output-prefix /path/to/processed_data

    指令微调数据处理

    bash examples/mcore/qwen3_coder_next/data_convert_qwen3_coder_next_instruction.sh \
      --input /path/to/instruction_data.json \
      --tokenizer-name-or-path /path/to/tokenizer \
      --output-prefix /path/to/processed_sft_data

    3.5 预训练、微调与推理部署

    预训练示例

    我们这里以 4 机 64 卡 Atlas A3 为例

    bash examples/mcore/qwen3_coder_next/pretrain_qwen3_coder_next_80b_4K_A3_ptd.sh

    全参数微调

    bash examples/mcore/qwen3_coder_next/tune_qwen3_coder_next_80b_4K_full_ptd.sh

    推理生成

    bash examples/mcore/qwen3_coder_next/genarate_qwen3_coder_next_80b_ptd.sh

    04|vLLM Ascend 推理上手指导

    4.1 获取模型权重

    可在 AtomGit AI 快速下载模型权重:

    # 从 AtomGit 镜像站下载
    
    git clone https://ai.gitcode.com/hf_mirrors/Qwen/Qwen3-Coder-Next

    或访问页面手动下载:https://ai.gitcode.com/hf_mirrors/Qwen/Qwen3-Coder-Next

    注意:Qwen3-Coder-Next 已在 vllm-ascend:v0.14.0rc1 版本镜像中支持。

    4.2 安装 Triton Ascend

    需要确保环境中已安装 Triton Ascend 以运行该模型:

    pip install triton-ascend==3.2.0

    详细安装指南可参考:https://gitcode.com/Ascend/triton-ascend

    4.3 启动 Docker 容器

    根据您的昇腾硬件版本选择对应镜像:

     
    # 对于 Atlas A3 机器:
    exportIMAGE=quay.io/ascend/vllm-ascend:v0.14.0rc1
    
    docker run --rm \
      --shm-size=1g \
      --name qwen3-coder-next \
      --device /dev/davinci0 \
      --device /dev/davinci1 \
      --device /dev/davinci2 \
      --device /dev/davinci3 \
      --device /dev/davinci_manager \
      --device /dev/devmm_svm \
      --device /dev/hisi_hdc \
      -v /usr/local/dcmi:/usr/local/dcmi \
      -v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi \
      -v /usr/local/Ascend/driver/lib64/:/usr/local/Ascend/driver/lib64/ \
      -v /usr/local/Ascend/driver/version.info:/usr/local/Ascend/driver/version.info \
      -v /etc/ascend_install.info:/etc/ascend_install.info \
      -v /root/.cache:/root/.cache \
      -p 8000:8000 \
      -it $IMAGEbash
    

    4.4 离线推理(Python API)

    在容器内执行以下 Python 脚本进行离线推理:

    import os
    os.environ["VLLM_USE_MODELSCOPE"]="True"
    os.environ["VLLM_WORKER_MULTIPROC_METHOD"]="spawn"
    
    from vllm import LLM, SamplingParams
    
    defmain():
        prompts =[
    "Hello, my name is",
    "The president of the United States is",
    "The capital of France is",
    "The future of AI is",
    ]
    
    # 采样参数配置
        sampling_params = SamplingParams(
            max_tokens=100,
            temperature=0.0
    )
    
    # 初始化 LLM(NPU 环境)
        llm = LLM(
            model="/path/to/model/Qwen3-Coder-Next/",# 替换为 AtomGit 下载路径
            tensor_parallel_size=4,# 4 卡张量并行
            trust_remote_code=True,
            max_model_len=10000,# 根据 NPU 显存调整
            gpu_memory_utilization=0.8,# GPU 内存利用率
            max_num_seqs=4,
            max_num_batched_tokens=4096,
            compilation_config={
    "cudagraph_mode":"FULL_DECODE_ONLY",
    },
    )
    
    # 生成文本
        outputs = llm.generate(prompts, sampling_params)
    for output in outputs:
            prompt = output.prompt
            generated_text = output.outputs[0].text
    print(f"Prompt: {prompt!r}, Generated text: {generated_text!r}")
    
    if __name__ =="__main__":
        main()
    

    4.5 在线推理

    启动兼容 OpenAI API 的推理服务:

    vllm serve /path/to/model/Qwen3-Coder-Next/ \
      --tensor-parallel-size 4\
      --max-model-len 32768\
      --gpu-memory-utilization 0.8\
      --max-num-batched-tokens 4096\
      --compilation-config '{"cudagraph_mode":"FULL_DECODE_ONLY"}'
    

    建议:

    --max-model-len 32768:NPU 部署建议先使用 32K 上下文长度,稳定后可尝试 256K

    --tensor-parallel-size 4:4 卡并行,充分发挥 NPU 算力

    发送测试请求:

    curl http://localhost:8000/v1/completions \
      -H "Content-Type: application/json"\
      -d '{
        "prompt": "Write a Python function to implement quick sort",
        "max_tokens": 512,
        "temperature": 0.0
      }'
    

    05|快速体验模型能力

    为了帮助用户快速上手并高效评估模型能力,Qwen3-Coder-Next 提供「在线体验」与「API 接入」两种使用方式,分别面向快速验证与工程化应用场景。

    方式一:即刻在线体验

    无需部署,无需环境配置,打开即可使用。

    通过模型在线推理页面直接输入代码或自然语言指令,即可快速体验 Qwen3-Coder-Next 在代码生成、代码理解、复杂任务拆解与智能体能力方面的实际效果,适用于模型能力验证、编程场景测试以及不同代码模型之间的对比评估。

    👉 在线体验地址:https://ai.gitcode.com/hf_mirrors/Qwen/Qwen3-Coder-Next/model-inference

    方式二:调用推理 API

    还可通过推理 API 接入 Qwen3-Coder-Next 的模型能力,用于构建代码助手、自动化开发工具和智能体系统,适用于对稳定性、并发能力与工程集成要求较高的开发场景。

    👉 推理 API 地址:https://ai.gitcode.com/hf_mirrors/Qwen/Qwen3-Coder-Next/model-inference

    Logo

    有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

    更多推荐