Tesla P40显卡使用 nunchaku 部署 Fluex.1-dev笔记
本文记录了在Tesla P40显卡上使用nunchaku部署Fluex.1-dev的完整过程。作者详细描述了安装nunchaku的正确方式(需下载特定版本而非直接pip安装)、解决triton依赖问题(需手动安装Windows编译版本)、处理CUDA版本冲突(最终使用CUDA 12.6+torch 2.7.1组合)等关键步骤。虽然最终因显卡架构老旧(包括V100等)导致运行失败,但完整记录了所有安
Tesla P40显卡使用 nunchaku 部署 Fluex.1-dev笔记
一、安装 nunchaku
注意一点,直接 pip install nunchaku 是不行的,安装完以后直接找不到 NunchakuFluxTransformer2dModel 这个类~
需要去 git 官方下载合适的python版本对应的 nunchaku 版本~
https://github.com/nunchaku-tech/nunchaku/releases/tag/v1.0.2
下载完成后使用 pip install nunchaku-1.0.2+torch2.7-cp310-cp310-linux_x86_64.whl 即可安装成功~
上述问题解决~
二、安装 triton
不出意外,安装完成以后,运行会报错:
Traceback (most recent call last):
File "F:\My Projects\AI\flux1-test\test_flux_dev_nunchaku.py", line 4, in <module>
from nunchaku import NunchakuFluxTransformer2dModel
File "F:\My Projects\AI\flux1-test\.venv\lib\site-packages\nunchaku\__init__.py", line 1, in <module>
from .models import (
File "F:\My Projects\AI\flux1-test\.venv\lib\site-packages\nunchaku\models\__init__.py", line 1, in <module>
from .text_encoders.t5_encoder import NunchakuT5EncoderModel
File "F:\My Projects\AI\flux1-test\.venv\lib\site-packages\nunchaku\models\text_encoders\t5_encoder.py", line 18, in <module>
from .linear import W4Linear
File "F:\My Projects\AI\flux1-test\.venv\lib\site-packages\nunchaku\models\text_encoders\linear.py", line 10, in <module>
from ..._C.ops import gemm_awq, gemv_awq
ImportError: DLL load failed while importing _C: 找不到指定的模块。

这是因为需要安装 triton 这个包,但是这个包目前只有linux的版本~
有大神已经编译过windows的版本,可以直接去以下地址下载:
https://hf-mirror.com/madbuda/triton-windows-builds
或者 自己编译,整体参考 以下博客:
添加链接描述
然后 pip install nunchaku-1.0.2+torch2.7-cp310-cp310-win_amd64.whl 即可安装成功~
em~ 好吧,cuda版本要求 > 12.0~ 那我安装 cu121总行吧
重新安装驱动:
https://developer.nvidia.com/cuda-12-1-0-download-archive
重新安装 torch相关, cu121没有对应的torch 2.7.1的版本,那我安装 torch 2.5 总行吧~
对应版本 torch==2.5.1+cu121、torchaudio==2.5.1+cu121、torchvision==0.2.0+cu121
https://download.pytorch.org/whl/cu121/torchvision/
造孽啊~ 官方好像并没有 nunchaku -torch2.5.1的版本
好好好,这么玩儿是吧,这次我先把版本确认清楚了 ~ 都有是吧 ~
- cuda:12.6
- torch: 2.7.1+cu126
- nunchaku: 1.02+torch2.7+cp310
Oaky, 再来一次~
好的一切准备就绪~
驱动正常: 560.76
cuda版本正常: 12.6
torch安装正常: torch==2.7.1+cu126
nunchaku安装正常: 1.0.2+torch2.7.1
最后附上一件安装用 requirements.txt
./whls/torch-2.7.1+cu126-cp310-cp310-win_amd64.whl
./whls/torchvision-0.22.1+cu126-cp310-cp310-win_amd64.whl
./whls/torchaudio-2.7.1+cu126-cp310-cp310-win_amd64.whl
./whls/nunchaku-1.0.2+torch2.7-cp310-cp310-win_amd64.whl
transformers
accelerate
sentencepiece
protobuf
三、下载模型
需要下载两个模型 black-forest-labs/FLUX.1-dev 和 nunchaku-tech/nunchaku-flux.1-dev模型,我们还是使用 modelscope 下载。
modelscope download --model nunchaku-tech/nunchaku-flux.1-dev --local_dir nunchaku-tech/nunchaku-flux.1-dev
modelscope download --model black-forest-labs/FLUX.1-dev --local_dir black-forest-labs/FLUX.1-dev
四、运行测试代码
import torch
from diffusers import FluxPipeline
from nunchaku import NunchakuFluxTransformer2dModel
from nunchaku.utils import get_precision
precision = get_precision() # auto-detect your precision is 'int4' or 'fp4' based on your GPU
transformer = NunchakuFluxTransformer2dModel.from_pretrained(
f"nunchaku-tech/nunchaku-flux.1-dev/svdq-{precision}_r32-flux.1-dev.safetensors"
)
pipeline = FluxPipeline.from_pretrained(
"black-forest-labs/FLUX.1-dev", transformer=transformer, torch_dtype=torch.bfloat16
).to("cuda")
image = pipeline("A cat holding a sign that says hello world", num_inference_steps=50, guidance_scale=3.5).images[0]
image.save(f"flux.1-dev-{precision}.png")
好的,最终以失败告终~
大概意思是: 不支持老架构GPU~ 据说包括 v100 在内~
没错,如果你跟着操作了,你只会跟我踩相同的坑,放弃吧,年轻人~
其实我早就从作者儿那儿拿到了结果,只是不信邪,这该死的胜负欲~
不说了,再说要哭了,愿看到的小伙伴不迷路~
更多推荐



所有评论(0)