本地跑Qwen-Image
我对问生图的模型,了解的很少,不太会用也不太会部署,本想研究一下,结果部署了很多次都没有成功,后来看到了这个文档,按照文章中描述的方式,成功了,再次借用一下原文链接:https://blog.csdn.net/2301_76444133/article/details/150112206?我使用的是原文中的第一个方法。
·
我对问生图的模型,了解的很少,不太会用也不太会部署,本想研究一下,结果部署了很多次都没有成功,后来看到了这个文档,按照文章中描述的方式,成功了,再次借用一下
原文链接:https://blog.csdn.net/2301_76444133/article/details/150112206?fromshare=blogdetail&sharetype=blogdetail&sharerId=150112206&sharerefer=PC&sharesource=weixin_43920946&sharefrom=from_link
我使用的是原文中的第一个方法。
diffsynth-studio方案(推荐低显存用户)
- 适用场景:显存≥4G(如RTX 3050),支持Windows/Linux/MacOS。
- 步骤:
- 安装依赖:
git clone https://github.com/modelscope/diffsynth-studio.git cd diffsynth-studio pip install -e . - 下载模型(自动或手动):
- 模型地址:https://www.modelscope.cn/models/MusePublic/Qwen-image
- 运行推理(示例代码):
上面给出的是示例代码,我本地的模型存储路径是自定义的,所以我给模型的路径修改了一下。from diffsynth.pipelines.qwen_image import QwenImagePipeline, ModelConfig import torch # 低显存模式(4G显存) pipe = QwenImagePipeline.from_pretrained( torch_dtype=torch.bfloat16, device="cuda", model_configs=[ ModelConfig(model_id="qwen/qwen-image", origin_file_pattern="transformer/diffusion_pytorch_model*.safetensors", offload_device="cpu"), ModelConfig(model_id="qwen/qwen-image", origin_file_pattern="text_encoder/model*.safetensors", offload_device="cpu"), ModelConfig(model_id="qwen/qwen-image", origin_file_pattern="vae/diffusion_pytorch_model.safetensors", offload_device="cpu"), ], tokenizer_config=ModelConfig(model_id="qwen/qwen-image", origin_file_pattern="tokenizer/"), ) pipe.enable_vram_management() # 启用显存优化 # 生成图像 prompt = "精致肖像,水下少女,蓝裙飘逸,发丝轻扬,光影透澈,气泡环绕。" image = pipe(prompt, seed=0, num_inference_steps=40) image.save("output.jpg")
- 安装依赖:
更多推荐



所有评论(0)