我对问生图的模型,了解的很少,不太会用也不太会部署,本想研究一下,结果部署了很多次都没有成功,后来看到了这个文档,按照文章中描述的方式,成功了,再次借用一下

原文链接:https://blog.csdn.net/2301_76444133/article/details/150112206?fromshare=blogdetail&sharetype=blogdetail&sharerId=150112206&sharerefer=PC&sharesource=weixin_43920946&sharefrom=from_link

我使用的是原文中的第一个方法。

diffsynth-studio方案(推荐低显存用户)

  • 适用场景:显存≥4G(如RTX 3050),支持Windows/Linux/MacOS。
  • 步骤:
    • 安装依赖:
      git clone https://github.com/modelscope/diffsynth-studio.git
      cd diffsynth-studio
      pip install -e .
      
    • 下载模型(自动或手动):
      • 模型地址:https://www.modelscope.cn/models/MusePublic/Qwen-image
    • 运行推理(示例代码):
      from diffsynth.pipelines.qwen_image import QwenImagePipeline, ModelConfig
      import torch
      
      # 低显存模式(4G显存)
      pipe = QwenImagePipeline.from_pretrained(
      	torch_dtype=torch.bfloat16,
      	device="cuda",
      	model_configs=[
      		ModelConfig(model_id="qwen/qwen-image", origin_file_pattern="transformer/diffusion_pytorch_model*.safetensors", offload_device="cpu"),
      		ModelConfig(model_id="qwen/qwen-image", origin_file_pattern="text_encoder/model*.safetensors", offload_device="cpu"),
      		ModelConfig(model_id="qwen/qwen-image", origin_file_pattern="vae/diffusion_pytorch_model.safetensors", offload_device="cpu"),
      	],
      	tokenizer_config=ModelConfig(model_id="qwen/qwen-image", origin_file_pattern="tokenizer/"),
      )
      pipe.enable_vram_management()  # 启用显存优化
      
      # 生成图像
      prompt = "精致肖像,水下少女,蓝裙飘逸,发丝轻扬,光影透澈,气泡环绕。"
      image = pipe(prompt, seed=0, num_inference_steps=40)
      image.save("output.jpg")
      
      上面给出的是示例代码,我本地的模型存储路径是自定义的,所以我给模型的路径修改了一下。
Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐