1.ComfyUI安装

首选安装comfyui,配置环境

可参考我的my-setup.sh脚本修改,一步到位,Mac电脑几乎不用改(记得先执行/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"安装homebrew),其中ROOT="/Users/Zhuanz/Desktop/work/ComfyUI"改成你的想放comyui的绝对路径,运行时需要联网

#!/bin/bash
set -euo pipefail

ROOT="/Users/Zhuanz/Desktop/work/ComfyUI"
VENV="${ROOT}/.venv" # comfyui-env
REPO="${ROOT}" # /ComfyUI
CUSTOM_NODES="${REPO}/custom_nodes"

echo "==> Using ROOT: ${ROOT}"
mkdir -p "${ROOT}"

# 1) Homebrew 依赖(重复执行也没事)
#   uv 建议单独装:brew install uv(也可用官方安装脚本)
if ! command -v brew >/dev/null 2>&1; then
  echo "Homebrew 未安装,请先安装 Homebrew: https://brew.sh/"
  exit 1
fi

brew install cmake protobuf rust python@3.10 git wget uv || true

# 2) 准备 Python 3.10(uv 需要能找到 3.10)
#    如果你只想用 brew 的 python@3.10,这一步通常也能让 uv 找到 3.10;
#    但为了更稳,额外让 uv 安装/确保 3.10 可用:
uv python install 3.10 || true

# 3) 虚拟环境:存在就复用,不存在就创建
if [ -d "${VENV}" ] && [ -x "${VENV}/bin/python" ]; then
  echo "==> Found existing venv: ${VENV}"
else
  echo "==> Creating venv with uv: ${VENV}"
  uv venv "${VENV}" --python 3.10
fi

PY="${VENV}/bin/python"

# 4) ComfyUI 仓库:存在就复用,不存在就 clone
if [ -d "${REPO}/.git" ]; then
  echo "==> Found existing ComfyUI repo: ${REPO}"
else
  echo "==> Cloning ComfyUI into: ${REPO}"
  git clone https://github.com/comfyanonymous/ComfyUI "${REPO}"
fi

cd "${REPO}"

# 5) 安装依赖(用 uv pip 安装到指定 venv)
echo "==> Upgrading pip"
uv pip install --python "${PY}" --upgrade pip

echo "==> Installing torch/torchvision/torchaudio"
uv pip install --python "${PY}" torch torchvision torchaudio

echo "==> Installing ComfyUI requirements"
uv pip install --python "${PY}" -r requirements.txt

echo "==> Pin numpy==1.26.4 (match tutorial workaround)"
uv pip uninstall --python "${PY}" -y numpy || true
uv pip install --python "${PY}" numpy==1.26.4

# 6) 插件:Manager + 汉化
mkdir -p "${CUSTOM_NODES}"
cd "${CUSTOM_NODES}"

if [ -d "${CUSTOM_NODES}/ComfyUI-Manager/.git" ]; then
  echo "==> Found ComfyUI-Manager"
else
  echo "==> Cloning ComfyUI-Manager"
  git clone https://github.com/ltdrdata/ComfyUI-Manager.git
fi

cd "${CUSTOM_NODES}/ComfyUI-Manager"
uv pip install --python "${PY}" -r requirements.txt
uv pip install --python "${PY}" setuptools

cd "${CUSTOM_NODES}"
if [ -d "${CUSTOM_NODES}/AIGODLIKE-COMFYUI-TRANSLATION/.git" ]; then
  echo "==> Found translation plugin"
else
  echo "==> Cloning translation plugin"
  git clone https://github.com/AIGODLIKE/AIGODLIKE-COMFYUI-TRANSLATION.git
fi

echo "✅ ComfyUI + comfyui-env 部署完成"
echo ""
echo "运行方式:"
echo "  cd \"${REPO}\""
# echo "  \"${PY}\" main.py"
echo "source .venv/bin/activate"
echo "uv run main.py"

到https://hf-mirror.com/LarryAIDraw/v1-5-pruned-emaonly/tree/main下载模型,放到相对路径ComfyUI/models/checkpoints中

2.快速入门

2.1常用模型/模块对比

模型 / 模块

核心定位

所属层级

是否可单独加载

核心作用

典型体积

核心作用对象

Diffusion Model

底层算法框架

理论框架

定义正 / 反向扩散流程

无独立文件

Checkpoint

扩散模型工程化包

主模型

集成所有必备模块,独立生成

2-20G

UNet

核心去噪计算引擎

Checkpoint 子模块

反向扩散的核心去噪计算

占 ckpt80% 以上

潜空间噪声特征

CLIP/Text Encoder

文本特征编码器

Checkpoint 子模块

把提示词转化为文本特征

占 ckpt10% 左右

自然语言提示词

VAE

潜空间 / 像素空间转换器

Checkpoint 子模块

编码(像素→潜特征)+ 解码(潜特征→像素)

占 ckpt10% 左右

像素图 / 潜空间特征

LoRA

轻量特征注入插件

配套插件

是(依附主模型)

向 UNet 注入特定特征(人物 / 风格)

10-300MB

UNet

Embedding

轻量文本特征注入插件

配套插件

是(依附主模型)

向 Text Encoder 注入特征

几 KB - 几十 KB

CLIP Text Encoder

ControlNet

几何特征控制插件

配套插件

是(依附主模型)

向 UNet 注入几何控制特征

1-4G

UNet

Hypernetwork

特征增强插件(早期)

配套插件

是(依附主模型)

变换 UNet 中间特征层

100-500MB

UNet

IP-Adapter

图提示词控制插件

配套插件

是(依附主模型)

向 UNet 注入图像参考特征

几百 MB

UNet

Refiner

细节优化模型

配套模型

是(依附主模型)

精细化去噪,提升图像细节

1-5G

主模型生成的潜特征

2.2模板实操

打开http://127.0.0.1:8188/,点击模板

点击快速开始,选择最后一个模板点击

这个模板的工作流是:加载模型 → 写提示词 → 设定尺寸 → 采样生成 → 保存图片

Step 1:加载模型

左上:Load model / Checkpoint

  • 这里选的是:v1-5-pruned-emaonly.ckpt

  • 作用:决定整体画风(写实 / 二次元 / 插画 等)

Step 2:提示词Prompt(对国外模型建议用英文提示词)

1) 正向提示词

用于描述要画的内容或效果等,一般来说越具体越好

2) 反向提示词

用于描述不要画出来的内容或效果等,如text(文字)、 watermark(水印)

Step 3:图片尺寸

  • width:宽度,默认是512,越大会相应增加时间和空间的开销

  • height:高度,默认是512,越大会相应增加时间和空间的开销

  • batch_size:生成图片的数量,默认是1,越大会相应增加时间和空间的开销

核心生成器:K采样器

关键参数:

参数

解释

seed

随机种子(同一 seed = 类似画面,用于复现结果)

steps

从纯噪声图逐步去除噪声、生成清晰图像的迭代次数(通常20~30)。次数太少会导致图像模糊、噪点多、细节缺失,次数过多会使生成时间大幅增加,但效果提升边际递减

cfg

分类器自由引导,控制AI遵守提示词的程度,数值越高,AI 越 “听话”,越低则越自由发挥,常用7–9 

sampler

采样器去除噪声、生成图像的算法,常见类型 & 特点:

  • Euler:最简单、速度最快,适合快速预览,细节一般;

  • Euler a(Euler ancestral):随机性强,创意感足,但稳定性差(同参数多次生成差异大);

  • DPM++ 2M Karras:最常用,平衡速度和细节,生成效果稳定且精致;

  • DDIM:生成速度快,结果可控性强,适合需要精准复现的场景。

denoise

去噪强度,仅用于 “图生图” 场景,控制 AI 保留原图特征的程度,取值范围 0-1,为0时完全保留原图,无任何修改;为1时完全忽略原图,等同于 “文生图”(从头生成)

常用数值场景:

轻微修图(换色调 / 补细节):0.1-0.3;

保留构图改内容(比如把原图的猫换成狗):0.5-0.7;

仅留轮廓重绘:0.8-1.0。

新手一般steps 20 + cfg 8 + Euler即可

VAE 解码(从“草稿”变成“图片”)

是特征到像素的生成过程,解码器会根据潜特征的抽象信息,“创造” 出具体的像素细节(比如潜特征中只有 “猫的轮廓”,解码器会生成猫的毛发、眼睛、胡须等像素细节);

保存图像Save Image

  • filename_prefix:文件名前缀

  • 图片会自动存到 ComfyUI/output 文件夹

点击运行,过一会就可以生成图片,在图片那里点击右键会显示保存图片的选项,点击Save Image就能下载图片

你也可以改其他提示词试试~

3.Qwen-Image-Edit-2511-GGUF 编辑图像

3.1安装ComfyUI-GGUF

点击右上角的Manager,然后点击Custom Nodes Manager

选择ComfyUI-GGUF的1.1.10版本进行安装

出现下面的红字说明安装完成,刷新浏览器就能应用

3.2下载模型

https://hf-mirror.com/unsloth/Qwen-Image-Edit-2511-GGUF/tree/main下载Qwen-Image-Edit-2511-GGUF量化后的扩散模型,这里选择qwen-image-edit-2511-Q4_0.gguf,放到ComfyUI/models/unet

打开链接下载模型,这里选择Qwen-Image-Edit-2511-Lightning-4steps-V1.0-bf16.safetensors,放到ComfyUI/models/loras中
打开链接下载文本编码器,这里选择qwen_2.5_vl_7b_fp8_scaled.safetensors,放到ComfyUI/models/text_encoders中
打开链接下载变分自编码器,选择qwen_image_vae.safetensors,放到ComfyUI/models/vae中

3.3搭建工作流

提前准备两张图放到ComfyUI/input中

到这个链接:

​​​https://raw.githubusercontent.com/Comfy-Org/workflow_templates/refs/heads/main/templates/image_qwen_image_edit_2511.json下载工作流模板

加载工作流

提示缺乏模型,可以关闭,因为没下载原版扩散模型等对应位置

点击打开子图节点,查看具体组件连接,删除UNET加载器

点击节点库,搜索gguf,选择支持GGUF格式的UNET加载器

将Unet Loader (GGUF)移到合适的位置,连接LoRA加载器

放入你的两张图片,输入提示词,只填上面即可,下面的紫灰色分支默认禁用(在json文件中这个节点被设置mode=4 通常表示节点处于“禁用/旁路”状态),这里为了快速查效果和避免内存不足,设置步数为10,CFG=10,如果硬件较好建议按默认

点击运行,最后可以看出效果不错,生成的图片等主体接近原图的机器人和猫,另外下面那条链路没有参与本次执行,因此不会出图。

创作不易,禁止抄袭,转载请附上原文链接及标题

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐