目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步。想要系统学习AI知识的朋友可以看看我的教程http://blog.csdn.net/jiangjunshow,教程通俗易懂,风趣幽默,从深度学习基础原理到各领域实战应用都有讲解。

前言

哈喽各位AI绘画爱好者、技术党们!今天给大家带来一个炸裂消息——FLUX.2[klein]正式开源!堪称“小香蕉”的完美平替,速度更快、显存占用更低,消费级显卡就能本地跑,新手也能10分钟搞定部署,话不多说,直接开干!

一、FLUX.2[klein]到底香在哪?

FLUX.2[klein]是黑森林实验室(Black Forest Labs)2026年1月最新发布的紧凑型AI绘画模型,主打亚秒级生成+低显存+全能编辑,对比老款FLUX.1和其他开源模型,优势直接拉满:

对比项 FLUX.2[klein](4B版) FLUX.1 SDXL 1.0
参数规模 4B/9B(轻量化) 12B 3.5B
显存要求 8GB+(RTX4060可跑) 16GB+ 10GB+
生成速度 0.5-1秒/张(1024×1024) 2-3秒/张 5-8秒/张
核心能力 文生图+图生图+图像编辑 仅文生图 文生图+图生图
授权协议 Apache-2.0(商用友好) 非商用 Apache-2.0

简单说:4B版8G显存就能跑,速度比小香蕉快3倍,还能直接编辑图片,商用还不违规,这性价比直接封神!

二、部署前准备:硬件+环境一键搞定

1. 硬件要求(最低配置)

  • 显卡:NVIDIA RTX 3060 8GB/4060 8GB及以上(A卡需用ONNX,本文主打N卡)
  • 内存:16GB及以上
  • 硬盘:预留20GB空间(模型+依赖)
  • 系统:Windows10/11 或 Linux(Ubuntu20.04+)

2. 环境安装(3行命令搞定)

先装Python3.10+(官网下载,勾选“Add to PATH”),然后打开CMD/终端,执行以下命令:

# 1. 安装核心依赖(diffusers+transformers+torch,自动匹配CUDA)
pip install -U diffusers transformers torch accelerate safetensors

# 2. 安装图像工具(用于保存/查看图片)
pip install pillow matplotlib

# 3. 安装huggingface工具(下载模型用)
pip install huggingface_hub

小贴士:如果下载慢,可换国内镜像源,在命令后加 -i https://pypi.tuna.tsinghua.edu.cn/simple

三、极简部署方案:2种方式任选(新手首选方式1)

方式1:Python脚本一键运行(纯代码,无界面,最快上手)

步骤1:创建运行脚本

新建一个文本文件,重命名为 flux2_klein_demo.py,复制以下代码:

import torch
from diffusers import Flux2KleinPipeline
from PIL import Image

# 1. 加载模型(4B版,低显存首选;9B版换"black-forest-labs/FLUX.2-klein-9B")
model_id = "black-forest-labs/FLUX.2-klein-4B"
dtype = torch.bfloat16  # 低显存优化,RTX30系可用float16

# 加载管道,自动下载模型(首次运行需等10-20分钟,看网速)
pipe = Flux2KleinPipeline.from_pretrained(
    model_id,
    torch_dtype=dtype,
    cache_dir="./models"  # 模型下载到本地models文件夹,避免重复下载
)

# 2. 显存优化(关键!8G显卡必开)
pipe.enable_model_cpu_offload()  # 模型部分卸载到CPU,节省显存
# pipe.enable_vae_slicing()  # 额外优化,显存紧张可开启

# 3. 生成图片(核心代码)
prompt = "一只戴着墨镜的橘猫,坐在复古摩托车上,赛博朋克风格,高清细节,1024×1024"
negative_prompt = "模糊,低分辨率,畸形,多余肢体,水印"

# 生成参数(新手直接用,高手可微调)
image = pipe(
    prompt=prompt,
    negative_prompt=negative_prompt,
    height=1024,
    width=1024,
    guidance_scale=4.0,  # 提示词遵循度,4-6最佳
    num_inference_steps=20,  # 步数越少越快,20步足够清晰
    generator=torch.Generator("cuda").manual_seed(42)  # 固定种子,复现结果
).images[0]

# 4. 保存并查看图片
image.save("flux2_klein_cat.png")
print("图片生成完成!已保存为 flux2_klein_cat.png")
Image.open("flux2_klein_cat.png").show()
步骤2:运行脚本

在脚本所在文件夹打开CMD,执行:

python flux2_klein_demo.py

首次运行会自动下载模型(约16GB),耐心等待即可,后续运行直接生成图片!

方式2:ComfyUI可视化部署(适合喜欢拖拽操作的用户)

步骤1:安装ComfyUI
# 克隆ComfyUI仓库
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI

# 安装依赖
pip install -r requirements.txt
步骤2:下载FLUX.2[klein]模型
  • 文本编码器:放到 ComfyUI/models/clip/ 目录
    下载地址:https://huggingface.co/black-forest-labs/FLUX.2-klein-4B/resolve/main/qwen_3_4b.safetensors
  • 扩散模型:放到 ComfyUI/models/unet/ 目录
    下载地址:https://huggingface.co/black-forest-labs/FLUX.2-klein-4B/resolve/main/flux-2-klein-base-4b.safetensors
  • VAE模型:放到 ComfyUI/models/vae/ 目录
    下载地址:https://huggingface.co/black-forest-labs/FLUX.2-klein-4B/resolve/main/flux2-vae.safetensors
步骤3:启动ComfyUI并加载工作流
# 启动ComfyUI
python main.py

打开浏览器访问 http://127.0.0.1:8188,在模板页面选择「FLUX.2[klein] 4B」工作流,输入提示词即可生成,拖拽式操作,新手也能轻松上手!

四、常见问题&优化技巧

1. 显存不足怎么办?

  • 换4B版模型(9B版需12GB+显存)
  • 开启 pipe.enable_model_cpu_offload()pipe.enable_vae_slicing()
  • 降低图片分辨率(如768×768)
  • 减少推理步数(15-20步即可)

2. 模型下载慢/失败?

  • 用huggingface镜像:在代码中添加 HF_ENDPOINT=https://hf-mirror.com 环境变量
  • 手动下载模型文件,放到 ./models 目录(与代码中cache_dir一致)

3. 生成效果不好?

  • 优化提示词:加「高清细节、8K、专业摄影」等词,避免模糊描述
  • 调整 guidance_scale(4-6最佳,越大越遵循提示词)
  • 换9B版模型(效果更好,显存要求更高)

五、总结与展望

FLUX.2[klein]的开源,彻底降低了AI绘画的本地部署门槛,8G显存就能实现亚秒级生成,还支持图像编辑,无论是个人创作还是小型商用,都非常实用。

赶紧动手试试吧!有任何部署问题,欢迎在评论区留言,一起交流进步~

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐