FLUX.2[klein]开源!小香蕉平替,本地部署AI绘画的极简方案
哈喽各位AI绘画爱好者、技术党们!今天给大家带来一个炸裂消息——FLUX.2[klein]正式开源!堪称“小香蕉”的完美平替,速度更快、显存占用更低,消费级显卡就能本地跑,新手也能10分钟搞定部署,话不多说,直接开干!FLUX.2[klein]的开源,彻底降低了AI绘画的本地部署门槛,8G显存就能实现亚秒级生成,还支持图像编辑,无论是个人创作还是小型商用,都非常实用。赶紧动手试试吧!有任何部署问题
文章目录
目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步。想要系统学习AI知识的朋友可以看看我的教程http://blog.csdn.net/jiangjunshow,教程通俗易懂,风趣幽默,从深度学习基础原理到各领域实战应用都有讲解。
前言
哈喽各位AI绘画爱好者、技术党们!今天给大家带来一个炸裂消息——FLUX.2[klein]正式开源!堪称“小香蕉”的完美平替,速度更快、显存占用更低,消费级显卡就能本地跑,新手也能10分钟搞定部署,话不多说,直接开干!
一、FLUX.2[klein]到底香在哪?
FLUX.2[klein]是黑森林实验室(Black Forest Labs)2026年1月最新发布的紧凑型AI绘画模型,主打亚秒级生成+低显存+全能编辑,对比老款FLUX.1和其他开源模型,优势直接拉满:
| 对比项 | FLUX.2[klein](4B版) | FLUX.1 | SDXL 1.0 |
|---|---|---|---|
| 参数规模 | 4B/9B(轻量化) | 12B | 3.5B |
| 显存要求 | 8GB+(RTX4060可跑) | 16GB+ | 10GB+ |
| 生成速度 | 0.5-1秒/张(1024×1024) | 2-3秒/张 | 5-8秒/张 |
| 核心能力 | 文生图+图生图+图像编辑 | 仅文生图 | 文生图+图生图 |
| 授权协议 | Apache-2.0(商用友好) | 非商用 | Apache-2.0 |
简单说:4B版8G显存就能跑,速度比小香蕉快3倍,还能直接编辑图片,商用还不违规,这性价比直接封神!
二、部署前准备:硬件+环境一键搞定
1. 硬件要求(最低配置)
- 显卡:NVIDIA RTX 3060 8GB/4060 8GB及以上(A卡需用ONNX,本文主打N卡)
- 内存:16GB及以上
- 硬盘:预留20GB空间(模型+依赖)
- 系统:Windows10/11 或 Linux(Ubuntu20.04+)
2. 环境安装(3行命令搞定)
先装Python3.10+(官网下载,勾选“Add to PATH”),然后打开CMD/终端,执行以下命令:
# 1. 安装核心依赖(diffusers+transformers+torch,自动匹配CUDA)
pip install -U diffusers transformers torch accelerate safetensors
# 2. 安装图像工具(用于保存/查看图片)
pip install pillow matplotlib
# 3. 安装huggingface工具(下载模型用)
pip install huggingface_hub
小贴士:如果下载慢,可换国内镜像源,在命令后加
-i https://pypi.tuna.tsinghua.edu.cn/simple
三、极简部署方案:2种方式任选(新手首选方式1)
方式1:Python脚本一键运行(纯代码,无界面,最快上手)
步骤1:创建运行脚本
新建一个文本文件,重命名为 flux2_klein_demo.py,复制以下代码:
import torch
from diffusers import Flux2KleinPipeline
from PIL import Image
# 1. 加载模型(4B版,低显存首选;9B版换"black-forest-labs/FLUX.2-klein-9B")
model_id = "black-forest-labs/FLUX.2-klein-4B"
dtype = torch.bfloat16 # 低显存优化,RTX30系可用float16
# 加载管道,自动下载模型(首次运行需等10-20分钟,看网速)
pipe = Flux2KleinPipeline.from_pretrained(
model_id,
torch_dtype=dtype,
cache_dir="./models" # 模型下载到本地models文件夹,避免重复下载
)
# 2. 显存优化(关键!8G显卡必开)
pipe.enable_model_cpu_offload() # 模型部分卸载到CPU,节省显存
# pipe.enable_vae_slicing() # 额外优化,显存紧张可开启
# 3. 生成图片(核心代码)
prompt = "一只戴着墨镜的橘猫,坐在复古摩托车上,赛博朋克风格,高清细节,1024×1024"
negative_prompt = "模糊,低分辨率,畸形,多余肢体,水印"
# 生成参数(新手直接用,高手可微调)
image = pipe(
prompt=prompt,
negative_prompt=negative_prompt,
height=1024,
width=1024,
guidance_scale=4.0, # 提示词遵循度,4-6最佳
num_inference_steps=20, # 步数越少越快,20步足够清晰
generator=torch.Generator("cuda").manual_seed(42) # 固定种子,复现结果
).images[0]
# 4. 保存并查看图片
image.save("flux2_klein_cat.png")
print("图片生成完成!已保存为 flux2_klein_cat.png")
Image.open("flux2_klein_cat.png").show()
步骤2:运行脚本
在脚本所在文件夹打开CMD,执行:
python flux2_klein_demo.py
首次运行会自动下载模型(约16GB),耐心等待即可,后续运行直接生成图片!
方式2:ComfyUI可视化部署(适合喜欢拖拽操作的用户)
步骤1:安装ComfyUI
# 克隆ComfyUI仓库
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
# 安装依赖
pip install -r requirements.txt
步骤2:下载FLUX.2[klein]模型
- 文本编码器:放到
ComfyUI/models/clip/目录
下载地址:https://huggingface.co/black-forest-labs/FLUX.2-klein-4B/resolve/main/qwen_3_4b.safetensors - 扩散模型:放到
ComfyUI/models/unet/目录
下载地址:https://huggingface.co/black-forest-labs/FLUX.2-klein-4B/resolve/main/flux-2-klein-base-4b.safetensors - VAE模型:放到
ComfyUI/models/vae/目录
下载地址:https://huggingface.co/black-forest-labs/FLUX.2-klein-4B/resolve/main/flux2-vae.safetensors
步骤3:启动ComfyUI并加载工作流
# 启动ComfyUI
python main.py
打开浏览器访问 http://127.0.0.1:8188,在模板页面选择「FLUX.2[klein] 4B」工作流,输入提示词即可生成,拖拽式操作,新手也能轻松上手!
四、常见问题&优化技巧
1. 显存不足怎么办?
- 换4B版模型(9B版需12GB+显存)
- 开启
pipe.enable_model_cpu_offload()和pipe.enable_vae_slicing() - 降低图片分辨率(如768×768)
- 减少推理步数(15-20步即可)
2. 模型下载慢/失败?
- 用huggingface镜像:在代码中添加
HF_ENDPOINT=https://hf-mirror.com环境变量 - 手动下载模型文件,放到
./models目录(与代码中cache_dir一致)
3. 生成效果不好?
- 优化提示词:加「高清细节、8K、专业摄影」等词,避免模糊描述
- 调整
guidance_scale(4-6最佳,越大越遵循提示词) - 换9B版模型(效果更好,显存要求更高)
五、总结与展望
FLUX.2[klein]的开源,彻底降低了AI绘画的本地部署门槛,8G显存就能实现亚秒级生成,还支持图像编辑,无论是个人创作还是小型商用,都非常实用。
赶紧动手试试吧!有任何部署问题,欢迎在评论区留言,一起交流进步~
更多推荐



所有评论(0)