AI绘画小白逆袭指南:用Stable Diffusion三天出图接单(附避坑秘
这东西上手门槛其实不高,难的是坚持试错。别指望第一次就画出《三体》封面,先从"一只坐在窗台的橘猫"开始。记住:AI不是替代你创作,而是帮你把脑洞变成像素。现在,关掉这篇文章,去装软件吧,你离发朋友圈炫技就差一次蓝屏重启的距离。对了,万一真蓝屏了,别找我,找显卡驱动去~
AI绘画小白逆袭指南:用Stable Diffusion三天出图接单(附避坑秘
AI绘画小白逆袭指南:用Stable Diffusion三天出图接单(附避坑秘籍)
引言:别光点赞了,你也可以!
最近刷朋友圈是不是又被一堆"AI画的"刷屏?什么赛博朋克猫、古风小姐姐、还有那种看起来像真人的头像,评论区一水儿的"哇好厉害"“这是怎么弄的”。别光在那儿点赞了,其实你也能搞!真的,这玩意儿真没你想的那么玄乎。
今天咱们就聊聊怎么用最火的Stable Diffusion,从装软件到出作品,再到怎么靠它赚点奶茶钱。三天时间,足够你从"这是啥"到"我靠这也能卖钱?"。
Stable Diffusion到底是个啥玩意儿
先别被这名字吓住,Stable Diffusion(后面简称SD)说白了就是个能"听懂人话"的画画机器人。你说"赛博朋克猫骑机车",它就能给你整出来一张图。你说"古风美女站在桃花树下",它也能画。
背后原理?不用深究,知道它靠一堆开源模型+你的显卡硬扛就行。重点是——免费、本地跑、不联网也行!不像某些在线工具,画几张图就开始收你钱,SD是你下载到电脑里,想画多少画多少。
装软件这事儿,说难也难,说简单也简单
Windows用户看过来
别慌,有整合包!推荐用B站秋叶大佬的整合包,一键安装,省心省力。但要注意几个坑:
-
路径别带中文!这真的很多人翻车,什么"D:\AI绘画\stable-diffusion"这种路径,十有八九会出问题。老老实实用英文路径,比如"D:\SDWebUI"。
-
显存要够。最低6G起步,4G也能跑但得调参数。怎么查显存?右键桌面→NVIDIA控制面板→帮助→系统信息。
-
Python版本要对。整合包自带Python,但如果你有系统Python,可能会冲突。建议卸载系统Python,让整合包自己装。
Mac用户别哭
M系列芯片也能跑,但得绕点路。推荐用Diffusion Bee这个App,虽然功能没完整版多,但胜在简单。安装命令:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
brew install --cask diffusionbee
Linux老哥最舒服
命令行选手直接上:
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
./webui.sh
模型下载,别一上来就all in
新手最容易犯的错:看到模型就下载,硬盘塞满了,脑子也炸了。
推荐这几个够用一阵了:
Anything V5:二次元稳如老狗,画萌妹首选
https://huggingface.co/andite/anything-v5.0/resolve/main/anything-v5-Pruned.ckpt
Realistic Vision:真人像神器,但别干坏事
https://huggingface.co/SG161222/Realistic_Vision_V5.1_noVAE/resolve/main/Realistic_Vision_V5.1-inpainting.safetensors
DreamShaper:风格百搭,啥都能画
https://huggingface.co/Lykon/DreamShaper/resolve/main/DreamShaper_8_pruned.safetensors
下载完放哪?Windows在models\Stable-diffusion文件夹,Mac在~/DiffusionBee/models。
提示词才是灵魂,不会写等于白搭
模型再强,不会写提示词等于给厨师一堆食材但不说想吃什么。
正面提示词怎么写?
别写"画个美女",太笼统了。得具体:
(masterpiece:1.2), (best quality), (ultra-detailed), 1girl, beautiful detailed eyes, detailed face, silver hair, long hair, flowing hair, japanese clothes, kimono, cherry blossoms, falling petals, detailed background, looking at viewer, upper body, outdoors, day, soft lighting, cinematic composition
看到没?从画质、人物、服装、场景、光线全安排上。
负面提示词别偷懒
这玩意儿能把AI跑偏的拉回来:
(worst quality:2), (low quality:2), (normal quality:2), lowres, bad anatomy, bad hands, normal quality, ((monochrome)), ((grayscale)), collapsed eyeshadow, multiple limbs, bad teeth, ugly, tiling, poorly drawn hands, poorly drawn feet, poorly drawn face, extra fingers, extra limbs, extra arms, extra legs, fused fingers, too many fingers, long neck, cross-eyed, mutated hands, bad body, bad proportions, gross proportions, malformed limbs, missing arms, missing legs, extra digit, fewer digits, fused digit, (mutated hands and fingers:1.3), (mutation:1.3), (deformed:1.3), blurry, bad anatomy, disfigured, poorly drawn face, mutation, mutated, extra limb, ugly, disgusting, poorly drawn hands, missing limb, floating limbs, disconnected limbs, malformed hands, blur, out of focus, long neck, long body, (((mutated hands and fingers))), blender, doll, cropped, out of frame
别嫌长,复制粘贴的事儿。
ControlNet,给AI套上缰绳
这玩意儿能让你控制姿势、线稿、景深,相当于给AI套上缰绳,指哪打哪。
安装ControlNet
在WebUI的"扩展"标签页,点击"从网址安装",输入:
https://github.com/Mikubill/sd-webui-controlnet
重启WebUI,看到ControlNet选项卡就说明装好了。
实战:让AI按你的姿势画图
- 找一张参考图,比如动漫人物姿势
- 在ControlNet里上传这张图
- 选择"openpose"预处理器
- 写提示词:“1girl, school uniform, classroom background”
- 生成!
AI会保持参考图的姿势,但按你的提示词换衣服和背景。
踩坑现场,比画过的图还多
显存爆了怎么办?
看到"CUDA out of memory"别慌,加启动参数:
--medvram --always-batch-cond-uncond --xformers
Windows在webui-user.bat里改:
@echo off
set PYTHON=
set GIT=
set VENV_DIR=
set COMMANDLINE_ARGS=--medvram --always-batch-cond-uncond --xformers
call webui.bat
生成速度慢如蜗牛?
- 降分辨率,512x512先试试
- 换小模型,别用大体积的
- 开xformers加速:
--xformers
图片总糊?
检查VAE!很多模型需要配套的VAE文件。下载后放models\VAE文件夹,在设置里选对就行。
最离谱的坑
有人把模型放百度网盘同步文件夹里,结果读取失败…别笑,真有人这么干过。模型文件放本地硬盘,别整云同步那些花活。
怎么靠这个搞点事情?
别只顾着玩自拍变油画,想想实际用途:
给小说配插图
写网文的朋友有福了,主角长啥样终于能可视化:
# 批量生成角色插图脚本
import os
import requests
import json
def generate_character_image(character_desc, output_folder):
url = "http://127.0.0.1:7860/sdapi/v1/txt2img"
payload = {
"prompt": f"(masterpiece), (best quality), {character_desc}, detailed face, beautiful eyes, cinematic lighting",
"negative_prompt": "bad anatomy, bad hands, extra fingers, ugly",
"steps": 30,
"cfg_scale": 7,
"width": 512,
"height": 768,
"seed": -1
}
response = requests.post(url, json=payload)
r = response.json()
# 保存图片
import base64
from PIL import Image
from io import BytesIO
image = Image.open(BytesIO(base64.b64decode(r['images'][0])))
image.save(f"{output_folder}/{character_desc[:20]}.png")
# 批量生成
characters = [
"black hair, red eyes, male, warrior, armor",
"blonde hair, blue eyes, female, mage, robe",
"silver hair, purple eyes, elf, archer, leather clothes"
]
for char in characters:
generate_character_image(char, "novel_characters")
做T恤图案
生成复古风格图案,上淘宝找定制T恤的店,中间商赚差价:
prompt: vintage sunset, palm trees, retro wave, neon colors, "WEEKEND VIBES", 80s aesthetic, distressed texture
电商模特图
做无货源电商的福音,不用真人模特:
prompt: (masterpiece), beautiful woman, fashion photography, wearing white summer dress, standing, full body, professional lighting, white background, looking at camera
然后换不同衣服描述,批量生成。
隐藏技巧,一般人我不告诉他
img2img局部重绘
手画残了?圈起来重新画:
- 在img2img里上传图片
- 用画笔工具涂黑手
- 写提示词:“detailed hand, perfect fingers”
- 重绘幅度0.5-0.7
- 生成!
高清修复不糊图
先生成小图,再用SD放大:
# 高清修复脚本
import cv2
import numpy as np
def upscale_with_sd(input_image_path, output_path):
# 先读图
img = cv2.imread(input_image_path)
height, width = img.shape[:2]
# 用img2img放大
url = "http://127.0.0.1:7860/sdapi/v1/img2img"
# 编码图片
_, img_encoded = cv2.imencode('.png', img)
img_base64 = base64.b64encode(img_encoded).decode('utf-8')
payload = {
"init_images": [img_base64],
"prompt": "(masterpiece), (best quality), ultra-detailed", # 保持原风格
"steps": 20,
"cfg_scale": 7,
"width": width * 2, # 放大2倍
"height": height * 2,
"denoising_strength": 0.3, # 重绘幅度别太大
}
response = requests.post(url, json=payload)
r = response.json()
# 解码保存
upscaled_img = Image.open(BytesIO(base64.b64decode(r['images'][0])))
upscaled_img.save(output_path)
常用参数存Style
在WebUI右边,调好参数后点"保存样式",下次直接调用。比如:
- 二次元风格:Steps 28, CFG 7, 采样DPM++ 2M Karras
- 写实风格:Steps 35, CFG 8, 采样DPM++ SDE Karras
AnimateDiff搞动图
装个扩展就能让SD生成GIF:
https://github.com/continue-revolution/sd-webui-animatediff
然后提示词写:
1girl, dancing, cherry blossoms falling, (masterpiece), (best quality), 8k, ultra-detailed
帧数别设太高,8-16帧就行,不然生成到天荒地老。
最后唠叨两句
这东西上手门槛其实不高,难的是坚持试错。别指望第一次就画出《三体》封面,先从"一只坐在窗台的橘猫"开始。
记住:AI不是替代你创作,而是帮你把脑洞变成像素。现在,关掉这篇文章,去装软件吧,你离发朋友圈炫技就差一次蓝屏重启的距离。
对了,万一真蓝屏了,别找我,找显卡驱动去~

更多推荐



所有评论(0)