stable-diffusion-practice

合规指引

AI 绘画合成文字形体特效

“牛逼”的教程来了!一次学会AI二维码+艺术字+光影光效+创意Logo生成,绝对是B站最详细的Stable Diffusion特效设计流程教学!AI绘画进阶应用_哔哩哔哩_bilibili

用一些东西汇聚成文字形体: Depth Midas + Depth 组合

文字, logo , 二维码都可以

AI 材质艺术字

controlNet 权重越低, 形体会越自由

引导时机影响生成插手的时间

除了处理文字, 还可以用于处理 logo 等任意形体, 艺术字体

|300

--- start-multi-column: ID_e0e8

Number of Columns: 3
Largest Column: standard

--- column-break ---

--- column-break ---

--- end-multi-column

stone,rock,coal,sand,from above,
flower,dappled,sunlight,from above,bunch of flowers,outdoors,grasslands,

Brightness 和 Illumination

controleNet 模型

Brightness

控制亮度, 哪些地方亮, 哪些地方暗

只要文字部分更亮一点, 就可以做到信息的传递

Illumination

更自然, 更柔和

二维码

qr toolkit 可以方便的改变二维码的样式

风格转换

SDXL 自带的风格转换功能

通过 prompt 词来切换不同的风格, 搭配 style selector 即可愉快使用.

重点参数就只有一个, 重绘幅度 0.5-0.7. 0.7 基本是一个阈值, 超过 0.7 之后就和原图非常不像了

切换大模型或者 Lora 模型改变风格

controlNet Tile 模型

Tile

真人化/ 动画化 / 赛博 Coser / 实现风格迁移

AI打开新世界大门!立绘一键“真人化”,还能换皮肤!ControlNet LineArt 线稿上色+换装换背景,Stable Diffusion系统教程_哔哩哔哩_bilibili

controlNet lineArt

control-net

要注意画风偏向的问题

control-net

IP-Adapter 实现换肤, 风格迁移

control-net

InPaint 换背景

启用人物蒙版 + controlNet 局部重绘, 可以加强背景和人物之间的关联

再开启人物 + 背景的 controlNet lineArt 等等, 把背景的形状和人物的形体也都固定下来

AI打开新世界大门!立绘一键“真人化”,还能换皮肤!ControlNet LineArt 线稿上色+换装换背景,Stable Diffusion系统教程_哔哩哔哩_bilibili

LayerDiffusion

github.com/layerdiffusion/sd-forge-layerdiffuse

传统的 ps 工作流中, 图片往往是分层的, 但是 sd 的图片虽然精美却无法分层

controlNet 作者的又一力作. 可以生成透明背景的 png 图片.

带有透明通道的平面素材, 可以广泛应用到平面设计, 游戏制作等各种场景里. 工业化的又一大里程碑

通过 Forge UI 插件可以轻松使用 Layer Diffusion. 全称是 SD WebUI Forge

暂时不支持 Web UI. Forge UI 看起来和 Web UI 差别也不大呀. ComfyUI 到是能用

类似 lora 的形式, 不会有额外的性能负担. 但是最初的版本只支持了 SDXL. 也可以用 SD 1.5 版本的模型, 但是效果会稍微差一点

基本使用

抠图的本质区别是什么

和一些智能抠图的工具不同, 在生成阶段就将透明通道的信息加入了运算.

生成半透明素材

透明玻璃瓶的内部也是有 alpha 通道的

在传统的 ps 等抠图软件, 要实现类似的效果需要结合抠图和混合模式才能实现

生成粒子素材

极大的减轻抠图难度. 说白了, 就是一些抠图比较困难的场景, 都可以使用 layerDiffusion 直接生成

进阶操作

前景和背景以及融合

前景补充背景生成融合图

在 prompt 里输入完整的提示词, 即是 blending 状态的提示词, 会自动补全背景和光影融合

前景与融合图做 Diff 产出背景

在提示词里去掉关于人的描述, 或者加入 no human 等限定词

缺陷

对于透视的理解不够, 人物比例和背景的融合度不足. 需要一些微调

SD 1.5 Anything Together

一次输出三张图. 单次生成需要是 3 的倍数. 因为 sd1.5 语义理解偏弱, 所以需要有三个额外的 prompt 提示框. 上方的提示词, 此时只需要保留一些基本的画质词就好了. 其他可以拆分到下面

Attention Injection 与 Conv Injection

在模型训练的时候, 一个是针对常规注意力层, 另一个是针对卷积层. 参考 github 作者的描述即可

与其他模型搭配

并没有要求. 都可以搭配, 效果都挺好的, 多多抽卡

未来可期

生成多部分的 layer. 或者结合 video , 生成带有透明通道的 live 2D 动图, 3d 模型等等

AI 写真 EasyPhoto

lora 训练

stable-diffusion-term

SD 与 PS 结合使用

反复导入导出太浪费时间了

stable-diffusion-term

多人场景

AI再进化,这次竟然学会摄影了!一秒生成胶片风、拍立得,还能智能“修脸”!Stable Diffusion AI绘画真实系人像模型+LoRA推荐_哔哩哔哩_bilibili

AI 上色, AI 照片修复

放大

--- start-multi-column: ID_adrm

Number of Columns: 2
Largest Column: right

--- column-break ---

--- end-multi-column

Tiled diffusion 超分放大, 重构容易造成一些内容的变形

stable SR 真实系的超分扩展

上色

--- start-multi-column: ID_kztx

Number of Columns: 2
Largest Column: standard

--- column-break ---

--- end-multi-column

传统的上色效果还是生图. 不如 controlNet Recolor.

Recolor 模型的作用原理还是基于扩散对图片内容进行重新生成, 但它会根据黑白照片的亮度 (Luminance) 或者强度 (Intensity) 来指导新的图片进行生成. 生成完了之后, 它会将彩色版本的图片盖在原来的这张图片上 (以某种方式混合), 从而保留原有形象轮廓, 做到只变颜色

使用 sketch 来上色

即使不是黑白问题也可以 recolor

需要结合智能画布来做细节处理, 难度很大, 不是光靠 ai 就可以完美处理的. 很多细节都只能导入 ps 中做优化

我用AI修复了50年前的亚运会老照片!Stable Diffusion智能上色+高清修复教程!StableSR + ControlNetTile&Recolor_哔哩哔哩_bilibili

漫画上色

AI 电商 / AI 服装设计 / AI 模特

靠AI开一家服装店?超详细AI衣服款式设计+“AI模特”换装教程 | Stable Diffusion商业落地实践&男女装电商应用,一秒生成“摄影级”产品图_哔哩哔哩_bilibili

AI 印花图案设计

logo lora redmond 生成的图片更像是一个简单背景下的小图案

Logo.Redmond - Logo Lora for SD XL 1.0 - v2.0 | Stable Diffusion LoRA | Civitai

|300

A logo of a boy and a girl in astronaut costume traveling around the universe, <lora:LogoRedmond_LogoRedAF:1>,
logo, LogoRedAF, minimalist color, (isolated on white background, simple background)
Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 716255618, Size: 1024x1024, Model hash: 31e35c80fc, Model: Stable Diffusion SDXL_1.0, Style Selector Enabled: True, Style Selector Randomize: False, Style Selector Style: base, Version: v1.5.1

style selector

作用的本质是往提示词里添加了一系列的前缀词, 后缀词, 从而调用 SDXL 模型原生的艺术风格

全自动抽卡

AI 服装设计

服装设计其实很多时候需要的是灵感, 而 AI 最不缺的就是灵感. 在疯狂抽卡的过程中, 一个又一个灵感会不断迸发出来

concept art (fashion costume design sheet, three views, multi-angle display, clothing design, blueprint),An elegant cocktail dress with a sweetheart neckline,lace details,and a pencil skirt,. digital artwork,illustrative,painterly,matte painting,highly detailed,

--- start-multi-column: ID_cgqx

Number of Columns: 3
Largest Column: standard

--- column-break ---

--- column-break ---

--- end-multi-column

Clothes Wildcards

https://civitai.com/models/73184/clothes-wildcards

wildCard 由其他人为你准备好的提示词合集.

服装 wildCard, 使用通配符作为 prompt, 拉大生成批次, 就会随机从通配符选择 prompt 生成

配色

https://civitai.com/models/122976/various-wildcards

在生成了满意的服装之后, 固定 seed, 单批数量拉大. (而不是批次拉大) 通过配色 wildscard 来抽卡. 注意将颜色通配符放在服装款式之前组合为一个完整的 prompt

best quality,masterpiece,detailed,highres,simple background,white background,no humans,(__variousWildcards_v11/colors/Basecolors__) trench coat,

展望与局限性

除了外观和配色, 还需要考虑衣服的材料, 结构, 等等很多的东西. 这些不是一张像模像样的效果图就可以解决的. 更多还是提供灵感

做图案, 做款式, 挖掘灵感

AI 模特

靠AI开一家服装店?超详细AI衣服款式设计+“AI模特”换装教程 | Stable Diffusion商业落地实践&男女装电商应用,一秒生成“摄影级”产品图_哔哩哔哩_bilibili

正面平铺产品图, 结合 controlNet

但是很呆板, 模特动作很僵硬, 无法体现模特的身材

--- start-multi-column: ID_emum

Number of Columns: 3
Largest Column: standard

--- column-break ---

--- column-break ---

--- end-multi-column

最好的方式是真的把衣服穿到身上. 然后拍照重绘

AI 换模特, 用 ai 补足模特的不足, 可以用更便宜的模特. 或者用人体模型把衣服套上就行了

--- start-multi-column: ID_aghc

Number of Columns: 3
Largest Column: standard

--- column-break ---

--- column-break ---

--- end-multi-column

最大的问题还是生图与实物不符, 所以需要配合蒙版抠出衣服并且谨慎使用

控制人物一致性

说白了就是脸要一致, 身材大差不差就行

二次元只要发色, 瞳色, 肤色, 发型一致, 基本上就区分不出来饿了

凭空造人

利用名人的面部确实效果不错,但是我们有时候也不太想这么去做,一方面有局限,另一方面也有潜在危险,所以如果能在直接生成不存在的人物同时还能保持一致性的话,就比较理想了。

AI 绘图的玩家们在后面的尝试中发现:其实我们只要给定一个不存在的(凭空创造的)名字,也能够实现面部的一致性。

比如,我们乱编一个名字叫做 Jauny Doey:

1girl, [Jauny Doey], ((dressed in detailed rusty silver armor)), upper body, studio light, medieval age armor, angry, black hair, brown eyes, high quality, ((battlefield background)), blurry background,
Negative prompt: helmet
Steps: 30, Sampler: Euler a, CFG scale: 10, Seed: 1151986892, Face restoration: CodeFormer, Size: 768x512, Model hash: 9aba26abdf, Model: deliberate_v2, Clip skip: 2, ENSD: 31337

就可以生成这个独特的角色

--- start-multi-column: ID_7fpj

Number of Columns: 3
Largest Column: standard

--- column-break ---

--- column-break ---

--- end-multi-column

ControlNet

Stable Diffusion 制作一致性角色差异姿势_哔哩哔哩_bilibili

人物一致性:7分钟掌握ComfyUI InstantID x 云端一键克隆_哔哩哔哩_bilibili

control-net

control-net

control-net

Lora

【Stable Diffusion】角色设计的福音!绘制一致性多角度头像 - UIED用户体验学习平台

🐼 stable diffusion角色设计 用Controlnet分别在SD WEBUI和ComfyUI中绘制多角度人像的方法 - YouTube

最佳解决方案一定是训练 lora. 其他方案都是一些在特定场景可以发挥作用的控制而已.

用到最后还得是 lora 和 reactor。其他的感觉都一般般。

PulID

ReActor

对比

faceid 出现的最早, 效果也不赖, 主要是显存依赖小

instantdid 有的人认为是效果最好的, 但是显存依赖比较大, 跑起来很慢

IC-light

GitHub - lllyasviel/IC-Light: More relighting!

知乎 IC-Light 介绍

IC-Light 控制光源位置 替换背景 ComfyUI工作流_哔哩哔哩_bilibili

IC-Light + IPAdapter 控制光源位置 ComfyUI工作流_哔哩哔哩_bilibili

【独家】IC-LIGHT换指定背景时特别假?优化方法来啦!_哔哩哔哩_bilibili

cinematic lighting 电影光
cinematic lighting动感光
volumetric lighting体积光
mood lighting气氛光
bright明亮
Soft illumination柔光照明
soft lights瑞光千条
rays of shimmering light闪烁的光线
Crepuscular Ray云隙光(耶稣光)
bioluminescence生物发光
bisexual lighting气氛光
Rembrandt Lighting人物的45度角侧向光
Split Lighting高对比的侧面光
front lighting正面光顺光
Back lighting 逆光
clean background trending 斜逆光
rimlights边缘光
global illuminations 全局光
Warming lighting暖光灯
Natural lighting 戏剧灯光

加速出图的手段

硬件层的加速就是和 英伟达或者 amd 合作的各种手段: tensorRT

ui 层的加速就是 comfyUI 了

模型层的加速: xl + lora + KSampler 超越LCM,TCD登场!盘点Stable diffusion加速出图四大法宝!_哔哩哔哩_bilibili

sdxl lightning 模型. 可以加速出图

怎么把内存当显存用?

Local Latent Couple

用来画 cp 的