Stable Diffusion绘画 | ControlNet应用-Tile(分块)—tile_colorfix+sharp(分块-固定颜色+锐化)

单纯使用 Canny 生成的图片,仅能保障图片的外轮廓、构图与人物的神态与原图相似,但颜色相差非常大:

生成图片如下:

因此,开启第二个 ControlNet:

生成的图片,整体颜色就能做到与原图相似了:

将控制颜色的 Variation值 提高,能给SD在颜色上更多的发挥空间,同时将控制模式选择「更偏向 ControlNet」:

提示词输入:1girl,red hair,头发的颜色就会融入红色的元素,生成图片如下:

今天先分享到这里~


开启实践: SD绘画 | 为你所做的学习过滤

相关推荐
AKAMAI41 分钟前
Akamai Cloud客户案例 | Avesha 在 Akamai 云上扩展 Kubernetes 解决方案
人工智能·云计算
wasp5201 小时前
AgentScope Java 核心架构深度解析
java·开发语言·人工智能·架构·agentscope
智算菩萨1 小时前
高效多模态大语言模型:从统一框架到训练与推理效率的系统化理论梳理
大数据·人工智能·多模态
free-elcmacom1 小时前
深度学习<4>高效模型架构与优化器的“效率革命”
人工智能·python·深度学习·机器学习·架构
liliangcsdn1 小时前
python模拟beam search优化LLM输出过程
人工智能·python
算法与编程之美1 小时前
深度学习任务中的多层卷积与全连接输出方法
人工智能·深度学习
Deepoch2 小时前
具身智能产业新范式:Deepoc开发板如何破解机器人智能化升级难题
人工智能·科技·机器人·开发板·具身模型·deepoc
浪子不回头4152 小时前
SGLang学习笔记
人工智能·笔记·学习
tap.AI2 小时前
(三)Stable Diffusion 3.5 与 ComfyUI
分布式·stable diffusion
腾讯WeTest2 小时前
范式转移:LLM如何重塑游戏自动化测试的底层逻辑
功能测试·游戏·ai·腾讯wetest