Stable Diffusion绘画 | ControlNet应用-Tile(分块)—tile_colorfix+sharp(分块-固定颜色+锐化)

单纯使用 Canny 生成的图片,仅能保障图片的外轮廓、构图与人物的神态与原图相似,但颜色相差非常大:

生成图片如下:

因此,开启第二个 ControlNet:

生成的图片,整体颜色就能做到与原图相似了:

将控制颜色的 Variation值 提高,能给SD在颜色上更多的发挥空间,同时将控制模式选择「更偏向 ControlNet」:

提示词输入:1girl,red hair,头发的颜色就会融入红色的元素,生成图片如下:

今天先分享到这里~


开启实践: SD绘画 | 为你所做的学习过滤

相关推荐
大公产经晚间消息几秒前
天九企服董事长戈峻出席欧洲经贸峰会“大进步日”
大数据·人工智能·物联网
deephub2 分钟前
为什么标准化要用均值0和方差1?
人工智能·python·机器学习·标准化
饮哉5 分钟前
LLM生成文本每次是把之前所有的token都输入,还是只输入上一个token?
人工智能·大模型
云道轩10 分钟前
Planning Analytics Assistant (AI)简介
人工智能
bleuesprit10 分钟前
Lora训练的safetensor模型合并成GGUF
人工智能·语言模型
沛沛老爹11 分钟前
Web开发者转型AI安全实战:Agent Skills敏感数据脱敏架构设计
java·开发语言·人工智能·安全·rag·skills
bubiyoushang88815 分钟前
基于传统材料力学势能法的健康齿轮时变啮合刚度数值分析
人工智能·算法
玉梅小洋17 分钟前
Unity Muse 完整使用文档:Sprite+Texture专项
unity·ai·游戏引擎
煤炭里de黑猫19 分钟前
使用 PyTorch 实现标准 LSTM 神经网络
人工智能·pytorch·lstm
深度学习lover21 分钟前
<项目代码>yolo毛毛虫识别<目标检测>
人工智能·python·yolo·目标检测·计算机视觉·毛毛虫识别