Stable Diffusion 绘画入门教程(webui)-ControlNet(Shuffle)

Shuffle(随机洗牌),这个预处理器会把参考图的颜色打乱搅拌到一起,然后重新组合的方式重新生成一张图,可以想象出来这是一个整体风格控制的处理器。

那么问题来了,官方为啥会设计个这样的处理器呢,主要是给懒人用的,不想写提示词或者反推,直接拿原图进行颜色重组组合生成一个风格相近的图就可以了。

如下图,最左边为参考图,中间为搅拌融合的预处理图,最右边的是重新生成的图:

文章目录

一、选大模型

这里用的最常用的anything,并没有什么特殊性

二、写提示词

就是为了省提示词,增加灵感才用这个处理器,提示词:a girl 😒

三、基础参数设置

基础参数设置还是和之前文章一样,长宽可以通过ControlNet中的那个回传按钮回传过来,不用手动填写

另外就是迭代步数,大家可以尝试下,稍微高一点出的图质量会好一些,如果太低可能会出现颜色未完全重组好的图,我这里用的30


四、启用ControlNet

启用ControlNet,参数和预处理器配置如下:

点击生成就可以了(当然,每次生成图像都是不一样的,因为颜色是随机搅拌融合重组的)

小提示:当想生成同类型风格图像但没有灵感时,用这个处理器批量生成是个不错的选择。

相关推荐
阿钱真强道4 天前
23 ComfyUI 实战:AnimateDiff + OpenPose Walking 姿态驱动视频生成
openpose·animatediff·controlnet·comfyui·姿态·walking·动作控制
阿钱真强道4 天前
21 ComfyUI 实战:IP-Adapter + ControlNet 实现人物表情编辑,为什么降权重后更容易“笑出来”
aigc·stable-diffusion·controlnet·comfyui·softedge·ip-adapter·人物表情编辑
阿钱真强道5 天前
20 ComfyUI 实战:用 ControlNet 实现人物表情编辑,让人物“笑起来”的工作流解析
aigc·stable-diffusion·controlnet·comfyui·softedge·ip-adapter·人物表情编辑
宁南山7 天前
比迪丽LoRA模型AE做片段视频素材生成:动态背景与元素创作
stable diffusion·ai绘画·lora模型·视频素材生成
阿钱真强道9 天前
14 ComfyUI 实战:使用 Depth Anything V2 + ControlNet 实现高一致性人像生成
sdxl·controlnet·comfyui·depth anything·工作流实战·深度预处理
日光明媚9 天前
DMD 一步扩散核心原理:从符号定义到梯度推导
人工智能·机器学习·计算机视觉·ai作画·stable diffusion·aigc
baidu_huihui11 天前
ComfyUI 是一款专为 Stable Diffusion 打造的开源可视化操作工具
stable diffusion
李昊哲小课13 天前
Stable Diffusion 保姆级教程|HF 国内镜像配置 + 一键安装 + 本地模型加载 + 完整代码
stable diffusion·hugging face
yumgpkpm13 天前
Qwen3.6正式开源,华为昇腾910B实现高效适配
华为·ai作画·stable diffusion·开源·ai写作·llama·gpu算力
数智工坊14 天前
深度拆解AnomalyAny:异常检测新工作,利用Stable Diffusion生成真实多样异常样本!
人工智能·pytorch·python·stable diffusion