Stable Diffusion 绘画入门教程(webui)-ControlNet(Seg)

上篇文章介绍了深度Depth,这篇文章介绍下seg(Segmentation)

意思为语义分割, 通俗理解就是把图中的不同物体元素按类别不同,标为不同的颜色,不同的颜色代表不同的元素类别,如下图,左边为原图,右边就是语义分割后的预览图(还是拿之前的房子举例):

那么有什么玩法呢,如下图,我们可以保持图中物体类型不变,完全给他换一种风格:

详细步骤,和前几篇类似,不再赘述:

一、选大模型

我这里用的大模型是"anything-v5-PrtRE.safetensors",选用不同模型生成效果会有区别,可以自己找喜欢的风格的大模型使用

二、写提示词

我这里主要写了一些画质要求,可以根据自己喜好,寻找合适的大模型或者lora来进行控制风格哦。

三、基础参数设置

基础参数设置还是和上篇文章一样,除了长宽,其他我都默认的,这里大家可以自行调试。

长宽可以通过ControlNet中的那个回传按钮回传过来,不用手动填写哦。


四、启用ControlNet

到这里,大家应该比较熟了,我就直接上图了,选择Segmentation(语义分割)后模型和预处理器会自动加载,预处理器有四种,我一般都默认足够用,感兴趣可以都尝试下,功能一样只是生成出的图会有些差异:


点击生成就可以了:

五、颜色-含义

参考 ControlNet中分享的下载内容 中有一个大神分享的pdf,里边列了不同颜色代表的不同含义,我这里只截图部分示意,详细参考大神分享的内容

有了这个颜色代表啥内容,可以在语义分割图中,手动绘制想要的内容,比如在房子中添加一个人,人的颜色是#96053d,那么用这个颜色的画笔手动绘制一个人像到房屋的场景中,最后可以在场景中添加上人像,当然添加其他内容也是可以的,颜色对照就好,这样的话控制性就会强很多啦,大家自己去试试吧。

相关推荐
北上ing1 天前
从FP32到BF16,再到混合精度的全景解析
人工智能·pytorch·深度学习·计算机视觉·stable diffusion
源客z3 天前
搭建Stable Diffusion图像生成系统实现通过网址访问(Ngrok+Flask实现项目系统公网测试,轻量易部署)
stable diffusion
源客z3 天前
搭建 Stable Diffusion 图像生成系统并通过 Ngrok 暴露到公网(实现本地系统网络访问)——项目记录
stable diffusion
朴拙数科5 天前
Stable Diffusion秋叶整合包V4独立版Python本地API连接指南
开发语言·python·stable diffusion
璇转的鱼6 天前
爆肝整理!Stable Diffusion的完全使用手册(二)
人工智能·ai作画·stable diffusion·aigc
曲幽7 天前
Stable Diffusion LoRA模型加载实现风格自由
python·ai·stable diffusion·lora·文生图·diffusers
nan_black9 天前
在Pycharm配置stable diffusion环境(使用conda虚拟环境)
stable diffusion·pycharm·conda
AI绘画咪酱9 天前
Stable Diffusion【进阶篇】:如何实现人脸一致
人工智能·深度学习·学习·机器学习·ai作画·stable diffusion
AIGC-Lison10 天前
AI绘画SD中,如何保持生成人物角色脸部一致?Stable Diffusion精准控制AI人像一致性两种实用方法教程!
人工智能·ai作画·stable diffusion·midjourney·sd
AI绘画咪酱11 天前
SD教程|巧用Stable Diffusion,实现不同风格的LOGO设计|实战篇幅,建议收藏!
人工智能·学习·ai作画·stable diffusion·sd