Stable Diffusion 绘画入门教程(webui)-ControlNet(深度Depth)

上篇文章介绍了线稿约束,这篇文章介绍下深度Depth

文章目录

顾名思义,就是把原图预处理为深度图,而深度图可以区分出图像中各元素的远近关系,那么啥事深度图?下面就是

来看下怎么用吧,依然是之前的流程

一、选大模型

这里我随便用了一个大模型,生成出来也不差,不过大家可以去C站,或者是国内的模型网站下载对应风格的大模型,这样生成出来的会更加符合预期,不知道哪里的小伙伴参考之前的文章《webui绘画入门教程

我这里还是用的之前的二次元模型:

二、写提示词

按你脑海里想要的场景风格描述出来,然后用翻译翻译为英文

我这里是:


三、基础参数设置

基础参数设置还是和上篇文章一样,除了长宽,其他我都默认的,这里大家可以自行调试。

长宽可以通过ControlNet中的那个回传按钮回传过来,不用手动填写哦。


四、启用ControlNet

到这里,大家应该比较熟了,我就直接上图了,点击预处理器右边的爆炸按钮可以看到预处理结果预览图哦,也就是上边放的深度图

最后出图效果:

另外,这个处理器不局限于室内、建筑设计、人物等也是可以用的,大家自行尝试感受下吧。

相关推荐
北上ing6 小时前
从FP32到BF16,再到混合精度的全景解析
人工智能·pytorch·深度学习·计算机视觉·stable diffusion
源客z1 天前
搭建Stable Diffusion图像生成系统实现通过网址访问(Ngrok+Flask实现项目系统公网测试,轻量易部署)
stable diffusion
源客z2 天前
搭建 Stable Diffusion 图像生成系统并通过 Ngrok 暴露到公网(实现本地系统网络访问)——项目记录
stable diffusion
朴拙数科4 天前
Stable Diffusion秋叶整合包V4独立版Python本地API连接指南
开发语言·python·stable diffusion
璇转的鱼5 天前
爆肝整理!Stable Diffusion的完全使用手册(二)
人工智能·ai作画·stable diffusion·aigc
曲幽6 天前
Stable Diffusion LoRA模型加载实现风格自由
python·ai·stable diffusion·lora·文生图·diffusers
nan_black8 天前
在Pycharm配置stable diffusion环境(使用conda虚拟环境)
stable diffusion·pycharm·conda
AI绘画咪酱8 天前
Stable Diffusion【进阶篇】:如何实现人脸一致
人工智能·深度学习·学习·机器学习·ai作画·stable diffusion
AIGC-Lison9 天前
AI绘画SD中,如何保持生成人物角色脸部一致?Stable Diffusion精准控制AI人像一致性两种实用方法教程!
人工智能·ai作画·stable diffusion·midjourney·sd
AI绘画咪酱10 天前
SD教程|巧用Stable Diffusion,实现不同风格的LOGO设计|实战篇幅,建议收藏!
人工智能·学习·ai作画·stable diffusion·sd