Stable Diffusion 绘画入门教程(webui)-ControlNet(深度Depth)

上篇文章介绍了线稿约束,这篇文章介绍下深度Depth

文章目录

顾名思义,就是把原图预处理为深度图,而深度图可以区分出图像中各元素的远近关系,那么啥事深度图?下面就是

来看下怎么用吧,依然是之前的流程

一、选大模型

这里我随便用了一个大模型,生成出来也不差,不过大家可以去C站,或者是国内的模型网站下载对应风格的大模型,这样生成出来的会更加符合预期,不知道哪里的小伙伴参考之前的文章《webui绘画入门教程

我这里还是用的之前的二次元模型:

二、写提示词

按你脑海里想要的场景风格描述出来,然后用翻译翻译为英文

我这里是:


三、基础参数设置

基础参数设置还是和上篇文章一样,除了长宽,其他我都默认的,这里大家可以自行调试。

长宽可以通过ControlNet中的那个回传按钮回传过来,不用手动填写哦。


四、启用ControlNet

到这里,大家应该比较熟了,我就直接上图了,点击预处理器右边的爆炸按钮可以看到预处理结果预览图哦,也就是上边放的深度图

最后出图效果:

另外,这个处理器不局限于室内、建筑设计、人物等也是可以用的,大家自行尝试感受下吧。

相关推荐
码农进厂打螺丝10 小时前
Stable Diffusion 3.5 FP8:量化优化与部署实践
人工智能·计算机视觉·stable diffusion
无心水16 小时前
【Stable Diffusion 3.5 FP8】8、生产级保障:Stable Diffusion 3.5 FP8 伦理安全与问题排查
人工智能·python·安全·docker·stable diffusion·ai镜像开发·镜像实战开发
tap.AI17 小时前
(五)Stable Diffusion 3.5-LoRA 适配、ControlNet 与模型微调
人工智能·stable diffusion
想你依然心痛17 小时前
AI镜像开发实战:Stable Diffusion 3.5 FP8文生图技术深度解析与应用探索
人工智能·stable diffusion
weixin_402939991 天前
【大模型】stable-diffusion-3.0和3.5模型训练
深度学习·stable diffusion
tap.AI2 天前
(四)Stable Diffusion 3.5-WebUI Forge 与 SwarmUI 实战
stable diffusion
lbb 小魔仙2 天前
FP8赋能高效生成:Stable Diffusion 3.5架构解析与落地优化指南
stable diffusion·架构
xueyongfu2 天前
从Diffusion到VLA pi0(π0)
人工智能·算法·stable diffusion
AndrewHZ3 天前
【图像处理基石】[特殊字符]圣诞特辑:10+经典图像处理算法,让你的图片充满节日氛围感!
图像处理·人工智能·opencv·算法·计算机视觉·stable diffusion·节日氛围感
弓.长.3 天前
主流AI绘画工具技术对比:Stable Diffusion 3与Midjourney V6的架构差异解析
ai作画·stable diffusion·midjourney