Stable Diffusion 绘画入门教程(webui)-ControlNet(深度Depth)

上篇文章介绍了线稿约束,这篇文章介绍下深度Depth

文章目录

顾名思义,就是把原图预处理为深度图,而深度图可以区分出图像中各元素的远近关系,那么啥事深度图?下面就是

来看下怎么用吧,依然是之前的流程

一、选大模型

这里我随便用了一个大模型,生成出来也不差,不过大家可以去C站,或者是国内的模型网站下载对应风格的大模型,这样生成出来的会更加符合预期,不知道哪里的小伙伴参考之前的文章《webui绘画入门教程

我这里还是用的之前的二次元模型:

二、写提示词

按你脑海里想要的场景风格描述出来,然后用翻译翻译为英文

我这里是:


三、基础参数设置

基础参数设置还是和上篇文章一样,除了长宽,其他我都默认的,这里大家可以自行调试。

长宽可以通过ControlNet中的那个回传按钮回传过来,不用手动填写哦。


四、启用ControlNet

到这里,大家应该比较熟了,我就直接上图了,点击预处理器右边的爆炸按钮可以看到预处理结果预览图哦,也就是上边放的深度图

最后出图效果:

另外,这个处理器不局限于室内、建筑设计、人物等也是可以用的,大家自行尝试感受下吧。

相关推荐
阿钱真强道3 天前
23 ComfyUI 实战:AnimateDiff + OpenPose Walking 姿态驱动视频生成
openpose·animatediff·controlnet·comfyui·姿态·walking·动作控制
阿钱真强道4 天前
21 ComfyUI 实战:IP-Adapter + ControlNet 实现人物表情编辑,为什么降权重后更容易“笑出来”
aigc·stable-diffusion·controlnet·comfyui·softedge·ip-adapter·人物表情编辑
阿钱真强道5 天前
20 ComfyUI 实战:用 ControlNet 实现人物表情编辑,让人物“笑起来”的工作流解析
aigc·stable-diffusion·controlnet·comfyui·softedge·ip-adapter·人物表情编辑
宁南山7 天前
比迪丽LoRA模型AE做片段视频素材生成:动态背景与元素创作
stable diffusion·ai绘画·lora模型·视频素材生成
阿钱真强道9 天前
14 ComfyUI 实战:使用 Depth Anything V2 + ControlNet 实现高一致性人像生成
sdxl·controlnet·comfyui·depth anything·工作流实战·深度预处理
日光明媚9 天前
DMD 一步扩散核心原理:从符号定义到梯度推导
人工智能·机器学习·计算机视觉·ai作画·stable diffusion·aigc
baidu_huihui11 天前
ComfyUI 是一款专为 Stable Diffusion 打造的开源可视化操作工具
stable diffusion
李昊哲小课12 天前
Stable Diffusion 保姆级教程|HF 国内镜像配置 + 一键安装 + 本地模型加载 + 完整代码
stable diffusion·hugging face
yumgpkpm12 天前
Qwen3.6正式开源,华为昇腾910B实现高效适配
华为·ai作画·stable diffusion·开源·ai写作·llama·gpu算力
数智工坊14 天前
深度拆解AnomalyAny:异常检测新工作,利用Stable Diffusion生成真实多样异常样本!
人工智能·pytorch·python·stable diffusion