Stable Diffusion 绘画入门教程(webui)-ControlNet(深度Depth)

上篇文章介绍了线稿约束,这篇文章介绍下深度Depth

文章目录

顾名思义,就是把原图预处理为深度图,而深度图可以区分出图像中各元素的远近关系,那么啥事深度图?下面就是

来看下怎么用吧,依然是之前的流程

一、选大模型

这里我随便用了一个大模型,生成出来也不差,不过大家可以去C站,或者是国内的模型网站下载对应风格的大模型,这样生成出来的会更加符合预期,不知道哪里的小伙伴参考之前的文章《webui绘画入门教程

我这里还是用的之前的二次元模型:

二、写提示词

按你脑海里想要的场景风格描述出来,然后用翻译翻译为英文

我这里是:


三、基础参数设置

基础参数设置还是和上篇文章一样,除了长宽,其他我都默认的,这里大家可以自行调试。

长宽可以通过ControlNet中的那个回传按钮回传过来,不用手动填写哦。


四、启用ControlNet

到这里,大家应该比较熟了,我就直接上图了,点击预处理器右边的爆炸按钮可以看到预处理结果预览图哦,也就是上边放的深度图

最后出图效果:

另外,这个处理器不局限于室内、建筑设计、人物等也是可以用的,大家自行尝试感受下吧。

相关推荐
leafff1235 天前
Stable Diffusion在进行AI 创作时对算力的要求
人工智能·stable diffusion
leafff1235 天前
Stable Diffusion进行AIGC创作时的算力优化方案
人工智能·stable diffusion·aigc
ding_zhikai5 天前
stable-diffusion试验2-像素人物帧动画2(含 AnimeEffects 简易教程 等)
stable diffusion
ding_zhikai5 天前
SD:在一个 Ubuntu 系统安装 stable diffusion ComfyUI
linux·ubuntu·stable diffusion
ding_zhikai6 天前
stable-diffusion试验2-像素人物帧动画1
stable diffusion
wg26276 天前
Stable Diffusion 安装教程(详细)_stable diffusion安装
stable diffusion
weiwei228446 天前
ControlNet——AI图像生成的“精准操控工具”
stable diffusion·controlnet
RanceGru8 天前
LLM学习笔记5——本地部署ComfyUI和Wan2.1-T2V-1.3B文生视频模型
笔记·学习·stable diffusion·transformer
ding_zhikai9 天前
stable-diffusion试验1-静态人物
stable diffusion
love530love12 天前
【笔记】 Podman Desktop 中部署 Stable Diffusion WebUI (GPU 支持)
人工智能·windows·笔记·python·容器·stable diffusion·podman