Stable Diffusion基础:ControlNet之线稿成图

今天继续给大家分享Stable Diffusiion的基础能力:ControlNet之线稿成图。

所谓线稿就是由一条条的线段组成的图形,主要用于绘画和设计领域的打底稿、表达构想和预见最终效果。

所谓线稿成图就是利用 Stable Diffusion + ControlNet 的能力,依照线稿中的图形设计生成创意图片。借助ControlNet,我们可以直接使用线稿图生成图片,也可以先从其它图片中提取线稿,然后再生成图片。

下面我将介绍ControlNet中四个优秀的线稿模型,以及它们的使用方法和注意事项。

安装ControlNet

工欲善其事必先利其器,ControlNet还是先要安装好的,已经安装好的请跳过这一步。

之前的文章已经介绍过相关安装方法,大家请点击这个链接移步过去:ControlNet的安装方法

使用方法

Canny

基于精细的边缘检测,准确还原图片的结构和特征。Canny边缘图中的线条没有粗细、深浅的区分。

因为是真人图片,所以这里选择了一个现实视觉的大模型:realisticVisionV51,提示词可以手写,也可以找个反推工具反推。

如果是生成真人图片,建议把"面部修复"勾选上。

ControlNet的设置是重点:

1、展开ControlNet控制面板。

2、在Unit 0中上传一张需要提取边缘的图片。

3、勾选"启用",启用当前ControlNet Unit。

4、勾选"完美匹配像素",自动设置预处理器的分辨率。

5、勾选"允许预览",这样就可以预览边缘检测的效果。

6、选择"Canny"

7、预处理器和模型会自动加载,暂时不更改它们。

预处理器可以检测图片中人物和物体的边缘,绘制出边缘图。点击预处理器后边的星火图标可以在预览区看到预处理的效果图。

预处理器器还有两个选项:

  • 无:不使用预处理器,直接在ControlNet中上传一张线稿图。
  • 颜色反转:ControlNet中能够处理的线稿图需要线条是白色, 其它区域是黑色,这和现实中的线图颜色是相反的。所以通过这个预处理器,我们可以直接反转一张现实世界的线稿图,供ControlNet模型进行生图处理。不适合普通的彩色图片。

8、控制权重:ControlNet模型在生成图片时的权重,降低这个权重,线稿对绘图的约束就会变弱。

启动控制的步数:Canny介入的时机。介入时机越早,越能保证构图依照边缘图,一般从0开始。

结束控制的步数:Canny退出的时机。退出时机越晚,细节保留程度越大,如果要多变换一些细节,可以提前退出。

9、这两个阈值是canny预处理器提取线稿图时使用的,通过调整阈值可以控制边缘图中保留细节的多少。

Canny Low Threshold:去掉过细的线段。大于低阈值的线段被认定为边缘。

Canny High Threshold:去掉零散的线段。大于高阈值的线段被认定为强边缘,全部保留;高阈值和低阈值之间的线段认定为弱边缘,只保留强边缘相邻的弱边缘。

10、控制模式:ControlNet的通用设置,以提示词为主,还是以ControlNet模型为主。

11、缩放模式:ControlNet的通用设置,参考图与要生成的图片尺寸不一致时如何处理。拉伸有变形的问题,一般使用裁剪和填充。

Lineart

使用线条艺术生成训练,通常用于黑线白底图的上色,也可以从各种图片中提取线条,然后再生成图片。

Lineart的线条有粗细深浅的区别,相比Canny,除了能够控制构图,还可以更好的还原图片深度。

下图的几个设置和上面Canny控制器的设置差不多,只是上传的图片换成了一张黑白线稿图。

重点看下这几个设置:

  • Lineart:线稿控制网络。
  • 预处理器:从图片提取线稿图的处理器。这里有多个预处理器,简单介绍下:
    • none:不使用预处理器,需要直接上传一张处理好白线黑景线稿图。
    • lineart_anime:适合从动漫图片中提取线稿图。
    • lineart_anime_denoise:适合从动漫图片中提取线稿图,并去掉噪音点。
    • lineart_coarse:从图片中粗略提取线稿图,忽略不突出的细节,生图时自由度更高。
    • lineart_realistic:从真实视觉的图片中提取线稿图。
    • lineart_standard:从图片提取线稿图的标准版处理器。
    • 颜色反转:反色图片,适合从白色背景、黑色线条的图片中提取线稿图。
  • 模型:根据线稿图生成图片的ControlNet模型。
    • control_v11p_sd15_lineart_fp16:通用线稿图生成模型。
    • control_v11p_sd15s2_lineart_anime_fp16:二次元线稿图生成模型。

SoftEdge

使用软边缘图像生成训练,平滑的边缘、更好的深度,忽略内部细节,方便创作更具绘画特征或艺术风格的图片。

相比Canny、Lineart,SoftEdge除了稳定构图,更好的图片深度控制,还拥有了更多的自由度。

重点看下ControlNet的这几个设置:

预处理器:从图片中提取软边缘图。

softedge_hed:合成柔边图。

softedge_hedsafe:安全的合成柔边图,边缘更清晰,稳定性更高。

softedge_pidinet:简笔柔边图,描绘的细节更少,出图的细节更自由,姿势更稳定。

softedge_pidinet:安全的简笔柔边图,边缘更清晰,稳定性更高。

模型:control_v11p_sd15_softedge_fp16,参与生成图片的软边缘模型,只有这一个。

Scribble

这是一个称之为涂鸦成图的ControlNet,生成图片的自由度更高。

丁老头大家都画过吧,我这里把它生成一个毛绒玩具的图片。

注意这几个参数:

预处理器:

无:不对参考图进行预处理,需要自己上传处理好的涂鸦图,白色代表线条。

scribble_hed: 粗线合成涂鸦图,用来生成随机性较强的图。

scribble_pidinet: 粗线简笔合成涂鸦图,生成图片的自由度比 scribble_hed 弱。

scribble_xdog:从图片中提取更多的细节生成涂鸦图,结构和轮廓的限制更多。

颜色反转:简单的反转图片中的黑白色,适合黑白图的处理。

模型:control_v11p_sd15_scribble_fp16,参与生成图片的涂鸦模型,只有这一个。

Scribble 也可以用来处理真实的图片,与Canny、Lineart、SoftEdge相比,最大的变化就是,构图会发生一些变化,而且它没有对图片深度的处理。

效果对比

考虑到 Scribble 对原图的变化过大,这里只对比前三个:

可以看到 SoftEdge 对构图和深度处理的最好,当然细节上也更自由。

资源下载

本文使用的模型、插件,生成的图片,都已经上传到了我整理的SD绘画资源中,后续也会持续更新,如有需要,请/关/注/公/众/号:萤火遛AI(yinghuo6ai),发消息:SD,即可获取下载地址。


以上就是本文的主要内容了,如有问题,欢迎给我留言沟通交流。

如果你还没有使用过Stable Diffusion WebUI,可以先看这几篇文章,了解下如何使用:

手把手教你在本机安装Stable Diffusion秋叶整合包

手把手教你在云环境炼丹(部署Stable Diffusion WebUI)

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!

相关推荐
扫地的小何尚7 小时前
NVIDIA RTX 系统上使用 llama.cpp 加速 LLM
人工智能·aigc·llama·gpu·nvidia·cuda·英伟达
程序员X小鹿15 小时前
免费,手机可用!一款AI数字人生成工具,200+数字人形象任选,3分钟定制专属数字人!(附教程)
aigc
狼爷21 小时前
Reddit 舞台上的 AI:解码用户生活密码,隐私警钟敲响
安全·aigc
AI极客菌1 天前
[ComfyUI]Flux:繁荣生态魔盒已开启,6款LORA已来,更有MJ6&写实&动漫&风景&艺术&迪士尼全套
ai作画·stable diffusion·aigc·midjourney·人工智能作画·comfyui·风景
袁庭新1 天前
安装luasocket模块时提示“sudo: luarocks:找不到命令“问题,该如何解决?
java·人工智能·ai·aigc·lua·luarocks·袁庭新
阿牛牛阿1 天前
多模态大模型(1)--CLIP
算法·机器学习·ai·aigc
想成为高手4991 天前
成功男人背后的女人--解析AIGC幕后的算法原理
算法·aigc
量子位2 天前
百度打通两大国民产品!六边形 AI 创作新物种「自由画布」来了
人工智能·aigc
全域观察2 天前
出海攻略,如何一键保存Facebook视频素材
人工智能·新媒体运营·aigc·内容运营·程序员创富
是店小二呀2 天前
丹摩征文活动|Llama 3.1 开源模型快速部署:从零到上线
aigc·丹摩智算