Stable Diffusion基础:ControlNet之线稿成图

今天继续给大家分享Stable Diffusiion的基础能力:ControlNet之线稿成图。

所谓线稿就是由一条条的线段组成的图形,主要用于绘画和设计领域的打底稿、表达构想和预见最终效果。

所谓线稿成图就是利用 Stable Diffusion + ControlNet 的能力,依照线稿中的图形设计生成创意图片。借助ControlNet,我们可以直接使用线稿图生成图片,也可以先从其它图片中提取线稿,然后再生成图片。

下面我将介绍ControlNet中四个优秀的线稿模型,以及它们的使用方法和注意事项。

安装ControlNet

工欲善其事必先利其器,ControlNet 还是先要安装好的,已经安装好的请跳过这一步。

使用方法

Canny

基于精细的边缘检测,准确还原图片的结构和特征。Canny边缘图中的线条没有粗细、深浅的区分。

因为是真人图片,所以这里选择了一个现实视觉的大模型:realisticVisionV51,提示词可以手写,也可以找个反推工具反推。

如果是生成真人图片,建议把"面部修复"勾选上。

ControlNet的设置是重点:

1、展开ControlNet控制面板。

2、在Unit 0中上传一张需要提取边缘的图片。

3、勾选"启用",启用当前ControlNet Unit。

4、勾选"完美匹配像素",自动设置预处理器的分辨率。

5、勾选"允许预览",这样就可以预览边缘检测的效果。

6、选择"Canny"

7、预处理器和模型会自动加载,暂时不更改它们。

预处理器可以检测图片中人物和物体的边缘,绘制出边缘图。点击预处理器后边的星火图标可以在预览区看到预处理的效果图。

预处理器器还有两个选项:

  • 无:不使用预处理器,直接在ControlNet中上传一张线稿图。
  • 颜色反转:ControlNet中能够处理的线稿图需要线条是白色, 其它区域是黑色,这和现实中的线图颜色是相反的。所以通过这个预处理器,我们可以直接反转一张现实世界的线稿图,供ControlNet模型进行生图处理。不适合普通的彩色图片。

8、控制权重:ControlNet模型在生成图片时的权重,降低这个权重,线稿对绘图的约束就会变弱。

启动控制的步数:Canny介入的时机。介入时机越早,越能保证构图依照边缘图,一般从0开始。

结束控制的步数:Canny退出的时机。退出时机越晚,细节保留程度越大,如果要多变换一些细节,可以提前退出。

9、这两个阈值是canny预处理器提取线稿图时使用的,通过调整阈值可以控制边缘图中保留细节的多少。

Canny Low Threshold:去掉过细的线段。大于低阈值的线段被认定为边缘。

Canny High Threshold:去掉零散的线段。大于高阈值的线段被认定为强边缘,全部保留;高阈值和低阈值之间的线段认定为弱边缘,只保留强边缘相邻的弱边缘。

10、控制模式:ControlNet的通用设置,以提示词为主,还是以ControlNet模型为主。

11、缩放模式:ControlNet的通用设置,参考图与要生成的图片尺寸不一致时如何处理。拉伸有变形的问题,一般使用裁剪和填充。

Lineart

使用线条艺术生成训练,通常用于黑线白底图的上色,也可以从各种图片中提取线条,然后再生成图片。

Lineart的线条有粗细深浅的区别,相比Canny,除了能够控制构图,还可以更好的还原图片深度。

下图的几个设置和上面Canny控制器的设置差不多,只是上传的图片换成了一张黑白线稿图。

重点看下这几个设置:

  • Lineart:线稿控制网络。

  • 预处理器:从图片提取线稿图的处理器。这里有多个预处理器,简单介绍下:

    • none:不使用预处理器,需要直接上传一张处理好白线黑景线稿图。
    • lineart_anime:适合从动漫图片中提取线稿图。
    • lineart_anime_denoise:适合从动漫图片中提取线稿图,并去掉噪音点。
    • lineart_coarse:从图片中粗略提取线稿图,忽略不突出的细节,生图时自由度更高。
    • lineart_realistic:从真实视觉的图片中提取线稿图。
    • lineart_standard:从图片提取线稿图的标准版处理器。
    • 颜色反转:反色图片,适合从白色背景、黑色线条的图片中提取线稿图。
  • 模型:根据线稿图生成图片的ControlNet模型。

    • control_v11p_sd15_lineart_fp16:通用线稿图生成模型。
    • control_v11p_sd15s2_lineart_anime_fp16:二次元线稿图生成模型。

SoftEdge

使用软边缘图像生成训练,平滑的边缘、更好的深度,忽略内部细节,方便创作更具绘画特征或艺术风格的图片。

相比Canny、Lineart,SoftEdge除了稳定构图,更好的图片深度控制,还拥有了更多的自由度。

重点看下ControlNet的这几个设置:

预处理器:从图片中提取软边缘图。

softedge_hed:合成柔边图。

softedge_hedsafe:安全的合成柔边图,边缘更清晰,稳定性更高。

softedge_pidinet:简笔柔边图,描绘的细节更少,出图的细节更自由,姿势更稳定。

softedge_pidinet:安全的简笔柔边图,边缘更清晰,稳定性更高。

模型:control_v11p_sd15_softedge_fp16,参与生成图片的软边缘模型,只有这一个。

Scribble

这是一个称之为涂鸦成图的ControlNet,生成图片的自由度更高。

丁老头大家都画过吧,我这里把它生成一个毛绒玩具的图片。

注意这几个参数:

预处理器:

无:不对参考图进行预处理,需要自己上传处理好的涂鸦图,白色代表线条。

scribble_hed: 粗线合成涂鸦图,用来生成随机性较强的图。

scribble_pidinet: 粗线简笔合成涂鸦图,生成图片的自由度比 scribble_hed 弱。

scribble_xdog:从图片中提取更多的细节生成涂鸦图,结构和轮廓的限制更多。

颜色反转:简单的反转图片中的黑白色,适合黑白图的处理。

模型:control_v11p_sd15_scribble_fp16,参与生成图片的涂鸦模型,只有这一个。

Scribble 也可以用来处理真实的图片,与Canny、Lineart、SoftEdge相比,最大的变化就是,构图会发生一些变化,而且它没有对图片深度的处理。

效果对比

考虑到 Scribble 对原图的变化过大,这里只对比前三个:

可以看到 SoftEdge 对构图和深度处理的最好,当然细节上也更自由。

资源下载

本文使用的模型、插件,生成的图片,都已经上传到了我整理的SD绘画资源中,后续也会持续更新,如有需要,请添加下方领取!


写在最后

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

相关推荐
ekskef_sef15 分钟前
32岁前端干了8年,是继续做前端开发,还是转其它工作
前端
群联云防护小杜22 分钟前
如何给负载均衡平台做好安全防御
运维·服务器·网络·网络协议·安全·负载均衡
桃花键神29 分钟前
AI可信论坛亮点:合合信息分享视觉内容安全技术前沿
人工智能
sunshine64139 分钟前
【CSS】实现tag选中对钩样式
前端·css·css3
奈何不吃鱼1 小时前
【Linux】ubuntu依赖安装的各种问题汇总
linux·运维·服务器
野蛮的大西瓜1 小时前
开源呼叫中心中,如何将ASR与IVR菜单结合,实现动态的IVR交互
人工智能·机器人·自动化·音视频·信息与通信
爱码小白1 小时前
网络编程(王铭东老师)笔记
服务器·网络·笔记
蜜獾云1 小时前
linux firewalld 命令详解
linux·运维·服务器·网络·windows·网络安全·firewalld
真滴book理喻1 小时前
Vue(四)
前端·javascript·vue.js
蜜獾云1 小时前
npm淘宝镜像
前端·npm·node.js