Stable Diffusion基础:ControlNet之重新上色(黑白照片换新颜)

本文给大家分享 Stable Diffusion 的基础能力:ControlNet 之重新上色。

这是一个最近新上的 ControlNet 模型,它可以识别图像中的不同区域,并使用不同的颜色重新绘制它们。

安装

ControlNet 安装

工欲善其事必先利其器,ControlNet 还是先要安装好的,已经安装好的请跳过这一步。

之前的文章已经介绍过相关安装方法,大家请点击这个链接移步过去:juejin.cn/post/727367...

注意需要将 ControlNet 插件升级到 v1.1.410 这个版本,这个版本支持新的 ControlNet 类型。

Recolor 安装

使用 Recolor 前,还需要先安装几个模型:

/extensions/sd-webui-controlnet/models/ioclab_sd15_recolor.safetensors

/extensions/sd-webui-controlnet/models/sai_xl_recolor_128lora.safetensors

/extensions/sd-webui-controlnet/models/sai_xl_recolor_256lora.safetensors

这里支持 SDXL 的模型有两个 128lora 和 256lora,它们来源于 Stable Diffusion 的开发公司 StabilityAI 。

为什么有两个呢?首先它们都有一个后缀 lora,这是 StabilityAI 将 Lora 模型的方法引入到了 ControlNet 中,此类模型称为 ControlNet-LoRAs,128、256 分别代表了不同的压缩比例,256的模型文件大小约738M,128的文件更小约377M。文件大参数多,文件小易传播,但是256的效果并不一定比128好,还需根据实际出图情况选择。更多详情可以看 HuggingFace 上的官方介绍:huggingface.co/stabilityai...

不方便访问 huggingface 的同学可以通过我整理的资源下载,下载方式见文章最后;或者直接使用 AutoDL 上我发布的镜像:www.codewithgpu.com/i/AUTOMATIC...

基本使用

Recolor 可以用在"文生图"和"图生图",实测 Recolor 在这两种方式下的效果差不多,这里以文生图为例,原图是这样的:

首先选择一个大模型,这里选择的是真实视觉模型 realisticVisionV51,实际使用时请根据要重新上色的图片选择。

提示词和反向提示词也可以不写,Recolor 会自己选颜色,但是要想达到特定的控制效果,还是得自己写。比如我这里想要把头发改成红色、裙子变成黄色。

Stable Diffusion 参数这里没什么好说的,默认或者自己根据需要改改都行。

最重要的是 ControlNet 这里,选择任意一个 ControlNet 单元,上传一张照片,勾选"启用"和"完美匹配像素"。

我这里还特别开启了"允许预览",并生成了预览图,大家注意看这个预览图,相比原图,它去掉了色彩,变成了一张黑白照片。从这里可以看出 Recolor 的本质能力是对黑白图片上色,其基本处理过程是先使用预处理器提取黑白图,然后再识别图片的各个区域进行上色处理。

看下 Recolor 的几个参数:

预处理器有两个:

recolor_luminance:提取图像特征信息时注重颜色的亮度,实测大部分情况下这个效果更好。

recolor_intensity:提取图像特征信息时注重颜色的饱和度。

模型有三个:

ioclab_sd15_recolor.safetensors 适用于 Stable Diffusion 1.5 的模型。

sai_xl_recolor_128lora.safetensors 适用于 Stable Diffusion XL 的模型,模型的低秩矩阵有128维。

sai_xl_recolor_256lora.safetensors 适用于 Stable Diffusion XL 的模型,模型的低秩矩阵有256维。

Gamma Correction:伽玛校正,这个词比较专业,大概是说人眼对亮度的识别是不均匀的,对暗区的变化比较敏感,对亮区的变化比较迟钝,为了调节生成图片的感受亮度,以及在不同的显示设备上输出,就搞出了一个幂函数,来映射真实亮度和感受亮度,这个伽马值就是函数的幂。默认为1,如果感觉生成的图片暗就调小一点,如果感觉生成的图片过亮,就调大一点。

其它的几个参数我们已经在 ControlNet 的基本使用方法中介绍过了,不清楚的请移步:安装与基本使用方法

看看生成图片的效果:头发、裙子的颜色都处理对了。

这个例子中使用的还是SD 1.5的模型,如果换成 SD XL,就要选择对应的 XL 模型才行。

我实际测试 ControlNet-LoRAs 的时候发现一个问题:SD XL 对应的 Recolor 模型必须搭配提示词,否则就会出现不太和谐的色块,还会有莫名其妙的蓝色。要解决这个问题,必须编写提示词和反向提示词才能让生成的图片色彩比较和谐,还是以上边的参考图为例:

用途示例

颜色滤镜

只需要一个简单的颜色提示词,大家直接看效果吧,如需取图请看文章最后。

黑白照片上色

在之前的文章中,我写过一篇高清修复老照片的教程:

juejin.cn/post/725656...

当时我是使用 Tile 修复了一张模糊的黑白照片,今天我再用 Recolor 给这张照片上个色。

使用"图生图"方式,模型选择 realisticVisionV51,为了更好的效果,这里专门写了几句提示词。

其它参数参考上边基本使用方法设置下就行了,下面是"高清修复+重新上色"的效果展示:感觉还是挺不错的!

写到这里,我突然想试一下 Recolor 直接修复模糊老照片的效果:

首先颜色有了,其次面部清晰了,特别是这个眼神,大家好好感受下,是不是特别还原。

不太好的就是清晰度还是不够,特别是面部之外的区域,颜色的渲染也不够精准,这是因为图片不够清晰,模型不能正确的识别相关区域。这个问题可以通过迭代生成优化,也就是将首次生成出来的图片再次用于图生图,对于衣服不清晰的问题我这里用了局部重绘,只是这个扣子的样式有点旧,我不知道怎么写提示词,模型也不认识。

再给大家看几张黑白照片上色的效果图:

资源下载

本系列使用的模型、插件,生成的图片,都已经上传到我整理的 Stable Diffusion 绘画资源中,后续也会持续更新,如有需要,请关/注/公/众/号:萤火遛AI(yinghuo6ai),发消息:SD,即可获取下载地址。


以上就是本文的主要内容了,如有问题,欢迎留言沟通交流。

相关推荐
GISer_Jing3 小时前
AI驱动营销:业务技术栈实战(From AIGC,待总结)
前端·人工智能·aigc·reactjs
GISer_Jing9 小时前
2026年前端开发目标(From豆包)
前端·学习·aigc
向量引擎11 小时前
[硬核架构] 2026 企业级 AI 网关落地指南:从“连接超时”到“秒级响应”的架构演进(附 Python/Java 源码)
人工智能·python·gpt·ai作画·架构·aigc·api调用
快降重科研小助手11 小时前
AI率单独优化:用“快降重”专项功能,能否安全绕过知网/维普AIGC检测?
人工智能·aigc·降ai率·论文降ai·快降重
得一录13 小时前
React Native智能家居摄像头模块深度解析:直播、回放与告警的技术实现
人工智能·物联网·aigc
avi91111 天前
Unity毛玻璃渲染模糊渲染Shader数学入门
unity·aigc·图形学·shader·hlsl
imbackneverdie1 天前
如何通过读文献寻找科研思路?
人工智能·ai·自然语言处理·aigc·ai写作·ai读文献
TOPGUS1 天前
谷歌将移除部分搜索功能:面对AI时代的一次功能精简策略
前端·人工智能·搜索引擎·aigc·seo·数字营销
avi91111 天前
简单的Gradio实现一个统计界面+日志输出
python·aigc·gradio
aitoolhub1 天前
自媒体视觉物料高效创作新路径:稿定设计如何用AI重构内容生产逻辑
大数据·人工智能·aigc·媒体