Stable Diffusion基础:ControlNet之重新上色(黑白照片换新颜)

本文给大家分享 Stable Diffusion 的基础能力:ControlNet 之重新上色。

这是一个最近新上的 ControlNet 模型,它可以识别图像中的不同区域,并使用不同的颜色重新绘制它们。

安装

ControlNet 安装

工欲善其事必先利其器,ControlNet 还是先要安装好的,已经安装好的请跳过这一步。

之前的文章已经介绍过相关安装方法,大家请点击这个链接移步过去:juejin.cn/post/727367...

注意需要将 ControlNet 插件升级到 v1.1.410 这个版本,这个版本支持新的 ControlNet 类型。

Recolor 安装

使用 Recolor 前,还需要先安装几个模型:

/extensions/sd-webui-controlnet/models/ioclab_sd15_recolor.safetensors

/extensions/sd-webui-controlnet/models/sai_xl_recolor_128lora.safetensors

/extensions/sd-webui-controlnet/models/sai_xl_recolor_256lora.safetensors

这里支持 SDXL 的模型有两个 128lora 和 256lora,它们来源于 Stable Diffusion 的开发公司 StabilityAI 。

为什么有两个呢?首先它们都有一个后缀 lora,这是 StabilityAI 将 Lora 模型的方法引入到了 ControlNet 中,此类模型称为 ControlNet-LoRAs,128、256 分别代表了不同的压缩比例,256的模型文件大小约738M,128的文件更小约377M。文件大参数多,文件小易传播,但是256的效果并不一定比128好,还需根据实际出图情况选择。更多详情可以看 HuggingFace 上的官方介绍:huggingface.co/stabilityai...

不方便访问 huggingface 的同学可以通过我整理的资源下载,下载方式见文章最后;或者直接使用 AutoDL 上我发布的镜像:www.codewithgpu.com/i/AUTOMATIC...

基本使用

Recolor 可以用在"文生图"和"图生图",实测 Recolor 在这两种方式下的效果差不多,这里以文生图为例,原图是这样的:

首先选择一个大模型,这里选择的是真实视觉模型 realisticVisionV51,实际使用时请根据要重新上色的图片选择。

提示词和反向提示词也可以不写,Recolor 会自己选颜色,但是要想达到特定的控制效果,还是得自己写。比如我这里想要把头发改成红色、裙子变成黄色。

Stable Diffusion 参数这里没什么好说的,默认或者自己根据需要改改都行。

最重要的是 ControlNet 这里,选择任意一个 ControlNet 单元,上传一张照片,勾选"启用"和"完美匹配像素"。

我这里还特别开启了"允许预览",并生成了预览图,大家注意看这个预览图,相比原图,它去掉了色彩,变成了一张黑白照片。从这里可以看出 Recolor 的本质能力是对黑白图片上色,其基本处理过程是先使用预处理器提取黑白图,然后再识别图片的各个区域进行上色处理。

看下 Recolor 的几个参数:

预处理器有两个:

recolor_luminance:提取图像特征信息时注重颜色的亮度,实测大部分情况下这个效果更好。

recolor_intensity:提取图像特征信息时注重颜色的饱和度。

模型有三个:

ioclab_sd15_recolor.safetensors 适用于 Stable Diffusion 1.5 的模型。

sai_xl_recolor_128lora.safetensors 适用于 Stable Diffusion XL 的模型,模型的低秩矩阵有128维。

sai_xl_recolor_256lora.safetensors 适用于 Stable Diffusion XL 的模型,模型的低秩矩阵有256维。

Gamma Correction:伽玛校正,这个词比较专业,大概是说人眼对亮度的识别是不均匀的,对暗区的变化比较敏感,对亮区的变化比较迟钝,为了调节生成图片的感受亮度,以及在不同的显示设备上输出,就搞出了一个幂函数,来映射真实亮度和感受亮度,这个伽马值就是函数的幂。默认为1,如果感觉生成的图片暗就调小一点,如果感觉生成的图片过亮,就调大一点。

其它的几个参数我们已经在 ControlNet 的基本使用方法中介绍过了,不清楚的请移步:安装与基本使用方法

看看生成图片的效果:头发、裙子的颜色都处理对了。

这个例子中使用的还是SD 1.5的模型,如果换成 SD XL,就要选择对应的 XL 模型才行。

我实际测试 ControlNet-LoRAs 的时候发现一个问题:SD XL 对应的 Recolor 模型必须搭配提示词,否则就会出现不太和谐的色块,还会有莫名其妙的蓝色。要解决这个问题,必须编写提示词和反向提示词才能让生成的图片色彩比较和谐,还是以上边的参考图为例:

用途示例

颜色滤镜

只需要一个简单的颜色提示词,大家直接看效果吧,如需取图请看文章最后。

黑白照片上色

在之前的文章中,我写过一篇高清修复老照片的教程:

juejin.cn/post/725656...

当时我是使用 Tile 修复了一张模糊的黑白照片,今天我再用 Recolor 给这张照片上个色。

使用"图生图"方式,模型选择 realisticVisionV51,为了更好的效果,这里专门写了几句提示词。

其它参数参考上边基本使用方法设置下就行了,下面是"高清修复+重新上色"的效果展示:感觉还是挺不错的!

写到这里,我突然想试一下 Recolor 直接修复模糊老照片的效果:

首先颜色有了,其次面部清晰了,特别是这个眼神,大家好好感受下,是不是特别还原。

不太好的就是清晰度还是不够,特别是面部之外的区域,颜色的渲染也不够精准,这是因为图片不够清晰,模型不能正确的识别相关区域。这个问题可以通过迭代生成优化,也就是将首次生成出来的图片再次用于图生图,对于衣服不清晰的问题我这里用了局部重绘,只是这个扣子的样式有点旧,我不知道怎么写提示词,模型也不认识。

再给大家看几张黑白照片上色的效果图:

资源下载

本系列使用的模型、插件,生成的图片,都已经上传到我整理的 Stable Diffusion 绘画资源中,后续也会持续更新,如有需要,请关/注/公/众/号:萤火遛AI(yinghuo6ai),发消息:SD,即可获取下载地址。


以上就是本文的主要内容了,如有问题,欢迎留言沟通交流。

相关推荐
城市直通车3 小时前
聚焦产业落地与生态共建小拼AI携手火山引擎共推AIGC电商智能化升级
人工智能·aigc·火山引擎
da_vinci_x6 小时前
【游戏场景】手绘贴图“接缝”地狱?PS 智能平铺流,3步量产无缝地砖
游戏·3d·prompt·aigc·贴图·技术美术·游戏美术
玖日大大8 小时前
RAG技术深度解析与实践:让LLM拥有实时知识库
人工智能·aigc
程序员老赵8 小时前
ComfyUI Docker 镜像部署指南
人工智能·docker·aigc
用户5191495848459 小时前
Next.js CVE-2025-29927漏洞自动化扫描器
人工智能·aigc
用户5191495848459 小时前
Apache Tomcat CVE-2025-24813漏洞检测工具
人工智能·aigc
Mintopia10 小时前
⚙️ AI冲击下的职场新物种:超级个体
人工智能·llm·aigc
龙萱坤诺10 小时前
Sora-2 API 技术文档:创建角色接口
人工智能·aigc·ai视频·sora-2
取个鸣字真的难11 小时前
claude code + vscode,打造专属编程AI IDE
ide·vscode·编辑器·aigc·ai编程·agi·第三方api
维李设论11 小时前
从2025看2026前端发展趋势
前端·架构·aigc·ai编程·大前端·趋势·前端工程师