Stable Diffusion + EbSynth + ControlNet 解决生成视频闪烁

一、安装

1.1、安装ffmpeg

下载地址:

解压,配置环境变量 E:\AI\ffmpeg\bin

检查是否安装成功

1.2、安装SD的 EbSynth 插件

插件地址 https://github.com/s9roll7/ebsynth_utility

报错:ModuleNotFoundError: No module named 'extensions.ebsyynth_utility

将 目录 ebsyynth_utility-main 改为 ebsyynth_utility.

1.3、安装 EbSynth

从官网下载,解压即可

1.4、下载背景透明工具transparent-background

Pip install transparent-background

该代码执行还需要依赖模型文件,如果预先现在则在执行时会从google-driver中下载模型,如果网络不行则会下载失败。

模型下载地址:https://drive.google.com/uc?id=13oBl5MTVcWER3YU4fSxW3ATlVfueFQPY

1.5、安装 TemporalKit插件

也可以在webui 的 extensions 中安装

二、TemporalKit + EbSynth

2.1、使用TemporalKit 分割视频

2.1.0、参数

Sides 数量决定每张图片显示几张图

Border Key Frames

2.1.1、分拆结果

input 为每一帧

2.2、使用图生图

填入提示词

2.2.1、设置 ControlNet

2.2.1.1、配置第一个 为 Tile

2.2.1.2、配置第二个 为 SoftEdge

2.2.1.3、第三个配置为 depth

2.2.2、点击生成图片

选择觉得好的结果图片,记录好种子

2.2.3、批量处理

2.2.3.1、设置批处理输入输出路径

2.2.3.2、设置每个contorlnet 的 批处理输入路径

其他两个输入路径设置一样

然后点击生成

报错: 解决安装对应 pt

结果生成到output

2.3、Ebsynth-Process

生成结果:

2.4、使用 Ebsynth 处理key, frames图片

其他1-8的目录同样处理

2.5、recombine ebsynth (合并)

相关推荐
空白诗21 小时前
CANN ops-nn 算子解读:Stable Diffusion 图像生成中的 Conv2D 卷积实现
深度学习·计算机视觉·stable diffusion
学易1 天前
第十五节.别人的工作流,如何使用和调试(上)?(2类必现报错/缺失节点/缺失模型/思路/实操/通用调试步骤)
人工智能·ai作画·stable diffusion·报错·comfyui·缺失节点
心疼你的一切1 天前
基于CANN仓库算力手把手实现Stable Diffusion图像生成(附完整代码+流程图)
数据仓库·深度学习·stable diffusion·aigc·流程图·cann
Niuguangshuo2 天前
DALL-E 3:如何通过重构“文本描述“革新图像生成
人工智能·深度学习·计算机视觉·stable diffusion·重构·transformer
Niuguangshuo3 天前
深入解析 Stable Diffusion XL(SDXL):改进潜在扩散模型,高分辨率合成突破
stable diffusion
Niuguangshuo3 天前
深入解析Stable Diffusion基石——潜在扩散模型(LDMs)
人工智能·计算机视觉·stable diffusion
迈火3 天前
SD - Latent - Interposer:解锁Stable Diffusion潜在空间的创意工具
人工智能·gpt·计算机视觉·stable diffusion·aigc·语音识别·midjourney
迈火10 天前
Facerestore CF (Code Former):ComfyUI人脸修复的卓越解决方案
人工智能·gpt·计算机视觉·stable diffusion·aigc·语音识别·midjourney
重启编程之路11 天前
Stable Diffusion 参数记录
stable diffusion
孤狼warrior14 天前
图像生成 Stable Diffusion模型架构介绍及使用代码 附数据集批量获取
人工智能·python·深度学习·stable diffusion·cnn·transformer·stablediffusion