〔022〕Stable Diffusion 之 生成视频 篇

✨ 目录

    • [🎈 视频转换 / mov2mov](#🎈 视频转换 / mov2mov)
    • [🎈 视频转换前奏准备](#🎈 视频转换前奏准备)
    • [🎈 视频转换 mov2mov 使用](#🎈 视频转换 mov2mov 使用)
    • [🎈 视频转换 mov2mov 效果预览](#🎈 视频转换 mov2mov 效果预览)
    • [🎈 视频无限缩放 / Infinite Zoom](#🎈 视频无限缩放 / Infinite Zoom)
    • [🎈 视频无限缩放 Infinite Zoom 使用](#🎈 视频无限缩放 Infinite Zoom 使用)

🎈 视频转换 / mov2mov

  • 如果想将视频换成另一种风格,或者想将视频中的人物替换掉,可以使用 mov2mov 插件
  • 插件地址: https://github.com/Scholar01/sd-webui-mov2mov
  • 由于该插件未收录在扩展列表中,所以需要从网址安装

🎈 视频转换前奏准备

  • 准备一段需要改动的视频本体,这里的视频使用的是 一一千唯 小姐姐的舞蹈视频
  • 然后从视频中截一张图片,用来生成风格人物图像,最好配合 ControlNet 使用
  • 要想画风变换不大的话,重回幅度就调小一点,一般在 0.3~0.4 之间
  • 主要图片生成参数如下:
  • 大模型:meinamix_meinaV11,该模型主要用来生成二次元画风的
  • 采样方法:DPM++ 2M Karras
  • 迭代步数:30
  • 重回幅度:0.3,重绘幅度低是为了跟原视频接近
  • ControlNet:Lineart,线稿检测,其中预处理器选择 lineart_standard


🎈 视频转换 mov2mov 使用

  • 第一步:将视频本体传到 mov2mov 左边文件区
  • 第二步:将图生图生成的图片种子进行锁定,也就是复制到 mov2mov 左边配置区域中的 seed 位置
  • 第三步:将图生图中的配置信息在 mov2mov 中都重新设置一下,比如 提示词采样方式图片尺寸
  • 第四步:其中的 Movie Frames 是帧数,默认 30,也就是每秒生成 30 张图片,视频本体是 10 秒的话,就是会生成 300 张图片后,再把这 300 张图片生成最终的视频
  • 第五步:点击生成,然后静静等待处理完成即可
  • 由于官方对于 gif 图片大小不能超过 5M,所以我进行了二压,因此画面中的图片会显得有点失真,真实情况是没有的哈

🎈 视频转换 mov2mov 效果预览

  • 最终生成的视频会保存在 outputs\mov2mov-images 文件夹下
  • 由于图片大小限制,下面预览只是截取了最终视频的一部分

🎈 视频无限缩放 / Infinite Zoom

🎈 视频无限缩放 Infinite Zoom 使用

  • 点击 Infinite Zoom 标签栏目,在这里你可以设置最终生成视频的长度以及输出视频的尺寸
  • 需要上传一张需要无限缩放的图片,背景通过提示词进行生成
相关推荐
Akamai中国27 分钟前
基准测试:Akamai云上的NVIDIA RTX Pro 6000 Blackwell
人工智能·云计算·云服务·云存储
雨大王51232 分钟前
汽车AI智能体矩阵:驱动行业智能化变革的新范式
人工智能·汽车
SmartRadio44 分钟前
在CH585M代码中如何精细化配置PMU(电源管理单元)和RAM保留
linux·c语言·开发语言·人工智能·单片机·嵌入式硬件·lora
旦莫1 小时前
Pytest教程:Pytest与主流测试框架对比
人工智能·python·pytest
●VON1 小时前
从模型到价值:MLOps 工程体系全景解析
人工智能·学习·制造·von
智慧地球(AI·Earth)1 小时前
Codex配置问题解析:wire_api格式不匹配导致的“Reconnecting...”循环
开发语言·人工智能·vscode·codex·claude code
GISer_Jing1 小时前
AI:多智能体协作与记忆管理
人工智能·设计模式·aigc
qq_411262421 小时前
纯图像传感器(只出像素),还是 Himax WiseEye/WE1/WE-I Plus 这类带处理器、能在端侧跑模型并输出“metadata”的模块
人工智能·嵌入式硬件·esp32·四博智联
InfiSight智睿视界2 小时前
门店智能体技术如何破解美容美发连锁的“标准执行困境”
大数据·运维·人工智能