〔022〕Stable Diffusion 之 生成视频 篇

✨ 目录

    • [🎈 视频转换 / mov2mov](#🎈 视频转换 / mov2mov)
    • [🎈 视频转换前奏准备](#🎈 视频转换前奏准备)
    • [🎈 视频转换 mov2mov 使用](#🎈 视频转换 mov2mov 使用)
    • [🎈 视频转换 mov2mov 效果预览](#🎈 视频转换 mov2mov 效果预览)
    • [🎈 视频无限缩放 / Infinite Zoom](#🎈 视频无限缩放 / Infinite Zoom)
    • [🎈 视频无限缩放 Infinite Zoom 使用](#🎈 视频无限缩放 Infinite Zoom 使用)

🎈 视频转换 / mov2mov

  • 如果想将视频换成另一种风格,或者想将视频中的人物替换掉,可以使用 mov2mov 插件
  • 插件地址: https://github.com/Scholar01/sd-webui-mov2mov
  • 由于该插件未收录在扩展列表中,所以需要从网址安装

🎈 视频转换前奏准备

  • 准备一段需要改动的视频本体,这里的视频使用的是 一一千唯 小姐姐的舞蹈视频
  • 然后从视频中截一张图片,用来生成风格人物图像,最好配合 ControlNet 使用
  • 要想画风变换不大的话,重回幅度就调小一点,一般在 0.3~0.4 之间
  • 主要图片生成参数如下:
  • 大模型:meinamix_meinaV11,该模型主要用来生成二次元画风的
  • 采样方法:DPM++ 2M Karras
  • 迭代步数:30
  • 重回幅度:0.3,重绘幅度低是为了跟原视频接近
  • ControlNet:Lineart,线稿检测,其中预处理器选择 lineart_standard


🎈 视频转换 mov2mov 使用

  • 第一步:将视频本体传到 mov2mov 左边文件区
  • 第二步:将图生图生成的图片种子进行锁定,也就是复制到 mov2mov 左边配置区域中的 seed 位置
  • 第三步:将图生图中的配置信息在 mov2mov 中都重新设置一下,比如 提示词采样方式图片尺寸
  • 第四步:其中的 Movie Frames 是帧数,默认 30,也就是每秒生成 30 张图片,视频本体是 10 秒的话,就是会生成 300 张图片后,再把这 300 张图片生成最终的视频
  • 第五步:点击生成,然后静静等待处理完成即可
  • 由于官方对于 gif 图片大小不能超过 5M,所以我进行了二压,因此画面中的图片会显得有点失真,真实情况是没有的哈

🎈 视频转换 mov2mov 效果预览

  • 最终生成的视频会保存在 outputs\mov2mov-images 文件夹下
  • 由于图片大小限制,下面预览只是截取了最终视频的一部分

🎈 视频无限缩放 / Infinite Zoom

🎈 视频无限缩放 Infinite Zoom 使用

  • 点击 Infinite Zoom 标签栏目,在这里你可以设置最终生成视频的长度以及输出视频的尺寸
  • 需要上传一张需要无限缩放的图片,背景通过提示词进行生成
相关推荐
科技小花21 分钟前
全球化深水区,数据治理成为企业出海 “核心竞争力”
大数据·数据库·人工智能·数据治理·数据中台·全球化
zhuiyisuifeng2 小时前
2026前瞻:GPTimage2镜像官网或将颠覆视觉创作
人工智能·gpt
徐健峰2 小时前
GPT-image-2 热门玩法实战(一):AI 看手相 — 一张手掌照片生成专业手相分析图
人工智能·gpt
weixin_370976352 小时前
AI的终极赛跑:进入AGI,还是泡沫破灭?
大数据·人工智能·agi
Slow菜鸟2 小时前
AI学习篇(五) | awesome-design-md 使用说明
人工智能·学习
冬奇Lab2 小时前
RAG 系列(五):Embedding 模型——语义理解的核心
人工智能·llm·aigc
深小乐2 小时前
AI 周刊【2026.04.27-05.03】:Anthropic 9000亿美元估值、英伟达死磕智能体、中央重磅定调AI
人工智能
码点滴2 小时前
什么时候用 DeepSeek V4,而不是 GPT-5/Claude/Gemini?
人工智能·gpt·架构·大模型·deepseek
狐狐生风2 小时前
LangChain 向量存储:Chroma、FAISS
人工智能·python·学习·langchain·faiss·agentai
波动几何3 小时前
CDA架构代码工坊技能cda-code-lab
人工智能