【狂飙全模态】狂飙AGI-Wan2.1文生视频实战部署-Gradio篇

Wan2.1文生视频实战部署-Gradio篇

    • [一、Wan2.1 初体验](#一、Wan2.1 初体验)
    • 二、Wan2.1文生视频实战
      • [1 WebUI界面部署](#1 WebUI界面部署)
      • [2 LoRA模型的应用](#2 LoRA模型的应用)
      • [3 脚本中各项参数的使用](#3 脚本中各项参数的使用)

一、Wan2.1 初体验

魔搭社区创空间的体验Demo:https://modelscope.cn/studios/ybh618/Wan-2.1

二、Wan2.1文生视频实战

1 WebUI界面部署

为了提供更好的体验,本文介绍如何使用魔搭社区的免费GPU给自己部署一个独占算力通道的WebUI界面玩转Wan2.1文生视频模型。

  1. 以下链接直达脚本教程:https://modelscope.cn/notebook/share/ipynb/f548cee3/wan_gradio.ipynb

  2. 在Notebook中打开,选择使用GPU打开

3.进入到notebook页面,按顺序执行提供的脚本教程

  1. 点击链接进入网站(建议使用谷歌浏览器,兼容性较好)
  1. 这就完成了在魔搭免费GPU算力中部署一个WebUI,独享算力通道玩转Wan2.1 文生视频模型啦!

2 LoRA模型的应用

  1. 如果已有LoRA文件,将其放在DiffSynth-Studio/models/lora/文件夹里。
  2. 再次点击运行。
  3. 重复文生视频的操作。

3 脚本中各项参数的使用

  1. 下载并安装DiffSynth-Studio,这是魔搭社区的开源Diffusion模型引擎

    项目链接: https://github.com/modelscope/DiffSynth-Studio

    bash 复制代码
    git clone https://github.com/modelscope/DiffSynth-Studio.git
    cd DiffSynth-Studio
    pip install -e .

2. wan2.1-t2v-1.3b文生视频模型包含3个组件:文本编码器、扩散模型和视频解码器。需要从魔搭模型库中下载3个组件对应的模型文件,并将这些模型文件放置到对应文件夹:

  • 文本编码器: models/Wan-AI/Wan2.1-T2V-1.3B/diffusion_pytorch_model.safetensors
  • 扩散模型: models/Wan-AI/Wan2.1-T2V-1.3B/models_t5_umt5-xxl-enc-bf16.pth
  • 视频解码器: models/Wan-AI/Wan2.1-T2V-1.3B/Wan2.1_VAE.pth

如果需要更换14b的模型,在截图下更改模型即可

下面就是一些gradio界面代码了,大家可以对照界面参考一下

相关推荐
33三 三like10 分钟前
《基于知识图谱和智能推荐的养老志愿服务系统》开发日志
人工智能·知识图谱
芝士爱知识a12 分钟前
【工具推荐】2026公考App横向评测:粉笔、华图与智蛙面试App功能对比
人工智能·软件推荐·ai教育·结构化面试·公考app·智蛙面试app·公考上岸
腾讯云开发者1 小时前
港科大熊辉|AI时代的职场新坐标——为什么你应该去“数据稀疏“的地方?
人工智能
工程师老罗1 小时前
YoloV1数据集格式转换,VOC XML→YOLOv1张量
xml·人工智能·yolo
Coder_Boy_2 小时前
技术让开发更轻松的底层矛盾
java·大数据·数据库·人工智能·深度学习
啊森要自信2 小时前
CANN ops-cv:面向计算机视觉的 AI 硬件端高效算子库核心架构与开发逻辑
人工智能·计算机视觉·架构·cann
2401_836235862 小时前
中安未来SDK15:以AI之眼,解锁企业档案的数字化基因
人工智能·科技·深度学习·ocr·生活
njsgcs2 小时前
llm使用 AgentScope-Tuner 通过 RL 训练 FrozenLake 智能体
人工智能·深度学习
董董灿是个攻城狮2 小时前
AI 视觉连载2:灰度图
人工智能