【狂飙全模态】狂飙AGI-Wan2.1文生视频实战部署-Gradio篇

Wan2.1文生视频实战部署-Gradio篇

    • [一、Wan2.1 初体验](#一、Wan2.1 初体验)
    • 二、Wan2.1文生视频实战
      • [1 WebUI界面部署](#1 WebUI界面部署)
      • [2 LoRA模型的应用](#2 LoRA模型的应用)
      • [3 脚本中各项参数的使用](#3 脚本中各项参数的使用)

一、Wan2.1 初体验

魔搭社区创空间的体验Demo:https://modelscope.cn/studios/ybh618/Wan-2.1

二、Wan2.1文生视频实战

1 WebUI界面部署

为了提供更好的体验,本文介绍如何使用魔搭社区的免费GPU给自己部署一个独占算力通道的WebUI界面玩转Wan2.1文生视频模型。

  1. 以下链接直达脚本教程:https://modelscope.cn/notebook/share/ipynb/f548cee3/wan_gradio.ipynb

  2. 在Notebook中打开,选择使用GPU打开

3.进入到notebook页面,按顺序执行提供的脚本教程

  1. 点击链接进入网站(建议使用谷歌浏览器,兼容性较好)
  1. 这就完成了在魔搭免费GPU算力中部署一个WebUI,独享算力通道玩转Wan2.1 文生视频模型啦!

2 LoRA模型的应用

  1. 如果已有LoRA文件,将其放在DiffSynth-Studio/models/lora/文件夹里。
  2. 再次点击运行。
  3. 重复文生视频的操作。

3 脚本中各项参数的使用

  1. 下载并安装DiffSynth-Studio,这是魔搭社区的开源Diffusion模型引擎

    项目链接: https://github.com/modelscope/DiffSynth-Studio

    bash 复制代码
    git clone https://github.com/modelscope/DiffSynth-Studio.git
    cd DiffSynth-Studio
    pip install -e .

2. wan2.1-t2v-1.3b文生视频模型包含3个组件:文本编码器、扩散模型和视频解码器。需要从魔搭模型库中下载3个组件对应的模型文件,并将这些模型文件放置到对应文件夹:

  • 文本编码器: models/Wan-AI/Wan2.1-T2V-1.3B/diffusion_pytorch_model.safetensors
  • 扩散模型: models/Wan-AI/Wan2.1-T2V-1.3B/models_t5_umt5-xxl-enc-bf16.pth
  • 视频解码器: models/Wan-AI/Wan2.1-T2V-1.3B/Wan2.1_VAE.pth

如果需要更换14b的模型,在截图下更改模型即可

下面就是一些gradio界面代码了,大家可以对照界面参考一下

相关推荐
roman_日积跬步-终至千里2 小时前
【人工智能导论】07-学习-CNN:卷积+池化+多层堆叠,有效处理图像等结构化数据
人工智能·学习·cnn
Coder_Boy_2 小时前
【人工智能应用技术】-基础实战-小程序应用(基于springAI+百度语音技术)智能语音控制-单片机交互
人工智能·单片机·小程序
刘海东刘海东2 小时前
结构学习理论和结构推理理论(提纲)
人工智能
不被AI替代的BOT2 小时前
AgentScope深入分析-LLM&MCP
人工智能·后端
Jorunk2 小时前
状态对齐是连接 GMM-HMM 和 DNN-HMM 的核心桥梁
人工智能·神经网络·dnn
袋鼠云数栈2 小时前
媒体专访丨袋鼠云 CEO 宁海元:Agent元年之后,产业需回到“数据+智能”的长期结构
大数据·人工智能
TF男孩2 小时前
一堆3D点,神经网络是怎么判断它是椅子的?
人工智能·神经网络
AI即插即用2 小时前
即插即用系列 | CVPR 2024 RMT:既要全局感受野,又要 CNN 的局部性?一种拥有显式空间先验的线性 Transformer
人工智能·深度学习·神经网络·目标检测·计算机视觉·cnn·transformer
changuncle2 小时前
Polyglot Notebooks环境安装及注册Python Kernel
人工智能