【狂飙全模态】狂飙AGI-Wan2.1文生视频实战部署-Gradio篇

Wan2.1文生视频实战部署-Gradio篇

    • [一、Wan2.1 初体验](#一、Wan2.1 初体验)
    • 二、Wan2.1文生视频实战
      • [1 WebUI界面部署](#1 WebUI界面部署)
      • [2 LoRA模型的应用](#2 LoRA模型的应用)
      • [3 脚本中各项参数的使用](#3 脚本中各项参数的使用)

一、Wan2.1 初体验

魔搭社区创空间的体验Demo:https://modelscope.cn/studios/ybh618/Wan-2.1

二、Wan2.1文生视频实战

1 WebUI界面部署

为了提供更好的体验,本文介绍如何使用魔搭社区的免费GPU给自己部署一个独占算力通道的WebUI界面玩转Wan2.1文生视频模型。

  1. 以下链接直达脚本教程:https://modelscope.cn/notebook/share/ipynb/f548cee3/wan_gradio.ipynb

  2. 在Notebook中打开,选择使用GPU打开

3.进入到notebook页面,按顺序执行提供的脚本教程

  1. 点击链接进入网站(建议使用谷歌浏览器,兼容性较好)
  1. 这就完成了在魔搭免费GPU算力中部署一个WebUI,独享算力通道玩转Wan2.1 文生视频模型啦!

2 LoRA模型的应用

  1. 如果已有LoRA文件,将其放在DiffSynth-Studio/models/lora/文件夹里。
  2. 再次点击运行。
  3. 重复文生视频的操作。

3 脚本中各项参数的使用

  1. 下载并安装DiffSynth-Studio,这是魔搭社区的开源Diffusion模型引擎

    项目链接: https://github.com/modelscope/DiffSynth-Studio

    bash 复制代码
    git clone https://github.com/modelscope/DiffSynth-Studio.git
    cd DiffSynth-Studio
    pip install -e .

2. wan2.1-t2v-1.3b文生视频模型包含3个组件:文本编码器、扩散模型和视频解码器。需要从魔搭模型库中下载3个组件对应的模型文件,并将这些模型文件放置到对应文件夹:

  • 文本编码器: models/Wan-AI/Wan2.1-T2V-1.3B/diffusion_pytorch_model.safetensors
  • 扩散模型: models/Wan-AI/Wan2.1-T2V-1.3B/models_t5_umt5-xxl-enc-bf16.pth
  • 视频解码器: models/Wan-AI/Wan2.1-T2V-1.3B/Wan2.1_VAE.pth

如果需要更换14b的模型,在截图下更改模型即可

下面就是一些gradio界面代码了,大家可以对照界面参考一下

相关推荐
风象南2 小时前
普通人用AI加持赚到的第一个100块
人工智能·后端
牛奶3 小时前
2026年大模型怎么选?前端人实用对比
前端·人工智能·ai编程
牛奶3 小时前
前端人为什么要学AI?
前端·人工智能·ai编程
罗西的思考6 小时前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
冬奇Lab6 小时前
OpenClaw 源码精读(2):Channel & Routing——一条消息如何找到它的 Agent?
人工智能·开源·源码阅读
冬奇Lab6 小时前
一天一个开源项目(第38篇):Claude Code Telegram - 用 Telegram 远程用 Claude Code,随时随地聊项目
人工智能·开源·资讯
格砸8 小时前
从入门到辞职|从ChatGPT到OpenClaw,跟上智能时代的进化
前端·人工智能·后端
可观测性用观测云8 小时前
可观测性 4.0:教系统如何思考
人工智能
sunny8658 小时前
Claude Code 跨会话上下文恢复:从 8 次纠正到 0 次的工程实践
人工智能·开源·github
小笼包包仔8 小时前
OpenClaw 多Agent软件开发最佳实践指南
人工智能