【保姆级教程】阿里 Wan2.1-T2V-14B 模型本地部署全流程:从环境配置到视频生成(附避坑指南)

阿里 Wan2.1 在 Windows 系统的部署实践笔记(更新版)

https://github.com/Wan-Video/Wan2.1.git

一、克隆仓库

  1. 项目地址https://github.com/Wan-Video/Wan2.1.git

    复制代码
    https://github.com/Wan-Video/Wan2.1.git
  2. 克隆方式:使用 GitHub Desktop (较为稳定和快速)克隆仓库到本地



二、创建虚拟环境

Python 多版本环境治理理念驱动的系统架构设计------三维治理、四级隔离、五项自治 原则(路径治理升级修订 V 2.0 版)-CSDN博客

  1. 用 PyCharm 打开项目文件夹
  2. PyCharm 会自动识别项目中的requirements.txt
  3. 按照弹窗引导,配置基础 Python 解释器,由 PyCharm 自动创建.venv虚拟环境


三、调整依赖配置

修改 requirements.txt 文件,注释掉torch及相关项(后续将单独安装适配 Windows 的版本)


注释以下项:

复制代码
# 第 1 行 torch>=2.4.0 
# 第 2 行 torchvision>=0.19.0

# 第 14 行 flash_attn

原因说明:

第 1 行 和 第 2 行,直接安装会安装 torch 的 CPU 版,无法启用 CUDA 加速。如需 CUDA 的 GPU 加速,需使用 PyTorch 官网的命令安装。

对于稳定的 PyTorch 的 CUDA GPU 支持,请参见以下博客:

PyTorch 的 CUDA GPU 支持 · 安装五条铁律(最新版 2025 修订)(适用于所有用户)_pytorch 2.7.1支持的cudnn-CSDN博客

第 14 行 ,因为 pypi 仓库目前还没有直接适配 Windows 的 flash-attn 版本,直接安装会导致失败,并且 flash-attn 的安装依赖项之一是 torch ,所以等 torch 安装完成并验证成功后,再行安装flash-attn 的 .whl 文件。

Windows 系统中安装 flash - attn _flash-attn windows-CSDN博客


修改后的 requirements.txt 文件

注释后的 requirements.txt 文件内容:

复制代码
# torch>=2.4.0
# torchvision>=0.19.0
opencv-python>=4.9.0.80
diffusers>=0.31.0
transformers>=4.49.0
tokenizers>=0.20.3
accelerate>=1.1.1
tqdm
imageio
easydict
ftfy
dashscope
imageio-ffmpeg
# flash_attn
gradio>=5.0.0
numpy>=1.23.5,<2

修改完成后,先不安装,待 PyTorch 安装完成后再行安装。



四、安装 PyTorch

PyTorch 官网 | 开始使用

  1. 安装命令 (以 CUDA 12.8 为例):

    复制代码
    pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu128
  2. 验证安装

    进入 Python 环境并运行:

    复制代码
    python

    粘贴以下全部脚本内容并按 回车 键。

    复制代码
    import torch  # 导入 PyTorch 库
     
    print("PyTorch 版本:", torch.__version__)  # 打印 PyTorch 的版本号
     
    # 检查 CUDA 是否可用,并设置设备("cuda:0" 或 "cpu")
    device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
    print("设备:", device)  # 打印当前使用的设备
    print("CUDA 可用:", torch.cuda.is_available())  # 打印 CUDA 是否可用
    print("cuDNN 已启用:", torch.backends.cudnn.enabled)  # 打印 cuDNN 是否已启用
     
    # 打印 PyTorch 支持的 CUDA 和 cuDNN 版本
    print("支持的 CUDA 版本:", torch.version.cuda)
    print("cuDNN 版本:", torch.backends.cudnn.version())
     
    # 创建两个随机张量(默认在 CPU 上)
    x = torch.rand(5, 3)
    y = torch.rand(5, 3)
     
    # 将张量移动到指定设备(CPU 或 GPU)
    x = x.to(device)
    y = y.to(device)
     
    # 对张量进行逐元素相加
    z = x + y
     
    # 打印结果
    print("张量 z 的值:")
    print(z)  # 输出张量 z 的内容

注意确认 验证输出的 细节

验证PyTorch深度学习环境Torch和CUDA还有cuDNN是否正确配置的命令-CSDN博客



五、安装项目依赖

安装修改过后的 requirements.txt 文件:

复制代码
pip install -r requirements.txt

requirements.txt 文件修改过后安装基本不会有什么问题。

安装完成后请进行下一步。



六、安装 flash-attn

https://github.com/kingbri1/flash-attention/releases

  1. 下载预编译包
    https://github.com/kingbri1/flash-attention/releases下载适用于 Windows、CUDA 12.8 和对应 Python 版本的.whl文件(例如flash_attn-2.8.3+cu128torch2.8.0cxx11abiFALSE-cp311-cp311-win_amd64.whl),并移动到项目文件夹内,避免因文件名和路径过长导致的安装失败。

    复制代码
    # 文件名:
    flash_attn-2.8.3+cu128torch2.8.0cxx11abiFALSE-cp311-cp311-win_amd64.whl

    说明:flash-attn 版本号:2.8.3 ;适配 CUDA 12.8 版;适配torch 2.8.0 版;适用于python 3.11 版。这些版本号需一一对应。


  2. 安装命令

    复制代码
    pip install flash_attn-2.8.3+cu128torch2.8.0cxx11abiFALSE-cp311-cp311-win_amd64.whl

    命令说明:

    复制代码
    # .whl文件在当前目录
    pip install 下载的.whl文件
    
    # .whl文件不在当前目录
    pip install 下载的.whl文件"完整路径+完整文件名.whl"
    # 比如:.whl 在 "E:\Downloads\flash_attn-2.8.3+cu128torch2.8.0cxx11abiFALSE-cp311-cp311-win_amd64.whl",则安装命令为(不过路径和文件名过长容易导致安装失败):
    pip install "E:\Downloads\flash_attn-2.8.3+cu128torch2.8.0cxx11abiFALSE-cp311-cp311-win_amd64.whl"

    或者使用自动从文件源下载并执行安装的命令:

    复制代码
    pip install https://github.com/kingbri1/flash-attention/releases/download/v2.8.3/flash_attn-2.8.3+cu128torch2.8.0cxx11abiFALSE-cp311-cp311-win_amd64.whl

  3. 验证安装

    复制代码
    python -c "import flash_attn; print('flash-attn 安装成功,版本:', flash_attn.__version__)"

七、下载模型文件

  1. 安装下载工具

    复制代码
    pip install "huggingface_hub[cli]"
    pip install hf_xet  # 解决Xet Storage存储的性能优化依赖
    pip install modelscope

    说明:hf_xet是用于优化 Xet Storage 存储的下载性能,若未安装会提示警告并降级为普通 HTTP 下载,建议安装以提升大文件下载速度。


通过 Hugging Face 下载

复制代码
   hf download Wan-AI/Wan2.1-T2V-14B --local-dir ./Wan2.1-T2V-14B

注意:下载过程中可能会显示进度条和文件下载信息,属于正常现象。若遇到网络问题可中断后重新执行命令,支持断点续传。

  1. 或通过 ModelScope 下载

    复制代码
    modelscope download Wan-AI/Wan2.1-T2V-14B --local_dir ./Wan2.1-T2V-14B


八、运行测试

执行文本生成视频测试命令:

复制代码
python generate.py  --task t2v-14B --size 1280*720 --ckpt_dir ./Wan2.1-T2V-14B --prompt "Two anthropomorphic cats in comfy boxing gear and bright gloves fight intensely on a spotlighted stage."

注意:根据硬件配置不同,可能需要调整参数(如--size选择更低分辨率、--offload_model True等)以确保运行流畅。对于 1.3B 模型,建议添加--sample_guide_scale 6参数。

相关推荐
不会用AI的老炮18 小时前
【AI coding 智能体设计系列-07】规约驱动:让交付可复现的Spec工作流
人工智能·ai·ai编程
liulilittle18 小时前
VEthernet 框架实现 tun2socks 的技术原理
网络·windows·c#·信息与通信·通信
产品人卫朋18 小时前
「产品、IPD、战略、流程」知识图谱速查清单.v7.0
人工智能·知识图谱·产品经理·需求分析·创业·ipd流程·华为ipd
用户51914958484518 小时前
深入剖析CVE-2025-41115:Grafana企业版SCIM特权升级漏洞利用实践
人工智能·aigc
詹某某341118 小时前
国密内网IP证书申请指南
github·ssl
苏子铭18 小时前
个人笔记,关于数学工具箱功能规划与架构设计
人工智能·机器学习
盈创力和200718 小时前
从“感知”到“认知”:基于边缘AI的以太网多参量环境传感器如何重构工业物联终端?
人工智能·以太网多合一传感器·以太网温湿度气体多参量传感器
数据大魔方18 小时前
【期货量化入门】期权交易入门:从零开始学期权量化(TqSdk完整教程)
数据库·python·mysql·算法·区块链·程序员创富
rit843249918 小时前
基于高斯混合模型(GMM)的语音识别系统:MATLAB实现与核心原理
人工智能·matlab·语音识别
独钓寒江雨18 小时前
win11在安全模式下删除360tray.exe
windows·电脑