【保姆级教程】阿里 Wan2.1-T2V-14B 模型本地部署全流程:从环境配置到视频生成(附避坑指南)

阿里 Wan2.1 在 Windows 系统的部署实践笔记(更新版)

https://github.com/Wan-Video/Wan2.1.git

一、克隆仓库

  1. 项目地址https://github.com/Wan-Video/Wan2.1.git

    复制代码
    https://github.com/Wan-Video/Wan2.1.git
  2. 克隆方式:使用 GitHub Desktop (较为稳定和快速)克隆仓库到本地



二、创建虚拟环境

Python 多版本环境治理理念驱动的系统架构设计------三维治理、四级隔离、五项自治 原则(路径治理升级修订 V 2.0 版)-CSDN博客

  1. 用 PyCharm 打开项目文件夹
  2. PyCharm 会自动识别项目中的requirements.txt
  3. 按照弹窗引导,配置基础 Python 解释器,由 PyCharm 自动创建.venv虚拟环境


三、调整依赖配置

修改 requirements.txt 文件,注释掉torch及相关项(后续将单独安装适配 Windows 的版本)


注释以下项:

复制代码
# 第 1 行 torch>=2.4.0 
# 第 2 行 torchvision>=0.19.0

# 第 14 行 flash_attn

原因说明:

第 1 行 和 第 2 行,直接安装会安装 torch 的 CPU 版,无法启用 CUDA 加速。如需 CUDA 的 GPU 加速,需使用 PyTorch 官网的命令安装。

对于稳定的 PyTorch 的 CUDA GPU 支持,请参见以下博客:

PyTorch 的 CUDA GPU 支持 · 安装五条铁律(最新版 2025 修订)(适用于所有用户)_pytorch 2.7.1支持的cudnn-CSDN博客

第 14 行 ,因为 pypi 仓库目前还没有直接适配 Windows 的 flash-attn 版本,直接安装会导致失败,并且 flash-attn 的安装依赖项之一是 torch ,所以等 torch 安装完成并验证成功后,再行安装flash-attn 的 .whl 文件。

Windows 系统中安装 flash - attn _flash-attn windows-CSDN博客


修改后的 requirements.txt 文件

注释后的 requirements.txt 文件内容:

复制代码
# torch>=2.4.0
# torchvision>=0.19.0
opencv-python>=4.9.0.80
diffusers>=0.31.0
transformers>=4.49.0
tokenizers>=0.20.3
accelerate>=1.1.1
tqdm
imageio
easydict
ftfy
dashscope
imageio-ffmpeg
# flash_attn
gradio>=5.0.0
numpy>=1.23.5,<2

修改完成后,先不安装,待 PyTorch 安装完成后再行安装。



四、安装 PyTorch

PyTorch 官网 | 开始使用

  1. 安装命令 (以 CUDA 12.8 为例):

    复制代码
    pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu128
  2. 验证安装

    进入 Python 环境并运行:

    复制代码
    python

    粘贴以下全部脚本内容并按 回车 键。

    复制代码
    import torch  # 导入 PyTorch 库
     
    print("PyTorch 版本:", torch.__version__)  # 打印 PyTorch 的版本号
     
    # 检查 CUDA 是否可用,并设置设备("cuda:0" 或 "cpu")
    device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
    print("设备:", device)  # 打印当前使用的设备
    print("CUDA 可用:", torch.cuda.is_available())  # 打印 CUDA 是否可用
    print("cuDNN 已启用:", torch.backends.cudnn.enabled)  # 打印 cuDNN 是否已启用
     
    # 打印 PyTorch 支持的 CUDA 和 cuDNN 版本
    print("支持的 CUDA 版本:", torch.version.cuda)
    print("cuDNN 版本:", torch.backends.cudnn.version())
     
    # 创建两个随机张量(默认在 CPU 上)
    x = torch.rand(5, 3)
    y = torch.rand(5, 3)
     
    # 将张量移动到指定设备(CPU 或 GPU)
    x = x.to(device)
    y = y.to(device)
     
    # 对张量进行逐元素相加
    z = x + y
     
    # 打印结果
    print("张量 z 的值:")
    print(z)  # 输出张量 z 的内容

注意确认 验证输出的 细节

验证PyTorch深度学习环境Torch和CUDA还有cuDNN是否正确配置的命令-CSDN博客



五、安装项目依赖

安装修改过后的 requirements.txt 文件:

复制代码
pip install -r requirements.txt

requirements.txt 文件修改过后安装基本不会有什么问题。

安装完成后请进行下一步。



六、安装 flash-attn

https://github.com/kingbri1/flash-attention/releases

  1. 下载预编译包
    https://github.com/kingbri1/flash-attention/releases下载适用于 Windows、CUDA 12.8 和对应 Python 版本的.whl文件(例如flash_attn-2.8.3+cu128torch2.8.0cxx11abiFALSE-cp311-cp311-win_amd64.whl),并移动到项目文件夹内,避免因文件名和路径过长导致的安装失败。

    复制代码
    # 文件名:
    flash_attn-2.8.3+cu128torch2.8.0cxx11abiFALSE-cp311-cp311-win_amd64.whl

    说明:flash-attn 版本号:2.8.3 ;适配 CUDA 12.8 版;适配torch 2.8.0 版;适用于python 3.11 版。这些版本号需一一对应。


  2. 安装命令

    复制代码
    pip install flash_attn-2.8.3+cu128torch2.8.0cxx11abiFALSE-cp311-cp311-win_amd64.whl

    命令说明:

    复制代码
    # .whl文件在当前目录
    pip install 下载的.whl文件
    
    # .whl文件不在当前目录
    pip install 下载的.whl文件"完整路径+完整文件名.whl"
    # 比如:.whl 在 "E:\Downloads\flash_attn-2.8.3+cu128torch2.8.0cxx11abiFALSE-cp311-cp311-win_amd64.whl",则安装命令为(不过路径和文件名过长容易导致安装失败):
    pip install "E:\Downloads\flash_attn-2.8.3+cu128torch2.8.0cxx11abiFALSE-cp311-cp311-win_amd64.whl"

    或者使用自动从文件源下载并执行安装的命令:

    复制代码
    pip install https://github.com/kingbri1/flash-attention/releases/download/v2.8.3/flash_attn-2.8.3+cu128torch2.8.0cxx11abiFALSE-cp311-cp311-win_amd64.whl

  3. 验证安装

    复制代码
    python -c "import flash_attn; print('flash-attn 安装成功,版本:', flash_attn.__version__)"

七、下载模型文件

  1. 安装下载工具

    复制代码
    pip install "huggingface_hub[cli]"
    pip install hf_xet  # 解决Xet Storage存储的性能优化依赖
    pip install modelscope

    说明:hf_xet是用于优化 Xet Storage 存储的下载性能,若未安装会提示警告并降级为普通 HTTP 下载,建议安装以提升大文件下载速度。


通过 Hugging Face 下载

复制代码
   hf download Wan-AI/Wan2.1-T2V-14B --local-dir ./Wan2.1-T2V-14B

注意:下载过程中可能会显示进度条和文件下载信息,属于正常现象。若遇到网络问题可中断后重新执行命令,支持断点续传。

  1. 或通过 ModelScope 下载

    复制代码
    modelscope download Wan-AI/Wan2.1-T2V-14B --local_dir ./Wan2.1-T2V-14B


八、运行测试

执行文本生成视频测试命令:

复制代码
python generate.py  --task t2v-14B --size 1280*720 --ckpt_dir ./Wan2.1-T2V-14B --prompt "Two anthropomorphic cats in comfy boxing gear and bright gloves fight intensely on a spotlighted stage."

注意:根据硬件配置不同,可能需要调整参数(如--size选择更低分辨率、--offload_model True等)以确保运行流畅。对于 1.3B 模型,建议添加--sample_guide_scale 6参数。

相关推荐
木头左4 小时前
结合机器学习的Backtrader跨市场交易策略研究
人工智能·机器学习·kotlin
Coovally AI模型快速验证4 小时前
3D目标跟踪重磅突破!TrackAny3D实现「类别无关」统一建模,多项SOTA达成!
人工智能·yolo·机器学习·3d·目标跟踪·无人机·cocos2d
研梦非凡4 小时前
CVPR 2025|基于粗略边界框监督的3D实例分割
人工智能·计算机网络·计算机视觉·3d
MiaoChuAI5 小时前
秒出PPT vs 豆包AI PPT:实测哪款更好用?
人工智能·powerpoint
He1955015 小时前
Go初级之十:错误处理与程序健壮性
开发语言·python·golang
fsnine5 小时前
深度学习——残差神经网路
人工智能·深度学习
Chukai1235 小时前
Windows 和 Linux 系统下修改防火墙机制开放端口
linux·运维·windows
和鲸社区5 小时前
《斯坦福CS336》作业1开源,从0手搓大模型|代码复现+免环境配置
人工智能·python·深度学习·计算机视觉·语言模型·自然语言处理·nlp
fanstuck5 小时前
2025 年高教社杯全国大学生数学建模竞赛C 题 NIPT 的时点选择与胎儿的异常判定详解(一)
人工智能·目标检测·数学建模·数据挖掘·aigc