腾讯混元3D模型Hunyuan3D-1.0部署与推理优化指南

腾讯混元3D模型Hunyuan3D-1.0部署与推理优化指南

摘要:

本文将详细介绍如何部署腾讯混元3D模型Hunyuan3D-1.0,并针对不同硬件配置提供优化的推理方案。我们将探讨如何在有限的GPU内存下,通过调整配置来优化模型的推理性能。

1. 项目概览

腾讯混元3D模型Hunyuan3D-1.0是一个强大的生成模型,支持文本和图像条件生成。项目地址为:Hunyuan3D-1 GitHub。为了简化部署过程,AutoDL社区提供了预装所需依赖的镜像。
https://www.codewithgpu.com/i/Tencent/Hunyuan3D-1/Hunyuan3D-1.0

2. 硬件与软件配置

  • 系统:Ubuntu
  • GPU:NVIDIA GeForce RTX 4090 D(24GB VRAM)
  • 系统盘:30GB
  • 数据盘:50GB
  • 内存:60GB
  • 软件
    • Python 3.10
    • PyTorch 2.1.2+cu121
    • CUDA 12.1

3.AutoDL 环境配置与学术加速

开启学术加速,通过以下命令:

bash 复制代码
source /etc/network_turbo

取消学术加速:

bash 复制代码
unset http_proxy && unset https_proxy

查看剩余空间:

bash 复制代码
source ~/.bashrc
source /etc/network_turbo
conda init
conda activate /root/miniconda3

4. 安装PyTorch3D

根据PyTorch3D安装文档,我们可以通过以下命令安装

「pytorch3d-0.7.5-py310_cu121_pyt210-linux_x86_64.whl」

下载链接:https://pan.quark.cn/s/69791f03dced

PyTorch3D:

bash 复制代码
pip install pytorch3d-0.7.5-py310_cu121_pyt210-linux_x86_64.whl

或使用:

bash 复制代码
pip install --no-index --no-cache-dir pytorch3d -f https://dl.fbaipublicfiles.com/pytorch3d/packaging/wheels/py310_cu121_pyt210/download.html

5. CUDA检查

检查CUDA可用性和版本:

bash 复制代码
python -c "import torch; print(f'PyTorch 版本: {torch.__version__}'); print(f'CUDA 是否可用: {torch.cuda.is_available()}'); print(f'CUDA 版本: {torch.version.cuda if torch.cuda.is_available() else "N/A"}'); print(f'GPU 数量: {torch.cuda.device_count()}'); print(f'GPU 名称: {torch.cuda.get_device_name(0) if torch.cuda.is_available() else "N/A"}')"

示例输出:

PyTorch 版本: 2.1.2+cu121
CUDA 是否可用: True
CUDA 版本: 12.1
GPU 数量: 1
GPU 名称: NVIDIA GeForce RTX 4090 D

6. 项目部署

由于模型文件约28G,需在数据盘部署。首先克隆项目:

bash 复制代码
cd /root/autodl-tmp
git clone https://github.com/Tencent/Hunyuan3D-1
cd Hunyuan3D-1/

修改env_install.sh文件,删除不必要的安装命令,然后运行:

bash 复制代码
bash env_install.sh
pip install tbb

7. 下载模型

使用夸克网盘下载模型文件:
腾讯混元Hunyuan3D-1.0模型文件weights.7z

bash 复制代码
pip install "huggingface_hub[cli]"
#设置镜像加速
export HF_ENDPOINT=https://hf-mirror.com

mkdir weights\hunyuanDiT
huggingface-cli download tencent/Hunyuan3D-1 --local-dir weights

huggingface-cli download Tencent-Hunyuan/HunyuanDiT-v1.1-Diffusers-Distilled --local-dir weights/hunyuanDiT

8. 运行模型

对于小于30GB的GPU,使用Lite版并开启内存优化:

bash 复制代码
python3 app.py --use_lite --save_memory

对于大于30GB的GPU,使用标准版:

bash 复制代码
python3 app.py

9. Gradio演示

我们准备了两个版本的多视图生成,std和lite。运行以下命令后,通过http://<服务器IP>:8080访问演示:

bash 复制代码
python3 app.py
python3 app.py --save_memory
python3 app.py --use_lite
python3 app.py --use_lite --save_memory

结论:

本文提供了腾讯混元3D模型Hunyuan3D-1.0的详细部署和优化指南,帮助用户在不同硬件配置下实现高效的模型推理。