腾讯混元3D模型Hunyuan3D-1.0部署与推理优化指南
摘要:
本文将详细介绍如何部署腾讯混元3D模型Hunyuan3D-1.0,并针对不同硬件配置提供优化的推理方案。我们将探讨如何在有限的GPU内存下,通过调整配置来优化模型的推理性能。
1. 项目概览
腾讯混元3D模型Hunyuan3D-1.0是一个强大的生成模型,支持文本和图像条件生成。项目地址为:Hunyuan3D-1 GitHub。为了简化部署过程,AutoDL社区提供了预装所需依赖的镜像。
https://www.codewithgpu.com/i/Tencent/Hunyuan3D-1/Hunyuan3D-1.0
2. 硬件与软件配置
- 系统:Ubuntu
- GPU:NVIDIA GeForce RTX 4090 D(24GB VRAM)
- 系统盘:30GB
- 数据盘:50GB
- 内存:60GB
- 软件 :
- Python 3.10
- PyTorch 2.1.2+cu121
- CUDA 12.1
3.AutoDL 环境配置与学术加速
开启学术加速,通过以下命令:
bash
source /etc/network_turbo
取消学术加速:
bash
unset http_proxy && unset https_proxy
查看剩余空间:
bash
source ~/.bashrc
source /etc/network_turbo
conda init
conda activate /root/miniconda3
4. 安装PyTorch3D
根据PyTorch3D安装文档,我们可以通过以下命令安装
「pytorch3d-0.7.5-py310_cu121_pyt210-linux_x86_64.whl」
下载链接:https://pan.quark.cn/s/69791f03dced
PyTorch3D:
bash
pip install pytorch3d-0.7.5-py310_cu121_pyt210-linux_x86_64.whl
或使用:
bash
pip install --no-index --no-cache-dir pytorch3d -f https://dl.fbaipublicfiles.com/pytorch3d/packaging/wheels/py310_cu121_pyt210/download.html
5. CUDA检查
检查CUDA可用性和版本:
bash
python -c "import torch; print(f'PyTorch 版本: {torch.__version__}'); print(f'CUDA 是否可用: {torch.cuda.is_available()}'); print(f'CUDA 版本: {torch.version.cuda if torch.cuda.is_available() else "N/A"}'); print(f'GPU 数量: {torch.cuda.device_count()}'); print(f'GPU 名称: {torch.cuda.get_device_name(0) if torch.cuda.is_available() else "N/A"}')"
示例输出:
PyTorch 版本: 2.1.2+cu121
CUDA 是否可用: True
CUDA 版本: 12.1
GPU 数量: 1
GPU 名称: NVIDIA GeForce RTX 4090 D
6. 项目部署
由于模型文件约28G,需在数据盘部署。首先克隆项目:
bash
cd /root/autodl-tmp
git clone https://github.com/Tencent/Hunyuan3D-1
cd Hunyuan3D-1/
修改env_install.sh
文件,删除不必要的安装命令,然后运行:
bash
bash env_install.sh
pip install tbb
7. 下载模型
使用夸克网盘下载模型文件:
腾讯混元Hunyuan3D-1.0模型文件weights.7z
bash
pip install "huggingface_hub[cli]"
#设置镜像加速
export HF_ENDPOINT=https://hf-mirror.com
mkdir weights\hunyuanDiT
huggingface-cli download tencent/Hunyuan3D-1 --local-dir weights
huggingface-cli download Tencent-Hunyuan/HunyuanDiT-v1.1-Diffusers-Distilled --local-dir weights/hunyuanDiT
8. 运行模型
对于小于30GB的GPU,使用Lite版并开启内存优化:
bash
python3 app.py --use_lite --save_memory
对于大于30GB的GPU,使用标准版:
bash
python3 app.py
9. Gradio演示
我们准备了两个版本的多视图生成,std和lite。运行以下命令后,通过http://<服务器IP>:8080
访问演示:
bash
python3 app.py
python3 app.py --save_memory
python3 app.py --use_lite
python3 app.py --use_lite --save_memory
结论:
本文提供了腾讯混元3D模型Hunyuan3D-1.0的详细部署和优化指南,帮助用户在不同硬件配置下实现高效的模型推理。