#LatentSync技术原理
字节跳动开源的基于音频条件潜在扩散模型的端到端唇同步框架,基于潜在扩散模型,以音频条件潜在扩散模型为基础,利用 Stable Diffusion 强大能力,直接建模复杂的音频与视觉之间的关系,实现高质量的唇形同步. 从而制作虚拟主播与数字人等应用
#部署环境
win11 16G显存 (4060Ti)
git version 2.47.1.windows.2
conda 24.11.3
#前期准备
cuda环境
检查:
nvcc --version
![](https://i-blog.csdnimg.cn/direct/c51f4a9334074835be7d10ccdade2255.png)
nvidia-smi
![](https://i-blog.csdnimg.cn/direct/2e618e0fb20e484f82a015bffa191ffc.png)
#部署流程
下载项目源码:
git clone https://github.com/bytedance/LatentSync.git
![](https://i-blog.csdnimg.cn/direct/931412a11da8436b8e9e13a07596fab8.png)
conda使用国内镜像:
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/msys2/
创建python环境:
conda create -n ltsenv python==3.10
进入隔离环境:
conda activate ltsenv
pyTorch官网:
![](https://i-blog.csdnimg.cn/direct/87b22cc216c14e57804facf2e74091a7.png)
选择CUDA 12.4 :
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124
![](https://i-blog.csdnimg.cn/direct/c80f1d7ee81a4b36b55e14e2da15b60f.png)
注意 windows 环境下, python依赖 triton 2.2版本 无法使用
需要手动替换win支持的低版本 手动安装whl包
安装视频库:
conda install -c conda-forge ffmpeg
![](https://i-blog.csdnimg.cn/direct/12fc0a998a0544eea2601db09a7a7597.png)
windows :
Please check your internet connection. This can happen if your antivirus software blocks the download of this file. You can install manually by following these steps:
- Download this file: https://cdn-media.huggingface.co/frpc-gradio-0.3/frpc_windows_amd64.exe
- Rename the downloaded file to: frpc_windows_amd64_v0.3
- Move the file to this location: C:\DevTools\anaconda3\envs\ltsenv\lib\site-packages\gradio
以上步骤全部完成后 需要手动下载以下文件: (因hugging face仓库国内访问受限)
https://hf-mirror.com/ByteDance/LatentSync/resolve/main/whisper/tiny.pt
https://hf-mirror.com/ByteDance/LatentSync/resolve/main/latentsync_syncnet.pt
https://hf-mirror.com/ByteDance/LatentSync/resolve/main/latentsync_unet.pt
或直接搜索国内镜像源 https://hf-mirror.com/ 镜像站 >搜索 LatentSync
完成后进入项目根目录
创建checkpoints / whisper 2个文件夹
结构如下:
./checkpoints/
|--latentsync_unet.pt
|--latentsync_syncnet.pt
|--whisper
--thiy.pt
![](https://i-blog.csdnimg.cn/direct/5326abd349fc473fa36b13180700e551.png)
![](https://i-blog.csdnimg.cn/direct/85131a40574045d9ab759044b371aa0a.png)
找到根目录下的 requirements.txt文件, win环境下需要删除,liunx跳过
torch==2.2.2
torchvision==0.17.2
--extra-index-url https://download.pytorch.org/whl/cu121
xformers==0.0.26
triton==2.2.0
安装项目依赖
pip install requirements.txt -i https://mirrors.aliyun.com/pypi/simple
#启动项目
python gradio_app.py
![](https://i-blog.csdnimg.cn/direct/4931a880ebe9473cb7ad0a45963504dc.png)
启动之后通过 127.0.0.1:7860 进入操作界面 ,同时会给一个临时的外网URL访问.
![](https://i-blog.csdnimg.cn/direct/85a5dec554834b24b4a07809bd3e3947.png)
####################至此部署完成####################
###################################################
#遇见问题
gradio.exceptions.Error: 'Error during processing: stabilityai/sd-vae-ft-mse does not appear to have a file named diffusion_pytorch_model.bin.'
原因是国内访问不了huggingface 我们使用镜像源
解决方式:
在虚拟环境的 "../huggingface_hub"中找到:constants.py文件,将原来的默认网址修改为镜像网址
_HF_DEFAULT_ENDPOINT = "https://huggingface.co"
_HF_DEFAULT_ENDPOINT = "https://hf-mirror.com"
亲测 16G显存 生成30秒视频 约5分钟左右. 可结合 文本转音频技术完成真人版数字人功能