1、概述
GPT-SoVITS是一款开源的语音合成模型,结合了深度学习和声学技术,能够实现高质量的语音生成。其独特之处在于支持使用参考音频进行零样本语音合成,即使没有直接的训练数据,模型仍能生成相似风格的语音。用户可以通过微调模型,进一步提升其性能,以适应特定的应用需求。
2、部署
(1)下载
项目地址:https://github.com/RVC-Boss/GPT-SoVITS
试用demo:https://gsv.acgnai.top/
(2)依赖环境安装
1)安装conda,用于部署独立的python环境
2)新建conda环境,然后安装python3.9 / pytorch2.2.1
python需要安装cuda版本:https://pytorch.ac.cn/get-started/locally/
使用得到的conda命令进行安装。
3)安装ffmpeg
具体参考:Linux-centos下安装ffmpeg的详细(保姆级教程)教程无脑复制粘贴等待即可_linux centos 安装ffmpeg-CSDN博客
4)安装git
yum install git
yum install git-lfs
yum install rust
下载代码:git clone --depth=1 https://github.com/RVC-Boss/GPT-SoVITS
5)安装python依赖包
在GPT-SoVITS根目录下:
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt
(3)下载预训练模型
针对报错:
模型位于:https://huggingface.co/lj1995/GPT-SoVITS/tree/main
下载后放到GPT_SoVITS根目录/GPT_SoVITS/pretrained_models下,而不是GPT_SoVITS根目录/pretrained_models。
目录结构如下:
(4)下载训练模型
cd xx/GPT-SoVITS/tools/asr/models
git lfs install
git clone https://www.modelscope.cn/iic/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch.git
git clone https://www.modelscope.cn/iic/punc_ct-transformer_zh-cn-common-vocab272727-pytorch.git
git clone https://www.modelscope.cn/iic/speech_fsmn_vad_zh-cn-16k-common-pytorch.git
3、程序运行
(1)推理操作
在GPT-SoVITS根目录下运行命令:
python webui.py zh_CN
切换到1C-推理模块:
点击"开启TTS推理WebUI"
后台执行日志如下:
"/data/work/anaconda3/envs/vits/bin/python" GPT_SoVITS/inference_webui.py "zh_CN"
<All keys matched successfully>
Number of parameter: 77.61M
Running on local URL: http://0.0.0.0:9872
切换成9872端口:
然后上传3-10秒的参考音频(不上传会报错),填写需要合成的文本,点击"合成语音"。
后台执行日志参考如下:
(2)报错处理
ps:假如运行时报错如下,这是预训练模型没有下载,或者存放的位置不正确。
虽然程序可以打开了,但是linux服务器上报错如下,显示预训练模型没有加载。这样虽然界面打开了,但是功能将无法正常使用。