GPT-SoVITS音色克隆-模型训练步骤

GPT-SoVITS音色克隆-模型训练步骤

启动模型训练的主页面

1. 切到模型路径

复制代码
/psycheEpic/GPT-SoVITS
  • 进入Python虚拟环境,并挂起执行python脚本

    conda activate GPTSoVits
    nohup python ./webui.py >>./webui.log &

  • 查看日志 tail -500f webui.log

2. uvr5人声分离和去混响处理

  • 切换到路径

    cd /psycheEpic/GPT-SoVITS/tools/uvr5

  • 启动uvr5操作web界面

  • python webui.py "cuda" True 15666 True

3. 人声分离操作

在浏览器进入界面:https://73de21d131614dd42e.gradio.live,这个地址每次启动都会变得

先用HP2模型处理一遍(提取人声),然后将输出的干声音频再用onnx_dereverb最后用DeEcho-Aggressive(去混响),输出格式选wav。输出的文件默认在GPT-SoVITS-beta\GPT-SoVITS-beta\output\uvr5_opt这个文件夹下,建议不要改输出路径,到时候找不到文件谁也帮不了你。处理完的音频(vocal)的是人声,(instrument)是伴奏,(No Reverb)的没混响的,(Reverb)的是混响。(vocal)(No Reverb)才是要用的文件,其他都可以删除。结束后记得到WebUI关闭UVR5节省显存。

1)第一步先提前人声,人声和背景音乐分离,HP2模型

2)第二步将上一步分离出来的人声,上传作为输入,再使用onnx_dereverb提前一次人声

3)第三步将上一步的人声作为输入,去混响,使用DeEcho-Aggressive(去混响)

4. 将长音频进行切割

进入主页面操作:

5.给切割好的音频作为输入,给对路径,调用模型进行打标

为什么要打标:打标就是给每个音频配上文字,这样才能让AI学习到每个字该怎么读。这里的标指的是标注

这步很简单只要把刚才的切分文件夹输入,如果你音频降噪过,那么默认是output/slicer_opt文件夹,如果你切分了没有降噪,那么默认是output/slicer_opt文件夹。然后选择达摩ASR或者fast whisper。达摩ASR只能用于识别中文,效果也最好。fast whisper可以标注99种语言,是目前最好的英语和日语识别,模型尺寸选large V3,语种选auto自动就好了。然后点开启离线批量ASR就好了,默认输出是output/asr_opt这个路径,建议不要改输出路径,到时候找不到文件谁也帮不了你。ASR需要一些时间,看着控制台有没有报错就好了。

6. 标注校验

7.GPT-SoVITS-TTS-训练集格式化工具-填好参数一键三连

8. 微调训练

9. 模型推理,刷新模型

  • 执行脚本,打开推理页面

    进入Python环境
    conda activate GPTSoVits
    cd /psycheEpic/GPT-SoVITS/GPT_SoVITS/
    nohup python inference_webui.py >>./inference_webui.log &

相关推荐
zhaosuyuan14 小时前
InstructGPT 2022详细解读
gpt·语言模型·llm·gpt-3
飞鹰511 天前
CUDA高级优化实战:Stream、特殊内存与卷积优化—Week3学习总结
c++·gpt·chatgpt·gpu算力
百***78753 天前
Sora Video2 API国内接入避坑与场景落地:开发者实战笔记
人工智能·笔记·gpt
2301_772204283 天前
ARM——定时器(EPIT GPT)
gpt
松涛和鸣3 天前
60、嵌入式定时器深度解析:EPIT与GPT
c语言·arm开发·单片机·嵌入式硬件·gpt·fpga开发
edisao3 天前
【开源】轻量级 LLM 文本质检工具:精准识别核心概念缺失,支持动态别名 + 反馈闭环
大数据·开发语言·人工智能·经验分享·gpt·架构·开源
java1234_小锋3 天前
基于GPT-2通用文本模型全量微调训练
gpt
向量引擎4 天前
[硬核架构] 2026 企业级 AI 网关落地指南:从“连接超时”到“秒级响应”的架构演进(附 Python/Java 源码)
人工智能·python·gpt·ai作画·架构·aigc·api调用
百***78756 天前
【实操】一步API对接GPT-5.2全流程(多语言示例+高并发优化+避坑指南)
网络·gpt
墨_浅-6 天前
BERT与GPT:Transformer的双子星
gpt·bert·transformer