TTS-1技术报告:基于Transformer的文本转语音模型

TTS-1技术报告

我们介绍了Inworld TTS-1,这是一组两个基于Transformer的自回归文本转语音(TTS)模型。我们最大的模型TTS-1-Max拥有88亿参数,专为要求苛刻的应用场景提供最高质量和表现力。TTS-1是我们最高效的模型,具有16亿参数,专为实时语音合成和边缘设备用例而构建。

通过扩展训练计算量并应用语音语言模型(SpeechLM)组件的预训练、微调和RL对齐的序列化流程,这两个模型在各种基准测试中都实现了最先进的性能,仅依靠说话者语音的上下文学习就展现出卓越的质量。

Inworld TTS-1和TTS-1-Max能够以低延迟生成48kHz高分辨率语音,支持11种语言,并通过音频标记实现精细的情感控制和非语言发声。我们还以MIT许可证开源了训练和建模代码。

技术细节

  • 模型架构:基于Transformer的自回归模型
  • 参数量:TTS-1-Max(8.8B)/TTS-1(1.6B)
  • 采样率:48kHz高分辨率音频
  • 支持语言:11种
  • 特色功能:音频标记控制、情感表达、非语言发声
  • 训练流程:预训练→微调→RL对齐三阶段
  • 开源协议:MIT许可证

性能表现

模型在多项基准测试中达到state-of-the-art水平,完全基于上下文学习实现高质量的语音合成。特别在以下方面表现突出:

  1. 语音自然度和表现力
  2. 多语言支持能力
  3. 低延迟实时生成
  4. 边缘设备部署效率
    更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)
    公众号二维码
相关推荐
wbzuo2 小时前
Clip:Learning Transferable Visual Models From Natural Language Supervision
论文阅读·人工智能·transformer
AI即插即用3 小时前
即插即用涨点系列 (八):AMDNet 详解!AAAI 2025 SOTA,MLP 融合多尺度分解(MDM)与 AMS 的涨点新范式。
人工智能·pytorch·深度学习·目标检测·计算机视觉·transformer
高洁018 小时前
具身智能-8家国内外典型具身智能VLA模型深度解析
深度学习·神经网络·aigc·transformer·知识图谱
DogDaoDao12 小时前
大语言模型四大核心技术架构深度解析
人工智能·语言模型·架构·大模型·transformer·循环神经网络·对抗网络
shayudiandian12 小时前
Transformer结构完全解读:从Attention到LLM
人工智能·深度学习·transformer
一水鉴天13 小时前
整体设计 全面梳理复盘 之37 元级自动化引擎三体项目(Designer/Master/Transformer)划分确定 + 自用规划工具(增强版)
开发语言·算法·transformer·公共逻辑
Dyanic1 天前
融合尺度感知注意力、多模态提示学习与融合适配器的RGBT跟踪
人工智能·深度学习·transformer
carver w2 天前
transformer 手写数字识别
人工智能·深度学习·transformer
郭庆汝3 天前
(三)自然语言处理笔记——Transformer
笔记·自然语言处理·transformer
谏书稀4 天前
LLaMA Factory微调大模型
python·transformer·llama