【MLLM】Qwen3-TTS语音生成模型

note

  • Qwen3-TTS全面支持音色克隆、音色创造、超高质量拟人化语音生成,以及基于自然语言描述的语音控制,为开发者与用户提供最全面的语音生成功能。
  • 依托创新的 Qwen3-TTS-Tokenizer-12Hz 多码本语音编码器,Qwen3-TTS 实现了对语音信号的高效压缩与强表征能力,不仅完整保留副语言信息和声学环境特征,还能通过轻量级的非 DiT 架构实现高速、高保真的语音还原。Qwen3-TTS 采用 Dual-Track 双轨建模,达成了极致的双向流式生成速度,首包音频仅需等待一个字符。
  • Qwen3-TTS引入了两种类型的语音标记器,Qwen-TTS-Tokenizer-25Hz和Qwen-TTS-Tokenizer-12Hz。前者强调语义内容,后者则通过多码本设计和轻量级因果ConvNet实现超低延迟流式推理,兼顾了表达能力和实时性。

文章目录

一、Qwen3-TTS模型

ModerScope:https://www.modelscope.cn/collections/Qwen/Qwen3-TTS

HuggingFace:https://huggingface.co/collections/Qwen/qwen3-tts

Github:https://github.com/QwenLM/Qwen3-TTS

1、模型的输入类型

核心输入:文本内容(纯文字、带标点的自然语句、多语言混合文本)。

控制指令(可选):自然语言描述的音色、情感、语速、音量、方言 / 语言类型等,例如:

文本:"今天天气真好"

指令:"男生青年音,开心的情绪,语速 1.2 倍,粤语"

音色样本(可选):用于音色克隆的短音频片段(3 秒以上)。

2、模型的输出类型

核心输出:音频文件 / 音频流,主流格式为 WAV、MP3,采样率多为 24kHz/16kHz,音质接近真人。

附加输出(部分模型):韵律标记、音素数据、梅尔频谱图等,供二次开发或声学优化使用。

Qwen3-TTS是由Qwen开发的一系列功能强大的语音生成,全面支持音色克隆、音色创造、超高质量拟人化语音生成,以及基于自然语言描述的语音控制,为开发者与用户提供最全面的语音生成功能。

依托创新的 Qwen3-TTS-Tokenizer-12Hz 多码本语音编码器,Qwen3-TTS 实现了对语音信号的高效压缩与强表征能力,不仅完整保留副语言信息和声学环境特征,还能通过轻量级的非 DiT 架构实现高速、高保真的语音还原。Qwen3-TTS 采用 Dual-Track 双轨建模,达成了极致的双向流式生成速度,首包音频仅需等待一个字符。

Qwen3-TTS 多码本全系列模型均已开源,包含1.7B和0.6B两种尺寸,1.7B可以达到极致性能,具有强大的控制能力,0.6B均衡性能与效率。模型覆盖 10 种主流语言(中文、英文、日语、韩语、德语、法语、俄语、葡萄牙语、西班牙语、意大利语)及多种方言音色,满足全球化应用需求。同时,模型具备强大的上下文理解能力,可根据指令和文本语义自适应调整语气、节奏与情感表达,并对输入文本噪声的鲁棒性有显著提升。目前已经在Github上开源同时也可通过Qwen API体验。

二、模型架构

1、模型特点

主要特点:

  • 强大的语音表征:基于自研 Qwen3-TTS-Tokenizer-12Hz,实现语音信号的高效声学压缩与高维语义建模,完整保留副语言信息及声学环境特征,并可通过轻量级的非 DiT 架构实现高效、高保真语音还原。
  • 通用的端到端架构:采用离散多码本 LM 架构,实现语音全信息端到端建模,彻底规避传统 LM+DiT 方案的信息瓶颈与级联误差,显著提升模型的通用性、生成效率与效果上限。
  • 高极致的低延迟流式生成:基于创新的 Dual-Track 混合流式生成架构,单模型同时兼容流式与非流式生成,最快可在输入单字后即刻输出音频首包,端到端合成延迟低至 97ms,满足实时交互场景的严苛需求。
  • 智能的文本理解与语音控制:支持自然语言指令驱动的语音生成,灵活调控音色、情感、韵律等多维声学属性;同时深度融合文本语义理解,自适应调节语气、节奏、情感与韵律,实现"所想即所听"的拟人化表达。

2、tokenizer

Qwen-TTS-Tokenizer-25Hz:该标记器采用25 Hz的单码本表示,通过块流匹配实现波形重建。为了支持流式解码,提出了一种滑动窗口块注意力机制,限制每个标记的上下文范围。

Qwen-TTS-Tokenizer-12Hz:该标记器采用12.5 Hz的多码本方案,结合了语义和声学线索。通过轻量级因果卷积网络(ConvNet)实现波形重建,支持超低延迟流式推理。

训练过程:训练过程分为预训练和后训练两个阶段。预训练包括三个阶段:一般阶段(S1)、高质量阶段(S2)和长上下文阶段(S3)。后训练包括三个阶段:直接偏好优化(DPO)、基于规则的奖励和轻量级说话人微调。

三、模型效果

实验评估分为语音标记器和语音生成两个主要类别。语音标记器的评估包括自动语音识别(ASR)任务,语音生成的评估包括零样本语音生成、多语言语音生成、跨语言语音生成、可控语音生成、目标说话人语音生成和长语音生成。

对 Qwen3-TTS 在音色克隆、创造、控制等方面进行了全面评估,结果显示其在多项指标上都达到了SOTA性能。具体来说:

  • 音色创造任务上,Qwen3-TTS-VoiceDesign 在 InstructTTS-Eval 中指令遵循能力和生成表现力都整体超越 MiniMax-Voice-Design 闭源模型,并大幅领先其余开源模型。
  • 在音色控制任务上,Qwen3-TTS-Instruct 不仅具备单人多语言的泛化能力,平均词错率 2.34%;同时具备保持音色的风格控制能力,InstructTTS-Eval 取得了 75.4% 的分数;此外,也展现出卓越的长语音生成能力,一次性合成 10 分钟语音的中英词错率为 2.36/2.81%。
  • 在音色克隆任务上,Qwen3-TTS-VoiceClone 在 Seed-tts-eval 上中英文克隆的语音稳定性表现上均超越MiniMax和SeedTTS;在 TTS multilingual test set 上 10 个语项上取得了 1.835% 的平均词错误率和 0.789 的说话人相似度,超越 MiniMax 和 ElevenLabs;跨语种音色克隆也超越 CosyVoice3 位居 SOTA。

比如多语言语音生成任务评测:

Reference

1\] [Qwen3-TTS全家桶开源上线](https://mp.weixin.qq.com/s/96-RgV4jAimmvREYaM9N3Q) \[2\] ModerScope:https://www.modelscope.cn/collections/Qwen/Qwen3-TTS HuggingFace:https://huggingface.co/collections/Qwen/qwen3-tts Github:https://github.com/QwenLM/Qwen3-TTS \[3\] https://arxiv.org/pdf/2601.15621

相关推荐
北邮刘老师9 小时前
【热点关注】三国演义:工具调用(MCP)、技能仓库(Skills)和智能体互联(IoA),到底选哪个?
大模型·智能体·mcp·a2a·智能体互联网
韦东东18 小时前
MinerU2.5源码拆解:双后端架构设计与企业级部署实践
人工智能·大模型·部署·架构设计·mineru·双后端
张成AI20 小时前
Qwen3-TTS:2026年开源语音克隆与AI语音生成完全指南
tts
一个无名的炼丹师1 天前
DeepSeek+LangGraph构建企业级多模态RAG:从PDF复杂解析到Agentic智能检索全流程实战
python·pdf·大模型·多模态·rag
玉梅小洋1 天前
Claude Code 从入门到精通(一):安装、CLI 实战与全场景集成手册
ai·大模型·编辑器·ai编程·claude
wangmengxxw1 天前
SpringAi-MCP技术
java·大模型·springai·mcp
Java后端的Ai之路1 天前
【AI大模型开发】-RAG多模态详解(通俗易懂)
人工智能·大模型·rag多模态
CoderJia程序员甲1 天前
GitHub 热榜项目 - 日榜(2026-01-23)
人工智能·ai·大模型·github·ai教程
富贵0072 天前
解码器(Decoder)与编码器(Encoder)的简明解析
大模型·transformer