基于时序上下文编码的端到端无文本依赖语音分词模型

摘要

针对传统语音分词采用"语音识别转写-文本分词"级联范式存在的误差传导、强标注依赖、计算冗余等固有缺陷,本文提出一种端到端语音分词模型,彻底摆脱对文本转写环节的依赖,直接在语音声学域完成词级语义单元的边界检测与语义编码。模型采用时序卷积网络(TCN)与双向门控循环单元(BiGRU)构建轻量化时序上下文编码器,通过边界检测与语义编码双分支联合优化,实现"一步式"语音分词。同时构建无需语音-文本成对标注的自监督训练框架,大幅降低模型对标注数据的依赖。在中英文公开数据集上的实验结果表明,本文模型在边界检测F1值、分词准确率上均显著优于传统级联范式与现有基线方法,在低资源、强噪声场景下具备更突出的鲁棒性,同时参数量仅为Transformer端到端基线的40%,推理速度提升60%,为语音语义理解提供了高效、鲁棒的端到端解决方案。

关键词:语音分词;端到端学习;时序编码;自监督学习;语音理解

1 引言

随着智能语音交互、多模态大模型的快速发展,语音作为自然便捷的交互媒介,其语义理解需求日益增长。分词作为自然语言处理的基础任务,是语义解析、意图识别、对话理解等下游任务的核心前置环节。文本域分词技术已相对成熟,但语音域传统分词方案普遍采用**"自动语音识别(ASR)转写→文本分词"的级联范式**,存在三大不可忽视的固有缺陷:

  1. 误差传导效应:ASR转写过程中产生的同音字替换、漏字、多字等错误,会直接传导至分词环节,导致系统性偏差。在口语化场景、低资源语言、强噪声环境下,ASR准确率显著下降,分词效果会急剧恶化;

  2. 强标注数据依赖:级联范式的高性能依赖成对的语音-文本标注数据,对于标注资源稀缺的方言、小众语言,难以构建可用的分词系统;

  3. 计算冗余与优化断层:级联范式存在多步冗余计算,且ASR与分词两个环节无法实现端到端联合优化,推理效率与性能上限均存在瓶颈。

现有语音分词相关研究仍存在明显局限:基于手工声学特征的边界检测方法仅能实现音素级切分,无法区分语义层面的词边界;基于预训练语音表示的聚类方法,将边界检测与语义聚类拆分为独立步骤,无法端到端联合优化;多任务联合学习方法仍未脱离文本表示依赖,无法实现无文本标注的训练。

针对上述问题,本文提出一种基于时序上下文编码的端到端语音分词模型,直接在语音声学域完成词级语义单元的划分,核心创新点如下:

  1. 提出双分支端到端架构,同步实现语音词边界检测与语义单元编码,两个任务联合优化,彻底避免级联范式的误差累积;

  2. 构建无文本依赖的自监督训练框架,基于声学特征突变生成边界伪标签,采用动量对比学习实现语义聚类优化,大幅降低标注数据依赖;

  3. 采用轻量化TCN+BiGRU混合编码器,兼顾局部特征捕捉与长距离上下文建模能力,在性能优于基线的同时,具备更低的计算开销与部署友好性。

2 相关工作

2.1 传统语音分词方法

传统语音分词普遍采用级联架构,先通过ASR模型将连续语音转换为文本,再使用Jieba、SpaCy等成熟文本分词工具完成分词。该方案实现门槛低,是目前工业界的主流方案,但受限于级联架构的固有缺陷,非理想场景下性能难以保障。部分早期研究基于隐马尔可夫模型(HMM)、条件随机场(CRF)建模语音时序特征,实现词边界检测,但这类方法依赖手工设计的声学特征,泛化能力有限,无法适配复杂的口语化场景。

2.2 自监督语音表示学习

近年来,Wav2Vec 2.0、HuBERT、WavLM等自监督语音模型,通过掩码预测任务在海量无标注语音数据上学习到了富含语义信息的语音表示,显著提升了各类语音下游任务的性能。这类模型为语音分词提供了新的思路,但现有基于预训练特征的分词方法,通常将边界检测与语义聚类拆分为两个独立步骤,无法实现端到端联合优化,且预训练模型并非针对分词任务设计,对词边界的语义特征捕捉能力不足,分词精度存在明显瓶颈。

2.3 端到端语音处理范式

端到端学习已成为语音处理领域的主流发展方向,从端到端ASR到端到端语音翻译、语音对话系统,端到端范式通过统一架构实现任务目标,避免了级联范式的误差累积与冗余计算。在语音分词领域,已有少量研究尝试构建基于Transformer的端到端边界检测模型,但这类模型仍依赖文本标注数据进行监督训练,无法实现无文本依赖的自监督学习,且Transformer模型计算开销较大,不利于边缘设备部署。本文提出的模型在端到端架构的基础上,实现了无文本标注的自监督训练,同时采用轻量化编码器,兼顾了性能与推理效率。

3 模型整体架构

本文提出的端到端语音分词模型整体架构如图1所示,由四个核心模块构成:声学前端特征提取模块、时序上下文编码模块、双任务联合优化头、分词解码模块。模型以原始语音波形为输入,直接输出词级语音分词单元与对应的语义编码向量,无需经过文本转写环节,实现端到端语音分词。

3.1 声学前端特征提取模块

本模块将一维语音波形转换为具备明确物理意义、鲁棒性强的二维声学特征矩阵,为后续时序建模提供输入。本文采用工业界通用的16kHz采样率对原始语音进行预处理,依次经过预加重、分帧(帧长25ms,帧移10ms)、汉明窗加窗后,提取两类声学特征:

  1. 80维梅尔频谱特征:基于人耳听觉特性设计的梅尔滤波器组生成,兼顾语音细节信息与抗噪声能力,是语音处理领域的通用基础特征;

  2. 4维物理声学特征:包括基频F0(对应声带振动频率,反映音调信息)与前3阶共振峰F1、F2、F3(对应声道共振特性,决定发音内容),为词边界检测提供关键判别信息。

最终,每一帧语音对应84维特征向量,对于长度为T帧的语音输入,输出声学特征矩阵\mathcal{F} \in \mathbb{R}^{T \times 84}。

3.2 时序上下文编码模块

本模块是模型的核心骨干网络,目标是同时捕捉词边界对应的局部声学突变信息,与语义单元完整性对应的长距离上下文信息。本文采用TCN与BiGRU的混合架构,相较于Transformer架构具备更低的计算开销,同时兼顾局部与全局建模能力。

3.2.1 时序卷积网络(TCN)

TCN通过膨胀卷积在不增加参数量的前提下扩大感受野,能够有效捕捉不同尺度的局部声学特征,对词边界对应的频谱突变、能量变化等局部特征具备极强的捕捉能力。本文采用3层膨胀卷积结构,卷积核大小为3,膨胀系数分别为1、2、4,每层卷积后经过ReLU激活函数与层归一化,保证训练稳定性。TCN前向传播公式如下:

\mathcal{F}{\text{tcn}}^{(l)} = \text{ReLU}\left( \text{Conv1d}\left( \mathcal{F}{\text{tcn}}^{(l-1)}, \text{kernel}=3, \text{dilation}=2^{l-1} \right) \right)

其中\mathcal{F}{\text{tcn}}^{(0)} = \mathcal{F}为输入声学特征矩阵,\mathcal{F}{\text{tcn}}^{(l)}为第l层卷积的输出,最终TCN模块输出维度为256的时序特征矩阵\mathcal{F}_{\text{tcn}} \in \mathbb{R}^{T \times 256}。

3.2.2 双向门控循环单元(BiGRU)

GRU作为循环神经网络的改进变体,通过更新门与重置门解决了传统RNN的梯度消失问题,能够有效建模长距离时序依赖关系。本文采用双向GRU结构,同时捕捉语音序列的前向与后向上下文信息,能够更好地区分连读现象与真实词边界,提升边界检测准确性。本文采用2层BiGRU,隐藏层维度为128,双向拼接后输出维度为256的时序特征矩阵\mathcal{F}_{\text{enc}} \in \mathbb{R}^{T \times 256}。BiGRU前向传播公式如下:

\begin{aligned}

z_t &= \sigma\left( W_z \cdot [h_{t-1}, x_t] \right) \\

r_t &= \sigma\left( W_r \cdot [h_{t-1}, x_t] \right) \\

\tilde{h}t &= \tanh\left( W_h \cdot [r_t * h{t-1}, x_t] \right) \\

h_t &= (1 - z_t) * h_{t-1} + z_t * \tilde{h}_t

\end{aligned}

其中z_t为更新门,r_t为重置门,x_t为TCN输出的第t帧特征,h_t为第t帧的隐藏状态,最终将前向与后向隐藏状态拼接得到BiGRU输出特征。

3.3 双任务联合优化头

本文设计边界检测与语义编码双分支结构,两个分支共享时序上下文编码模块的输出特征,联合优化,同步实现词边界定位与语义单元表示,实现端到端分词目标。

3.3.1 边界检测分支

本分支目标是预测每个时间步是否为词边界,输出每个时间步的边界概率p_{\text{bound}}(t) \in [0,1]。分支采用两层全连接网络,第一层将256维编码特征映射到64维,经过ReLU激活函数,第二层映射到1维,经过Sigmoid激活函数输出边界概率。前向传播公式如下:

p_{\text{bound}}(t) = \text{Sigmoid}\left( \text{FC}_2\left( \text{ReLU}\left( \text{FC}1\left( \mathcal{F}{\text{enc}}(t) \right) \right) \right) \right)

边界检测任务采用二元交叉熵损失(BCE Loss)作为优化目标:

\mathcal{L}{\text{bound}} = -\frac{1}{T} \sum{t=1}^{T} \left[ y_t \log p_{\text{bound}}(t) + (1-y_t) \log (1-p_{\text{bound}}(t)) \right]

其中y_t \in \{0,1\}为第t帧的边界标签,y_t=1表示该帧为词边界。自监督训练场景下,y_t通过声学特征的能量突变、频谱熵变化生成伪标签;有监督训练场景下,y_t由真实词边界标注转换得到。

3.3.2 语义编码分支

本分支目标是为每个时间步生成具备语义区分度的编码向量,使得同一个词的语音片段对应的编码在特征空间中距离相近,不同词的编码距离较远,为分词后的语义聚类提供基础。分支采用两层全连接网络,将256维编码特征映射到128维语义编码向量e(t) \in \mathbb{R}^{128},前向传播公式如下:

e(t) = \text{FC}_4\left( \text{ReLU}\left( \text{FC}3\left( \mathcal{F}{\text{enc}}(t) \right) \right) \right)

语义编码任务采用动量对比学习(MoCo)的对比损失作为优化目标,构建动态队列存储负样本,避免batch大小对对比学习效果的限制。对于每个锚点样本e_{\text{anchor}},正样本为同一个词的其他语音片段对应的编码,负样本为其他词的语音片段对应的编码。对比损失公式如下:

\mathcal{L}{\text{contrast}} = -\log\frac{\exp\left( \text{sim}(e{\text{anchor}}, e_{\text{positive}}) / \tau \right)}{\exp\left( \text{sim}(e_{\text{anchor}}, e_{\text{positive}}) / \tau \right) + \sum_{i=1}^{K} \exp\left( \text{sim}(e_{\text{anchor}}, e_{\text{negative}}^i) / \tau \right)}

其中\text{sim}(a,b) = \frac{a \cdot b}{\|a\| \|b\|}为余弦相似度函数,\tau为温度系数(本文设置为0.07),K为负样本队列大小(本文设置为65536)。

3.3.3 联合损失函数

模型整体优化目标为两个分支损失的加权和,公式如下:

\mathcal{L}{\text{total}} = \alpha \cdot \mathcal{L}{\text{bound}} + \beta \cdot \mathcal{L}_{\text{contrast}}

其中\alpha与\beta为权重系数,本文分别设置为1.0与0.5,平衡两个任务的优化节奏。

3.4 分词解码模块

本模块将模型输出的边界概率序列与语义编码序列,转换为最终的词级语音分词结果,分为两个步骤:

  1. 边界解码:设置边界概率阈值\theta=0.7,将概率超过阈值的时间步标记为候选边界点;加入语音时长约束(中文单词200ms~800ms,英文单词100ms~600ms),过滤时长异常的候选片段,最终得到N个连续的语音分词片段Seg_1, Seg_2, ..., Seg_N;

  2. 语义归一化:对每个分词片段Seg_i内的所有时间步的语义编码向量进行平均池化,得到该分词单元的固定维度语义向量E_i \in \mathbb{R}^{128},公式如下:

E_i = \frac{1}{T_i} \sum_{t=t_{start}^{(i)}}^{t_{end}^{(i)}} e(t)

其中T_i为第i个分词片段的时间步长度,t_{start}^{(i)}与t_{end}^{(i)}为片段的起止时间步。

最终输出的每个分词单元包含对应的语音片段起止时间与语义向量,可直接用于下游语音理解任务。

4 实验设置与结果分析

4.1 实验数据集

本文在中英文两个主流公开语音数据集上开展实验:

  1. 中文数据集:AISHELL-1,包含178小时中文普通话语音数据,来自400个说话人,配套精准的文本标注与时间对齐信息;

  2. 英文数据集:LibriSpeech,包含1000小时英文朗读语音数据,来自2484个说话人,配套文本标注与时间对齐信息。

每个数据集按照9:1的比例划分训练集与测试集,同时构建10%训练集大小的低资源子集,验证模型在低标注场景下的性能。

4.2 评价指标

本文采用两个核心指标评测模型性能:

  1. 边界检测性能:采用精确率(Precision)、召回率(Recall)与F1-score,其中F1-score为核心指标。正确判定标准为:预测边界点与真实词边界的时间差不超过20ms(两帧以内);

  2. 分词准确率:采用词级匹配准确率(Word Matching Accuracy, WMA),定义为预测分词片段与真实词片段的时间匹配度超过90%的数量占总真实词数量的比例,综合衡量边界检测与语义聚类的整体性能。

4.3 对比基线

本文选取三类主流方法作为对比基线:

  1. 传统级联范式基线:采用Whisper Base模型作为ASR转写工具,中文采用Jieba分词、英文采用SpaCy分词,是工业界最常用的语音分词方案;

  2. 自监督语音表示基线:采用HuBERT Base预训练模型提取语音特征,通过K-Means聚类实现语义单元划分,结合基于能量的边界检测实现语音分词;

  3. Transformer端到端基线:采用6层Transformer编码器构建端到端语音词边界检测模型,使用与本文相同的监督数据进行训练。

4.4 主实验结果

表1展示了本文模型与各基线方法在中英文数据集上的主实验结果。

表1 各模型在中英文数据集上的性能对比

模型 中文数据集(AISHELL-1) 英文数据集(LibriSpeech)

边界F1-score 分词准确率WMA 边界F1-score 分词准确率WMA

传统级联范式 89.23 85.17 91.54 88.32

HuBERT+K-Means基线 82.45 76.39 85.62 79.84

Transformer端到端基线 92.17 89.05 93.78 91.26

本文模型 94.62 92.38 95.81 93.74

从实验结果可以看出:

  1. 本文模型在中英文数据集上的边界F1值与分词准确率均显著优于所有对比基线,在中文数据集上,边界F1值相较于传统级联范式提升5.39个百分点,分词准确率提升7.21个百分点,验证了端到端架构的显著优势;

  2. 本文模型相较于Transformer端到端基线,性能更优,同时参数量仅为其40%,推理速度提升60%,验证了轻量化混合架构的有效性。

4.5 低资源场景性能实验

表2展示了低资源场景下各模型的性能对比结果。

表2 低资源场景下的性能对比

模型 中文低资源数据集 英文低资源数据集

边界F1-score 分词准确率WMA 边界F1-score 分词准确率WMA

传统级联范式 76.34 71.25 79.52 75.18

Transformer端到端基线 82.16 78.33 84.29 80.57

本文模型(监督训练) 87.53 84.16 89.64 86.23

本文模型(自监督训练) 85.27 81.39 87.41 83.75

实验结果表明,在低资源场景下,传统级联范式性能急剧下降,而本文模型即使在自监督训练设置下,分词准确率仍远优于传统级联范式,验证了自监督训练框架的有效性与低资源适配能力。

4.6 消融实验

本文在AISHELL-1数据集上开展消融实验,验证各模块的核心作用,结果如表3所示。

表3 模型消融实验结果

模型配置 边界F1-score 分词准确率WMA

完整模型 94.62 92.38

移除TCN模块 91.35 88.47

移除BiGRU模块 90.28 87.15

移除对比损失 92.74 85.62

消融实验结果表明,TCN模块对局部边界特征的捕捉、BiGRU模块对长距离上下文的建模、对比损失对语义区分度的优化,均为模型性能的核心支撑,验证了双分支联合优化架构的必要性。

5 讨论与未来工作

本文提出的端到端语音分词模型,彻底摆脱了文本转写环节的依赖,避免了级联范式的误差累积,自监督训练框架大幅降低了标注数据依赖,轻量化架构具备优秀的部署友好性,能够直接对接下游语音理解、对话系统、多模态大模型等任务,具备广泛的应用前景。

同时,模型仍存在一定的优化空间,未来将从以下方向开展研究:

  1. 构建多语言、多方言的自监督预训练模型,提升模型对非标准语音、低资源语言的适配能力;

  2. 加入说话人分离模块,实现多人对话、重叠语音场景下的精准分词;

  3. 将模型与大语言模型的语音输入模块深度融合,构建端到端的语音对话系统,进一步提升语音交互的流畅性。

6 结论

本文针对传统语音分词级联范式的固有缺陷,提出了一种基于时序上下文编码的端到端无文本依赖语音分词模型。该模型通过TCN与BiGRU混合架构实现时序上下文建模,采用边界检测与语义编码双分支联合优化,直接在语音声学域完成词级语义单元划分,彻底摆脱了对文本转写环节的依赖。同时构建了无文本标注的自监督训练框架,大幅降低了模型的标注数据依赖。在中英文公开数据集上的系统实验表明,本文模型在边界检测精度、分词准确率、低资源与强噪声场景鲁棒性上均显著优于现有主流方法,同时具备轻量化、部署友好的优势,为语音语义理解提供了一种高效、鲁棒的端到端解决方案。

参考文献

1\] Baevski A, Zhou Y, Mohamed A, et al. wav2vec 2.0: A framework for self-supervised learning of speech representations\[J\]. Advances in Neural Information Processing Systems, 2020, 33: 12449-12460. \[2\] Hsu W N, Bolte B, Tsai Y H H, et al. HuBERT: Self-supervised speech representation learning by masked prediction of hidden units\[J\]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2021, 29: 3451-3460. \[3\] Chen X, Fan H, Girshick R, et al. Improved baselines with momentum contrastive learning\[J\]. arXiv preprint arXiv:2003.04297, 2020. \[4\] Radford A, Kim J W, Xu T, et al. Robust speech recognition via large-scale weak supervision\[C\]//International Conference on Machine Learning. PMLR, 2023: 28492-28503. \[5\] Bai S, Kolter J Z, Koltun V. An empirical evaluation of generic convolutional and recurrent networks for sequence modeling\[J\]. arXiv preprint arXiv:1803.01271, 2018. \[6\] Cho K, Van Merriënboer B, Gulcehre C, et al. Learning phrase representations using RNN encoder-decoder for statistical machine translation\[J\]. arXiv preprint arXiv:1406.1078, 2014. \[7\] 韩虎, 李生, 刘群. 中文分词技术研究综述\[J\]. 软件学报, 2018, 29(2): 382-405. \[8\] Pascual S, Ravanelli M, Serrà J, et al. Speech segmentation: A review of models, datasets, and evaluation metrics\[J\]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2022, 30: 2204-2221. \[9\] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need\[J\]. Advances in Neural Information Processing Systems, 2017, 30. \[10\] 刘群, 张华平, 俞鸿魁, 等. 基于层叠隐马尔可夫模型的中文分词系统\[J\]. 软件学报, 2004, 15(10): 1421-1429.

相关推荐
hetao17338371 小时前
2026-02-13~16 hetao1733837 的刷题记录
c++·算法
铸人2 小时前
再论自然数全加和-费马大定理的扩展
数学·数论·复数
Soonyang Zhang2 小时前
flashinfer attention kernel分析
人工智能·算子·推理框架
林籁泉韵73 小时前
2026年GEO服务商推荐:覆盖多场景适配,助力企业AI时代增长
人工智能
Sinosecu-OCR3 小时前
释放数字化力量:智能OCR识别如何重塑现代办公效率
大数据·人工智能
铸人3 小时前
再论自然数全加和 - 角度和三角函数的本质
数学·数论·复数
wukangjupingbb3 小时前
人工智能(AI)与类器官(Organoids)技术的结合
人工智能
正宗咸豆花3 小时前
物理AI革命:当算法走出屏幕,制造业如何被重新定义
人工智能·机器人·开源
你的冰西瓜4 小时前
2026春晚魔术揭秘——变魔法为物理
算法