语音模型流式结构修改要点

对于端侧语音信号处理模型来说,核心结构都是基于CNN+RNN(LSTM/GRU),训练时一般基于非流式模型,效率高易于收敛。训练完成后在移动端部署,受实时率和延迟的要求,一般需要修改流式结构。下面主要阐述,Conv和LSTM/GRU算子修改的原理。

流式推理的核心是把"一次性处理整个序列"改成"逐帧处理 + 缓存历史状态",数学上完全等价,但支持实时推理。

一、Conv

需要缓存历史的input。假设一下场景进行解释:

cpp 复制代码
### 假设场景
1D 卷积,kernel_size=3,输入序列 `[a, b, c, d, e]`

### 非流式卷积:一次处理整个序列


输入:     [a, b, c, d, e]
左侧pad:  [0, 0, a, b, c, d, e]   # 因果 padding,只 pad 左边

卷积计算 (kernel 滑动):
  输出[0] = kernel * [0, 0, a]
  输出[1] = kernel * [0, a, b]
  输出[2] = kernel * [a, b, c]
  输出[3] = kernel * [b, c, d]
  输出[4] = kernel * [c, d, e]

输出:     [y0, y1, y2, y3, y4]   # 一次得到全部


### 流式卷积:逐帧处理,用 cache 存历史


初始 cache = [0, 0]   # 存最近 kernel_size-1 = 2 帧

--- 第 1 帧: 输入 [a] ---
拼接: cache + 输入 = [0, 0, a]
卷积: kernel * [0, 0, a] = y0
更新 cache = [0, a]

--- 第 2 帧: 输入 [b] ---
拼接: cache + 输入 = [0, a, b]
卷积: kernel * [0, a, b] = y1
更新 cache = [a, b]

--- 第 3 帧: 输入 [c] ---
拼接: cache + 输入 = [a, b, c]
卷积: kernel * [a, b, c] = y2
更新 cache = [b, c]

--- 第 4 帧: 输入 [d] ---
拼接: cache + 输入 = [b, c, d]
卷积: kernel * [b, c, d] = y3
更新 cache = [c, d]

--- 第 5 帧: 输入 [e] ---
拼接: cache + 输入 = [c, d, e]
卷积: kernel * [c, d, e] = y4
更新 cache = [d, e]



## 
非流式
   def forward(self, x):
        ...



流式: (cache的是历史帧输入)
   def forward(self, x, cache):
        torch.cat([cache, x], dim=..)
        ...

带卷积的模型转为流式时,非流式模型的卷积设计必须是因果卷积,换而言之就是在左侧做padding,而不能在右侧padding。

至于,什么样的卷积需要改,什么不需要改,大概提一下,也就是kernel_size与时间维度无关,纯在频域维度做的卷积就不需要改,其他的...自己领悟咯。。。

二、LSTM/GRU

这类算子没什么好说的,RNN 的递归特性,当前输出依赖上一时刻的隐藏状态,天生具备流式结构,只需要缓存rnn的status就行了...

cpp 复制代码
非流式:
    def forward(self, x):
        ...
        at = self.att_gru(zt.transpose(1,2))[0]
        ...

流式:
    def forward(self, x, h_cache):
         ...
         at, h_cache = self.att_gru(zt.transpose(1,2), h_cache)
         ... 
相关推荐
AI-Ming2 小时前
程序员转行学习 AI 大模型: 踩坑记录:服务器内存不够,程序被killed
服务器·人工智能·python·gpt·深度学习·学习·agi
龙腾AI白云2 小时前
如何利用知识图谱实现推理和计算
人工智能·深度学习·语言模型·自然语言处理·数据分析
Narrastory3 小时前
明日香 - Pytorch 快速入门保姆级教程(九)
人工智能·pytorch·深度学习
Hello.Reader4 小时前
深度学习 三次浪潮、三大驱动力与神经科学的恩怨(二)
人工智能·深度学习
AI视觉网奇4 小时前
vllm 踩坑记录 算力匹配
pytorch·python·深度学习
roman_日积跬步-终至千里4 小时前
【深度学习】从前向传播到反向传播:用两层 sigmoid 网络把 Backprop 一次讲透
人工智能·深度学习
sinat_286945194 小时前
claude code上下文
人工智能·深度学习·prompt
Langchain5 小时前
2026 年 AI 最值得关注的方向:上下文工程!
人工智能·python·自然语言处理·llm·agent·大模型开发·rag
flying_13146 小时前
图神经网络分享系列-HAN(Heterogeneous Graph Attention Network)(二)
深度学习·神经网络·tensorflow·图论·图神经网络·代码实战·han