语音增强论文汇总

DCCRN: Deep Complex Convolution Recurrent Network for Phase-Aware Speech Enhancement

CRM=(Sr+jSi)/(Yr+jYi) ,本质就是原始信号/噪声信号

3种不同恢复修复波形的方法:

可以看出noise为加性的:

A Parallel-Data-Free Speech Enhancement Method Using Multi-Objective Learning Cycle-Consistent Generative Adversarial Network

北科

针对加性噪声:

恢复音频的幅度谱:

Conditional_Diffusion_Probabilistic_Model_for_Speech_Enhancement

摘要:本文利用最近的扩散模型,提出语音增强方案。

没明确写loss形式,感觉是加性的,毕竟扩散模型是加性的;

Deep learning for minimum mean-square error approaches to speech enhancement(2019)

摘要:目前,语音增强的研究从传统MSE方法转化到了基于NN的mask方法或映射方法。本文提出基于NN的先验SNR估计方法。

加性噪声:

DeepMMSE: A Deep Learning Approach to MMSE-Based Noise Power Spectral Density Estimation (2020)

加性噪声:

说loss是交叉熵,但是没给具体公式。

HuBERT Self-Supervised Speech Representation Learning by Masked Prediction of Hidden Units

研究语音表征学习的,不是降噪的。。。

Improved Normalizing Flow-Based Speech Enhancement using an All-pole Gammatone Filterbank for Conditional Input Representation

加性噪声:

MetricGAN Generative Adversarial Networks based Black-box Metric Scores Optimization for Speech Enhancement

相较于传统判别器,metricgan的优势:

1.给定Gx,我们只期望传统判别器输出0,而metricgan可以输出一个打分,用于估计逼真程度;

2.传统判别器的输入仅有噪声音频,而metricgan的输入和传统metric一致;

先生成Gx,然后训练判别器,然后训练生成器;

Multi-task self-supervised learning for Robust Speech Recognition

语音识别的,没关系;

Real-time speech enhancement with dynamic attention span

接收音频中有:回声,加性噪声,路径增益;

Speech_Enhancement_Using_Harmonic_Emphasis_and_Adaptive_Comb_Filtering

2010年的,太老了;

相关推荐
Danceful_YJ2 小时前
15.手动实现BatchNorm(BN)
人工智能·深度学习·神经网络·batchnorm
wh_xia_jun2 小时前
医疗数据分析中标准化的作用
人工智能·机器学习
jndingxin3 小时前
OpenCV直线段检测算法类cv::line_descriptor::LSDDetector
人工智能·opencv·算法
胖达不服输3 小时前
「日拱一码」027 深度学习库——PyTorch Geometric(PyG)
人工智能·pytorch·深度学习·pyg·深度学习库
deephub3 小时前
贝叶斯状态空间神经网络:融合概率推理和状态空间实现高精度预测和可解释性
人工智能·深度学习·神经网络·贝叶斯概率·状态空间
壹立科技4 小时前
壹脉销客AI电子名片源码核心架构
人工智能·架构·电子名片
YUQI的博客4 小时前
小白入门:通过手搓神经网络理解深度学习
人工智能·深度学习·神经网络
笑小枫4 小时前
Pytorch使用GPU训练全过程,包含安装CUDA、cuDNN、PyTorch
人工智能·pytorch·python
Blossom.1185 小时前
深度学习中的注意力机制:原理、应用与实践
人工智能·深度学习·神经网络·机器学习·生成对抗网络·计算机视觉·sklearn
飞哥数智坊5 小时前
Cursor替代方案整理,附模型不可用进阶解决方案
人工智能·claude·cursor