【AI视野·今日Sound 声学论文速览 第二十六期】Mon, 16 Oct 2023

AI视野·今日CS.Sound 声学论文速览

Mon, 16 Oct 2023
Totally 7 papers
👉上期速览更多精彩请移步主页

Daily Sound Papers

|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| Low-latency Speech Enhancement via Speech Token Generation Authors Huaying Xue, Xiulian Peng, Yan Lu 现有的基于深度学习的语音增强主要采用数据驱动的方法,利用大量具有各种噪声类型的数据来实现从噪声信号中去除噪声。然而,对数据的高度依赖性限制了其对现实生活环境中看不见的复杂噪声的泛化。在本文中,我们关注低延迟场景,并将语音增强视为以噪声信号为条件的语音生成问题,我们生成干净的语音,而不是识别和消除噪声。具体来说,我们提出了一种用于语音增强的条件生成框架,该框架通过神经语音编解码器的声学代码对干净的语音进行建模,并以自回归的方式生成以过去的噪声帧为条件的语音代码。此外,我们提出了一种显式对齐方法,将噪声帧与生成的语音标记对齐,以提高不同输入长度的鲁棒性和可扩展性。与其他利用多级生成语音代码的方法不同,我们利用基于 TF Codec 神经编解码器的单级语音生成方法来实现低延迟的高语音质量。 |
| Transformer-based Autoencoder with ID Constraint for Unsupervised Anomalous Sound Detection Authors Jian Guan, Youde Liu, Qiuqiang Kong, Feiyang Xiao, Qiaoxi Zhu, Jiantong Tian, Wenwu Wang 无监督异常声音检测 ASD 旨在在只有正常声音数据的情况下检测设备的未知异常声音。基于自动编码器AE和自监督学习的方法是两种主流方法。然而,基于 AE 的方法可能受到限制,因为从正常声音中学习的特征也可以适合异常声音,从而降低了模型从声音中检测异常的能力。自监督方法并不总是稳定并且表现不同,即使对于相同类型的机器也是如此。此外,异常声音可能持续时间很短,使其更难以与正常声音区分开。本文提出了一种基于 ID 约束 Transformer 的自动编码器 IDC TransAE 架构,具有针对无监督 ASD 的加权异常分数计算。采用机器ID来约束基于Transformer的自动编码器TransAE的潜在空间,通过引入简单的ID分类器来学习相同机器类型的分布差异,并增强模型区分异常声音的能力。此外,引入加权异常分数计算来突出仅出现时间较短的异常事件的异常分数。 |
| Differential Evolution Algorithm based Hyper-Parameters Selection of Convolutional Neural Network for Speech Command Recognition Authors Sandipan Dhar, Anuvab Sen, Aritra Bandyopadhyay, Nanda Dulal Jana, Arjun Ghosh, Zahra Sarayloo 语音命令识别 SCR 负责识别简短的语音命令,对于包括物联网设备和辅助技术在内的各种应用至关重要。尽管卷积神经网络 CNN 在 SCR 任务中展现出了良好的前景,但其功效在很大程度上依赖于超参数选择,而手动完成时通常既费力又耗时。本文介绍了一种基于差分进化 DE 算法的 CNN 超参数选择方法,旨在提高 SCR 任务的性能。使用 Google Speech Command GSC 数据集进行训练和测试,所提出的方法显示了对语音命令进行分类的有效性。 |
| Learning to Behave Like Clean Speech: Dual-Branch Knowledge Distillation for Noise-Robust Fake Audio Detection Authors Cunhang Fan, Mingming Ding, Jianhua Tao, Ruibo Fu, Jiangyan Yi, Zhengqi Wen, Zhao Lv 大多数虚假音频检测 FAD 的研究都集中于提高标准无噪声数据集的性能。然而,在实际情况中,通常存在噪声干扰,这会导致FAD系统的性能显着下降。为了提高噪声鲁棒性,我们提出了一种双分支知识蒸馏假音频检测 DKDFAD 方法。具体来说,设计了干净教师分支和噪声学生分支的并行数据流,并提出了基于交互融合和响应的师生范式,从数据分布和决策角度指导噪声数据的训练。在噪声分支中,首先引入语音增强进行去噪,减少强噪声的干扰。所提出的交互式融合结合了去噪特征和噪声特征,以减少语音失真的影响并寻求与干净分支的数据分布的一致性。师生范式将学生的决策空间映射到教师的决策空间,使嘈杂的语音表现得干净。此外,还采用联合训练方法对两个分支进行优化,以实现全局最优。 |
| CompA: Addressing the Gap in Compositional Reasoning in Audio-Language Models Authors Sreyan Ghosh, Ashish Seth, Sonal Kumar, Utkarsh Tyagi, Chandra Kiran Evuru, S. Ramaneswaran, S. Sakshi, Oriol Nieto, Ramani Duraiswami, Dinesh Manocha 音频的一个基本特征是它的组合性质。使用对比方法训练的音频语言模型 ALM,例如学习音频和语言模态之间共享表示的 CLAP,提高了许多下游应用的性能,包括零样本音频分类、音频检索等。然而,这些模型有效地执行组合推理在很大程度上仍未被探索,需要进行额外的研究。在本文中,我们提出了 CompA,这是两个专家注释基准的集合,其中包含大多数现实世界的音频样本,用于评估 ALM 中的组合推理。我们提出的 CompA 顺序评估 ALM 对音频中声学事件的顺序或发生的理解程度,CompA 属性评估声学事件的属性绑定。任一基准测试的实例都包含两个音频字幕对,其中两个音频具有相同的声学事件,但成分不同。 ALM 根据正确音频与正确字幕的匹配程度进行评估。使用这个基准,我们首先表明当前的 ALM 的性能仅比随机机会好一点,因此在组合推理方面遇到了困难。接下来,我们提出 CompA CLAP,其中我们使用一种新颖的学习方法对 CLAP 进行微调,以提高其组合推理能力。为了训练 CompA CLAP,我们首先提出对具有构图感知硬底片的对比训练进行改进,从而实现更有针对性的训练。接下来,我们提出了一种新颖的模块化对比损失,可以帮助模型学习细粒度的作曲理解,并克服公开可用的作曲音频的严重稀缺性。 |
| Toward Joint Language Modeling for Speech Units and Text Authors Ju Chieh Chou, Chung Ming Chien, Wei Ning Hsu, Karen Livescu, Arun Babu, Alexis Conneau, Alexei Baevski, Michael Auli 语音和文本是人类语言的两种主要形式。多年来,研究界一直致力于将语音映射到文本,反之亦然。然而,在语言建模领域,很少有人对它们进行联合建模。鉴于此,我们探索语音单元和文本的联合语言建模。具体来说,我们比较不同的语音标记器将连续语音信号转换为离散单元,并使用不同的方法构建混合语音文本数据。我们引入自动指标来评估联合 LM 混合语音和文本的效果。我们还对具有不同模态语音或文本的下游口语理解 SLU 任务的 LM 进行微调,并测试其性能以评估模型对共享表示的学习。 |
| End-to-end Online Speaker Diarization with Target Speaker Tracking Authors Weiqing Wang, Ming Li 本文提出了一种用于说话人二值化任务的在线目标说话者语音活动检测系统,该系统不需要基于聚类的二值化系统的先验知识来获得目标说话者嵌入。通过采用传统的目标说话者语音活动检测进行实时操作,该框架可以使用自生成的嵌入来识别说话者活动,从而在推理阶段获得一致的性能,而不会出现排列不一致的情况。在推理过程中,我们采用前端模型来提取每个即将到来的信号块的帧级说话人嵌入。接下来,我们根据这些帧级说话人嵌入和先前估计的目标说话人嵌入来预测每个说话人的检测状态。然后,根据当前块中的预测聚合这些帧级说话人嵌入来更新目标说话人嵌入。我们的模型预测每个块的结果并更新目标扬声器嵌入,直到到达信号末尾。实验结果表明,该方法在 DIHARD III 和 AliMeeting 数据集上优于基于离线聚类的二值化系统。 |
| Chinese Abs From Machine Translation |

Papers from arxiv.org

更多精彩请移步主页


pic from pexels.com

相关推荐
涛涛讲AI31 分钟前
扣子平台音频功能:让声音也能“智能”起来
人工智能·音视频·工作流·智能体·ai智能体·ai应用
霍格沃兹测试开发学社测试人社区33 分钟前
人工智能在音频、视觉、多模态领域的应用
软件测试·人工智能·测试开发·自动化·音视频
herosunly1 小时前
2024:人工智能大模型的璀璨年代
人工智能·大模型·年度总结·博客之星
PaLu-LI1 小时前
ORB-SLAM2源码学习:Initializer.cc(13): Initializer::ReconstructF用F矩阵恢复R,t及三维点
c++·人工智能·学习·线性代数·ubuntu·计算机视觉·矩阵
呆呆珝1 小时前
RKNN_C++版本-YOLOV5
c++·人工智能·嵌入式硬件·yolo
笔触狂放1 小时前
第一章 语音识别概述
人工智能·python·机器学习·语音识别
ZzYH221 小时前
文献阅读 250125-Accurate predictions on small data with a tabular foundation model
人工智能·笔记·深度学习·机器学习
格林威2 小时前
BroadCom-RDMA博通网卡如何进行驱动安装和设置使得对应网口具有RDMA功能以适配RDMA相机
人工智能·数码相机·opencv·计算机视觉·c#
程序员阿龙2 小时前
【精选】基于数据挖掘的招聘信息分析与市场需求预测系统 职位分析、求职者趋势分析 职位匹配、人才趋势、市场需求分析数据挖掘技术 职位需求分析、人才市场趋势预测
人工智能·数据挖掘·数据分析与可视化·数据挖掘技术·人才市场预测·招聘信息分析·在线招聘平台
亲持红叶2 小时前
什么是集成学习
人工智能·机器学习