文献阅读:Semantic Communications for Speech Signals

目录


论文简介

  • 作者

    Zhenzi Weng

    Zhijin Qin

    Geoffrey Ye Liy

  • 发表期刊or会议

    《ICC》

  • 发表时间

    2021.6


动机:为什么作者想要解决这个问题?

  • 对语音信号传输的语义通信的研究没有开展
  • 论文里提到:分块设计系统已被证明是次优的,传统的线性信号处理算法无法捕获实际信道中的许多缺陷和非线性

贡献:作者在这篇论文中完成了什么工作(创新点)?

  • 首次提出了语音信号语义通信系统DeepSC-S,将整个收发器视为两个深度神经网络(speech encoder------注意力机制;channel encoder------CNN),并联合设计语音编码和信道编码来处理信源失真和信道效应。
  • DeepSC-S基于squeeze and excitation (SE) networks (就是找了一个那时候比较火的网络罢了)
  • 通过在固定衰落信道和信噪比下训练 DeepSC-S,然后在动态信道(AWGN,瑞丽,莱斯)环境下测试,所提出的 DeepSC-S 具有高度鲁棒性,无需网络调整和重新训练(这太扯了)

规划:他们如何完成工作?

  • 整体框架


    这结构真没什么好说的,需要的时候看论文II和III吧(和DeepSC一个套路,就在这encoder,decoder的)

  • 损失函数

    采用均方误差(MSE)作为损失函数,测量 s s s和 s ^ \hat s s^之间的差异
    L M S E ( θ T , θ R ) = 1 W ∑ w = 1 W ( s w − s ^ w ) 2 \mathcal{L}{M S E}\left(\boldsymbol{\theta}^{\mathcal{T}}, \boldsymbol{\theta}^{\mathcal{R}}\right)=\frac{1}{W} \sum{w=1}^W\left(s_w-\widehat{s}_w\right)^2 LMSE(θT,θR)=W1w=1∑W(sw−s w)2

  • 误差度量

    采用信号失真比(SDR)来测量 s s s和 s ^ \hat s s^之间的L2误差:
    S D R = 10 log ⁡ 10 ( ∥ s ∥ 2 ∥ s − s ^ ∥ 2 ) . S D R=10 \log _{10}\left(\frac{\|\boldsymbol{s}\|^2}{\|\boldsymbol{s}-\widehat{\boldsymbol{s}}\|^2}\right) . SDR=10log10(∥s−s ∥2∥s∥2).


自己的看法(作者如何得到的创新思路)

这篇论文,一言难尽,大概就是找一个新场景(speech),再找一个那时候流行的网络结构(attention),然后套上语义的壳,就是一篇ICC 😭
选择大于努力


相关推荐
Das11 分钟前
【计算机视觉】04_角点
人工智能·计算机视觉
SEO_juper4 分钟前
零基础快速上手:亚马逊CodeWhisperer实战入门指南
人工智能·机器学习·工具·亚马逊·codewhisperer
RanceGru6 分钟前
LLM学习笔记7——unsloth微调Qwen3-4B模型与vllm部署测试
人工智能·笔记·学习·语言模型·vllm
如意鼠8 分钟前
大模型教我成为大模型算法工程师之day20: 预训练语言模型 (Pre-trained Language Models)
人工智能·算法·语言模型
囊中之锥.8 分钟前
机器学习第二部分----逻辑回归
人工智能·机器学习·逻辑回归
_Li.14 分钟前
机器学习-DeepSeekR1
人工智能·机器学习
CodeLinghu15 分钟前
「 LLM实战 - 企业 」基于 markdown-it AST 的 Markdown 文献翻译实现详解
人工智能·ai
程序员哈基耄16 分钟前
一键生成专属形象照——AI智能相馆引领摄影新潮流
人工智能
DeeGLMath18 分钟前
机器学习中回归训练的示例
人工智能·机器学习·回归
勇气要爆发18 分钟前
【第二阶段—机器学习入门】第十五章:机器学习核心概念
人工智能·机器学习