文献阅读:Semantic Communications for Speech Signals

目录


论文简介

  • 作者

    Zhenzi Weng

    Zhijin Qin

    Geoffrey Ye Liy

  • 发表期刊or会议

    《ICC》

  • 发表时间

    2021.6


动机:为什么作者想要解决这个问题?

  • 对语音信号传输的语义通信的研究没有开展
  • 论文里提到:分块设计系统已被证明是次优的,传统的线性信号处理算法无法捕获实际信道中的许多缺陷和非线性

贡献:作者在这篇论文中完成了什么工作(创新点)?

  • 首次提出了语音信号语义通信系统DeepSC-S,将整个收发器视为两个深度神经网络(speech encoder------注意力机制;channel encoder------CNN),并联合设计语音编码和信道编码来处理信源失真和信道效应。
  • DeepSC-S基于squeeze and excitation (SE) networks (就是找了一个那时候比较火的网络罢了)
  • 通过在固定衰落信道和信噪比下训练 DeepSC-S,然后在动态信道(AWGN,瑞丽,莱斯)环境下测试,所提出的 DeepSC-S 具有高度鲁棒性,无需网络调整和重新训练(这太扯了)

规划:他们如何完成工作?

  • 整体框架


    这结构真没什么好说的,需要的时候看论文II和III吧(和DeepSC一个套路,就在这encoder,decoder的)

  • 损失函数

    采用均方误差(MSE)作为损失函数,测量 s s s和 s ^ \hat s s^之间的差异
    L M S E ( θ T , θ R ) = 1 W ∑ w = 1 W ( s w − s ^ w ) 2 \mathcal{L}{M S E}\left(\boldsymbol{\theta}^{\mathcal{T}}, \boldsymbol{\theta}^{\mathcal{R}}\right)=\frac{1}{W} \sum{w=1}^W\left(s_w-\widehat{s}_w\right)^2 LMSE(θT,θR)=W1w=1∑W(sw−s w)2

  • 误差度量

    采用信号失真比(SDR)来测量 s s s和 s ^ \hat s s^之间的L2误差:
    S D R = 10 log ⁡ 10 ( ∥ s ∥ 2 ∥ s − s ^ ∥ 2 ) . S D R=10 \log _{10}\left(\frac{\|\boldsymbol{s}\|^2}{\|\boldsymbol{s}-\widehat{\boldsymbol{s}}\|^2}\right) . SDR=10log10(∥s−s ∥2∥s∥2).


自己的看法(作者如何得到的创新思路)

这篇论文,一言难尽,大概就是找一个新场景(speech),再找一个那时候流行的网络结构(attention),然后套上语义的壳,就是一篇ICC 😭
选择大于努力


相关推荐
池央14 分钟前
StyleGAN - 基于样式的生成对抗网络
人工智能·神经网络·生成对抗网络
PaLu-LI1 小时前
ORB-SLAM2源码学习:Initializer.cc⑧: Initializer::CheckRT检验三角化结果
c++·人工智能·opencv·学习·ubuntu·计算机视觉
小猪咪piggy1 小时前
【深度学习入门】深度学习知识点总结
人工智能·深度学习
汤姆和佩琦1 小时前
2025-1-20-sklearn学习(42) 使用scikit-learn计算 钿车罗帕,相逢处,自有暗尘随马。
人工智能·python·学习·机器学习·scikit-learn·sklearn
听吉米讲故事2 小时前
DeepSeek R1发布综述:开源大语言模型的推理能力新标杆
人工智能·语言模型·自然语言处理
热爱编程的OP2 小时前
机器学习 vs 深度学习
人工智能·深度学习·机器学习
跟德姆(dom)一起学AI3 小时前
0基础跟德姆(dom)一起学AI 自然语言处理18-解码器部分实现
人工智能·python·rnn·深度学习·自然语言处理·transformer
清图3 小时前
Python 预训练:打通视觉与大语言模型应用壁垒——Python预训练视觉和大语言模型
人工智能·python·深度学习·机器学习·计算机视觉·自然语言处理·ai作画
琴智冰3 小时前
使用ollama本地部署微调后的大语言模型
人工智能·语言模型·自然语言处理
京东零售技术4 小时前
请查收| 京东零售技术AI领域前沿探索-10篇顶会论文合集
人工智能