文献阅读:Semantic Communications for Speech Signals

目录


论文简介

  • 作者

    Zhenzi Weng

    Zhijin Qin

    Geoffrey Ye Liy

  • 发表期刊or会议

    《ICC》

  • 发表时间

    2021.6


动机:为什么作者想要解决这个问题?

  • 对语音信号传输的语义通信的研究没有开展
  • 论文里提到:分块设计系统已被证明是次优的,传统的线性信号处理算法无法捕获实际信道中的许多缺陷和非线性

贡献:作者在这篇论文中完成了什么工作(创新点)?

  • 首次提出了语音信号语义通信系统DeepSC-S,将整个收发器视为两个深度神经网络(speech encoder------注意力机制;channel encoder------CNN),并联合设计语音编码和信道编码来处理信源失真和信道效应。
  • DeepSC-S基于squeeze and excitation (SE) networks (就是找了一个那时候比较火的网络罢了)
  • 通过在固定衰落信道和信噪比下训练 DeepSC-S,然后在动态信道(AWGN,瑞丽,莱斯)环境下测试,所提出的 DeepSC-S 具有高度鲁棒性,无需网络调整和重新训练(这太扯了)

规划:他们如何完成工作?

  • 整体框架


    这结构真没什么好说的,需要的时候看论文II和III吧(和DeepSC一个套路,就在这encoder,decoder的)

  • 损失函数

    采用均方误差(MSE)作为损失函数,测量 s s s和 s ^ \hat s s^之间的差异
    L M S E ( θ T , θ R ) = 1 W ∑ w = 1 W ( s w − s ^ w ) 2 \mathcal{L}{M S E}\left(\boldsymbol{\theta}^{\mathcal{T}}, \boldsymbol{\theta}^{\mathcal{R}}\right)=\frac{1}{W} \sum{w=1}^W\left(s_w-\widehat{s}_w\right)^2 LMSE(θT,θR)=W1w=1∑W(sw−s w)2

  • 误差度量

    采用信号失真比(SDR)来测量 s s s和 s ^ \hat s s^之间的L2误差:
    S D R = 10 log ⁡ 10 ( ∥ s ∥ 2 ∥ s − s ^ ∥ 2 ) . S D R=10 \log _{10}\left(\frac{\|\boldsymbol{s}\|^2}{\|\boldsymbol{s}-\widehat{\boldsymbol{s}}\|^2}\right) . SDR=10log10(∥s−s ∥2∥s∥2).


自己的看法(作者如何得到的创新思路)

这篇论文,一言难尽,大概就是找一个新场景(speech),再找一个那时候流行的网络结构(attention),然后套上语义的壳,就是一篇ICC 😭
选择大于努力


相关推荐
Ama_tor7 分钟前
14.AI搭建preparationのBERT预训练模型进行文本分类
人工智能·深度学习·bert
QQ6765800818 分钟前
基于 PyTorch 的 VGG16 深度学习人脸识别检测系统的实现+ui界面
人工智能·pytorch·python·深度学习·ui·人脸识别
张较瘦_23 分钟前
[论文阅读] 人工智能 | 用大语言模型解决软件元数据“身份谜题”:科研软件的“认脸”新方案
论文阅读·人工智能·语言模型
Blossom.11828 分钟前
量子通信:从科幻走向现实的未来通信技术
人工智能·深度学习·目标检测·机器学习·计算机视觉·语音识别·量子计算
平凡灵感码头33 分钟前
OpenAI 即将推出 GPT-5:开启多模态、持续记忆对话新时代
人工智能·gpt
软件测试小仙女44 分钟前
鸿蒙APP测试实战:从HDC命令到专项测试
大数据·软件测试·数据库·人工智能·测试工具·华为·harmonyos
三花AI1 小时前
ComfyUI 子工作流功能:一次编辑全局更新
人工智能
大模型铲屎官1 小时前
【深度学习-Day 23】框架实战:模型训练与评估核心环节详解 (MNIST实战)
人工智能·pytorch·python·深度学习·大模型·llm·mnist
Elastic 中国社区官方博客1 小时前
Elastic 获得 AWS 教育 ISV 合作伙伴资质,进一步增强教育解决方案产品组合
大数据·人工智能·elasticsearch·搜索引擎·云计算·全文检索·aws
Jamence2 小时前
多模态大语言模型arxiv论文略读(106)
论文阅读·人工智能·语言模型·自然语言处理·论文笔记